Um novo modelo de linguagem open-source chamado Reflection 70B está causando alvoroço na comunidade de IA. Criado por Matt Schumer, conhecido por seus projetos open-source, o modelo se baseia em uma técnica inovadora chamada "reflection tuning", que permite ao modelo identificar e corrigir suas próprias "alucinações".

Reflection 70B é uma versão otimizada do modelo Llama 81, com 70 bilhões de parâmetros. Os benchmarks iniciais são impressionantes, superando modelos open-source e alguns modelos fechados como Claude e GPT-4 em testes como o MMLU, GSM8K e outros. A técnica de "reflection tuning" é a chave para esse desempenho, permitindo que o modelo revise e refine suas respostas, similar a um processo de pensamento humano.
Um exemplo interessante é a tarefa de escrever a primeira frase da Declaração de Independência dos EUA em escrita espelhada. O modelo divide a tarefa em etapas, como recordar a frase, aplicar a técnica de escrita espelhada e, em seguida, utiliza a "reflection" para verificar se o resultado está correto. Essa habilidade de autocorreção é um avanço significativo, mas é importante observar que o modelo não está realmente "pensando" no sentido humano, mas simulando esse processo através de sua programação.
Apesar do entusiasmo inicial, alguns especialistas argumentam que a técnica de "reflection tuning" é essencialmente uma forma avançada de prompt engineering, onde o modelo é treinado para exibir um processo de pensamento passo a passo. Independentemente disso, o Reflection 70B representa um avanço promissor no campo de modelos de linguagem open-source.
A expectativa é alta para o lançamento do Reflection 405B, previsto para breve. Se o modelo cumprir as promessas de superar todos os outros modelos existentes, podemos estar diante de uma nova era para a acessibilidade e desenvolvimento de IA.