
DeepSeek revela nova abordagem para melhorar o raciocínio da IA
Nova técnica do DeepSeek aumenta a precisão das respostas do modelo de linguagem.
A empresa chinesa de inteligência artificial DeepSeek revelou um novo método avançado para aprimorar o raciocínio de modelos de linguagem (LLMs), prometendo respostas mais precisas e rápidas em comparação com as tecnologias atuais. Desenvolvida em parceria com pesquisadores da Universidade Tsinghua, a abordagem combina modelagem de recompensa generativa (GRM) com um sistema de ajuste crítico autodidata, representando um avanço significativo no desenvolvimento de LLMs.
Segundo artigo publicado no repositório científico arXiv, os modelos resultantes – chamados DeepSeek-GRM – superaram os métodos existentes e mostraram desempenho competitivo quando comparados a modelos de recompensa pública amplamente utilizados. Essa inovação visa alinhar melhor as respostas dos modelos de IA às preferências humanas, elevando o nível de qualidade e confiabilidade das interações com inteligência artificial.
A DeepSeek também anunciou planos de lançar os modelos DeepSeek-GRM como código aberto, embora ainda não tenha divulgado uma data oficial. O anúncio reforça o crescente interesse global pela empresa, que já havia se destacado anteriormente com seu modelo de fundação V3 e o modelo de raciocínio R1.
Publicar comentário