Mundo

IA até lê, mas não entende notícias, mostra pesquisa: ‘mundo caótico’

O problema que a gente pode ter é começar a perder esse rastreamento do que é real e do que não é. Cada vez mais a gente vai ter que trabalhar esse senso crítico de que é preciso checar as fontes
Diogo Cortiz

A BBC News submeteu 100 notícias contidas em seu site aos chatbots ChatGPT (OpenAI), Gemini (Google), Perplexity e Copilot (Microsoft). Pediu que eles resumissem cada uma delas.

Cerca de 51% das respostas foram insatisfatórias porque os jornalistas da organização encontraram problemas significativos nelas. Além disso, 19% dos resultados das inteligências artificiais incluíram declarações, números e datas erradas.

Nos testes, Copilot e Gemini tiveram mais problemas do que o ChatGPT e o Perplexity. A BBC não libera o conteúdo nesses chatbots, mas abriu uma exceção para fazer o teste em dezembro do ano passado.

Isso pode acontecer por uma série de motivos, um deles é a busca na web. Um desafio, quando estamos falando desse tipo de IA, é o mesmo que os buscadores têm, que é como dar relevância aos conteúdos
Diogo Cortiz

As alucinações são outro problema da IA, que faz chatbots entregarem respostas com trechos sem qualquer base na realidade.



Fonte

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Artigos relacionados

Mundo

Brasileiro condenado por tráfico de drogas na Tailândia tem pena reduzida por perdão do rei

SÃO PAULO, SP (FOLHAPRESS) – Preso em 2022 ao desembarcar no aeroporto...

Mundo

Investidores recuam com queda de ações de compradores de bitcoin

Pelo menos 61 empresas de capital aberto que não estão envolvidas principalmente...

Mundo

Após ameaça dos EUA, Lula manda recado a Trump e diz que Brasil é dono do próprio nariz

BRASÍLIA, DF (FOLHAPRESS) – O presidente Luiz Inácio Lula da Silva (PT)...

Mundo

Nasa encontra possíveis sinais de vida microscópica em Marte

No entanto, Hurowitz fez algumas advertências. “A razão, entretanto, pela qual não...