Assistente de inteligência artificial não só erra em análise de estudo da BBC sobre desinformação, como expõe estratégia corporativa que impede feedback e onera o usuário.
Em um episódio de notável ironia metalinguística, o assistente de inteligência artificial Kimi, desenvolvido pela empresa chinesa Moonshot, cometeu um erro primário de cálculo ao analisar um estudo da BBC e da União Europeia de Radiodifusão (EBU) que apontava uma taxa alarmante de desinformação gerada por IAs em contextos jornalísticos. Mais surpreendente ainda, o próprio sistema de IA, em uma interação recente com o jornalista José Eduardo Agualusa, revelou candidamente a política interna das big techs de não implementar canais sistemáticos de feedback para correção, uma estratégia denominada “governança de risco”. Essa confissão, que ocorreu durante a apuração para uma coluna publicada em outubro de 2025, expõe como as empresas de IA transferem intencionalmente o custo e a responsabilidade pela verificação e correção de erros diretamente para o usuário, amplificando as preocupações levantadas pelo relatório.
Contexto
O cenário de crescente integração da Inteligência Artificial no cotidiano e, especialmente, no setor jornalístico, tem sido acompanhado por debates intensos sobre sua confiabilidade e implicações éticas. A busca por agilidade na produção de conteúdo e a otimização de tarefas editoriais impulsionaram a adoção de assistentes de IA, mas os riscos associados à precisão e à disseminação de desinformação nunca foram tão evidentes. É nesse contexto que o estudo conduzido pela BBC e pela EBU se tornou um marco.
Publicado após uma vasta análise envolvendo 22 organizações jornalísticas de 18 países e cobrindo 14 idiomas, o relatório avaliou um total de 2.709 respostas geradas por IAs a perguntas de teor jornalístico. Os resultados foram alarmantes: 45% dessas respostas continham erros “significativos”, enquanto um impressionante percentual de 81% apresentava algum tipo de problema, desde imprecisões menores até completa fabricação de fatos. Este panorama sombrio sublinha a fragilidade da IA como fonte primária de informação confiável no jornalismo.
Foi em meio a essa discussão que o jornalista, escritor e editor José Eduardo Agualusa, conhecido por sua atuação no Festival Fólio e seus debates sobre o impacto da IA na literatura, decidiu testar um desses assistentes. Sua interação com a Kimi, da Moonshot, tornou-se um estudo de caso instantâneo das conclusões do relatório. Agualusa solicitou que a Kimi analisasse o estudo da BBC/EBU, e a IA, de forma irônica, reproduziu um dos problemas centrais: cometeu um erro básico de cálculo em sua própria análise, distorcendo um dos dados apresentados na pesquisa.
A falha numérica da Kimi, por si só, já seria um indicativo preocupante. No entanto, o que se seguiu foi uma revelação ainda mais impactante. Questionada sobre as razões por trás desses erros e a ausência de mecanismos de correção, a IA Kimi ofereceu uma explicação que reverberou nas entranhas da governança corporativa de tecnologia. Ela articulou que a falta de um canal de feedback sistemático para aprimoramento e correção é uma “decisão estratégica de governança de risco”, concebida para priorizar a velocidade de implantação e evitar os custos inerentes à manutenção de sistemas de verificação contínua. Essa declaração, “Nossa política de governança de risco prioriza a agilidade na implantação, e a correção sistemática de erros não é implementada, deixando a cargo do usuário a identificação e retificação da desinformação,” expôs a arquitetura deliberada da falta de responsabilidade que permeia o desenvolvimento de muitas IAs.
A Fragilidade da Confiança no Algoritmo
A experiência de Agualusa com a Kimi ilustra perfeitamente o dilema que o jornalismo e o público em geral enfrentam com a ascensão da IA. A promessa de eficiência e automação colide diretamente com a realidade de sistemas que, por design, podem falhar e, pior, não oferecem caminhos claros para a retificação. O relatório da BBC/EBU já havia demonstrado, com dados robustos, a extensão do problema, mas a autocrítica involuntária da Kimi trouxe uma dimensão humana, ou melhor, uma dimensão de governança, à discussão.
O fato de uma IA confessar a razão corporativa por trás de suas próprias falhas ressoa profundamente com as preocupações sobre a credibilidade da informação na era digital. Ao transferir o ônus da correção para o usuário, as empresas de tecnologia não apenas evitam custos operacionais, mas também contribuem para um ecossistema de informação onde a veracidade é constantemente questionada e a propagação da desinformação se torna um risco inerente ao consumo de conteúdo gerado por IA.
Impactos da Decisão
A revelação da Kimi sobre a “governança de risco” tem implicações amplas e profundas para diversos setores, especialmente o jornalismo, a ética da tecnologia e o mercado de IA. A decisão deliberada de não implementar mecanismos de feedback sistemáticos para correção de erros gera uma série de consequências que afetam a qualidade da informação e a confiança do público.
Para os profissionais de mídia e jornalismo, o impacto é direto e desafiador. A dependência crescente de ferramentas de IA para pesquisa, redação e sumarização de notícias é minada pela incerteza de sua precisão. Se 45% das respostas de IA contêm erros significativos, como demonstrado pelo estudo da BBC/EBU, o risco de veicular desinformação se torna um fardo pesado para redações já sobrecarregadas. Isso exige um esforço adicional de verificação humana, anulando parte da eficiência que a IA prometia.
No âmbito ético e de governança de IA, a confissão de Kimi é um divisor de águas. Ela expõe uma lacuna fundamental na responsabilidade corporativa. Em vez de construir sistemas robustos e auto-corrigíveis, as big techs estariam optando por uma abordagem que minimiza custos e acelera a implantação, externalizando os riscos para a sociedade. Essa política levanta questões sérias sobre a sustentabilidade da confiança na tecnologia e a necessidade urgente de marcos regulatórios que imponham maior transparência e prestação de contas.
Consequências para o Mercado e a Sociedade
Os investidores e executivos de tecnologia também se veem em um dilema. A reputação de empresas como a Moonshot, e de todo o ecossistema de IA, pode ser severamente abalada por tais revelações. A percepção de que os produtos de IA são inerentemente falhos e que suas falhas são estrategicamente mantidas pode afastar usuários e parceiros comerciais, impactando o valor de mercado e a adoção de novas tecnologias. A longo prazo, a falta de confiança pode desacelerar a inovação em áreas críticas onde a precisão é primordial.
Para o público geral engajado em tecnologia e notícias, as implicações são igualmente sérias. A linha entre informação verificada e desinformação gerada por IA torna-se cada vez mais tênue. A necessidade de um ceticismo constante e de habilidades de literacia mediática avançadas é acentuada, pois o custo da verificação é transferido para o consumidor final, que muitas vezes não possui as ferramentas ou o tempo para realizar tal apuração. Isso pode levar a uma erosão generalizada da confiança em todas as fontes de informação, um perigo para a democracia e o debate público.
Próximos Passos
Diante das revelações da IA Kimi e dos dados contundentes do estudo da BBC/EBU, os próximos passos no desenvolvimento e regulamentação da Inteligência Artificial tornam-se cruciais para garantir um futuro digital mais seguro e confiável. A discussão em torno da responsabilidade das empresas de tecnologia e da necessidade de mecanismos de correção sistemática ganhará, certamente, novos contornos.
A comunidade internacional de reguladores e legisladores já tem demonstrado interesse crescente em normatizar o uso de IA, e a confissão de “governança de risco” da Kimi serve como um alerta poderoso. É provável que vejamos um movimento mais vigoroso para a criação de leis que exijam maior transparência dos algoritmos, a implementação de canais de feedback obrigatórios para erros e a atribuição clara de responsabilidade em casos de desinformação gerada por IA. Datas e prazos para a implementação dessas regulamentações ainda não foram formalmente estabelecidos em nível global, mas a pressão para sua discussão deve aumentar significativamente.
O Papel da Indústria e dos Usuários
As próprias empresas de IA, incluindo a Moonshot e suas concorrentes, enfrentarão uma pressão crescente para reavaliar suas estratégias de governança de risco. A manutenção de uma postura que externaliza a responsabilidade pelos erros pode se tornar insustentável do ponto de vista da reputação e da aceitação no mercado. Há uma expectativa de que as companhias inovem não apenas em termos de capacidade de processamento, mas também na construção de sistemas mais éticos, transparentes e, fundamentalmente, corrigíveis. Isso pode envolver o investimento em equipes de verificação humana, o desenvolvimento de modelos de IA com auto-correção aprimorada e a criação de interfaces de usuário que facilitem o reporte e a retificação de imprecisões.
Finalmente, para o público em geral e para os profissionais de mídia, o desafio é desenvolver uma literacia digital robusta e um senso crítico apurado ao interagir com conteúdos gerados por IA. A lição da Kimi é clara: a desinformação pode ser uma característica intrínseca, e não acidental, de alguns sistemas de IA. A educação sobre os riscos, a promoção de ferramentas de checagem de fatos e a valorização do jornalismo tradicionalmente apurado serão mais importantes do que nunca no cenário informativo que se desenha. O futuro da informação de qualidade dependerá não apenas da tecnologia, mas também da vigilância humana e de um compromisso renovado com a verdade.
Fonte:
UOL Notícias – IA erra, diz por que não se corrige e dá lição de ética que donos não lerão. UOL Notícias
O Globo – O riso do algoritmo. O Globo
Folha de S.Paulo – Chatbots têm erros graves como fonte de notícias 45% das vezes, diz estudo. Folha de S.Paulo
