Logo R7.com
Logo do PlayPlus

Apple interrompe uso de IA que resume notícias após ‘alucinação’ e divulgação de fake news

Recursos do Apple Intelligence afirmou que Luigi Mangione atirou em si próprio, entre outros erros grosseiros

Tela Azul|Filipe SiqueiraOpens in new window

Apple desativou recurso que resumia notícias com IA Flickr/Daniel Torres Bonatto (Sob Licença Creative Commons - CC BY-SA 2.0)

Das big techs, a Apple foi a que fez uso mais discreto de inteligência artificial até o momento. Apesar da postura mais comedida — em comparação com a Microsoft e seu cada vez mais onipresente Copilot e o Google e o assistente Gemini —, a empresa apresentou o Apple Intelligence nas versões mais caras e poderosas do iPhone 16. O software ajuda na escrita de textos, emails, criação de imagens e emojis, além de mais praticidade da assistente Siri.

Mas um dos recursos do software, que fazia resumos de notícias, acaba de ser desabilitado pela empresa após uma série de alucinações e criação de notícias falsas. Na quinta-feira (16), a fabricante do iPhone lançou a atualização beta iOS 18.3, que colocou o recurso na geladeira. Quando for lançada para todo público, todos os aparelhos com suporte ao Apple Intelligence ficarão sem o recurso.

Se levarmos em conta o raro histórico de falhas admitas publicamente pela empresa, concluímos facilmente que produtos com IA ainda parecem distantes de entregar o que foi amplamente prometido por peças de marketing.

Segundo o jornalista Geoffrey A. Fowler, do Washington Post:


Quando analisei o software no início do beta no verão passado — e novamente quando foi amplamente lançado em outubro — notei que a IA às vezes deturpava fatos das notificações que estava resumindo. Esses resumos mutilados eram divertidos em mensagens de texto de baixo risco, mas mais perigosos em alertas de aplicativos de notícias.

Em um dos erros, o software afirmou que Luigi Mangione havia atirado em si próprio, enquanto outro resumo afirmou que o tenista Rafael Nadal havia se assumido gay.

Em uma época em que boa parte do público não lê notícias completas, muito menos verificam a possível veracidade delas, é um recurso perigoso que pode desinformar leitores. O Google enfrentou problemas semelhantes com alguns recursos do Gemini, e a OpenAI já deixou claro que não se pode confiar totalmente nas informações dadas pelo ChatGPT.

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.