Logo R7.com
Logo do PlayPlus

Estudo aponta que uso de inteligência artificial pode ‘atrofiar’ a cognição humana

Pesquisa feita pela Microsoft conclui que uso de chatbots pode criar dependência e reduzir o pensamento crítico de trabalhadores

Tela Azul|Filipe SiqueiraOpens in new window

Uso contínuo de IA pode causar diminuição de pensamento crítico, aponta etudo Unplash/@neringa (Sob licença de uso gratuito)

Quais as consequências do uso contínuo de chatbots de inteligência artificial, como o ChatGPT, Copilot ou Gemini? Enquanto corporações bilionárias afirmam que logo softwares de IA gerarão riqueza sem precedentes e podem canibalizar postos de trabalho na velocidade da luz, pesquisadores estudaram possíveis consequências cognitivas do uso contínuo da IA, e os resultados não são lá muito animadores.

Em um estudo publicado por especialistas da Microsoft e da Universidade Carnegie Mellon, dos Estados Unidos, concluiu-se que o uso de ferramentas de IA generativa pode “resultar na deterioração das faculdades cognitivas”.

“(…) ou seja, que usuários com acesso a ferramentas de IA generativa produzem um conjunto menos diverso de resultados para a mesma tarefa, em comparação com aqueles sem. Essa tendência à convergência reflete uma falta de julgamento pessoal, contextualizado, crítico e reflexivo da saída da IA e, portanto, pode ser interpretada como uma deterioração do pensamento crítico”, escrevem os pesquisadores na introdução do estudo.

O estudo envolveu 319 trabalhadores que usam IA generativa na rotina do trabalho, e fez uma pesquisa detalhada sobre como eles utilizam tais ferramentas em sua rotina.


Os resultados mostraram que quanto mais tais funcionários confiam na IA para realizar tarefas rotineiras, mais dependem desses softwares no dia a dia e menos se engajam criticamente no próprio trabalho. O inverso também é verdadeiro: “trabalhadores que estão confiantes em suas próprias habilidades tendem a perceber maior esforço nessas tarefas, particularmente ao avaliar e aplicar respostas de IA”.

Ao se tornarem dependentes da IA, funcionários “aceitam recomendações incorretas” sem qualquer reflexão ou crítica. Essa possibilidade é ainda pior em tarefas com prazos apertados.


“Há preocupações de que escritores novatos possam se tornar excessivamente dependentes dessas ferramentas, potencialmente prejudicando seu desenvolvimento de habilidades de longo prazo ao ignorar processos críticos de escrita, como construir argumentos lógicos e entender o assunto”, ressalta o estudo.

Tecnologias do pensamento

Embora pareça alarmante, o estudo também aponta que ferramentas como o ChatGPT e o Copilot são “as mais recentes de uma longa linha de tecnologias que levantam questões sobre seu impacto na qualidade do pensamento humano” e ainda não é possível avaliar todos os efeitos delas na nossa vida.


Quem é um pouco mais velho deve recordar do tempo em que memorizávamos endereços, números de telefone e receitas, o que não é exatamente uma realidade no século 21 — e não é necessariamente ruim. Mas com chatbots a questão pode ser mais profunda do que uma terceirização da memória, uma vez que envolve habilidades básicas de escrita e análise de texto.

Por isso, desenvolvedores da Microsoft — empresa que também é a maior investidora da OpenAI, investidora do ChatGPT — apontam para a necessidade de criar ferramentas de IA que equilibrem a realização de tarefas sem reduzir o pensamento crítico.

“Os objetivos são tanto melhorar a qualidade das tarefas assistidas por IA quanto capacitar os usuários a desenvolver suas habilidades e manter um relacionamento equilibrado com a IA. (…) As ferramentas podem incorporar controles explícitos para que os usuários regulem a extensão da assistência da IA, dependendo de seus níveis de confiança e da complexidade da tarefa.”

Últimas


Utilizamos cookies e tecnologia para aprimorar sua experiência de navegação de acordo com oAviso de Privacidade.