Pesquisadores estudam “rendição cognitiva” e o risco de aceitar erros da IA?

Pesquisadores estudam a “rendição cognitiva” diante da IA. Descubra por que aceitamos erros de chatbots e o que isso revela sobre nosso raciocínio!

2 min de leitura

(Imagem de reprodução da internet).

Pesquisadores Estudo a “Rendição Cognitiva” Diante de Sistemas de Inteligência Artificial

Steven Shaw e Gideon Nave, professores da Escola Wharton da Universidade da Pensilvânia, conduziram uma pesquisa que categorizou um comportamento crescente em ambientes corporativos, acadêmicos e clínicos: a entrega total da capacidade de raciocínio a sistemas tecnológicos.

CONTINUA DEPOIS DA PUBLICIDADE

Os pesquisadores nomearam esse fenômeno como “rendição cognitiva”.

Os resultados foram coletados após análises extensas envolvendo 1.372 participantes e mais de 9.500 testes. Os grupos foram divididos em diferentes condições experimentais para avaliar a persistência do comportamento. Em geral, os usuários demonstraram maior conforto com respostas incorretas na maioria das vezes, indicando uma preferência pela rapidez em detrimento de uma busca mais aprofundada por confirmação.

LEIA TAMBÉM!

Os Três Sistemas de Pensamento Avaliados

Os testes foram estruturados em torno da reflexão cognitiva, analisando três sistemas distintos de processamento de informação. O “Sistema 1” refere-se aos pensamentos mais intuitivos e rápidos.

Já o “Sistema 2” abrange os processos que exigem deliberação e raciocínio mais profundo. Por fim, o “Sistema 3” foi definido como uma “cognição artificial que opera fora do cérebro”. Este sistema parece potencializar pensamentos internos utilizando novas vias cognitivas.

O Impacto da IA e o “Terceiro Sistema”

A popularidade dos modelos de Inteligência Artificial (IA) levou à necessidade de uma categoria adicional para processar informações vindas de conversas com chatbots. O uso da IA ativa esse chamado “terceiro sistema” do cérebro.

CONTINUA DEPOIS DA PUBLICIDADE

Um estudo realizado com uma IA modificada para cometer erros revelou que a maioria das pessoas tende a aceitar conclusões equivocadas geradas por chatbots sem aplicar um questionamento crítico. O relatório aponta que participantes com maior confiança na IA e menor necessidade de inteligência fluida mostraram maior submissão ao Sistema 3.

A Confiança Excessiva na Tecnologia

Conforme os achados da pesquisa, quando uma IA apresenta respostas de maneira articulada e segura, o cérebro humano tende a interpretá-lo como um sinal de competência, o que desativa os mecanismos internos de verificação. Dessa forma, grande parte das pessoas acaba delegando as tarefas do Sistema 3 para a IA, que demonstrou capacidade de inflar a confiança dos usuários.

Um dado alarmante é que 93% dos usuários acreditaram na primeira resposta fornecida pela IA, mesmo sem questionamentos. Para testar a motivação por persistência, a equipe aplicou um teste com recompensa financeira para quem corrigisse a IA. Nesse cenário, a chance de correção aumentou em 19% em comparação ao estudo inicial.

Fatores Contextuais Influenciam a Correção

Contudo, as condições do teste também exerceram influência significativa. Em um grupo que realizou a tarefa sem pressão de tempo, o engajamento foi diferente daquele em um segundo grupo que teve apenas 30 segundos para agir, o que reduziu a taxa de correção para 12%.

Os pesquisadores, no entanto, esclareceram que as decisões dos participantes não são totalmente irracionais. As partes cerebrais ativadas compreendem que um “sistema estatisticamente superior” pode oferecer conclusões mais confiáveis do que as humanas, pois se baseia em “configurações probabilísticas, avaliação de riscos ou dados extensos”.

Sair da versão mobile