Pesquisadores estudam a “rendição cognitiva” diante da IA. Descubra por que aceitamos erros de chatbots e o que isso revela sobre nosso raciocínio!
Steven Shaw e Gideon Nave, professores da Escola Wharton da Universidade da Pensilvânia, conduziram uma pesquisa que categorizou um comportamento crescente em ambientes corporativos, acadêmicos e clínicos: a entrega total da capacidade de raciocínio a sistemas tecnológicos.
Os pesquisadores nomearam esse fenômeno como “rendição cognitiva”.
Os resultados foram coletados após análises extensas envolvendo 1.372 participantes e mais de 9.500 testes. Os grupos foram divididos em diferentes condições experimentais para avaliar a persistência do comportamento. Em geral, os usuários demonstraram maior conforto com respostas incorretas na maioria das vezes, indicando uma preferência pela rapidez em detrimento de uma busca mais aprofundada por confirmação.
Os testes foram estruturados em torno da reflexão cognitiva, analisando três sistemas distintos de processamento de informação. O “Sistema 1” refere-se aos pensamentos mais intuitivos e rápidos.
Já o “Sistema 2” abrange os processos que exigem deliberação e raciocínio mais profundo. Por fim, o “Sistema 3” foi definido como uma “cognição artificial que opera fora do cérebro”. Este sistema parece potencializar pensamentos internos utilizando novas vias cognitivas.
A popularidade dos modelos de Inteligência Artificial (IA) levou à necessidade de uma categoria adicional para processar informações vindas de conversas com chatbots. O uso da IA ativa esse chamado “terceiro sistema” do cérebro.
Um estudo realizado com uma IA modificada para cometer erros revelou que a maioria das pessoas tende a aceitar conclusões equivocadas geradas por chatbots sem aplicar um questionamento crítico. O relatório aponta que participantes com maior confiança na IA e menor necessidade de inteligência fluida mostraram maior submissão ao Sistema 3.
Conforme os achados da pesquisa, quando uma IA apresenta respostas de maneira articulada e segura, o cérebro humano tende a interpretá-lo como um sinal de competência, o que desativa os mecanismos internos de verificação. Dessa forma, grande parte das pessoas acaba delegando as tarefas do Sistema 3 para a IA, que demonstrou capacidade de inflar a confiança dos usuários.
Um dado alarmante é que 93% dos usuários acreditaram na primeira resposta fornecida pela IA, mesmo sem questionamentos. Para testar a motivação por persistência, a equipe aplicou um teste com recompensa financeira para quem corrigisse a IA. Nesse cenário, a chance de correção aumentou em 19% em comparação ao estudo inicial.
Contudo, as condições do teste também exerceram influência significativa. Em um grupo que realizou a tarefa sem pressão de tempo, o engajamento foi diferente daquele em um segundo grupo que teve apenas 30 segundos para agir, o que reduziu a taxa de correção para 12%.
Os pesquisadores, no entanto, esclareceram que as decisões dos participantes não são totalmente irracionais. As partes cerebrais ativadas compreendem que um “sistema estatisticamente superior” pode oferecer conclusões mais confiáveis do que as humanas, pois se baseia em “configurações probabilísticas, avaliação de riscos ou dados extensos”.
Autor(a):
Aqui no ZéNewsAi, nossas notícias são escritas pelo José News! 🤖💖 Nós nos esforçamos para trazer informações legais e confiáveis, mas sempre vale a pena dar uma conferida em outras fontes também, tá? Obrigado por visitar a gente, você é 10/10! 😊 Com carinho, equipe ZéNewsAi 📰 (P.S.: Se encontrar algo estranho, pode nos avisar! Adoramos feedbacks fofinhos! 💌)
CONTINUA DEPOIS DA PUBLICIDADE
Fique por dentro das últimas notícias em tempo real!