A Pós-verdade 2.0: propagação de conteúdo e os desafios cognitivos em tempos de inteligência artificial

Os efeitos negativos da IA e os desafios cognitivos (Crédito: Imagem gerada por IA a partir do Freepik)

Surgido em 2016, o termo pós-verdade tem ganhado novas abordagens e recebido ainda mais relevância em pesquisas que a relacionam como um elemento indelével do nosso tempo. No dossiê escrito por Eli Borges Junior, da USP, é abordada a distinção fundamental entre os dois tipos de mentiras na perspectiva de Hannah Arendt. As mentiras políticas modernas, ao criarem determinadas imagens e discursos, tornam difícil e complexa a distinção entre verdade e mentira, o que Arendt denomina “manipulação em massa de fatos e opiniões”.

Para o autor, esse fenômeno, caracterizado como “pós-verdade”, refere-se ao novo debate público, não mais ancorado em uma pretensa objetividade dos fatos – espaço bem definido e utilizado pelo jornalismo tradicional –, mas em versões circunstanciais com o objetivo de gerar contradição, confusão, iludir e persuadir a massa. A propagação de fake news tem sua mola propulsora na explosão da internet e das redes sociais nos últimos 15 anos.

Pós-verdade Há algum fenômeno particular de nossa época que esteja impulsionando o aparecimento de termos específicos como “pós-verdade”? Se no passado foram as fake news e a internet como veículo propagador, hoje temos um elemento que está, cada vez mais, nos desafiando ao gerar narrativas, imagens, vídeos e documentos com extrema capacidade para nos confundir: a Inteligência Artificial (IA).

Conteúdo do artigo
Construções narrativas divertidas e exageradas criadas pela IA possibilitam a rápida identificação se é verdade ou não, mas existem outros conteúdos que deixam essa linha cada vez mais tênue

O perigo das alucinações da IA e seus impactos

Um dos exemplos vistos recentemente são os vídeos curtos de supostos jornalistas realizando entrevistas em vídeos gerados por IA. Nesse contexto, o reconhecimento imediato de que a “reportagem” foi realizada por um roteiro de IA ocorre pelas chamadas absurdas, sensacionalistas e divertidas, repletas de termos e expressões que não fazem parte do jornalismo sério, além de abordarem termos estranhos e incompatíveis com a agenda setting que baliza o que vai ao ar ou não pelas empresas jornalísticas.

Essas “alucinações divertidas” que temos visto se espalhar nas redes sociais são uma demonstração clara, não apenas da capacidade criativa do brasileiro, mas também da qualidade dos vídeos gerados por IA, levando rapidamente a um perigoso sombreamento entre a verdade e a criação de notícias falsas. Não são alucinações nas quais a IA entrega respostas sem sentido; é muito pior que isso. A Inteligência Artificial está criando respostas que convencem em cenários que desafiam até os mais atentos.

“Me faça pensar”: A facilidade da IA e a redução cognitiva

Steve Krug, escritor e especialista norte-americano, autor do livro Não me Faça Pensar, é reconhecido até hoje como o pai da usabilidade. Ele passou muitas décadas explicando conceitualmente como tornar sites e aplicativos mais intuitivos e melhorar a navegação e utilização por parte do usuário. O que é fácil e simples de usar torna-se parte do nosso cotidiano rapidamente. Veja como o buscador do Google é simples ou como o WhatsApp é muito básico para enviar mensagens. Observe como o PIX se converteu no meio de pagamento mais utilizado pelos brasileiros, dada a sua facilidade de uso.

Agora, na esfera da Inteligência Artificial, basta um prompt com algumas perguntas e uma infinidade de informações surge automaticamente na tela, apontando caminhos, citando fontes, apresentando conceitos e fundamentos científicos para reforçar a credibilidade das informações. Essa facilidade na produção de respostas está provocando dois silenciosos e perigosos problemas: o primeiro é a nossa dificuldade de contestar o que está sendo dito pela IA e a “quase certeza” – dado o alto nível argumentativo – de que aquilo é uma verdade. As alucinações da IA são um problema para a maioria das LLMs disponíveis, como mostra a pesquisa realizada pela Vectara.

Conteúdo do artigo
Pesquisa realizada pela Vectara disponível em:

Desafios no ambiente de trabalho

Em ambientes de trabalho sob forte pressão para entrega nos prazos e o volume de tarefas solicitadas, usuários do ChatGPT, Gemini, Copilot entre outras ferramentas, usam essas IAs de modo indiscriminado e muitas vezes não fazem uma leitura crítica das respostas, buscando inconsistências, vieses ou alucinações. Além do efeito imediato, como a propagação de informações falsas dentro das empresas e em apresentações públicas, esse mesmo conteúdo passa a servir de fonte para alimentar o aprendizado da IA que, consequentemente, vai replicar as informações a partir dessa base de dados que não teve curadoria ou cuidado por parte dos humanos. Esse é um perigoso ciclo que alimenta a pós-verdade e propaga, silenciosamente, informações inverídicas.

Em um estudo realizado com o AI Detector Pro (plataforma que identifica a originalidade de textos), identificou-se algo impressionante: cerca de um quarto do novo conteúdo online é atualmente gerado por IA, e cada vez que esse conteúdo disponível for reinserido para novas saídas sem verificações, a IA se torna uma fonte infinita de dados incorretos, gerando mais e mais informações falsas ou imprecisas.

O impacto cognitivo do uso da IA: O pior ainda está por vir

Já sei, você vai falar que sempre surgem pesquisas que desqualificam as tecnologias emergentes, mas quero trazer algumas reflexões que para mim fazem total sentido. Um estudo realizado pelo Media Lab do MIT, intitulado: Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task” (“Seu Cérebro no ChatGPT: Acúmulo de dívida cognitiva ao usar um assistente de IA para tarefas de redação de ensaio”), mostra não apenas o crescimento das alucinações por parte das IAs, mas também a própria redução cognitiva em nós. Escrito por oito pesquisadores do MIT, o trabalho mostra como a dependência, cada vez maior, de modelos de IA sem qualquer tipo de raciocínio ou inteligência humana para discernir o que é verdadeiro ou falso pode reduzir nossa capacidade cognitiva.

Eletroencefalogramas (EEGs) foram usados para registrar a atividade das ondas cerebrais dos participantes e constataram que, dos três grupos, os que apresentaram menor engajamento e desempenho ruim foram os usuários do ChatGPT. O estudo, que durou vários meses, constatou que a situação só piorou para os usuários do ChatGPT. Sugeriu que o uso de LLMs de IA, como o ChatGPT, pode ser prejudicial ao desenvolvimento do pensamento crítico e da aprendizagem, afetando principalmente os usuários mais jovens. (Fonte: MIT Media Lab).

É claro que a conveniência das LLMs é incrível, mas isso não exclui os custos cognitivos, em especial dos mais jovens. Os usuários de LLM, de acordo com a pesquisa, apresentaram desempenho inferior consistentemente nos níveis neural, linguístico e comportamental. Esses resultados levantam preocupações sobre as implicações educacionais de longo prazo da dependência do LLM e ressaltam a necessidade de uma investigação mais aprofundada sobre o papel da IA na aprendizagem.

Você está ficando mais preguiçoso ao usar a Inteligência Artificial? Quero muito ler seu comentário!

Facebook
X
LinkedIn
Pinterest
Telegram
WhatsApp
Email
Print

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *