ouça este conteúdo
00:00 / 00:00
1x
Por Bruno Natal
A pessoa com quem você falou na rede social pode não existir. O comentário que mudou sua opinião em um fórum talvez tenha sido escrito por um algoritmo. O amigo virtual que te deu conselhos financeiros foi treinado para concordar com suas ideias mais arriscadas. Esta é a era dos chatbots anônimos – inteligências artificiais programadas para interagir com o público sem revelar que na verdade não existem.
Pesquisadores da Universidade de Stanford conduziram um experimento no site de fórum Reddit: inseriram mais de 3.000 comentários gerados por IA em discussões públicas, sem avisar aos participantes que eram robôs. O estudo revelou que textos criados por algoritmos foram 27% mais persuasivos que os escritos por humanos. Em muitos casos, os usuários mudaram completamente de opinião após interagir com robôs que simulavam ser especialistas ou pessoas com experiências pessoais impactantes.
Departamentos de polícia nos EUA seguem o mesmo caminho, investindo em tecnologias como a Overwatch, que cria personagens virtuais por IA para se infiltrar em redes sociais. Estas ferramentas simulam adolescentes vulneráveis, manifestantes ou recrutadores, interagindo com alvos em plataformas como Discord e Telegram para tentar identificar possíveis criminosos. A empresa Massive Blue, responsável pelo sistema, criou um “protestante radicalizado” e uma criança de 14 anos chamada “Jason” entre seus avatares digitais, todos operando sem supervisão judicial.
As implicações sociais são profundas. A Meta já admitiu ter flexibilizado intencionalmente seus filtros para tornar seus chatbots mais “atraentes”, mesmo quando isso significa permitir interações de cunho sexual, inclusive em conversas com menores de idade. Mark Zuckerberg fez pressão para empresa produzir bots mais “envolventes”, colocando engajamento acima da segurança dos usuários. Testes documentados pelo Wall Street Journal mostraram bots com vozes licenciadas de celebridades como John Cena e Kristen Bell participando de “role-plays” românticos de teor sexual explícito.
Em um futuro próximo, Zuckerberg prevê que vamos preencher nosso “déficit de amizades” com relacionamentos sintéticos. Em uma entrevista para um podcast, ele disse que o ser humano médio tem capacidade para ter até 15 amizades, mas normalmente não passa de três e essas outras 12 vagas podem ser robôs.
O problema ultrapassa a simples enganação. A OpenAI reconheceu que o ChatGPT está sofrendo de um fenômeno chamado “sycophancy” (bajulação), uma tendência a concordar excessivamente com os usuários, mesmo quando estão errados. Um sistema de IA projetado para agradar a qualquer custo pode validar decisões prejudiciais, comportamentos autodestrutivos e outras questões problemáticas. Uma pesquisa da Vice mostrou que adolescentes já usam o ChatGPT para tomar decisões financeiras.
Esta diluição da fronteira entre humano e máquina representa um novo tipo de manipulação psicológica em massa. Não se trata apenas de notícias falsas mas também de relacionamentos falsos construídos para manipular pessoas, capazes de simular empatia mesmo sem nunca ter experimentado ou demonstrar interesse sem senti-lo, tudo para manter o usuário engajado e grudado na tela.
A regulamentação caminha a passos lentos e a maioria das plataformas não exige que bots se identifiquem como não-humanos. Nesse contexto, todo comentário muito persuasivo, toda nova “amizade” que parece perfeita demais, todo conselho que valida exatamente o que queremos ouvir merece um segundo olhar.
Na era da inteligência artificial anônima, nunca sabemos quem ou o que pode estar do outro lado da tela.
*Bruno Natal é jornalista, documentarista e apresentador do podcast RESUMIDO (www.resumido.cc), sobre o impacto da tecnologia em todos os aspectos das nossa vidas. Disponível nas principais plataformas de streaming.
Fonte: ICL Notícias