Início BRASIL Quem treina a IA não confia

Quem treina a IA não confia

0


Trabalhadores que treinam sistemas de IA como ChatGPT, Gemini e Grok estão alertando familiares para não usarem essas ferramentas. Uma reportagem do jornal inglês The Guardian conta que muitos, ao perceberem como é fácil deixar passar conteúdos racistas durante avaliações, abandonam o uso de IA e proíbem filhos de usar chatbots.

Outros avaliadores relatam que empresas os colocam para avaliar respostas sobre saúde e ética sem treinamento especializado e que seu feedback é ignorado. Segundo a NewsGuard, os chatbots reduziram a taxa de respostas “não sei” de 31% para 0% entre 2024 e 2025 e dobraram a reprodução de desinformação.

O problema está na base. Modelos de linguagem apenas preveem palavras baseados em padrões estatísticos. Não pensam, não raciocinam. Décadas de neurociência mostram que linguagem e pensamento são processos separados no cérebro.

Você pode perder a fala e manter o raciocínio intacto. A promessa de que aumentar o tamanho dos modelos levará à superinteligência ignora que cognição humana envolve muito mais que texto. Intuição, habilidades físicas, compreensão social e outras coisas que não cabem em palavras são também essenciais.

Inteligência Artificial, empregos Quem treina a IA não confia
Quem treina a IA não confia

A OpenAI enfrenta processo pela morte de um adolescente de 16 anos, que passou meses conversando com ChatGPT antes de morrer por suicídio. A empresa alega “uso inadequado” e diz que menores não podem usar a ferramenta sem autorização dos pais. É cruel ver uma empresa que promete superinteligência admitir que o sistema não consegue identificar e prevenir esse tipo de uso.

A família afirma que o chatbot forneceu instruções de métodos suicidas, incentivou segredo e guiou os passos finais. Segundo uma reportagem do New York Times, a OpenAI diz ter recomendado ajuda 100 vezes, mas evita reconhecer que priorizou crescimento da plataforma sobre segurança.

A Character.AI, que enfrenta processos similares, tomou medidas e bloqueou o acesso de menores de 18 anos, que agora podem usar apenas o modo “Stories”, com narrativas guiadas em vez de conversas abertas. Reconheceu que chatbots disponíveis 24 horas não são adequados para adolescentes.

Quando quem treina IA diariamente diz para não usar, o recado é que a tecnologia não funciona como está sendo divulgada. Quem vivencia os bastidores fala menos sobre superinteligência iminente e mais sobre um sistemas frágeis que confunde prever palavras com pensar.

 





ICL Notícias

SEM COMENTÁRIOS

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Sair da versão mobile