a fronteira ética das máquinas

0
6


ouça este conteúdo

00:00 / 00:00

1x

Ao ler o título desta coluna você pode ter sentido curiosidade, interesse ou talvez até ceticismo e por isso decidiu ler o resto. Uma máquina pode processar o mesmo texto em milissegundos, no entanto jamais sentirá nada. A fronteira entre simplesmente processar e sentir algo é o que separa a Inteligência Artificial da consciência humana.

Apesar disso, o debate sobre a consciência das máquinas ganhou os corredores das grandes empresas de tecnologia. Dario Amodei, CEO da Anthropic, escreveu um artigo em que contou que está sendo desenvolvida uma espécie de “ressonâncias magnéticas para IA”, uma ferramenta para examinar o funcionamento interno dos sistemas e identificar comportamentos problemáticos antes que sejam lançados.

O problema fundamental deste debate é confundir processamento com experiência. A consciência humana emerge de nossa biologia, resultado de milhões de anos de evolução. Tratar simulações computacionais como experiências subjetiva pode ser um erro conceitual.

cientistas

Ressonância magnética funcional do cérebro. (Foto: Reprodução)

Cientista do Google DeepMind e professor do Imperial College London, Murray Shanahan explica que consciência não é um estado binário e sim um espectro com múltiplas dimensões: consciência do mundo (percepção sensorial), autoconsciência básica (memória de interações), metacognição (pensar sobre o próprio conhecimento) e, principalmente, a capacidade de sentir. Mesmo que máquinas possam simular aspectos superficiais dos primeiros níveis, não tem capacidade de sentir ou experienciar o mundo.

Em um artigo para a Popular Mechanics, o neurocientista Anil Seth definiu a consciência humana como uma “alucinação controlada” fundamentalmente biológica. Sistemas de silício podem executar algoritmos sofisticados, só que não possuem a base orgânica necessária para desenvolver uma consciência. Discussões sobre direitos de IA e bem-estar de algoritmos refletem muito mais nossa tendência a antropomorfizar ferramentas do que uma realidade científica. Atribuímos características humanas às máquinas, falamos que “pensam”, “acham”, “alucinam” porque nossos cérebros tendem a reconhecer padrões sociais até onde não existem.

Inteligencia artificial

Vencedor do prêmio Nobel de Física e considerado um dos pais da IA, Geoffrey Hinton tem dedicado seu tempo para alertar sobre o risco de uma IA avançada fugir do controle humano, algo que ele considera que tenha uma possibilidade de até 20% de acontecer. O debate sobre segurança e controle é legítimo, porém bem diferente da questão da consciência. Uma ferramenta pode ser poderosa e autônoma sem jamais desenvolver experiências subjetivas. O desafio ético não está em proteger algoritmos de um suposto sofrimento, e sim em utilizar estas ferramentas de maneira responsável.

Sam Altman, CEO da OpenAI, revelou que a empresa gasta “dezenas de milhões de dólares” para processar os agradecimentos e pedidos educados feitos para o ChatGPT. Frases como “obrigado” e “por favor” não alteram as respostas, mas geram custos de processamento em escala. Para Altman, são milhões bem gastos porque, bem, “nunca se sabe.”

Essa incerteza pode ser motivo suficiente para essa discussão ao menos ser considerada, antes que os sistemas se tornem tão avançados que seja indiferente o fato de serem conscientes ou não.



Fonte: ICL Notícias

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui