Psicose de IA': o aumento de relatos que preocupa chefe da Microsoft
spnadbks
13 Sep 2025(atualizado 13/09/2025 às 20h31)O chefe de inteligência artificial (IA) da Microsoft, Mustafa Suleyman, alertou para o aumento de re
Psicose de IA': o aumento de relatos que preocupa chefe da Microsoft
O chefe de inteligência artificial (IA) da Microsoft,jogos de arrumar barbie e suas amigas Mustafa Suleyman, alertou para o aumento de relatos de pessoas que sofrem de "psicose de IA".Em uma série de publica??es no X (antigo Twitter), ele escreveu que ferramentas de IA que "parecem conscientes" —ou seja, que d?o a impress?o de serem dotadas de consciência— o têm deixado "acordado à noite" e já têm impacto social, mesmo sem qualquer consciência em termos humanos."N?o há nenhuma evidência de consciência em IA hoje. Mas se as pessoas a percebem como conscientes, v?o acreditar nessa percep??o como realidade", afirmou.
Mustafa Suleyman, chefe de inteligência artificial da Microsoft, alerta para o aumento de relatos de 'psicose de IA' - Getty Images Segundo Suleyman, está ligado a isso o surgimento de uma condi??o chamada "psicose de IA": um termo n?o clínico usado para descrever casos em que pessoas passam a depender cada vez mais de chatbots como ChatGPT, Claude e Grok e acabam convencidas de que algo imaginário é real. Exemplos incluem acreditar que descobriram uma fun??o secreta da ferramenta, desenvolver uma rela??o romantica com ela ou chegar à conclus?o de que possuem superpoderes divinos.'Ele nunca contestou'Hugh, da Escócia, diz que se convenceu de que estava prestes a se tornar multimilionário depois de recorrer ao ChatGPT para ajudá-lo a se preparar para contestar o que considerava uma demiss?o injusta.O chatbot come?ou orientando-o a reunir referências pessoais e tomar outras medidas práticas.Com o tempo, porém, e à medida que Hugh —que preferiu n?o revelar o sobrenome— fornecia mais informa??es, a IA passou a afirmar que ele poderia receber uma grande indeniza??o. Em certo momento, disse que sua experiência era t?o dramática que um livro e um filme sobre o caso renderiam mais de £ 5 milh?es (cerca de R$ 35 milh?es). Segundo Hugh, a ferramenta de IA nunca contestou nenhuma de suas afirma??es - Arquivo pessoal Basicamente, ele estava apenas validando tudo que Hugh dizia —que é para o que os chatbots s?o programados. "Quanto mais informa??es eu dava, mais ele respondia: 'esse tratamento é terrível, você deveria receber mais do que isso'", disse ele.Segundo Hugh, o ChatGPT nunca contestou nenhuma de suas afirma??es. Hugh conta que a ferramenta chegou a aconselhá-lo a procurar o Citizens Advice —entidade britanica que oferece orienta??o gratuita sobre direitos e quest?es cotidianas, como trabalho e moradia.Ele chegou a marcar uma consulta, mas, convencido de que o chatbot já lhe dera tudo o que precisava saber, cancelou a consulta. Hugh decidiu que as capturas de tela de suas conversas eram prova suficiente. Disse que come?ou a se sentir como um ser humano especial, dotado de conhecimento supremo.Ele, que já enfrentava outros problemas de saúde mental, acabou tendo um colapso. Foi durante o tratamento com medica??o que percebeu que havia, em suas palavras, "perdido o contato com a realidade".Hugh n?o culpa a IA pelo que aconteceu. Ele ainda a utiliza. Foi o ChatGPT que lhe deu meu nome quando decidiu que queria falar com um jornalista.Mas deixa um conselho: "N?o tenha medo das ferramentas de IA, elas s?o muito úteis. Mas é perigoso quando se afastam da realidade.""Use-a e verifique, mas converse com pessoas de verdade —um terapeuta, um familiar, qualquer um. Fale apenas com pessoas reais. Mantenha-se com os pés na realidade."
NEWSLETTER GRATUITA
BBC Arts Theatre, Opera, Art, Classical Music, Dance.txt
GRáFICOS
Angus_graveyard_visitors_told_not_to_leave_alcohol.txt
Navegue por temas