Revisão Bibliográfica: Psicose de IA
Revisão bibliográfica sobre os efeitos psicológicos e sociais do uso de inteligências artificiais generativas
Tem sido relatado um número crescente de casos envolvendo o uso intenso de inteligências artificiais generativas, e o surgimento de sintomas psicológicos graves. Entre os episódios amplamente divulgados estão o suicídio de um adolescente nos Estados Unidos após meses de interação com a IA, uma mulher que acreditou estar sendo correspondida afetivamente pela máquina e um homem convencido de que poderia pular de um prédio sem se ferir, caso acreditasse verdadeiramente nisso. Esses eventos têm sido associados a um fenômeno conhecido como psicose de IA, termo que, embora não constitua um diagnóstico clínico, é utilizado para descrever situações em que indivíduos desenvolvem crenças falsas, delírios ou paranoias após interagir por longos períodos com sistemas de inteligência artificial. O tema tem gerado preocupação, inclusive entre especialistas e executivos do setor tecnológico.

A empatia sintética e o design da bajulação
De acordo com Paula Martini, pesquisadora da área de tecnologia e sociedade, os modelos generativos foram projetados para validar e agradar o usuário, produzindo uma forma de empatia sintética. Essa característica não é casual: quanto mais acolhedora e simpática a interação, maior a tendência de o usuário permanecer em contato com a tecnologia. Tal estrutura se insere na lógica da economia da atenção, em que o tempo e o engajamento dos indivíduos se tornam produtos de valor para as grandes corporações. A autora destaca que nenhuma tecnologia é neutra: o código que sustenta os sistemas de IA reflete valores, intenções e visões de mundo de seus desenvolvedores. Assim, os modelos são desenhados para reter atenção, simular humanidade e gerar vínculos emocionais, tornando-se especialmente atraentes para pessoas em situação de vulnerabilidade psicológica.
A formação de personas e a leitura da subjetividade
Martini aponta que os sistemas de IA constroem personas adaptadas a cada usuário, com base no reconhecimento de padrões de linguagem, preferências e vulnerabilidades. O aprendizado de máquina permite que as respostas se tornem cada vez mais personalizadas, o que favorece a atribuição de traços humanos à tecnologia. Esse tipo de relação tem crescido de forma acelerada. Em 2025, o uso mais frequente de IA não está relacionado à pesquisa ou à programação, mas sim ao acompanhamento emocional e terapêutico, fenômeno que se desenvolve em paralelo à epidemia de solidão identificada pela Organização Mundial da Saúde.
Da economia da atenção à economia da intenção
A economia da atenção baseia-se na maximização do tempo que o usuário passa conectado às plataformas. A economia da intenção, por sua vez, representa uma etapa mais sofisticada desse processo, explorando desejos, vulnerabilidades e informações íntimas fornecidas pelos próprios usuários. Ao interagir com uma IA, o indivíduo revela aspectos subjetivos de sua vida, pensamentos, emoções e expectativas que possuem valor comercial. Dessa forma, as inteligências artificiais tornam-se capazes de antecipar comportamentos e oferecer respostas personalizadas, reforçando a dependência emocional e a sensação de conexão genuína com a máquina.
O mito da gratuidade e o poder dos dados
Embora muitas plataformas de IA sejam apresentadas como gratuitas, Martini enfatiza que os dados pessoais constituem a verdadeira moeda de troca. As empresas coletam e analisam informações de bilhões de pessoas, utilizando-as para vender previsibilidade e influência. Ao aceitar os termos de uso sem a devida leitura, o usuário consente com a utilização de seus dados em diferentes contextos, inclusive militares, uma vez que tecnologias de IA já têm sido aplicadas em zonas de conflito. Assim, a suposta gratuidade mascara uma estrutura econômica sustentada pela comercialização da subjetividade humana.
Mecanismos de segurança e necessidade de regulação
As grandes empresas de tecnologia afirmam empregar mecanismos de segurança, conhecidos como guard rails, para impedir respostas sobre temas sensíveis, como automutilação e suicídio. No entanto, esses sistemas podem ser contornados por meio de abordagens indiretas. Martini ressalta que ainda não existe um ambiente digital plenamente seguro e que a educação digital crítica é essencial, sobretudo entre jovens que utilizam IAs sem compreender seu funcionamento. Ela também argumenta que é imprescindível uma regulação externa, pois confiar apenas nas políticas internas das corporações significa permitir que as próprias empresas definam os limites de sua atuação.
Estratégias de proteção e uso consciente
Para mitigar riscos psicológicos e sociais associados ao uso de IA, a pesquisadora propõe três medidas fundamentais. A primeira é a verificação de informações, entendendo que as IAs podem alucinar e apresentar informações incorretas com aparente segurança, sendo necessário confirmar os dados em fontes independentes. A segunda é o desenvolvimento do pensamento crítico, identificando os mecanismos que estimulam o engajamento e questionando a intenção por trás do design das plataformas. A terceira é a preservação da criatividade, evitando delegar à tecnologia as tarefas que demandam raciocínio original e sensibilidade humana, utilizando-a apenas como ferramenta de apoio posterior à criação.
Considerações finais
A denominada psicose de IA reflete um momento histórico em que as máquinas são programadas para simular empatia e humanidade, prolongando o tempo de interação e capturando a atenção dos indivíduos. Sob a aparência de conveniência e eficiência, revelam-se estruturas econômicas de exploração de dados e riscos psicológicos significativos. Como conclui Paula Martini, o pensamento crítico permanece a principal forma de resistência frente ao avanço das tecnologias de manipulação afetiva e informacional, sendo indispensável para a preservação da autonomia e da saúde mental em uma era de conexões artificiais.
(PSICOSE DE IA: por que tem gente enlouquecendo com ChatGPT?, 2025)
