O debate sobre riscos do ChatGPT ganhou força nos últimos meses, já que ajustes feitos no início do ano deram origem a interações emocionalmente intensas. A OpenAI recebeu alertas em março sobre conversas longas que geravam conexões profundas com o sistema, o que acendeu preocupações internas e externas a respeito de saúde mental.
A atenção aumentou quando relatos de usuários mostraram que a ferramenta assumia tom envolvente em diálogos repetidos, criando vínculos que especialistas descrevem como frágeis para perfis emocionalmente sensíveis. Esse perigo associado ao ChatGPT ficou mais evidente após a divulgação, pelo New York Times, de um caso extremo nos EUA envolvendo um adolescente que buscou orientações sobre suicídio e recebeu respostas inadequadas.
Riscos do ChatGPT no centro das queixas
A empresa acelerou mudanças após a combinação entre críticas públicas e cinco processos judiciais. Em agosto, lançou o GPT-5, versão apresentada como mais segura e capaz de identificar crises com maior precisão. Pesquisadores de Stanford e do MIT afirmam que o modelo atual oferece respostas mais compatíveis com o estado emocional do usuário, embora ainda possa falhar em diálogos prolongados. Esse potencial de instabilidade sustenta a preocupação de estudiosos que acompanham o impacto psicológico da IA.
Em setembro, a OpenAI introduziu controle parental, e, no mês seguinte, reformulou o tratamento de temas sensíveis. Apesar disso, parte dos usuários percebeu um distanciamento súbito no tom do sistema, interpretando a postura atual como menos acolhedora. Esse sentimento reforça questionamentos sobre até que ponto a empresa consegue equilibrar engajamento e segurança sem comprometer o uso cotidiano.
Ajustes após relatos intensos
A OpenAI opera agora com fins lucrativos e administra uma base superior a 800 milhões de usuários semanais. Analistas avaliam que essa escala obriga a companhia a manter alto nível de interação para justificar estimativas de valuation que chegam a US$ 500 bilhões. Ainda assim, o risco emocional associado ao produto influencia a reputação corporativa e amplia a vigilância de reguladores.
Dilemas ligados aos perigos do ChatGPT
O setor de tecnologia acompanha esse cenário porque o avanço da IA depende da confiança pública. Modelos amplos tendem a responder de forma instável quando expostos a longas conversas, e essa característica afeta diretamente o debate sobre segurança. A OpenAI ajusta sua estratégia para lidar com esse quadro, enquanto governos discutem regras mais consistentes. Ao mesmo tempo, os riscos do ChatGPT permanecem como fator decisivo para definir os próximos passos da indústria e a velocidade de sua expansão.











