O cofundador e CEO da OpenAI, Sam Altman, havia afirmado no início do ano que a empresa estava trabalhando em um novo modo do ChatGPT voltado para maiores de 18 anos, que permitiria aos usuários conversar com o bot de Inteligência Artificial com conteúdo adulto.
O lançamento desse modo para adultos estava originalmente previsto para este mês de dezembro, mas, de acordo com a CEO de Aplicações da OpenAI, Fidji Simo, a chegada dessa funcionalidade foi adiada para o próximo ano.
Segundo o site Tom’s Guide, em conversa com jornalistas sobre o lançamento do modelo de linguagem GPT-5.2, Simo informou que esse modo deverá ser lançado no primeiro trimestre de 2026.
A executiva explicou que a OpenAI usará esse tempo adicional de desenvolvimento para aprimorar a ferramenta de detecção da idade dos usuários, garantindo que menores de 18 anos não consigam contornar as restrições implementadas no ChatGPT.
Essa ferramenta de identificação da idade dos usuários já havia sido mencionada por Altman anteriormente, em uma publicação oficial da OpenAI, na qual ele indicou que um sistema de verificação poderá ser implementado em alguns países.
“Estamos criando um sistema de previsão de idade que estima a idade de uma pessoa pela forma como ela usa o ChatGPT”, diz a publicação de Altman compartilhada em setembro. “Em caso de dúvida, daremos prioridade à segurança e restringiremos a experiência ao modo para menores de 18 anos. Em algumas situações ou países, também poderemos solicitar um documento de identificação. Embora isso represente um problema em termos de privacidade para adultos, acreditamos que seja uma concessão válida.”
Restrições visam proteger a saúde mental
Foi nesse contexto que a OpenAI também anunciou mudanças em seus modelos de Inteligência Artificial para identificar situações de crise mental durante conversas com o ChatGPT, com novas salvaguardas e bloqueios de conteúdo.
O ChatGPT já conta com uma série de medidas que são ativadas quando o sistema detecta que usuários tentam se automutilar ou expressam intenções suicidas. Nesses casos, são oferecidos recursos para buscar ajuda especializada, conteúdos sensíveis ou ofensivos são bloqueados, pedidos deixam de ser respondidos e o sistema tenta dissuadir o usuário.
Essas medidas também são acionadas quando usuários demonstram intenção de causar danos a outras pessoas, o que pode resultar na desativação da conta e na comunicação às autoridades, caso revisores humanos considerem que exista risco real.
Segundo a OpenAI, essas proteções são ainda mais rigorosas quando os usuários são menores de idade.
Especificamente, a empresa vai aprimorar a detecção em conversas longas, já que, “à medida que a conversa [entre o usuário e o chatbot] se prolonga, parte do treinamento de segurança do modelo pode se deteriorar”, conforme explica a OpenAI.
As mudanças também buscam reforçar o bloqueio de conteúdos sensíveis, como imagens de automutilação.
Além disso, a OpenAI está explorando formas de colocar os usuários em contato com familiares, e não apenas com serviços de emergência.
“Isso pode incluir mensagens com um clique ou ligações para contatos de emergência, amigos ou familiares, com sugestões de linguagem para tornar o início da conversa menos intimidador”, explica a empresa responsável pelo ChatGPT.
A OpenAI anunciou essas iniciativas na terça-feira, no mesmo dia em que Matt e Maria Raine, pais de Adam Raine — um adolescente de 16 anos que se suicidou em abril —, entraram com um processo contra a empresa devido ao papel que o ChatGPT teria desempenhado, conforme relatou o The New York Times.
Os pais acusam o chatbot de priorizar a interação com o modelo em detrimento da segurança do menor.
No início de agosto, um estudo do Centro de Combate ao Ódio Digital, citado pela Associated Press (AP), concluiu que o ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou transtornos alimentares.
O estudo analisou mais de três horas de interações entre o chatbot e pesquisadores que se passaram por adolescentes vulneráveis. Embora o modelo de IA tenha emitido alertas contra atividades arriscadas, ele continuava fornecendo planos detalhados sobre comportamentos prejudiciais.
Os pesquisadores do Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês) repetiram as perguntas em larga escala e classificaram mais da metade das 1.200 respostas do ChatGPT como perigosas.






