Quando ativado, o modo aplica proteções automáticas que reduzem conteúdos violentos, sexuais, românticos ou ligados a padrões estéticos extremos (Chris Jung/NurPhoto/Getty Images)
Plataforma de conteúdo
Publicado em 17 de outubro de 2025 às 13h46.
A OpenAI lançou um novo conjunto de ferramentas de controle parental no ChatGPT, permitindo que pais e responsáveis definam como adolescentes podem usar a tecnologia e recebam alertas caso ocorram conversas consideradas sensíveis. O recurso chega em um momento de crescente pressão sobre empresas de Inteligência Artificial (IA), especialmente nos Estados Unidos, onde se acumulam ações judiciais que acusam aplicativos de IA de prejudicar a saúde mental de jovens.
Disponível em todo o mundo, o sistema permite vincular contas de adultos e adolescentes, com opções para restringir funções como criação de imagens, uso de voz, armazenamento de interações e até períodos de acesso.
Quando ativado, o modo aplica proteções automáticas que reduzem conteúdos violentos, sexuais, românticos ou ligados a padrões estéticos extremos. Caso o modelo detecte sinais de risco, uma equipe humana faz uma triagem e, se necessário, notifica os responsáveis por e-mail ou mensagem.
Segundo a advogada Caren Benevento, especialista em Direito Digital e pesquisadora do Grupo de Estudos do Trabalho (GETRAB) da Faculdade de Direito da Universidade de São Paulo (USP), o mecanismo dialoga diretamente com as exigências da Lei Geral de Proteção de Dados (LGPD), que determina que o tratamento de informações de menores deve sempre observar o princípio do “melhor interesse” da criança ou adolescente.
“Para crianças até 12 anos, é obrigatório o consentimento dos responsáveis. Já no caso dos adolescentes, o consentimento não é regra, mas a proteção dos seus interesses deve prevalecer”, explica.
Impacto jurídico
Na avaliação da especialista, o modelo anunciado pela OpenAI demonstra um avanço ao restringir o acesso dos pais apenas a notificações em situações de risco grave, sem permitir a leitura direta das conversas. “Isso reduz o risco de invasão de privacidade e evita o uso indevido de dados sensíveis. O monitoramento é legítimo quando há consentimento e finalidade clara de prevenção de dano grave, mas pode se tornar abusivo se extrapolar esse propósito”, afirma.
A advogada destaca que a iniciativa também tem impacto jurídico relevante. Desde a decisão do Supremo Tribunal Federal, em 2025, que flexibilizou a exigência de ordem judicial para responsabilizar plataformas, empresas de tecnologia passaram a ter maior dever de vigilância sobre o conteúdo gerado e compartilhado por seus usuários.
Nesse contexto, medidas de prevenção — como o novo controle parental, filtros etários e alertas de risco — passam a servir como evidências de diligência. “Essas ferramentas não eliminam a responsabilidade, mas fortalecem a defesa das plataformas, demonstrando que elas adotaram boas práticas de segurança e prevenção de danos”, observa Benevento.
Futuras regulações
A especialista avalia ainda que a estratégia da OpenAI pode influenciar o rumo das futuras regulações sobre o uso de inteligência artificial por menores. “A tendência é que soluções como essa estabeleçam novos padrões de segurança e sirvam de referência para a Autoridade Nacional de Proteção de Dados (ANPD) ao tratar de IA generativa e dados de menores”, afirma.
Entre os padrões que devem se consolidar, a advogada cita mecanismos de verificação de idade, restrições automáticas para adolescentes e transparência sobre o tratamento de dados. A OpenAI já anunciou que trabalha em tecnologias de age assurance, capazes de estimar a idade de usuários para calibrar automaticamente os níveis de segurança.
Para além da proteção imediata, a especialista acredita que o avanço da inteligência artificial pessoal trará novos desafios aos tribunais. “No médio prazo, veremos esses sistemas se tornarem parte de processos judiciais e investigações, já que registram interações e decisões dos usuários. Isso cria uma nova forma de evidência digital, mais detalhada e comportamental, que exigirá debates éticos e jurídicos sobre autenticidade e limites de uso”, conclui.