ChatGPT parou de dar orientações médicas e jurídicas?
Veja o que mudou de fato.
Por: TechTudo | Data: 04/11/2025 19:01 - Atualizado em 04/11/2025 19:03
O que dizem as novas políticas:
Conforme o documento oficial da OpenAI, está proibido o fornecimento de consultoria personalizada que exija licença profissional, como médica ou jurídica, sem o envolvimento adequado de um profissional licenciado. A empresa também restringiu a automação de decisões críticas em áreas sensíveis sem revisão humana, incluindo aplicações médicas e jurídicas.
Na área da saúde, o ChatGPT não poderá mais analisar imagens médicas, como radiografias ou ressonâncias magnéticas, nem interpretar laudos com finalidade de diagnóstico ou tratamento. Recentemente, alguns usuários exploravam essas funcionalidades, mas a OpenAI reforça que esse tipo de orientação deve ser realizado exclusivamente por profissionais de saúde.
A medida visa garantir segurança e responsabilidade no uso da inteligência artificial em contextos sensíveis, evitando que as respostas geradas sejam interpretadas como substitutas de orientação profissional.
Para o advogado Paulo Henrique, a decisão da OpenAI de reforçar as restrições ao uso do ChatGPT para diagnósticos médicos, elaboração de documentos jurídicos e aconselhamento personalizado é uma medida necessária e, de certa forma, inevitável, já que nos últimos meses, aconteceram casos de alucinações graves. "A IA citou jurisprudências inexistentes, distorceu precedentes e até apresentou diagnósticos falsos de saúde. Esses erros não são fruto de má-fé, mas da natureza probabilística da tecnologia. Um modelo de linguagem como o ChatGPT não “sabe”, ele estima. Trabalha com padrões estatísticos, não com consciência, especialização ou responsabilidade ética", explica o especialista.
Na prática, o que mudou?
Fernandes explica que o modelo já possuía limites técnicos para diagnósticos e documentos jurídicos. "O que a OpenAI faz agora é endurecer a comunicação desses limites, deixando claro que, se o usuário tentar burlar os guardrails (mecanismos de segurança e controle que garantem que os sistemas de IA) e usar o sistema de forma indevida, assume integralmente o risco", afirma.
Em termos técnicos, a IA continua capaz de explicar conceitos, resumir artigos científicos, interpretar jurisprudências ou auxiliar na redação de textos jurídicos ou médicos, desde que isso ocorra em caráter educativo, informativo ou de apoio. A diferença está na clareza: a ferramenta é assistiva, não deliberativa.
O que continua sendo permitido
O ChatGPT pode ser utilizado como ferramenta de apoio no contexto educacional e informativo, desde que o conteúdo não seja apresentado como diagnóstico ou prescrição médica. Entre as funcionalidades permitidas estão:
Na área médica:
- Explicar possíveis causas gerais de sintomas de forma educativa.
- Ajudar a entender exames, termos médicos ou orientações dadas por profissionais.
- Indicar quando procurar atendimento médico, especialmente em situações de urgência.
- Apontar fontes confiáveis, como Ministério da Saúde, OMS e sociedades médicas.
Na área jurídica:
- Explicar conceitos e institutos jurídicos.
- Resumir legislações e jurisprudências.
- Auxiliar na estruturação de argumentos e redação de textos jurídicos.