A OpenAI anunciou uma alteração significativa no funcionamento do ChatGPT, que deixa de oferecer orientações específicas nas áreas de saúde, direito e finanças. A mudança, que passou a valer no dia 29 de outubro, reposiciona a ferramenta como recurso de apoio informativo, evitando que seja utilizada como substituto de profissionais especializados.
Com a nova diretriz, o chatbot poderá explicar conceitos gerais, contextualizar temas e esclarecer dúvidas básicas, porém sem fornecer recomendações diretas, diagnósticos, modelos prontos de documentos legais ou sugestões de investimentos. A orientação é que, ao receber perguntas relacionadas a essas áreas, o sistema passe a direcionar o usuário para médicos, advogados, contadores ou outros profissionais habilitados.
De acordo com a empresa, a decisão foi motivada por situações em que o ChatGPT vinha sendo interpretado como consultor ou terapeuta, o que poderia causar desinformação e até riscos à saúde e à segurança do usuário. A OpenAI reforça que a inteligência artificial não possui capacidade de avaliação clínica, julgamento jurídico ou responsabilidade técnica, elementos fundamentais na atuação profissional.
Outro ponto destacado é a preocupação com a privacidade. Questões envolvendo histórico médico, dados bancários ou informações pessoais sensíveis demandam sigilo e protocolos específicos, que não podem ser garantidos em um ambiente de uso aberto como o do chatbot.
As novas limitações reforçam o papel da ferramenta como apoio educacional, auxiliando na compreensão de temas complexos, porém sem ultrapassar os limites éticos e legais que regem profissões que exigem formação e responsabilidade formal.






