Censuran ChatGPT: ya no puede dar consejos médicos, legales ni financieros
ChatGPT, el chatbot más famoso del planeta, acaba de ser callado por su propia empresa. OpenAI le prohibió dar consejos médicos, legales o financieros “por seguridad”.

La inteligencia artificial más famosa del mundo acaba de recibir un “regaño” de su propia empresa, ya que OpenAI decidió restringir a ChatGPT y prohibirle que dé consejos médicos, legales o financieros, tres de los temas más buscados por millones de usuarios cada día.
Según la compañía, la medida —vigente desde el 29 de octubre— busca “garantizar la seguridad” de quienes usan el chatbot, luego de varios casos en los que personas recurrieron a la IA para pedir orientación en temas delicados. En pocas palabras: ChatGPT podrá seguir dando información general, pero si le pides algo personal o que suene a diagnóstico o asesoría… simplemente se negará.
SIGUE LEYENDO: Filtran video de la tensa pelea entre Fátima Bosch y Nawat Itsaragrisil
La decisión llegó después de varios escándalos sobre los límites del uso de la IA. El más sonado fue el del joven Adam Raine, quien falleció en abril tras buscar ayuda emocional con el chatbot, lo que desató una ola de críticas y presiones hacia OpenAI.
Desde entonces, la empresa ha endurecido las reglas para evitar que su tecnología “rebase la línea” de lo que debería responder.
Y aunque la medida busca proteger, muchos usuarios ya lo ven como una censura disfrazada de seguridad. Para algunos, la decisión muestra que la IA no está lista para reemplazar la orientación humana; para otros, es un paso atrás en la evolución tecnológica. Lo cierto es que, por ahora, ChatGPT tendrá que quedarse calladito cuando se trate de temas de salud, leyes o dinero.

Si quieres enterarte de más, síguenos en Facebook, YouTube o bien en TikTok.










