ChatGPT no sabe decir “no”, según los expertos, y eso puede ser un problema
Teknalix junio 11, 2025 No hay comentarios

Según muchos expertos, la inteligencia artificial y ChatGPT son una amenaza para bastantes profesiones. O eso es al menos lo que suele escucharse con frecuencia. No obstante, existe un problema al que en ocasiones no parece concedérsela toda la importancia que merece: la IA no sabe decir “no”. Puede parecer algo positivo, pero no lo es en absoluto.
Esta cuestión cobra especial relevancia, sobre todo cuando esta tecnología se emplea en un sector en particular: la medicina. Mucha gente emplea ya ChatGPT a modo de consultor médico, y eso es algo que no convence en absoluto a los especialistas. Ellos mismos han puesto la lupa en el problema, y lo han hecho de la forma más contundente posible: con datos concretos.
ChatGPT y el problema de no saber decir que no

Getty Images / Computer Hoy
En líneas generales, ChatGPT fue creado con un fin: resultar útil a los usuarios. La propia OpenAI lo ha reconocido en numerosas ocasiones. Pero esta practicidad, que mucha gente agradece cada día, trae consigo una complicación: la IA no sabe decir que no. O expresado de otra forma: los chatbots siempre van a responder a cualquier consulta, sepan sobre ella o no.
Habitualmente, esta dificultad que presenta ChatGPT para decir “no” o reconocer sus propios límites puede parecer inofensiva. En muchos casos, de hecho, puede ser así, y lo que acostumbra a conocerse como “alucinaciones de la IA” (es decir, cuando esta se confunde, básicamente) está a la orden del día. No obstante, cuando se trata de diagnósticos médicos, la cosa cambia.
Muchos expertos han advertido insistentemente sobre ello. Aunque la inteligencia artificial tenga ese nombre, no es realmente inteligente. La IA no razona, sino que predice la siguiente palabra más probable en función de miles de millones de ejemplos de texto. Es decir, que no sabe si está dando una respuesta cierta o errónea; sólo intenta mantener la fluidez y coherencia del diálogo.
En realidad, los datos hablan por sí solos. Por ejemplo, un artículo de Live Science informó que ChatGPT-3.5 acertó menos del 50% de las veces al evaluar condiciones clínicas más o menos complicadas, pero aun así ofrecía diagnósticos con una seguridad preocupante. Y lo que es aún peor: rara vez recomendaba acudir al médico (al de verdad) como primer paso.
El sesgo de autoridad artificial
Este problema incluso ha sido bautizado por parte de los expertos en inteligencia artificial: lo han llamado “sesgo de autoridad artificial”. ¿Qué quiere decir esto exactamente? Pues que ChatGPT se comunica con un estilo que inspira confianza, incluso cuando se equivoca. Pero eso no quiere decir que siempre sepa de lo que habla o esté bien informada, aunque lo parezca.
Por todas estas razones, los especialistas son contundentes al respecto: no, ChatGPT no debe utilizarse como sustituto de un doctor convencional, por tentador que resulte el hecho de que esté siempre ahí del todo disponible y no haya que esperar colas. Quizá algún día los médicos sean robots, pero de momento ese día está aún lejano, para bien o para mal.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *