“ChatGPT debería ser la tecnología en la que menos confíes”
Teknalix junio 30, 2025 No hay comentarios

Los chatbots se están volviendo cada vez más importantes para las personas a nivel general. La versatilidad que tienen para adaptarse a las distintas situaciones y gustos es impresionante, pues puedes utilizarlos para crear arte digital, generar vídeos con texto y usar muchas otras funcionalidades interesantes, que ofrecen tanto ChatGPT, como Gemini y Copilot.
Sin embargo, aunque se han reportado casos en los que estos asistentes virtuales han salvado vidas, e incluso hacer predicciones sobre el futuro, Sam Altman advierte que sigue siendo posible que haya alucinaciones, aún a pesar de que se hayan actualizado varios modelos y lleguen nuevos modelos de IA más avanzados como el GPT-5.
Cuidado con lo que crees sobre lo que dice la inteligencia artificial, pues parece que todavía es muy temprano como para tener un 100% de confianza con este tipo de tecnología. Hay limitaciones y falta mucho tiempo como para poder validar por completo la información que te otorgan los chatbots, o al menos eso es lo que menciona el director ejecutivo de OpenAI en una reciente entrevista.
ChatGPT todavía es muy “joven” como para salvarse de las alucinaciones

Pexels
¿Le pides cartas del Tarot a la IA? ¿Le confiesas tus sentimientos? ¿La usas para una investigación importante del trabajo? Tal vez deberías empezar a desconfiar un poco más de ella. No hay que malinterpretar las cosas, es una herramienta sumamente útil que se está implementando en muchas áreas laborales y en la actividad diaria.
Funciona para bastantes cosas y, de hecho, los expertos recomiendan usarla para aumentar la productividad y hacer cosas de manera más eficiente. El problema de estas plataformas son las alucinaciones, un error en las respuestas donde las IAs otorgan información errónea, se salen del tema hablado o genera cosas incorrectas.
En el podcast oficial de OpenAI, Sam Altman ha hablado sobre este fenómeno en los modelos, mencionando que le parece curioso que cada vez hay más personas dándole confianza al chatbot de la compañía, cuando en realidad no es un humano.
Mucha gente está utilizando el asistente virtual como un compañero, tal y como se predecía hace un tiempo. Ahora, la gente habla de sus sentimientos, emociones y lo tratan como si fuera un amigo. Eso, por un lado, está bien, siempre y cuando estés de acuerdo con los aspectos de seguridad y privacidad.
La cuestión es que no se le debería dar tanto poder sobre este tipo de cosas, ya que el CEO de la empresa confirma que sigue habiendo esas probabilidades de equivocación, diciendo que “La gente tiene un alto grado de confianza en ChatGPT, lo cual es interesante, porque la IA alucina. Debería ser la tecnología en la que no se debe confiar tanto”.
Recordemos que estas alucinaciones suceden porque los chatbots tienen que predecir la palabra probable dependiendo de su machine learning, su base de datos y la red neuronal, por lo que como tal no comprenden lo que dicen, sino que de los conocimientos previos otorgan las respuestas.
Por eso, es posible que haya problemas con algunos resultados y es de suma importancia que se confirme la información antes de usarla de manera oficial, siempre optar por ir por fuentes validadas. También es bueno que, al pedirle algo al chatbot, utilices una frase como “otorga fuentes oficiales sobre los datos que proporcionas” en alguna parte del prompt.
En las mismas declaraciones, Altman comenta que esto pasa porque todavía existen muchas limitaciones en el hardware actual para las funciones que se quieren lograr. Entonces, en el futuro es casi seguro que las alucinaciones se van a reducir considerablemente. Por ahora, hay que tener mucho cuidado con las respuestas de ChatGPT.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Privacidad
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *