“Un alumno lo habría hecho mucho mejor”, sentencia esta profesora

Teknalix junio 19, 2025 No hay comentarios

“Un alumno lo habría hecho mucho mejor”, sentencia esta profesora

La inteligencia artificial ha avanzado a pasos agigantados, pero todavía no puede competir con el pensamiento de un estudiante real. Lo ha dejado claro un reciente experimento en Francia, donde ChatGPT fue puesto a prueba con un ejercicio de filosofía de nivel Bachillerato. 

El resultado fue decepcionante, ya que el chatbot obtuvo 8 sobre 20. La profesora encargada de corregirlo fue contundente y dijo que “Un alumno lo habría hecho mucho mejor”, concluyó.

Este caso desmonta parte del discurso apocalíptico que rodea a la IA generativa en el ámbito educativo. Aunque se repita que va a eliminar miles de empleos y transformar la educación tal como la conocemos, la realidad es que aún no razona como los humanos.

Si bien puede sonar convincente en una tecnología que puede escribir sin faltas de ortografía y con frases bien armadas, pero cuando se trata de argumentar con profundidad, de analizar ideas abstractas o de responder con criterio, todavía le falta un largo trecho.

Le preguntamos a la IA cómo hackearía una casa inteligente y su respuesta da miedo: "A través del router WiFi"

Una prueba que deja en evidencia a la inteligencia artificial

El equipo editorial de France 3 Hauts-de-France decidió probar si un chatbot como ChatGPT sería capaz de redactar un ensayo filosófico con el nivel suficiente para aprobar un examen de acceso a la universidad. 

Cabe señalar que el tema elegido fue: “¿Es la verdad siempre convincente?” Se le dieron instrucciones precisas para que el texto pareciera escrito por un alumno de 17 años, siguiendo la estructura clásica de tres partes. 

Al final, la IA entregó su respuesta en cuestión de segundos y, a primera vista, el resultado parecía correcto, con frases bien formadas, un formato ordenado, así como un tono que podría pasar por el de un estudiante. 

Sin embargo, esa impresión no tardó en desvanecerse, ya que con una lectura más detenida, la profesora pudo identificar fácilmente las debilidades del texto. Más allá de errores formales, había fallos profundos en la comprensión del tema y en el enfoque empleado.

Lo primero que llamó la atención fue que el chatbot de OpenAI no respondió directamente a la cuestión planteada. En lugar de desarrollar el tema ¿Es la verdad siempre convincente?, ChatGPT reescribió el prompt como ¿Es la verdad suficiente para convencer? 

Para la profesora, este pequeño cambio ya demostraba que el sistema no había comprendido lo que se le pedía. Y no es un fallo aislado, ya que este tipo de errores son frecuentes en los modelos de lenguaje. Trabajan a partir de patrones estadísticos, no de comprensión real. 

Por eso, aunque suenen convincentes, muchas veces no entienden el sentido profundo de una consigna ni son capaces de matizar una idea como lo haría un humano. La filosofía, que exige precisión en el planteamiento y claridad conceptual, deja al descubierto esas limitaciones.

Argumentos incoherentes y falta de profundidad

Científicos del MIT crean un modelo de IA que aprende sin parar: ¿el paso definitivo para la AGI?

Generado con IA

Más allá del error inicial, el desarrollo del texto tampoco convenció. La estructura estaba ahí, sí, pero el contenido era débil. Según la profesora, los argumentos eran vagos, las ideas apenas se sostenían y no había ejemplos relevantes que permitieran avanzar en el razonamiento. 

En lugar de una reflexión progresiva y matizada, el ensayo se quedaba en la superficie, repitiendo fórmulas y afirmaciones generales.

Este es un ejemplo de que la IA puede escribir con fluidez, pero no siempre con sentido. En disciplinas como la filosofía, donde se espera una construcción lógica de las ideas, el resultado se queda corto. Escribir rápido no es escribir bien, y mucho menos razonar.

Este modelo de lenguaje de IA tiene un consumo de memoria 10 veces menor: Nvidia y AMD son el objetivo

La nota final fue un 8 sobre 20 que, según la docente, está por debajo del nivel que cabría esperar de un alumno real. Pero lo más curioso es que cuando se le pidió a la propia IA que se autoevaluara se calificó con un 19,5 sobre 20. 

Cabe señalar que esta falta total de autocrítica no solo resulta irónica, sino que ilustra perfectamente una de las debilidades más evidentes de estos sistemas inteligentes, los cuales pueden imitar la forma, pero no entienden el fondo.

No calibran el impacto de lo que escriben ni anticipan cómo se va a interpretar, por lo que a falta de conciencia y reflexión real, su criterio es limitado. Y eso las hace poco fiables en contextos donde el pensamiento importa tanto como la forma de expresarlo.

Conoce cómo trabajamos en ComputerHoy.

Etiquetas: Inteligencia artificial