expertos aseguran que ChatGPT “envenena” las investigaciones universitarias
Teknalix julio 9, 2025 No hay comentarios

Por muy entusiastas que sean Sam Altman o Elon Musk al hablar de las bondades de la IA, no todo el mundo está de acuerdo. Raro es el día en el que no surgen nuevos estudios criticando esta tecnología. Desde quienes señalan a los estudiantes que la utilizan hasta aquellos que, directamente, aseguran que vuelve idiota a la gente. Ahora los expertos apuntan a la universidad.
O, concretamente, a las investigaciones universitarias. Al parecer, la llegada de la inteligencia artificial a los ambientes académicos supone un grave peligro: que estas pierdan prestigio. Tanto, que no faltan quienes argumentan que resulta necesario tomar medidas, y tomarlas pronto. De lo contrario, será cada vez más complicado discernir lo que es verdad de lo que no.
La IA, un “veneno” para las investigaciones universitarias
Desde siempre, los estudios universitarios, las investigaciones llevadas en estos centros educativos, han contado con un considerable interés. Cuando un trabajo llevaba la firma de Oxford, Harvard o la que fuese, merecía la credibilidad del público. Pero la irrupción en todas partes de la inteligencia artificial y de herramientas como ChatGPT puede cambiar bastante la cosa.
Eso, al menos, es lo que defiende un nuevo artículo publicado en The Australian. Según la TEQSA (algo así como la Agencia Reguladora Australiana), la inteligencia artificial podría estar “envenenando” muchas investigaciones universitarias. Principalmente, porque ponen en duda la autenticidad de muchos de los datos que se emplean ahora para poder llevarlas a cabo.
Es lo que ellos denominan “data poisoning”. Es decir, cuando modelos como ChatGPT dan por buena información que no está realmente verificada, que no es lo que se dice precisa o, simplemente, la IA se la ha sacado de la manga. Todo el mundo conoce ya sus imprecisiones, o incluso sus alucinaciones. Problemas que, creen los expertos, estarían ya afectando a muchas conclusiones.
Si la tendencia se consolidad y prospera, el resultado no sería otro que reducir en gran medida la credibilidad de los hallazgos científicos. Y como posible solución, solo ven una salida: que los estudiantes sean honestos y reconozcan cuándo están usando la IA. De esta forma, sus trabajos serán más cogidos con pinzas, por así decirlo. Claro que una cosa es decirlo y otra muy distinta hacerlo.
Los riesgos de la inteligencia artificial, puestos encima de la mesa
La investigación llevada a cabo por la TEQSA australiana no termina ahí. De la misma forma, también ha denunciado un problema que lleva mucho tiempo encima de la mesa. Sus expertos consideran que la IA y ChatGPT suponen un riesgo para la privacidad y los derechos de la propiedad intelectual. Aspectos muy importantes que no siempre se tienen tan en cuanta como se debería.
Si este trabajo está en lo cierto, todo indica que la calidad de los hallazgos universitarios podría verse comprometida. Por eso, también insisten en que resultará cada vez más necesario hacer un seguimiento exhaustivo de todo lo que se haga. De lo contrario, la IA puede complicar mucho saber cuándo algo es cierto y cuando no. Y si la ciencia no es certera, entonces es difícil saber qué sería.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: estudios, Inteligencia artificial
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *