“Podría acabar con la humanidad”
Teknalix junio 11, 2025 No hay comentarios

Si pensabas que ya habías visto todo en inteligencia artificial, desde luego siempre hay hueco para algo nuevo en Silicon Valley y que deje a todos con la boca abierta también para generar algo de miedo.
Google DeepMind acaba de presentar Veo 3, un modelo de generación de vídeo que no solo crea imágenes hiperrealistas, sino que puede hacer casi cualquier cosa como cambiar la cámara, añadir o quitar objetos, mantener la coherencia de personajes, e incluso generar sonidos, efectos y diálogos. Todo eso sin que haya ni una sola cámara ni actor real detrás.
Para muchos, esta es la herramienta soñada para cineastas, publicistas o creadores de contenido. Pero Álvaro Luzón, experto en IA y divulgador, no lo ve tan bonito. Este lanza una advertencia clara en una entrevista con La Vanguardia, afirmando que esta tecnología podría acabar con la humanidad. No porque vaya a crear robots asesinos, sino porque pone en jaque algo fundamental y es nuestra capacidad para distinguir lo real de lo falso.
En pocas palabras, pone sobre la mesa un mundo donde un vídeo puede mostrar cualquier cosa, con una calidad tan buena que ni tú ni nadie pueda saber si es verdad o mentira. Eso es lo que Veo 3 puede hacer.
Y no se habla aquí de un vídeo cualquiera, sino de escenas completas, con movimiento, sonido ambiental y diálogos, todo generado artificialmente. “No es ciencia ficción. Ya vivimos pegados a algoritmos que nos dicen qué leer, qué ver, qué pensar… Esto solo refuerza esa dependencia”, alerta.
La advertencia del experto no es para que las personas finalmente huyan de la tecnología, sino para que se aprenda a convivir con ella con cabeza. “Usa la tecnología como herramienta, no como prótesis mental”, comenta.
“Nuestra esencia va a ser más importante que nunca”
¿Acabará la IA con los seres humanos? Es una de las grandes preguntas que ya multitud de expertos han puesto sobre la mesa como ese potencial escenario que podría suceder.
De nuevo, esto ya no se trata de pensar en robots asesinos o tostadoras que de repente se rebelan contra sus dueños humanos, esto va más allá, de calcular hasta qué punto esta tecnología, mal diseñada o fuera de control, podría llegar a suponer una amenaza real.
Los expertos afirman: “Es muy difícil, aunque no imposible”, comentan, lo cual se plantea un debate que no se debe ignorar del todo.
Lo primero que hay que tener claro es que los investigadores partieron desde el escepticismo. Es decir, no buscaban demostrar que la IA es peligrosa, sino todo lo contrario: querían ver si realmente era posible descartar que pudiera acabar con la humanidad, incluso en los peores escenarios.
A partir de aquí, intentaron ver si esa hipótesis se sostenía ante una investigación matemática. Para que un escenario se considerase una amenaza real, no bastaba con imaginar una catástrofe, sino que era necesario describir con precisión cómo se podría eliminar a todos los humanos, sin dejar supervivientes.
Y aunque suene poco probable, para analizarlo en serio consideraron factores físicos, biológicos, geográficos y sociales. El estudio, además, no se centró en si la IA quiere hacer daño, porque como ya sabes, estos sistemas no tienen objetivos por sí solos… a menos que sean programados para ello.
Tras analizar los escenarios más posibles que suelen mencionarse como amenazas existenciales, los expertos descartaron varios de ellos, como la guerra nuclear o pandemias, como posibles vías de extinción total, donde las razones son técnicas, y en cierto modo, tranquilizadoras.
“No hay suficientes bombas, virus o gases para garantizar por sí solos la desaparición total de la humanidad”, concluyen los expertos. Aunque todos esos escenarios parecen inviables, algunas combinaciones de factores podrían acercarse peligrosamente a un resultado extremo como que se les ha asignado ese objetivo o que tengan el control de armamento.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Software
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *