“Es imposible detectar que es falso”
Teknalix julio 19, 2025 No hay comentarios

La inteligencia artificial avanza tan rápido que, en cuestión de meses, hemos pasado de simples chatbots conversacionales a vídeos tan realistas que nadie logra distinguirlos de la realidad. Primero llegaron imágenes generadas con texto capaces de engañar al ojo humano.
Ahora, la nueva herramienta de Google llamada Veo 3 permite crear vídeos prácticamente imposibles de identificar. Ante esto, la experta en ciberseguridad María Aperador alerta sobre las consecuencias potencialmente peligrosas para todos.
Hasta hace poco tiempo, cuando pensabas en inteligencia artificial, seguramente imaginabas sistemas sencillos. Chatbots que respondían preguntas básicas, asistentes virtuales que ponían música o te recordaban eventos, quizás programas capaces de recomendarte películas.
Sin embargo, la tecnología avanzó rápidamente hacia algo más sofisticado: crear imágenes artificiales indistinguibles de fotografías reales. Esta técnica, conocida como generación de “fakes visuales”, supuso un salto enorme. Pero lo que parecía el techo tecnológico fue solo el comienzo.
Hoy, la inteligencia artificial ya no se limita a imágenes estáticas, sino que ahora, con herramientas avanzadas de IA generativa como Veo 3, ahora puede generar vídeos hiperrealistas que simulan situaciones jamás ocurridas.
Estos vídeos presentan movimientos naturales, expresiones faciales convincentes, diálogos perfectamente sincronizados con la voz. Según Aperador, estas creaciones son imposibles de detectar a simple vista, lo que abre un terreno peligroso.
¿Qué es Veo 3 y por qué preocupa?
Veo 3 es una herramienta desarrollada por Google capaz de crear vídeos artificiales de un realismo absoluto. Para entenderlo fácilmente, cualquier persona puede aparecer en ellos haciendo o diciendo cosas que nunca sucedieron.
Lo peligroso, según María Aperador, es precisamente que resultan tan creíbles que el ojo humano no puede diferenciar lo falso de lo real, multiplicando los riesgos en redes sociales.
La experta insiste en que esto va más allá de la curiosidad tecnológica, si no que el peligro está en cómo estos vídeos pueden distorsionar rápidamente la realidad, sembrando confusión o engañando a millones de personas en Facebook, WhatsApp y otras plataformas.
- El primer riesgo evidente es la difusión masiva de bulos, donde un vídeo falso creado con IA puede mostrar un político haciendo declaraciones falsas, un artista envuelto en escándalos o incluso eventos graves que nunca sucedieron. Este tipo de contenido genera una desinformación rápida, masiva, con consecuencias inmediatas.
- Además, estos vídeos hiperrealistas son armas perfectas para manipular la opinión pública. Pueden utilizarse para influir en procesos electorales, desprestigiar rivales políticos o empresariales o, sencillamente, modificar la percepción colectiva sobre determinados temas sociales.
- Otro peligro grave es la suplantación de identidad mediante deepfakes. Gracias a herramientas como Veo 3, cualquiera podría simular ser otra persona de manera convincente, creando vídeos comprometedores, así como testimonios falsos que arruinan reputaciones rápidamente.
- También se advierte que cuando las personas empiecen a sospechar que casi cualquier contenido audiovisual puede ser falso, se extenderá una profunda desconfianza hacia todo lo que se consume online. Esto puede derivar en una crisis informativa generalizada, donde la gente ya no sepa qué creer.
- Además, la capacidad de fabricar contenidos falsos con aspecto real puede facilitar enormemente el ciberacoso o extorsión, mediante vídeos artificiales en situaciones comprometedoras, pero completamente falsas.
- Podrían surgir graves consecuencias legales para personas inocentes, con vídeos convincentes podrían inculpar falsamente a alguien de delitos que nunca cometió, generando injusticias difíciles de reparar.
Consejos prácticos para detectar vídeos falsos
A pesar de que estos contenidos son extremadamente difíciles de detectar, Aperador ofrece consejos prácticos para no caer en el engaño y lo primero es observar con atención pequeños detalles visuales del vídeo.
Aunque muy realistas, muchos vídeos generados por inteligencia artificial suelen mostrar pequeños desfases entre el movimiento de los labios y el sonido, imágenes ligeramente pixeladas o gestos corporales poco naturales.
Otro consejo útil es prestar atención a los comentarios bajo estos vídeos en redes sociales. Muchas veces otros usuarios detectan primero estas anomalías. Así, revisar comentarios puede alertarte antes de que compartas un contenido falso, ayudando a detener su difusión rápidamente.
Los vídeos generados por inteligencia artificial, en especial con Veo 3, forman parte de nuestra realidad hoy en día. Según María Aperador, el gran desafío está ahora en desarrollar criterios personales mucho más rigurosos para evaluar lo que consumes en internet.
De esta manera, mantener la guardia alta y dudar razonablemente es hoy más necesario que nunca para evitar caer en manipulaciones digitales que parecen reales, pero que nunca sucedieron, por lo que debes aprender a identificar estos contenidos.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, seguridad
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *