“Era su voz de llanto, estaba histérica”
Teknalix julio 18, 2025 No hay comentarios

No acceder a los correos electrónicos de Gmail sospechosos es algo que podría salvarte y lo mismo sucede con evitar responder llamadas de contactos desconocidos o mensajes con enlaces extraños porque podría ser SPAM o estafas. Muchas personas lo saben, pues son conocimientos básicos de ciberseguridad.
Sin embargo, los hackers no solamente están usando inteligencia artificial para crear facturas falsas con la generación de imágenes en ChatGPT, sino que también están clonando las voces de personas de una manera muy efectiva.
¿Qué harías si un familiar te llama porque ha presenciado un accidente? Con su propia voz y en un contexto de urgencia, sin pensarlo dos veces, seguro que estarías dispuesto a ayudar. Por ejemplo, si se necesitan pagar deudas de cosas como asistencia médica o daños, pero el problema es que, en la actualidad, esa persona podría ser un ciberdelincuente.
Estamos hablando de una estrategia sofisticada donde alguien se hace pasar por un conocido con su voz, algo que es muy complicado de detectar. Lamentablemente, ya hay una víctima que ha reportado este tipo de caso y es que al confiar en esta fuente desconocida, ha perdido miles de euros.
Los estafadores ahora usan inteligencia artificial para robarle dinero a las víctimas

Montaje/Freepik
Fox13News ha compartido uno de los casos más impresionantes de phishing de los últimos años, algo que en la actualidad parece que se está volviendo cada vez más común. En el informe se explica que los scammers están haciendo uso de IA para clonar las voces de personas cercanas de las víctimas.
En esta ocasión, la afectada ha sido una residente de Dover, Florida, Estados Unidos, llamada Sharon Brightwell. Un día cualquiera, recibió una llamada telefónica en la que su hija hablaba desesperadamente, explicando que tuvo un accidente con una mujer embarazada.
“Era su voz de llanto; estaba histérica”, fue lo que explicó, destacando que era difícil siquiera pensar en que se trataba de una estafa, ya que son momentos en los que solo se quiere resolver un problema. Pero, ¿cómo no sospechó si no era el número exacto de su ser querido? Al parecer, durante la conversación, mencionó que su smartphone había sido confiscado por la policía.
Por lo visto, la autoridad había detenido a su hija y para poder dejarla libre debía pagar una fianza de 15.000 dólares (aproximadamente 12.870 euros). Evidentemente, sin pensar detenidamente y siguiendo las instrucciones que mencionaba el atacante encubierto. La víctima obtuvo el dinero y se lo dio a un “mensajero legal” en efectivo que fue enviado a la dirección exacta de su casa, diciendo que “cuando los vi alejarse, sentí una sensación terrible en el estómago”.
Confiando el proceso, el mal presentimiento no era equívoco. Posteriormente, llamó a su hija al número verdadero y se dio cuenta de que todo lo que había hecho era parte de una estafa, siendo un dinero que no pudo ser recuperado.
La IA implementada era tan realista que Brightwell no tuvo dudas al hablar con su hija, por lo que es posible que haya sido entrenada con vídeos de redes sociales. Este tipo de casos están volviéndose cada vez más frecuentes, incluso la afectada ha comentado que hubo otro intento de extorsión, pero con otro contexto y, esta vez, pidiendo alrededor de 25.000 euros.
La policía de Hillsborough sigue investigando estos sucesos, pero es de suma importancia tener cuidado, ya que no es algo que solo esté sucediendo en Estados Unidos. En cualquier parte del mundo donde los modelos de IA cloradores de voces estén disponibles, es posible que los cibercriminales se estén aprovechando de la tecnología de los sistemas cognitivos.
Cuando se trata de estos ataques de phishing, por mucho que insistan las autoridades, familiares o compañías reconocidas en hacer acciones urgentes, siempre se deben verificar los números telefónicos reales y contactar de ser necesario para evitar estas circunstancias.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, phishing, Estafa, Ciberseguridad
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *