Una IA que lee la mente permite a una persona con parálisis hablar y mantener conversaciones en tiempo real
Teknalix junio 12, 2025 No hay comentarios

Un nuevo avance tecnológico ha permitido a un hombre con parálisis recuperar la capacidad de comunicarse en tiempo real, utilizando únicamente su actividad cerebral y la inteligencia artificial.
Gracias a una interfaz cerebro-computadora impulsada por IA, este paciente ahora puede mantener conversaciones fluidas y hasta entonar canciones mediante una voz sintética que se adapta a sus intenciones.
La innovación, desarrollada por investigadores de la Universidad de California, Davis, representa un cambio radical frente a los sistemas tradicionales, que solían ser más lentos y menos naturales.
Una IA capaz de convertir pensamientos en voz
Este sistema pionero de voz artificial controlada por el cerebro interpreta la actividad neuronal en solo 25 milisegundos. A diferencia de otros dispositivos que pueden tardar varios segundos en generar una frase, esta nueva tecnología permite una conversación natural, sin retrasos ni interrupciones incómodas.
El proyecto se apoya en la inteligencia artificial avanzada para traducir señales cerebrales en palabras con tono, énfasis y ritmo, simulando de forma muy convincente cómo sonaría la persona si pudiera hablar por sí misma.

Lisa E. Howard/Maitreyee Wairagkar y otros
Para desarrollar el sistema, los científicos implantaron 256 electrodos en zonas del cerebro encargadas de controlar los músculos del habla. Durante las pruebas, el paciente debía leer frases en una pantalla, intentando pronunciarlas con diferentes entonaciones.
Aunque no podía emitir sonidos, su cerebro seguía ” activando” los movimientos necesarios para hablar, y esas señales eran registradas por el dispositivo. Posteriormente, se entrenó un modelo de IA para identificar patrones neuronales y asociarlos con palabras, emociones e incluso inflexiones de voz.
Uno de los elementos más llamativos es que la voz sintética generada no es genérica. Los investigadores lograron recuperar grabaciones antiguas del paciente antes de perder el habla, utilizando técnicas de clonación de voz con inteligencia artificial.
Así, la voz digital no solo expresa sus pensamientos, sino que también suena como él, lo que ha tenido un fuerte impacto emocional. Según los responsables del estudio, el hombre se siente feliz con esta nueva forma de comunicación y asegura que la voz le resulta familiar, como si realmente fuera la suya.
“La idea es que, por ejemplo, se pueda decir: ‘¿Cómo estás hoy?’ o ‘¿Cómo estás hoy?’, y eso cambia la semántica de la oración. Eso genera un intercambio mucho más rico y natural, y un gran avance en comparación con los sistemas anteriores”, explica Sergey Stavisky de la Universidad de California, Davis, a NewScientist.
Esta neurotecnología también ha demostrado flexibilidad y espontaneidad. El paciente ha logrado emitir sonidos no verbales como “hmm” o “ah”, incluso sin ser solicitado. También ha producido palabras inventadas y ha probado a cantar melodías sencillas, con la IA ajustando en tiempo real la entonación según las señales enviadas desde el cerebro.
Es un paso decisivo para que los usuarios no solo comuniquen información básica, sino también emociones, ironías o matices sutiles que enriquecen cualquier conversación.
A pesar de los buenos resultados, los expertos reconocen que aún hay margen para mejorar la claridad del habla. La pronunciación digital puede ser perfeccionada para que sea más comprensible y natural.
Aun así, este avance representa una nueva era para las personas con parálisis o enfermedades neuromusculares como la esclerosis lateral amiotrófica, ya que podrían recuperar la posibilidad de hablar y trabajar, y mantener relaciones sociales con normalidad.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *