¿Sabe ChatGPT demasiado sobre ti? Protección de Datos intenta frenarlo antes de que sea demasiado tarde
Teknalix junio 16, 2025 No hay comentarios

Uno de los riesgos de la inteligencia artificial y que preocupa mucho tanto a gobiernos como a particulares, es gestión de los datos y la seguridad. Por ese motivo, la Agencia Española de Protección de Datos (AEPD) ha abierto una investigación sobre OpenAI, empresa de Sam Altman, detrás de ChatGPT.
Según la memoria anual de la AEPD, hay una preocupación sobre la IA generativa, debido a que aprende y mejora gracias a los datos que recibe por parte de los usuarios, lo que plantea serias dudas acerca de si entre medias hay algún tipo de protección de la información.
Este organismo quiere asegurarse de que ChatGPT cumpla con el Reglamento General de Protección de Datos (RGPD), la normativa europea que protege a los ciudadanos frente al uso indebido de su información.
¿Cuánta información sabe ChatGPT sobre ti?
Para poder llevar a cabo la tarea de investigar a ChatGPT se creó un grupo de trabajo centrado exclusivamente en esta IA, para supervisar cómo se manejan los datos de los ciudadanos españoles.
Como explica el artículo de Voz Populi, esta investigación lleva operativa más de dos años, y desde entonces se ha estado vigilando si esa inteligencia artificial ha respetado los derechos fundamentales de los usuarios dentro de su proceso de aprendizaje.

DepositPhotos
Durante 2024, este grupo se reunió en siete ocasiones, y en esas reuniones que se celebraron de forma telemática, se compartió información entre autoridades para coordinar posturas y decisiones frente a los posibles riesgos del tratamiento de datos por parte de OpenAI.
La situación ha sido tomada tan en serio que el propio Comité Europeo de Protección de Datos (EDPB) decidió lanzar un grupo conjunto europeo sobre ChatGPT.
Un punto clave en esta supervisión es la puesta en marcha del mecanismo One-Stop-Shop (ventanilla única), que se activó desde que OpenAI estableció una sede dentro del Espacio Económico Europeo. Este canal permite que las decisiones respecto al tratamiento de datos personales se tomen de manera coordinada entre las distintas agencias europeas.
Aunque el grupo de trabajo seguirá activo mientras existan casos abiertos, la fase de coordinación principal se dio por finalizada a finales de 2024.
La propia AEPD ha dejado claro en múltiples ocasiones que no quiere frenar la innovación, sino que se respeten las leyes y se garantice la seguridad jurídica. La clave está en encontrar el equilibrio entre un progreso tecnológico y los derechos fundamentales de los usuarios.
El caso ChatGPT es solo la punta del iceberg de un debate mayor sobre cómo se puede regular la inteligencia artificial sin limitar su potencial, y cómo se puede garantizar que las empresas tecnológicas que operan a nivel global se responsabilicen del uso de los datos personales en países con normativas estrictas como las europeas.
Aunque todavía no se conocen los resultados concretos de las investigaciones de la AEPD, ni si se impondrán sanciones, lo cierto es que este proceso marca un antes y un después en la relación entre la inteligencia artificial y la privacidad.
ChatGPT, como muchas otras herramientas similares, representa un avance impresionante, pero también un riesgo potencial si no se gestiona con responsabilidad.
Conoce cómo trabajamos en ComputerHoy.
Etiquetas: Inteligencia artificial, Software
Deja un Comentario
Tu dirección de correo no será publicada. Los campos requeridos están marcados. *