El Gobierno español ha avisado de que se podría bloquear el acceso a ChatGPT si incumple la normativa europea sobre protección de datos, que establece una serie de requisitos para garantizar el derecho a la privacidad y la seguridad de la información personal. Según el Ejecutivo, ChatGPT podría estar recogiendo y almacenando masivamente los datos de las conversaciones y consultas de los usuarios, sin su consentimiento ni información previa, y sin ofrecer garantías sobre el uso y la eliminación de esos datos.
«Es necesario que los usuarios sepan qué datos se están recogiendo, con qué finalidad, durante cuánto tiempo y quién los está tratando. También deben poder ejercer sus derechos de acceso, rectificación, supresión, oposición, limitación y portabilidad», explica José Luis Rodríguez Álvarez, director de la Agencia Española de Protección de Datos (AEPD). «Si ChatGPT no cumple con estos principios, se estaría vulnerando el Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD), y se podrían imponer sanciones económicas o medidas cautelares como el bloqueo del servicio», añade.
La AEPD ha iniciado una investigación sobre ChatGPT para comprobar si respeta o no la legislación vigente. Para ello, ha solicitado información a OpenAI, la empresa creadora del modelo, sobre las medidas técnicas y organizativas que aplica para proteger los datos de los usuarios. También ha pedido colaboración a las autoridades de protección de datos de otros países europeos donde ChatGPT está disponible.
OpenAI ha defendido que ChatGPT no almacena ni utiliza los datos de los usuarios para ningún fin comercial o malicioso, y que solo los procesa temporalmente para generar las respuestas. Además, ha asegurado que cumple con el RGPD y que ofrece a los usuarios la posibilidad de borrar sus datos si lo solicitan. Sin embargo, algunos expertos han cuestionado la veracidad y la transparencia de estas afirmaciones.
«ChatGPT es una caja negra que no sabemos cómo funciona ni qué hace con los datos. No hay forma de verificar si realmente los borra o si los comparte con terceros. Tampoco sabemos si respeta los principios de minimización, proporcionalidad y necesidad, es decir, si solo recoge los datos imprescindibles para su funcionamiento y si los elimina cuando ya no son necesarios», opina Carlos Sánchez Almeida, abogado especializado en derecho digital. «Además, ChatGPT plantea otros riesgos como la generación de contenidos falsos o engañosos que pueden afectar a la reputación o a la seguridad de las personas», advierte.
Ante esta situación, algunos usuarios han decidido dejar de usar ChatGPT o limitar sus consultas a temas triviales o inocuos. Otros, en cambio, siguen disfrutando del servicio sin preocuparse por las posibles consecuencias. Lo cierto es que ChatGPT representa un avance tecnológico impresionante, pero también un desafío para la regulación y la ética de la inteligencia artificial.