La AEPD inicia acciones para investigar el ChatGPT de OpenAI
Desde hace pocos años se ha asentado en los medios de comunicación un término de ciencia ficción: la inteligencia artificial (AI por sus siglas en inglés). Este concepto esconde detrás una compleja tecnología cuya finalidad es la creación de máquinas que reproduzcan las mismas capacidades que los seres humanos: pensar y operar como un ser humano, aprender como un ser humano y, en definitiva, actuar racionalmente.
En este contexto, la empresa estadounidense OpenIA lleva años investigando esta rama de la ciencia hasta alcanzar la creación de una de las herramientas más novedosas de la década: el ChatGPT. Este chat es un sistema que produce respuestas sin intervención humana a cualquier pregunta de los usuarios, llegando a resolver problemas difíciles, crear análisis fundamentados, e incluso puede componer canciones o guiones, aprendiendo a su vez de los usuarios que lo utilizan.
Sin embargo, la falta de transparencia de esta compañía en relación con el tratamiento de los datos de los usuarios ha motivado que la Agencia Española de Protección de Datos (AEPD) inicie de oficio actuaciones previas de investigación. A mayores, la Agencia ha solicitado al Comité Europeo de Protección de Datos que se incluya el servicio ChatGPT como tema a abordar en su reunión plenaria, al considerar que los tratamientos globales requieren de acciones armonizadas y coordinadas a nivel europeo.
¿La política de privacidad de Opean IA es acorde al RGPD?
La política de privacidad de esta empresa californiana, por la cual se rige el ChatGPT, aporta más dudas que respuestas al tratamiento que realiza de los datos de sus más de 100 millones de usuarios.
En un ejercicio de falta de transparencia, no informa claramente sobre los datos que se recopilan durante el uso del ChatGPT, afirmando únicamente que se recoge “automáticamente información sobre su uso de los Servicios, como los tipos de contenido que ve o interactúa, las funciones que usa y las acciones que realiza, así como su zona horaria, país, las fechas y tiempos de acceso, agente de usuario y versión, tipo de computadora o dispositivo móvil, conexión a la computadora, dirección IP, y similares.”
Del mismo modo, tampoco se ofrece información clara sobre los destinatarios de los datos o las finalidades del tratamiento, acudiendo a términos vagos o indeterminados, como “mejorar y/o analizar los servicios” o “realizar investigaciones”.
Por todo esto, la AEPD investigará a Open IA, pues como afirma en su comunicado, “aboga por el desarrollo y la puesta en marcha de tecnologías innovadoras como la inteligencia artificial desde el pleno respeto a la legislación vigente, ya que considera que sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas.”
Así, esta Agencia abre la puerta a la iniciativa de su homólogo italiano, que recientemente ha bloqueado el ChatGPT en Italia.
Desde Microlab trabajamos en la implantación de estrategias de protección de datos para empresas de todos los sectores, las cuales estarán adaptadas a sus necesidades y a su modelo de negocio. Para ello, realizamos completas auditorías de protección de datos aplicadas a servicios web, con el objetivo de analizar los factores de riesgo y determinar las estrategias a implantar para garantizar un tratamiento de datos personales dentro de la legalidad.