ChatGPT: ¿pesadilla para la privacidad o herramienta útil?

La IA ChatGPT no se ha creado para proteger la intimidad: ¿parará ahora la UE esta popular herramienta?

ChatGPT and privacy do not go well together: The problem is the AI is fuelled by our personal data.

Todo el mundo habla de lo que puede hacer la nueva IA, y últimamente todo el mundo empieza a fijarse en las implicaciones de ChatGPT para la privacidad. La prohibición de ChatGPT en Italia y los inminentes problemas de privacidad que rodean al chatbot de IA en Alemania han suscitado un debate a escala europea entre los que están entusiasmados con la herramienta y los que advierten contra su desarrollo y lo que ChatGPT significa para la privacidad de las personas.


ChatGPT se ha convertido en la aplicación de consumo de más rápido crecimiento jamás lanzada. La gente acude en masa a esta herramienta porque cree que le ayudará en su vida diaria, o incluso en el trabajo.

A los pocos meses de su lanzamiento, cientos de millones de usuarios se han registrado, y casi ninguno de ellos ha leído la política de privacidad de ChatGPT.

Pero, ¿merece la pena renunciar al derecho a la intimidad por utilizar la IA?

Los estudiantes utilizan ChatGPT para dejar que la IA escriba redacciones por ellos, algunos medios de comunicación como Buzzfeed anunciaron que utilizarían ChatGPT para escribir sus artículos, lo que hizo que sus acciones se dispararan.

Google no tardó en anunciar su propia herramienta de IA -Bard- y la china Baidu lanzó su IA “Erni Bot” en marzo.

Las grandes tecnológicas están tan entusiasmadas con la nueva tecnología de IA que quieren que no veamos los riesgos: Se alimenta de nuestros datos personales.

ChatGPT debate sobre privacidad en Europa

Europa, conocida por su estricta ley de protección de la privacidad GDPR, es la primera en abordar los problemas de privacidad que conlleva la IA. Italia se ha convertido en el primer país de la Unión Europea en imponer una prohibición temporal, al percibir un incumplimiento del Reglamento General de Protección de Datos (GDPR) de la UE. Pero el chatbot podría volver a Italia a finales de abril: “El miércoles, la autoridad italiana de protección de datos, Garante, dio de plazo hasta el 30 de abril a OpenAI -la empresa estadounidense que está detrás de ChatGPT- para cumplir requisitos específicos de privacidad, allanando el camino para levantar la prohibición temporal del chatbot en el país”, escribe Politico.

La autoridad italiana de protección de datos quiere levantar el bloqueo de ChatGPT al operador OpenAI bajo ciertas condiciones: “Estamos dispuestos a permitir el regreso de ChatGPT el 30 de abril, si OpenAI está dispuesta a tomar las medidas adecuadas”, dijo el jefe de la autoridad, Pasquale Stanzione, en una entrevista con el diario Corriere della Sera.

Según la valoración de Stanzione, la empresa respaldada por Microsoft está dispuesta a aplicar los requisitos de la autoridad de protección de datos.

La Inteligencia Artificial ha causado sensación en la política y los negocios con la aparición del software. El programa puede, por ejemplo, responder a consultas o generar textos completos a partir de unas pocas palabras clave. La base son grandes volúmenes de texto previamente extraídos de Internet.

Sin embargo, la preocupación por las respuestas incorrectas y la protección de datos no deja de aumentar cuanto más se utiliza la inteligencia artificial generativa. Según las autoridades italianas, OpenAI habría procesado datos personales sin informar a los usuarios ni a los particulares. Además, no había base legal para la amplia recopilación de datos utilizada para entrenar sus modelos de IA. Debido a estas presuntas infracciones, las autoridades italianas iniciaron investigaciones contra OpenAI a finales de marzo. Desde entonces, el software de IA ha sido bloqueado para los usuarios italianos.

Entrenado con tus datos

OpenAI, la empresa que está detrás de ChatGPT, entrenó a la IA con miles de millones de palabras extraídas de Internet: libros, artículos, documentos, ensayos. La IA recibió todo tipo de información disponible en Internet, sin el consentimiento de los autores.

Si alguna vez has publicado algo en Internet, ya sea una entrada en un blog o simplemente un comentario en un artículo, es muy probable que ChatGPT esté utilizando esta información para su entrenamiento.

Los editores no reciben nada

La remuneración de los editores de contenidos en línea también es problemática. Se pueden citar artículos de blogs o libros a través de ChatGPT, pero los autores reales no reciben ninguna compensación. Dependiendo de la popularidad del texto, es probable que la industria deje de percibir enormes ingresos, mientras que OpenAI probablemente obtendrá inmensos beneficios.

¿Qué tienen de malo los datos de IA?

Hay varias razones por las que utilizar información de Internet para entrenar a una IA que luego produce nuevos textos es problemático.

  1. Los datos pueden ser erróneos: no todos los datos publicados en Internet son correctos. De hecho, Internet está lleno de propaganda, grupos de presión y artículos de opinión.

  2. Los datos pueden proceder de fuentes copiadas, lo que puede dar lugar a conflictos legales.

  3. Los datos pueden ser privados: Muchos datos de Internet contienen información personal sobre las personas, a veces incluso sus direcciones u otra información privada que podría revelar su identidad. Esta información se estaba raspando sin el consentimiento de las personas afectadas, lo que supone una clara violación de la intimidad.

Además, las personas no tienen opción de averiguar si ChatGPT utiliza su información y hacer que se elimine de la base de datos. Este es un requisito legal del Reglamento Europeo de Protección de Datos (GDPR), por lo que cabe preguntarse si ChatGPT cumple esta normativa de privacidad de la UE. El “derecho al olvido”, garantizado por el GDPR, es especialmente importante si la información utilizada por ChatGPT es errónea, lo que, por desgracia, ocurre con bastante frecuencia.

Perspectivas en la UE

En este momento, no se puede decir si ChatGPT -y otras herramientas de IA como Bard o Erni Bot- estarán reguladas en la UE y en qué medida. Lo que sí se puede afirmar con seguridad es lo siguiente: Los políticos y, en particular, los organismos de control de la protección de datos en Europa y EE.UU. están estudiando de cerca las herramientas de IA, sus posibilidades, pero también sus posibles perjuicios.

”Todavía faltan años para que se aplique la ley de IA, y es crucial que los consumidores estén protegidos mientras tanto”, declaró a EURACTIV Frederico Oliveira da Silva, responsable jurídico de la Organización Europea de Consumidores (BEUC).

Según Oliveira, la UE y las autoridades nacionales deberían iniciar inmediatamente una investigación sobre los riesgos de ChatGPT y otras herramientas de voz similares a gran escala. Sería necesario un “mayor escrutinio público”.

Después de que Italia bloqueara el acceso a la IA el mes pasado, la Autoridad Española de Protección de Datos (AEPD) presentó recientemente una petición a la Junta Europea de Protección de Datos (JEPD), señalando la necesidad de evaluar las implicaciones de ChatGPT para la privacidad.

En Francia, el eurodiputado Eric Bothorel presentó recientemente una queja ante la autoridad francesa de protección de datos CNIL, que ya había empezado a investigar varias denuncias. En Alemania, la Conferencia de Protección de Datos está evaluando también si el bot de chat infringe el Reglamento General de Protección de Datos.

Bélgica, Austria, Croacia, Finlandia y Polonia no tienen previsto prohibir el software por el momento.

Se vislumbra en el horizonte una regulación de las herramientas de IA, pero aún está por determinar de qué manera exactamente.

Política de privacidad de ChatGPT

Por último, si aún así quieres utilizar la IA, asegúrate de leer primero la política de privacidad de ChatGPT.

Ten en cuenta que OpenAI recopila mucha información sobre ti. Según la política de privacidad de la empresa, recoge la dirección IP de los usuarios, el tipo de navegador y su configuración, así como datos sobre las interacciones de los usuarios con el sitio, incluido el tipo de contenido que utilizan, las funciones que utilizan y las acciones que llevan a cabo. Incluso recoge datos sobre los hábitos de navegación y los sitios web que se visitan. Además, OpenAI afirma que podría compartir la información recopilada con terceros. Dado que Microsoft está fuertemente invertido en OpenAI, uno debe ser consciente de que esta empresa Big Tech podría tener acceso completo a todos los datos que compartes con ChatGPT.

Conclusión

Aunque ChatGPT puede revolucionar nuestra forma de trabajar, debemos tener en cuenta los costes. OpenAI es una empresa con ánimo de lucro, y debemos tener cuidado con los datos que compartimos con ellos.

Los riesgos para la privacidad son alarmantes, mientras que los beneficios de ChatGPT -al menos hasta la fecha- son aún muy limitados.

No se trata sólo de que parte de la información que reproduce ChatGPT sea errónea, sino también de que la IA produce textos que a veces parecen aburridos resúmenes de cientos de entradas de blog sobre el tema.

Si no estás convencido, lee este ejemplo producido por ChatGPT:


Escribe un ensayo sobre por qué es importante la privacidad y por qué necesitamos el cifrado de extremo a extremo en nuestra era digital.

Estamos seguros de que tú mismo podrías escribir una redacción así, así que ahora puedes comprobar quién lo hace mejor: tú o la IA.

Aquí tienes el ensayo sobre privacidad de ChatGPT:

La privacidad importa: La importancia del cifrado de extremo a extremo en la era digital

La era digital ha traído consigo innumerables beneficios, desde la comunicación instantánea hasta un acceso sin precedentes a la información. Sin embargo, al depender cada vez más de la tecnología para conectarnos, comunicarnos y hacer negocios, también dejamos tras de sí grandes cantidades de información personal que puede ser recopilada, almacenada y compartida por empresas, gobiernos y otras organizaciones.

Por eso es importante la privacidad, ya que permite a las personas mantener la autonomía y el control sobre su información personal y su comportamiento.

La importancia de la privacidad

En el mundo actual, la información personal es valiosa y puede utilizarse para diversos fines, como la publicidad selectiva, la manipulación política e incluso la vigilancia. Cuando se recopila, almacena y comparte información personal sin nuestro conocimiento o consentimiento, perdemos el control sobre nuestras propias vidas. Nuestras acciones, pensamientos y creencias pueden ser vigilados y analizados por personas u organizaciones que pueden utilizar esa información para manipularnos o explotarnos. Además, la pérdida de privacidad puede conducir a la discriminación, especialmente de grupos vulnerables como minorías, inmigrantes y personas con opiniones políticas diferentes.

Cifrado de extremo a extremo

Aquí es donde entra en juego el cifrado de extremo a extremo, una técnica que permite una comunicación segura cifrando los datos en el dispositivo del remitente, de modo que sólo puedan descifrarse en el dispositivo del destinatario. Esto ayuda a garantizar que sólo el remitente y el destinatario puedan leer el mensaje, y que no pueda ser interceptado o accedido por terceros, incluida la empresa que presta el servicio.

Proteger nuestros derechos políticos y civiles

La encriptación de extremo a extremo también desempeña un papel fundamental en la protección de nuestros derechos políticos y civiles. En una sociedad en la que las personas se sienten libres para expresar sus puntos de vista y opiniones sin temor a represalias, puede florecer un sólido mercado de ideas. Por el contrario, en una sociedad en la que no se respeta la privacidad, las personas pueden sentirse bajo vigilancia constante y autocensurarse para evitar represalias. Esto puede tener un efecto amedrentador sobre la libertad de expresión y otros derechos, y puede dificultar la plena participación de las personas en el proceso democrático.

Confianza y seguridad en las interacciones humanas

La privacidad también es importante para la seguridad y la confianza en las interacciones humanas. Cuando podemos confiar en que nuestra información personal se mantiene en privado, es más probable que compartamos nuestros pensamientos, sentimientos y experiencias con los demás. Esto conduce a relaciones más profundas y significativas y a un mayor sentido de comunidad. Por otro lado, si sentimos que nuestra información personal está constantemente expuesta, podemos volvernos más cautelosos y menos propensos a establecer vínculos con los demás.

Conclusión

En conclusión, la privacidad es un derecho fundamental que nos permite mantener la autonomía y el control sobre nuestra información personal y nuestro comportamiento. Es esencial para proteger nuestros derechos políticos y civiles, promover la confianza y la seguridad en las interacciones humanas y preservar la dignidad humana. La encriptación de extremo a extremo es una poderosa herramienta que puede ayudar a proteger nuestra privacidad en la era digital garantizando que nuestras comunicaciones sean seguras y privadas.

Como cada vez dependemos más de la tecnología para conectarnos, comunicarnos y hacer negocios, es importante que tomemos medidas para proteger nuestra privacidad, y eso incluye utilizar servicios que ofrezcan cifrado de extremo a extremo.