Meta AI will not come to the EU for the time being.

Le 26 juin, Meta a souhaité mettre à jour sa politique de confidentialité afin de pouvoir commencer à utiliser les données des utilisateurs de Meta dans l’UE et au Royaume-Uni pour entraîner ses modèles d’IA. Pour le plus grand bien des citoyens, ce déploiement s’est heurté à une réaction juridique massive : le groupe militant None of Your Business (NYOB) a déposé des plaintes dans 11 pays européens, et l’introduction de l’IA de Meta s’est - de manière surprenante - également heurtée à l’opposition d’autorités telles que la Commission irlandaise pour la protection des données (IDPC). En conséquence, Meta a décidé de suspendre son projet d’utilisation des données des utilisateurs de l’UE et a également mis en suspens l’introduction de Meta AI en Europe.

NOYB et Max Schrems - qui ont déjà poursuivi Facebook à plusieurs reprises, ce qui a conduit à des amendes combinées de plus d’un milliard d’euros dans des décisions judiciaires célèbres telles que Schrems I et Schrems II - ont à nouveau frappé le géant de la technologie de la Silicon Valley. Cette fois, NOYB a empêché Meta d’abuser des données des citoyens européens à des fins d’entraînement à l’IA !

Max Schrems et son organisation à but non lucratif NOYB sont devenus des défenseurs de la vie privée bien connus en Europe et au-delà. Ils se sont non seulement attaqués à Facebook, mais ont également mené une bataille juridique contre Google, dans laquelle le tribunal a jugé que l’utilisation de Google Analytics était illégale pour les entreprises européennes, ce qui a conduit à un essor des outils d’analyse respectueux de la vie privée, tels que Matomo et Piwik.

Max Schrems, None of Your Business (NOYB) Max Schrems, None of Your Business (NOYB)

Il est intéressant de noter que Google a modifié sa politique de confidentialité dès l’été 2023. Il est donc fort probable que Google utilise déjà vos données pour entraîner son IA et il est même possible que Gemini utilise vos courriels Gmail pour s’entraîner. Une question similaire a également été soulevée à propos de la fameuse solution d’OpenAI : ChatGPT est-il un cauchemar pour la vie privée ou un outil utile?

Dans le cas de Google et d’OpenAI, aucune action en justice fondée sur le GDPR de l’UE n’a été intentée, mais nous serions curieux de voir cela se produire !

Table des matières

L’IA de Meta face au retour de bâton

The EU GDPR continues to protect the data of EU citizens, also against Meta AI. Le GDPR de l’UE continue de protéger les données des citoyens de l’UE, y compris contre l’IA de Meta.

Le projet de Meta d’introduire Meta AI dans l’UE/EEE a été initialement approuvé par la Commission irlandaise de protection des données (DPC). En mai, Meta a commencé à informer les utilisateurs des modifications à venir de sa politique de confidentialité, qui devaient entrer en vigueur le 26 juin 2024. Les nouveaux changements auraient donné à Meta le droit d’utiliser du contenu public sur Instagram et Facebook pour entraîner ses modèles d’IA. Les contenus publics susceptibles d’être collectés comprenaient les commentaires, les mises à jour de statut, les interactions avec les entreprises, les photos et les légendes de photos.

Les projets de Meta ont soulevé des préoccupations en matière de protection des données, qui ne sont pas conformes au GDPR. L’un des problèmes mis en évidence est le choix de l’option d’acceptation ou de refus.

Si les données des utilisateurs sont traitées, leur permission doit d’abord être demandée et accordée, plutôt que d’exiger de l’utilisateur qu’il prenne des mesures pour la refuser, comme le fait actuellement Meta. Pour ces raisons, la nouvelle politique de confidentialité de Meta a été contestée juridiquement par l’organisation autrichienne de protection de la vie privée NOYB. NOYB a déposé des plaintes auprès des autorités chargées de la protection des données dans 11 pays européens : Autriche, Belgique, France, Allemagne, Grèce, Italie, Irlande, Pays-Bas, Norvège, Pologne et Espagne.

Elle s’est alors également opposée à des autorités comme la Commission irlandaise de protection des données qui a demandé à Meta de retarder son projet d’utiliser les données des utilisateurs de Facebook et d’Instagram pour l’entraînement à l’IA. Suite à cette décision, le grand conglomérat technologique a également mis en pause le déploiement de son assistant IA en Europe.

Meta, qui a déjà encouru plusieurs amendes GDPR] pour ne pas avoir respecté les règles de protection des données de l’UE dans le passé et qui a été critiquée pour son approche de Pay or Okay pour la confidentialité des données, a invoqué l’intérêt légitime en vertu du règlement général sur la protection des données de l’UE pour justifier les plans d’utilisation des données des utilisateurs pour l’entraînement des modèles d’IA sans demander aux utilisateurs d’opt-in, ou pour un véritable consentement, pour ainsi dire. Les allégations d’intérêt légitime ont été étayées par le fait que les utilisateurs de Facebook et d’Instagram choisissent de rendre leurs données publiques sur leurs profils.

”En vertu de la loi britannique sur la protection des données et du règlement général sur la protection des données de l’UE, nous nous appuierons sur la base juridique des “intérêts légitimes” pour traiter certaines données premières et tierces dans la région européenne et au Royaume-Uni afin d’améliorer l’IA chez Meta”, a déclaré l’entreprise. “Plus précisément, nous avons des intérêts légitimes à traiter les données pour construire ces services, ce qui signifie que les gens peuvent s’y opposer en utilisant un formulaire trouvé dans notre Centre de confidentialité s’ils le souhaitent. Cette approche est cohérente avec la manière dont d’autres entreprises technologiques développent et améliorent leurs expériences en matière d’IA en Europe.”

Bien que l’intérêt légitime puisse être une raison valable en vertu de la loi GDPR, dans ce cas, il est extrêmement discutable. Après tout, Meta veut récolter les bénéfices de toutes vos données et les utiliser d’une manière inconnue de tous.

Le choix de consentir au traitement des données pour l’IA de plusieurs centaines de millions d’utilisateurs de Meta dans l’UE devrait être prioritaire par rapport aux intérêts commerciaux de Meta. NOYB estime que la politique de confidentialité de Meta, qui serait applicable à Facebook, Instagram et Threads, n’est pas aussi conforme au GDPR que le géant de la technologie le prétend. Par conséquent, NOYB a déposé des plaintes arguant que Meta n’était pas en conformité avec le GDPR de l’UE.

Le problème avec Meta AI

La nouvelle politique de confidentialité de Meta était très généreuse - pour le géant technologique et la manière dont il aurait pu utiliser les données des personnes : Si la nouvelle politique de confidentialité de Meta était entrée en vigueur le 26 juin, elle aurait été autorisée à utiliser les données publiques et non publiques des utilisateurs collectées depuis 2007 ( !) - ce n’est pas une blague, mais presque deux décennies de vos données. Cette vaste quantité de données comprend des années d’images d’utilisateurs, de messages et de données de suivi que Meta aurait pu utiliser pour entraîner ses modèles d’intelligence artificielle - d’une manière inconnue de tous.

Le problème majeur est que Meta a voulu utiliser ces données sans demander le consentement des utilisateurs, et c’est ce que NOYB conteste.

Meta dit en substance qu’elle peut utiliser n’importe quelle donnée de n’importe quelle source à n’importe quelle fin et la mettre à la disposition de n’importe qui dans le monde, tant que cela se fait par le biais d’une “technologie d’IA”. C’est clairement le contraire de la conformité au GDPR”, a déclaré Max Schrems de NYOB.

Meta a rejeté les allégations de NOYB, affirmant que les données qu’elle prévoit d’utiliser sont accessibles au public en ligne, qu’il s’agit d’informations sous licence ainsi que d’informations que les gens ont publiquement partagées sur ses plates-formes.

Les tentatives éhontées de Meta de violer vos droits en matière de données se poursuivent

Si l’intention de Meta d’utiliser vos données depuis dix-sept ans vous surprend, cela ne devrait pas être le cas. Meta a souvent fait l’objet d’un examen minutieux en raison de ses tentatives éhontées de réaliser des profits en exploitant les utilisateurs et leur vie privée. En outre, Meta sait énormément de choses sur vous, et vos données sont extrêmement précieuses pour elle.

Heureusement, pour les personnes vivant dans l’UE, il existe de bonnes lois, comme le GDPR, qui protègent les identités numériques et les droits des citoyens en matière de données. Cela n’empêche pas Facebook de tenter de tirer profit des données des utilisateurs ou de trouver de nouveaux moyens créatifs de se conformer au GDPR, comme le montre sa dernière initiative de récupération des données des utilisateurs pour l’entraînement à l’IA sans consentement actif.

Les données des utilisateurs non européens sont déjà utilisées pour la formation à l’IA

Malheureusement, pour les personnes vivant dans d’autres pays comme les États-Unis, les lois et les mesures de protection de la vie privée ne sont pas aussi strictes qu’en Allemagne, par exemple, où les lois sur la protection des données sont parmi les meilleures. Aux États-Unis, depuis l’année dernière, Meta utilise les données des utilisateurs pour ses fonctions d’IA générative. Ces utilisateurs n’ont aucun moyen de refuser l’utilisation et l’exploitation de leurs données. Cela met à nouveau en évidence le manque de protection des données des utilisateurs et des droits à la vie privée, ainsi que la nécessité d’améliorer les lois sur la protection des données, également, et en particulier, aux États-Unis.

Compte tenu de ce qui précède et des scandales et amendes sans fin que reçoivent les grandes entreprises technologiques, on ne peut s’empêcher de se demander s’il n’est pas enfin temps de supprimer son profil Facebook. Et si ce n’est pas le supprimer, au moins renforcer les paramètres de confidentialité avec ce mode d’emploi.

Chez Tuta, nous saluons l’activisme de None of Your Business et applaudissons son combat pour la protection de la vie privée. Bien que le GDPR soit une excellente loi, des cas comme celui de Meta AI montrent qu’un contrôle juridique est nécessaire pour faire respecter les droits à la vie privée des Européens !