ChatGPT - Cauchemar de la vie privée ou outil utile ?
L'IA ChatGPT n'a pas été conçue pour respecter la vie privée. L'UE va-t-elle mettre un terme à cet outil populaire ?
ChatGPT est devenue l’application grand public à la croissance la plus rapide jamais lancée. Les gens se précipitent sur cet outil car ils pensent qu’il les aidera dans leur vie de tous les jours - ou même au travail.
Quelques mois après son lancement, des centaines de millions d’utilisateurs se sont inscrits - presque aucun d’entre eux n’a lu la politique de confidentialité de ChatGPT.
Mais cela vaut-il la peine de renoncer à son droit à la vie privée pour utiliser l’IA ?
Des étudiants utilisent ChatGPT pour laisser l’IA rédiger des dissertations à leur place, certains organes de presse comme Buzzfeed ont annoncé qu’ils utiliseraient ChatGPT pour rédiger leurs articles, ce qui a fait grimper leurs actions en flèche.
Google n’a pas tardé à annoncer son propre outil d’IA - Bard - et le Chinois Baidu a lancé son “Erni Bot” en mars.
Les grandes entreprises technologiques sont tellement enthousiasmées par la nouvelle technologie de l’IA qu’elles veulent que nous n’en voyions pas les risques : Elle est alimentée par nos données personnelles.
Débat sur la protection de la vie privée en Europe
L’Europe, connue pour sa loi stricte sur la protection de la vie privée (GDPR), est la première à s’attaquer aux problèmes de protection de la vie privée liés à l’IA. L’Italie est devenue le premier pays de l’Union européenne à imposer une interdiction temporaire, estimant qu’il s’agit d’une violation du règlement général sur la protection des données (RGPD) de l’UE. Mais le chatbot pourrait revenir en Italie d’ici la fin du mois d’avril : “Mercredi, l’autorité italienne de protection des données, The Garante, a donné à OpenAI - la société américaine à l’origine de ChatGPT - jusqu’au 30 avril pour se conformer à des exigences spécifiques en matière de protection de la vie privée, ouvrant ainsi la voie à la levée de l’interdiction temporaire du chatbot dans le pays”, écrit Politico.
L’autorité italienne de protection des données souhaite lever le blocage de ChatGPT par l’opérateur OpenAI sous certaines conditions : “Nous sommes prêts à autoriser le retour de ChatGPT le 30 avril, si OpenAI est prête à prendre les mesures adéquates”, a déclaré Pasquale Stanzione, chef de l’autorité, dans une interview accordée au journal Corriere della Sera.
Selon l’évaluation de M. Stanzione, l’entreprise soutenue par Microsoft est prête à mettre en œuvre les exigences de l’autorité de protection des données.
L’intelligence artificielle a fait des vagues en politique et dans le monde des affaires avec la sortie du logiciel. Le programme peut, par exemple, répondre à des requêtes ou générer des textes complets à partir de quelques mots-clés. La base est constituée par de grands volumes de textes pré-alimentés provenant de l’internet.
Cependant, les inquiétudes concernant les réponses incorrectes et la protection des données ne cessent de croître à mesure que l’intelligence artificielle générative est utilisée. Selon les autorités italiennes, OpenAI aurait traité des données personnelles sans en informer les utilisateurs et les individus. En outre, il n’y avait pas de base légale pour la collecte extensive de données utilisée pour former ses modèles d’IA. En raison de ces violations présumées, les autorités italiennes ont ouvert une enquête à l’encontre d’OpenAI à la fin du mois de mars. Le logiciel d’IA a depuis été bloqué pour les utilisateurs italiens.
Entraîné avec vos données
OpenAI, l’entreprise à l’origine de ChatGPT, a entraîné l’IA à l’aide de milliards de mots récupérés sur l’internet - livres, articles, journaux, essais. Toutes sortes d’informations disponibles sur l’internet ont été transmises à l’IA, sans le consentement des auteurs.
Si vous avez déjà publié quelque chose en ligne - qu’il s’agisse d’un billet de blog ou d’un simple commentaire sous un article - il est très probable que ChatGPT utilise ces informations pour sa formation.
Les éditeurs ne reçoivent rien
La rémunération des éditeurs de contenu en ligne est également problématique. Des articles de blogs ou des livres peuvent être cités par ChatGPT, mais les auteurs ne reçoivent aucune rémunération. En fonction de la popularité du texte, l’industrie risque de passer à côté de revenus considérables, tandis que l’OpenAI en tirera probablement d’immenses bénéfices.
Qu’est-ce qui ne va pas avec les données d’IA ?
Il y a plusieurs raisons pour lesquelles l’utilisation d’informations provenant d’Internet pour former une IA qui produira ensuite de nouveaux textes est problématique.
-
Les données peuvent être erronées : toutes les données publiées sur l’internet ne sont pas correctes. En fait, l’internet est rempli de propagande, de lobbying et d’articles d’opinion.
-
Les données peuvent être extraites de sources sous copyright, ce qui peut conduire à des conflits juridiques.
-
Les données peuvent être privées : De nombreuses données sur l’internet contiennent des informations personnelles sur des personnes, parfois même leur adresse ou d’autres informations privées qui pourraient révéler leur identité. Ces informations ont été récupérées sans le consentement des personnes concernées, ce qui constitue une violation manifeste de la vie privée.
En outre, les personnes concernées n’ont pas la possibilité de savoir si ChatGPT utilise leurs informations et de les faire supprimer de la base de données. Il s’agit d’une exigence légale du Règlement européen sur la protection des données (GDPR), et on peut donc se demander si ChatGPT est conforme à ce règlement de l’UE sur la protection de la vie privée. Le “droit à l’oubli”, garanti par le GDPR, est particulièrement important si les informations utilisées par ChatGPT sont erronées - ce qui, malheureusement, est souvent le cas.
Perspectives dans l’UE
À ce stade, il est impossible de dire si et dans quelle mesure ChatGPT - et d’autres outils d’IA comme Bard ou Erni Bot - seront réglementés dans l’UE. Ce que l’on peut dire avec certitude, c’est ceci : Les responsables politiques, et en particulier les organismes de surveillance de la protection des données en Europe et aux États-Unis, s’intéressent de près aux outils d’IA, à leur potentiel, mais aussi à leur dangerosité potentielle.
” Nous sommes encore à des années de l’application de la loi sur l’IA, et il est crucial que les consommateurs soient protégés dans l’intervalle ”, a déclaré à EURACTIV Frederico Oliveira da Silva, juriste principal au Bureau européen des unions de consommateurs (BEUC).
Selon M. Oliveira, l’UE et les autorités nationales devraient immédiatement lancer une enquête sur les risques de ChatGPT et des outils vocaux similaires à grande échelle. Un ” examen public plus approfondi ” serait nécessaire.
Après que l’Italie ait bloqué l’accès à l’IA le mois dernier, l’autorité espagnole de protection des données (AEPD) a récemment soumis une pétition au Conseil européen de protection des données (EDPB), soulignant la nécessité d’évaluer les implications du ChatGPT sur la vie privée.
En France, le député européen Eric Bothorel a récemment déposé une plainte auprès de l’autorité française de protection des données, la CNIL, qui avait déjà commencé à enquêter sur plusieurs plaintes. En Allemagne, la Conférence sur la protection des données est en train d’évaluer si le chat bot viole le règlement général sur la protection des données.
La Belgique, l’Autriche, la Croatie, la Finlande et la Pologne n’ont pas encore prévu d’interdire le logiciel.
Une réglementation des outils d’IA se profile à l’horizon, mais la forme qu’elle prendra reste à déterminer.
Politique de confidentialité de ChatGPT
Enfin, si vous souhaitez utiliser l’IA, lisez d’abord la politique de confidentialité de ChatGPT.
Sachez qu’OpenAI recueille beaucoup d’informations sur vous. Selon la politique de confidentialité de l’entreprise, elle collecte l’adresse IP des utilisateurs, le type et les paramètres du navigateur, ainsi que des données sur les interactions des utilisateurs avec le site - y compris le type de contenu auquel les utilisateurs s’intéressent, les fonctions qu’ils utilisent et les actions qu’ils entreprennent. Elle recueille même des données sur les habitudes de navigation et les sites web que vous visitez. De plus, OpenAI déclare qu’elle pourrait partager les informations collectées avec d’autres tiers. Étant donné que Microsoft est fortement investi dans OpenAI, il faut être conscient que cette société Big Tech pourrait avoir un accès complet à toutes les données que vous partagez avec ChatGPT.
Conclusion
Bien que ChatGPT puisse révolutionner notre façon de travailler, nous devons prendre en compte les coûts. OpenAI est une entreprise à but lucratif, et nous devrions être prudents avec les données que nous partageons avec elle.
Les risques pour la vie privée sont alarmants alors que les avantages de ChatGPT - du moins à ce jour - sont encore très limités.
Ce n’est pas seulement que certaines informations reproduites par ChatGPT sont erronées, c’est aussi que l’IA produit des textes qui ressemblent parfois à des résumés ennuyeux de centaines d’articles de blog sur la question.
Si vous n’êtes pas convaincu, lisez cet exemple produit par ChatGPT :
Rédiger un essai sur les raisons pour lesquelles la vie privée est importante et pourquoi nous avons besoin d’un cryptage de bout en bout à l’ère numérique.
Nous sommes convaincus que vous pourriez rédiger un tel essai vous-même. Vous pouvez donc vérifier qui est le plus performant : vous ou l’IA.
Voici l’essai sur la protection de la vie privée réalisé par ChatGPT :
La vie privée, ça compte : L’importance du chiffrement de bout en bout à l’ère numérique
L’ère numérique a apporté d’innombrables avantages, de la communication instantanée à l’accès inégalé à l’information. Cependant, alors que nous nous appuyons de plus en plus sur la technologie pour nous connecter, communiquer et faire des affaires, nous laissons également derrière nous de vastes quantités d’informations personnelles qui peuvent être collectées, stockées et partagées par des entreprises, des gouvernements et d’autres organisations.
C’est pourquoi la protection de la vie privée est importante, car elle permet aux individus de conserver l’autonomie et le contrôle de leurs informations personnelles et de leur comportement.
L’importance de la vie privée
Dans le monde d’aujourd’hui, les informations personnelles sont précieuses et peuvent être utilisées à des fins diverses, telles que la publicité ciblée, la manipulation politique et même la surveillance. Lorsque des informations personnelles sont collectées, stockées et partagées à notre insu ou sans notre consentement, nous perdons le contrôle de notre propre vie. Nos actions, nos pensées et nos croyances peuvent être surveillées et analysées par des personnes ou des organisations qui peuvent utiliser ces informations pour nous manipuler ou nous exploiter. En outre, la perte de la vie privée peut conduire à la discrimination, en particulier pour les groupes vulnérables tels que les minorités, les immigrés et les personnes ayant des opinions politiques différentes.
Chiffrement de bout en bout
C’est là qu’intervient le chiffrement de bout en bout, une technique qui permet de sécuriser les communications en chiffrant les données sur l’appareil de l’expéditeur, de sorte qu’elles ne puissent être déchiffrées que sur l’appareil du destinataire. Ainsi, seuls l’expéditeur et le destinataire peuvent lire le message, qui ne peut être intercepté ou consulté par un tiers, y compris l’entreprise qui fournit le service.
Protéger nos droits politiques et civils
Le chiffrement de bout en bout joue également un rôle essentiel dans la protection de nos droits politiques et civils. Dans une société où les gens se sentent libres d’exprimer leurs points de vue et leurs opinions sans crainte de représailles, un marché des idées robuste peut prospérer. À l’inverse, dans une société où la vie privée n’est pas respectée, les individus peuvent se sentir constamment surveillés et s’autocensurer pour éviter les représailles. Cela peut avoir un effet dissuasif sur la liberté d’expression et d’autres droits, et empêcher les individus de participer pleinement au processus démocratique.
Confiance et sécurité dans les interactions humaines
La protection de la vie privée est également importante pour la sécurité et la confiance dans les interactions humaines. Lorsque nous avons la certitude que nos informations personnelles restent confidentielles, nous sommes plus enclins à partager nos pensées, nos sentiments et nos expériences avec d’autres personnes. Cela permet d’établir des relations plus profondes et plus significatives et de renforcer le sentiment d’appartenance à une communauté. En revanche, si nous avons l’impression que nos informations personnelles sont constamment exposées, nous risquons de devenir plus prudents et moins enclins à nouer des liens avec les autres.
Conclusion
En conclusion, la vie privée est un droit fondamental qui nous permet de conserver l’autonomie et le contrôle de nos informations personnelles et de notre comportement. Elle est essentielle pour protéger nos droits politiques et civils, promouvoir la confiance et la sécurité dans les interactions humaines et préserver la dignité humaine. Le chiffrement de bout en bout est un outil puissant qui peut contribuer à protéger notre vie privée à l’ère numérique en garantissant la sécurité et la confidentialité de nos communications.
Alors que nous dépendons de plus en plus de la technologie pour nous connecter, communiquer et faire des affaires, il est important que nous prenions des mesures pour protéger notre vie privée, et cela inclut l’utilisation de services qui offrent le chiffrement de bout en bout.