ChatGPT - Incubo della privacy o strumento utile?

L'AI ChatGPT non è stata costruita per la privacy: l'UE fermerà ora questo popolare strumento?

ChatGPT and privacy do not go well together: The problem is the AI is fuelled by our personal data.

Tutti parlano di cosa può fare la nuova IA e ultimamente tutti iniziano a guardare alle implicazioni sulla privacy di ChatGPT. Il divieto di ChatGPT in Italia e gli incombenti problemi di privacy legati al chatbot AI in Germania hanno scatenato un dibattito a livello europeo tra chi è entusiasta dello strumento e chi mette in guardia dal suo sviluppo e da ciò che ChatGPT significa per la privacy delle persone.


ChatGPT è diventata l’applicazione per i consumatori con la crescita più rapida mai lanciata. Le persone si affollano su questo strumento perché credono che li aiuterà nella vita di tutti i giorni, o anche nel lavoro.

A pochi mesi dal suo rilascio, centinaia di milioni di utenti si sono iscritti e quasi nessuno di loro ha letto l’informativa sulla privacy di ChatGPT.

Ma vale la pena di rinunciare al proprio diritto alla privacy per utilizzare l’intelligenza artificiale?

Gli studenti usano ChatGPT per lasciare che l’IA scriva i loro saggi, alcuni organi di informazione come Buzzfeed hanno annunciato che avrebbero usato ChatGPT per scrivere i loro articoli - il che ha fatto impennare le loro azioni.

Google non ha tardato ad annunciare il proprio strumento di IA - Bard - e la cinese Baidu ha lanciato il suo IA “Erni Bot” a marzo.

Le Big Tech sono così entusiaste della nuova tecnologia AI che vogliono che non ne vediamo i rischi: È alimentata dai nostri dati personali.

ChatGPT dibattito sulla privacy in Europa

L’Europa, nota per la sua severa legge sulla protezione della privacy GDPR, è la prima ad affrontare i problemi di privacy legati all’IA. L’Italia è diventata il primo Paese dell’Unione europea a imporre un divieto temporaneo, percependo una violazione del Regolamento generale sulla protezione dei dati (GDPR) dell’UE. Ma il chat bot potrebbe tornare in Italia entro la fine di aprile: “Mercoledì l’autorità italiana per la protezione dei dati, il Garante, ha dato a OpenAI - l’azienda statunitense dietro ChatGPT - tempo fino al 30 aprile per conformarsi a specifici requisiti di privacy, aprendo la strada alla revoca del divieto temporaneo del chatbot nel Paese”, scrive Politico.

L’autorità italiana per la protezione dei dati personali vuole revocare il blocco di ChatGPT da parte dell’operatore OpenAI a determinate condizioni: “Siamo pronti a consentire il ritorno di ChatGPT il 30 aprile, se OpenAI è pronta ad adottare misure adeguate”, ha dichiarato il capo dell’autorità Pasquale Stanzione in un’intervista al Corriere della Sera.

Secondo la valutazione di Stanzione, l’azienda sostenuta da Microsoft è disposta a implementare i requisiti dell’autorità per la protezione dei dati.

L’intelligenza artificiale ha fatto scalpore in politica e nel mondo degli affari con il rilascio del software. Il programma può, ad esempio, rispondere a domande o generare testi completi sulla base di alcune parole chiave. La base è costituita da grandi volumi di testo pre-alimentati, prelevati da Internet.

Tuttavia, le preoccupazioni per le risposte errate e per la protezione dei dati aumentano costantemente quanto più le persone utilizzano l’intelligenza artificiale generativa. Secondo le autorità italiane, OpenAI avrebbe trattato dati personali senza informare gli utenti e le persone. Inoltre, non esisteva alcuna base legale per l’ampia raccolta di dati utilizzata per addestrare i suoi modelli di intelligenza artificiale. A causa di queste sospette violazioni, le autorità italiane hanno avviato indagini contro OpenAI alla fine di marzo. Da allora il software di intelligenza artificiale è stato bloccato per gli utenti italiani.

Addestrato con i vostri dati

OpenAI, l’azienda dietro ChatGPT, ha addestrato l’intelligenza artificiale con miliardi di parole estratte da Internet: libri, articoli, giornali, saggi. Ogni tipo di informazione disponibile su Internet è stata data in pasto all’IA, senza il consenso degli autori.

Se avete mai postato qualcosa online, che si tratti di un post su un blog o di un semplice commento a un articolo, è molto probabile che ChatGPT stia usando queste informazioni per il suo addestramento.

Gli editori non ricevono nulla

Anche il compenso degli editori di contenuti online è problematico. Gli articoli di blog o i libri possono essere citati tramite ChatGPT, ma gli autori effettivi non ricevono alcun compenso. A seconda della popolarità del testo, è probabile che l’industria perda enormi entrate, mentre OpenAI probabilmente ne trarrà un enorme profitto.

Cosa c’è di sbagliato nei dati dell’IA?

Ci sono diversi motivi per cui l’utilizzo di informazioni provenienti da Internet per addestrare un’IA che poi produce nuovi testi è problematico.

  1. I dati potrebbero essere sbagliati: non tutti i dati pubblicati su Internet sono corretti. Infatti, internet è pieno di propaganda, lobby e opinioni.

  2. I dati potrebbero essere tratti da fonti scritte in copia, il che potrebbe portare a conflitti legali.

  3. I dati potrebbero essere privati: Molti dati su Internet contengono informazioni personali sulle persone, a volte anche il loro indirizzo o altre informazioni private che potrebbero rivelare la loro identità. Queste informazioni sono state estratte senza il consenso delle persone interessate e, pertanto, si tratta di una chiara violazione della privacy.

Inoltre, le persone non hanno la possibilità di scoprire se ChatGPT utilizza le loro informazioni e di farle rimuovere dal database. Si tratta di un requisito legale previsto dal Regolamento europeo sulla protezione dei dati (GDPR), per cui è lecito chiedersi se ChatGPT sia conforme a questo regolamento sulla privacy dell’UE. Il “diritto all’oblio”, garantito dal GDPR, è particolarmente importante se le informazioni utilizzate da ChatGPT sono sbagliate, cosa che purtroppo accade molto spesso.

Prospettive nell’UE

A questo punto, non si può dire se e in che misura ChatGPT - e altri strumenti di intelligenza artificiale come Bard o Erni Bot - saranno regolamentati nell’UE. Quello che si può dire con certezza è questo: I politici, e in particolare gli organi di vigilanza sulla protezione dei dati in Europa e negli Stati Uniti, stanno esaminando attentamente gli strumenti di IA, le loro potenzialità, ma anche i loro potenziali danni.

”Siamo ancora lontani anni dall’applicazione della legge sull’IA ed è fondamentale che nel frattempo i consumatori siano protetti”, ha dichiarato a EURACTIV Frederico Oliveira da Silva, responsabile legale dell’Organizzazione europea dei consumatori (BEUC).

Secondo Oliveira, l’UE e le autorità nazionali dovrebbero avviare immediatamente un’indagine sui rischi di ChatGPT e di altri strumenti vocali simili su larga scala. Sarebbe necessario un “controllo pubblico più forte”.

Dopo che l’Italia ha bloccato l’accesso all’AI il mese scorso, l’Autorità spagnola per la protezione dei dati (AEPD) ha recentemente presentato una petizione al Comitato europeo per la protezione dei dati (EDPB), sottolineando la necessità di valutare le implicazioni sulla privacy di ChatGPT.

In Francia, il deputato Eric Bothorel ha recentemente presentato una denuncia all’autorità francese per la protezione dei dati CNIL, dopo che questa aveva già iniziato a indagare su diverse denunce. In Germania, la Conferenza per la protezione dei dati sta valutando se il chat bot viola il Regolamento generale sulla protezione dei dati.

Belgio, Austria, Croazia, Finlandia e Polonia non hanno finora in programma di vietare il software.

Una regolamentazione degli strumenti di intelligenza artificiale si profila all’orizzonte, ma in che modo esattamente non è ancora stato determinato.

Informativa sulla privacy di ChatGPT

Infine, se volete comunque utilizzare l’IA, assicuratevi di leggere prima l’informativa sulla privacy di ChatGPT.

Sappiate che OpenAI raccoglie molte informazioni su di voi. Secondo l’informativa sulla privacy dell’azienda, raccoglie l’indirizzo IP degli utenti, il tipo e le impostazioni del browser e i dati sulle interazioni degli utenti con il sito, tra cui il tipo di contenuto che gli utenti utilizzano, le funzioni che usano e le azioni che compiono. Raccoglie anche dati sulle abitudini di navigazione e sui siti web visitati. Inoltre, OpenAI dichiara che potrebbe condividere le informazioni raccolte con altre terze parti. Dato che Microsoft ha investito pesantemente in OpenAI, si dovrebbe essere consapevoli del fatto che questa società di Big Tech potrebbe avere pieno accesso a tutti i dati che l’utente condivide con ChatGPT.

Conclusione

Sebbene ChatGPT possa rivoluzionare il nostro modo di lavorare, dobbiamo considerare i costi. OpenAI è un’azienda a scopo di lucro e dobbiamo fare attenzione ai dati che condividiamo con loro.

I rischi per la privacy sono allarmanti, mentre i benefici di ChatGPT - almeno finora - sono ancora molto limitati.

Non si tratta solo del fatto che alcune informazioni riprodotte da ChatGPT sono sbagliate, ma anche del fatto che l’intelligenza artificiale produce testi che a volte assomigliano a noiosi riassunti di centinaia di post di blog sull’argomento.

Se non siete convinti, leggete questo esempio prodotto da ChatGPT:


Scrivi un saggio sul perché la privacy è importante e perché abbiamo bisogno della crittografia Ende-zu-Ende nella nostra era digitale.

Siamo sicuri che sareste in grado di scrivere un saggio del genere da soli, quindi ora potete verificare chi è più bravo: voi o l’intelligenza artificiale.

Ecco il saggio sulla privacy di ChatGPT:

La privacy è importante: L’importanza della crittografia Ende-zu-Ende nell’era digitale

L’era digitale ha portato con sé innumerevoli vantaggi, dalla comunicazione istantanea all’accesso senza precedenti alle informazioni. Tuttavia, mentre ci affidiamo sempre più alla tecnologia per connetterci, comunicare e condurre affari, lasciamo dietro di noi grandi quantità di informazioni personali che possono essere raccolte, archiviate e condivise da aziende, governi e altre organizzazioni.

Per questo motivo la privacy è importante, in quanto consente agli individui di mantenere l’autonomia e il controllo sulle proprie informazioni personali e sul proprio comportamento.

L’importanza della privacy

Nel mondo di oggi, le informazioni personali sono preziose e possono essere utilizzate per una serie di scopi, come la pubblicità mirata, la manipolazione politica e persino la sorveglianza. Quando le informazioni personali vengono raccolte, archiviate e condivise a nostra insaputa o senza il nostro consenso, perdiamo il controllo sulla nostra vita. Le nostre azioni, i nostri pensieri e le nostre convinzioni possono essere monitorati e analizzati da persone o organizzazioni che possono usare queste informazioni per manipolarci o sfruttarci. Inoltre, la perdita di privacy può portare a discriminazioni, soprattutto per i gruppi vulnerabili come le minoranze, gli immigrati e le persone con opinioni politiche diverse.

Crittografia Ende-zu-Ende

È qui che entra in gioco la crittografia Ende-zu-Ende, una tecnica che consente una comunicazione sicura criptando i dati sul dispositivo del mittente, in modo che possano essere decifrati solo sul dispositivo del destinatario. In questo modo si garantisce che solo il mittente e il destinatario possano leggere il messaggio e che non sia possibile intercettarlo o accedervi da parte di terzi, compresa la società che fornisce il servizio.

Protezione dei diritti politici e civili

La crittografia Ende-zu-Ende svolge un ruolo fondamentale anche nella protezione dei nostri diritti politici e civili. In una società in cui le persone si sentono libere di esprimere i propri punti di vista e le proprie opinioni senza timore di essere punite, può fiorire un solido mercato delle idee. Al contrario, in una società in cui la privacy non è rispettata, gli individui possono sentirsi costantemente sorvegliati e autocensurarsi per evitare ritorsioni. Questo può avere un effetto raggelante sulla libertà di parola e su altri diritti e può rendere difficile la piena partecipazione al processo democratico.

Fiducia e sicurezza nelle interazioni umane

La privacy è importante anche per la sicurezza e la fiducia nelle interazioni umane. Quando possiamo fidarci della riservatezza delle nostre informazioni personali, siamo più propensi a condividere pensieri, sentimenti ed esperienze con gli altri. Questo porta a relazioni più profonde e significative e a un senso di comunità più forte. D’altro canto, se sentiamo che le nostre informazioni personali vengono costantemente esposte, possiamo diventare più guardinghi e meno propensi a creare legami con gli altri.

Conclusione

In conclusione, la privacy è un diritto fondamentale che ci permette di mantenere l’autonomia e il controllo sulle nostre informazioni personali e sul nostro comportamento. È essenziale per proteggere i nostri diritti politici e civili, promuovere la fiducia e la sicurezza nelle interazioni umane e preservare la dignità umana. La crittografia Ende-zu-Ende è uno strumento potente che può contribuire a proteggere la nostra privacy nell’era digitale, garantendo che le nostre comunicazioni siano sicure e private.

Poiché ci affidiamo sempre più alla tecnologia per connetterci, comunicare e condurre affari, è importante adottare misure per proteggere la nostra privacy, tra cui l’utilizzo di servizi che offrono la crittografia Ende-zu-Ende.