Il disprezzo per la privacy va di pari passo con l'armamento tecnologico.

Sia il data mining che la misoginia devono essere fermati ieri.

Camera Wall, Toronto, Canada

Quando la tecnologia è progettata per esporre e screditare gli utenti, le conseguenze possono essere brutali. Ecco perché la privacy è fondamentale e le Big Tech devono essere all'altezza delle loro responsabilità.


Perché la privacy è importante

Questa storia ci ricorda perché la privacy è importante: Anche se non avete nulla da nascondere. Non siamo dati o metriche aziendali, siamo persone e quando le aziende non se ne rendono conto, le conseguenze sono reali.

Responsabilità delle Big Tech

A marzo, un’applicazione per la creazione di video “DeepFake FaceSwap” ha diffuso più di 230 annunci sui servizi di Meta, tra cui Facebook, Instagram e Messenger, secondo un’analisi della libreria di annunci di Meta. Alcuni degli annunci mostravano quello che sembrava l’inizio di video pornografici con il suono introduttivo della piattaforma porno Pornhub. Dopo pochi secondi, i volti delle donne venivano scambiati con quelli di attori famosi. Le didascalie di decine di questi annunci recitavano “Sostituisci il volto con chiunque” e “Divertiti con la tecnologia AI swap face”.

Dopo che NBC News ha chiesto un commento a Meta, tutti gli annunci dell’app sono stati rimossi dai servizi di Meta. Sebbene nei video non venisse mostrato alcun atto sessuale, la loro natura suggestiva illustra come l’applicazione possa essere potenzialmente utilizzata per generare contenuti sessuali falsi, non solo con donne famose, ma anche con una singola foto del volto di qualcuno caricata dall’utente dell’app. Gli stessi annunci sono stati notati anche su applicazioni gratuite di fotoritocco e di gioco scaricate dall’App Store di Apple, dove l’app è apparsa per la prima volta nel 2022 gratuitamente per i bambini dai 9 anni in su, ed era disponibile per il download gratuito anche su Google Play, dove era classificata come “Teen” per i “temi suggestivi”. Sia Apple che Google hanno dichiarato di aver poi rimosso l’app dai loro store dopo essere stati contattati da NBC News.

È compito dei giornalisti controllare gli app store per individuare le app abusive?

La stessa storia si è ripetuta con un’altra app nel dicembre 2021, dopo un’inchiesta della Reuters.

Decine di app deepfake sono ancora disponibili sugli app store di Google e Apple, la maggior parte delle quali viene utilizzata per generare porno non consensuale e “nudificare” le persone. Sebbene Google e Apple affermino di vietare le app che generano contenuti diffamatori, discriminatori o suscettibili di intimidire, umiliare o danneggiare qualcuno, questo è esattamente ciò che sta accadendo sotto il loro naso. Google ha aggiunto “immagini pornografiche sintetiche involontarie” all’elenco dei divieti, consentendo a chiunque di chiedere al motore di ricerca di bloccare i risultati che lo ritraggono falsamente “nudo o in una situazione sessualmente esplicita” - ma devono essere le vittime a risolvere il problema o Google deve fare un lavoro migliore per prevenire questo tipo di abuso in primo luogo?

Con il miglioramento e la diffusione della tecnologia deepfake, il mercato delle immagini sessuali non consensuali è cresciuto a dismisura. Alcuni siti web consentono agli utenti di vendere porno deepfake non consensuali da dietro un paywall. Uno studio del 2019 di DeepTrace ha rilevato che il 96% del materiale deepfake online è di natura pornografica, mentre un altro studio di Genevieve Oh ha rilevato che il numero di video pornografici deepfake è quasi raddoppiato ogni anno dal 2018.

Dal momento che la tecnologia per rilevare i deepfake esiste, anche se dietro i paywall, perché tutte le piattaforme che consentono agli utenti di caricare foto e video non li esaminano automaticamente e non etichettano automaticamente i deepfake come tali? Stanno già fallendo nell’identificare e rimuovere i contenuti abusivi, ma almeno questa parte dovrebbe essere abbastanza facile se si preoccupassero davvero.

Niente di nuovo

Recentemente, un articolo di Katie Jgln si è addentrato nella lunga storia della violenza di genere abilitata dalla tecnologia. Alcuni degli esempi più “vecchi”, come le telecamere nascoste nei bagni, vengono ancora utilizzati: solo pochi giorni fa, il Dipartimento di Giustizia degli Stati Uniti ha reso note le accuse contro un uomo che avrebbe piazzato una telecamera all’interno di un bagno a bordo di una nave da crociera Royal Caribbean e filmato 150 persone, tra cui 40 minori.

TechSafety ha una serie di guide utili e anche la Clinica per porre fine agli abusi tecnologici (CETA) dell’Università di Cornell dispone di risorse per aiutare le persone a proteggere la propria privacy e a stare al sicuro online; la loro ampia ricerca, in collaborazione con la NYU, mostra quanto siano sistemici gli abusi online e gli abusi abilitati dalla tecnologia, in particolare quando sono guidati da misoginia e transfobia.

Oltre alle loro pubblicazioni accademiche sottoposte a peer-review, i ricercatori hanno anche linkato alcuni articoli dei media più accessibili ai non addetti ai lavori, come ad esempio:

C’è un interessante accostamento tra la visione dell’organizzazione di mettere le voci dei sopravvissuti ad abusi, stalking e altri maltrattamenti al centro della progettazione tecnologica e il fatto che la loro ricerca sia sponsorizzata in parte da Google e Meta. È bello che questi giganti della tecnologia spendano parte dei loro profitti per far luce sui problemi che hanno contribuito a creare, ma sarebbe ancora meglio se tenessero effettivamente conto dei risultati delle ricerche che sponsorizzano e migliorassero i loro prodotti di conseguenza.

Altri esempi diffusi di tecnologia usata come arma sono:

  • Bullismo e molestie, comprese le minacce fisiche. Gli aggressori confondono i confini tra violenza online e offline, come descritto in un ampio rapporto globale dell’Economist Intelligence Unit, che misura anche l’impatto della violenza online contro le donne sull’economia e sulla società in generale. Molte sparatorie di massa sono state casi di violenza online che si sono tradotti in azioni nel mondo reale; l’ultimo esempio è stato l’attentatore del centro commerciale di Allen, in Texas, che aveva un profilo sui social media pieno di sproloqui contro persone di colore, asiatiche ed ebree e contro le donne in generale. I legami tra la violenza razziale e quella di genere sono stati documentati da tempo
  • Doxing - usato in particolare contro le persone trans, spesso accompagnato da tentativi di far licenziare l’obiettivo dal lavoro e di sfrattarlo da casa e di spingerlo all’autolesionismo.
  • AirTag diApple e altri dispositivi simili
  • Dispositivi domestici intelligenti, tra cui termostati, serrature e luci.

Come afferma Katie Jgln, spesso “la tecnologia moderna - e il mondo online che ha creato - è solo un’estensione del patriarcato. […]Essa chiude un occhio - e spesso addirittura consente - sugli stessi abusi, molestie, violenze, misoginia, sessismo, ipersessualizzazione indesiderata e oggettivazione che sperimentiamo nel mondo reale”. E come molti altri strumenti del patriarcato - per esempio la cultura della purezza o i ruoli di genere “tradizionali” - troppo spesso serve a rimetterci al nostro posto, a mettere a tacere o a screditare le nostre voci e, soprattutto, a proteggere uno status quo”.

I confini labili tra stalkerware e “normali app”

La Coalition Against Stalkerware sottolinea che “anche se il termine stalkerware è talvolta usato in modo colloquiale per riferirsi a qualsiasi app o programma che invade o è percepito come una violazione della privacy; crediamo che una definizione chiara e ristretta sia importante dato l’uso dello stalkerware in situazioni di abuso da parte del partner intimo”. Il fatto che ci siano seri motivi di confusione su questo argomento non è una buona prospettiva per aziende come Google, Meta e molte altre app di messaggistica, e-mail, social media e altri servizi che richiedono autorizzazioni sensibili sul telefono e raccolgono i dati dell’utente. Il governo riconosce inoltre “che le app legittime e altri tipi di tecnologia possono svolgere, e spesso svolgono, un ruolo in queste situazioni”. Nella stessa pagina, uno dei criteri raccomandati per individuare gli stalkerware è “le app che sono in grado di raccogliere ed esfiltrare i dati sensibili degli utenti del dispositivo (ad esempio, dati di localizzazione, contatti, registri di chiamate/testi, password, cronologia del browser e così via) senza il loro continuo consenso e/o conoscenza”. Quante delle applicazioni più scaricate al mondo non soddisfano questi criteri?

Non è necessario che sia così. Le applicazioni per i genitori non devono mai essere nascoste sul telefono; se lo sono, sono stalkerware, non applicazioni per i genitori. Non è necessario che i telefoni abbiano il GPS attivato di default. Le app non devono avere i permessi di localizzazione (e molti altri) per impostazione predefinita (o mai, in molti casi), invece gli utenti dovrebbero scegliere di abilitare questi permessi quando necessario solo per le app che ne hanno legittimamente bisogno. Tutti i telefoni dovrebbero revocare automaticamente i permessi alle app che non si utilizzano. AirTag, Tiles e altri prodotti simili dovrebbero sempre avere notifiche sonore ad alto volume quando sono attivati/utilizzati e le autorità di regolamentazione dovrebbero reprimere le versioni “modificate” vendute su ebay ecc.

Non possiamo aspettarci che le aziende tecnologiche sacrifichino i profitti che stanno realizzando nell’attuale sistema capitalistico di sorveglianza per compassione e rispetto dell’umanità di ogni persona. Dobbiamo aumentare costantemente la pressione su di loro affinché lo facciano. Fino ad allora, non siamo al sicuro. Dobbiamo continuare a lottare per il nostro diritto alla privacy.