Con la scusa della pedofilia, l’Ue straccia le sue norme a tutela della privacy e consente per tre anni il controllo di massa di tutti i messaggi, i commenti e le email. Un’intelligenza artificiale controllerà tutto e in casi sospetti girerà la segnalazione agli organi di vigilanza. Critiche tutte le ong e gli specialisti di lotta alla pedofilia
Una deroga ai principi generali. Di fatto uno “strappo” che nega quei principi generali. Regalando un’altra legge a chi sogna un controllo di massa più invasivo, ancora più invasivo.
Accade in Europa, che pure fino a ieri era considerata la parte più avanzata del mondo in materia di tutela della privacy. Invece martedì 6 luglio – con una votazione passata un po’ sotto silenzio – il parlamento di Bruxelles ha varato, a stragrande maggioranza, una controversa normativa che permetterà ai provider di setacciare ogni mail, ogni commento, ogni messaggio scritto. In deroga, appunto, all’avanzatissimo (non più?) Gdpr, il regolamento europeo per la protezione dei dati.
Il pretesto? Sempre lo stesso, sempre quello che anche al di là dell’Oceano giustifica le norme che violano la privacy: la lotta alla pedofilia.
La “deroga” – cioè la validità di questa legge – durerà tre anni. Nel senso che i 537 eurodeputati che hanno votato sì (appena 133, invece, quelli contro: la sinistra, i verdi e pochissimi obiettori fra le fila dei socialdemocratici) sanno benissimo che la norma – proprio perché in contrasto col Gdpr – quasi sicuramente non passerà l’esame di un tribunale, sanno benissimo che i ricorsi avranno molte possibilità di essere accolti. Anzi, il deputato tedesco dei pirati (nel gruppo dei verdi) Patrick Breyer, ha già lanciato una campagna in rete per presentare dieci, cento, mille esposti all’Alta Corte europea.
Quei tre anni di sospensione, la deroga temporanea delle misure a tutela della privacy dovrebbero servire, quindi, nelle intenzioni dei promotori ad evitare la bocciatura. Come se si trattasse di una misura straordinaria, eccezionale e quindi non sanzionabile.
Ma non ci credono tanto neanche loro. Al punto che Sophie in ‘t Veld, eurodeputata liberale olandese – nome che dovrebbe essere conosciuto anche in Italia, visto che dieci anni fa lei, moderata e conservatrice, divenne quasi un’icona solo perché aveva denunciato il linguaggio antifemminile di Berlusconi -; Sophie in ‘t Veld, si diceva, votando a favore ha aggiunto: “Signor Presidente, diciamoci la verità: sia io che lei sappiamo bene che le normative europee ci impedirebbero di approvare questa legge”.
Sophie in ‘t Veld e la stragrande maggioranza degli eurodeputati, invece, l’hanno fatta passare. Con una fretta che davvero non ha precedenti nelle vicende legislative del vecchio continente, noto per iter che in genere durano anni e anni.
Stavolta, invece, la Commissione ha presentato la sua proposta a settembre. Davanti al coro di no della società civile, non si sono fermati. E sono cominciate le pressioni, le forti pressioni sul Parlamento per approvarla rapidamente. Pressioni – racconta il solitamente bene informato politico.eu – che sarebbero arrivate addirittura dall’America, probabilmente per dare un po’ di dignità politica alle loro norme, molto simili.
Pressioni, anche qui, ammesse tranquillamente dalla relatrice, la socialdemocratica Birgit Sippel: “Sì, ne abbiamo ricevute molte. Per fare presto”. Unica concessione fatta dai promotori, l’unica modifica al testo iniziale, è che dal filtraggio saranno esentati i messaggi audio. Tutto qui.
Così in attesa di un giudice a Strasburgo, la norma entrerà in vigore. E così i provider potranno scansionare, visionare e controllare tutti i messaggi, tutte le immagini sui siti, sui social, addirittura nelle email alla ricerca di testi e foto “sospette”. Il tutto affidato all’intelligenza artificiale: se l’algoritmo “leggerà” un contenuto come pericoloso, trasmetterà la segnalazione, senza verifica umana, a un centro che poi la girerà alle polizie competenti. Senza che gli indagati siano avvisati di questa strana e improbabile inchiesta virtuale.
Magari non è molto pertinente ma forse vale la pena ricordare che le denunce alla polizia degli utenti verso altri utenti sospettati di pedofilia – denunce che probabilmente servono ad istruire le intelligenze artificiali – nel 95 per cento dei casi si sono rivelate inaffidabili.
Non è ancora tutto. Perché ci sarà anche un follow-up, un seguito alla votazione di martedì scorso.
Di fronte alle proteste di tutte le associazioni per i diritti digitali – ma proprio tutte-tutte, a cominciare dall’Edri, la istituzionalissima European Digital Rights – i promotori hanno sostenuto che fra poco un pool di esperti scriverà un documento per indicare nel dettaglio gli strumenti tecnici per realizzare questo screening di massa “in equilibrio con la tutela dei diritti”.
Ossimoro a parte, il seguito della legge dovrebbe preoccupare ancora di più. Perché stando al dibattito che l’ha accompagnata, l’Europa vorrebbe obbligare anche i social che offrono servizi di messaggi crittografati – WhatsApp e Signal per capire – ad adattarsi ai controlli.
Quindi, di fatto, introducendo una backdoor, una porticina che renderebbe violabili gli scambi “end to end”. E non esisterebbe più la crittografia.
Qualcuno, nel brevissimo dibattito, ha ricordato, ovviamente, che tutto ciò non ha nulla a che vedere con la lotta alla pedofilia. Visto che chi prova ad abusare dei minorenni non si propone certo su FaceBook o sui social tradizionali.
Magari andrebbe potenziata la capacità di infiltrarsi degli agenti nei gruppi di pedofili, magari andrebbe aumentato il numero di persone che si occupano di queste inchieste, visto che – sempre per fare il caso della Germania -, mancando personale, sono ancora da “visionare” centinaia di hard disk sequestrati agli arrestati.
Forse andrebbe accresciuto il coordinamento fra gli investigatori. Di più, come ha detto uno psicologo a Bruxelles: “Tutto ciò sarà dannoso soprattutto per le vittime degli abusi. Chi è colpito da questa violenza ha un bisogno sopra agli altri: comunicare in modo sicuro e confidenziale con terapisti, con avvocati, con personale specializzato. Ha bisogno soprattutto di stanze protette. La possibilità che un’intelligenza artificiale e poi altri possano leggere quel che scrivono potrebbe impedire alle vittime la ricerca di aiuto e sostegno”.
Sembrano, sembravano discorsi ragionevoli. Invece è passata la «deroga». Una «sorveglianza di massa» che ha altri obiettivi, per usare ancora le parole di Patrick Breyer.
Stefano Bocconetti
da il manifesto