Guerre di Rete - Rivoluzione AI, restaurazione sorveglianza
Videocamere e riconoscimento facciale. AI Act e ChatGPT.
(Immagine generata da DALL-E: “Una entità AI che ti guarda”)
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.154 - 12 marzo 2023
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 11mila iscritti - ma molti più lettori, essendo pubblicata anche online - e oltre 500 sostenitori) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione. La prima campagna per raccogliere fondi è andata molto bene, e qua ci sono i dettagli (qua la lista degli oltre 500 donatori).
In più, a marzo il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito.
In questo numero:
- Videocamere Ring e polizia
- Riconoscimento facciale dallo stadio all’aeroporto
- AI Act e ChatGPT
- La macchine del sospetto
- Cambio all’Agenzia per la cybersicurezza nazionale
- E altro
Rivoluzione AI, restaurazione sorveglianza
Mentre imprenditori tech e Ceo ci illustrano le possibilità (a volte ancora presunte) della rivoluzione AI - su cui ormai si stanno riversando copiosi investimenti e sforzi di marketing - ogni tanto torna a galla, come un ricordo spiacevole vanamente represso, la possibilità (reale e concreta) di usare gli ultimi sviluppi tecnologici a fini di sorveglianza.
Le tue videocamere a disposizione della polizia
A un uomo dell’Ohio, Michael Larkin, la polizia ha chiesto i filmati di tutte le sue videocamere Ring attorno a casa e negozio per indagare su un vicino sospettato per questioni di droga. Ma la richiesta non si è limitata solo alle videocamere rivolte all’esterno, bensì anche a quelle che aveva dentro casa. Sebbene si sia rifiutato (dopo aver prima cooperato per quella esterna), Ring lo ha poi informato di aver assecondato la richiesta su mandato della polizia.
“Questa volta, Larkin non ha potuto scegliere da quali videocamere inviare i video. Il mandato includeva tutte e cinque le sue videocamere esterne e aggiungeva anche una sesta che si trovava all'interno della casa, oltre a tutti i video delle videocamere associate al suo account, tra cui quelle del suo negozio. Il mandato comprendeva i filmati registrati da quelle che aveva in soggiorno e in camera da letto, oltre alle 13 cam installate nel suo negozio e collegate al suo account”, scrive Politico.
La silenziosa espansione del riconoscimento facciale
Intanto, il riconoscimento facciale è usato sempre di più in conferenze, aeroporti e stadi. Negli Usa Delta Air Lines, United Airlines e JetBlue Airways hanno installato sistemi di imbarco a scansione facciale senza biglietto in diversi aeroporti.
Sebbene sia quasi sempre possibile rinunciare al riconoscimento facciale, a lungo andare farlo potrebbe avere un costo, ha dichiarato Jennifer King, ricercatrice di privacy e politica dei dati presso l'Institute for Human-Centered Artificial Intelligence di Stanford al WSJ.
Politiche Usa e rischio deepfake
In quanto agli sviluppi dell’AI, le potenzialità di deepfake sempre più credibili stanno ponendo interrogativi a ricercatori ma anche a commentatori politici e media. Vanity Fair si chiede se, mentre si avvicina il ciclo delle presidenziali americane del 2024, la minaccia di un uso politico di deepfake per generare disinformazione non sia diventata più insidiosa con i miglioramenti sia audio che video.
C’è stato di recente un caso interessante. Nelle elezioni per il prossimo sindaco di Chicago (di cui c’è stato un primo turno a fine febbraio, in attesa del secondo ad aprile) uno dei due contendenti, il democratico Paul Vallas, è stato vittima di un deepfake che lo riguardava. Da un account Twitter è stato infatti diffuso un suo finto audio, con la sua voce generata da tecnologie di AI, dove diceva cosa mai dette sul tema della pubblica sicurezza (l’account è stato poi cancellato, non prima di aver raccolto migliaia di visualizzazioni, ma c’è traccia qua dell’accaduto).
PolitiFact, un'organizzazione di fact-checking, ha recentemente smascherato un video alterato della senatrice Elizabeth Warren che utilizzava un'intervista rilasciata a MSNBC, in cui sembrava che la Warren dicesse che ai repubblicani non dovrebbe essere permesso di votare.
La preoccupazione sul fronte interno non sembra però far rifiutare questi strumenti qualora si tratti di usarli in operazioni di intelligence o militari all’esterno. Il comando per le operazioni speciali degli Stati Uniti (SOCOM), responsabile di alcune delle attività militari più segrete del Paese, si starebbe preparando a condurre campagne di propaganda online utilizzando anche video deepfake, secondo alcuni documenti federali di gara per ottenere un certo tipo di servizi, esaminati da The Intercept.
Audioromanzo criminale
Oltre alla politica e ai militari, però ci sono anche gli abusi prettamente criminali. Il Washington Post riferisce la storia di una coppia di anziani, Ruth e Greg Card, vittima di un tentativo di impersonificazione via telefono. La donna ha infatti ricevuto una telefonata da una persona che sembrava essere suo nipote, che le ha detto di essere in prigione, senza portafoglio né cellulare, e di aver bisogno di soldi in fretta. A quel punto la donna e suo marito si sono precipitati in banca per prendere i soldi, e solo dopo essersi recati in un secondo istituto il direttore li ha avvertiti che avevano già visto un caso simile, rivelatosi poi una truffa.
AI, rischio disinformazione e come regolarla
A questo quadro negli ultimi mesi si sono aggiunte anche le possibilità derivanti dai testi di AI generative (alla ChatGPT), tanto che alcuni ricercatori si chiedono se “dobbiamo aspettarci un’ondata di disinformazione” derivante dai modelli linguistici di grandi dimensioni (LLM). Per ora, scrivono due di loro, non ci sono molte evidenze al riguardo. Ma sicuramente dobbiamo chiedere alle piattaforme molta più trasparenza. “Chi gestisce questi modelli (LLM) dovrebbe pubblicare degli audit su come gli strumenti sono stati utilizzati e abusati. Le piattaforme di social media dovrebbero studiare e riportare la prevalenza della disinformazione (o cattiva informazione, misinformation) generata dagli LLM”.
Che poi sono le domande che aspettano al varco i legislatori europei alle prese con la scrittura dell’AI Act, il progetto di regolamento sull'intelligenza artificiale (presentato nel 2021), il cui obiettivo è “assicurare che i sistemi di intelligenza artificiale (IA) immessi sul mercato dell'UE e utilizzati nell'Unione siano sicuri e rispettino la normativa vigente in materia di diritti fondamentali e i valori dell'Unione”.
A dicembre il Consiglio dell’Ue ha adottato la sua posizione comune ("orientamento generale"). Sappiamo che il testo prevede delle pratiche di AI vietate, ad esempio il divieto di utilizzare l’intelligenza artificiale per forme di punteggio sociale o per sfruttare le vulnerabilità di un gruppo specifico di persone (incluse persone vulnerabili a causa della loro situazione sociale o economica). E che deve definire anche i sistemi ad alto rischio, così come gli obblighi di trasparenza per quei sistemi che : i) interagiscono con gli esseri umani; ii) sono utilizzati per rilevare emozioni o stabilire un'associazione con categorie (sociali) sulla base di dati biometrici; iii) generano o manipolano contenuti ("deep fake"). “Quando interagiscono con un sistema di IA o le loro emozioni o caratteristiche vengono riconosciute attraverso mezzi automatizzati, le persone devono esserne informate”, recita la proposta di regolamento.
ChatGPT sta complicando l’AI ACT in Europa?
Ora Politico scrive che l'esplosione del fenomeno ChatGPT sta costringendo i legislatori europei a rimettere mano ad alcuni assunti del documento, e arriva a prefigurare anche uno scontro o uno stallo delle negoziazioni previste nei prossimi mesi. In pratica, in questa interpretazione, ChatGPT sarebbe la sabbia nell’ingranaggio Ue per legiferare sull’intelligenza artificiale.
A febbraio, scrive Politico, i due principali correlatori della legge sull'IA, (tra cui l’italiano Brando Benifei) hanno proposto “che i sistemi di AI che generano testi complessi senza la supervisione umana rientrino nella lista "ad alto rischio", nel tentativo di impedire a ChatGPT di sfornare disinformazione su larga scala”.
L'idea sarebbe però stata accolta con scetticismo dai gruppi politici di destra del Parlamento europeo e anche da alcuni membri del gruppo liberale. Ma i due legislatori “stanno anche cercando di imporre restrizioni più severe ai grandi fornitori di servizi, mantenendo un regime più leggero per gli utenti quotidiani che giocano con la tecnologia”. D’altro canto, le aziende tech interessate ovviamente premono per escludere tecnologie come ChatGPT dagli obblighi imposti ai sistemi di AI considerati ad alto rischio.
Vedi anche questa intervista a Benifei di Wired Italia di qualche settimana fa.
Guerra dei microchip, si aggiunge l’Olanda
Intanto il governo olandese ha annunciato di voler implementare delle restrizioni all'esportazione di apparecchiature per la produzione di semiconduttori "avanzati", in seguito alle pressioni politiche degli Stati Uniti. Nel paese ha sede ASML, uno dei principali produttori mondiali di macchine per la produzione di chip. “La decisione arriva dopo le pressioni della Casa Bianca, che nel 2022 ha imposto controlli sulle esportazioni che limitano l'accesso di Pechino a determinati semiconduttori. All'epoca, i funzionari americani si erano resi conto che se altri Paesi non avessero imposto restrizioni simili, i controlli sulle esportazioni avrebbero perso efficacia nel tempo”, scrive CNBC. Secondo alcuni commentatori si tratterebbe di un punto messo a segno dall’amministrazione Biden, che avrebbe rafforzato la sua sfera d’influenza in Europa con la guerra in Ucraina.
AGENZIA PER LA CYBERSICUREZZA NAZIONALE
Fare i conti col cambio al vertice
Dopo le dimissioni dell’ex direttore dell’Agenzia per la cybersicurezza nazionale, Roberto Baldoni, al suo posto è stato subito nominato dal Consiglio dei ministri Bruno Frattasi, prefetto di Roma (qui la sua biografia). Baldoni, professore alla Sapienza di Sistemi distribuiti e direttore del Centro di Ricerca Sapienza in Cyber intelligence, aveva guidato l’agenzia dalla sua nascita - e ancor prima, da fine 2017, era stato nominato vicedirettore generale del Dis (Dipartimento delle informazioni per la sicurezza, l'organo che sovrintende i servizi segreti italiani) con delega alla cybersecurity, sotto il governo Gentiloni. Poi ha attraversato i governi Conte I, Conte II e Draghi. Nel frattempo nasceva nel 2021 l’Agenzia per la cybersicurezza nazionale di cui Baldoni diventava direttore, proprio sotto il governo Draghi (con il sottosegretario con delega all’intelligence Franco Gabrielli).
Agenzia che attualmente ha 150 persone, ma deve arrivare a circa 650 unità nel 2027. E che “deve spendere un miliardo di fondi, altro elemento che di per sé può suscitare interessi politici e spinta alla discontinuità”, scrive Cybersecurity360.
La sottolineatura sui soldi in arrivo la fa anche Wired. “Con 623 milioni in dote dal Piano nazionale di ripresa e resilienza (Pnrr), una sequenza di appalti da dover assegnare e un ruolo chiave nell'architettura dati e cloud nazionale, quella di Baldoni è una poltrona che fa gola al governo guidato dalla presidente Giorgia Meloni”.
TIKTOK
Dati europei in data center europei?
Due settimane dopo che le istituzioni dell'Unione europea hanno introdotto il divieto di utilizzo di TikTok sui dispositivi di lavoro dei dipendenti per preoccupazioni legate alla sicurezza dei dati (come raccontato nella scorsa newsletter), la piattaforma ha annunciato un piano per salvaguardare i dati degli europei dal rischio che possano essere usati dal governo cinese.
Il piano prevede di mantenere (buona parte dei) dati degli utenti europei su server in Europa e di consentire a una società di sicurezza europea di fare delle verifiche sui controlli di cybersicurezza implementati e sul livello di protezione dei dati, scrive Politico.
APPROFONDIMENTI
ALGORITHM ACCOUNTABILITY
L’inchiesta che vuole smontare le “Macchine del sospetto”
Ogni anno Rotterdam svolge indagini su alcuni dei 30.000 beneficiari del welfare della città. Dal 2017 la città utilizza un modello di machine learning (apprendimento automatico) per segnalare sospetti casi di frode. Il sistema di previsione prende in considerazione 315 dati, tra cui l'età, il sesso, le competenze linguistiche, il quartiere, lo stato civile e una serie di valutazioni soggettive degli assistenti sociali, per generare un punteggio di rischio. Tra il 2017 e il 2021 i funzionari hanno utilizzato i punteggi di rischio generati dal modello per classificare tutti i beneficiari di prestazioni sociali della città in una lista, sottoponendo a indagine i più “a rischio”. Il sistema si basa sull'ampio margine di manovra legale concesso dalle autorità olandesi in nome della lotta alle frodi assistenziali, compresa la possibilità di elaborare e profilare i beneficiari dell'assistenza sociale in base a caratteristiche sensibili che sarebbero altrimenti protette. È emerso chiaramente che il sistema discrimina in base all'etnia, all'età, al sesso e alla genitorialità. Sono emerse anche prove di difetti fondamentali che rendevano il sistema impreciso e ingiusto.
L’inchiesta di Lighthouse Reports. Qui un Twitter thread dove si analizzano i punti principali. Metodologia qui.
PODCAST
La filosofa Mariarosaria Taddeo ha fatto un podcast sulle Guerre Digitali con attenzione sugli aspetti etici e di sicurezza nazionale.
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. O diventa un suo sostenitore facendo una donazione. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> SOCIAL E PODCAST DI GUERRE DI RETE
Guerre di Rete ora ha anche un sito di notizie, una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)