Guerre di Rete - La Polonia, gli spyware, l'Europa
Le startup europee di AI. Gestire i rischi dell’AI generativa.
Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.186 - 11 maggio 2024
(Comunicazioni di servizio)
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 13mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.
In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito
Qui una lista con link dei nostri progetti per avere un colpo d’occhio di quello che facciamo.
→ Nel 2024 si è aggiunta Digital Conflicts, una newsletter bimensile in inglese, che per ora sarà principalmente una trasposizione della newsletter italiana, con alcune aggiunte e modifiche pensate per un pubblico internazionale (e con particolare attenzione all’Europa).
Qui leggete il primo numero.
Qui per iscriversi..
Qui invece potete scaricare gratis il primo ebook di Guerre di Rete che si intitola Generazione AI ed è dedicato agli ultimi sviluppi dell’intelligenza artificiale (uscito a settembre).
In questo numero:
- La Polonia continua a indagare sull’abuso di Pegasus
- OpenAI rilascia un rilevatore di immagini AI (prodotte da DALL-E)
- Gestire i rischi dell’AI generativa
- Intelligenza artificiale, quali sono le startup europee
- E altro
EUROPA/SPYWARE
La Polonia continua a indagare sull’abuso di Pegasus
Avevano denunciato gli abusi dei superiori nella polizia militare e sono state messe sotto sorveglianza. In Polonia i procuratori che stanno indagando sull'uso dello spyware Pegasus nel Paese hanno chiamato a testimoniare le prime 31 persone che si ritiene siano state sorvegliate con questo software spia.
Il primo gruppo comprende due ex soldatesse della Polizia militare, Joanna Jałocha (sottotenente) e Karolina Marchlewska (caporale), scrive la testata polacca Onet. Entrambe sono state convocate come testimoni presso l'ufficio del pubblico ministero, in un procedimento per abuso di potere da parte di funzionari pubblici nell'utilizzo di Pegasus.
“Le nostre vite e la nostra salute sono state distrutte. Per sette anni, Joanna e io siamo state prese di mira, molestate, calunniate, private della possibilità di servire nell'esercito, che era la nostra passione. E oggi scopriamo che eravamo sotto sorveglianza tramite il software Pegasus. Devono spiegare perché, e i responsabili devono essere puniti", ha affermato Karolina Marchlewska.
Il nuovo governo del Primo Ministro Donald Tusk, insediatosi a dicembre, si è impegnato ad andare a fondo sui presunti abusi di Pegasus. Per cui a febbraio è stata istituita una speciale commissione parlamentare per indagare sull'uso del software spia. Il mese successivo, la commissione ha chiamato come primo testimone il presidente del PiS Jarosław Kaczyński, partito al governo durante i presunti abusi.
Invece tra le prime 31 presunte vittime sorvegliate da Pegasus c'è anche Krzysztof Brejza, un politico del partito Piattaforma Civica (PO) di Tusk che era stato preso di mira mentre era il responsabile della campagna elettorale di PO nel 2019, quando era la principale opposizione all'allora governo PiS, scrive Notes from Poland.
Sono quasi 600 le persone in Polonia che sarebbero state sottoposte a sorveglianza con Pegasus tra il 2017 e il 2022 sotto il precedente partito di governo (PiS), ha affermato il ministro della Giustizia dell'attuale governo. Mentre il ministro responsabile dei servizi di sicurezza ha aggiunto che, sebbene siano stati sorvegliati molti obiettivi legittimi, ci sono stati “troppi casi” in cui Pegasus è stato utilizzato contro figure semplicemente “scomode” per il precedente governo.
Secondo il quotidiano polacco Gazeta Wyborcza, il software spia è stato acquisito dall'Ufficio centrale anticorruzione della Polonia (CBA) nell'autunno del 2017.
Il CBA - secondo lo stesso quotidiano e la tv polacca TVP - “avrebbe acquistato il software spia per 33,4 milioni di zloty (7,84 milioni di euro) dalla società polacca Matic, che a sua volta lo avrebbe comprato dal gruppo israeliano NSO per 25 milioni di zloty (5,86 milioni di euro). Matic aveva una licenza del Ministero dell'Interno per i servizi informatici e il commercio di armi”.
Secondo un’inchiesta di AP del dicembre 2021 (che riprende le ricerche di Citizen Lab), poco prima delle elezioni del Parlamento europeo e del Parlamento polacco del 2019, il CBA avrebbe utilizzato Pegasus per spiare 33 volte il telefono del senatore Krzysztof Brejza, che all'epoca ricopriva un ruolo preminente nello staff elettorale dell’opposizione.
Le elezioni europee si avvicinano e si capisce perché il tema dell’uso di spyware in Europa (cui Guerre di Rete ha dedicato vari articoli e newsletter) stia tornando particolarmente caldo.
Le restrizioni Usa su alcune persone coinvolte nella vendita/sviluppo di spyware commerciali
Nel frattempo il Dipartimento di Stato Usa, “nell'ambito degli sforzi degli Stati Uniti per contrastare la continua proliferazione e l'uso improprio di spyware commerciali”, imporrà restrizioni sui visti a 13 persone che sono state coinvolte nello sviluppo e nella vendita di spyware commerciali o che sono parenti stretti delle persone coinvolte. “Queste persone hanno facilitato o tratto benefici finanziari dall'uso improprio di questa tecnologia, che ha preso di mira giornalisti, accademici, difensori dei diritti umani, dissidenti e altri critici e personale del governo statunitense”.
Le restrizioni sui visti fanno parte di una più ampia iniziativa del governo degli Stati Uniti per contrastare l’abuso di spyware commerciali e di altri strumenti di sorveglianza.
Negli stessi giorni infatti si veniva a sapere che aziende tech americane come Salesforce, Microsoft, Zoom, Dell e Intel avevano recentemente interrotto i rapporti commerciali con Sandvine, società canadese di network intelligence, dopo che a febbraio il Dipartimento del Commercio degli Stati Uniti aveva aggiunto l’azienda alla sua Entity List (una sorta di lista nera che comporta varie restrizioni), penalizzandola per aver fornito tecnologia di “monitoraggio e censura web di massa” al governo egiziano. “La designazione ha di fatto vietato a Sandvine di ottenere tecnologia statunitense”, scrive Bloomberg.
CONTENUTI GENAI
OpenAI rilascia un rilevatore di immagini AI (prodotte da DALL-E)
OpenAI ha rilasciato (finora solo per pochi) uno strumento per rilevare i contenuti creati dal suo generatore di immagini, DALL-E. Il rilevatore (detector) sarà inizialmente disponibile solo per un piccolo gruppo di ricercatori sulla disinformazione, in modo che possano testarlo. Per OpenAI è in grado di identificare correttamente il 98,8% delle immagini create da DALL-E 3 (ma non funziona con le immagini prodotte da altri generatori come Midjourney e Stability).
NYT
GENAI RISKS
Gestire i rischi dell’AI generativa
Nel mentre il NIST (National Institute of Standards and Technology, l’agenzia Usa che produce standard per vari sistemi) ha pubblicato un documento, intitolato Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence - Profile
È un testo provvisorio che può ancora ricevere commenti e definisce un gruppo di rischi che sono nuovi o esacerbati dall'uso dell'AI generativa. Dà anche una definizione di quest'ultima, che chiama GAI: "la classe di modelli di AI che emulano la struttura e le caratteristiche dei dati in ingresso per generare contenuti sintetici derivati. Questi possono includere immagini, video, audio, testi e altri contenuti digitali”.
Ma soprattutto, come si diceva sopra, elenca e definisce i rischi.
“È importante notare - sottolinea il documento - che alcuni rischi delle AI generative non sono noti e sono quindi difficili da valutare o da inquadrare correttamente, data l'incertezza sulla portata, la complessità e le capacità potenziali delle stesse. Altri rischi possono essere noti ma difficili da stimare, data l'ampia gamma di soggetti interessati, di usi, input e output delle GAI (AI generative). Le difficoltà nella stima dei rischi sono aggravate dalla mancanza di visibilità sui dati di training delle GAI e dallo stato generalmente immaturo della scienza della misurazione e della sicurezza dell'AI”.
Ad ogni modo i rischi analizzati sono:
Informazioni CBRN
Abbassamento delle barriere di accesso a informazioni pericolose su armi chimiche, biologiche, radiologiche o nucleari (CBRN).
Confabulazione
La produzione di contenuti errati o falsi benché espressi in modo sicuro (noti colloquialmente come "allucinazioni" o "fabbricazioni"). Per il documento NIST sono il risultato del preaddestramento dell’AI generativa che implica la previsione della parola successiva.
Questo fenomeno viene anche definito anche "allucinazione" ma, scrivono gli autori, “alcuni hanno osservato che queste caratterizzazioni implicano consapevolezza e inganno intenzionale, e quindi antropomorfizzano in modo inappropriato la GAI”. Inoltre se è vero che la ricerca indica che i contenuti confabulati sono abbondanti, è comunque difficile stimare la portata e l'impatto degli stessi downstream (nello sviluppo di successivi processi e applicazioni).
Raccomandazioni pericolose o violente
I sistemi di AI generativa possono produrre risultati o raccomandazioni che incitano, radicalizzano, minacciano o esaltano la violenza. Tra l'altro, nota il documento, un numero non trascurabile di conversazioni degli utenti con i chatbot rivelerebbe problemi di salute mentale - che i sistemi attuali non sono attrezzati a gestire in modo appropriato, né sono in grado di indirizzare questi utenti per ricevere l'aiuto di cui potrebbero aver bisogno.
Privacy dei dati
I sistemi di AI generativa comportano numerosi rischi per la privacy. I modelli possono far trapelare, generare o dedurre correttamente informazioni sensibili sulle persone, come quelle biometriche, sanitarie, di localizzazione o altre informazioni di identificazione personale (PII). Ad esempio, durante gli attacchi avversari, i Modelli linguistici di grandi dimensioni (LLM) hanno rivelato informazioni private o sensibili (di dominio pubblico) che erano incluse nei loro dati di addestramento. Un problema che è stato definito di "memorizzazione dei dati".
Il problema è anche che, scrive il documento, “la maggior parte degli sviluppatori di modelli non rivela le fonti di dati specifiche (se esistono) su cui i modelli sono stati addestrati. A meno che i dati di addestramento non siano disponibili per l'ispezione, non c'è modo per i consumatori di sapere che tipo di PII o di altro materiale sensibile possa essere stato usato per addestrare i modelli di AI. Queste pratiche comportano anche rischi per la conformità alle attuali normative sulla privacy”.
Non solo: questi modelli possono essere in grado di dedurre correttamente le informazioni personali che non erano presenti nei dati di addestramento e che non sono state rivelate dall'utente, mettendo insieme dati provenienti da una serie di fonti diverse.
Ambiente
Scrive il documento: “Secondo alcune stime, l'addestramento di un singolo modello transformer di AI generativa può emettere una quantità di CO2 pari a 300 voli di andata e ritorno tra San Francisco e New York. In uno studio che ha confrontato il consumo di energia e le emissioni di CO2 per l'inferenza nei modelli linguistici di grandi dimensioni, i compiti generativi (ad esempio, la sintesi del testo) sono risultati a più alto impatto dal punto di vista energetico e delle emissioni di CO2 rispetto ai compiti discriminativi o non generativi”. Tradotto: l’AI generativa sarebbe più energivora di altri tipi di AI.
Configurazione umano-AI
Gli esseri umani apportano le loro competenze specifiche in questi scenari, ma non necessariamente hanno una conoscenza dettagliata dei sistemi di AI.
Per cui l'integrazione umano-AI può comportare diversi rischi. Gli esperti umani possono essere prevenuti rispetto ai risultati generati dall'AI, ad esempio, per quanto riguarda la loro percezione della qualità dei contenuti generati. Ma può avvenire anche l’opposto: altri esperti umani possono essere condizionati e fare eccessivo affidamento sui sistemi di AI. Un fenomeno noto come "pregiudizio dell'automazione" (automation bias), espressione che si riferisce all'eccessiva deferenza nei confronti di simili sistemi.
Integrità dell’informazione
I sistemi di AI generativa facilitano l'accesso alla produzione di contenuti falsi, imprecisi o fuorvianti su larga scala che possono essere creati o diffusi involontariamente (misinformazione) o volutamente (disinformazione). Tutto ciò può “erodere la fiducia del pubblico in prove e informazioni valide” (su questo rimando al mio articolo su Guerre di Rete).
Proprietà intellettuale
I sistemi di AI generativa possono violare contenuti protetti da copyright o concessi in licenza. Questi tipi di proprietà intellettuale fanno spesso parte dei dati di addestramento dei modelli di base, su cui si fondano molte applicazioni a valle. I risultati dei modelli potrebbero violare materiale protetto da copyright a causa della memorizzazione dei dati di addestramento o della generazione di contenuti simili ma non strettamente copiati da opere protette da copyright, scrive il documento.
Contenuti degradanti e/o violenti (abusive)
Le AI generative possono facilitare la produzione e l'accesso a immagini intime non consensuali di adulti e minori (deepfake ecc)
Tossicità, pregiudizi e omogeneizzazione
In questo contesto, la tossicità si riferisce ai danni legati alla rappresentazione che l'AI può generare (come esempio indica la sottorappresentazione di donne nella creazione di immagini di medici, avvocati e altri professionisti). I pregiudizi nei modelli di AI o nei dati di addestramento possono dunque danneggiare la rappresentazione di un gruppo, ma anche preservare o esacerbare i pregiudizi, ad esempio quelli razziali. Un altro rischio è quello dell'omogeneizzazione dei risultati. In tutto ciò i modelli di base possono creare dei "colli di bottiglia", ovvero le loro eventuali discriminazioni si riproducono in molte applicazioni a valle.
Catena del valore e integrazione di componenti
Questi sistemi spesso coinvolgono molte componenti di terze parti, che potrebbero essere ottenute in modo improprio o non adeguatamente vagliate, con conseguente diminuzione della accountability per gli utenti a valle.
Dopo aver introdotto e descritto questi rischi, il documento fornisce una serie di azioni per governare, mappare, e gestire gli stessi. Da notare che tra le misure auspicate c’è anche la ricerca di un feedback pubblico strutturato per valutare se i sistemi di AI generativa funzionino come previsto. In questo feedback sono inclusi metodi di coinvolgimento partecipativo, per sollecitare risposte dai gruppi della società civile, delle comunità interessate e degli utenti.
Qualche settimana fa è uscita anche la guida dell’ANSSI (l’agenzia di cybersicurezza francese) per la sicurezza delle architetture di AI generativa (in francese).
AI ED EUROPA
Intelligenza artificiale, quali sono le startup europee
Quella dell’Europa sull’AI è una rincorsa difficile. Chi sono i soggetti principali, i progetti della Commissione EU e gli altri incentivi a disposizione.
“I numeri, d’altra parte, sono chiarissimi. Nel decennio 2013-2022, negli Stati Uniti sono state fondate 4.643 startup attive nel campo dell’intelligenza artificiale. In Cina si arriva a 1.337, mentre Regno Unito, Francia e Germania assieme arrivano appena sopra i mille. Le cifre relative agli investimenti sono ancora più evidenti: sempre nel decennio scorso, gli Stati Uniti hanno raccolto 249 miliardi di dollari in investimenti, la Cina 95 miliardi, mentre le tre più importanti nazioni europee arrivano soltanto a 32 miliardi di dollari (lasciando alle altre soltanto le briciole).
Altre cifre poco lusinghiere sono riportate dal sito specializzato Sifted, secondo il quale tre sole università californiane – Stanford, USC e University of California – hanno prodotto un numero di fondatori di startup di intelligenza artificiale (175) praticamente pari a quello delle principali dieci università europee (177).
Insomma, è evidente come l’Europa non sia al centro del boom dell’intelligenza artificiale, soprattutto se si considera che – stando ai dati di Crunchbase – la sola OpenAI ha raccolto finanziamenti totali di gran lunga superiori a quelli di tutte le startup europee messe insieme.
Eppure, se usciamo dall’impossibile confronto con gli Stati Uniti e diamo un’occhiata all’Europa nel dettaglio, si osserva comunque un panorama vivace e in crescita. Nel 2023, le startup europee attive nel campo dell’intelligenza artificiale generativa hanno raccolto 1,5 miliardi di dollari in finanziamenti, quasi tre volte la cifra raggiunta l’anno precedente”.
Leggi l’articolo a firma di Andrea Daniele Signorelli sul sito Guerre di Rete.
IN BREVE
AI ITALIA
Cosa ha deciso il governo sull'intelligenza artificiale
Nel disegno di legge sull'AI c'è l'impegno a spendere fino a un miliardo per progetti di startup. Poi i reati per deepfake, i piani di formazione e la ricerca sanitaria. Sparisce la fondazione.
Wired Italia
AI
Cybercrime, l'allarme dell'Interpol: "Con l'intelligenza artificiale sarà a portata di tutti”
La via libera
AI
Un sondaggio della Society of Authors sostiene che un terzo dei traduttori e un quarto degli illustratori starebbero perdendo il lavoro a causa dell'AI - SoA
AI
Profilo di ElevenLabs, che ha rivoluzionato la clonazione di voci con l’AI. Non senza incidenti e problemi. - The Atlantic
AI E STAMPA ITALIANA
È stato pubblicato un Press Report 2024 - Speciale Intelligenza artificiale, ideato dal Gruppo cronisti lombardi e dal Sindacato cronisti romani e patrocinato dalla Fnsi. Incluso tra gli altri c’è anche un mio contributo (un estratto di un articolo pubblicato su Guerre di rete). Si scarica da qui.
LIBRI
Riavviare il sistema. Come abbiamo rotto internet e perché tocca a noi riaggiustarla, di Valerio Bassan, (Chiarelettere)
Micah Lee, Hacking, fughe di dati e rivelazioni. L'arte di acquisire, analizzare e diffondere documenti (Apogeo editore). Si tratta di un libro piuttosto tecnico, con istruzioni per l’uso. Consigliatissimo per giornalisti investigativi interessati al digitale, data journalist, e simili. Complimenti all’editore per aver tradotto un libro non facilissimo ma molto autorevole (se non conoscete Micah Lee cercatelo su Google).
INTERVENTI E CITAZIONI
Segnalo infine due miei interventi
Su Progress a SkyTg24 a parlare di AI e armi qua (VIDEO)
E all’Università di Torino a Mind the Gap, a parlare di AI e bias (VIDEO, dal 44esimo minuto)
La corsa al riarmo passa anche dall’intelligenza artificiale - VALORI (e grazie della citazione)
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)