Guerre di Rete - AI Act, via libera dei governi
Ma anche Stati Uniti e Cina alle prese con le regole. E poi ransomware ed estorsioni.
Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.179 - 3 febbraio 2024
(Comunicazioni di servizio)
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 13mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.
In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito
Nel 2024 si è aggiunta Digital Conflicts, una newsletter bimensile in inglese, che per ora sarà principalmente una trasposizione della newsletter italiana, con alcune aggiunte e modifiche pensate per un pubblico internazionale (e con particolare attenzione all’Europa).
Qui leggete il primo numero.
Qui per iscriversi..
In questo numero:
- AI Act, ok dei governi, con qualche mugugno
- Scontro Casa Bianca e lobbisti tech sulla regolazione dell’AI
- La regolazione dell’AI in Cina
- OpenAI e il Garante, atto secondo
- Hacker pro-Ucraina cancellano dati di un centro russo
- Impatto psicologico, e sui gruppi più deboli, dei ransomware
- E altro
EUROPA
AI Act, ok dei governi, con qualche mugugno
L’AI Act - Il Regolamento Ue sull’intelligenza artificiale - è stato approvato all’unanimità dagli ambasciatori dei 27 Paesi (Coreper) venerdì 2 febbraio. Si è trattato del passaggio decisivo e più delicato dopo l’accordo politico raggiunto a dicembre.
Il 24 gennaio la presidenza belga del Consiglio dei ministri dell'UE aveva presentato la versione finale del testo, durante una riunione tecnica. Diversi Stati membri avevano mantenuto delle riserve, ma sono state infine sciolte il 2 febbraio con l'adozione della legge sull'AI da parte del Comitato dei rappresentanti permanenti (Coreper), scrive Euractiv. I tre governi che avevano mostrato resistenze - essenzialmente Francia in prima linea, Germania e più defilata Italia - si sono sfilacciati verso la fine, anche grazie a divergenze interne sull’AI Act rispetto a chi voleva modificarlo.
Con l'approvazione del Coreper, il testo (lo trovate qua e linkato alla fine) passerà ancora dagli eurodeputati delle due commissioni parlamentari che esaminano le proposte di legge sull'AI per conto del Parlamento - le commissioni per il Mercato interno e la protezione dei consumatori e per le Libertà civili, la giustizia e gli affari interni. Infine il tutto sarà sottoposto al voto di tutti gli eurodeputati in una sessione plenaria del Parlamento per l’adozione entro aprile.
A questo punto, “la maggior parte di coloro che hanno lavorato alla legge sull'AI in Parlamento sono fiduciosi che la legge passerà senza modifiche”, scrive Politico, specificando che la Commissione ha cercato di rassicurare i Paesi più incerti promettendo di tenere conto di alcune delle questioni sollevate attraverso delle dichiarazioni formali che indirizzeranno l’implementazione della legge.
Il commento del corelatore dell’AI Act, Brando Benifei
Brando Benifei, europarlamentare italiano e corelatore dell’AI Act, era presente proprio venerdì a un convegno sull’AI organizzato dall’Università di Genova (a cui ha partecipato anche Guerre di Rete, per cui possiamo riportare direttamente le sue parole e le risposte alla domande fatte).
“Il voto in plenaria del Parlamento potrebbe avvenire già tra marzo e aprile”, ha detto l’europarlamentare specificando di aver scritto alla Presidente del Parlamento Ue Roberta Metsola, chiedendo di dare priorità al file in modo da riuscire a votare già a marzo. L’idea è di accelerare sui tempi di implementazione, che a detta di Benifei sarebbero i seguenti: sei mesi per l’entrata in vigore dei divieti (“quindi se approvazione a marzo-aprile parliamo di circa ottobre”); un anno per gli obblighi sulla trasparenza; due anni per il conformity assessment (procedura di conformità) sui sistemi ad alto rischio (in questo ultimo caso servono degli standard che si devono ancora sviluppare, commenta il corelatore). Siccome però a giugno ci sono le elezioni europee, l’Unione proporrà “una procedura di compliance anticipata volontaria, con incentivi, al fine di iniziare già ad applicare la norma”, ha detto Benifei. Si tratta dell’AI Pact, da non confondere con l’AI Act.
Benifei è poi tornato su alcuni degli usi vietati, ad esempio la polizia predittiva. “Alcuni governi non volevano che fosse vietata ed è stato l’ultimo punto che abbiamo chiuso [nelle trattative, ndr]. Abbiamo stabilito che non si possono individuare singole persone come possibili criminali, per noi il principio di non colpevolezza è essenziale. Invece non vietiamo la crime analytics, ad esempio la possibilità di individuare delle zone più a rischio. Ovviamente la crime analytics rientra nei sistemi catalogati dall’AI Act come ad alto rischio [quindi deve seguire le procedure richieste, ndr]”.
Per quanto riguarda i modelli di AI general purpose ad alto impatto e con rischio sistemico (high-impact GPAI models with systemic risk) per cui sono previsti obblighi più stringenti come valutazioni del modello, dei rischi sistemici, test di sicurezza ecc (li trovate qua) Benifei conferma che “si applicheranno a GPT4 e Gemini, e anche ai modelli europei quando cresceranno. Tuttavia molti aspetti devono ancora essere determinati da parte del nuovo AI Office - prosegue il politico - specie per quanto riguarda i principi di safety (sicurezza), sotto supervisione del Parlamento. La base è un certo livello di FLOPs [la misura della complessità computazionale, ndr] ma ci saranno anche altri criteri, come il numero di utenti o dei parametri”.
Su open source e ricerca, Benifei dice che “il Regolamento non si applica a ricerca e sviluppo (né alla sicurezza nazionale, non essendo proprio il suo ambito), e prevede una esenzione parziale per l’open source. Dunque non si applica allo sviluppo e distribuzione, se non c’è volontà commerciale. In pratica lo sviluppatore open source non ha responsabilità ma sarà responsabile chi utilizza quel sistema per una specifica applicazione ad alto rischio (il provider). Dunque lo sviluppatore open source è tutelato. Ma nello stesso tempo abbiamo voluto evitare che l’open source usato ad esempio da Meta fosse escluso”.
Qui il testo attuale dell’AI Act. (via LIBE)
Per altre informazioni su AI Act vedi quanto era già uscito a dicembre: comunicato stampa Parlamento Ue; conferenza stampa (video); comunicato Commissione; Consiglio.
Il commento dell’Ada Lovelace Institute
Poco prima dell’approvazione dell’AI Act di venerdì, così aveva commentato l’Ada Lovelace Institute, prestigioso istituto di ricerca britannico nato in collaborazione con l’Alan Turing Institute, la Royal Society, la British Academy e altre istituzioni culturali: “La legge è stata creata con l'obiettivo di proteggere la salute, la sicurezza e i diritti fondamentali e di fornire certezza e chiarezza giuridica. Pur non essendo perfetto, il testo finale rappresenta un compromesso praticabile e pragmatico che, se attuato correttamente, può contribuire a raggiungere questi obiettivi. La legislazione potrebbe sostenere la leadership dell'UE diventando un importante e influente modello globale per la regolamentazione dell'AI”.
AI E POLITICA
Scontro Casa Bianca e lobbisti tech sulla regolazione dell’AI
Lo scorso ottobre la Casa Bianca ha firmato un importante ordine esecutivo sull’intelligenza artificiale. Tra le altre cose il provvedimento dava al Dipartimento del Commercio - che ospita il National Institute of Standards and Technology, un'agenzia che si occupa della definizione di regole e standard per la tecnologia - la scadenza del 28 gennaio per elaborare uno schema che obbligasse le aziende a dare alcune informazioni al governo sui nuovi potenti modelli di AI in fase di sviluppo. Informazioni che includono la potenza di calcolo, la proprietà dei dati utilizzati e soprattutto i test di sicurezza.
Ora l’amministrazione Biden vuole implementare il provvedimento ricorrendo al Defense Production Act (una legge del 1950, nata ai tempi della guerra di Corea per velocizzare il rifornimento di materiali e risorse per questioni di sicurezza nazionale) per obbligare le aziende tecnologiche a informare il governo quando addestrano un modello di intelligenza artificiale utilizzando una quantità significativa di potenza di calcolo.
Gina Raimondo, segretaria al Commercio, “ha anche confermato che il Dipartimento del Commercio implementerà presto un altro requisito dell'ordine esecutivo di ottobre, che richiede ai fornitori di cloud computing come Amazon, Microsoft o Google di informare il governo quando un'azienda straniera utilizza le loro risorse per addestrare un modello linguistico di grandi dimensioni”, scrive Wired Usa specificando che i progetti stranieri devono essere segnalati quando superano la soglia iniziale di 10^26 FLOPs (floating-point operations per second, un'unità di misura della performance computazionale), lo stesso limite oltre il quale un modello di AI (americano) deve dare informazioni al Dipartimento del Commercio (per capirci, GPT-4 sarebbe di poco sotto questa soglia, secondo quanto riportato dal Congressional Research Service).
"Non possiamo permettere che attori non statali o la Cina o altre persone che non vogliamo possano accedere al nostro cloud per addestrare i loro modelli", ha detto Raimondo in un'intervista a Reuters. "Usiamo controlli sulle esportazioni di chip", ha osservato. "Quei chip si trovano in data center cloud americani, quindi dobbiamo pensare anche a chiudere questa strada per potenziali attività dannose".
La proposta richiederebbe alle aziende statunitensi di cloud computing di verificare l'identità dei clienti che si iscrivono o mantengono account attraverso un programma “Know-Your-Customer (KYC)”.
Ma tutto questo attivismo dell’amministrazione Biden sull’AI sta sollevando resistenze da parte della lobby tecnologica, i legislatori del GOP e gli attivisti conservatori.
“Un gruppo legato al network conservatore Koch ha tempestato il Dipartimento del Commercio con richieste di informazioni e un'azione legale. I lobbisti del settore tecnologico hanno dichiarato che potrebbero lanciare una sfida legale non appena il Dipartimento del Commercio inizierà a esercitare la sua nuova autorità in materia di AI alla fine di gennaio”, scrive Politico.
Questi gruppi hanno respinto già da ottobre i nuovi requisiti per le aziende private previsti dall’ordine esecutivo, sostenendo che avrebbero soffocato l'innovazione nel settore. Una argomentazione sentita molte volte anche per quanto riguarda l’europeo AI Act.
Cina, 40 modelli per uso pubblico, oltre 200 in attesa di approvazione
Per quanto riguarda i provvedimenti sulle aziende cloud americane, è inevitabile pensare al principale rivale strategico degli Usa sull’AI, ovvero la Cina. Come stanno andando lì le cose? Secondo Reuters, nei primi sei mesi da quando le autorità hanno iniziato il processo di approvazione, la Cina ha dato il via libera a più di 40 modelli di intelligenza artificiale per uso pubblico.
L’ultimo round è arrivato alcuni giorni fa quando le autorità hanno concesso l’ok a un totale di 14 modelli linguistici di grandi dimensioni (LLM) per uso pubblico, ha riferito Securities Times, un'agenzia statale cinese. Xiaomi e 01.AI sono tra i beneficiari.
La scorsa estate era stato infatti dato mandato a un organismo governativo, il China Electronic Standardisation Institute, di implementare uno standard nazionale per i modelli linguistici di grandi dimensioni.
Tra le applicazioni AI approvate questo mese ci sono uno strumento per la selezione dei curriculum della piattaforma cinese di reclutamento online Zhaopin e un chatbot dell'azienda di servizi di e-commerce Beijing Zhidemai Tech, scrive il South China Morning Post. Robin Li Yanhong, fondatore e Ceo di Baidu, gigante tech, ha dichiarato che a ottobre erano già 238 i modelli linguistici di grandi dimensioni del Paese, la maggior parte dei quali doveva ancora ricevere l'approvazione del governo. Mentre Ernie Bot, il chatbot di Baidu simile a ChatGPT, avrebbe 100 milioni di utenti, secondo il CTO dell’azienda.
La regolazione dell’AI in Cina
Tornando al quadro regolatorio della Cina sull’AI, fa il punto in un recente paper Angela Huyue Zhang, professoressa alla University of Hong Kong e direttrice del Philip K. H. Wong Center for Chinese Law, ricordando come nel luglio 2023 la CAC (l’autorità regolatoria sulla cybersicurezza) “insieme ad altri sei dipartimenti governativi cinesi, abbia emanato congiuntamente le Misure provvisorie per regolamentare l'AI generativa. Queste misure introducono una serie completa di obblighi per i fornitori di servizi di AI generativa, tra cui la moderazione dei contenuti, la gestione dei dati di addestramento, l'etichettatura degli output, la protezione degli utenti e le responsabilità contrattuali. Analogamente ai regolamenti sulle raccomandazioni algoritmiche e sulla deep synthesis (contenuti generati sinteticamente, ndr) - Algorithmic Regulation and the Deep Synthesis Regulation - quei servizi che possono influenzare l'opinione pubblica devono sottoporsi a una valutazione di sicurezza e registrare i loro algoritmi presso la CAC prima del lancio sul mercato. Gli esperti legali hanno osservato che questa valutazione della sicurezza (security assessment) è notevolmente più rigorosa rispetto alle valutazioni tradizionali per i servizi online, richiedendo informazioni dettagliate e un tempo considerevole. Questo requisito di valutazione della sicurezza ex ante rende inoltre la Cina il primo e unico Paese che ha imposto una licenza per il lancio di servizi di AI generativa”.
Tuttavia le misure si applicano solo a quei servizi di AI "rivolti al pubblico", esentando gli altri, precisa il paper. Che offre uno squarcio interessante sulle sottigliezze della regolamentazione cinese dell’AI per arrivare a concludere che sia più business friendly di quanto appaia.
OPENAI
Il Garante della privacy colpisce ancora
Nel frattempo il Garante italiano per la protezione dei dati personali ha notificato a OpenAI (la società dietro a ChatGPT) l’atto di contestazione per aver violato la normativa in materia di protezione dei dati personali. “A seguito del provvedimento di limitazione provvisoria del trattamento, adottato dal Garante nei confronti della Società lo scorso 30 marzo, e all’esito dell’istruttoria svolta, l’Autorità ha ritenuto che gli elementi acquisiti possano configurare uno o più illeciti rispetto a quanto stabilito dal Regolamento UE”, scrive il Garante.
“La denuncia dell'autorità si muove nell'alveo delle contestazioni del 2023 - scrive Wired Italia - E quindi base giuridica del trattamento dei dati personali; questione “allucinazioni”, ossia le risposte inesatte prodotte dal chatbot che possono condurre a una gestione impropria delle informazioni; trasparenza e questione minori. La missiva è stata spedita in Irlanda, dove ha sede il legale rappresentante di OpenAI. (..) Se il provvedimento d'urgenza [del marzo 2023, ndr] si è chiuso quando la società ha adottato le contromisure necessarie (...) non si è invece interrotta l'analisi degli uffici del Garante”
OpenAI, avrà 30 giorni per comunicare le proprie memorie difensive in merito alle presunte violazioni contestate.
CYBERWARFARE
Hacker pro-Ucraina cancellano dati di un centro russo
La Direzione principale dell'intelligence del Ministero della Difesa ucraino sostiene che degli hacker filo-ucraini abbiano violato il Centro russo per l'idrometeorologia spaziale, noto come "Planeta" (планета), cancellando 2 petabyte di dati, scrive Bleeping Computer.
Planeta è un centro di ricerca statale che utilizza dati satellitari e terrestri per fare previsioni su meteo, clima, disastri naturali. Gli attaccanti hanno dichiarato di aver “distrutto” 280 server e due petabyte di informazioni, tra cui dati meteorologici e satellitari, oltre a "ricerche uniche".
"Il lavoro dei supercomputer - ciascuno del valore di 350.000 dollari - è stato paralizzato e non può essere completamente ripristinato", hanno affermato gli attaccanti, riferisce The Record.
Secondo l’intelligence ucraina, ad attaccare Planeta - che offrirebbe servizi anche ai militari - è stato un gruppo di cyber volontari che va sotto il nome di BO Team (A quanto pare non così noto fino ad ora).
CYBERCRIME
Ragazzini presi di mira da sextortion
La sextortion di tipo finanziario è il crimine in più rapida crescita che prende di mira ragazzini giovanissimi in Nord America e in Australia, con un'impennata del 1.000% negli ultimi 18 mesi, sostiene un report del Network Contagion Research Institute (Rutgers University). Una tendenza che sarebbe suffragata anche dalle parole del direttore dell'FBI Christopher Wray, il quale, in un'audizione davanti al Congresso Usa del dicembre 2023, ha denunciato come la sextortion sia "una minaccia in rapida crescita" e le vittime adolescenti "non sanno a chi rivolgersi".
In cosa consiste la sextortion lo spiega lo stesso report. I criminali informatici utilizzano falsi account sui social media per costringere le vittime, in questi casi quasi tutti ragazzi, a condividere una foto esplicita. Non appena il criminale riceve la foto, minacciano di esporla agli amici, alla famiglia e ai follower della vittima, a meno che non venga chiesto un riscatto.
Secondo il report di Network Contagion, quasi tutte le sextortion finanziarie che hanno come obiettivo i minori oggi sarebbero direttamente collegate a un gruppo di criminali informatici distribuito nell'Africa occidentale e chiamato Yahoo Boys. Le vittime sono principalmente minori e giovani adulti di lingua inglese su Instagram, Snapchat e Wizz. L'aumento dei casi negli ultimi 18 mesi sarebbe il risultato diretto di una estensione della rete degli Yahoo Boys, che hanno reclutato altri criminali. E che hanno concentrato gli attacchi su scuole superiori, squadre sportive giovanili e università, tempestati di account falsi, con cui portare avanti varie tattiche di social engineering. Vedi anche NBC.
RANSOWMARE
I pazienti della sanità più danneggiati dai ransomware
L’impatto psicologico degli attacchi ransomware è significativamente trascurato, e attualmente nessuno ha una piena comprensione dell'impatto economico degli attacchi ransomware, tanto che il costo dei danni finanziari a lungo termine e indiretti è probabilmente assente dalle attuali stime del danno economico causato dagli attacchi.
Così un report di fine gennaio intitolato The Scourge of Ransomware e realizzato dal Royal United Services Institute (RUSI), un noto think tank britannico. Sebbene il rapporto si concentri soprattutto sullo scenario in UK, molte delle analisi e delle conclusioni sono probabilmente valide per altri Paesi.
Scrivono gli autori (neretti miei): “Sebbene il danno alla reputazione derivante da un attacco ransomware sia una valida preoccupazione per alcune aziende, in particolare per quelle i cui clienti si aspettano un livello di privacy più elevato (come i clienti di servizi legali o finanziari), il pericolo di un danno alla reputazione è spesso sopravvalutato dalle vittime. Allo stesso modo, l'impatto temuto di dati esfiltrati per causare ulteriori danni attraverso frodi finanziarie o altri reati non è stato confermato dagli intervistati. Al contrario, i dati delle interviste hanno mostrato che i gruppi già vulnerabili, come i beneficiari di sussidi o i pazienti della sanità, sono colpiti in modo sproporzionato dai danni causati dal ransomware”.
In conclusione, scrivono gli autori, le risposte governative agli attacchi di ransomware devono concentrarsi su come prevenire i danni alla società.
APPROFONDIMENTI
AUDIO/PODCAST
La promessa mancata delle body cam usate dalla polizia. Inchiesta NYT
SOCIAL MEDIA
Uno studio sulle troll farms in Egitto, Tunisia, Iraq
CYBER
Cyber Transparency Value Chain - report del Cyberpeace Institute
AI RICERCA
Black-Box Access is Insufficient for Rigorous AI Audits
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)