Guerre di Rete - OpenAI "drama"
O è stata solo un'allucinazione? Poi la crisi dell'AI Act. E storie di cybercrimine.
Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.173 - 19 novembre 2023
In questo numero:
OpenAI “drama”
AI Act sull’orlo di una crisi di nervi
Ascesa di Mistral e dell’AI francese
La storia dietro alla botnet Mirai
Cybercrimine, porti e cocaina
AI E ALLUCINAZIONI
OpenAI “drama”
Tra venerdì e domenica abbiamo assistito a uno degli eventi più assurdi del settore tech, che - diciamolo - non si è fatto mai mancare nulla a livello di “drama”, come dicono in inglese, e colpi di scena.
Sam Altman, il Ceo di OpenAI - che con ChatGPT nel novembre 2022 ha lanciato una corsa frenetica globale verso l’AI generativa, raccontata dall’inizio e in dettaglio in questa newsletter - è stato cacciato dal board di OpenAI in malo modo, senza preavviso, senza avvisaglie e senza che nessuno degli addetti ai lavori (tranne il circolo più ristretto) capisse cosa davvero stesse succedendo.
L’annuncio del board
In un post sul blog di venerdì, OpenAI ha dichiarato che il suo consiglio di amministrazione aveva perso fiducia nelle capacità di leadership di Altman dopo un "processo di revisione", concludendo “che Altman non è stato costantemente sincero nelle comunicazioni con il consiglio, ostacolando la capacità dello stesso di esercitare le proprie responsabilità". Come interim Ceo veniva intanto promossa Mira Murati, fino allora la CTO.
Frasi che, nel solitamente compassato gergo corporate, non suonano come un benservito, ma come un calcio nei denti. Anche Greg Brockman, come Altman un altro dei cofondatori di OpenAI, faceva “un passo indietro dal ruolo di presidente del board”, annunciava ancora il post, pur restando nella compagine. Anche se, poco dopo, lo stesso Brockman comunicava invece di lasciare la società.
Non passavano molte ore che almeno altri tre ricercatori chiave erano dati in uscita.
L’aspetto più impressionante di questa vicenda è che per ore e giorni, e in parte anche adesso mentre scrivo, nessuno sembrava avere una chiave interpretativa certa, o quanto meno suffragata da fatti e non supposizioni. La stessa Microsoft, principale investitore e partner commerciale, secondo alcuni resoconti, non sarebbe stata a conoscenza della decisione.
Le ipotesi dietro al “drama”
“Sam Altman stava raccogliendo finanziamenti per un nuovo fondo di venture capital incentrato sull'hard tech quando è arrivata la notizia della sua uscita da OpenAI”, scrive The Semafor citando fonti riservate. “I rapporti commerciali di Altman sono stati a lungo oggetto di intrighi nella Silicon Valley. Nelle chat di gruppo e nelle conversazioni private, fondatori e operatori hanno sollevato domande sulla sua rete di investimenti e l'esistenza di connessioni finanziarie non note al pubblico. Non è chiaro se questi investimenti abbiano avuto a che fare con la sua estromissione da OpenAI”.
Ricordiamo che Altman non aveva equity in OpenAI. E che il resto del consiglio di amministrazione comprende il chief scientist di OpenAI Ilya Sutskever (una delle menti più brillanti sul lato tecnico e da alcuni considerato già il manovratore dietro alla defenestrazione), l'amministratore delegato di Quora Adam D'Angelo, l'imprenditrice Tasha McCauley e Helen Toner del Center for Security and Emerging Technology della Georgetown University.
Twitta la giornalista tech Kara Swisher, che ha molti agganci nella Silicon Valley: “Fonti mi hanno riferito di un contrasto tra l'orientamento al profitto dell'azienda sotto Altman e la velocità di sviluppo, che poteva essere vista come troppo rischiosa, e il lato nonprofit dedicato a una maggiore sicurezza e cautela. Una persona vicina a Sam l'ha definito un "colpo di stato", mentre un'altra ha detto che era la mossa giusta”. E ancora: “Fonti mi dicono che il chief scientist Ilya Sutskever sarebbe al centro di questa situazione. Le crescenti tensioni con Sam Altman e Greg Brockman su ruolo e influenza avrebbero portato il consiglio di amministrazione dalla sua parte”.
Sembra però incongruente che una divergenza di opinioni su velocità di sviluppo, o anche uno scontro di potere interno, portino a un ribaltamento improvviso (ricordiamo che fino ai giorni prima Altman incontrava capi di Stato), e motivato con quelle pesanti parole del comunicato.
Intanto, secondo vari report giornalistici, Altman starebbe già lavorando a una startup di AI, anche se non è chiaro se si tratti di un’accelerazione di qualcosa che era già in fieri (il che potrebbe spiegare in parte anche le reazioni del board) o un progetto nato rapidamente solo in conseguenza della sua estromissione.
Abbiamo scherzato….
Ma non è finita qua. Mentre scrivo The Verge e altri riferiscono che il consiglio di amministrazione di OpenAI starebbe discutendo con Sam Altman per farlo tornare in azienda come Ceo. Sì, avete capito bene. Farlo rientrare come Ceo (su pressione di investitori e Microsoft). Ma l’incertezza è massima.
“Secondo una fonte vicina ad Altman, il consiglio di amministrazione aveva concordato in linea di principio di dimettersi e di permettere ad Altman e Brockman di tornare, ma da allora ha tentennato, mancando la scadenza fondamentale delle 17:00 PT entro la quale molti dipendenti di OpenAI avrebbero dovuto dimettersi. Se Altman decidesse di andarsene e di fondare una nuova società, quei dipendenti lo seguirebbero sicuramente”.
A questo punto mi fermo perché la situazione è davvero in sviluppo e più la si osserva in questo momento, più assomiglia a una fervida allucinazione di ChatGPT. L’unica riflessione che vorrei fare è che queste sono le aziende, organizzazioni, interessi e persone che si siedono a negoziare con gli Stati e l’Unione europea per parlare di regolamentazioni, leggi, rischi e diritti. Per modellare quelle regolamentazioni. Per spingere in una direzione invece di un’altra, e fare lobbying. Per parlare di trasparenza.
Per un identikit di OpenAI vedi questa mia precedente newsletter.
TECH E POLITICA
AI ACT sull’orlo di una crisi di nervi
L’AI Act, il regolamento europeo sull’intelligenza artificiale in fase di definizione in queste settimane, è a un punto di crisi proprio a un passo dalla sua chiusura.
Il 10 novembre infatti i rappresentanti del Parlamento europeo hanno abbandonato una riunione tecnica dopo che la presidenza spagnola, su pressione di Francia e Germania, ha cercato di fare marcia indietro sull'approccio adottato finora per la regolamentazione dei modelli di base [foundation models, alla GPT3 o 4], scrive Euractiv. Che aggiunge come la presidenza spagnola starebbe mediando direttamente con i Paesi interessati per trovare una possibile soluzione accettabile anche per il Parlamento europeo.
I modelli di base (foundation models) sono reti neurali di intelligenza artificiale addestrate su grandi quantità di dati che possono essere adattate a un'ampia gamma di compiti (e a sua volta funzionano da piattaforme per altre applicazioni di AI). Questo termine è spesso usato in modo intercambiabile con GPAI (General Purpose AI), come sottolineato nelle definizioni dell’Ada Lovelace Institute.
L’approccio multilivello e i criteri
Durante l'ultimo trilogo politico del 24 ottobre, sembrava esserci un consenso sull'introduzione di regole per i modelli di base secondo un approccio basato su livelli diversi, vale a dire introducendo regole più severe per i modelli più potenti destinati ad avere un maggiore impatto sulla società.
Lo scontro si è quindi spostato sui criteri per valutare i modelli considerati ad “alto impatto” e chi dovesse definirli, se il Parlamento o la Commissione. Gli eurodeputati che stanno portando avanti l’AI Act hanno proposto quattro criteri iniziali sui quali dovrebbero essere fissate soglie concrete. I criteri sono la quantità di dati utilizzati per l'addestramento, la dimensione del modello in termini di parametri, la quantità di calcolo utilizzata per l'addestramento e altri parametri legati alla performance ancora da elaborare.
“Questo approccio, che segue una linea simile a quella del Digital Markets Act (DMA) e del Digital Services Act (DSA), è stato visto come una concessione da parte del Parlamento europeo, che avrebbe preferito regole orizzontali per tutti i modelli di base”, nota ancora Euractiv.
Lo scarto di Francia, Germania e Italia
L'obiettivo dell'approccio a più livelli era quindi quello di imporre gli obblighi più severi ai principali fornitori, che attualmente sono aziende non europee. Tuttavia, questa proposta ha incontrato una crescente opposizione anche da parte dei grandi Paesi europei, alcuni dei quali stanno sviluppando modelli di AI che vogliono essere competitivi a livello internazionale.
Infatti, “durante la riunione di giovedì del Gruppo di lavoro sulle telecomunicazioni, un organo tecnico del Consiglio dei ministri dell'UE, i rappresentanti di diversi Stati membri, in particolare Francia, Germania e Italia, si sono opposti a qualsiasi tipo di regolamentazione dei modelli di base”.
A spingere contro qualsiasi regolamentazione dei modelli di base nell’AI Act sarebbe Mistral, una start-up francese sostenuta dall’Eliseo, a cui abbiamo dedicato un approfondimento proprio questa settimana sul sito Guerre di Rete. Ma anche la Germania starebbe facendo pressioni per la sua azienda leader nel settore dell'AI, Aleph Alpha.
L’Italia, dal suo canto, ha annunciato a fine ottobre una intesa di cooperazione con Francia e Germania proprio sull’intelligenza artificiale. Nell’occasione il ministro dell’Economia tedesco Robert Habeck ha dichiarato: “Questo aspetto [il posizionamento dell’Europa sull’intelligenza artificiale] è particolarmente importante in relazione all’AI Act, attualmente in fase di negoziazione a Bruxelles. Sono strettamente allineato con i miei colleghi italiani e francesi sulla necessità di una normativa favorevole all'innovazione in materia di AI, compresa l'AI cosiddetta general purpose [ovvero i modelli di base, ndr]”.
L’accusa di lobbying da parte di alcune organizzazioni per la trasparenza
In pratica, secondo l’organizzazione per la trasparenza sulle attività di lobbying Lobbycontrol, ci sarebbe stata una saldatura fra alcuni governi europei (Germania e Francia in testa) che difendono le loro aziende di AI con i rappresentanti delle Big Tech americane per depotenziare le regole previste sui modelli di base.
“Abbiamo assistito a un'intensa attività di lobbying da parte delle Big Tech sulla legge sull'AI, con innumerevoli incontri con i parlamentari europei e accesso ai più alti livelli decisionali. Sebbene pubblicamente queste aziende abbiano chiesto di regolamentare l'AI pericolosa, in realtà stanno spingendo per un approccio laissez-faire in cui le Big Tech decidono le regole", ha dichiarato Bram Vranken di Lobbycontrol a TechCrunch.
"Le aziende europee, tra cui Mistral AI e Aleph Alpha, si sono unite al gruppo. Di recente hanno aperto uffici di lobbying a Bruxelles e hanno trovato ascolto dai governi di Francia e Germania, al fine di ottenere delle deroghe per i modelli di base. Questa spinta sta mettendo a dura prova i negoziati e rischia di far deragliare l'AI Act”.
Ma non è finita qua. Ad alcuni governi stanno indigeste anche le protezioni sui diritti dei cittadini che sono viste come una limitazione sulle possibilità di sfruttare queste tecnologie a fini di sicurezza nazionale, controllo e sorveglianza. Lo sostiene Sarah Chander, senior policy adviser dell’ong sui diritti digitali EDRi, secondo la quale gli Stati membri si oppongono al divieto assoluto di utilizzare sistemi di identificazione biometrica remota in pubblico. Inoltre non ci sarebbe accordo su questioni come la registrazione dell'uso di sistemi di AI ad alto rischio da parte delle forze dell'ordine e delle autorità per l'immigrazione; né su un processo di classificazione del rischio per i sistemi di AI che sia chiaro e non aggirabile; né sulla limitazione delle esportazioni di sistemi vietati al di fuori dell'UE.
Cosa dice il Parlamento Ue
Ricapitoliamo. La proposta dell’AI Act sui modelli di base - sintetizza The Verge - prevede che gli sviluppatori di modelli siano tenuti a valutare i rischi potenziali, a sottoporre gli stessi modelli a test durante l'intero processo di sviluppo e dopo il rilascio sul mercato, a esaminare i bias nei dati di addestramento, a convalidare i dati e a pubblicare documenti tecnici prima del rilascio.
O per usare le parole dello stesso Parlamento Ue:
“Il Parlamento intende stabilire un approccio a più livelli nella legge sull'IA per regolamentare i sistemi di IA per finalità generali. Intende imporre ai fornitori di modelli di base l'obbligo di garantire una solida tutela dei diritti fondamentali, della salute, della sicurezza, dell'ambiente, della democrazia e dello Stato di diritto. Essi sarebbero tenuti a valutare e attenuare i rischi comportati dai loro modelli, rispettare taluni requisiti riguardanti la progettazione, la comunicazione e l'ambiente e registrare tali modelli in una banca dati dell'UE. Inoltre i modelli di base di IA generativa (come ChatGPT), che utilizzano grandi modelli linguistici per generare arte, musica e altri contenuti, sarebbero soggetti a obblighi di trasparenza rigorosi. I fornitori di tali modelli e di contenuti generativi sarebbero tenuti a comunicare che i contenuti sono stati generati dall'IA e non da esseri umani, formare e progettare i loro modelli al fine di prevenire la generazione di contenuti illegali e pubblicare informazioni circa l'uso dei dati di addestramento protetti dal diritto d'autore.
Infine, tutti i modelli di base dovrebbero fornire le informazioni necessarie per consentire ai fornitori a valle di ottemperare agli obblighi che incombono loro in virtù dalla legge sull'IA. (..) Oltre a ciò, i deputati intendono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di IA e di ricevere spiegazioni in merito alle decisioni basate su sistemi di IA ad alto rischio che hanno un impatto significativo sui loro diritti”.
Infine, per “sostenere l'innovazione, il Parlamento concorda sul fatto che le attività di ricerca e lo sviluppo di componenti di IA liberi e open source sarebbero in gran parte esentati dalla conformità alle norme previste dalla legge sull'IA”.
Le posizioni delle Ong
La posizione di una buona parte di Ong sui diritti viene riassunta da un comunicato di EDRi, che scrive: “In gioco ci sono questioni vitali, tra cui la misura in cui i modelli per scopi generali/fondamentali sono regolamentati, ma anche, in modo cruciale, fino a che punto la legge sull'AI prevenga efficacemente i danni derivanti dall'uso di questa tecnologia nell’ambito delle attività di polizia, migrazione e sicurezza nazionale.
La società civile chiede da tempo una legge europea sull'AI che metta in primo piano i diritti fondamentali e le persone. Questo deve includere protezioni chiare ed efficaci contro la sorveglianza dannosa e discriminatoria. La legge europea sull'AI deve garantire un quadro di responsabilità e trasparenza per l'uso dell'AI e dare alle persone la possibilità di far valere i propri diritti”.
AI
Macron punta sull’AI nazionale
Mistral, investitori, lobbying: la Francia vuole il suo posto nella corsa all’intelligenza artificiale. Protagonisti e strategie.
Un approfondimento di Guerre di Rete, firmato da Antonio Piemontese, che cade proprio in un momento critico per l’AI in Europa e non solo.
“Dietro alla rapida ascesa dell’azienda parigina appare chiara la volontà del Governo transalpino di creare un pezzo da novanta con cui prendere parte alla competizione per i Large Language Models (i modelli linguistici di grandi dimensioni). Del piano fa parte anche la difesa della lingua francese, orgoglio nazionale, che rischia di essere marginalizzata dal fatto che gli LLM più diffusi vengono addestrati da società anglosassoni su dataset in inglese. “
Leggi tutto: Macron punta sull’AI nazionale
AI E SOCIETA’
La campagna per far vietare il riconoscimento biometrico in Europa
Si chiama DontSpyEU, punta a bloccare la sorveglianza biometrica all'interno dell'AI Act ed è promossa da una serie di associazioni dei diritti digitali - Wired Italia
CYBERCRIME
Mirai story
L'incredibile storia di come tre ragazzini hanno messo in piedi uno strumento con cui mandare offline alcuni dei più importanti servizi internet, diventando una minaccia statale. Di come sono stati scovati e sono finiti a lavorare per l’Fbi. E poi per l’industria della sicurezza. Bel reportage da Wired US su Mirai.
Violare il sistema di gestione dei container per il traffico di droga
Altra storia notevole. Un uomo nei Paesi Bassi ha violato i sistemi informatici dei porti di Rotterdam e Anversa e ha venduto i dati raccolti per aiutare trafficanti di cocaina. Grazie all'accesso ai sistemi di gestione dei container dei porti, il criminale informatico è stato in grado di suggerire quali container sarebbero stati i migliori obiettivi per nascondere la droga. Il cybercriminale ha anche utilizzato il suo accesso a dati chiave sui container per aiutare i trafficanti a prelevare la droga sul luogo di destinazione. Le intrusioni sono state facilitate anche da un dipendente del porto di Anversa, che avrebbe inserito una USB con un malware in un computer del porto, scrive OCCRP.
CYBERSICUREZZA
Quanto costa Signal, l’app di messaggistica cifrata gestita da una fondazione? 40 milioni di dollari l’anno (50 a breve) - Wired USA
EVENTI
Valigia Blu, uno dei più bei progetti di informazione indipendenti e sostenuti dai lettori, sta facendo il suo crowdfunding. È tempo di sostenerli.
DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua cliccando sul bottone rosso Subscribe now, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo). Non ha sponsor né pubblicità, né aziende o lobbies alle spalle.
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)