Guerre di Rete - Il 18 brumaio di OpenAI
Il nuovo board. Chi ha vinto e chi ha perso. E poi l'AI Act
Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.174 - 26 novembre 2023
In circa una settimana Guerre di Rete è stata presente su Rainews, SkyTg24, e Radio Svizzera (per parlare di intelligenza artificiale). Mentre il nostro articolo Macron punta sull’AI nazionale, firmato da Antonio Piemontese, è stato citato da Wired Italia e dal manifesto. A dicembre invece Guerre di Rete sarà media partner delle giornate di studio organizzate dal collettivo di dottorandə del Dipartimento di Scienze Sociali dell’Università di Napoli Federico II, Game of Tech. Grazie ancora a chi ci ha invitato o ripreso e a tutti quelli che ci sostengono, senza i quali questo progetto non andrebbe avanti.
Postilla:
In questo periodo il progetto Guerre di Rete sta dando ampio spazio all’intelligenza artificiale. Cercheremo di riequilibrare in futuro il peso degli argomenti trattati, tornando di più anche su altri temi, come sempre avvenuto. Tuttavia è vero che siamo in un momento piuttosto importante, anche a livello politico, per quanto riguarda gli assetti e le decisioni che riguardano l’AI e il nostro futuro. Personalmente ritengo un dovere civico, in questo momento, fare informazione su quanto sta accadendo.
In questo numero:
- Il 18 brumaio di OpenAI
- L’alleanza per cambiare l’AI Act
- L’inquietante industria dell’aldilà digitale
- Come funziona la prima simulazione di voto elettronico in Italia
INTELLIGENZA ARTIFICIALE
Il 18 brumaio di OpenAI
“Sbattete fuori tutta questa gente!”. Osservando quanto accaduto al consiglio di amministrazione di OpenAI, mi è venuta in mente questa frase, attribuita a Murat nei confronti dell’aula del Consiglio dei Cinquecento, quando Napoleone con un colpo di Stato mise fine alla Repubblica e al Direttorio, facendo iniziare il Consolato.
Solo che invece del generale francese mi immagino quelle parole sulla bocca di qualche investitore, nel momento in cui ha realizzato come il board no profit che controlla la società for profit, valutata 80 miliardi di dollari, avesse improvvisamente fatto fuori il proprio Ceo, Sam Altman, senza una spiegazione apparente. Per poi implodere in un delirio di cinque giorni che ha lasciato esterrefatti anche i commentatori tech più scafati (ho raccontato questa prima parte nella scorsa newsletter).
Licenze storiche a parte, scrivo così perché secondo il Wall Street Journal Satya Nadella, il Ceo di Microsoft, e Kevin Scott, il suo CTO, sarebbero stati fondamentali nel far reintegrare Altman a capo di OpenAI, e che tale soluzione sarebbe stata quella considerata ideale dal colosso di Redmond.
“Quando il consiglio di amministrazione si è ritorto contro Altman, Altman si è immediatamente rivolto a Nadella”, scrive il WSJ, spiegando come da subito i due abbiano discusso al telefono su come riportare l’ex Ceo in OpenAI o su come farlo entrare a Microsoft con un seguito di ricercatori. “Ma il risultato ideale per Microsoft era che Altman tornasse in OpenAI come Ceo, secondo una persona a conoscenza delle idee di Nadella. Aprendo le porte di Microsoft al team di OpenAI, Nadella ha aumentato il potere contrattuale di Altman per riavere la sua posizione, mentre il consiglio di amministrazione della stessa OpenAI si trovava di fronte a un esodo”.
Microsoft ha investito prima 3 miliardi, e più recentemente altri 10, nella società che ha sviluppato ChatGPT, ma non aveva un posto nel consiglio di amministrazione della no profit che controlla la società profit (e il cui obiettivo non sarebbe, da statuto, il beneficio degli investitori, ma quello dell’umanità), “poiché temeva che un'influenza eccessiva avrebbe allarmato le autorità di regolamentazione sempre più aggressive”, scrive ancora il WSJ.
Il board: chi va via, chi arriva e chi resta
Non ce l’ha ancora adesso (almeno mentre scrivo), ma tanto per cominciare il board che aveva licenziato Altman è stato sostituito quasi interamente. È rimasto Adam D’Angelo, fondatore di Quora e di un progetto AI di nome Poe, uno di quelli che hanno votato contro Altman a dispetto del fatto che nel 2018 venne portato nel board dallo stesso. D’Angelo rimane anche per dare rappresentanza al vecchio consiglio in quello nuovo, secondo fonti raccolte da The Verge. Ma il suo ruolo nella vicenda, ancora misteriosa, rimane il più enigmatico (e soprattutto le motivazioni, non potendo essere collocato in modo netto sul fronte dei rischio-esistenzialisti dell’AI, mentre il supposto conflitto di interesse per la sua azienda AI non convince del tutto).
Via invece le uniche due donne del board. Via Helen Toner, direttrice della strategia del Centro per la sicurezza e le tecnologie emergenti (CSET) della Georgetown University, che quando fu nominata nel consiglio era elogiata come una voce affidabile sulle implicazioni dell’AI per la sicurezza nazionale e come sostenitrice della trasparenza sui rischi. Ma sappiamo che Toner era entrata in conflitto aperto (documentato da email) con Altman per un paper che aveva pubblicato con altri in ottobre, in cui criticava OpenAI per aver scatenato, col rilascio di ChatGPT, un senso di urgenza nelle aziende tech. “Questo risultato sembra sorprendentemente simile alle dinamiche di corsa al ribasso che OpenAI e altri hanno dichiarato di voler evitare”, argomenta il paper. Mentre il concorrente Anthropic veniva lodato per aver deciso di ritardare l'uscita del suo prodotto.
Toner è anche un’altruista effettiva (così si è descritta) e ha lavorato in organizzazioni di quel movimento di utilitarismo estremo favorito dai miliardari della Silicon Valley, per usare una definizione succinta dell’effective altruism (in inglese lo trovate spesso nella sigla EA). Movimento sfaccettato ma che flirta con una serie di altre correnti ideologiche che vanno dal longtermismo al rischio esistenzialismo (X-risk), ovvero chi sostiene che l’AI presto diverrà così potente e incontrollabile da mettere a rischio l’esistenza dell’umanità.
Un’altra altruista effettiva è anche la seconda donna cacciata dal board, la manager del settore tech Tasha McCauley, che secondo alcuni resoconti giornalistici avrebbe insistito con toni apocalittici sulla questione sicurezza.
E poi c’è Ilya Sustkever, lo scienziato capo, ex membro del board, ricercatore rispettato (ha iniziato sotto un altro pioniere del settore, Geoffrey Hinton, e con altri ha contribuito in modo importante al deep learning, come avevo scritto qua e qua) ma anche uno che all’AGI, all’arrivo di una superintelligenza complessivamente molto superiore a quella umana, ci crede fermamente - tanto che come un predicatore gospel fa cantare ai dipendenti di OpenAI: “Feel the AGI!” (ovvero senti l’AGI che arriva).
Insomma, questo Sustkever, che con un colpo di scena aveva votato per cacciare Altman e poi però si è pentito e ci ha ripensato (con tanto di cuori scambiati su Twitter fra i due), ecco lui è l’altro personaggio indecifrabile di questa vicenda. In teoria dovrebbe restare in OpenAI, ma ci sono al momento molti dubbi al riguardo. Certo è quello che ne esce di più con le ossa rotte. Personalmente, da Altman, che tutto è meno che stupido, mi aspetterei che se lo tenga ben stretto a questo punto, sempre che Sutskever voglia davvero restare.
Ma la verità è che il board ha fatto esattamente il board di quella specifica, atipica no profit. E come tale era suo diritto decidere in modo indipendente dagli investitori. Il problema è che l’assenza totale di avvisaglie, spiegazioni e di comunicazioni esterne da parte dello stesso, insieme agli enormi interessi ormai in gioco e all’anomala struttura di partenza di OpenAI, hanno reso le sue azioni non solo difficili da valutare, ma di fatto un harakiri.
Ora nel consiglio attuale (che dovrà poi allargarsi ulteriormente, e lì sarà interessante vedere chi entra) oltre al sopravvissuto D’Angelo, siedono Bret Taylor, una specie di istituzione del settore tech, tra Google Maps, Facebook, Twitter, Salesforce. Stiamo parlando di uno che è riuscito a cacciare l’accordo per la vendita di Twitter in gola a un riluttante Elon Musk. E ho detto tutto sulla scorza del personaggio.
L’altra new entry è Larry Summers. Quel Summers, ex segretario al Tesoro americano sotto Clinton, addentro al mondo della politica di Washington e delle startup, quel presidente emerito di Harvard di fatto sfiduciato e poi dimissionario dopo aver dichiarato che la difficoltà delle donne a emergere in carriere scientifiche sarebbe dovuta a innate differenze di genere. Il suo ingresso in OpenAI è stato salutato così da una organizzazione, Revolving Door Project, che scruta i legami e le giravolte fra governo, accademia e aziende: "Non c'è indicazione più grande del fatto che OpenAI non abbia a cuore gli interessi dell'umanità della nomina di Larry Summers al suo Consiglio di Amministrazione".
Chi ha vinto e chi ha perso
Secondo il NYT, la questione è semplice: il team Capitalismo ha vinto. Il team Leviatano ha perso (inteso come quel ramo di AI safety che insiste su rischi esistenziali derivanti da una AI che a breve potrebbe diventare molto potente e incontrollabile, e che crede in questa possibilità imminente, come Sustkever).
Certo, aggiungo io, stiamo assistendo a una ritirata di quel gruppo che sull’intelligenza artificiale è ispirato e foraggiato dall’altruismo effettivo. Quanto meno abbiamo visto l’ennesima brusca frenata di questo movimento, dopo il colpo subito con l’arresto di Sam Bankman-Fried, il fondatore dell’exchange di criptovalute FTX, che era anche uno dei campioni e finanziatori dell’EA (effective altruism). Movimento che sta cominciando ad assomigliare sempre di più a un gruppo di agenti del caos. Se prima era malvisto soprattutto da ricercatori di AI progressisti e pragmatici (come Timnit Gebru che qui lo critica aspramente), e invece appoggiato da chi voleva fare business perché la narrazione di avere le chiavi di una AI super potente permette di spostare la conversazione su rischi lontani, rendendo al tempo stesso chi la sostiene un interlocutore privilegiato dei governi, ora è come se alcuni tra i tecno-ottimisti e “i team capitalisti” si fossero accorti che può essere una zavorra o un problema.
E per ora è in questo contesto che leggerei anche l’ultima notizia data da Reuters secondo la quale una demo di un modello chiamato Q*, presumibilmente capace di risolvere semplici operazioni matematiche, avrebbe scatenato le speranze (e le paure) di stare a un passo dall’AGI. Che questo elemento abbia giocato un ruolo nel rovesciamento del board per ora però è contestato da altri resoconti. In quanto all’aspetto tecnico e alla sua portata (con annessi sensazionalismi), rilevo solo lo scetticismo o quanto meno la forte cautela di molti ricercatori e accademici (da Yann Lecun a Pedro Domingo ad Antonio Casilli).
A questo punto bisogna chiedersi: la sconfitta parziale di rischio-esistenzialisti, altruisti effettivi e fautori dell’AGI lascerà più spazio a chi porta avanti istanze attuali e concrete di difesa dei diritti, di trasparenza e accountability nell’AI? O segna il trionfo del laissez-faire?
AIACT
L’alleanza per cambiare l’AI Act
Le Big Tech statunitensi, i Paesi europei, le startup europee ben collegate e gli ex ministri francesi stanno tutti usando la loro considerevole influenza e il loro capitale politico per modificare drasticamente le regole europee sull'intelligenza artificiale attraverso un'intensa attività di lobbying.
Il loro obiettivo? Eliminare i "modelli di base" - le AI più potenti e all'avanguardia come ChatGPT di OpenAI - dalla storica legge dell'Unione Europea sull'AI. Questa alleanza, ben organizzata e politicamente potente, cerca di far ricadere la regolamentazione esclusivamente sugli sviluppatori di applicazioni, sostiene un editoriale di Euractiv. Se avete letto la mia scorsa newsletter, avevo parlato proprio di questo scenario.
DIGITAL AFTERLIFE
L’inquietante industria dell’aldilà digitale
Non ci sono solo i testamenti digitali. Una serie di startup e progetti aziendali vogliono ricreare il caro estinto in forma digitale. Con cui interagire. Nuovo articolo su Guerre di Rete a firma di Andrea Signorelli.
”Le sperimentazioni di Kuyda, però, non sono le uniche che ambiscono a portare l’industria della “digital afterlife” al livello successivo. Già cinque anni fa erano state identificate ben 57 startup attive nel settore, tra queste troviamo HereAfter, che invia ricordi interattivi letti con la voce della persona defunta; MyWishes, che invia messaggi alle persone care dopo la scomparsa dell’utente; o StoryFile, che permette di ricevere risposte registrate in vita dai propri cari defunti, selezionandole automaticamente in base alla domanda posta.”
ITALIA
Come funziona la prima simulazione di voto elettronico in Italia
Entro fine anno il governo deve spendere un milione di euro per sperimentare il voto da remoto. Il 13 e 14 dicembre il test. Chi partecipa. E chi sta costruendo la piattaforma digitale. L'inchiesta di Wired Italia.
SANITA’ IN UK
Dati sanitari e Palantir
Palantir Technologies, la società di analisi dei dati co-fondata dal miliardario Peter Thiel, si è aggiudicata un contratto per la riorganizzazione del sistema di dati dei pazienti del Servizio Sanitario Nazionale nel Regno Unito. Con molte polemiche.
CYBERGUERRA
La battaglia dei droni e dell’electronic warfare sul fronte ucraino, raccontata dal NYT
CONVEGNI
Giornate di studio Game of Tech
Il 20 dicembre parteciperò a Game of Tech, le Giornate di Studio organizzate dal collettivo di dottorandə del Dipartimento di Scienze Sociali dell’Università di Napoli Federico II di cui Guerre di Rete è media partner.
Tre panel e due workshop per coniugare l'innovazione tecnologica con la responsabilità e la sensibilità sociale, per rispettare la dignità umana ed evitare di riprodurre ingiustizie e discriminazioni. Partecipazione libera e gratuita, in modalità ibrida, previa compilazione del form.
Qui tutte le informazioni.
DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua cliccando sul bottone rosso Subscribe now, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo). Non ha sponsor né pubblicità, né aziende o lobbies alle spalle.
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)