Guerre di Rete - Chi domina la conversazione sull'AI
Che dice l'executive order Usa e perché è stato criticato il summit inglese.
Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.172 - 12 novembre 2023
In questo numero:
- Speciale AI e politica: chi vuole dominare la conversazione
- Il futuro dei social è decentralizzare
- Creare insieme o contro l’algoritmo?
AI E POLITICA
Chi domina la conversazione sull’intelligenza artificiale
Tra fine ottobre e inizio novembre abbiamo assistito a un climax di incontri, iniziative e dichiarazioni di policy sull’intelligenza artificiale. Ordine esecutivo americano, dichiarazione del G7, AI Safety Summit in UK, mentre sullo sfondo procedono, in una specie di corsa a ostacoli, gli ultimi lavori dell’AI Act, l’atteso regolamento europeo sull’AI che deve chiudersi all’inizio del nuovo anno per non ritrovarsi impantanato nelle prossime elezioni europee. Non potevano mancare le Nazioni Unite, che hanno appena creato un comitato consultivo che dovrebbe emanare a breve delle raccomandazioni.
Dunque dopo la corsa a far uscire i prodotti di AI generativa e aprirli al grande pubblico (che racconto da mesi a partire da questo numero della newsletter Guerre di Rete), ora siamo allo sprint dei politici, dei diplomatici e dei loro sherpa.
L’ordine esecutivo degli Usa
Iniziamo con l’ordine esecutivo di Biden, decine e decine di pagine dettagliate (qui il documento completo), seguite da un’importante guida all’implementazione da parte dell’Office of Management and Budget (ancora in fase di bozza, che può quindi ricevere commenti e feedback).
I due documenti richiedono agli “sviluppatori dei più potenti sistemi di intelligenza artificiale di condividere i risultati delle loro valutazioni di sicurezza e altre informazioni critiche con il governo degli Stati Uniti”. Ma impongono anche alle agenzie federali di sviluppare standard, strumenti e test per garantire che i sistemi di AI siano sicuri e affidabili. Di promuovere un ecosistema competitivo e aperto. E poi di proteggere i cittadini dalla discriminazione algoritmica, o dalla violazione della privacy; e i lavoratori da possibili impatti negativi. Oltre che dare linee guida chiare agli uffici federali per gestire e utilizzare prodotti e servizi di AI.
L’ordine esecutivo arriva a utilizzare il Defense Production Act dell'epoca della guerra di Corea, “un atto tipicamente invocato durante le emergenze nazionali, per richiedere che gli sviluppatori di potenti modelli di base informino il governo quando stanno addestrando i modelli e condividano i risultati di tutti i test di sicurezza dei loro red team”, scrive l’ong Epic. “Altre direttive tecniche prevedono che il NIST (l’agenzia che promuove l’innovazione, ndr) stabilisca degli standard per i test di sicurezza pre-deployment (pre-rilascio) per i modelli di base dell'AI e che il Dipartimento del Commercio sviluppi delle linee guida sul watermarking, l'autenticazione dei contenuti e altri strumenti di etichettatura che le agenzie utilizzeranno per differenziare le comunicazioni autentiche del governo dai contenuti creati dall'AI”.
C’è questo e molto altro nell’ordine esecutivo, tanto che è stato accusato di inglobare un po’ di tutto, istanze diverse, della società civile e delle aziende tech, e in ultima analisi di dare un colpo al cerchio e uno alla botte (per un’analisi di questa ambivalenza, e anche dello sforzo dell’amministrazione Biden-Harris di tenere assieme sicurezza, giustizia e innovazione, rimando a un articolo di The Atlantic di due giornalisti competenti come Karen Hao e Matteo Wong).
Ma, da un certo punto di vista, il fatto di aver incluso più prospettive, a partire dalla sfera dei diritti (proseguendo la strada tracciata già dal Blueprint for an AI Bill of Rights, un documento governativo pubblicato nell’ottobre 2022 sui principi da seguire per un’AI responsabile) deve essere visto come un merito. Che si sposa a un approccio pragmatico e a tutto campo dell’amministrazione Usa, specie se comparato con quanto emerso dall’AI Safety Summit in Gran Bretagna.
Il codice volontario del G7
Prima però ricordiamo che a fine ottobre c’è stato anche un forum del G7, che ha prodotto un codice di condotta volontario per fornire una guida a quelle organizzazioni “che sviluppano i sistemi di AI più avanzati, compresi i modelli di base e i sistemi di AI generativi".
Si chiama Hiroshima AI Process (dal nome della città giapponese in cui si è svolto il primo forum su questo tema) e si basa su un documento dedicato proprio all’AI generativa in cui le priorità principali per i Paesi del G7 sono enunciate a chiare lettere: uso responsabile dell’AI generativa, occuparsi della disinformazione, salvaguardare i diritti di proprietà intellettuale, occuparsi di privacy e data governance, trasparenza, equità (fairness) e pregiudizi (bias), diritti umani, sicurezza e robustezza di questi sistemi, e infine il loro impatto sul funzionamento delle democrazie.
Anche qui dunque troviamo vari campi di intervento, ma anche qui riscontriamo un approccio che tiene conto di questioni molto pragmatiche, attuali e diverse.
L’AI Safety Summit in Gran Bretagna
Dal suo canto, l’AI Safety Summit di inizio novembre, voluto dal primo ministro inglese Rishi Sunak, ha in qualche modo innescato una conversazione insieme più teorica e unilaterale, inducendo una serie di soggetti attivi nel settore dell’intelligenza artificiale o in generale della tecnologia a prendere posizione e a esprimersi pubblicamente.
A livello pratico il summit di due giorni ha prodotto un impegno legalmente non vincolante da parte di alcuni big del settore (OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft, Inflection e Meta) in cui si concede ad alcuni governi (inclusa l’Italia) di testare i loro ultimi modelli per verificare la sicurezza e altri rischi prima che vengano rilasciati alle aziende e ai consumatori. Inoltre, un gruppo internazionale di esperti - inizialmente presieduto da Yoshua Bengio, professore di informatica all'università di Montreal e considerato tra i pionieri del deep learning - “redigerà un rapporto annuale sui rischi in evoluzione dell'AI, tra cui pregiudizi, disinformazione e rischi "esistenziali" più estremi, come facilitare lo sviluppo di armi chimiche”, scrive il FT.
The Bletchley Declaration e la sua ideologia trainante
Ma vale la pena anche qui andare a leggere le carte, ovvero il documento (policy paper) prodotto dal summit e intitolato The Bletchley Declaration. Dopo un primo tributo alle opportunità si passa ai rischi (del resto il tema del summit era la safety, la sicurezza).
Tra questi, e in generale tra le questioni che vanno esaminate, meritano considerazione la trasparenza, l'equità, l’adeguata supervisione umana, l'etica, l'attenuazione dei pregiudizi, la protezione dei dati. Una sfilza di principi molto generici e sui quali appare difficile obiettare (come obiettare alla pace nel mondo), se non fosse che è proprio andando nel dettaglio su questi temi che escono le magagne e le contraddizioni.
Dopodiché si arriva al cuore concettuale del documento:
“Particolari rischi per la sicurezza sorgono alla "frontiera" dell'AI, intesa come quei modelli di intelligenza artificiale che hanno un’ampia gamma di usi (general purpose), compresi i modelli di base (...) Rischi sostanziali possono derivare da un potenziale uso improprio intenzionale o da problemi involontari di controllo relativi all'allineamento con le intenzioni umane. Questi problemi sono in parte dovuti al fatto che queste capacità non sono pienamente comprese e sono quindi difficili da prevedere. Siamo particolarmente preoccupati da questi rischi in settori come la sicurezza informatica e le biotecnologie, nonché nei casi in cui i sistemi di AI di frontiera possono amplificare rischi come la disinformazione. Le capacità più significative di questi modelli di AI possono causare danni gravi, persino catastrofici, sia intenzionali sia non intenzionali (…). Affermiamo che è particolarmente urgente approfondire la comprensione di questi rischi potenziali e delle azioni per affrontarli”.
Intanto una breve analisi linguistica del documento. I riferimenti “AI di frontiera”, “allineamento”, rischi o danni catastrofici o “esistenziali” sono segnaposti molto specifici della cartografia concettuale di una certa visione dell’AI. Quella che sottolinea come l’intelligenza artificiale sia avviata verso la creazione di una AGI (Artificial General Intelligence), un concetto come ho raccontato altre volte in newsletter piuttosto vago ma che allude allo sviluppo di un’intelligenza complessivamente superiore a quella umana, dotata di autonomia e capacità di agire, e quindi a rischio di risultare incontrollabile. Da questo primo assunto (estremamente divisivo e contestato nella comunità di ricercatori) discendono dunque una serie di rischi catastrofici, anzi, esistenziali, che cioè potrebbero arrivare a mettere a rischio la stessa umanità.
In genere chi promuove questa prospettiva appare poco interessato ad affrontare nel concreto i rischi e le questioni più di basso livello (si fa per dire, ma ovviamente di fronte al rischio estinzione è tutto di basso livello) legate alla trasparenza nell’uso dei dati e nella realizzazione dei modelli, alle violazioni della privacy, alla perpetuazione di pregiudizi e all’emergere di nuove forme di discriminazione algoritmica, al consumo di risorse, all’accentramento di questa tecnologia nella mani di poche grandi aziende, a cosa significa open source nell’AI, agli effetti di queste tecnologie (per altro ancora altamente imperfette anche in applicazioni molto limitate) nel mondo del lavoro, o della sanità, alla eventuale perdita o più probabilmente precarizzazione di posti di lavoro, alla speculazione finanziaria legata al settore e al rischio di bolla (Web3, remember?), e potrei andare avanti ancora perché le opportunità di questa tecnologia sono molte (qui nessuno le nega, a scanso di equivoci) ma le questioni da affrontare sono ugualmente numerose.
Le critiche all’AI Safety Summit
Il risultato di tutto ciò è che l’AI Safety Summit ha prodotto, come accennavo all’inizio, reazioni accese. Una parte di queste si sono rivolte verso il governo britannico, accusato di aver organizzato un incontro dominato da questa concezione di AI (che i critici chiamano AI doomerism) e intrecciata con filoni di pensiero e di lobbying che si rifanno all’altruismo efficace (un movimento diffuso tra l’università di Oxford e la Silicon Valley, da cui è ben foraggiato). Del resto, scrive Politico, il rappresentante ufficiale del primo ministro britannico per l’AI Safety Summit, è l’investitore Matt Clifford, che pur non considerandosi un altruista efficace, “sembra generalmente solidale con la loro causa”.
E prima ancora del summit, un altro articolo di Politico notava come “i consiglieri governativi più importanti che simpatizzano con le preoccupazioni del movimento (dell’altruismo efficace), insieme agli stretti contatti di Sunak con i leader dei laboratori di AI - che hanno legami di lunga data con il movimento - hanno contribuito a spingere il "rischio esistenziale" in cima all'agenda politica del Regno Unito”.
Tra questi un ruolo chiave è stato giocato da Ian Hogarth (già investitore in varie aziende di AI), che ha poi presieduto la Foundation Model Taskforce, una task force governativa. Sotto di lui la taskforce (poi ribattezzata Frontier Model, per l’appunto) ha annunciato una nuova serie di partner, alcuni dei quali hanno legami con l’altruismo efficace (cioè sono organizzazioni alimentate da donatori di quell’area). Tra queste c’è il Centre for AI Safety, il centro che ha messo a punto la famosa lettera sul "rischio di estinzione dell'AI", ben finanziato da Open Philanthropy, baluardo dell’altruismo efficace.
Ma a insistere su questi legami è un’inchiesta dell'organizzazione giornalistica noprofit The Citizen, che scrive: “Un gruppo elitario al centro della strategia britannica per l'intelligenza artificiale rischia di essere indebitamente influenzato da interessi privati”. L'organizzazione prosegue evidenziando gli investimenti da parte di soggetti come Google, DeepMind, la già citata Open Philantropy nella attività e società di diversi esponenti della taskforce governativa.
La società civile, messa da parte, si ribella
Anche Business Insider rileva che “diversi gruppi hanno criticato l'enfasi posta dal governo britannico su alcuni dei rischi più esistenziali dell'AI, mettendo in secondo piano altre preoccupazioni forse più pressanti”, e cita Merve Hickok, presidente del Center for AI and Digital Policy, secondo la quale il vertice sarebbe iniziato con un impegno condiviso con gli Stati Uniti per lavorare insieme sui valori democratici di questa tecnologia. Ma "poi, in qualche modo, dopo gli incontri del primo ministro con le aziende tech, ha iniziato a concentrarsi solo sulla crisi esistenziale così come viene definita dall’idea di un’AGI che prenda il controllo", ha dichiarato, aggiungendo che al tavolo stavano principalmente le aziende tech e che la società civile sarebbe stata messa da parte.
Nel mentre arrivava una bordata da un centinaio di Ong - incluse Amnesty International, Access Now, Privacy International - sindacati, e istituti di ricerca e policy - come l’AI Now Institute o membri dell’Alan Turing Institute - che firmavano una lettera aperta al governo dove sta scritto (neretti miei): “Le comunità e i lavoratori più colpiti dall'AI sono stati emarginati dal summit. Il coinvolgimento delle organizzazioni della società civile, che apportano una diversità di competenze e prospettive, è stato selettivo e limitato. Si tratta di un'opportunità mancata. Allo stato attuale, il summit è un evento a porte chiuse, eccessivamente incentrato sulle speculazioni sui remoti "rischi esistenziali" dei sistemi di AI "di frontiera" - sistemi costruiti dalle stesse multinazionali che ora cercano di dettare le regole”.
Chi vuole una AI aperta
Ma non era ancora finita. Sempre in quei giorni è arrivata anche un’altra lettera aperta (sulla politiche dell’AI si sta formando un epistolario che neanche Joseph Conrad), coordinata da Mozilla (la no profit dietro a Firefox e sostenitrice di vari progetti open source), e firmata da oltre un migliaio di ricercatori, attivisti e personalità del mondo tech. Ma cosa dice la lettera? Che bisogna spingere e promuovere la trasparenza così come modelli aperti di intelligenza artificiale e non modelli chiusi e proprietari, anche e soprattutto quando si parla di sicurezza:
“Siamo a un punto critico nella governance dell'AI. Per mitigare i danni attuali e futuri dei sistemi di AI, dobbiamo favorire l'apertura, la trasparenza e l'ampio accesso. Questo deve essere una priorità globale. È vero che i modelli aperti e accessibili comportano rischi e vulnerabilità: possono essere abusati da attori malintenzionati o utilizzati da sviluppatori non adeguatamente preparati. Tuttavia, abbiamo visto più volte che lo stesso vale per le tecnologie proprietarie e che incrementare l'accesso pubblico e la supervisione rendono la tecnologia più sicura, non più pericolosa (...) Rappresentiamo prospettive diverse e a volte divergenti, comprese le diverse opinioni su come l'AI open source dovrebbe essere gestita e rilasciata. Tuttavia, su una cosa siamo fortemente d'accordo: approcci aperti, responsabili e trasparenti saranno fondamentali per mantenere la sicurezza nell'era dell'AI”.
Ci sono firme importanti, di peso, del mondo AI in questa lettera. C’è ovviamente Yann Lecun, Chief AI Scientist a Meta e considerato un altro pioniere del deep learning, che da tempo polemizza con i modelli chiusi e i fautori dell’AI doomerism. C’è Andrew Ng, già Google Brain, professore a Stanford, fondatore di DeepLearning.AI. C’è la nota scienziata cognitiva Abeba Birhane. C’è il tecnologo ed esperto di cybersicurezza Bruce Schneier. C’è la professoressa Melanie Mitchell, autrice di un bel libro sull’intelligenza artificiale di cui ho anche scritto nella mia newsletter e che è tradotto anche in italiano. Ex parlamentari europee che si sono occupate a lungo di tecnologia e diritti come Marietje Schaake. E molti altri.
Proprio Andrew Ng negli stessi giorni dichiarava ai media: “Ci sono sicuramente grandi aziende tech che preferirebbero non dover cercare di competere con l'open source, quindi stanno creando la paura che l'AI porti all'estinzione umana. È stata un'arma per i lobbisti per sostenere una legislazione che sarebbe molto dannosa per la comunità open source".
Chi vuole una AI democratica e inclusiva
Ma il dibattito non si è limitato alle missive, è ovviamente tracimato sui social. Dove si è aggiunta una terza posizione (terza si fa per dire, dato che le posizioni sono tante e sfumate). Quella di persone come Meredith Whittaker, presidente di Signal e Chief Advisor all’AI Now Institute, che scrive: “Non ho firmato questa dichiarazione - ha twittato in riferimento alla lettera di Mozilla - anche se sono d'accordo sul fatto che l'AI "aperta" non sia nemica dell'AI "sicura". Ma non posso approvare la sua premessa secondo la quale “l'apertura" da sola "mitigherà i danni attuali e futuri dell'AI", né che sia un antidoto alla concentrazione di potere nell'industria dell'AI.
Questo è particolarmente vero in un ecosistema in cui il termine "aperto", nel contesto dell'AI, non ha una definizione chiara, lasciandolo in balia di abusi e strumentalizzazioni da parte di aziende come Meta (che ha firmato e sta attualmente brandendo questa stessa dichiarazione per promuovere le proprie offerte di AI fintamente "aperte").
Insomma, dice Whittaker, l’AI aperta, anche ammesso di essere tutti d’accordo sulla definizione, “non livella il campo di gioco nell'industria concentrata dell'AI: le risorse necessarie per creare/implementare l'AI rimangono nelle mani di poche aziende”.
E questo è solo un frammento del dibattito che si sta sviluppando. Ma mi piace concludere con il tweet di un altro ricercatore di AI: “Si può essere stupiti dell'AI generativa (e dei modelli linguistici di grandi dimensioni), pur riconoscendone i limiti. Si può essere preoccupati per l'apertura di nuove superfici di attacco da parte dell'AI generativa (e dei suddetti modelli), senza però preoccuparsi di false minacce. Si può resistere sia all’hype che al doom (catastrofe). Immaginate!”
Ecco, in questa fase così turbolenta, serve resistere sia all’hype sia ai catastrofismi con un’agenda. E serve che ognuno non rinunci alla propria capacità di immaginazione, evitando di farsi dettare l’immaginario dalle priorità altrui.
SOCIAL MEDIA
Il futuro dei social è decentralizzare
In questo ultimo anno Elon Musk sembra non aver fatto altro che alimentare il malcontento del pubblico di X, convincendolo a spostarsi su altre piattaforme, alla ricerca di un’alternativa al Twitter di un tempo. Secondo le società di analisi dei dati come SimilarWeb e Sensor Tower, infatti, gli utenti attivi giornalieri sulla piattaforma sono diminuiti del 15-16% tra settembre 2022 e settembre 2023, segnando così uno degli esodi più tristi della storia di Twitter. Ma come funzionano davvero i “rivali” Bluesky e Mastodon? Quali sono le caratteristiche che li accomunano? E qual è il futuro che li attende?
Lo racconta Chiara Crescenzi in questo approfondimento per il nostro sito Guerre di Rete.
A proposito di social. Wired Italia fa il punto su quanti sono i moderatori delle piattaforme in Europa. Spoiler: pochi.
AI E ARTISTI
Creare insieme o contro l’algoritmo?
La diffusione capillare di intelligenze artificiali generative sta già avendo un impatto sugli artisti. Cambierà anche il nostro modo di essere creativi?
Un approfondimento di Federico Nejrotti che fa parte del nostro ebook Generazione AI uscito a inizio settembre solo per i donatori di Guerre di Rete.
Leggi tutto l’articolo.
APPROFONDIMENTI
C’è una lotta attorno all’intelligenza artificiale e il giornalismo è al centro - Valigia Blu
EVENTI /CONVERSAZIONI
L’Università di Torino e il Circolo dei Lettori hanno organizzato un ciclo di incontri sull’AI. Li raccomando tutti - anche se sono parte in causa, dato che ho partecipato in questo specifico panel su “L’AI è il futuro dell’informazione o della disinformazione” (nel video qua sotto). Qua tutto il ciclo.
Abbiamo parlato di AI ma dal punto di vista della governance e politica anche al Festival Glocal. Io ho detto più o meno quanto trovate oggi in newsletter, ma consiglio di ascoltare gli altri relatori e specie Brando Benifei (qui video).
Uscito anche il ciclo di podcast della Fondazione Scuola dei beni e delle attività culturali e finanziato dall'Unione Europea sul digitale, dove c’è Andrea Signorelli che mi intervista in generale sulla trasformazione digitale dal punto di vista della sicurezza e dei diritti (taglio divulgativo, per un pubblico non addentro a questi temi).
DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua cliccando sul bottone rosso Subscribe now, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo). Non ha sponsor né pubblicità, né aziende o lobbies alle spalle.
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)