Guerre di Rete - Ciao GPT-4, arrivederci team sull'etica AI
Trasparenza ed etica dell'AI. Il piano della Cina per il digitale.
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.155 - 18 marzo 2023
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 11mila iscritti - ma molti più lettori, essendo pubblicata anche online - e oltre 500 sostenitori) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione. La prima campagna per raccogliere fondi è andata molto bene, e qua ci sono i dettagli (qua la lista degli oltre 500 donatori).
In più, a marzo il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito.
In questo numero:
- Ciao GPT-4, addio team sull’etica
- Trasparenza ed etica dell’AI
- Il grande piano della Cina per il dominio sul digitale
- Cloud, Spid e altro
Ciao GPT-4, arrivederci team sull’etica
Nella settimana in cui la corsa all'intelligenza artificiale fa l'ennesimo balzo in avanti, le questioni etiche e soprattutto i team che si occupano di etica in relazione a questa tecnologia sono mollati indietro come un'inutile zavorra.
Microsoft ha licenziato l'intero gruppo di etica e società nella divisione di intelligenza artificiale, nell'ambito dei recenti licenziamenti che hanno colpito 10.000 dipendenti in tutta l'azienda. “La mossa lascia Microsoft senza un team dedicato a garantire che i principi dell'AI siano strettamente legati alla progettazione dei prodotti”, in un momento in cui l'azienda è in prima linea per rendere questi strumenti disponibili al grande pubblico, scrive The Platformer. Malgrado Microsoft rassicuri sul suo impegno in relazione a uno sviluppo responsabile di questa tecnologia, e malgrado esista ancora un dipartimento dedicato a creare regole per governare le iniziative AI dell’azienda (Office of Responsible AI), quel team aveva un compito molto specifico e interessante. Si occupava cioè di riportare le dichiarazioni di principio nel design dei prodotti, insomma di applicarle.
“L'eliminazione del team Etica e società è avvenuta proprio quando i dipendenti rimasti si stavano concentrando sulla sfida più grande - scrive ancora The Platformer - anticipare ciò che sarebbe accaduto quando Microsoft avrebbe rilasciato strumenti basati su OpenAI a un pubblico globale. L'anno scorso, il team ha redatto un promemoria che illustrava i rischi per il marchio associati a Bing Image Creator, [uno strumento] che utilizza il sistema DALL-E di OpenAI per creare immagini a partire da testi. (...) Sebbene la tecnologia text-to-image si sia dimostrata estremamente popolare, i ricercatori di Microsoft avevano correttamente previsto che avrebbe potuto anche minacciare il sostentamento degli artisti, consentendo a chiunque di copiare facilmente il loro stile. ‘Nel testare Bing Image Creator, si è scoperto che con una semplice richiesta che includeva solo il nome dell'artista e un mezzo (pittura, stampa, fotografia o scultura), le immagini generate erano quasi impossibili da distinguere dalle opere originali’, avevano scritto i ricercatori nella nota”.
Ecco GPT-4
Al di là di qualsiasi altra considerazione, il tempismo non poteva essere più simbolico. Infatti come sapete in questi giorni OpenAI ha annunciato GPT-4, il suo ultimo modello linguistico di AI che nella versione precedente abbiamo visto all’opera nel chatbot ChatGPT (e nel nuovo Bing che però, è emerso ora, stava già usando GPT-4). Non mi soffermo molto su GPT-4 perché ne ha scritto il mondo (qui un pezzo riepilogativo del NYT). In sintesi, secondo OpenAI il nuovo modello (disponibile al grande pubblico tramite ChatGPT Plus, l'abbonamento mensile di OpenAI o attraverso Bing di Microsoft, dove è adattato alla ricerca) sarebbe "più creativo e collaborativo” e potrebbe “risolvere problemi difficili con maggiore precisione" mantenendo però molte delle precedenti criticità, tra cui la tendenza a inventare informazioni (o "allucinazioni") e la capacità di generare testi violenti e dannosi. Tra le novità più interessanti il fatto che possa analizzare input sia di testo che di immagine (anche se può rispondere solo tramite testo e per il pubblico per ora è solo testuale). Ma anche che appaia ancora più credibile a livello formale: secondo il giornalista e imprenditore Ben Parr “gli strumenti esistenti per rilevare [testi prodotti da] l'intelligenza artificiale falliscono con GPT-4. L'ho appena testato: due diversi rilevatori di AI hanno pensato che un testo GPT-4 da me generato fosse umano al 100%”.
Per riassumere la strada fatta finora da questi modelli ricordiamo che il primo paper che descriveva GPT è stato pubblicato nel 2018, GPT-2 è stato annunciato nel 2019 e GPT-3 nel 2020. “Questi modelli vengono addestrati su enormi dataset di testi, in gran parte prelevati da Internet, che vengono analizzati per individuare modelli statistici”, scrive The Verge.
Ora siamo arrivati a GPT-4 che nel suo report tecnico (firmato OpenAI) scrive: “Dato il panorama competitivo e le implicazioni per la sicurezza di modelli di grandi dimensioni come GPT-4, il presente rapporto non contiene ulteriori dettagli sull'architettura (comprese le dimensioni del modello), sull'hardware, sulla quantità di calcolo impiegata, sulla costruzione del set di dati, sul metodo di training o simili”.
Trasparenza ed etica dell’AI
Dunque non è dato sapere quasi nulla (tranne i successi, invece molto dettagliati), di questo modello, oscurità totale su informazioni cruciali per valutare tecnologie di questo tipo, con buona pace della parola “open” nel nome OpenAI.
“GPT-4 è la release più segreta che l'azienda abbia mai rilasciato, segnando la sua completa transizione da laboratorio di ricerca no-profit a azienda tecnologica a scopo di lucro”, commenta anche MIT Technology Review. “OpenAI ha scelto di non rivelare le dimensioni di GPT-4. In deroga ai suoi precedenti rilasci, l'azienda non rivela nulla di come è stato costruito GPT-4: né i dati, né la quantità di potenza di calcolo, né le tecniche di addestramento. ‘OpenAI è ora un'azienda completamente chiusa, con una comunicazione scientifica simile ai comunicati stampa di prodotto’, ha commentato Thomas Wolf”, cofondatore di un’altra startup del settore, Hugging Face.
La mancanza di trasparenza è lamentata da molti ricercatori. Ad esempio per Irina Raicu, direttrice del Programma di internet ethics presso il Markkula Center for Applied Ethics dell'Università di Santa Clara, è fondamentale che i colleghi ricercatori abbiano accesso al set di dati di addestramento del chatbot: "Sapere cosa c'è nel set di dati consente ai ricercatori di evidenziare ciò che manca", afferma (sulla testata Fast Company).
Del resto, come scrive il professore Luciano Floridi in Etica dell’intelligenza artificiale (libro imprescindibile, specie poi di questi tempi), soprattutto nel caso di algoritmi e modelli di machine learning (apprendimento automatico), «l’assenza di trasparenza - intrinsecamente dovuta ai limiti della tecnologia, derivanti da decisioni di design e dall’offuscamento dei dati sottostanti (...) oppure dovuta a vincoli giuridici in termini di proprietà intellettuale - si traduce spesso in una mancanza di controllo e/o di responsabilità (..) e conduce a una mancanza di ‘“affidabilità”».
In ultima analisi la trasparenza è la base da cui discendono altre valutazioni etiche, “fa parte delle condizioni di possibilità del comportamento etico”.
Google, gli altri e la corsa all’AI
Nel frattempo Google si muoveva lato business (più che consumatori) annunciando di aver messo a disposizione degli sviluppatori il proprio modello linguistico PaLM (qui API PaLM) e di aver introdotto delle funzioni di chatbot in Google Docs e Gmail (ancora non per gli utenti normali).
PaLM è un modello linguistico di grandi dimensioni (LLM) simile alla serie GPT creata da OpenAI, e dovrebbe aiutare le imprese a "generare testo, immagini, codice, video, audio e altro ancora da semplici richieste in linguaggio naturale". Si può addestrare PaLM a diventare un chatbot conversazionale come ChatGPT, oppure utilizzarlo per compiti come il riassunto di testi o la scrittura di codice. E proprio per facilitare agli sviluppatori l'addestramento di PaLM a svolgere compiti specifici, Google sta lanciando una nuova applicazione chiamata MakerSuite. Per The Verge si tratta di “una grande spinta da parte di Google per mettere più strumenti di AI nelle mani di più aziende (...) di un altro motore che alimenterà i nuovi sviluppi dell'AI nel 2023”.
Questo mentre un’altra startup, AI Anthropic, annunciava un nuovo modello linguistico di grandi dimensioni chiamato Claude, già sperimentato da diverse aziende, tra cui Notion e Quora.
A quel punto Microsoft ha rilanciato annunciando Microsoft 365 Copilot, con cui vuole integrare l’AI con la sua suite di app di produttività e aziendali. “Attualmente in fase di test con una ventina di clienti commerciali selezionati, Copilot combina la potenza dei modelli di AI, tra cui l’appena annunciato GPT-4 di OpenAI, con i dati aziendali e le app di Microsoft 365 come Word, Excel, PowerPoint, Outlook e Teams”, scrive TechCrunch.
“Tutte le aziende di AI si sono riunite in segreto e hanno deciso di annunciare tutti i loro nuovi prodotti nello stesso giorno? - scrive ancora Parr - Stavano forse cercando di introdurre le loro novità prima che un'altra crisi finanziaria si impadronisse del ciclo delle notizie?”.
Inevitabilità tecnologica?
Nessuna riunione, ma una corsa adrenalinica per arrivare primi, whatever it takes.
Scrive Ezra Klein sul NYT ragionando sul dilemma (attualmente vissuto in modo spensierato) cui ci troviamo di fronte: “Se avessimo a disposizione secoli per adattarci, forse potremmo farlo in modo pulito. Ma non li abbiamo. Le principali aziende tecnologiche sono in competizione per il dominio dell'AI. Gli Stati Uniti e la Cina sono in corsa per il dominio dell'AI. Il denaro sta affluendo verso le aziende con competenze nell'AI. Suggerire di rallentare, o addirittura di fermarsi del tutto, appare ormai infantile. Se un'azienda rallenta, un'altra accelererà. Se un Paese si ferma, gli altri spingeranno di più. Il fatalismo diventa l'ancella dell'inevitabilità e l'inevitabilità diventa la giustificazione dell'accelerazione”.
La corsa all’AI e questo dilemma si inseriscono in una ideologia già da anni dominante in Silicon Valley e dintorni per cui esiste una inevitabilità tecnologica che come una forza della natura trascinerà a rimorchio, che lo vogliano o meno, economia, società, politica. Per cui bisogna adattarsi (e chi può, cavalcare l’ondata) o perire. Ma soprattutto bisognerà tenere in secondo piano tutti quegli aspetti che legano l’AI a decisioni individuali o di specifiche organizzazioni, a un sistema economico, a un mercato del lavoro, a un consumo di risorse, insomma a tutto ciò che incrina l’idea di un determinismo tecnologico che ci governa, per il quale all’azione della politica deve restare solo il compito di aggiustare alla bell’e meglio e quando è già tardi una parte dei cocci lasciati per strada.
Servono approcci più aperti e partecipativi
E però le voci perplesse non mancano. Qualcuno nota che i licenziamenti dei responsabili dell’etica da parte di Microsoft e il rifiuto di OpenAI di rivelare i dettagli sull'architettura del modello GPT-4 e sul suo addestramento “sono un chiaro segno che l'autoregolamentazione e la ‘regolamentazione agile’ non fanno l'interesse pubblico. Abbiamo bisogno di approcci più aperti e partecipativi alla definizione delle politiche e alla governance(...) I leader dell'industria tecnologica stanno facendo capire sempre più chiaramente che non si preoccupano dell'impatto sociale dell'AI. La loro principale preoccupazione è quella di essere i primi sul mercato in una nuova categoria di prodotti redditizi. A tal fine, sono disposti a scaricare ogni tipo di onere sulla società.”
Altri ribadiscono quanto osservavo all’inizio. Che con la parola Open (aperto) di Open AI possiamo chiuderla qua: “Il documento di 98 pagine che introduce GPT-4 dichiara con orgoglio di non divulgare *nessuno* dei contenuti del suo set di addestramento”. Eppure, prosegue Ben Schmidt in una serie di critiche su Twitter che meritano di essere riportate quasi per intero, ogni pubblicazione accademica sui set di dati di ML (machine learning o apprendimento automatico) ha individuato dei modi problematici in cui i dati di addestramento condizionano i risultati dei modelli:
“La scelta dei dati di addestramento riflette pregiudizi storici e può infliggere ogni sorta di danno. Per migliorare questi danni e per prendere decisioni informate su dove un modello non dovrebbe essere usato, dobbiamo sapere quali tipi di pregiudizi sono incorporati. Ma le scelte di OpenAI rendono tutto questo impossibile. Le reti neurali alla GPT-4 sono notoriamente delle scatole nere; il fatto che le loro operazioni siano imprevedibili e imperscrutabili è una delle questioni più importanti per capire se e dove dovrebbero essere utilizzate. E ora OpenAI sta creando uno standard per estendere ulteriormente questo mistero. Il loro argomento è fondamentalmente una combinazione di "fidati di noi" e "il fine-tuning risolverà tutto". Ma il modo in cui hanno costruito i dataset in passato non dovrebbe ispirare fiducia. Quando OpenAI ha lanciato GPT-2, la sua idea brillante era di trovare pagine di "alta qualità" usando i voti su Reddit”. E ancora scrive: “È difficile credere che la "concorrenza" e la "sicurezza" siano le uniche ragioni della segretezza di OpenAI, quando nascondere i dati di addestramento rende più difficile seguire il copione anti-Stability [quanto successo a Stability AI, la startup dietro allo strumento di AI generativa di immagini Stable Diffusion contro cui alcuni artisti e altri soggetti hanno intentato azioni legali, ndr] e fargli causa per essersi appropriati del lavoro di altri”.
DIGITALE E GEOPOLITICA
Il grande piano della Cina per il dominio sul digitale
Il 28 febbraio la Cina ha pubblicato il 数字中国建设整体布局规划, “Il piano generale per la costruzione della Cina digitale”, secondo il quale “Costruire una Cina digitale è importante per il progresso della modernizzazione cinese nell’era digitale e fornisce un solido supporto per lo sviluppo di nuovi vantaggi nella competitività del paese”.
Il piano si inserisce in un percorso che è ormai avviato da qualche anno e che si basa su alcuni assunti: secondo alcuni osservatori, il progetto è “la prima ‘grande strategia digitale’ al mondo”, dato che “Xi Jinping intende utilizzare gli effetti di trasformazione della Cina digitale per inaugurare un’era d’oro della governance (…). La realizzazione di una forma di governance più efficiente consentirà l’emergere di una nuova smart society, maggiormente in grado di provvedere al benessere, politico e materiale, dei cittadini cinesi. Altrettanto importante, questo nuovo modello di governance basata sui dati dimostrerà la superiorità e l’utilità del sistema cinese a livello globale”.
Un mega approfondimento per il sito Guerre di Rete a firma del bravissimo Simone Pieranni.
ITALIA
Perché il progetto di Tim sul cloud nazionale è inammissibile per il Tar del Lazio
La mossa, prevedibilissima, è che Tim impugni la sentenza del Tar e la porti davanti al Consiglio di Stato. Con tempi del tutto incompatibili con la tabella di marcia del Psn, che nel giro di settimane deve iniziare a operare, scrive Wired Italia.
ITALIA ED EUROPA
Inizia la resa dei conti sull'identità digitale europea (e riguarda anche Spid)
Il Parlamento europeo vota la sua risoluzione sul regolamento sull'identità elettronica. In primavera il negoziato con Commissione e Consiglio sulla futura app comunitaria. Che avrà peso sulle scelte nazionali su Spid e Cie - Wired Italia
RICONOSCIMENTO FACCIALE
Negli Usa la rivista Slate ha tracciato almeno 20 stadi e strutture sportive in cui il riconoscimento facciale viene usato per filtrare l’accesso del pubblico.
APPROFONDIMENTI
FONDI E TECH
L’anno orribile del tech in numeri, con uno sguardo che va oltre la Silicon Valley - Rest of the World (ing)
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. O diventa un suo sostenitore facendo una donazione. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> SOCIAL E PODCAST DI GUERRE DI RETE
Guerre di Rete ora ha anche un sito di notizie, una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)