Guerre di Rete - Nel tornado AI occhio alle farfalle
Bard, ChatGPT, il dibattito sul lavoro e la regolamentazione. E poi spyware e altro.
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.156 - 25 marzo 2023
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 12mila iscritti - ma molti più lettori, essendo pubblicata anche online - e oltre 500 sostenitori) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero (fin dal 2018). Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione. La prima campagna per raccogliere fondi è andata molto bene, e qua ci sono i dettagli (qua la lista degli oltre 500 donatori). Se volete sapere chi sono qua ci sono alcune info (in breve - in lungo).
In più, a marzo il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito.
In questo numero:
- Bard e Google
- OpenAI e i plugin
- A chi ruberà il lavoro GPT?
- General Purpose AI e la battaglia sull’AI Act
- Se l’AI smette di amarti
- Come la carica delle AI generative peserà sulla fiducia nell’informazione
- Il mantello “anti-copia” per gli artisti
- Una manager di Meta spiata con Predator
- Elon Musk ha in mente un futuro per noi
- E altro
Nel tornado dell’AI occhio ai battiti di farfalla
OpenAI, creata per evitare una corsa all’intelligenza artificiale (AI), ne ha invece lanciata una, ha commentato questa settimana Jamie Metzl, consulente di geopolitica e innovazione. Non ho trovato riferimenti diretti a prevenire una corsa all’AI nelle dichiarazioni originarie di OpenAI (che come sapete è il laboratorio dietro al lancio di tecnologie come ChatGPT) ma certo nel 2015, quanto questa organizzazione era ancora del tutto no-profit, aveva come obiettivo dichiarato “di far progredire l'intelligenza digitale nel modo in cui è più probabile che l'umanità nel suo complesso ne tragga beneficio, senza essere vincolati dalla necessità di generare un ritorno finanziario. Poiché la nostra ricerca è libera da obblighi finanziari, possiamo concentrarci meglio su un impatto umano positivo”.
Ora invece, come hanno notato altri, non si può chiudere Twitter per un paio d’ore senza riaprirlo e trovarsi di fronte a qualche nuovo progresso, prodotto, plugin, abbonamento, annuncio e comunicato stampa legato all’intelligenza artificiale.
Google apre Bard (ad alcuni)
Google, che dopo anni di dominio anche mediatico si trova nella scomoda posizione di rincorrere (la rivale Microsoft) senza voler però scoprire mai del tutto o troppo le carte, ha aperto un accesso limitato a Bard, il suo rivale di ChatGPT, basato sul modello di linguaggio LaMDA, e inizialmente disponibile per alcuni utenti selezionati negli Stati Uniti e nel Regno Unito, che potranno iscriversi a una lista d'attesa all'indirizzo bard.google.com (in ogni caso non c’è ancora mentre scrivo una data per l'accesso completo al pubblico).
“Come ChatGPT di OpenAI e il chatbot Bing di Microsoft, Bard offre agli utenti una casella di testo vuota e un invito a porre domande su qualsiasi argomento”, scrive The Verge che l’ha testato. “E come si pone Bard rispetto ai suoi principali rivali, ChatGPT e Bing? È sicuramente più veloce di entrambi (anche se questo potrebbe essere dovuto semplicemente al fatto che attualmente ha meno utenti) e sembra avere capacità potenzialmente ampie come questi altri sistemi. (Nei nostri brevi test, ad esempio, è stato in grado di generare linee di codice). Ma non ha le note a piè di pagina chiaramente etichettate di Bing, che qui appaiono solo quando si cita direttamente una fonte come un articolo di cronaca, e sembra in generale più limitato nelle sue risposte”.
La differenza principale resta il fatto che Google ha deciso di non aprire al pubblico generale questa tecnologia, una scelta che in questo momento appare svantaggiosa ma che potrebbe anche essere una scommessa sul medio o lungo termine. Difficile prevederlo ora.
OpenAI rilancia coi plugin
Certo, chi non ha intenzione di lasciare margini ad avversari è proprio OpenAI, che subito dopo ha annunciato l’ennesima novità, lanciando dei plugin per ChatGPT che ne estendono le funzionalità consentendogli di accedere a database di terze parti, compreso il web (solo per ora per un numero limitato di utenti e sviluppatori). “Il plugin più interessante è quello di OpenAI per navigare il web - scrive TechCrunch - che permette a ChatGPT di attingere dati da tutto il web [e in tempo reale, ndr] per rispondere alle varie domande che gli vengono poste. (In precedenza, la conoscenza di ChatGPT era limitata a date, eventi e persone precedenti al settembre 2021). Il plugin recupera contenuti dal web utilizzando l'API di Bing e mostra tutti i siti web visitati per elaborare una risposta, citando le fonti nelle risposte di ChatGPT”.
Il modo più semplice per capire il funzionamento e la portata di questa novità (una volta che verrà implementata su ampia scala) è guardare il video nella pagina di lancio, dove l’utente, utilizzando vari plugin, è in grado non solo di farsi descrivere una ricetta ma anche di ordinare online gli ingredienti (o un posto al ristorante).
Il bug di privacy
E quindi è già acqua passata il piccolo incidente manifestatosi nella stessa settimana (dicevamo che ormai queste settimane sono stancanti come mesi, cari lettori) in cui un bug in ChatGPT ha fatto sì che alcuni utenti vedessero i titoli delle conversazioni di altri (con ovvie preoccupazioni di privacy). Il problema è stato poi aggiustato (fixed) (BBC). Su Bleeping Computer più dettagli tecnici.
AI E LAVORO
A chi ruberà il lavoro GPT?
In tutto questo bailamme, non vorrei si perdesse per strada un documento specifico. I ricercatori di OpenAI e dell'Università della Pennsylvania hanno pubblicato un paper (qui su ArXiv) secondo il quale l'80% della forza lavoro statunitense potrebbe subire un impatto su almeno il 10% delle proprie mansioni a causa dell'introduzione di GPT, la serie di modelli linguistici di grandi dimensioni prodotti da OpenAI. Lo studio sostiene anche che circa il 19 percento dei lavoratori subirà un impatto su almeno il 50 percento delle proprie mansioni. L'esposizione a GPT è maggiore per i lavori a più alto reddito, ma riguarda quasi tutti i settori.
Le professioni con la maggiore esposizione includono matematici, tributaristi, scrittori, web designer, contabili, giornalisti e segretari di avvocati, sostiene ancora lo studio. Le professioni con minori probabilità di essere influenzate da GPT includono graphic designer e manager finanziari.
I ricercatori elencano anche l'impatto complessivo previsto da GPT su diversi settori industriali: l'impatto maggiore è sui servizi di elaborazione dati, sui servizi di informazione, sulle industrie editoriali e sulle compagnie di assicurazione, mentre l'impatto minore è sulla produzione alimentare, sulla produzione di manufatti in legno e sulle attività di supporto all'agricoltura e alla silvicoltura (chi l’avrebbe mai detto…). Via Vice
Vorrei però far notare come il punto principale del paper sembri essere un altro, ovvero la sottolineatura che GPT sia una tecnologia di uso generale (general purpose). Cioè una tecnologia come il motore a vapore o l’invenzione della stampa (per citare i loro stessi esempi).
Scrivono i ricercatori: “Il contributo principale di questo articolo è quello di fornire una serie di misure del potenziale di impatto dei modelli linguistici di grandi dimensioni (LLM) e di dimostrare il caso d'uso dell'applicazione degli stessi (...) Inoltre, mostriamo il potenziale di [tecnologia] di uso generale degli LLM”.
E dunque, e veniamo al punto, “la traiettoria finale dello sviluppo e dell'applicazione degli LLM può essere difficile da prevedere e regolamentare per i responsabili politici. Come per altre tecnologie di uso generale, gran parte del potenziale di questi algoritmi emergerà in un'ampia gamma di casi d'uso economicamente validi, tra cui la creazione di nuovi tipi di lavoro”.
General Purpose AI e la battaglia sull’AI Act
Perché faccio questa sottolineatura? Perché il 14 marzo la bozza presentata sul nuovo Regolamento europeo sull’intelligenza artificiale (AI Act, di cui ho già scritto in newsletter) proponeva alcuni obblighi per i fornitori di questo tipo di modelli di AI (General Purpose AI o GPAI), ovvero modelli linguistici di grandi dimensioni che possono essere adattati a vari compiti.
Secondo la bozza, devono conformarsi ad alcuni dei requisiti inizialmente previsti per le soluzioni di AI che hanno maggiori probabilità di causare danni significativi. “La progettazione, i test e l'analisi delle soluzioni GPAI devono essere allineati con i requisiti di gestione del rischio previsti dalla normativa per proteggere la sicurezza delle persone, i diritti fondamentali e i valori dell'UE, anche documentando i rischi non mitigabili”, scrive Euractiv. “Gli insiemi di dati che alimentano questi modelli linguistici di grandi dimensioni dovrebbero seguire misure appropriate di governance dei dati, come la valutazione della loro pertinenza, idoneità e potenziali distorsioni, l'identificazione di possibili carenze e le relative misure di mitigazione. Inoltre, per tutto il loro ciclo di vita, ChatGPT e simili dovranno essere sottoposti a controlli esterni che ne verifichino le prestazioni, la prevedibilità, l'interpretabilità, la correggibilità, la sicurezza e la cybersecurity, in linea con i requisiti più severi dell'AI Act”.
Insomma, la partita si giocherà su chi vorrà provare a regolamentare proprio questa tecnologia e chi sostiene che non si possa prevedere il suo andamento, e quindi regolamentare. Come a dire: politici (europei), state fermi.
AI E SOCIETA’
Se l’AI smette di amarti
A proposito di chi non sta fermo. A inizio febbraio il nostro Garante della Privacy ha fermato Replika, un’app che fornisce un chatbot basato su AI che fa da amico virtuale, ma con cui gli utenti possono anche instaurare relazioni romantiche e a sfondo erotico. “Manca ogni meccanismo di verifica dell’età”, scriveva il comunicato del Garante; e più in generale: “Replika viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere”. Per cui la società sviluppatrice statunitense, Luka Inc, doveva interrompere il trattamento dei dati degli utenti italiani, e comunicare entro 20 giorni le misure intraprese.
Ora alcuni media americani riferiscono di come Replika non consenta più contenuti per adulti (decisione confermata da dichiarazioni della Ceo Eugenia Kuyda). Dunque, quando gli utenti di Replika propongono un'attività vietata ai minori, i suoi chatbot rispondono con un messaggio che dice: "Facciamo qualcosa con cui siamo entrambi a nostro agio" (vi vedo che sorridete).
Kuyda ha dichiarato a Reuters che la decisione di Replika di ripulire l'app “non ha nulla a che fare con il divieto del governo italiano o con le pressioni degli investitori", ma nascerebbe dalla necessità di stabilire standard etici e di sicurezza, ponendo un limite alle "storie d'amore PG-13 (vietato ai minori di 13)”. Il che sarà sicuramente vero, anche se resta un po’ la sensazione di aver assistito a un effetto farfalla.
Quale che sia la ragione, i media riportano lo sconforto di alcuni utenti americani che dall’oggi al domani si sono trovati davanti al due di picche di quello che consideravano un/a partner virtuale. Secondo l'azienda, il 60% dei clienti paganti aveva una relazione romantica con Replika.
Per quanto tutto ciò possa sembrare ad alcuni strampalato (o se preferite cringe), o ancora al limite dello scivolamento in un episodio di Black Mirror, ho l’impressione che vedremo altre storie simili a questa nell’esplosione di AI generativa che ci sta travolgendo.
AI E VIDEO
Ora è il turno dei video
Runway, startup di New York che produce strumenti di editing video basati sull'intelligenza artificiale, ha annunciato la disponibilità del suo sistema Gen 2, che genera brevi frammenti di video a partire da poche parole (prompt) immesse dall'utente. Che può digitare una descrizione di ciò che vuole vedere e far generare un video di circa 3 secondi. Può anche caricare un'immagine come indicazione aggiuntiva per il sistema. Lo strumento non è ancora disponibile per tutti, vi si accede tramite lista d'attesa sulla piattaforma Discord.
Runway esiste dal 2018 e ha raccolto 50 milioni di dollari alla fine dell'anno scorso. La startup ha contribuito a creare la versione originale di Stable Diffusion, un modello di AI da testo a immagine che è stato poi reso popolare e ulteriormente sviluppato dalla società Stability AI, scrive Bloomberg.
AI E DISINFO
Come la carica delle AI generative peserà sulla fiducia nell’informazione
“La profusione di informazioni false da parte di LLM [modelli linguistici di grandi dimensioni o Large Language Models] - a causa di disinformazione intenzionale, pregiudizi della società o allucinazioni - può potenzialmente mettere in dubbio l'intero ambiente informativo, minacciando la nostra capacità di distinguere i fatti dalla finzione. Ciò potrebbe avvantaggiare in modo sproporzionato coloro che possono trarre vantaggio da una diffidenza diffusa, un fenomeno che gli studiosi Chesney e Citron definiscono Liar’s Dividend (dividendo del bugiardo [su questo torno sotto, ndr]) nel contesto dei deepfake”.
Così scrive OpenAI trattando dei rischi di GPT-4 e dei modelli linguistici di grandi dimensioni in un documento che chiunque si occupi di politica e governance dovrebbe leggere (è il GPT-4 System Card).
E proprio a questo hanno pensato al Guardian quando qualcuno li ha contattati cercando un vecchio articolo sul sito. “Un giornalista è stato contattato da una persona che stava facendo delle ricerche per chiedere perché un particolare articolo di molti anni fa fosse stato tolto dal nostro sito”, ha twittato Chris Moran, capo dell’innovazione editoriale nella famosa testata inglese. “Era passato un po' di tempo e il giornalista non se lo ricordava. Abbiamo scavato nei nostri sistemi e non ne abbiamo trovato traccia. La persona che lo chiedeva aveva usato ChatGPT per fare la ricerca...La cosa più probabile è che non sia mai esistito. Che sia stata un'allucinazione. Immaginate tutto ciò in un'area incline al complottismo. Queste allucinazioni sono comuni. Potremmo vedere molte teorie del complotto alimentate da articoli "cancellati" che non sono mai stati scritti”.
Come possiamo fortificare la verità, di fronte al dilagare di manipolazioni audiovideo e alle allucinazioni dell’AI generativa? si chiede oggi il ricercatore Sam Gregory mostrando alcuni recenti esempi legati alla politica americana (in questi giorni anche i media italiani hanno parlato molto delle finte immagini dell’arresto di Trump).
Tra l’altro qui si può ascoltare un talk di Gregory di novembre dove cita proprio, tra i rischi collaterali della diffusione di falsi o di contenuti sintetici, il concetto di Dividendo del Bugiardo (Liar's Dividend), ovvero la possibilità di sfruttare e incassare la sfiducia diffusa in qualsiasi testimonianza o notizia da parte di chi debba difendersi da accuse reali (sostenendo appunto che siano false). Come scrivono gli autori della definizione in un paper del 2019: “i deepfake rendono più facile per i bugiardi evitare di rendere conto di cose che in realtà sono vere”.
Contro questo rischio si possono adottare alcune strategie specifiche (ad esempio nel fare video) molte delle quali però sono contingenti, dice Gregory, ribadendo l’importanza di rivelare la presenza di media sintetici nei contenuti.
Del tema AI e impatto sull’ecosistema di informazione, disinformazione e fiducia parlerò in questo incontro al Festival del Giornalismo di Perugia, insieme a Vincenzo Tiani.
In settimana di ChatGPT in genere ne ho parlato invece su Radio3Scienza.
AI E ARTE
Il mantello “anti-copia” per gli artisti
Abbiamo già visto in altre newsletter come l’AI generativa che produce immagini a partire da testi abbia già scatenato preoccupazioni (e anche alcune cause legali) da parte di artisti che si ritengono defraudati dopo che le loro opere sono state usate (senza il loro consenso) per addestrare queste tecnologie e ora le stesse sono in grado di produrre, su richiesta, opere visive “sullo stile di” loro stessi.
È su questo sfondo che va collocato Glaze, un progetto di ricerca dell'Università di Chicago, che consiste in un'applicazione gratuita per gli artisti per combattere il “furto” della loro "proprietà intellettuale artistica" attraverso una tecnica di "occultamento".
L’applicazione (in versione beta) funziona aggiungendo "perturbazioni" quasi impercettibili a ogni opera d'arte a cui viene applicata - cambiamenti che sono progettati per interferire con la capacità dei modelli di AI di leggere i dati sullo stile artistico - e rendere più difficile per la tecnologia generativa di AI imitare lo stile dell'opera d'arte e del suo artista.
Il paper.
SPYWARE
Una manager di Meta spiata con Predator
Artemis Seaford, una dipendente del team di sicurezza e trust di Meta (Facebook), dalla doppia cittadinanza (americana e greca), mentre si trovava in Grecia è stata sottoposta per un anno a intercettazione telefonica da parte dei servizi segreti nazionali greci e successivamente il suo telefono è stato infettato con uno spyware, noto come Predator, scrive il New York Times. Che aggiunge: “l'intercettazione simultanea del telefono da parte dei servizi segreti nazionali e il modo in cui è poi stato violato il dispositivo indicano che i servizi e chi ha impiantato il software spia lavoravano fianco a fianco”.
Nel settembre 2021 Seaford ha infatti prenotato un appuntamento per un richiamo del vaccino anti-Covid-19 attraverso la piattaforma ufficiale del governo greco. Ha ricevuto un SMS automatico con i dettagli dell'appuntamento il 17 settembre, poco dopo la mezzanotte. Cinque ore dopo, ha ricevuto un altro SMS che le chiedeva di confermare l'appuntamento cliccando su un link. Si trattava del link con cui è stato impiantato Predator sul suo telefono. “I dettagli dell'appuntamento per la vaccinazione nel messaggio di testo infetto erano corretti, il che indica che qualcuno aveva esaminato la conferma autentica precedente e aveva redatto il messaggio infetto di conseguenza. Anche il mittente sembrava essere l'agenzia statale per i vaccini, mentre l'URL infetto imitava quello della piattaforma di vaccinazione”, scrive ancora il NYT.
Non è chiaro perché Seaford (che ha sporto denuncia) sia stata spiata. Il governo greco ha negato di aver utilizzato Predator e ha legiferato contro l'uso di spyware, che ha definito "illegale". Ma questo è solo l’ultimo episodio di una serie di scandali legati al ritrovamento di software spia sui telefoni di esponenti della società civile greca.
I dati raccolti dalla ricercatrice Runa Sandvik al riguardo mostrano una prevalenza di giornalisti e politici tra le vittime individuate finora in Grecia.
INTERVISTA SU MUSK
Elon Musk ha in mente un futuro per noi
“La tecnologia non è mai neutra, né tantomeno neutrale. Come hanno evidenziato Evgeny Morozov e Landon Winner, essendo uno strumento che colloca i valori in ordine gerarchico per leggere la realtà, è soprattutto uno strumento politico e dunque ideologico. Credo che l’analisi su Musk, come su ogni altro personaggio considerato un guru della tecnologia, vada analizzato partendo da questo presupposto.”
Su Guerre di Rete Federica Meta ha intervistato Fabio Chiusi sul suo ultimo libro dedicato a una critica ideologica di Elon Musk.
APPROFONDIMENTI
PIRATI
Una recensione del libro postumo del noto antropologo David Graeber Pirate Enlightenment, or the Real Libertalia (qui edizione italiana) da parte di Marcus Rediker, che è uno storico americano (che ho avuto anche il piacere di avere come professore) autore di numerosi libri sulla cultura e la storia sociale dei pirati (e sulle relative venature libertarie e di democrazia dal basso) - The Nation
GIORNALISTI
La sorella di Daphne Caruana Galizia: "L'Ue deve proteggere i giornalisti dalle querele temerarie" - La Via Libera
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. O diventa un suo sostenitore facendo una donazione. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> SOCIAL E PODCAST DI GUERRE DI RETE
Guerre di Rete ora ha anche un sito di notizie, una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)
"secondo il quale l'80% della forza lavoro statunitense potrebbe subire un impatto su almeno il 10% delle proprie mansioni a causa dell'introduzione di GPT". Rileggerei meglio il paper: l'obiettivo è validare il concetto operativo di "esposizione" e non l'impatto. E sull'esposizione sono i primi a indicare tutte le limitazioni necessarie per una rigorosa validazione e tra le molte, quella di aver definito le categorie di attività esposte con criteri soggettivi. In due frasi menzionano l'impatto: una rimanda a studi di macroeconomia (unici a questo tipo di valutazioni), l'altra è solo una franca opinione degli autori.