Guerre di Rete - Identikit di OpenAI
E poi gli etichettatori di intelligenza artificiale. Update di iPhone e spyware.
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.168 - 24 settembre 2023
Buongiorno a tutti, eccoci di nuovo, dopo la pausa estiva, con la newsletter vera e propria (che dovrebbe avere cadenza settimanale ma potrebbe anche saltare qualche settimana). Buona lettura e buona domenica!
In questo numero:
- Identikit di OpenAI
- Ora si può usare Bard con Gmail
- Copilot AI alla conquista di Windows 11
- Arriva DALL-E 3
- TikTok spinge sulle etichette per i contenuti generati da AI
- AAA etichettatori cercasi, dagli studenti cinesi ai carcerati finlandesi agli scrittori senza un soldo
- Cosa c’è dietro l’ultimo aggiornamento dell’iPhone
- La bio su Musk
- E altro
INTELLIGENZA ARTIFICIALE
Identikit di OpenAI
Una recente storie di copertina della rivista americana Wired è un racconto dettagliato di come è nata OpenAI, la startup che ha lanciato ChatGPT e il generatore di immagini DALL-E, dando vita a una corsa all’intelligenza artificiale generativa (Generative AI) che ha travolto il grande pubblico, elettrizzato gli investitori e inondato i media. L’autore è Steven Levy, un giornalista che ha fatto la storia del settore, a partire dal suo libro degli anni ’80 sulla cultura hacker, Hackers: Heroes of the Computer Revolution (di quella storia e della sua evoluzione abbiamo scritto sul sito Guerre di Rete in questo articolo).
In primo piano nell’articolo di Levy c’è ovviamente il cofondatore e CEO Sam Altman, descritto come un determinatissimo wonderboy, ma anche Elon Musk, decisivo per la nascita dell’organizzazione, e il ricercatore di punta di AI Ilya Sutskever, già allievo di un pioniere del deep learning come Geoffrey Hinton e poi coautore di un paper fondamentale del 2012 su AlexNet, un’architettura di rete neurale che vinse ImageNet, la più importante competizione nel riconoscimento di immagini, usando appunto un’implementazione del deep learning (ne avevo scritto qua in newsletter).
C’è come OpenAI a un certo punto abbia smesso di essere solo un laboratorio di ricerca no profit creando una società for profit. Certo, la società for profit sarebbe capped, ha cioè un tetto, raggiunto il quale tutto ciò che va oltre torna al laboratorio di ricerca no-profit. Tuttavia, nota quasi en passant Levy, “la cifra non è pubblica, ma il suo stesso statuto, se si legge tra le righe, suggerisce che potrebbe essere nell'ordine delle migliaia di miliardi (trillions)”.
C’è il ruolo di Microsoft che ha investito vari miliardi (fino a 13, scrive l’autore) contrattando una partecipazione nella società a scopo di lucro che si dice debba essere intorno al 49 per cento e una licenza esclusiva per commercializzare la tecnologia di OpenAI, che si è impegnata a utilizzare esclusivamente il cloud di Microsoft. Sulla carta il colosso di Redmond ottiene il 75% dei profitti fino a quando il suo investimento non verrà ripagato, ma soprattutto si assicura uno dei clienti più desiderati per il suo servizio cloud Azure.
“In base ai termini dell'accordo, alcuni degli ideali originari di OpenAI di garantire a tutti un accesso paritario [all’AI] sono stati apparentemente trascinati nell'icona del cestino”, scrive Levy.
Così OpenAI si è trasformata da un laboratorio di ricerca sull’AI basato sull’idea di apertura e trasparenza in una società che sviluppa prodotti segreti, nota uno degli intervistati. Che è anche la critica arrivata da Musk dopo essersi allontanato da OpenAI, ufficialmente per seguire i suoi altri innumerevoli business ma forse conta anche che il suo tentativo di acquisire una quota di maggioranza della società sia stato respinto, come scrive Levy.
Il brano che più mi ha colpito è tuttavia quando Levy descrive la cultura aziendale di OpenAI e il suo rapporto con l’idea di AGI (Artificial General Intelligence), un concetto che ha sfumature diverse e vaghe ma in sostanza in questo contesto richiama l’idea di una creazione di una intelligenza superiore a quella umana che ci porterà in un'era della storia del tutto nuova, concetto molto dibattuto e controverso tra chi si occupa di AI (su questo potete vedere la mia introduzione, L’AI non è un Paese per pochi, pubblicata sul sito Guerre di Rete e tratta dal nostro ebook Generazione AI, ebook finora in esclusiva per i donatori).
Scrive Levy: “Non è corretto definire OpenAI una setta, ma quando ho chiesto ad alcuni dei vertici dell'azienda se qualcuno potesse lavorare tranquillamente qui qualora non credesse che l'AGI (Artificial General Intelligence, ndr), in pratica una intelligenza superiore, stia veramente arrivando, e che il suo arrivo segnerebbe uno dei più grandi momenti della storia dell'umanità, la maggior parte dei dirigenti pensava di no. Perché uno che non ci crede dovrebbe voler lavorare qui? si sono chiesti. L'ipotesi è che la forza lavoro - oggi circa 500, anche se potrebbe essere cresciuta dal momento in cui avete iniziato a leggere questo paragrafo - si sia auto-selezionata per includere solo i credenti. Per lo meno, come dice Altman, una volta assunti, sembra inevitabile che si venga attratti dall'incantesimo”.
Questo tipo di convinzione è come dicevo fortemente dibattuta, al punto che stanno crescendo anche i suoi critici. Tra questi la ricercatrice in comunicazione tech e giornalista Nirit Weiss-Blatt, che riporta alcuni dei discorsi di Sutskever (pubblici o sentiti direttamente), dove il Chief Scientist di OpenAI si immagina un governo gestito direttamente da una AI.
“Il punto è che Ilya Sutskever - scrive Weiss-Blatt - ha portato ciò che si vede sui media, l'ideologia "utopia AGI contro potenziale apocalisse", al livello successivo”.
Su questo tema torna anche la testata VentureBeat in un articolo che nota come alcuni ricercatori abbiano iniziato a definire l’AI una forma di “alchimia” (che, come ricorda la Treccani, è quell’arte (...) “che si proponeva la manipolazione e trasformazione dei metalli, e in particolare la loro possibile trasmutazione in oro o in rimedi per il prolungamento della vita”).
Tra questi, lo stesso Sutskever che avrebbe detto: “Si può pensare all'addestramento di una rete neurale come a un processo forse alchemico o di trasmutazione, o forse come a una raffinazione del materiale grezzo, che sono i dati".
E quando il conduttore dell'evento - riferisce VentureBeat - gli ha chiesto se fosse mai sorpreso dal fatto che ChatGPT funzionasse meglio del previsto, anche se aveva "costruito la cosa", Sutskever ha risposto: "Sì, voglio dire, certo. Certo. Perché non abbiamo costruito l'oggetto, ma un processo che costruisce l'oggetto. E questa è una distinzione molto importante. Abbiamo costruito la raffineria, l'alchimia, che prende i dati e ne estrae i segreti nella rete neurale, le Pietre Filosofali, forse il processo alchemico. Ma poi il risultato è così misterioso, e si può studiare per anni".
Possiamo pensare al tema dell’alchimia come a un semplice paragone superficiale per far capire all’uditorio ciò che altri definirebbero la componente di black box (“scatola nera”) di questo tipo di intelligenza artificiale (per inciso, tra chi ha preso solidamente le distanze da paragoni alchemici c’è Yann LeCun, Chief AI Scientist a Meta che qualche giorno fa è anche stato audito al Senato Usa insistendo sull’importanza di modelli di AI open source per democratizzare l’accesso a queste tecnologie: “Deve essere open source se si vuole che sia una piattaforma su cui costruire un intero ecosistema”).
Ma potrebbe valere la pena indagare se la suggestione alchemica non trascini con sé anche altre idee, come il “miglioramento” dell’umanità, che aleggia in molti del settore (a quanto pare c’è già chi ha indagato, vedi ad esempio questo paper Technology Creating a New Human: The Alchemical Roots of Transhumanist Ideas)
E, nella storia, l’idea di “migliorare” gli umani non ha portato in genere a belle cose.
Perché insistere su tutto questo? Alla fine che importa se alcuni ricercatori credono nella superintelligenza e altri no, o comunque non la ritengono all’ordine del giorno? (che ci crediate o no hanno fatto anche dei dibattiti pubblici con ricercatori e accademici di punta sul tema, pro e contro, come in questo video, Munk Debate on Artificial Intelligence con Bengio & Tegmark vs. Mitchell & LeCun, un po’ kitsch e confusionario come format a mio avviso).
Forse il tema è dibattuto e rilevante anche perché ha ricadute politiche. Tanto che c’è una call for papers, segnala Weiss-Blatt, proprio su questo, che si chiede: in che modo i miti, le rappresentazioni errate e la sopravvalutazione delle capacità e delle prestazioni dell'AI influenzano le agende politiche, le decisioni aziendali e i singoli individui?
Se lo chiede anche la giornalista Marine Protais quando segnala un tweet della Commissione europea in cui si dice: “Mitigare il rischio di estinzione causato dall'AI dovrebbe essere una priorità globale”.
Protais nota infatti come il “rischio di estinzione" dell'AI sia un termine veicolato dall'ideologia del long-termism (e da OpenAI) e che sia strano vedere questo vocabolario alla Commissione europea.
(Del longtermism, un'ideologia orientata a dare priorità allo sviluppo di un civiltà postumana, in grado di colonizzare pianeti, espandere il suo potenziale tecnologico, moltiplicare le forme di vita artificiale, avevo scritto qua in newsletter)
- Approfondimento tecnico: The Epistemology of Deep Learning - Yann LeCun (YouTube)
CHATBOT
Ora si può usare Bard con Gmail
Ma passiamo dal piano delle idee a quello della pratica e dei prodotti.
Google ha lanciato le estensioni di Bard (il suo rivale di ChatGPT), con cui gli utenti possono usare il chatbot per cercare informazioni nei propri account (Gmail, GDrive ecc) se li collegano.
“Bard è ora in grado di collegarsi a Google, come Gmail, Docs e Maps, per fornire risposte personalizzate basate sui dati dell'utente”, scrive The Verge. “C'è anche un nuovo pulsante "Google it", che permette di ricontrollare tutto ciò che Bard dice usando la normale ricerca di Google”.
Vuol dire che se si collega Google Workspace a Bard, è possibile riassumere, ottenere risposte rapide e trovare informazioni da app e servizi come Gmail, Docs e Drive. Anche se, ricorda Google, “Bard è un LLM (modello linguistico di grandi dimensioni) e può avere allucinazioni nelle sue risposte o fornire informazioni non aggiornate, ad esempio da una vecchia e-mail quando ne esiste una più recente. Per verificare le informazioni, fate clic e controllate le fonti elencate dopo la risposta di Bard”.
Chiunque scelga di utilizzare le estensioni Workspace - scrive Wired Italia - “non vedrà i propri dati visualizzati da revisori umani o utilizzati per annunci pubblicitari personalizzati, né tanto meno inseriti tra tutte quelle informazioni che servono per addestrare Bard”.
(Diversamente dalle normali conversazioni con Bard dove revisori umani possono accedere alle chat con Bard per migliorarne la qualità, scrive la stessa Google, raccomandando di non inserire informazioni sensibili).
Leggi anche l’articolo di Andrea Signorelli, tratto dal nostro ebook Generazione AI, e intitolato C’era una volta un chatbot
Cosa ci insegna la storia di ELIZA, il primo chatbot che sembrava conversare come un umano. A partire da come il suo creatore divenne un critico feroce della perdita di autonomia dell’umano.
MICROSOFT
Copilot AI alla conquista di Windows 11
Il prossimo aggiornamento di Windows 11, il 26 settembre, incorporerà Copilot AI, rendendo l’assistente di intelligenza artificiale disponibile in modo nativo in varie app e strumenti Microsoft (Silicon Republic).
Dettagli in italiano su Tom’s Hardware.
IMMAGINI
Arriva DALL-E 3
OpenAI ha invece annunciato la terza versione del suo generatore di immagini DALL-E, che include più opzioni di sicurezza e ora consente agli utenti di utilizzare ChatGPT per creare i prompt.
Secondo i ricercatori di OpenAI, l'ultima versione comprenderebbe meglio il contesto. Ma soprattutto, si integra con ChatGPT. Dunque utilizzando il chatbot non è più necessario che gli utenti si inventino un proprio prompt dettagliato per guidare DALL-E 3; possono semplicemente chiedere a ChatGPT di generare un prompt che DALL-E 3 dovrà seguire.
La nuova versione di DALL-E sarà rilasciata prima agli utenti ChatGPT Plus e ChatGPT Enterprise in ottobre. Non è specificato quando/se ci sarà una versione pubblica gratuita.
“I rappresentanti di OpenAI hanno dichiarato in un'e-mail che DALL-E 3 è stata addestrata in modo da rifiutarsi di generare immagini nello stile di artisti viventi, a differenza di DALL-E 2 che, su richiesta di un prompt, può imitare lo stile di alcuni artisti”, scrive The Verge. “ Inoltre OpenAI, forse per evitare cause legali, consentirà agli artisti di escludere la loro arte dalle versioni future del modello. I creatori possono inviare un'immagine di cui possiedono i diritti e richiederne la rimozione tramite un modulo sul sito web”.
TIKTOK
TikTok spinge sulle etichette per i contenuti generati da AI
TikTok ha annunciato un nuovo strumento per consentire ai creatori di etichettare i propri contenuti che sono generati da una AI e inizierà anche a testare altri modi per etichettare automaticamente i contenuti generati dall'intelligenza artificiale.
Il social media aveva già aggiornato la sua policy sui media sintetici, chiedendo di etichettare quei contenuti AI che contengano immagini, audio o video realistici, come i deepfake, per prevenire la diffusione di informazioni fuorvianti.
Tuttavia, la nuova misura vorrebbe portare una maggiore trasparenza anche nella zona grigia, per cui inizierà a testare l’etichettatura di tutti i contenuti che rileverà essere stati modificati o creati con l'AI. L'azienda ha rifiutato di condividere le specifiche su come la sua tecnologia cercherà possibili contenuti AI, con la motivazione che la condivisione di tali dettagli potrebbe potenzialmente consentire ai malintenzionati di aggirare le sue capacità di rilevamento, scrive TechCrunch.
CINA, AI E LAVORATORI
Studenti usati per etichettare i dati
A proposito di etichette (labels). Come sapete le tecnologie di AI impiegano molti umani che dietro le quinte etichettano grandi quantità di dati - immagini, video, audio ecc - per permettere l’addestramento dei modelli di machine learning. Si tratta di un lavoro spesso sottopagato e usurante, ma ancora centrale per lo sviluppo di nuove applicazioni di intelligenza artificiale. Abbiamo visto i lavoratori che in Kenya etichettavano dati per meno di due dollari all’ora per OpenAI. Ma ora un’inchiesta di the Rest of the World apre una finestra sulla Cina.
“Negli ultimi anni, le aziende cinesi che si occupano di etichettatura dei dati hanno collaborato con le scuole professionali, reclutando studenti stagisti per svolgere questo lavoro noioso e ad alta intensità - spesso per salari inferiori al minimo e in condizioni precarie - al fine di soddisfare i requisiti per il diploma (...). Le nuove norme pubblicate dal Ministero dell'Istruzione nel gennaio 2022 impongono ai datori di lavoro di pagare agli stagisti un salario minimo e vietano alle scuole di prendere commissioni. Inoltre, vietano alle istituzioni scolastiche di far svolgere agli studenti ‘lavori semplici e ripetitivi’. In base a queste linee guida, alcuni stage di etichettatura dei dati potrebbero dunque essere considerati una violazione”.
Carcerati finlandesi che etichettano
Nel mentre, in Finlandia, società locali che sviluppano applicazioni di AI in finlandese usano i carcerati per etichettare i dati. Facendo passare questo tipo di lavoro per un’occasione con cui stare al passo con la digitalizzazione (Wired).
Scrittori per AI cercasi
Ci sarebbero alcune società disposte a pagare di più per ingaggiare scrittori o laureati capaci di scrivere testi creativi da usare per l’addestramento delle AI, sostiene un reportage di Rest of The World. “Milagros Miceli, ricercatrice presso il Distributed AI Research Institute (DAIR), ha dichiarato che questa tendenza alla professionalizzazione è aumentata solo negli ultimi sei mesi. Le aziende stanno passando dal costruire da zero modelli linguistici di grandi dimensioni (LLM) al loro fine tuning per applicazioni specifiche” [il fine tuning è una tecnica per adattare un modello pre-addestrato a nuovi dati o compiti, ndr].
CYBERSECURITY
Cosa c’è dietro l’ultimo aggiornamento dell’iPhone
La ragione per cui Apple ha rilasciato in questi giorni un primo aggiornamento del nuovo iOS/iPadOS 17 (quindi 17.0.1) è che doveva chiudere alcune importanti falle di sicurezza che sono state individuate da Google e il gruppo di ricerca Citizen Lab. Secondo Google, la catena di exploit (in pratica il codice di attacco) che sfruttava tali vulnerabilità sarebbe stata sviluppata dalla società di strumenti di sorveglianza Intellexa per installare in modo surrettizio il suo spyware Predator su un dispositivo.
“La catena di exploit è stata veicolata tramite un attacco "man-in-the-middle" (MITM), in cui un aggressore si frappone tra l'obiettivo e il sito web che sta cercando di raggiungere. Se il target sta visitando un sito web utilizzando "http", l'attaccante può intercettare il traffico e inviare dati falsi al target per costringerlo a visitare un sito web diverso. Visitare un sito web utilizzando "https" significa che il traffico è crittografato (...) Non è così quando si utilizza "http"”, scrive Google sul suo blog.
Il report di Citizen Lab ha invece più dettagli su una delle vittime (un politico egiziano) e il contesto. “Dato che l'Egitto è un cliente noto dello spyware Predator di Cytrox [di proprietà di Intellexa, ndr] e che lo spyware è stato veicolato tramite un attacco detto di network injection [nel caso specifico significa che quando la vittima visita un certo sito via http, usando la connessione di un certo operatore, viene rediretto di nascosto su un altro sito, ndr] da un dispositivo collocato fisicamente all'interno dell'Egitto, attribuiamo con confidenza l'attacco al governo egiziano”, scrivono gli autori.
Di Intellexa/Cytrox e dello spyware Predator abbiamo scritto più volte sul sito e in newsletter. Segnalo in particolare il mio racconto dello scorso aprile Come è emerso il Predatorgate (grazie a un piccolo media online)
CYBERCRIME
I casinò sotto ransomware
Oltre una decina di giorni fa due catene americane di casinò e hotel, Caesars e MGM, sono state colpite dal ransomware ALPHV, che ha messo fuori uso diversi sistemi. Caesars avrebbe pagato un riscatto di 15 milioni di dollari. MGM si è rifiutata di pagare. Un giornalista di 404media è andato a vedere cosa succedeva in concreto, e racconta come, malgrado lo sforzo di continuare le attività, tutti i servizi digitali fossero bloccati, con un faticoso ritorno a contanti, carte, penna.
CYBERWARFARE
Il Cyber Command Usa nelle reti lituane
Il Cyber Command degli Stati Uniti ha annunciato il completamento di un'operazione di due mesi di cosiddetta "defensive hunt" in Lituania, a fianco di team cyber lituani. Defensive hunt vuol dire che il Cyber Command, insieme a un partner (in questo caso il governo della Lituania) conduce una serie di attività per individuare, monitorare e analizzare tattiche, tecniche e procedure di attori cyber malevoli
Secondo un portavoce della U.S. Cyber National Mission Force, l'obiettivo dell'operazione era la ricerca di attività informatiche malevole sulle reti del Ministero degli Interni lituano. (VoA)
GEOPOLITICA TECH
L’Ue e il rischio di dipendenza da batterie cinesi
L'Unione Europea potrebbe dipendere dalla Cina per le batterie agli ioni di litio e le celle a combustibile entro il 2030, così come dipendeva dalla Russia per l'energia prima della guerra in Ucraina, a meno che non prenda misure forti, secondo un documento preparato per i leader dell'Ue, riferisce Reuters (che ha avuto accesso in esclusiva al documento).
“Siccome le fonti rinnovabili come quella solare o eolica non garantiscono una produzione costante di energia - scrive Wired Italia - per immagazzinarla i paesi dell'Unione stanno incrementando l'acquisto di batterie agli ioni di litio, celle a combustibile ed elettrolizzatori, a oggi fornite in gran parte dalla Cina. Per Reuters le richieste di batterie "aumenteranno dalle dieci alle trenta volte nei prossimi anni" e, senza l'adozione di contromisure adeguate, è possibile che la Cina diventi l'unico vero fornitore per i paesi europei”.
APPROFONDIMENTI
LIBRI
È uscita anche in Italia la biografia su Elon Musk scritta da Walter Isaacson, intitolata Elon Musk. Sono ancora all’inizio, per cui non esprimo giudizi. Antonio Piemontese lo ha già letto tutto e ha scritto su Wired Italia cosa ci troverete dentro.
Se vi interessa una prospettiva critica delle idee di Musk ricordo l’intervista di Guerre di Rete a Fabio Chiusi, autore di L’uomo che vuole risolvere il futuro. Critica ideologica di Elon Musk.
EVENTI
AUTODIFESA DIGITALE
Alla Milano Digital Week il 7 ottobre depreDATI organizza un laboratorio di autodifesa dalla sorveglianza digitale (promosso dall’associazione Copernicani e con la collaborazione del Politecnico) https://depredati.eu/
ROMHACK
Lo scorso weekend a Roma si è svolta la conferenza di cybersecurity RomHack, dove ho avuto il piacere di introdurre i relatori e moderare la tavola rotonda insieme a Gerardo Di Giacomo. Tutti i talk e la tavola rotonda si possono rivedere qua (in inglese). Per i lettori della newsletter segnalo in particolare il keynote della giornalista Kim Zetter sull’attacco a SolarWinds.
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo). Non ha sponsor né pubblicità, né aziende o lobbies alle spalle.
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)
Ciao Carola, complimenti per tutto. Mi raccomando, sono interessato agli impatti dell'AI sul Lavoro, che seguo. Buon lavoro!