Guerre di Rete - Sognando la supremazia nell'AI, non le pecore elettriche
Intelligenza artificiale: chi promette, chi rilancia mentre il mondo dell’istruzione si interroga.
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.151- 4 febbraio 2023
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 11mila iscritti - ma molti più lettori, essendo pubblicata anche online - e oltre 500 sostenitori) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione. La prima campagna per raccogliere fondi è andata molto bene, e qua ci sono i dettagli (qua la lista degli oltre 500 donatori).
In più, a marzo il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito.
In questo numero:
-La supremazia nell’AI
- OpenAI rilancia
-Il mondo dell’istruzione si interroga su ChatGPT
- Azioni legali e dita delle mani
- Avviso: il prossimo weekend la newsletter non esce
AI supremacy
Nelle ultime due newsletter abbiamo parlato della corsa all’AI da varie angolazioni (qui e qui), e ci siamo lasciati con le parole di Yann LeCun, uno dei padri fondatori della rivoluzione del deep learning, nonché Chief AI Scientist di Meta, che sembravano voler ridimensionare la novità di ChatGPT, il chatbot di OpenAI di cui tutti parlano da mesi, sottolineando come quella tecnologia non sia né unica né nuova e come esistano altri attori in gioco (che poi l’uscita di LeCun possa essere motivata anche da un certo fastidio per il successo mediatico del laboratorio rivale ci può stare ma interessa relativamente).
Ad ogni modo ora l’Economist è uscito con un approfondimento proprio su questo, ovvero su tutti quei laboratori - che siano parte di Big Tech, affiliati con grandi aziende o gestiti come startup indipendenti - che stanno ingaggiando “un’epica corsa per la supremazia nell’intelligenza artificiale”.
I concorrenti di ChatGPT
In gioco non ci sono solo le grandi aziende. “Startup come Anthropic e Character AI hanno sviluppato concorrenti di ChatGPT. Stability AI, una startup che riunisce un consorzio open-source di altre piccole imprese, università e organizzazioni non profit per mettere in comune le risorse di calcolo, ha creato un modello popolare che converte il testo in immagini”, scrive l’Economist riferendosi ai creatori di Stable Diffusion, il noto generatore open source di immagini da testi lanciato nel 2022, ora alla versione 2.1. Senza contare poi quel che avviene in Cina, dove le strutture sostenute dal governo, come l'Accademia di Intelligenza Artificiale di Pechino (Beijing Academy of Artificial Intelligence o BAAI), sono fondamentali e dove primeggia la ricerca sulla computer vision, quel campo specializzato nel riconoscimento e analisi di immagini, oggetti, volti e via dicendo.
La potenza di fuoco dei Big
“Ma quasi tutte le recenti scoperte nel campo a livello globale provengono da grandi aziende - prosegue la rivista economica - in gran parte perché dispongono della potenza di calcolo necessaria e poi perché si tratta di una delle poche aree in cui i risultati della ricerca di base possono essere rapidamente incorporati in prodotti. Amazon, la cui AI alimenta l'assistente vocale Alexa, e Meta - che ha recentemente fatto scalpore quando uno dei suoi modelli (CICERO, nda) ha battuto dei giocatori umani a "Diplomacy", un gioco di strategia - producono rispettivamente due terzi e quattro quinti della ricerca sull'AI dell'università di Stanford, un bastione del settore. Alphabet e Microsoft ne sfornano molta di più, senza contare DeepMind, il laboratorio gemello di Google Research che la casa madre (Alphabet, nda) ha acquisito nel 2014, e OpenAI, affiliato a Microsoft”.
Nel campo delle AI generative, alla ChatGPT, al momento la sfida è fra Microsoft e Alphabet (il gigante cinese della ricerca Baidu a marzo dovrebbe lanciare un chatbot AI simile a ChatGPT scrive Reuters). E chi si sta muovendo per primo, ovvero Microsoft con OpenAI, potrebbe beneficiare di vari vantaggi. “Per tenere il passo, Alphabet, Amazon e Meta potrebbero dover riscoprire la loro capacità di “move fast and break things”, (proprio quello che scrivevo, con le stesse parole, nella scorsa newsletter, nda), un compito delicato visto il controllo normativo cui sono sottoposte dai governi di tutto il mondo”, scrive l’Economist.
Inter nos, vorrei far notare però che questo mantra tech del “muoversi velocemente rompendo cose” ha portato, nel settore delle piattaforme digitali, ad alcuni dei grossi problemi sociali che ci stiamo trascinando ancora dietro come una zavorra, problemi che tendono a essere esternalizzati dalle aziende. Per cui ormai ogni volta che vedo quel motto “move fast and break things” associato a promesse rivoluzioni tech mi viene in automatico la tentazione di fondare il partito del bradipo.
Startup e ricercatori che girano
Ma torniamo agli attori in gioco in questa gara per la supremazia nell’AI.
L’Economist citava Anthropic, una startup di San Francisco fondata da ex ricercatori di OpenAI che ha sviluppato un chatbot di intelligenza artificiale, Claude, disponibile in beta privata, che secondo indiscrezioni (non verificabili) sarebbe simile a ChatGPT. Anthropic si descrive "impegnata a costruire sistemi di intelligenza artificiale affidabili, interpretabili e orientabili", e avrebbe creato Claude utilizzando un processo chiamato “AI costituzionale", che si basa su concetti quali beneficenza, non-maleficenza e autonomia (con un processo che prevede una fase di apprendimento supervisionato e una di apprendimento per rinforzo), scrive ancora Venture Beat. Da notare che avrebbe ricevuto finanziamenti anche da FTX, l’exchange fallito (di cui abbiamo scritto su Guerre di Rete qua). Qui il paper.
Alcuni mesi fa è stato lanciato anche Character AI, un chatbot AI che consente agli utenti di chattare con personaggi storici o di fantasia (l’ho provato e ho discusso in particolare con Socrate, che devo dire aveva decisamente una attitudine socratica, tendendo a fare domande al suo interlocutore).
La società che ci sta dietro è stata fondata da due ex Googlers, Noam Shazeer e Daniel de Freitas, che hanno contribuito allo sviluppo del modello linguistico LaMDA, di cui parlo più sotto. I due cofondatori avrebbero deciso di lanciare la loro startup dopo essersi sentiti frustrati dalle burocrazie tipiche delle grandi aziende, ha dichiarato a The Information Shazeer, che firmò anche il famoso paper di Google del 2017 su Transformer - Attention is all you need - una rivoluzionaria architettura di reti neurali che sarebbe diventata centrale nel far fare progressi all’elaborazione del linguaggio naturale.
Google: lascia o raddoppia?
Tornando ai colossi, grande attesa c’è ovviamente per il chatbot di DeepMind (di Alphabet, società madre di Google), chiamato Sparrow, che come avevo raccontato due newsletter fa dovrebbe essere rilasciato in una "beta privata" nel 2023 e che dovrebbe poter citare fonti - diversamente dall’attuale ChatGPT. Sparrow, presentato in un paper di settembre, sarebbe “un passo importante verso la creazione di sistemi di apprendimento automatico (machine learning) più sicuri, grazie all’utilizzo dell'apprendimento per rinforzo basato su input provenienti da umani che hanno partecipato al suo addestramento”, scrive Venture Beat.
Ma nella galassia Google c’è anche un’altro concorrente, LaMDA - Language Model for Dialogue Applications - che probabilmente vi ricorderete dall’affaire Lemoine. Blake Lemoine è quell’ingegnere di Google che è stato licenziato in concomitanza con le sue affermazioni pubbliche riguardo al fatto che LaMDA fosse senziente. “Abbiamo ritenuto del tutto infondate le affermazioni di Blake secondo cui LaMDA sia senziente e abbiamo cercato per molti mesi di chiarire questo punto con lui (...)”, aveva dichiarato Google al riguardo. “È quindi deplorevole che, nonostante il nostro impegno su questo tema, Blake abbia scelto di violare in modo persistente le nostre politiche sul lavoro e la sicurezza dei dati, che includono la necessità di salvaguardare le informazioni sui prodotti”.
La rivoluzione delle reti Transformer
Ad ogni modo, come ChatGPT, anche LaMDA si basa sulle reti Transformer, l'architettura che Google Research ha inventato e reso open source nel 2017. Tale architettura "produce un modello che può essere addestrato a leggere molte parole (una frase o un paragrafo, per esempio), a prestare attenzione a come queste parole si relazionano l'una con l'altra e quindi a prevedere quali parole pensa che verranno dopo".
Proprio sul ruolo delle reti Transformer nella “rivoluzione delle AI generative” si sofferma un lungo articolo di Ars Technica. “La svolta decisiva è stata un modello di Google chiamato transformer. I ricercatori di Google stavano lavorando a un problema molto specifico del linguaggio naturale: la traduzione. La traduzione è complicata: l'ordine delle parole è ovviamente importante, ma cambia nelle diverse lingue. (..) Un modello di intelligenza artificiale in grado di apprendere e lavorare con questo tipo di problemi deve gestire l'ordine in modo molto flessibile”. Che è in qualche modo quello che fanno le architetture di questo tipo, diversamente dalle precedenti.
E Facebook?
Nei giorni scorsi, un galvanizzante Mark Zuckerberg, oltre ad aver detto agli investitori che il 2023 sarà “l’anno dell’efficienza”, ha anche detto di voler rendere Meta leader nelle AI generative. E soprattutto che nel 2023 Meta “lancerà una serie di cose diverse” proprio su questo aspetto (FT). In attesa di queste “cose” potete sempre distrarvi col suo metaverso. Ah no…
OpenAI rilancia
Ma mentre in giro si discute delle potenzialità di concorrenti grandi o piccoli, OpenAI e Microsoft galoppano. Questa settimana il laboratorio di AI ha lanciato anche un nuovo piano di abbonamento pilota per ChatGPT, il suo ormai celeberrimo chatbot. ChatGPT Plus, per americani per ora, parte da 20 dollari al mese e, spiega OpenAI, offre l'accesso generale a ChatGPT anche nei momenti di picco, tempi di risposta più rapidi e accesso prioritario a nuove funzionalità e miglioramenti.
Sempre OpenAI ha appena rilasciato uno strumento gratuito - AI Text Classifier - un modello che predice la probabilità che un testo sia stato generato da una AI come ChatGPT. Dovrebbe cioè aiutare a capire se un particolare brano sia stato scritto da umani o da AI - con l’avvertimento però che lo strumento è imperfetto e che le prestazioni variano in base alla somiglianza del testo analizzato con i tipi di scrittura su cui ChatGPT è stato addestrato. "Ha sia falsi positivi che falsi negativi", ha dichiarato ad Axios Jan Leike, responsabile dell'allineamento di OpenAI, ammonendo che non ci si dovrebbe affidare solo a questo nuovo strumento per determinare la paternità di un documento.
Per la cronaca ho testato un pezzo della mia newsletter e dice che è molto improbabile che sia stata generata da una AI - nel caso aveste dei dubbi. Però con testi non in inglese è ancora meno accurato, quindi non fidatevi: potrei ancora essere un’AI.
Strumenti di verifica dei testi e il dibattito nel mondo dell’istruzione
Il tema è molto caldo e guarda caso siamo usciti proprio su questo argomento con un articolo su Guerre di Rete il giorno prima dell’annuncio di OpenAI. Scrive Giuditta Mosca: “Con l’arrivo sulla scena di ChatGPT, la necessità di riconoscere se un testo è stato scritto da un’intelligenza artificiale o meno ha già invaso l’ambito scolastico. La città di New York e la città di Los Angeles hanno deciso di impedire l’accesso al chatbot sviluppato da OpenAI dalle reti e dai dispositivi scolastici. La preoccupazione è che l’abuso dello strumento possa rendere più facile per gli studenti imbrogliare sui compiti. O che il suo utilizzo possa diffondere informazioni inesatte. (...) Dall’altra parte del mondo, in reazione a ChatGPT, alcune università australiane hanno dichiarato di voler fare un più ampio uso di carta e penna agli esami scritti e in generale di voler rivedere il modo in cui le prove sono valutate. L’urgenza di rivedere valutazioni e lavori assegnati viene condivisa da più parti. “Gli insegnanti dovranno ripensare i compiti in modo che non possano essere facilmente scritti dallo strumento”, ha commentato Darren Hicks, professore di filosofia alla Furman University”.
Leggi tutto: Lo ha scritto ChatGPT? Scuola e ricercatori in cerca di verifica.
Boom di azioni legali?
Insieme al boom di prodotti di AI e all’hype mediatica, stanno arrivando anche le cause legali, in particolari quelle contro AI generative, alla ChatGPT, accusate di usare illegalmente il lavoro altrui per costruire le loro piattaforme. In genere il riferimento in queste azioni legali è ai dati usati per fare l’addestramento, il training set. C’è una azione legale mossa contro OpenAI/Microsoft, e due contro Stability AI. Ne avevo già accennato la scorsa newsletter ma ora vorrei riprendere una riflessione su Vox al riguardo. Scrive Vox:
“Le questioni legali, per ora, tendono a riguardare il modo in cui i dati sono entrati nelle tecnologie di AI e chi ha il diritto di usarli. I sostenitori dell'AI dicono che 1) i modelli di AI possono imparare da serie di dati esistenti senza dover avere un’autorizzazione perché non c'è alcuna legge che vieti l'apprendimento e 2) la trasformazione di una serie di dati - anche se non se ne ha la proprietà - in qualcosa di completamente diverso è protetta dalla legge (...)”
Le argomentazioni contro invece sono varie: Getty Images (la nota agenzia fotografica) per esempio, afferma di non avere problemi a concedere in licenza le proprie immagini agli strumenti di intelligenza artificiale, ma il problema consisterebbe nel fatto che Stability AI, che ha sviluppato il generatore di immagini artistiche Stability Diffusion, avrebbe usato le sue immagini senza pagare. Invece nella causa OpenAI/Microsoft/GitHub, i querelanti sostengono che Microsoft e OpenAI - attraverso il progetto GitHub Copilot, che usa un’AI per scrivere programmi - “stia violando i diritti degli sviluppatori che hanno contribuito al codice su GitHub, ignorando le licenze del software open source che ne regolano l'uso commerciale”.
Infine, nella causa mossa da alcuni artisti contro Stability AI, i loro avvocati sostengono che la tecnologia AI stia davvero copiando il lavoro degli artisti, anche se l'output, ovvero le immagini che sono generate, non sono copie identiche all'originale. E che quanto generano sia in concorrenza con le capacità degli artisti di guadagnarsi da vivere.
Anche questo è un fronte molto caldo, nuovo e complesso ancora da chiarire.
“Con le mani sbucci le cipolle”… con le mani AI fai la zuppa per 50 persone
Se anche voi vi state chiedendo perché diamine questi generatori AI di immagini per quanto strabilianti non riescano a farci delle mani umane senza moltiplicare le dita come dei tentacoli alieni, c’è un simpatico articolo di Buzzfeed che affronta questo moderno enigma. Lo ha fatto chiedendolo ai diretti interessati, ai gestori delle tre principali piattaforme di questo tipo: Midjourney; Stability AI, che fa Stable Diffusion; e OpenAI, che ha creato DALL-E 2. Gli ha risposto solo Stability AI, che ha dichiarato: “È generalmente noto che nei dataset AI le immagini umane mostrino le mani in modo meno visibile rispetto ai volti. Le mani tendono inoltre a essere molto più piccole nelle immagini di partenza”. Il punto, secondo Buzzfeed, che ha poi contattato anche altri esperti, è che nelle fotografie, nei dipinti e nelle schermate da cui l'intelligenza artificiale impara, le mani sono spesso aggrappate a qualcosa. Non si vedono intere. Oppure possono essere strette a pugno, senza che siano visibili le dita.
Vero è - come nota giustamente anche l’articolo - che le mani sono sempre state complesse da rappresentare anche per artisti in carne e ossa. Ma almeno sui fondamentali non hanno quasi mai sbagliato…
Leggi anche: ChatGPT: cosa può fare e non può fare - Guerre di Rete
La generazione di opere creative con IA sta esplodendo - Guerre di Rete
BIG TECH
Twitter, in arrivo i pagamenti?
Twitter ha iniziato a richiedere le licenze normative negli Stati Uniti e a progettare il software necessario per introdurre i pagamenti sulla piattaforma di social media, mentre Elon Musk cerca nuove entrate per risollevare le sorti dell'azienda, scrive il FT. Il sistema sarà prima di tutto basato su valuta fiat, ma dovrebbe essere costruito in modo da poter aggiungere le funzionalità per le criptovalute in un secondo momento.
Eravamo una startup
Cosa succede dentro Amazon, Meta e Google dopo i licenziamenti.
Alla ricerca dell’identità perduta - reportage di Vox
CYBERCRIME
Le figure più ricercate dal cybercrimine
Secondo una nuova analisi della società di cybersicurezza Kaspersky, sembra che gli sviluppatori siano i più ricercati dal mondo cybercriminale. Tra le altre posizioni richieste figurano specialisti di attacchi, reverse engineer, tester, analisti, amministratori IT e designer. I ricercatori dell'azienda hanno esaminato 200mila messaggi legati al lavoro pubblicati su 155 forum del dark web tra gennaio 2020 e giugno 2022. L’analisi ha rilevato che gli annunci di lavoro - sia per la ricerca di un'occupazione che per l'inserimento di offerte di lavoro - hanno superato i 10.000 per trimestre. Gli annunci parlano anche di incentivi - come aumenti e premi per incarichi portati a buon fine - bonus per le segnalazioni di altri potenziali dipendenti, ferie pagate e requisiti che includono “no droghe”. Gli stipendi andavano da 100.000 dollari al mese in un annuncio a 20.000 dollari al mese in un altro, ma “i livelli mediani di retribuzione offerti ai professionisti IT variano tra i 1.300 e i 4.000 dollari”. (via Cyberscoop).
Su Guerre di Rete abbiamo raccontato le dinamiche economiche e quasi aziendali del mondo cybercriminale in questo articolo: Startup malware: come lavorano le gang cybercriminali
APPROFONDIMENTI
Il ruolo di Peter Thiel nella nuova destra americana - Vanity Fair
EVENTI
Torna RomHack con anche i training
La conferenza Romhack (organizzata da Cyber Saiyan) ha annunciato la sua data (16 settembre a Roma) e il nuovo format con training fatti da personalità di caratura internazionale. Qui tutte le info. Ricordo che Guerre di Rete sarà presente in forze alla conferenza anche con un suo spazio.
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. O diventa un suo sostenitore facendo una donazione. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> SOCIAL E PODCAST DI GUERRE DI RETE
Guerre di Rete ora ha anche un sito di notizie, una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)
.