Guerre di Rete - Geoff Hinton è uscito dal gruppo
Poi il crowdfunding di Guerre di Rete. ChatGPT, lavoro, storia dell'hacking e SolarWinds
(Immagine da Wikimedia - al centro Geoff Hinton)
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.159 - 7 maggio 2023
In questo numero:
- C’è ancora tempo per partecipare al nostro crowdfunding
- Geoff Hinton è uscito dal gruppo
- Samsung vieta l’uso di ChatGPT
- ChatGPT e i servizi di “tutoraggio” online
- Moderatori di contenuti uniti
- La storia dell’hacking è ancora da scrivere
- E altro
Partecipa al nostro crowdfunding, diventa Editore di Rete
Subito un aggiornamento sul crowdfunding di Guerre di Rete. In una sola settimana abbiamo raggiunto l’obiettivo minimo (che era di 15mila euro), abbiamo potuto contare su oltre cinquecento donatori (dato aggiornato ad oggi), e abbiamo ricevuto varie richieste di temi su cui scrivere.
Il crowdfunding (che è previsto fino al 31 maggio) sta comunque andando avanti, incluse le ricompense. E infatti continuano ad arrivare donazioni, idee, messaggi.
Per cui intanto un grande grazie a tutti! Qui trovate il nostro editoriale sul sito, scritto appena raggiunto l’obiettivo minimo.
E per chi volesse ancora partecipare e avere altre informazioni su come funziona il nostro crowdfunding, suggerire temi, partecipare a una conferenza annuale (online) del progetto, ricevere in anteprima dei contenuti aggiuntivi, e altre ricompense, basta cliccare questo bottone:
Da questo pulsante qua sopra raggiungerete infatti la nostra pagina https://donazioni.guerredirete.it/ dove potete donare (con vari metodi) e dove troverete molti più dettagli sulla campagna e il progetto.
AI
Geoff Hinton è uscito dal gruppo
La notizia che questa settimana ha invaso i media sul fronte intelligenza artificiale ha a che fare con delle dimissioni. O con una sorta di volontario pensionamento in vista di altri progetti. O con una di quelle uscite di scena che sembrano fatte per restarci, sulla scena.
Geoffrey Hinton, uno dei pionieri della rivoluzione del deep learning, 75 anni, ha lasciato Google. Ma è come ha mollato che ha fatto il botto. Così lo descrive il NYT: “Ha detto di aver lasciato il suo posto a Google, dove ha lavorato per più di dieci anni ed è diventato una delle voci più rispettate del settore, in modo da poter parlare liberamente dei rischi dell'AI. Una parte di lui, ha detto, ora si rammarica del lavoro di una vita. "Mi consolo con la scusa comune: se non l'avessi fatto io, l'avrebbe fatto qualcun altro", avrebbe detto nell’intervista al quotidiano Usa (Hinton in una intervista successiva che linko alla fine depotenzia un po’ le parole di rammarico).
A fare da innesco per questo ripensamento così radicale la recente corsa all’AI (ne ho scritto qua), messa in moto dai giganti tech: una competizione che potrebbe essere impossibile da fermare, ritiene Hinton.
Ma di cosa è preoccupato esattamente?
Nell’immediato, che internet venga inondata di foto, video e testi falsi. Che col tempo sia sconvolto il mercato del lavoro. E, in prospettiva, che le versioni future di questa tecnologia rappresentino una minaccia per l'umanità, apprendendo comportamenti inaspettati.
"Alcuni pensavano che queste tecnologie potessero diventare più intelligenti degli esseri umani. Ma la maggior parte delle persone lo riteneva improbabile. Anche io. Pensavo che fosse lontano dai 30 ai 50 anni o anche di più. Ovviamente, non lo penso più".
Per capire l’effetto delle parole di Hinton va ricordato il suo contributo decisivo all’ultima ondata di AI, quella basata sul deep learning - un tipo di apprendimento automatico (machine learning) basato sulle reti neurali artificiali in cui vengono utilizzati più livelli di elaborazione per estrarre caratteristiche dai dati (o come scrive Microsoft :“ogni livello contiene unità che trasformano i dati di input in informazioni che il livello successivo può usare per una determinata attività predittiva”).
Pur avendo lavorato su queste tecnologie dagli anni ‘80, è a partire dal 2012 che Hinton ha contribuito alla loro affermazione, con quello che è stato definito l’ImageNet Moment, ovvero il risultato ottenuto dal “team di Hinton”, (chiamiamolo così, qui il paper) nel campo della computer vision, vincendo a mani basse la più importante competizione nel riconoscimento di immagini e vincendola usando una implementazione del deep learning. Da quel momento di affermazione pratica delle reti neurali profonde (il trio creò un’azienda poi acquisita da Google - e Hinton poco prima di questo fatto fu visiting researcher nel colosso tech ma per un problema burocratico risultò, a 65 anni e con quella carriera alle spalle, come stagista) sarebbe infine esplosa l’AI che conosciamo (qui un articolo di Quartz che ricostruisce quel passaggio, qui un video, qui un altro articolo).
Ovviamente su Hinton ci sarebbe da dire molto di più, dal premio Turing (equivalente al Nobel dell’informatica, ne avevo già scritto qua) ricevuto nel 2018 proprio per il lavoro concretizzatosi nel 2012, ma anche per le precedenti ricerche degli anni ‘80 (sulla backpropagation, un algoritmo usato per l’addestramento delle reti) ai nomi illustri del settore attuale che in qualche modo sono passati da lui - uno fra tutti, il suo ex studente Ilya Sutskever, oggi cofondatore e chief scientist di OpenAI.
Hinton ha anche un altro aspetto della sua carriera che merita di essere evidenziato. Negli anni ‘80 avrebbe lasciato la Carnegie Mellon University per il Canada per non ricevere fondi del Pentagono, considerato che gran parte della ricerca sull’AI era finanziata dal Dipartimento della Difesa, scrive il NYT.
Eppure anche uno come Hinton non ha schivato le critiche. Una serie di altri ricercatori e ricercatrici che da tempo dissezionano la corsa all’AI si sono chiesti perché abbia aspettato così tanto per rendersi conto di preoccupazioni che appaiono pesanti e sostanziali. Le più esplicite sono tre ricercatrici che hanno lasciato (o sono dovute uscire da) Google proprio in dissenso sui rischi posti dall’intelligenza artificiale, e che accusano Hinton di non aver mostrato interesse o solidarietà all’epoca. E di non riconoscere questa lungimiranza neanche oggi, così come di non riconoscere i rischi attuali, concreti - invece che esistenziali e di lungo termine - evidenziati da quel gruppo di precursori. Salvo però incassare sui media l’immagine di colui che suona l’allarme su questa tecnologia.
Queste voci critiche includono Meredith Whittaker, ex googler oggi presidente di Signal e Chief Advisor dell’AI Now Institute (qui il suo thread al riguardo); Margaret Mitchell, ex googler ora ad Hugging Face (qui il thread); e ovviamente Timnit Gebru, ex googler (di cui ho parlato più volte in newsletter) oggi fondatrice del DAIR Institute (qui il suo thread).
Non fa sconti neanche la giornalista Parmy Olson, che scrive: “Si spera che la decisione di Hinton e i suoi avvertimenti possano ispirare altri ricercatori di grandi aziende tech a parlare delle loro preoccupazioni. I conglomerati tecnologici hanno fagocitato alcune delle menti più brillanti del mondo accademico grazie al richiamo di stipendi elevati, benefit generosi e l'enorme potenza di calcolo utilizzata per addestrare e sperimentare modelli di AI sempre più potenti.(...) Molti ricercatori sembrano accettare con fatalismo il fatto che si possa fare ben poco per arginare la marea dell'AI generativa, ora che è stata rilasciata nel mondo. (...) Ma se i ricercatori di oggi sono disposti a parlare ora, quando conta, e non poco prima di andare in pensione, probabilmente ne trarremo tutti beneficio”.
Pochi giorni fa Hinton ha rilasciato una intervista molto interessante a un evento del MIT Media Lab , dove parla di quelle che ritiene essere le differenze tra intelligenza umana e artificiale, delle ragioni della sua uscita da Google (legate anche all’età, dice), della corsa all’AI (che imputa a OpenAI e Microsoft), dei rischi (ritiene davvero che potremmo essere superati dall’intelligenza artificiale al punto da non riuscire a controllarla). Non mancano anche risposte evasive alle domande fatte dal bravissimo intervistatore, Will Douglas Heaven. Ci sono un paio di momenti esilaranti. Consigliatissima. Qua il podcast (inglese).
AI
Samsung vieta l’uso di ChatGPT e simili
Samsung ha vietato l'uso di strumenti di AI generativa come ChatGPT sulle sue reti interne e sui dispositivi aziendali. Il timore è che usando questi strumenti per fare riassunto di testi o scrivere risposte a email i dipendenti possano caricare informazioni sensibili su queste piattaforme, riferisce Bloomberg. Il divieto - sotto forma di memo inviato allo staff - arriverebbe, secondo la testata, dopo la scoperta che alcuni dipendenti avrebbero caricato codice interno su ChatGPT.
“I rischi per la privacy legati all'utilizzo di ChatGPT variano a seconda di come un utente accede al servizio”, commenta The Verge. “Se un'azienda utilizza l'API di ChatGPT, le conversazioni con il chatbot non sono visibili al team di assistenza di OpenAI e non vengono utilizzate per addestrare i modelli dell'azienda. Tuttavia, questo non vale per il testo inserito nell'interfaccia web generale utilizzando le impostazioni predefinite”.
Anche una serie di gruppi bancari hanno ristretto l’uso di questi strumenti, da JPMorgan a Bank of America, Citigroup, Deutsche Bank, Goldman Sachs e Wells Fargo.
ChatGPT e i servizi di “tutoraggio” online
Dopo aver dichiarato che il picco di interesse degli studenti per ChatGPT stava iniziando a danneggiare le sue vendite, Chegg - azienda americana di servizi online per studenti - ha visto crollare della metà le sue azioni, con un effetto domino anche su altre aziende del settore tech e istruzione, come Udemy e Duolingo, riferisce il Financial Times.
“Chegg è un caso in qualche modo unico - commenta Politico nella sua newsletter - in quanto azienda che è stata oggetto di un intenso scrutinio anche prima della sua apparente ammissione di sconfitta da parte di ChatGPT - permette agli studenti di pubblicare online i propri compiti in cerca di risposte da parte di altri (...) ora ChatGPT fornisce gratuitamente qualcosa di abbastanza simile al servizio per il quale Chegg attualmente fa pagare 15,95 dollari al mese”.
Il riferimento è al modo in cui gli studenti usano lo strumento e ad almeno due indagini - condotte dalla Boston University e dalla Georgia Tech University - su come alcuni iscritti avevano usato lo strumento per farsi “aiutare”, diciamo così, negli esami.
Forse bisogna tenere conto della specificità di simili piattaforme - che mettono a disposizione dei tutor per rispondere a quiz - prima di dare per morto tutto il settore dell’educazione o pensare che sia facilmente rimpiazzabile dall’AI.
Nel gennaio 2023, la piattaforma di didattica online Study ha intervistato più di 1.000 studenti americani (sopra i 18 anni) e oltre 100 docenti. Oltre l'89% degli studenti ha dichiarato di aver utilizzato ChatGPT per un aiuto con un compito a casa. Quasi la metà ha ammesso di aver usato ChatGPT per un test o un quiz a casa, il 53% per scrivere un saggio e il 22% per abbozzarne uno.
Forse per questa ragione, ipotizza Rest of the World, alcuni lavoratori di quella particolare industria nota come academic writing (o, più prosaicamente, contract cheating) fatta di studenti che offrono online i loro servizi per scrivere compiti e lavori per altri (questi ultimi in genere studenti benestanti nordamericani) starebbe subendo i primi contraccolpi. Rest of The World ha intervistato alcuni lavoratori di questo “settore” in Kenya, anche se finora si tratta più di testimonianze aneddotiche (per quanto interessanti da vari punti di vista). E poi, come notava un altro testimone di questo particolare segmento di freelance, rimarrebbe comunque la necessità di revisionare anche i testi eventualmente prodotti dall’AI…
Moderatori di contenuti uniti (in Africa)
Onestamente, se vogliamo parlare di AI e lavoro, la notizia più interessante potrebbe essere la seguente.
Oltre 150 lavoratori, il cui operato è alla base dei sistemi di AI di Facebook, TikTok e ChatGPT, si sono riuniti a Nairobi e si sono impegnati a fondare il primo sindacato africano dei moderatori di contenuti, riporta Time, ricordando come si tratti di uno dei lavori del comparto tech (per quanto svolto attraverso intermediari) tra i meno pagati, “con alcuni lavoratori che guadagnano anche solo 1,50 dollari all'ora”.
“Da TikTok a Facebook, queste persone devono affrontare gli stessi problemi. Contenuti tossici, mancanza di assistenza per la salute mentale, lavoro precario: si tratta di carenze sistemiche nella moderazione dei contenuti”, ha dichiarato Martha Dark, codirettrice della ong Foxglove che ha seguito il caso.
ChatGPT e Italia
Come sapete, a fine aprile ChatGPT è tornato disponibile in Italia. “Alla vigilia della scadenza dei termini imposti dall'Autorità garante per la protezione dei dati personali alla società guidata da Sam Altman per regolarizzare la propria posizione, che cadono il 30 aprile, OpenAI ha ripristinato il servizio che aveva spento circa un mese fa, in risposta alla sospensione temporanea del trattamento delle informazioni per violazione del Gdpr, ha scritto Luca Zorloni su Wired Italia. OpenAI ha anche “messo mano ai propri processi interni, introducendo nuove funzioni per la privacy per tutti gli utenti a livello mondiale, che soddisfano alcune richieste dell'autorità italiana. E, successivamente, ha ripristinato il servizio e gli abbonamenti che aveva congelato”.
E dunque OpenAI:
- ha pubblicato sul proprio sito un’informativa rivolta a tutti gli utenti e non utenti, in Europa e nel resto del mondo, per illustrare quali dati personali e con quali modalità sono trattati per l’addestramento degli algoritmi e per ricordare che chiunque ha diritto di opporsi a tale trattamento;
- ha ampliato l’informativa sul trattamento dei dati riservata agli utenti del servizio
- ha riconosciuto a tutte le persone che vivono in Europa, anche non utenti, il diritto di opporsi a che i loro dati personali siano trattati per l’addestramento degli algoritmi anche attraverso un apposito modulo compilabile online
- ha previsto per gli interessati la possibilità di far cancellare le informazioni ritenute errate dichiarandosi, allo stato, tecnicamente impossibilitata a correggere gli errori;
- ha inserito nella maschera di registrazione al servizio la richiesta della data di nascita
Mancano ancora delle misure previste nelle prossime settimane, tra cui l’implementazione di un sistema di verifica dell’età e la pianificazione e realizzazione di una campagna di comunicazione (sintesi dal documento del Garante).
AI E LEGGI
L’AI causerà danni ma… aspettiamo
L’intelligenza artificiale sarà pericolosa nelle mani di persone senza scrupoli, ha dichiarato il Chief Economist di Microsoft, Michael Schwarz. "Sono certo che l'intelligenza artificiale sarà utilizzata da malintenzionati e che causerà danni reali. Può fare molti danni nelle mani degli spammer con le elezioni e così via", riferisce Bloomberg. E chiaramente l'intelligenza artificiale deve essere regolamentata, ma i legislatori dovrebbero essere cauti e aspettare che la tecnologia causi "danni reali", avrebbe aggiunto.
Non mi è chiarissimo questo passaggio tra: non ho dubbi che causerà danni e dobbiamo aspettare che li causi. Diciamo che sembra un po’ riverberare quella contraddizione di cui sono portatori oggi tutti i principali leader della corsa economica all’AI (OpenAI & Microsoft, Google ecc). Ovvero siamo consapevoli dei rischi ma non metteteci paletti. Qualcuno potrebbe sicuramente obiettare che non si tratta di contraddizione ma di una scelta ideologica.
Come deve essere una regolazione dell’AI (secondo Schaake)
Chi invece pensa che si debba agire e che la politica debba riprendersi un ruolo preminente è Marietje Schaake, un passato da combattiva europarlamentare sui temi digitali (molto nota e raccontata anche da Guerre di Rete la sua battaglia contro l’abuso di spyware prima che il tema esplodesse a livello europeo con la commissione PEGA). Oggi è special adviser di Margrethe Vestager, vice-presidente esecutiva della Commissione europea.
Scrive Schaake sul FT: “Qualsiasi normativa di successo sull'AI deve affrontare tre aree. In primo luogo, occorre riequilibrare le dinamiche di potere tra gli sviluppatori di AI e il resto della società. Questa asimmetria è già così significativa che solo le più grandi aziende tecnologiche possono sviluppare l'AI, sia per l'accesso ai set di dati che per la capacità di addestrarli ed elaborarli. Perfino una ricca università come Stanford, che forma i migliori ingegneri del settore, non ha i dati o la potenza di calcolo delle aziende della vicina Silicon Valley. Di conseguenza, i segreti del funzionamento interno dell'AI - che hanno un enorme impatto sulla società - rimangono chiusi nei sistemi aziendali.
Il secondo problema è l'accesso alle informazioni. Devono esserci garanzie di interesse pubblico per consentire ai legislatori di vedere il funzionamento interno dell'AI. Non c'è una comprensione pubblica degli algoritmi che governano le applicazioni che hanno un impatto sulla società. Questo a sua volta impedisce una discussione basata sui fatti, una politica pubblica mirata e i necessari meccanismi di responsabilità.
In terzo luogo, non possiamo ignorare la natura in continua evoluzione dell'AI. La regolamentazione deve essere flessibile e applicabile in modo netto”.
CYBERSICUREZZA
Occhio al malware travestito da estensione ChatGPT
Il team di sicurezza di Meta (Facebook) ha individuato da marzo a oggi 10 famiglie di malware che utilizzano ChatGPT (e argomenti simili) per diffondere software malevolo ai dispositivi degli utenti. Ad esempio, creando estensioni malevole del browser, che affermano di offrire strumenti basati su ChatGPT, e distribuendole negli web store ufficiali. Queste estensioni erano poi promosse sui social media e attraverso risultati di ricerca sponsorizzati. Via TechCrunch
CYBERCULTURA
Sulla storia dell’hacking c’è ancora molto da raccontare
La sua cultura ha radici più profonde di quello che pensiamo. Non nasce solo in università. È difficile da documentare. Ha tante facce ma anche una matrice comune. Così argomenta un nuovo libro che esplora l’eredità politica del movimento hacker.
”Se l’hacking oggi è ovunque – e in alcuni casi a sproposito – le sue origini come fenomeno sociale prima che tecnologico sono spesso di più difficile tracciamento. Federico Mazzini, professore associato all’Università di Padova, dove insegna digital history e storia dei media e della comunicazione, ha di recente pubblicato Hackers. Storia e pratica di una cultura (Laterza), un libro che propone una disamina storica dell’hacking a livello internazionale (non italiano), inquadrando le caratteristiche della sua cultura in un continuum storico ampio, che è possibile, a detta dell’autore, far risalire ai primi del 900 e agli albori delle tecnologie di comunicazione.”
Leggi l’articolo di Philip Di Salvo per Guerre di Rete.
APPROFONDIMENTI
CYBER
Cosa sappiamo oggi dell’attacco via SolarWinds
A distanza di tre anni dalla scoperta di una delle più devastanti campagne di spionaggio a danno degli Usa, il SolarWinds hack - uno dei più sofisticati esempi di attacco della catena di fornitura (supply chain), di cui avevo scritto qua - sono ancora molti i punti oscuri.
“Molte delle agenzie federali colpite non tenevano log di rete adeguati e quindi potrebbero anche non sapere cosa è stato preso. Peggio ancora: alcuni esperti ritengono che SolarWinds non fosse l'unico vettore: altri produttori di software stavano diffondendo malware, e potrebbero ancora farlo. Quello che segue è un resoconto dell'indagine che ha infine smascherato l'operazione di spionaggio: come è avvenuta e cosa sappiamo”, scrive Kim Zetter per Wired.
Approfondimento imperdibile per chi si occupa di cybersicurezza.
CRIMINE
Monopoly Market era stato sequestrato
L’Europol ha annunciato che 288 sospetti coinvolti nel traffico di droga sul mercato delle darknet "Monopoly Market" sono stati arrestati in tutto il mondo. L'annuncio è la prima conferma che l’improvvisa chiusura di Monopoly Market avvenuta a fine 2021 - all’epoca non venne data notizia, probabilmente per proseguire meglio le indagini, lasciando credere che fosse una decisione degli amministratori - era in realtà il risultato di un'azione di polizia (via The Record)
RICONOSCIMENTO FACCIALE
Facce da europarlamentari
Nasce DontSpyEU, una campagna che finge un riconoscimento facciale degli europarlamentari per convincerli a vietare le tecnologie di sorveglianza. In pratica viene simulato un riconoscimento biometrico dei politici, usando un algoritmo (già impiegato in molti prodotti), che assegna a ciascun eletto/a genere, età e “stato emotivo”. L’obiettivo è evidenziare il margine di errore e di approssimazione con cui queste tecnologie operano. C’è anche un invito agli sviluppatori affinché partecipino alla campagna (organizzata da Hermes Center, The Good Lobby e info.nodes). Che chiede a tutte le istituzioni europee di vietare il riconoscimento biometrico per garantire il massimo rispetto della privacy e della libertà di espressione in vista del voto in Commissione sull’AI ACT dell’11 maggio.
Da questo pulsante qua sopra raggiungerete la nostra pagina https://donazioni.guerredirete.it/ dove potete donare (con vari metodi) e dove troverete molti più dettagli sulla campagna e il progetto.
→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. O diventa un suo sostenitore facendo una donazione. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua, è gratuita.
—> SOCIAL E PODCAST DI GUERRE DI RETE
Guerre di Rete ora ha anche un sito di notizie, una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)