Guerre di Rete - Blackout su Gaza
Il conflitto arriva pure su Roblox. AI: c'è chi vuole avvelenare i dati.
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.171 - 28 ottobre 2023
In questo numero:
- Blackout su Gaza
- AI, chi vuole avvelenare il dato
- Lettera sull’AI
- LLM e sanità
- Italia, AI e comitati
INTERNET E CONFLITTO
Blackout su Gaza
Nella scorsa newsletter avevo raccontato come la Striscia di Gaza stesse subendo una progressiva riduzione della connettività. Negli ultimi tre giorni questa ha visto un ulteriore tracollo. Mentre le Forze di Difesa israeliane annunciavano di "espandere le operazioni di terra", il servizio che monitora internet Netblocks riferiva di un "crollo della connettività nella Striscia di Gaza". Vuol dire no internet, no comunicazioni telefoniche. Uno dei principali e ormai ultimi fornitori di telecomunicazioni palestinesi, Paltel, è stato fortemente colpito dagli intensi attacchi aerei, e ha dichiarato di aver subito "un'interruzione completa di tutti i servizi di comunicazione e internet" a seguito del bombardamento.
Interruzione confermata da Netblocks.
“Le continue esplosioni di attacchi aerei hanno illuminato il cielo di Gaza City dopo il tramonto di venerdì, quando si è verificato il black-out di internet, dei servizi cellulari e della rete fissa - scrive il WashPost - La Mezzaluna Rossa ha dichiarato di aver perso tutti i contatti con la sua sala operativa e con le squadre mediche. Ha dichiarato di temere che la gente non sia più in grado di contattare i servizi di ambulanza. Altri gruppi di soccorso hanno detto di non essere in grado di raggiungere il personale sul posto”.
Così ha confermato su Twitter proprio la Mezzaluna Rossa palestinese: “Abbiamo perso completamente i contatti con la sala operativa nella Striscia di Gaza e con tutte le nostre squadre che operano lì, a causa dell'interruzione da parte delle autorità israeliane di tutte le comunicazioni su rete fissa, cellulare e internet”.
I giornalisti dello stesso WashPost hanno scritto sui social di non riuscire più a raggiungere i colleghi a Gaza.
Quasi tutti i fornitori di internet e comunicazioni sembrano essere stati direttamente danneggiati.
“La sede di Paltel nel quartiere Al Rimal di Gaza City è stata distrutta dagli attacchi, come mostrano foto e video - scrive Wired Usa - . I pavimenti sono stati distrutti e le finestre sono state spazzate via nell'edificio a più piani, e cumuli di macerie circondano gli ingressi. (...) Un altro fornitore di servizi Internet, AlfaNet, risulta avere sede nella torre Al-Watan. L'8 ottobre l'azienda ha scritto sulla sua pagina Facebook che la torre era stata distrutta e che i suoi servizi erano stati interrotti (...)
“La rete è stata distrutta e i cavi e i tralicci sono stati gravemente danneggiati dal bombardamento", ha pubblicato su Facebook il fornitore internet Fusion”.
E a dichiarare danni alle proprie infrastrutture sono stati anche JetNet, SpeedClick e HiNet.
Su Twitter ha preso piede l’hashtag ##starlinkforgaza, in cui alcuni utenti chiedono a Elon Musk di fornire connettività alla Striscia tramite Starlink, così come ha fatto in Ucraina (anche se non si capisce come potrebbero far arrivare i terminali sul territorio assediato e in cui a stento arrivano cibo e medicine).
Aziende di sorveglianza cyber mobilitate
Mentre sulla Striscia rischia di calare il silenzio delle comunicazioni, Israele - riferisce il quotidiano israeliano Haaretz - ha reclutato le principali aziende che vendono strumenti di sorveglianza digitale. “Tra queste ci sono imprese di cyber offensive come NSO, Rayzone, Paragon e Candiru; diverse società di intelligence digitale come Cobwebs, AnyVision e Intelos; oltre a decine di aziende di difesa, tra cui Cato Networks, Palo Alto, Persist e persino ActiveFence, che fornisce servizi di anti-disinformazione”, scrive la testata.
Ma il conflitto continua a tracimare nella dimensione digitale (che, come sapete e come ho ricordato nella scorsa edizione, è quella su cui si concentra questa newsletter) anche e soprattutto nella parte informativa-dimostrativa. A volte in forme davvero inusuali.
Manifestazioni su Roblox
Su Roblox - gioco e universo virtuale per bambini e ragazzini, molto popolare in tutto il mondo - sono state documentate manifestazioni “virtuali” per la Palestina. L’epicentro sembra essere la Malesia, dove si sono registrate anche manifestazioni in strada. Sono andata su Roblox, e in effetti, anche se la manifestazione era conclusa, ci sono vari gruppi a sostegno della Palestina, alcuni più vecchi, altri nati o rivitalizzati con molti messaggi negli ultimi drammatici giorni
(metto uno screenshot qua sotto).
Intanto, l’exchange di criptovalute Binance ha congelato i conti legati ai militanti di Hamas su richiesta delle forze dell'ordine israeliane. Secondo un post su WeChat del 10 ottobre di Yi He, cofondatore dell’exchange, il blocco è rivolto ad Hamas e non al popolo palestinese, scrive Cointelegraph.
E Telegram ha bloccato due canali di Hamas ma solo su dispositivi Android in seguito alle linee guida del Play store di Google, riferiscono varie testate.
AI E CREATORI
Avvelenare il dato
Un nuovo tipo di attacco promette di contrastare le aziende di AI generativa che usano il lavoro degli artisti, senza il loro consenso, per addestrare i propri modelli. La metodologia, sviluppata da un team guidato da Ben Zhao, professore all’University of Chicago, consentirà agli artisti di aggiungere delle modifiche (invisibili a occhio umano) alle loro opere prima di caricarle online. Col risultato che, se queste sono inserite in un set di addestramento per l'AI, il modello rischia di dare risultati caotici e imprevedibili.
“L’uso di questo strumento per "avvelenare" i dati di addestramento potrebbe danneggiare le future iterazioni di modelli di AI che generano immagini, come DALL-E, Midjourney e Stable Diffusion, rendendo inutili alcuni dei loro risultati: i cani diventano gatti, le auto diventano mucche e così via”, scrive il MIT Technology Review, che ha avuto accesso in anteprima alla ricerca, presentata per peer-review alla conferenza di sicurezza informatica Usenix.
La novità del paper è così espressa dagli stessi autori: “il nostro lavoro dimostra (...) che gli attuali modelli di diffusione da testo a immagine sono molto più suscettibili agli attacchi di avvelenamento (data poisoning) di quanto non si creda comunemente” (...). “Sorprendentemente, dimostriamo che un numero moderato di attacchi Nightshade [così li chiamano, ndr] può destabilizzare le caratteristiche generali di un modello generativo testo-immagine, disabilitando di fatto la sua capacità di generare immagini significative. Infine, proponiamo l'uso dell’attacco Nightshade e di strumenti simili come ultima difesa per i creatori di contenuti contro web scrapers che ignorano le direttive opt-out/do-not-crawl e discutiamo le possibili implicazioni per i creatori di modelli e di contenuti”, scrivono ancora gli autori.
In base alla ricerca, con 50 campioni di immagini così ”avvelenate”, un attaccante può manipolare ad esempio Stable Diffusion - uno dei più noti tool con cui generare immagini - per influenzare il risultato di prompt specifici (detta un po’ semplicisticamente: se si vuole generare immagini di cani, con 50 campioni avvelenati, le immagini prodotte dal prompt “cane” iniziano a essere deturpate; con 300, escono dei gatti).
Il team di Zhao ha anche sviluppato Glaze, un altro sistema che consente agli artisti di "mascherare" il proprio stile personale. Tuttavia “Nightshade fa un ulteriore passo avanti - scrive Ars technica - corrompendo i dati di addestramento. In sostanza, inganna i modelli di intelligenza artificiale inducendoli a identificare erroneamente gli oggetti all'interno delle immagini. (..) Per fare ciò Nightshade prende un'immagine del concetto desiderato (ad esempio, un'immagine reale di un "cane") e la modifica sottilmente in modo che mantenga il suo aspetto originale, ma sia influenzata nello spazio latente (codificato) da un concetto completamente diverso (ad esempio, "gatto"). In questo modo, a un controllo umano o a un semplice controllo automatico, l'immagine e il testo sembrano allineati. Ma nello spazio latente del modello, l'immagine presenta caratteristiche sia del concetto originale che di quello avvelenato, il che porta il modello fuori strada quando viene addestrato sui dati”.
Lo spazio latente è, in sintesi, la rappresentazione dei dati compressi da parte di una rete neurale profonda (per una definizione più appropriata e articolata andate qua).
“Abbiamo un disperato bisogno di più strumenti che permettano a creatori e consumatori di mantenere il controllo sul proprio lavoro, sui propri dati e sulla propria privacy”, ha commentato su Linkedin Ana Brzezińska, responsabile dell’Immersive programming al Tribeca festival. “Abbiamo bisogno di soluzioni software e hardware (open source) che non si basino sull'estrazione dei dati e che rispettino i diritti digitali delle persone e la proprietà delle loro creazioni e dei loro input. È sempre stata la stessa lotta, comunque la si guardi, e non è mai stata così urgente”.
Positivo anche il commento su Twitter di Melanie Mitchell, ricercatrice in Ethical AI e già fondatrice dell’Ethical AI Group a Google, oggi Chief AI Ethics Scientist ad Hugging Face.
“Si può pensare che sia un po' come "gettare sabbia negli ingranaggi" di un sistema di apprendimento automatico (AI). È interessante dal punto di vista della rivendicazione dei diritti, perché una quantità sufficiente di "sabbia" come questa costringe le aziende a curare ogni esempio che forniscono all'AI in modo da sapere se è utilizzabile. E quando si costringe un'azienda a curare i propri dati, prestando attenzione a ciò che viene raccolto dai propri modelli, si creano le basi per il consenso, il risarcimento e l’attribuzione”.
Su questo tema sul sito Guerre di Rete abbiamo appena pubblicato un articolo sul rapporto artisti e AI generativa. Fa parte del nostro ebook Generazione AI uscito all’inizio di settembre solo per i nostri donatori del crowdfunding di aprile.
Si intitola: Creare insieme o contro l’algoritmo?
La diffusione capillare di intelligenze artificiali generative sta già avendo un impatto sugli artisti. Cambierà anche il nostro modo di essere creativi?
”Strumenti come Have I Been Trained? permettono a chiunque di effettuare una ricerca all’interno del database LAION-5B, quello usato da Midjourney e altri, per verificare la presenza delle proprie opere o meno. Ancora, script come NO AI permettono a chiunque di applicare alle proprie opere originali un watermark che impedisce ai bot utilizzati per fare raccolta (scraping) di immagini di acquisirle.
Resta, però, un punto importante da affrontare: molto probabilmente, le intelligenze artificiali generative sono arrivate per restare. Altrettanto probabilmente, i loro casi d’uso reali saranno estremamente specifici e lontani da un’applicazione concreta per il grande pubblico. Immaginare forme di collaborazione con questi nuovi strumenti non è soltanto una contingenza storica, ma in un certo senso il compito stesso dell’artista che si ritrova a interagire sempre con nuovi strumenti.”, scrive Federico Nejrotti.
AI
Un’altra lettera (o paper) collettiva su come gestire i rischi dell’intelligenza artificiale
È arrivata un’altra lettera aperta sui rischi esistenziali dell’AI. È almeno la terza. Negli scorsi giorni infatti 24 esperti di AI hanno pubblicato un documento (lo definiscono un paper) che invita i governi ad agire per gestire i rischi derivanti da questa tecnologia. Alcuni di questi rischi sono quelli relativi all’impatto dell’AI sulla società, e che trovano un ampio consenso fra gli studiosi, anche perché amplificherebbero alcune tendenze già in atto: “Soprattutto nelle mani di pochi potenti attori, l'AI potrebbe consolidare o esacerbare le disuguaglianze globali, oppure facilitare la guerra automatizzata, la manipolazione di massa personalizzata e la sorveglianza pervasiva”, scrivono all’inizio.
Tuttavia il documento si concentra soprattutto sui rischi estremi posti dai sistemi più avanzati (oggi ancora inesistenti), dando per scontato che questi sistemi arrivino a un livello tale da essere in grado di perseguire i loro obiettivi in modo non solo autonomo ma in opposizione agli umani. Insomma c’è ancora molto forte l’ideologia del “rischio esistenziale” in questo documento.
“Per raggiungere obiettivi indesiderati, i futuri sistemi autonomi di AI potrebbero utilizzare strategie indesiderate, apprese dagli esseri umani o sviluppate in modo indipendente, come mezzo per raggiungere un fine (...) potrebbero ottenere la fiducia degli esseri umani, acquisire risorse finanziarie, influenzare i decisori chiave e formare coalizioni con soggetti umani e altri sistemi di AI”, scrivono.
Tuttavia la lettera o paper che dir si voglia contiene anche alcune raccomandazioni politiche concrete - nota TIME - come quella di garantire che le principali aziende tecnologiche e i finanziatori pubblici dedichino almeno un terzo del loro budget per la ricerca e lo sviluppo dell'AI a progetti che promuovano un uso sicuro ed etico di questa tecnologia. Gli autori chiedono inoltre la creazione di standard nazionali e internazionali.
Questa ennesima dichiarazione firmata da varie personalità del settore - ancora una volta spiccano Yoshua Blengio e Geoffrey Hinton - è da vedersi anche come un posizionamento nei confronti dell’attività di regolamentazione di vari governi.
L’Ue sta entrando nelle fasi decisive del suo regolamento AI Act. Gli Usa, ancora lontani da una legge, stanno chiedendo finora un impegno volontario da parte delle principali aziende. Il Regno Unito, con il primo ministro Rishi Sunak, sta cercando di svolgere un ruolo da protagonista nella cooperazione e governance globale di questi temi.
Ma attenzione, con un focus molto specifico. L’AI Summit organizzato nei prossimi giorni in UK “si concentrerà sui rischi alla frontiera dell'AI, relativi all'uso improprio dell'AI da parte di attori non statali per compiere danni come attacchi informatici o progettare armi biologiche, nonché sui rischi legati alla perdita di controllo sull'AI, in cui i sistemi possono agire autonomamente in modo non conforme alle nostre intenzioni o ai nostri valori”, recita il comunicato del governo britannico.
Molto in secondo piano, se non assenti, i rischi che vediamo già implementati oggi in molti sistemi, dall’uso di queste tecnologie per la sorveglianza, alla gestione automatizzata e al rischio discriminazione di benefit e welfare, alla riproduzione e consolidamento di pregiudizi e stereotipi.
Del resto, nota su Twitter Carissa Veliz, professoressa all’Institute for Ethics in AI all’università di Oxford, “i dirigenti del settore tecnologico non sono le persone giuste per consigliare i governi su come regolamentare l'AI. I loro conflitti di interesse sono troppo profondi. Possono dare un contributo, ma non dovrebbero essere autorizzati a dominare la conversazione”.
Rileggete questa frase sopra per favore. Perché è tanto ovvia quanto centrale. E molte delle iniziative che stiamo vedendo negli ultimi mesi servono proprio a questo: a dominare la conversazione. Ma, come ho scritto nell’editoriale del nostro ebook Generazione AI, il dibattito sull’intelligenza artificiale non può restare confinato tra gli addetti ai lavori, specie se questi sono principalmente dirigenti di startup e imprese con un obiettivo molto chiaro, che non coincide per natura col bene comune.
Intanto, anche l’Onu ha creato il suo comitato di esperti sull’AI, scrive Wired Italia.
AI E BIASES
Modelli usati nella sanità sotto la lente
Strumenti di intelligenza artificiale generativa stanno entrando in studi medici e ospedali (ad esempio per riassumere gli appunti dei medici e analizzare le cartelle cliniche), ma secondo uno studio condotto dai ricercatori della Stanford School of Medicine i chatbot più diffusi perpetuano vecchie idee mediche razziste e rigettate dalla scienza, facendo temere che questo genere di strumenti possano peggiorare le disparità sanitarie di alcune categorie di pazienti.
Chatbot come ChatGPT e Bard hanno risposto alle domande dei ricercatori con una serie di idee errate e false sui pazienti neri, sostiene lo studio, pubblicato sulla rivista Digital Medicine, e riportato dall’agenzia AP. Che riferisce anche alcune perplessità rispetto al tipo di domande fatte dai ricercatori: “nessun dottore sano di mente farebbe quel tipo di ricerche”, ha commentato un medico che non ha preso parte a quello studio, pur riconoscendo la necessità di indagare punti di forza e di debolezza di questi modelli.
“I modelli linguistici di grandi dimensioni (LLM) sono stati proposti per l'uso in medicina e si sono sviluppate partnership commerciali tra gli sviluppatori di LLM e i fornitori di cartelle cliniche elettroniche”, scrivono gli autori dello studio. “Mentre continuano a diffondersi, gli LLM possono amplificare i pregiudizi, propagare le disuguaglianze strutturali esistenti nei dati di addestramento e, in ultima analisi, causare danni a valle. Sebbene alcuni studi abbiano valutato le applicazioni dei LLM per rispondere a domande mediche, rimane ancora molto lavoro da fare per comprendere le criticità di questi modelli nel fornire supporto agli operatori sanitari. Studi precedenti sui biases nei LLM hanno rivelato pregiudizi di genere e razziali su compiti linguistici generali, ma nessun lavoro ha valutato se questi modelli possano perpetuare una medicina basata sulla razza”.
Bias razziali
I media internazionali stanno dando grande spazio alla questione dei pregiudizi razziali nei dataset e nei modelli di AI. Segnalo dunque anche un articolo di Rest of The World che ha indagato la rappresentazione di diverse nazionalità tramite i generatori di immagini, alla Midjourney; e un altro di NPR che racconta il risultato di quando si prova a fare generare un’immagine come “dottore africano nero cura bambini bianchi”.
APPROFOMDIMENTI
AI E ITALIA
Comitati, commissioni e strategie tricolori
È nato un comitato di 13 esperti per guidare la strategia nazionale sull'intelligenza artificiale. Li ha nominati Alessio Butti, sottosegretario della presidenza del Consiglio dei ministri con delega all'innovazione.
La commissione Butti non c'entra però con il comitato algoritmi voluto da un altro sottosegretario del governo, Alfredo Barachini, che ha chiamato a presiederlo il costituzionalista Giuliano Amato, e che si occuperà dell'impatto degli algoritmi nel mondo dell'informazione.
“Non si comprende tuttavia la necessità di questa seconda squadra di esperti sull'intelligenza artificiale - scrive Luza Zorloni su Wired Italia - dato che già l'AI Act impone regole su come affrontare le ricadute in ambito media e la commissione Butti avrà il compito di indirizzare le strategie a tutto campo. Un doppione, insomma, il comitato algoritmi di Amato. Peraltro già il primo governo guidato da Giuseppe Conte aveva istituito una commissione per stabilire una strategia sull'intelligenza artificiale”.
In quanto a Butti, prosegue Wired, dovrebbe anche “attivare un veicolo dedicato all'intelligenza artificiale con una dote di 800 milioni, gestito insieme all'Agenzia nazionale sulla cybersecurity (Acn) e al Fondo nazionale innovazione di Cassa depositi e prestiti. Il sottosegretario immagina di costituire una fondazione. La manovra consegna a Fratelli d'Italia le redini sulle strategie nazionali in materia di AI”.
EVENTI
Ci vediamo il 31 ottobre al Circolo dei lettori di Torino per parlare di AI e informazione.
DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Non sei ancora iscritto? Iscriviti qua cliccando sul bottone rosso Subscribe now, è gratuita.
—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo). Non ha sponsor né pubblicità, né aziende o lobbies alle spalle.
Ha anche una pagina Facebook, un profilo Twitter, Linkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)