Guerre di Rete - Spie, Telegram e software anticensura
Poi l'audizione di Altman sull'AI. Modelli aperti o chiusi. ChatGPT
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.161 - 20 maggio 2023
In questo numero:
- C’è ancora tempo per partecipare al nostro crowdfunding
- Spie, Telegram e software anticensura
- L’audizione al Congresso sull’AI in sintesi
- La spinta per modelli e dati aperti
- Novità su ChatGPT e altro
Ultimi giorni per partecipare al nostro crowdfunding, e diventare Editore di Rete
Mancano dieci giorni alla conclusione del crowdfunding di Guerre di Rete. In una sola settimana abbiamo raggiunto l’obiettivo minimo (che era di 15mila euro), abbiamo potuto contare su oltre cinquecento donatori, e abbiamo ricevuto varie richieste di temi su cui scrivere.
Il crowdfunding è previsto fino al 31 maggio e sta comunque andando avanti, incluse le ricompense. Qui trovate il nostro editoriale sul sito, scritto appena raggiunto l’obiettivo minimo.
E per chi volesse ancora partecipare e avere altre informazioni su come funziona il nostro crowdfunding, suggerire temi, partecipare a una conferenza annuale (online) del progetto, ricevere in anteprima dei contenuti aggiuntivi, e altre ricompense, basta cliccare questo bottone:
Da questo pulsante qua sopra raggiungerete infatti la nostra pagina https://donazioni.guerredirete.it/ dove potete donare (con vari metodi) e dove troverete molti più dettagli sulla campagna e il progetto.
CYBERGUERRA
Spie, canali Telegram e software anticensura
Nei giorni scorsi la CIA ha aperto un canale Telegram in russo, rivolto a cittadini russi, per ricevere soffiate e contatti di potenziali informatori. Il canale, che al momento in cui scrivo ha 13mila membri, si presenta così: “La missione globale della CIA richiede che le persone possano contattarci in modo sicuro da qualsiasi parte del mondo. Per questo motivo, per la prima volta, la CIA stabilisce una presenza su Telegram, per raggiungere coloro che si sentono in dovere di contattarci e per fare in modo che sappiano come farlo nel modo più sicuro possibile (...) apprezziamo chi è disposto a parlare con noi, e la vostra sicurezza è la nostra priorità”.
Lo sbarco su Telegram
Al canale si aggiungono due video, una specie di trailer promozionali, sempre in russo, per cercare di convincere sul piano ideale chi possa contemplare di diventare un informatore dell’agenzia americana.
Secondo la CNN, che ha raccolto fonti dell'intelligence statunitense, “i funzionari della CIA coinvolti nel progetto hanno dichiarato che l'invasione dell'Ucraina da parte della Russia avrebbe creato una breccia storica ‘per far sì che i russi vengano da noi e forniscano informazioni di cui gli Stati Uniti hanno bisogno’. Il progetto arriva dopo una precedente campagna di reclutamento avvenuta in seguito all'invasione dell’Ucraina. Campagna che, secondo i funzionari, avrebbe avuto successo, con dei "contatti in arrivo".
Chi ha seguito questa newsletter sa che la guerra in Ucraina ha portato a una svolta nel modo in cui il conflitto (cyber e non solo) si è dispiegato, essenzialmente in bella vista, tra social media, canali Telegram, reclutamento di volontari e via dicendo (ne ho scritto ad esempio qua).
E quindi non stupisce più di tanto che pure la CIA abbia deciso di giocarsi questa carta, per quanto sfacciata.
Il canale dà alcune indicazioni per contattare l’agenzia: principalmente fornisce l’indirizzo del sito della CIA come servizio nascosto (hidden service) su rete Tor, la darknet più nota che permette di anonimizzarsi (e di creare siti o servizi anonimi).
Il sito della CIA su Tor
Anche questa scelta non stupisce. Per altro ricordiamo che il progetto Tor (una no profit gestita da associazioni, ricercatori indipendenti e attivisti) è stato finanziato anche dal governo americano. Al di là dei dubbi che tale sostegno (alla luce del sole, pure questo) ha periodicamente sollevato in alcuni osservatori, la scelta americana era strategica, e rientrava in una politica estera e di soft power ben precisa e delineata, guidata dal Dipartimento di Stato: finanziare strumenti anticensura e a protezione dell’anonimato serviva a mettere in difficoltà proprio Stati avversari autoritari. Ha funzionato? Non mi avventuro in un bilancio, anche se di sicuro sappiamo che gli stessi strumenti sono stati usati anche da whistleblower occidentali per far emergere documenti e leaks critici verso l’operato del governo Usa.
Voglio dire che il tema è complesso, ne ho scritto molto più in dettaglio in libri e articoli (incluso pure il libro Guerre di Rete) e quindi ora non mi ci soffermo.
La reazione del governo russo
Mi interessa di più la reazione russa al riguardo. La portavoce del Ministero degli Esteri, Maria Zakharova, ha dichiarato che il nuovo canale Telegram della CIA è una "risorsa molto comoda per rintracciare coloro che vogliono mettersi in contatto", scrive la testata Meduza, facendo intendere una non precisata capacità nazionale di sorvegliare quell’ambiente. Mentre il portavoce del Cremlino Dmitry Peskov, più banalmente, si dice "convinto che i nostri servizi segreti stiano monitorando questo spazio".
È difficile stabilire quanto effettivamente, al di là dei proclami, i russi siano in grado di monitorare questo genere di interazioni (tanto più che il canale Telegram sembra più una vetrina su cui andarsi a prendere l’indirizzo .onion).
Il ruolo di Telegram nel conflitto
Di sicuro Telegram è di vitale importanza anche per molti ucraini. Secondo uno studio dell'Ukrainian Rating Research Group, datato 21 febbraio 2023, nei precedenti 15 mesi la quota di ucraini che ricevevano notizie politiche dai canali Telegram è cresciuta dall'11 al 41 per cento.
“I canali Telegram sono ora praticamente alla pari con la televisione, la cui quota è scesa dal 55% al 43% nello stesso periodo”, scriveva a marzo un opinionista ucraino (per altro molto critico e diffidente verso Telegram) sul Kyiv Independent.
“La guerra ha accelerato il passaggio dalla TV ai social media come luogo centrale per le notizie”, rincara la dose, proprio in questi giorni, un’analisi della testata ucraina The Fix. “Telegram gioca un ruolo particolarmente importante in questo ecosistema. È diventata una delle principali piattaforme di notizie grazie alla sua affidabilità tecnica, nonché alla rapidità e alla comodità della sua funzionalità di canali uno-a-molti (broadcast)”.
In una precedente analisi, di aprile, dedicata proprio ai canali Telegram in Ucraina, The Fix scriveva: “In Ucraina l'app è diventata più di un semplice sistema di messaggistica: è un'importante piattaforma di notizie”. Anzi: “una fonte inestimabile di informazioni per milioni di ucraini”. Con canali di notizia nativi, che esistono solo su Telegram. Anche se l’assenza di chiari processi editoriali rende vulnerabile il loro pubblico alla diffusione di informazioni inesatte, scrive ancora la suddetta analisi.
La crescita delle VPN…
In questo scenario anche le VPN hanno avuto un ruolo. Proton (la società svizzera che fornisce sia la mail cifrata Protonmail sia la VPN Proton) avrebbe 1,4 milioni di utenti giornalieri in Russia, scriveva a febbraio Coda Story, spiegando come fino all’inizio della guerra i suoi utenti fossero perlopiù americani. “Poi, dopo l'invasione dell'Ucraina da parte della Russia e le recenti proteste antigovernative in Iran, l'uso del servizio in Iran e Russia ha superato quello del Nord America”.
… e dei fondi del governo Usa agli strumenti anticensura
Non è quindi un caso che il governo americano, a partire dalla guerra in Ucraina, abbia aumentato i finanziamenti ad alcuni progetti che sviluppano proprio VPN. Si tratta di nthLink, Psiphon e Lantern e, secondo fonti Usa sentite da Reuters lo scorso giugno, la motivazione era proprio sostenere la domanda di questi strumenti da parte di russi. I fondi arrivano da quelle agenzie federali - come l’US Agency for Global Media (USAGM) - che da sempre supportano progetti quali Voice of America e Radio Free Europe.
Più fondi per il 2023
Ma negli ultimi mesi sono aumentati ulteriormente questi finanziamenti?, mi sono chiesta. La risposta non è stata difficile da trovare: nel dicembre 2022 il Congresso americano ha passato una legge (Consolidated Appropriations Act) che include fondi anche per i programmi per “la libertà di internet”. Per il 2023 il Congresso ha quindi allocato, su questa voce specifica, 90,5 milioni di dollari. Si tratta di un incremento di 13 milioni rispetto al 2022. Di questi fondi per la libertà della Rete, 40 sono diretti all’Open Technology Fund (OTF), l’ente che sostiene molti software e progetti di cifratura e anonimizzazione open source. Per l’OTF si tratta di un incremento di 13 milioni dall’anno precedente. (Qui una lista parziale di progetti sostenuti dall’OTF).
Dunque uno degli effetti collaterali della guerra in Ucraina è stato di aumentare i finanziamenti per tecnologie di questo tipo.
INTERNET
La battaglia di Internet Archive per prestare i suoi libri “digitalizzati”
Nei mesi scorsi Internet Archive è finita sul banco degli imputati. Nelle aule di un tribunale federale di New York si è svolto il primo round di un procedimento legale intentato da alcuni editori americani nei confronti della biblioteca digitale non profit fondata dall’informatico, attivista e archivista Brewster Kahle nel 1996 a San Francisco. Lo scontro rischia di definire il modo in cui la conoscenza è condivisa. E mette a rischio anche un altro servizio, la Wayback Machine.
Internet Archive rischia di scomparire (e con lui un pezzo di Rete)
Un articolo di Laura Carrer per Guerre di Rete.
AI
L’audizione al Congresso sull’AI in sintesi
Nei giorni scorsi c’è stata una attesa audizione al Senato Usa di alcuni rappresentanti del mondo dell’industria e della ricerca sull’AI. Ovviamente a dominare la scena e i media è stata la presenza, fra questi, di Sam Altman, Ceo di OpenAI (società che come sapete ha creato ChatGPT, DALL-E ecc e che ha ricevuto ingenti investimenti da Microsoft).
Oltre ad Altman, erano presenti Christina Montgomery, chief privacy and trust officer di IBM, e Gary Marcus, professore emerito alla New York University, esperto di AI con posizioni spesso moderatamente critiche (è tra i firmatari della famosa lettera per una moratoria di sei mesi sui modelli più avanzati di AI), e più volte citato anche in newsletter.
L’audizione è stata molto lunga e i resoconti giornalistici della stessa rischiano di semplificare (ottimo questo resoconto del WashPost). La cosa migliore è ascoltarsela tutta qua (sono tre ore), come ho provato a fare io, accelerando sulla battute dei senatori e le loro tirate ad uso interno. Ma se non avete la stessa pazienza vi dico cosa mi ha colpito.
Intanto le parole precise di Altman sulla questione di come regolare l’AI. Che sono il nocciolo dell’audizione, ovvero quello che secondo me Altman voleva dire.
“L'intervento normativo da parte del governo sarà fondamentale per mitigare i rischi di modelli sempre più potenti - ha detto Altman - Il governo statunitense potrebbe prendere in considerazione una combinazione di licenze e di requisiti di test per lo sviluppo e il rilascio di modelli al di sopra di una certa capacità”.
Non è passato inosservato, anche ad alcuni senatori, che per la prima volta un imprenditore di una tecnologia e un mercato emergenti si siede davanti al Congresso implorando di essere regolamentato (e ricevendo in cambio affettuosità e buffetti, non certo la cartavetro con cui hanno accarezzato Mark Zuckerberg).
Ovviamente la strategia è: mi siedo al tavolo e facciamole insieme le regole, prima che altri possano intervenire.
Il piano presentato da Altman è dunque il seguente:
- Creare una nuova agenzia governativa incaricata di concedere licenze per i modelli di AI di grandi dimensioni e di revocare la licenza alle aziende i cui modelli non siano conformi agli standard governativi.
- Creare una serie di standard di sicurezza per i modelli di AI
Standard che includono cose come test sulla possibilità di "auto-replicarsi" ma che non includono, nota il WashPost, l'obbligo di trasparenza sui dati di addestramento o il divieto di addestramento su opere protette da copyright.
A proposito dei dati di addestramento: c’è voluto Marcus per fare domande od osservazioni scomode per Altman.
“I sistemi attuali non sono trasparenti, non proteggono la privacy e non possono garantire la sicurezza”, ha detto Marcus. “L'intelligenza artificiale si muove velocemente, ha potenziali e rischi, e abbiamo bisogno che il governo sia coinvolto, che le grandi aziende tecnologiche e anche gli scienziati indipendenti abbiano accesso ai sistemi prima che vengano rilasciati (...) Una delle cose che mi preoccupano di GPT4 è che non sappiamo su cosa sia stato addestrato, e questo si lega al tema dei biases (pregiudizi). Abbiamo bisogno di trasparenza su questo e di scienziati che facciano un'analisi approfondita”. (Per altro anche Montgomery ha accennato all’importanza di conoscere i dati su cui sono addestrati i modelli).
Marcus ha anche parlato di un’agenzia o un cabinet nazionale per gestire l’AI e della necessità di un coordinamento e una legislazione a livello globale, “altrimenti sarebbe difficile per le aziende sviluppare modelli che vadano bene in diversi Paesi senza un coordinamento globale”.
Anche Altman ha citato l’idea di una cooperazione globale e il precedente dell’Agenzia Internazionale per l'Energia Atomica (AIEA), l’agenzia Onu in materia di energia nucleare.
I riferimenti al nucleare sono stati buttati lì perlopiù dai legislatori - che hanno paragonato l’AI al primo telefono, alla nascita di internet, alla rivoluzione industriale e appunto all’atomica - oltre che da Altman e Marcus ma in riferimento soprattutto all’idea di avere enti internazionali. In ogni caso c’è la percezione, ascoltando l’audizione, che l’interesse e le preoccupazioni dei politici - ma anche di alcuni protagonisti dell’AI - siano soprattutto di politica internazionale, di competizione con la Cina e la Russia.
La spinta per modelli e dati aperti
A ridosso dell’audizione al Congresso è arrivato anche un commento scritto da Emad Mostaque, Ceo di Stability AI, la startup dietro il noto modello Stable Diffusion (che genere immagini da testo) che ha rimesso al centro la questione dell’apertura e della trasparenza sui dati e i modelli. “Queste tecnologie saranno la spina dorsale della nostra economia digitale ed è essenziale che il pubblico possa controllarne lo sviluppo. Modelli e dati aperti contribuiranno a migliorare la sicurezza attraverso la trasparenza, a promuovere la concorrenza e a garantire che gli Stati Uniti mantengano la leadership strategica nelle capacità critiche dell'AI. L'innovazione di base è la più grande risorsa dell'America e i modelli aperti contribuiranno a mettere questi strumenti nelle mani dei lavoratori e delle imprese di tutta l'economia”.
Su questo scende in campo anche Yann LeCun, Chief AI Scientist a Meta (Facebook) di cui ho scritto anche qua. Scrive, in riferimento a un articolo di questi giorni del NYT sui modelli linguistici di grandi dimensioni (LLM) - come GPT di OpenAI e LLaMA di Facebook - e se debbano essere aperti o chiusi.
“Meta sostiene l'apertura, a partire dal rilascio di LLaMA (per uso non commerciale), mentre OpenAI e Google vogliono mantenere le cose chiuse e proprietarie. Sostengono che l'apertura possa essere pericolosa. Ma stanno solo proteggendo i loro interessi commerciali. Ritengo invece che la chiusura sia *considerevolmente* più pericolosa dell'apertura. Una volta che i LLM diventeranno il canale principale attraverso il quale tutti accedono alle informazioni, le persone (e i governi) *chiederanno* che siano aperti e trasparenti. Le infrastrutture di base devono essere aperte”.
CHATGPT
Navigazione web e plugin per tutte le esigenze: ecco le novità di ChatGPT
Con l'ultimo aggiornamento, la piattaforma di OpenAI può accedere a infomazioni online in tempo reale per competere con Bard e Bing, e diventa personalizzabile e capace di interagire con app e servizi. La prova di Bruno Ruffilli su Italian Tech
AI E MEDICINA
Dall’immunoterapia alla radiologia, l’AI che avanza in medicina
Le storie dei medici italiani che lavorano con i nuovi strumenti, le macchine fatte per interpretare altre macchine, rischi e opportunità dell’AI. Indagine sulla ricerca in materia. Martina Pennisi su Sette - Corriere.
Fondi per lavoratori a rischio automazione
Il Fondo per la Repubblica Digitale mette a disposizione 30 milioni per due nuovi bandi dedicati ai lavoratori con mansioni a forte rischio di sostituibilità causa automazione e innovazione tecnologica, in scia dell'intelligenza artificiale, e alle persone disoccupate e inattive, scrive Ansa.
APPROFONDIMENTI
Il contributo nascosto delle donne per l’etica dell’intelligenza artificiale - scrive Donata Columbro su La Stampa
Riconoscimento facciale: come funziona e perché i piani del governo per introdurlo sono problematici - Valigia Blu
Thanks for reading Guerre di Rete! Subscribe for free to receive new posts and support my work.