[Guerre di Rete - newsletter] Le nostre foto e la loro AI; social media e stragi; Facebook e la Francia e altro
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
Numero 26 - 17 marzo 2019
Di cosa si parla oggi:
- Tim Berners-Lee sul futuro del web
- il dibattito sull’uso delle foto per l’AI
- social media, giornali e la strage in Nuova Zelanda
- Facebook e la Francia
- AI, fake news ed hate speech
- un candidato presidente hacker
- e altro
30 ANNI DI WEB
Le parole di Berners-Lee sulle tre sfide che ci attendono
Questa settimana si sono celebrati 30 anni di web, lo avrete visto dai vari speciali e articoli. Tra pessimisti, ottimisti, opportunisti e nostalgici dei (loro) vecchi privilegi, tra titoli e interpretazioni contrastanti di quello che è il web (ma diciamo pure la Rete) oggi, e di quello che pensa il suo "papà", Tim Berners-Lee, ho deciso di aprire questa newsletter direttamente con le sue parole, le parole di Berners-Lee. Illuminanti, concrete, e capaci di cogliere la complessità senza facili scappatoie (o capri espiatori).
-> "Se rinunciamo a costruire un web migliore adesso, allora non sarà il web ad averci deluso. Saremo noi ad aver deluso il web. Per affrontare qualsiasi problema, dobbiamo prima chiaramente delinearlo e capirlo.
In sostanza vedo tre fonti di disfunzione che influiscono sul web oggi:
1) Intento malevolo e deliberato, come attacchi e hacking sponsorizzato da Stati, comportamenti criminali e molestie online
2) Progettazione di sistemi che creano incentivi perversi in cui il valore dell'utente è sacrificato, come modelli di ricavi basati sulla pubblicità che premiano commercialmente il clic-bait (meccanismi acchiappa-clic) e la diffusione virale di informazione non accurata (misinformation)
3) Conseguenze negative non volute di una progettazione benevola, come la qualità e il tono polarizzato e indignato del discorso online.
Mentre la prima categoria è impossibile da sradicare completamente, possiamo creare leggi e codici per minimizzare questo comportamento, così come abbiamo sempre fatto offline. La seconda categoria richiede che riprogettiamo sistemi in modo che cambino gli incentivi. E la categoria finale richiede ricerca per capire i sistemi esistenti e per modellarne possibilmente dei nuovi o per aggiustare quelli che già abbiamo. Non possiamo prendercela solo con un governo, un social network o lo spirito umano. Narrative semplicistiche rischiano di esaurire la nostra energia mentre inseguiamo i sintomi di questi problemi invece di concentrarci sulle loro radici. Per farlo bene, abbiamo bisogno di unirci come comunità globale del web"
Web Foundation
(Una sola chiosa: la sfida due è probabilmente la più difficile. In ogni caso, nessuno di questi punti può essere lasciato a soluzioni che arrivino solo da aziende private o da esigenze/autorità statali.
Post Scriptum per politici italiani: quando Berners-Lee dice di lavorare su leggi e codici non sta sicuramente pensando a leggi che limitino la libertà, l'apertura e la decentralizzazione della rete)
RICONOSCIMENTO FACCIALE
Il segreto di Pulcinella del machine learning
A gennaio IBM ha rilasciato una raccolta di quasi un milione di foto che sono state prese da Flickr, il noto sito di condivisione immagini; e le ha poi usate per descrivere le fattezze delle persone ritratte per migliorare gli algoritmi di riconoscimento facciale e ridurre i bias, i pregiudizi, i condizionamenti di questi sistemi.
Ma gran parte degli utenti Flickr sono all'oscuro di questo utilizzo, nota una notevole inchiesta di NBC. Flickr è diventata una risorsa per varie ricerche di questo tipo perché molti utenti pubblicavano le immagini con una licenza Creative Commons, per cui potevano essere riutilizzate da altri senza oneri. Ma davvero gli utenti che dieci anni fa hanno messo online in Creative Commons delle loro foto hanno dato il consenso perché queste fossero usate per alimentare algoritmi di machine learning (apprendimento automatico) al fine di allenare sistemi di riconoscimento facciale, che potrebbero essere poi riutilizzati da altre organizzazioni per scopi di sorveglianza e controllo? Come ha commentato un esperto su NBC "le persone avevano dato il loro consenso per condividere le loro foto in un ecosistema internet diverso".
Il set di dati non collega le foto delle facce delle persone ai loro nomi, e IBM ha spiegato che la raccolta servirà ad aiutare accademici a rendere più eque le tecnologie di riconoscimento facciale. Infine, l'azienda assicura che gli utenti Flickr possono fare opt out, chiedere di essere tolti dal database. Secondo NBC però la procedura non sarebbe affatto facile, perché gli interessati devono mandare i link delle foto che vogliono far rimuovere, ma poiché non è stata condivisa alcuna lista di utenti e di foto incluse nel dataset, non c'è modo di sapere quali immagini siano presenti. Tuttavia NBC ha ottenuto il dataset da una fonte, e le persone possono fare una ricerca del proprio nome utente Flickr in un modulo dentro l'articolo di NBC (e vedere se è finito nel dataset).
L'inchiesta di NBC
La vicenda mette in evidenza il segreto di Pulcinella del machine learning: sono molte le organizzazioni che pescano a strascico foto disponibili su internet per alimentare i loro algoritmi di riconoscimento facciale.
Anzi, come nota The Algorithm (newsletter del MIT), “IBM non ha fatto nulla di strano. I ricercatori di AI risucchiano dati da vari angoli di internet tutto il tempo per nutrire algoritmi di machine learning sempre più affamati che richiedono massicce quantità di dati per essere addestrati”. Dalle foto di Instagram, che hanno il vantaggio di essere già state categorizzate con degli hashtag dagli stessi utenti, agli articoli dei giornali.
Ad esempio, ricordo che nel 2017 un tizio ha pensato bene di fare lo scraping (raccogliere, raschiare via, estrarre dati da un sito o una piattaforma in maniera automatizzata) di 40mila foto profilo Tinder, la nota app per rimorchiare. E di usarle per costruire un dataset di facce (chiamato “Gente di Tinder”) per allenare reti neurali. Dataset che è stato condiviso e scaricato centinaia di volte da altri che lo avranno usato per altre ricerche. All’epoca Tinder aveva detto che si trattava di una violazione dei suoi termini di servizio e che avrebbe preso provvedimenti. Ma come ha scritto TechCrunch, nella corsa per alimentare con dati l’AI, quasi nulla è sacro.
Tuttavia è vero che l’ambiente digitale è mutato molto negli ultimi anni. E anche se fare lo scraping di dati pubblici era normale e consentito, “l’avvento della AI e la scala senza precedenti della monopolizzazione di dati della Silicon Valley e della loro monetizzazione ha cambiato l’equazione”, scrive ancora The Algorithm. Dunque i tecnologi hanno la responsabilità di fare in modo che ci sia un ampio consenso informato rispetto alle loro pratiche.
SOCIAL MEDIA, L’ATTACCO IN NUOVA ZELANDA E I GIORNALI
Le diverse questioni nell’analisi del ruolo di Rete e media
Nel terribile attacco alle due moschee in Nuova Zelanda si è parlato di nuovo del ruolo dei social media e dei media tradizionali (quotidiani & co, per capirici). Alcuni giornali hanno sottolineato il fatto che il terrorista di estrema destra e suprematista bianco si sia radicalizzato online, che l’attacco sia stato annunciato in Rete, trasmesso su Facebook Live, ridiffuso su altri social e piattaforme, molti dei quali hanno iniziato una affannosa e non sempre efficace corsa contro il tempo per far sparire quei contenuti. Tutto ciò mentre alcuni media tradizionali ripubblicavano parti del video, o il video editato, o il manifesto dell’attentatore (salvo toglierli dopo le proteste dei lettori). Come ha scritto The Atlantic, i media (i giornali) non hanno ancora capito come coprire atti di violenza.
Ma stando solo all’analisi delle piattaforme social, è vero che il terrorista suprematista sembra aver concepito la strage con una forte attenzione alla sua viralizzazione online. Un fatto però non così nuovo, soprattutto dopo l’ISIS, specializzato nella condivisione, teatralizzazione e capitalizzazione online di atti terroristici e violenti. “Sarebbe ingiusto condannare internet per questo”, scrive il NYT in un articolo che però ha un titolo abbastanza pesante “Una strage per e di internet”. E prosegue: “Ma sappiamo che il design di piattaforme internet può creare e rafforzare idee estremiste” (ad esempio con algoritmi di raccomandazione che spingono in modo automatico verso contenuti polarizzanti perché più engaging).
D’altra parte, specie di fronte a episodi che usano le dirette e a video che sono trasmessi anche dai media (Wired), i social network fanno ancora fatica a intervenire in modo coerente, efficace e veloce. Qui Motherboard descrive questa complessità dietro le quinte. In sostanza, è un territorio in cui l’automazione non riesce ad arrivare, e che ancora richiede molta moderazione da parte di umani.
Restringendo l’analisi SOLO sul punto di vista dei media e social media, vanno individuati e soprattutto separati i seguenti problemi/questioni:
- la radicalizzazione del terrorista di estrema destra e l’eventuale ruolo di internet in questa radicalizzazione
- la capacità di reazione dei social media quando sono caricati contenuti terroristici
- la capacità dei giornali di gestire questi contenuti, specie se ci sono dei concorrenti che decidono di pubblicare (e dunque di essere coerenti con le critiche che loro muovono per primi ai socia media)
- il discrimine su cosa è necessario e doveroso dare come notizia per la comprensione e verifica di quanto sta accadendo/è accaduto, e cosa è invece sciacallaggio, clic-bait o promozione di contenuti d’odio e propaganda (opinione personale non riferita a questa vicenda ma in generale: questo discrimine non è e non sarà sempre così netto).
Al di là di tutte queste necessarie analisi, ho visto giornali concentrarsi molto su parole-chiave legate alla Rete (tipo i videogiochi… ma ancora davvero?), e meno sulla matrice ideologica dell’attentatore. Ma internet qui è stato importante soprattutto nella capacità di mettere in contatto e internazionalizzare ideologie radicate localmente. Una capacità che non può nemmeno più stupire. Non vorrei che si usasse internet per rimuovere, in termini anche psicanalitici, il problema sottostante. Come scrive Motherboard in un altro articolo, “episodi locali, su piccola-scala di odio e fanatismo sono cruciali nel sostenere e rendere possibili casi su scala più ampia di violenza terroristica. Se fosse solo un problema di piattaforme, saremmo a posto”.
FACEBOOK, LA FRANCIA E L'HATE SPEECH
Prove di alleanza Macron-Zuckerberg
Il presidente francese Macron e Facebook stanno lavorando assieme per arrivare a una proposta di legge su cosa chiedere - e come punire - i social media che non eliminano rapidamente i discorsi d’odio dalle loro piattaforme. Un “approccio collegiale”, un “esperimento sul campo senza precedenti”, lo ha chiamato il governo francese che ha mandato dei suoi emissari negli uffici di Facebook per capire come funziona concretamente il processo di moderazione, e quindi sviluppare “proposte concrete e specifiche per combattere contenuti d’odio e offensivi”.
Come scrive Buzzfeed, “la proposta di legge metterà la Francia in prima linea nella lotta globale per definire chi deve regolare internet - legislatori nazionali o aziende tech americane”. E questo potrebbe influenzare anche il resto dell’Europa. L’approccio pragmatico, e il desiderio di capire certi meccanismi prima di legiferare a caso, è sicuramente positivo da parte della politica. Tuttavia c’è chi teme che il proliferare di leggi in questo senso possa semplicemente far moltiplicare sistemi automatizzati di rimozione che finiscano con alzare il livello generale di censura. È importante che simili “approcci collegiali” includano anche la prospettiva di associazioni per i diritti digitali.
HATE SPEECH E RETE
Lo strumento di Google per non vedere i commenti tossici
Avete presente quando mettete il tasto Muto su qualcuno su Twitter? Non lo bloccate veramente, lo silenziate, non vedete più i suoi tweet ma nessuno se ne accorge, i suoi cinguettii restano, solo non vi urtano più. Ora pensate una cosa simile ma non applicata a singoli profili, bensì a commenti "tossici", molesti, aggressivi in generale, in cui magari vi imbattete per caso leggendo un thread. E che avreste preferito non leggere.
Ecco, Google ha lanciato una estensione per il browser Chrome che automaticamente nasconde i commenti individuati come tossici da una tecnologia di intelligenza artificiale di nome Perspective AI.
L'estensione - che si chiama Tune ed è basata su una tecnologia realizzata da Jigsaw, l'incubatore di idee e tech di Alphabet, casa madre di Google - funzionerà solo per i commenti su Reddit, Twitter, Facebook, YouTube e Disqus. "E' come una manopola del volume per i commenti internet", hanno scritto i suoi creatori, perché anche un singolo commento tossico è in grado di far deragliare una discussione o farci abbandonare la stessa o farci sfuggire i contributi positivi. Google aveva implementato Tune prima su YouTube, permettendo ai proprietari di un canale di bloccare commenti che l'AI riteneva tossici. Ora invece l'estensione permetterà a chiunque di filtrare cosa vede online. Lo strumento può essere raffinato con vari filtri, tarati su certi termini, o può essere attivato su alcuni siti e su altri no rispetto a quella lista già citata. Ovviamente sono possibili i falsi positivi.
Cnet
TWITTER, BREXIT E L'ALT-RIGHT
Il sostegno pro-Brexit di account di estrema destra internazionali
La comunità pro-Brexit sta ricevendo sostegno da account Twitter di destra estrema che stanno fuori della Gran Bretagna, riferisce uno studio della società di cybersicurezza finlandese F-Secure che ha analizzato 24 milioni di tweet tra il 4 dicembre 2018 e il 13 febbraio 2019. "Sebbene l'estensione dello studio troppo limitata non permetta di concludere se il fenomeno sia frutto di una campagna coordinata di astroturfing (ovvero una campagna che finge di avere un consenso dal basso quando in realtà lo crea artificialmente, ndr) per manipolare il pubblico o il clima politico attorno alla Brexit - scrive il report - fornisce tuttavia un solido fondamento per indagare di più sulla questione".
Anche perché, scrivono ancora i ricercatori, "il gruppo incentrato sul Resta (in Europa, cioè il Remain) sembra abbastanza organico (cioè composto da cittadini reali, ndr), mentre quello incentrato sull'andare via (Leave, insomma il pro-Brexit) è rafforzato da account Twitter di destra estrema che non sono dell'UK".
Inoltre i ricercatori hanno osservato un sottoinsieme di profili Leave che eseguono amplificazione di contenuti politici collegati alla Francia (gilet gialli) e agli Stati Uniti (MAGA). È comunque chiaro, aggiungono, "che un collettivo internazionalmente coordinato di attivisti della destra estrema stanno promuovendo contenuti su Twitter (e altri social network) al fine di indirizzare la discussione e amplificare giudizi e opinioni verso i loro obiettivi, Brexit inclusa".
Per dirla dunque come il ricercatore di F-Secure Andy Patel, "come minimo la nostra ricerca mostra che esiste uno sforzo globale tra la destra estrema per amplificare la posizione del Leave nel dibattito". Se poi questo sforzo sia mosso dall'alto da specifici soggetti o meno non viene dimostrato ma andrebbe indagato, è la tesi di F-Secure.
Il report è interessante anche nella parte in cui spiega le difficoltà di individuare comportamenti malevoli, coordinati e automatizzati, perché una ormai "sofisticata automazione dei bot può facilmente nascondere gli usuali indicatori di una amplificazione artificiale." L'automazione può essere usata per programmare una lista di tweet che devono essere pubblicati o retwittati; selezionare casualmente una porzione di account da usare per una campagna da migliaia di account schiavi a disposizione; eseguire azioni in tempi casuali, o evitando invece certi orari per dare l'impressione che ci siano utenti reali dietro tali account.
E tuttavia - prosegue il rapporto - i tratti sospetti sono (qui semplificati e da prendere cum grano salis):
- account con elevati volumi di tweet
- account molto recenti che hanno già migliaia di followers
- account con un numero molto simile di followers e following
- account che ne seguono migliaia di altri ma sono seguiti da una piccola frazione degli stessi
-account che hanno segni di automazione e pubblicano contenuti polarizzanti
LOTTA ALLA DISINFORMAZIONE E WHATSAPP
Whatsapp prosegue nella sua lotta per limitare la viralità di informazioni false e malevole sul proprio network e ora sta testando una funzione che permette di fare una ricerca inversa delle immagini condivise al suo interno su Google, in modo da permettere facilmente agli utenti di fare delle controverifiche, di vedere se quell'immagine è ripresa da altre fonti, se è stata modificata ecc. La funzionalità nuova è per ora presente nella versione beta della app di messaggistica per Android.
Whatsapp ha già imposto limiti al numero di inoltri di un messaggio; ha creato un ruolo apposito per combattere la disinformazione in India (dove si sono registrati molti casi di bufale ed hate speech facilitati dalla viralità delle app di messaggistica); ha finanziato ricerche per studiare la diffusione delle disinformazioni e rafforzato il contrasto ad account bot e spam.
Mashable
GIORNALISMO, LOTTA ALLA DISINFORMAZIONE E AI
Tre progetti concreti
Harvard e il MIT hanno dato 750mila dollari a progetti che studiano come l’intelligenza artificiale possa essere usata per migliorare il giornalismo. In tutti questi il fact-checking è una componente centrale.
Un progetto vuole facilitare la connessione tra utenti Whatsapp e fact-checkers, creando dei canali in cui gli uni possono condividere notizie dubbie e gli altri possano verificarle (anche con l’aiuto di una prima categorizzazione e distribuzione fatta da algoritmi), per poi riconsegnarle indietro, in modo che gli utenti a loro volta ricondividano le informazioni corrette.
Un secondo progetto intende individuare i video a rischio deepfake, cioè a rischio di essere stati manipolati con tecnologie di AI, assegnando loro un “punteggio di integrità” (che di nuovo può servire agli utenti per farsi un’idea di cosa hanno davanti e di quanto fidarsi). Infine un terzo progetto nasce da un sistema che identifica automaticamente affermazioni che necessitano di fact-checking nei media e le manda a una redazione di fact-checkers.
Poynter
AI E FAKE NEWS
Analizzare con una AI se un testo è prodotto da una AI
Ricordate la notizia che una tecnologia di AI sviluppata da OpenAI non era stata rilasciata pubblicamente perché si temeva potesse essere usata per generare fake news o disinformazione in modo automatizzato? Eppure gli stessi modelli di linguaggio potrebbero essere usati per individuare proprio testi generati da AI e non da umani. Il principio è il seguente: i modelli di linguaggio producono frasi predicendo la parola successiva in una sequenza di testo. Dunque se sottoponiamo loro un testo dall’origine sconosciuta e questi possono predire facilmente gran parte delle parole in un certo brano, è probabile che il brano sia stato scritto da una AI. C’è uno strumento (sperimentale) per verificarlo, incollando del testo, lo trovate qua. Potete giocare a fare esperimenti anche voi (ma solo in inglese direi). Ci sono molti limiti comunque a questo approccio su cui non mi soffermo.
Technology Review
AI, CINA E USA
I paper di AI pubblicati dalla Cina stanno crescendo anche qualitativamente (e non solo in quantità), riferisce l’Allen Institute. “Se si guarda il 10 per cento più citato dei paper in AI, la Cina sorpasserà gli Usa il prossimo anno”, scrive il professore Oren Etzioni. Non manca qualche obiezione nella valutazione di questo dato, ma se si guardano i grafici della ricerca dell’Allen Institute la direzione è chiara.
Qui la ricerca.
(A proposito: al Festival del Giornalismo di Perugia si parlerà proprio dello scontro Usa-Cina sulla AI)
USA - SISTEMI DI VOTO A PROVA DI HACKER E PRESIDENTI HACKER
La Darpa sta costruendo un sistema di voto sicuro, open source, da 10 milioni di dollari. E lo farà testare agli hacker del Defcon.
Motherboard
Beto O’Rourke, il democratico texano che ha annunciato la sua candidatura alle primarie dem, ha un passato da hacker. Meglio ancora: un passato nel Cult of the Dead Cow, gruppo storico, inventore del termine hacktivism, e creatore di strumenti per violare sistemi, come il noto Back Orifice (ripreso poi da molte realtà offensive, ma che ebbe anche il merito di far prendere seriamente la questione sicurezza da parte di aziende come Microsoft, scrive l’autore Joseph Menn, che sulla questione non è un improvvisato - è infatti in uscita a giugno un suo libro proprio sui Cult of the Dead Cow).
Ad ogni modo, un (possibile) candidato presidente con un passato del genere era quasi impensabile fino a qualche anno fa.
Reuters
HACKER NORDCOREANI AVANTI TUTTA
Nordcoreani e il furto alle banche messicane
Nel 2018 hacker nordcoreani (cioè il gruppo Lazarus, lo stesso ritenuto responsabile di Wannacry e del furto alla banca del Bangladesh) hanno rubato tra i 15 e i 20 milioni di dollari alle banche messicane. Come è andata (Wired)
Nordcoreani e l’accumulo di soldi via cyberattacchi
Hacker nordcoreani avrebbero ammassato 670 milioni di dollari attraverso cyber furti, cioè cyberattacchi a banche, cambiavalute e portafogli di criptomonete, secondo un rapporto fatto per il comitato per le sanzioni del Consiglio di Sicurezza dell’Onu - report di cui riferisce il quotidiano asiatico Nikkei Asian Review.
Intanto, persistono le vendite online di materiale sottoposto a sanzioni da parte di aziende che sono in realtà una copertura per l’intelligence della Corea del Nord. Come nel caso di Glocom, riferisce Motherboard.
STRUMENTI UTILI
Mozilla, dopo un periodo di test, ha lanciato un servizio per la condivisione sicura e facile di file, di nome Firefox Send. Permette di passare a chiunque file anche di 2,5 GB attraverso una crittografia end-to-end e di fare in modo che poi il link condiviso scompaia entro una certa data o numero di download. È molto facile da usare, non serve iscriversi per file fino a 1 GB né occorre usare il browser Firefox. Si va sulla pagine di Firefox Send, si carica il file, si stabilisce numero di download o durata, si può mettere una password aggiuntiva, poi si condivide il link ottenuto con la persona a cui si vuole passare il file. Sicurezza e usabilità assieme. Bello
The Verge
PREMIUM CONTENT PER GLI ABBONATI (sischerza)
Come non scegliere una password
LETTURE
Come funziona Tik Tok e come cambierà il panorama social
NYT
DeepMind, Google e la battaglia per controllare l’intelligenza artificiale
1843magazine
Il governo Usa userà il riconoscimento facciale in 20 aeroporti entro il 2021, secondo alcuni documenti
Buzzfeed
Qui puoi leggere le passate edizioni https://tinyletter.com/carolafrediani/archive
Ti è piaciuta? Inoltrala a chi potrebbe essere interessato.
Per iscriversi a questa newsletter: https://tinyletter.com/carolafrediani
Se vuoi mandarmi suggerimenti basta rispondere.
Buona domenica!