[Guerre di Rete - newsletter] Speciale elezioni Usa, tra cybersicurezza e disinfo

Facebook e politici, troll e bot, giornalismo e cybersicurezza; camere d'hotel

Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.49 - 27 ottobre 2019

Di cosa si parla oggi:
- speciale elezioni Usa: campagne di influenza Iran/Russia
- intervista a Falkowitz su rischio cyber ed elezioni americane
- Facebook, la verità, i politici, il fact checking
- bot e troll
- campagne di influenza e ruolo degli utenti autentici
- se il robot in hotel ti spia
- giornalismo e sicurezza nazionale
- giornalismo e cybersicurezza
- ransomware che ricattano di pubblicare tutto
- spyware e policy sui diritti umani
- e altro

Appuntamenti:

- ci vediamo l’8 novembre a Bologna (ore 18, Libreria UBIKIrnerio, via Irnerio 17) per la prima presentazione del mio romanzo Fuori Controllo (edizioni Venipedia). Qua c’è anche il video trailer del libro.
- ci rivediamo il 9 novembre, sempre a Bologna, alla tavola rotonda di HackInBo (il programma).

SPECIALE - VERSO LE PRESIDENZIALI 2020
Facebook rimuove campagne di influenza dell’Iran e della Russia

Si avvicinano le presidenziali americane - o meglio, l'inizio della lunga campagna che porterà a queste, passando ovviamente per le primarie - e aumenta la fibrillazione tra aziende tech e partiti. Nessuno vuole più farsi trovare impreparato. Nessuno, Facebook per primo, vuole rischiare l'accusa di essere usato come strumento di propaganda di intelligence straniere. E dunque fioccano le iniziative di contrasto e mitigazione del rischio.
Nei giorni scorsi Facebook ha rimosso (comunicato) 4 reti separate di account, pagine e gruppi, su Facebook e Instagram, per comportamento coordinato inautentico. Tre originavano dall'Iran e uno dalla Russia. Tra i loro obiettivi gli Stati Uniti, il Nord Africa e l'America Latina.
IRAN - Le attività iraniane si concentravano su Stati Uniti e Nord Africa, spaziando dalla politica americana a Israele, dal sostegno alla Palestina al conflitto in Yemen, fino alle tensioni Iran-Arabia Saudita. Riprendendo uno schema molto simile a quello usato dai russi dell'Internet Research Agency (la fabbrica di troll accusata di gran parte delle operazioni di influenza via social negli Usa durante le elezioni 2016), gli iraniani avrebbero creato anche una pagina BlackLivesMatter News che impersonava attivisti del movimento afroamericano statunitense e postava sulle tensioni razziali negli Usa, infilandoci però in mezzo (non senza un certo effetto straniante) anche critiche della politica israeliana e temi cari all'Iran.
RUSSIA - Gli account russi eliminati invece mostrano uno spostamento su Instagram e una maggiore attenzione (come già in passato) alla politica americana. Anche qui, di nuovo, la scelta è su temi polarizzanti e divisivi, sia a sinistra che a destra dello spettro politico americano. Inoltre appare evidente - dice Facebook - uno sforzo maggiore nel cercare di mascherarsi e non farsi scoprire.
Ci sono alcune considerazioni da fare. La prima: intelligence e altre realtà continuano a provarci, a usare cioè le piattaforme per provare a influenzare il dibattito politico in altri Paesi, in alcuni casi su propri temi interni (Iran), in altri sui temi interni degli Usa o di altri Paesi target (Russia). La seconda: l'impatto di queste operazioni appare ancora più sfumato e meno efficace di quanto già non fosse apparso nel 2016, senza contare che resta assai arduo valutarne proprio l'impatto. Ma leggendo fra le righe di questo stresso comunicato di Facebook sembra che attualmente tale impatto sia piuttosto contenuto. La terza: le piattaforme sono sicuramente più attente che tre anni fa, e anche questo potrebbe rendere le cose più difficili per campagne eterodirette.

Facebook, la verità, il fact checking, la policy
Facebook ha anche fatto sapere di voler marcare in modo più visibile i contenuti giudicati come falsi dai factcheckers (che sono terze parti). O contenuti prodotti da media controllati da un governo. Nel contempo continua a insistere sul fatto di non voler vietare pubblicità politiche - o di non voler fare comunque fact checking su quelle e sui contenuti dei politici.
In generale la direzione e la filosofia che stanno dietro a una serie di recenti annunci della piattaforma sembrano ruotare attorno al concetto di "aiutare le persone a capire meglio quello che vedono online". Dalla natura dei siti di informazione i cui articoli sono postati sul social alla spesa in ads dei candidati a elezioni.

I problemi di un doppio binario
Ma la politica del doppio binario - uno per i comuni utenti e uno per i politici - non convince vari osservatori. Scrive ad esempio Arianna Ciccone, cofondatrice di Valigia Blu e Festival del Giornalismo, riferendosi a Facebook e a Twitter: “Entrambe le piattaforme hanno deciso di dividere i loro utenti in due gruppi e di dare a uno di loro una libertà fondamentalmente più ampia di violare le norme etiche e sociali nei loro post e non essere penalizzati per questo. Ma la politica sbaglia quando chiede - come stanno facendo per esempio Elizabeth Warren e Alexandria Ocasio-Cortez - alle piattaforme di intervenire su ciò che è vero e ciò che è falso. La politica non dovrebbe chiedere ai social network di farsi arbitri di verità. D'altra parte Facebook oggi non si troverebbe in questa situazione così complicata e controversa se non avesse ceduto alle pressioni politiche su questo fronte (tutto è partito dal dibattito distorto e fuorviante sulle 'fake news' e la vittoria di Trump), attivandosi con il fact checking” - Leggi anche: “Facebook e Twitter hanno deciso che i politici sono più uguali degli altri” - Valigia Blu
Se Facebook vietasse le pubblicità politiche? - La Stampa

Un nuovo esperimento: Facebook News
Intanto arriva Facebook News (The Verge). Il social ha iniziato a testare negli Usa una nuova home per le notizie nella sua app mobile - appunto Facebook News. Dove avranno spazio articoli di grandi testate, dal Wall Street Journal a Usa Today. E alcuni di questi editori saranno anche pagati. A scegliere gli articoli una redazione interna. Funzionerà? O diventerà una delle tante chincaglierie abbandonate nei tanti cassetti del social, per rielaborare una immagine di Casey Newton? Lo scopriremo solo scrollando.
Comunicato Facebook.
Vedi anche: Facebook News, come funziona – Corriere (paywall)
E: Libra, cosa ha detto Zuckerberg al Congresso – Corriere (paywall)

Reti di influenza
Ma lasciamo perdere le notizie, vere o false che siano, e torniamo al tema delle operazioni di influenza (che possono usare strumenti e veicoli diversi, dai social ai media ai cyberattacchi).
In una conferenza stampa, Zuckerberg ha detto che Facebook è diventata più abile nel cercare e rimuovere reti di influenza straniera, anche attraverso un piccolo esercito di ex membri dell'intelligence, esperti di informatica forense e giornalisti investigativi. Ci sono più di 35mila persone che lavorano su iniziative legate alla sicurezza per Facebook in questo momento. "Tre anni fa grandi aziende tech come Facebook rifiutavano di ammettere che ci fosse questo problema. Ora invece gli stanno dando attivamente la caccia", ha commentato al NYT Ben Nimmo di Graphika, società che fa indagini sui social media.

In attesa dei tartari
Secondo alcuni osservatori, come Alex Stamos (ex capo della sicurezza di Facebook oggi a Stanford), non solo potrebbe esserci più di un soggetto straniero a tentare di rimescolare le acque della campagna americana (del resto ne abbiamo appena visti due), ma il loro target principale potrebbero essere le primarie democratiche. Attraverso finti profili progressisti/democratici, l'obiettivo sarebbe quello di amplificare lo scontento fra frange di elettori dem per condizionare l'esito delle votazioni.
L'analista di social media Ray Serrato ha analizzato la copertura mediatica dedicata da RT e Sputnik (due testate vicine al Cremlino) a 5 candidati democratici: Biden, Warren, Harris, Sanders e Gabbard. "La copertura di Gabbard è favorevole, mentre quella di altri candidati si concentra sulle controversie", scrive Serrato.

Parla Oren Falkowitz
Ma che ci potesse essere più di un soggetto intenzionato a entrare a gamba tesa nella lunga campagna presidenziale americana era stato ipotizzato anche da Oren Falkowitz, un passato alla NSA e cofondatore e Ceo della società di sicurezza Area 1 Security. Intervistato poco tempo fa da questa newsletter, Falkowitz mi ha detto che si stavano aspettando l’intervento di più di uno Stato. Aggiungendo: “Gli attacchi sponsorizzati da Stati sono sempre più interessati allo svolgimento dei processi democratici dei loro avversari. Molti Paesi stanno lanciando cyberattacchi contro l’organizzazione delle elezioni in altri Stati; è un problema tuttora in corso”.
Falkowitz e Area 1 erano finiti sui media un paio di mesi fa quando avevano ottenuto il via libera della Federal Election Commission (la commissione elettorale federale che supervisiona i finanziamenti alle elezioni Usa) per fornire (a prezzi molto bassi o addirittura a nessun costo) delle protezioni contro attacchi di phishing diretti alle campagne del 2020. Per la Commissione questa offerta a quasi costo zero di una azienda non violava le regole sui finanziamenti perché la stessa società aveva già offerto servizi simili a organizzazioni umanitarie e no-profit.
“Vogliamo fermare gli attacchi di phishing prima che arrivino agl utenti”, mi ha detto Falkowitz. “Nove volte su dieci i cyberattacchi iniziano con una mail di phishing, con un documento malevolo allegato oppure con un link per visitare un sito che impersona il tuo fornitore di mail, o un altro servizio legittimo. Nel 2016 abbiamo visto diversi attori cyber provenienti dalla Russia lanciare degli attacchi di phishing contro politici americani, ma anche in altri Paesi” (se ricordate è così che sono state esfiltrate le mail di John Podesta, il capo della campagna di Hillary Clinton, come racconto nel libro #Cybercrime).
Falkowitz mi ha spiegato che la loro offerta è indirizzata a tutti i politici americani, dai democratici ai repubblicani agli indipendenti. “Abbiamo un processo elettorale molto distribuito”, prosegue il Ceo di Area 1 Security. “Comitati nazionali, gruppi locali, think tank, sono tutti a rischio. Quello che rende le campagne elettorali particolarmente difficili è che sono gestite da organizzazioni relativamente piccole, con un obiettivo ben specifico, cui sono dedicate quasi tutte le risorse, e senza esperienza in cybersicurezza. Inoltre raccolgono volontari, consulenti, persone che vanno e vengono e quindi sono particolarmente vulnerabili”.

Più fronti
Quando si parla di cybersicurezza delle elezioni presidenziali, bisogna immaginarsi un reticolo di scenari e tutta una serie di rivoli secondari rispetto a un attacco a un candidato di primo piano. Ad esempio a settembre il Comitato Nazionale Democratico ha bocciato l’idea di estendere la partecipazione ai caucus dell’Iowa e del Nevada attraverso dei sistemi di teleconferenza (i cosiddetti virtual caucus) perché giudicati insicuri.

Le operazioni di disinformazione, i bot e i troll

Questo per quanto riguarda il rischio hacking. Ma tornando a quello della propaganda, vale la pena ragionare più in generale sulle differenze tra bot e troll sui social. Come ha fatto il ricercatore Marc Owen Jones su Twitter. Dice Jones che tendiamo a usare bot e troll in modo intercambiabile ma che ovviamente hanno specificità diverse. “I bots sono account automatici o semiautomatici, programmati per adottare comportamenti specifici di solito a intervalli frequenti. Su Twiter possono sembrare account di persone vere, e sono progettati per ingannare. I troll sono di solito persone vere che stanno dietro a un account. Mentre il termine bot descrive la probabilità di automazione, il termine troll indica più una caratteristica comportamentale. I troll interagiscono con le persone, intimidiscono, molestano, criticano, distolgono l’attenzione, usano fallacie logiche, e diffondono disinformazione. Anche i bot possono farlo, anche se non sono convinto che quel livello di sofisticazione ancora esista. Di solito trovo bot che amplificano certi account, o twittano in massa certi punti di vista. (...) I bot possono essere configurati con un livello minimo di competenze. D’altra parte, vaste quantità di bot probabilmente richiedono un po’ più di esperienza e investimento per poterli gestire. I bot possono essere il risultato di imprenditori individuali che vendono i loro servizi a chi offre di più, o a entità più istituzionali come aziende di PR e altre agenzie di advertising. Questo può generare confusione quando si cerca di definire la loro attribuzione (l’origine, ndr). Se chi possiede sue reti di bot ha più clienti, allora è probabile che quei bot lascino traccia di campagne di promozione multiple, non collegate e incoerenti. I bot politici o gli account di spam politico possono essere tali solo per la durata di uno specifico contratto, a meno che non siano direttamente gestiti dal team di una campagna politica. Allo stesso modo, ci sono bot politici che twittano contenuti progettati per umanizzarli, dunque tra una campagna e l’altra possono twittare su altri contenuti per apparire più credibili. I troll sono bestie differenti. Ogni volta che molesti, intimidisci, diffondi propaganda stai avendo un comportamento da troll. Se è un comportamento abituale, allora probabilmente sei un troll”.

“Quando parliamo di attività malevole e campagne di influenza parliamo di account multipli impegnati in uno schema di comportamenti simili che tentano di intimidire, molestare, diffondere disinformazione ecc. Direi che una campagna di influenza è una concatenazione di tali azioni, ognuna con uno specifico e coerente messaggio. Ora la domanda è: tali campagne di influenza possono essere descritte come comportamenti di account reali (autentici) o non reali (inautentici)? Direi che possono essere descritte da entrambi i tipi di account. Ma un utente autentico è di solito un essere umano le cui credenze non sono percepite principalmente come quelle del suo datore di lavoro che lo sta pagando o lo sta forzando per esprimerle online attraverso un comportamento progettato per diffondere un certo messaggio politico. Un utente inautentico è invece una persona o un bot pagato, cooptato o obbligato a diffondere un messaggio specifico”

Il ruolo degli utenti “autentici”

Ci siete ancora nel seguire il ragionamento di Jones? Bene perché ora arriviamo al punto cruciale.
Scrive Jones: “Che succede se un utente autentico è stato esposto a estrema propaganda e fake news al punto da assorbire quelle idee e riprodurle di sua volontà, agendo aggressivamente per diffonderle? Che succede se quella persona guarda solo un sacco di Fox News e Alex Jones (la nota testata e un personaggio pubblico dell’estrema destra americana, spesso accusati di disinformazione ecc, ndr) ed emula quello stile di comportamento? Questo è un grosso problema, specialmente quando cerchiamo di definire una “campagna di influenza”.

Operazioni di influenza in senso ristretto e allargato
Possiamo perciò avere una definizione più ampia e una più stretta di campagna di influenza. Quella ampia può essere una in cui il numero di account apparentemente collegati (per biografia, estetica, comunicazione) twittano o interloquiscono in alti volumi su una questione specifica, ripetendo alcuni punti chiave in modo simile e senza sfumature, e aggressivamente. Una definizione stretta è invece una campagna in cui gli utenti intraprendono questi comportamenti ma sono connessi esplicitamente a una entità nota per procurare specifici servizi, che sia una agenzia di PR, l’Internet research agency o la CIA - comunque la si voglia intendere. La definizione ristretta è molto difficile da provare”. Ed è per quello che Jones ritiene si debba essere cauti nel fare attribuzione. Tuttavia, “nella mia esperienza - prosegue - non servono grandi numeri di utenti inautentici che si danno da fare per inquinare i dibattiti di persone reali. Quando hanno successo, gli utenti autentici replicheranno le parole d’ordine prescritte dagli utenti inautentici”.
Qui tutto il thread.

La disinformazione è un’operazione collaborativa a più livelli, con tante sfumature, e include utenti autentici
Una analisi simile è articolata anche in un recente paper. Secondo il quale “il lavoro delle operazioni di informazione si estende oltre la ristretta finestra di attori automatizzati o pagati come bot e troll prezzolati - la finestra che tende ad avere la maggior parte dell’attenzione mediatica e di ricerca. La nostra ricerca sottolinea il fatto che queste operazioni sono partecipative, prendendo forma e persistendo come collaborazioni tra agenti orchestrati e folle organiche (ovvero, utenti autentici per riprendere il discorso sopra, ndr). Dimostriamo, in una prospettiva sociotecnica, come le operazioni di informazioni funzionino su multipli livelli, dando forma direttamente alle azioni, ma più in profondità dando forma alle circostanti strutture sociali, ad esempio le reti di attivisti che raccolgono i loro messaggi, insieme alle norme, pratiche e ideologie”.
Il paper: Disinformaton as Collaboratve Work: Surfacing the Partcipatory Nature of Strategic Informaton Operatons

IL WTF DELLA SETTIMANA
La Casa Bianca è un Titanic della sicurezza informatica, lamenta il suo ex-capo della cybersicurezza

A proposito di elezioni Usa e sicurezza… Il capo dipartimento della sicurezza informatica della Casa Bianca, Dimitrios Vistakis, ha appena consegnato una lettera di dimissioni insieme a un memo incendiario. Riporto solo una frase cruciale: “Dicono che la storia si ripeta. Purtroppo visti tutti i cambiamenti cui ho assistito negli ultimi tre mesi, prevedo che la Casa Bianca si stia comportando in modo da essere di nuovo compromessa elettronicamente”.
Vistakis lamenta epurazioni dello staff, e il dare la precedenza all’operatività e alla convenienza rispetto alla sicurezza. Sembrerebbe una triste ed ordinaria storia di cost saving di una azienda con una scarsa cultura della sicurezza se non fosse che si tratta della Casa Bianca e che dal 2016 in poi ci siamo tutti sorbiti, volenti e nolenti (inclusi noi in questa newsletter) il dibattito su hacker stranieri, interferenze elettorali, politici nel mirino, mail leakate e via dicendo. Per cui questa lettera suona davvero come il WTF della settimana, gentilmente offerto dalla Casa Bianca.
Axios

HACKERS GONNA HACK (EACH OTHER)
Come hacker russi hanno sfruttato di nascosto l’infrastruttura di hacker iraniani

Abbiamo visto come l’attribuzione sia spesso un problema. Se dalla propaganda si passa ai cyberattacchi, il problema rischia di ingigantirsi. Perché la possibilità per un gruppo di fingersi un altro può arrivare al livello di sfruttarne di nascosto la stessa infrastruttura e strumenti. È quanto successo tra russi e iraniani, almeno secondo un comunicato diffuso congiuntamente dall’americana Nsa e dalla britannica NCSC (National Cyber Security Centre). Il comunicato è su Turla. Chi diavolo sarebbe? Uno dei tanti nomignoli affibbiati a un gruppo di hacker molto sofisticato (APT, Advanced Persistent Threat), dedito al cyberspionaggio, che si ritene originario della Russia. Altri li chiamano Snake, Uroboros, Waterbug, Venomous Bear (perché non c’è APT che si rispetti senza una collezione di nomi diversi dati dalle diverse società di cybersicurezza).
Ad ogni modo, secondo l’intelligence angloamericana, Turla avrebbe sequestrato gli strumenti usati da un altro gruppo di hacker iraniani noto come APT34 o Oilrig (o Crambus). In pratica i russi avrebbero compromesso i server di comando e controllo usati dagli iraniani per gestire i loro malware per scaricare anche i loro strumenti su computer già infettati dal gruppo precedente. Come usare un tunnel segreto già scavato da qualcuno, se mi passate la metafora.
Il tutto sarebbe avvenuto senza che gli iraniani se ne rendessero conto. “È molto probabile che il gruppo iraniano non sapesse che i suoi metodi di hacking erano stati violati e sfruttati da un altro gruppo di cyberspionagggio”, scrive il comunicato della NCSC. Che prosegue: “Turla ha iniziato a sfruttare gli attacchi di Oilrig monitorando un attacco (hack) iraniano abbastanza da vicino da usare la stessa via d’accesso (backdoor route) per entrare in una organizzazione od ottenerne l’intelligence risultante”. Il gruppo russo sarebbe poi “progredito con dei propri attacchi usando l’infrastruttura di comando e controllo e il software di Oilrig”.
E ancora, sempre dal documento NCSC: “I gruppi di cyberspionaggio stanno nascondendo sempre di più le loro identità sotto operazioni cosiddette false flag - in cui cercano di imitare le attività di un altro gruppo. Lo scorso anno l’intelligence Usa ha riferito di aver scoperto il fatto che hacker russi avessero tentato di ostacolare i Giochi Olimpici invernali di Pyeongchang, in Corea del Sud [nel 2018], usando linee di codice associate al gruppo Lazarus, attribuito alla Corea del Nord”. Ma le operazioni di Turla, dice il comunicato, va oltre l’imitazione, raggiungendo un nuovo livello di sofisticazione.
Nota: vari osservatori concordano che si tratti di un’operazione notevole, se davvero è stata condotta all’insaputa degli iraniani. E che la decisione di divulgarla è anche un modo per gettare discordia tra due dei propri avversari.

CYBERSICUREZZA E HOTEL
Se il robot in hotel ti spia

La catena di hotel giapponese HIS Group si è scusata per aver ignorato gli avvertimenti sul fatto che i suoi robot da camera, Tapia – sì, ha dei robot, dei dispositivi ovali sul comodino, che assistono i clienti su alcune richieste – potessero essere violati da un attaccante in grado di accedere alle loro videocamere e microfoni.
Chi lo avrebbe mai detto? Chi mai penserebbe che avere un microfono e una videocamera in un dispositivo fuori dal proprio controllo in una camera da letto che è a sua volta fuori dal proprio controllo sia una cattiva idea? Unbelievable, per citare Trump.
The Register.

INDUSTRIA DEGLI SPYWARE
NSO, la policy sui diritti umani e l’editorialista del WashPost

Ha fatto scalpore la decisione del Washington Post di prendere come editorialista Juliette Kayyem, presidente di facoltà della Kennedy School of Government (Harvard) ma soprattutto consulente della società israeliana che vende spyware NSO. Lo stesso spyware che secondo alcuni ricercatori (il Citizen Lab) sarebbe stato rinvenuto sui dispositivi di Omar Abdulaziz, dissidente saudita e amico di Jamal Khashoggi, il giornalista ucciso e smembrato nel consolato saudita di Istanbul dagli stessi sauditi, secondo l'intelligence americana. Khashoggi, come è noto, era un editorialista del Washington Post. Della vicenda ho scritto ampiamente qua in newsletter.
Kayyem avrebbe aiutato NSO - da tempo nel mirino di attivisti e ricercatori - a scrivere la loro recente policy sui diritti umani, con cui l'azienda ha cercato di mostrarsi più attenta a come venivano usati i suoi spyware (Vice).

Da notare che questa policy nuova di zecca è stata pesantemente criticata per iscritto (qui il documento) solo qualche giorno fa da David Kaye, special rapporteur Onu per la libertà di espressione.
Kaye infatti non risparmia le bordate: "Le nuove policy di NSO arrivano a seguito di informazioni molto preoccupanti sulla vendita, trasferimento e uso della vostra tecnologia e del suo impatto sui diritti umani, specialmente in relazione (ma non solo) alla libertà di espressione e al diritto alla privacy".

Kaye prosegue dicendo: non solo le informazioni che mi sono arrivate sull'uso delle vostre tecnologie sono preoccupanti; ma queste stesse policy che ora proponete rischiano di minare alla base gli stessi principi dell'Onu e il corpus delle leggi sui diritti umani. Cioè wow. Più che una bocciatura, direi una asfaltatura con un rullo compattatore.
Ma andiamo avanti. Dice Kaye: "Secondo informazioni che ho ricevuto, e che sono pubbliche, la tecnologia Pegasus (lo spyware per smartphone, ndr) del gruppo NSO è stata usata dai governi per monitorare la società civile, giornalisti, dissidenti politici, e altri nel mondo". Dopo una analisi su come aziende di questo tipo possono avere un impatto sui diritti umani, Kaye torna alle neonata policy di NSO e domanda: "Come NSo intende confermare se i suoi clienti [i governi , ndr] sono conformi alla legge sui diritti umani?". "Come è diversa la nuova procedura di due diligence rispetto alla precedente che gli ha permesso di vendere a Stati con pessimi precedenti sui diritti umani?". "Quali salvaguardie interne intende adottare per fare in modo che le scelte di progettazione e ingegneristiche incorporino garanzie sui diritti umani?". "Come intende assicurare trasparenza sui principi e l'efficacia della sua policy?". "Sta pensando di rendere pubblici una serie di dati [sul tipo di supporto dato ai clienti dopo la vendita; sugli abusi registrati ecc]?" E poi tutta una parte su come intende confrontarsi/ascoltare potenziali vittime di abusi.

CYBERCRIME AND THE CITY
Dalla cancellazione/sequestro dei dati alla minaccia di divulgazione

La città di Johannesburg (Sudafrica) ha i suoi dati ostaggio di un gruppo di cybercriminali che richiedono 4 bitcoin per non caricare tutti i dati online. C’è tempo fino a domani. Cambio di rotta e di strategia (per alcuni già atteso e prevedibile) del cybercrimine, da cancelliamo tutto a pubblichiamo tutto. (Zdnet)

GIORNALISMO E SICUREZZA
Anche il NYT sembra disinvestire sulla sicurezza

Un più modesto WTF anche per il New York Times. Runa Sandvik, hacker ed esperta di cybersicurezza, già nel progetto Tor, e da qualche tempo al New York Times con l’incarico di occuparsi della sicurezza dei giornalisti e delle loro fonti, è stata improvvisamente licenziata. O meglio il suo ruolo sarebbe stato eliminato, perché non ci sarebbe più bisogno di un focus dedicato sulla redazione e i giornalisti. Molta delusione sia da parte dei reporter dello stesso Times che nel mondo cyber. Tanto che il NYT ha poi pubblicato un comunicato di spiegazione, dicendo che si tratterebbe solo di una ristrutturazione del team di security, la quale resterebbe centrale. Non sono chiare le motivazioni di questa scelta. Segnalo però che ad agosto era arrivata una nuova CISO.

GIORNALISMO E SICUREZZA 2
Quando l’articolo contiene sciocchezze ma è stato davvero un “hacker”

Dagbladet, uno dei maggiori giornali norvegesi, ha dovuto mandare offline per alcune ore il suo sito dopo che degli attaccanti vi hanno inserito delle storie e dei virgolettati falsi, tra cui un commento pro-pedofilia attribuito al primo ministro. Secondo Runa Sandvik, il CMS (content management system) non prevedeva autenticazione a due fattori. - Forbes

GIORNALISMO E SICUREZZA 3
BBC sbarca su darknet

La BBC ora è raggiungibile anche nelle darknet, via Tor browser, ha cioè un suo servizio onion a questo indirizzo https://bbcnewsv2vjtpsuy.onion. I siti onion – sottolinea il progetto Tor – sono più protetti da blocchi e censure, e rendono più difficile per gli Stati censurare pubblicazioni e impedirne l’accesso agli utenti. Via Tor Project

GIORNALISMO E SICUREZZA NAZIONALE 4
Proteste in Australia contro i servizi di sicurezza e il governo

Protestano i giornali e media australiani dopo due diversi raid (ABC) e perquisizioni(ABC 2) dei servizi contro giornalisti che hanno pubblicato storie di sicurezza nazionale - e questo a causa di una legge che limita e criminalizza la pubblicazione di simili storie. Australia sempre più come la serie tv Secret City.
ABC 3

CINA
Il grande balzo sulla blockchain

In Cina il presidente Xi Jinping ha esortato il paese ad accelerare lo sviluppo della tecnologia legata alla blockchain, la cui caratteristica principale è la "decentralizzazione". Come gestirà questo elemento il partito comunista cinese?
Il manifesto

VPN
Compromissione per il fornitore di VPN NordVPN (e in misura minore per TorGuard)
TechCrunch

LETTURE
I Diavoli hanno intervistato me (qua) e Philip Di Salvo (qua) con domande davvero diaboliche su big data, capitalismo della sorveglianza e AI.

WHISTLEBLOWING
Come (non) funziona finora la legge italiana sul whistleblowing
Valori

GIORNALISMO IN CRISI
Come funziona (e cosa non funziona) nella redazione di Newsweek e in moltissime altre redazioni - CJR

CYBERSICUREZZA
Dieci modi in cui il management può proteggere l’azienda da cyberattacchi.
I consigli del World Economic Forum

CYBER E BAMBINI
Dji RoboMaster S1: un drone terrestre insegna ai bambini la programmazione – La Stampa

STORIE

Da ergastolano a ingegnere della Silicon Valley
Condannato all’ergastolo a 16 anni per aver ucciso il fratello, in un contesto di forte disagio famigliare, la storia di redenzione, dopo anni di prigione, di Zachary Moore, a partire da una scuola di coding dentro il carcere, fino a diventare un ben pagato ingegnere in una azienda tech. E a riottenere la libertà. Una storia lunga e approfondita di disperazione, leggi rivisitate, pena come riabilitazione, tecnologia, e un po’ di mitologia della Silicon Valley, ovviamente. Comunque, molto bella.
The Hustle

NON SOLO CYBER
Da leggere, specie se siete giornalisti:
La prima violenza che subiscono le persone trans è il modo in cui parliamo di loro The Vision (Italiano)

Ringraziamenti: grazie a tutti quelli che mi hanno segnalato “cose”. Anche quello che non è finito in questo numero della newsletter mi è comunque stato utile.

Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato!
E’ gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Come viene fatta questa newsletter (e come leggerla)
Per iscriversi: https://guerredirete.substack.com/
Buona domenica!