[Guerre di Rete - newsletter] Ransomware e ospedali; social, odio e moderazione

E poi la censura in Bielorussia.

Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
N.81 - 20 settembre 2020

Oggi si parla di:
- ransomware e morti
- social network e moderazione dei contenuti
- censura in Bielorussa
- riconoscimento facciale e stadi
- QAnon
- e altro

———
REMINDER PODCAST
Vi ricordo che questa newsletter ora ha anche una versione (un po’ più ridotta) PODCAST. Questa esce il lunedì e potete iscrivervi, tra le varie piattaforme, su:

———-

CYBERCRIMINE E OSPEDALI
Morte per ransomware?
Il primo caso di morte indirettamente causata da un ransomware, un “virus del riscatto”, un software malevolo che cifra i dati di una rete spesso rendendola inutilizzabile e chiedendo dei soldi per sbloccare tutto. È successo in Germania, dove una donna in condizioni gravi non è stata accettata da un ospedale di Dusseldorf, che era nel mezzo di un attacco ransomware, ed è stata dirottata su una struttura più lontana, facendo perdere un’ora di tempo. La donna è deceduta. Non sappiamo in che condizioni fosse e quanto abbia inciso l’allungamento dei tempi, quanto questo differimento sia stato deciso all’ultimo minuto, quante altre responsabilità si distribuiscano lungo la catena dell’assistenza e dell’organizzazione sanitaria. Per questo bisogna trattare la notizia con cautela. In ogni caso le autorità tedesche stanno indagando sugli autori dell’infezione con l’ipotesi di omicidio colposo, conferma la testata Heise.
Molti esperti ritengono che questa sia una prima assoluta. Quanto meno la prima volta che una morte indotta dalle conseguenze di un ransomware (con i caveat scritti poco sopra) diventi di pubblico dominio. Potrebbe avere molte implicazioni che vedremo dopo.
Prima però alcuni dettagli sulla notizia (riportata da molte testate tedesche e internazionali).

Secondo il ministero della giustizia della North Rhine-Westphalia, il ransowmare aveva cifrato circa 30 server dell’ospedale e aveva lasciato un messaggio dando indicazioni alla Heinrich Heine University, cui l’ospedale è affiliato, su come contattare gli attaccanti. La polizia di Dusseldorf ha poi comunicato con gli stessi dicendo che il loro attacco aveva bloccato un ospedale e il suo pronto soccorso, non l’università. A quel punto i cybercriminali avrebbero ritirato la domanda di riscatto e avrebbero fornito la chiave per decifrare i server. Può essere dunque che gli attaccanti non volessero colpire l’ospedale ma l’università collegata. Oppure che si siano resi conto di stare rischiando troppo, anche legalmente, e abbiano cercato di mostrarsi collaborativi. Secondo testate come Zdnet e ArsTechnica, i cybercriminali potrebbero aver sfruttato una vulnerabilità di un apparecchio di rete per migliorare le prestazioni delle applicazioni (application delivery controller) dell’azienda Citrix.

Restano però alcune considerazioni da fare. Una è l’accertamento di tutte le eventuali responsabilità. Non solo, ovviamente, dei cybercriminali che hanno attaccato un ospedale, ma anche dell’ospedale stesso, o di chi doveva gestire i servizi d’emergenza, e infine delle stesse autorità sanitarie della zona. Perché la struttura non era in grado neanche di accettare un paziente a rischio della vita? Non erano presenti meccanismi d’emergenza in caso di default informatico? La chiusura del pronto soccorso era stata annunciata e gestita in modo adeguato?
In ogni caso, è probabile che le autorità tedesche prenderanno questo caso di incidente informatico in modo molto serio. Non è la prima volta che sono attaccati ospedali. E nel 2017 il ransomware Wannacry aveva messo in ginocchio il sistema sanitario britannico, portando alla cancellazione di 19mila appuntamenti, a cinque ospedali che dovettero dirottare altrove le ambulanze, all’8 per cento di medici di base che ebbero le attività bloccate e, alla fine, a 92 milioni di sterline di danni tra spese per rimediare e prestazioni mediche mancate (sono dati del governo, che riporto nel mio libro #Cybercrime). Ma non furono riferite morti anche indirette per quell’infezione.
Tornando all’oggi, con l’emergere della pandemia, c’era stato, fra media, ricercatori e alcuni gruppi cybercriminali, una sorta di dibattito, di dialogo a distanza, chiamiamolo così, sull’opportunità di attaccare ospedali. Alcune gang avevano dichiarato che non lo avrebbero fatto. Non sempre e non tutte hanno mantenuto la promessa.
Se aggiungiamo a questa drammatica notizia che arriva dalla Germania il fatto che i ransomware hanno imperversato per tutta l’estate colpendo grandi aziende, e chiedendo milioni di euro di riscatto (in qualche caso, pare, pagato) possiamo immaginare che d’ora in poi il fenomeno salirà nelle priorità di investigatori e autorità. Aspettiamoci indagini e arresti. Nel mentre, anche molti altri attacchi. Per gli ospedali, infine, questo è l’ultimo campanello d’allarme (il primo, come dicevo, era stato Wannacry) sulla necessità di mettere in sicurezza i propri sistemi così come le procedure d’emergenza e di backup nel caso quei sistemi comunque falliscano. In tempi di pandemia, l’ultima cosa che possiamo accettare è un default informatico e organizzativo in ospedale. Forse un po’ di soldi andrebbero messi anche lì.
Vedi anche: Repubblica

FACEBOOK
La manipolazione della piattaforma e la capacità (o volontà) di fermarla: parla ex-dipendente

“Ho personalmente preso decisioni che hanno avuto effetto su presidenti nazionali senza che ci fosse alcun controllo [su di me], e ho preso decisioni contro tanti di quei politici di primo piano a livello globale che ho perso il conto”. “Ho preso innumerevoli decisioni di questa natura [ovvero decidere se agire o meno di fronte ad attività inautentiche sui social di una parte politica, ndr] - dall’Iraq all’Indonesia, dall’Italia al Salvador”.
Così scrive in una lunga nota un’ex-dipendente di Facebook, la data scientist Sophie Zhang, che lavorava nel Facebook Site Integrity fake engagement team, spiegando come per anni si sia trovata a prendere decisioni sulla manipolazione politica fatta attraverso il social network in diversi Paesi del mondo. Un memo ottenuto da BuzzFeed News, che ne ha pubblicato una sintesi. In tale documento, scrive la testata, ci sarebbero “esempi concreti di come capi di governo e partiti politici in Azerbaigian e Honduras abbiano usato profili finti o si siano fatti passare per qualcosa di diverso al fine di influenzare l’opinione pubblica. In Paesi come India, Ucraina, Brasile, Bolivia e Ecuador, [Zhang] avrebbe trovato le prove di campagne coordinate di varia entità per spingere o sminuire candidati politici e risultati”.
Tra gli esempi raccontati c’è l’Azerbaigian e come il partito al governo abbia usato migliaia di profili inautentici per molestare l’opposizione in massa. “Facebook - scrive Buzzfeed News - avrebbe iniziato a valutare la questione un anno dopo la segnalazione di Zhang”.
Sempre Zhang e i suoi colleghi avrebbero rimossi oltre 10 milioni di reazioni e fan falsi su profili di politici di primo piano in Brasile e nelle elezioni 2018 negli Usa. In Ucraina avrebbero trovato attività inautentica a supporto degli ex primi ministri Tymoshenko e Groysman. In Spagna avrebbero individuato una campagna di manipolazione in atto sulla pagina Facebook del ministero della Salute durante la pandemia di Covid-19, e avrebbero rimosso 672mila profili falsi che agivano in modo simile a livello globale.

Per alcuni osservatori (ad esempio il giornalista Nathaniel Popper), il memo di Zhang mostrerebbe la lentezza e la scarsa proattività di Facebook nell’agire contro manipolazioni e disinformazione, specie quando riguarda Paesi periferici rispetto a Stati Uniti ed Europa. Altri osservano che al di là degli annunci fatti da Facebook su campagne disinformative/inautentiche che sono state individuate e fermate, non ci sarebbe un modo per capire quanto a Menlo Park abbiano cognizione e presa su ciò che effettivamente accade sulla loro piattaforma a livello globale.

“Ci sono tre questioni evidenziate da questa storia”, twitta David Kaye, ex rapporteur ONU sulla libertà di espressione. “La prima è ben nota e cioè: attori malevoli sfruttano globalmente quello che la piattaforma gli offre per manipolare il pubblico. La seconda è un problema ricorrente: il fallimento nell’affrontare serie manipolazioni in quello che alcuni considerano la “periferia”; e dato che la base utenti della piattaforma è soprattutto fuori dagli Usa, questo è irragionevole. E la terza, connessa alla seconda: la sensazione notata spesso che Facebook operi in risposta a pressione pubblica e cattive pr. Davvero, perché Sophie Zhang agiva da sola, senza sostegno, per affrontare questi problemi?”.
La risposta di Facebook ha insistito sul fatto che la piattaforma avrebbe rimosso molte campagne di abusi. “Abbiamo messo in piedi team specializzati che lavorano con i migliori esperti per impedire ad attori malevoli di abusare dei nostri sistemi. Tutto ciò ha prodotto la rimozione di più di 100 networks per comportamento coordinato inautentico”.

(PS: Ma quel riferimento all’Italia che è passato ignorato?)

Odio etnico, incitamento all’odio e Facebook: il caso Etiopia
Ma i problemi di Facebook nel gestire una piattaforma globale riemergono in un altro articolo, questa volta di Vice, che racconta di come alcuni gravi episodi di violenza etnica in Etiopia - e in particolare l’assassinio del cantante Hachalu Hundessa - siano stati esacerbati dall’incitamento all’odio diffuso sul social. A nulla, anzi controproducente l’idea del governo locale di staccare internet per qualche giorno durante le violenze. “C’erano ore di video che venivano dalla comunità della diaspora, contenuti estremisti, che dicevano che si doveva sterminare questo gruppo etnico”, spiega a Vice il professore della Hamline University Endalk Chala. “Questo è un dato che ci dice che Facebook non sta facendo abbastanza per proteggere le minoranze etniche”.
Il social ha aperto il suo primo centro per la moderazione dei contenuti per tutta l’Africa l’anno scorso, promettendo di impiegare 100 persone attraverso una società esterna, Samasource. Ma non è chiaro quanti siano effettivamente al lavoro oggi e quanti dedicati all’Etiopia.

Alcuni gruppi per i diritti umani hanno scritto a Facebook lo scorso mese preoccupati che la piattaforma possa ripetere gli errori fatti in Myanmar 4 anni fa, quando i discorsi d’odio diffusi attraverso il social contro la minoranza musulmana dei Rohingya favorirono la violenza reale contro quel gruppo (una debacle riconosciuta in qualche modo anche dalla stessa Facebook).

Come rimuovere contenuti in modo trasparente
E tuttavia per capire la complessità delle questioni in gioco, segnalo anche un concomitante rapporto di Human Rights Watch. L’organizzazione per i diritti umani è preoccupata che proprio la crescente richiesta rivolta alle piattaforme di eliminare contenuti d’odio, violenti eccetera, seppure dovuta e anzi necessaria, faccia sparire nel nulla materiali che potrebbero essere utilizzati per indagare dei crimini. Per cui se è giusto e doveroso che queste piattaforme rimuovano certi contenuti, dovrebbero anche assicurare un modo per archiviare i materiali tolti, in modo da permettere di perseguire i responsabili di violenze. Dunque nel report “‘Video Unavailable’: Social Media Platforms Remove Evidence of War Crimes, Human Rights Watch chiede a piattaforme come Facebook, Google (YouTube), Twitter e altri stakeholder di elaborare un meccanismo indipendente per preservare potenziali prove di crimini. Tali materiali dovrebbero restare disponibili per indagini nazionali o internazionali, ma anche per i ricercatori di associazioni umanitarie, giornalisti e accademici. La proposta si colloca nella più ampia richiesta fatta alle piattaforme di migliorare la loro trasparenza e la loro accountability sui contenuti rimossi.

Gli attivisti (pagati) pro-Trump
Tornando al tema della manipolazione delle piattaforme, dagli Stati Uniti arriva una storia di presunti attivisti online di Trump che erano invece pagati. Una serie di messaggi che nei mesi scorsi sembravano provenire da giovani dell’Arizona, convinti sostenitori del presidente, erano in realtà frutto di una segreta campagna di marketing, scrive il WashPost. Si tratta di astroturfing: quando campagne politiche sono camuffate da spontanei movimenti dal basso ma in realtà vengono organizzate e gestite da una sola organizzazione/persona.
Dei ragazzi, alcuni minorenni, sono dunque pagati per pompare messaggi indicati da Turning Point Action, entità legata a Turning Point USA, gruppo di giovani conservatori nato a Phoenix. In pratica questi utenti sono remunerati per spingere messaggi pro-Trump dai propri account personali, senza però rivelare la loro relazione con Turning Point Action. Non solo: alcuni di questi messaggi sembrano promuovere vera e propria disinformazione. Tra i contenuti diffusi infatti ci sono quelli secondo i quali i numeri sul coronavirus sarebbero volutamente gonfiati; quelli che cercano di screditare la figura di Anthony Fauci, il dottore in prima linea negli Usa nel contrasto al Covid-19; quelli che sostengono la tesi falsa (ma cara a Trump) per cui il voto via posta porterebbe a frodi.
In risposta all’indagine del WashPost, Twitter e Facebook hanno dunque eliminato una serie di profili.

In pratica, come notano vari osservatori, nel 2016 ci si preoccupava tanto dei ragazzi macedoni che per soldi scrivevano articoli falsi sui temi delle elezioni americane; o delle attività social dei russi e dell’IRA (Internet Research Agency), la cosiddetta fabbrica di troll di San Pietroburgo. Ma, in queste elezioni (e forse anche in quelle precedenti, verrebbe da dire), la fabbrica di troll sembra stare in posti come Phoenix, profonda America. E l’entità della disinformazione interna statunitense sembra essere molto più ampia di quella proveniente da oltremare.

Tra l’altro, alle scorse presidenziali, proprio i troll russi dell’IRA avrebbero spinto alcuni contenuti del gruppo conservatore americano Turning Point per aiutare Trump, in una sorta di interessante sinergia, hanno dichiarato alcuni esperti alla commissione sull’intelligence del Senato Usa, scrive The Verge. Invece la disinformazione oggi “suona come i russi, ma viene dagli americani”, ha commentato un ingegnere di Google al Post.

La campagna contro l’odio su Facebook/Instagram
Intanto una serie di celebrità - come Baron Cohen, Katy Perry, Jennifer Lawrence, Ashton Kutcher, Leonardo Di Caprio e altri - hanno aderito alla campagna #StopHateForProfit, accettando di congelare i propri account Instagram e Facebook per 24 ore per protestare contro il fatto che queste piattaforme non facciano abbastanza rispetto alla diffusione di odio e disinformazione sulle elezioni negli Usa.(Axios)

La campagna nasce da alcuni gruppi per i diritti civili americani (come NAACP, Anti-Defamation League ecc) che vogliono fare pressione su Facebook per fermare la diffusione di razzismo, odio e disinformazione sul social. Il 14 settembre hanno dunque lanciato una settimana di azioni. La richiesta principale è che la piattaforma prenda misure correttive prima delle elezioni di novembre. A luglio lo stesso gruppo aveva promosso ua campagna per spingere le aziende a togliere le loro inserzioni da Facebook (Elle).

Complottismi sugli incendi
Intanto, le teorie del complotto sull’origine degli incendi in Oregon - teorie che senza fondamento attribuiscono la causa ad attivisti dei movimenti Antifa e Black Lives Matter - continuano a diffondersi tramite i gruppi privati di Facebook anche dopo che il social ha annunciato di voler rimuovere queste affermazioni false. A dirlo è il German Marshall Fund degli US, scrive Axios in esclusiva.

La moderazione dentro le aziende (tra i dipendenti)
Tornando ancora un secondo al tema della moderazione dei contenuti, c’è un sotto-filone poco esplorato ma secondo me interessante. Il tema cioè della moderazione dei contenuti internamente alle aziende. Come gestire discussioni o commenti infuocati tra dipendenti su bacheche e altre piattaforme e social interni? Ad esempio, Google ha visto un aumento di post segnalati per razzismo o abuso sulle proprie bacheche a causa di quelle che definisce “dure conversazioni globali” (il riferimento è alle tensioni generate dagli scontri razziali negli Usa ma anche dalla pandemia nel mondo) e al fatto che le persone lavorino da casa, scrive CNBC. E ha quindi deciso di espandere i training per insegnare ai dipendenti a gestire conversazioni in modo appropriato e inclusivo.
Anche Facebook in questi giorni ha delineato una serie di nuovi principi per guidare le discussioni interne (ma anche le critiche interne) (CNBC)

CENSURA
Il blocco politico dei siti in Bielorussia

Nelle ultime settimane in Bielorussia sono stati bloccati più di 70 siti web, in concomitanza con le continue proteste antigovernative per i controversi risultati delle elezioni di agosto. Sono invece almeno 86 i siti bloccati tra il primo agosto e il 3 settembre. Molti dei siti in questione sono d’informazione e media; molti altri sono siti di natura politica o legati all’opposizione. Ci sono poi siti sui diritti umani, e piattaforme di comunicazione, inclusi fornitori di email attenti alla privacy come Tutanota e Startmail. A scriverlo in un blogpost è l’osservatorio sulla censura internet OONI (Open Observatory of Network Interference). Data la natura dei siti bloccati e al periodo in cui è avvenuto il blocco (poco prima delle elezioni e successivamente con le proteste), questo appare dunque motivato politicamente, osservano i ricercatori. Che confermano come sia stata probabilmente utilizzata una tecnologia di ispezione profonda dei pacchetti (DPI – Deep Packet Inspection). Ne avevamo parlato la scorsa volta, raccontando come la tecnologia impiegata in Bielorussia per filtrare e bloccare vari siti fosse probabilmente americana, e provenisse cioè dall’azienda Sandvine, passando prima per la Russia (almeno secondo il resoconto di Bloomberg).

Bene, ora Sandvine ha fatto sapere di aver cancellato l’accordo con la Bielorussia, perché il governo avrebbe usato i suoi prodotti per violare i diritti umani e questo determinerebbe “la cessazione automatica del nostro accordo di licenza con l’utente finale”. Questo non vuol dire che i suoi apparati smettano di funzionare o non siano più utilizzabili, ma che non verranno più aggiornati né l’utente finale riceverà assistenza, riferisce Bloomberg.

Interessanti però i commenti degli attivisti. Che salutano la cessazione del servizio come una vittoria, e tuttavia rilanciano. “Anche se una buona notizia, gli scarsi dettagli rilasciati da Sandvine in risposta a una situazione seria come quella in Bielorussia servono a sottolineare (ancora una volta) la totale assenza di trasparenza nell’industria della sorveglianza”, scrive un’avvocata di Citizen Lab, organizzazione di ricercatori antisorveglianza e anticensura, ricordando come l’azienda americana avrebbe pure una commissione sull’etica aziendale per valutare certe transazioni.
Sulla stessa linea un comunicato dell’associazione per i diritti digitali Access Now, secondo la quale ora l’azienda dovrebbe occuparsi anche delle violazioni passate e dovrebbe prendere delle misure nette per prevenire che quanto accaduto si ripeta in futuro. Per cui più che un board sull’etica si invocano misure di trasparenza e due diligence.

C’è per altro un effetto collaterale interessante della repressione. Anzi, un vero boomerang. Una serie di aziende tech che negli ultimi anni erano sbarcate in Bielorussia o avevano aperto dei centri e team di sviluppo stanno ora pensando di andarsene, racconta il Wall Street Journal. Anche perché le forze di sicurezza in alcuni casi si sono spinte fin negli uffici di queste aziende.

SINGAPORE
L’era del salutismo statale di mercato

Il governo di Singapore ha stretto una partnership con Apple per promuovere stili di vita salutari e fare prevenzione fra la popolazione. Insieme hanno sviluppato un’app - LumiHealth - che potrà essere usata in abbinamento all’Apple Watch/IPhone. “Oltre a fornire informazioni e consigli per prevenire diverse malattie, l’applicazione contiene una sezione per incentivare l’adozione di abitudini e stili di vita più sani, attraverso il raggiungimento di obiettivi di vario tipo. La scelta degli obiettivi avviene tramite un assistente virtuale ed è presentata come un gioco”, scrive Il Post. Per i più bravi ci sono premi in denaro.
“È opinione diffusa tra osservatori e analisti che il prossimo grande settore d’interesse per le aziende tecnologiche statunitensi sia quello sanitario”, prosegue Il Post. Che ricorda:“Alphabet, la holding che controlla Google, ha avviato lo scorso anno l’acquisizione di Fitbit, azienda specializzata nella produzione di tracker per controllare l’attività fisica e le proprie condizioni di salute. Amazon ha di recente annunciato un nuovo tracker, dedicato proprio alla salute e che offre informazioni per incentivare stili di vita più sani. Secondo gli analisti, entrambe le società sfrutteranno questi prodotti per fornire servizi innovativi legati alle assicurazioni sanitarie negli Stati Uniti, come la possibilità di pagare premi assicurativi dall’importo variabile a seconda di quanto ognuno sia virtuoso nel fare prevenzione e prendersi cura di sé stesso”.

Riassumendo: stiamo entrando nell’era del rilevamento pubblico-privato dei nostri stili di vita e delle nostre condizioni sanitarie con una ancora scarsa cognizione di tutte le implicazioni socioeconomiche, di privacy, sicurezza ed etiche che ci stanno attendendo al varco. E, per dirla con una battuta, col rischio che il salutismo statale di mercato copra l’arretramento di serie politiche pubbliche sulla sanità.

RICONOSCIMENTO FACCIALE IN ITALIA
Quella voglia di riconoscimento facciale che parte dagli stadi

L’organizzazione tedesca Algorithm Watch pubblica un post sui progetti italiani di tecnologie di controllo per gli stadi di calcio. Riassume e commenta l’articolo il suo stesso autore, Fabio Chiusi, in un post su Facebook:
“Riconoscimento facciale in tutti gli stadi italiani.
Per mesi ho provato a comprendere se il governo e le massime autorità sportive facessero sul serio. E temo proprio di sì.
Oggi ne abbiamo una ennesima conferma, su Repubblica: "La novità più rilevante” di un dossier della Lega Calcio che il quotidiano “ha potuto visionare”, si legge, “è che i tifosi per tornare allo stadio dovranno indossare mascherine trasparenti in modo da garantire il riconoscimento facciale da parte delle autorità”. Per ora non se ne parla, perché il Comitato tecnico scientifico è contrario; ma quando gli stadi riapriranno, queste sono le intenzioni. E il progetto viene da lontano. Condiviso dal ministro Spadafora e dai vertici di FIGC e Lega Calcio, prevedeva originariamente di usare il riconoscimento facciale — una tecnologia che sempre più studi scientifici mostrano produrre risultati discriminatori e razzisti — non per garantire la salute pubblica, non solo ai gates per entrare allo stadio (così che i tifosi soggetti a DASPO, per esempio, non potessero accedere), ma per osservare il pubblico sugli spalti, addirittura ascoltarne le conversazioni (questa era l’ipotesi iniziale) tramite “radar sonori”, e così… combattere il razzismo. Esatto: una tecnologia che produce risultati razzisti per combattere il razzismo” (qui tutto il suo post).

USA 2020
Here we go again
L’app ufficiale della campagna democratica di Joe Biden, chiamata Vote Joe, aveva un bug di privacy che permetteva a chiunque di accedere a informazioni sensibili su milioni di elettori, scrive TechCrunch.

CONTACT TRACING
Avanti su interoperabilità

Prosegue il dialogo sull’interoperabilità fra app di tracciamento contatti fra Paesi europei (Italia inclusa) coi primi test e un gateway per lo scambio di dati, riferisce la stessa Commissione Ue.

ASSANGE
Udienze contestate e impossibili da seguire
Sono riprese le udienze sull’estradizione di Julian Assange, il fondatore di Wikileaks, (vedi scorsa newsletter per i dettagli) tra assurdi problemi tecnici che hanno impedito a giornalisti connessi da remoto di seguire (vedi il thread di Stefania Maurizi) e le proteste ufficiali di Amnesty International.
“Amnesty International ha condannato la decisione delle autorità giudiziarie britanniche di non consentirle di seguire, in presenza e da remoto, l’udienza sull’estradizione di Julian Assange negli Usa, iniziata a Londra il 7 settembre. L’organizzazione per i diritti umani ha inoltrato svariate richieste di accesso all’udienza, sempre negate”, scrive Friuli Sera.

CYBERCRIME
Encrochat, non è ancora finita

Ricordate la storia di Encrochat, il servizio di criptofonini usato da molta criminalità organizzata e colpito al cuore da una indagine transnazionale europea che ne aveva preso il controllo con una operazione di hacking senza precedenti? Ne avevo scritto in newsletter e su Valigia Blu. Bene ora la polizia olandese ha lanciato una indagine sulla corruzione di poliziotti che avrebbero passato info ai criminali (Vice).

CRIPTOVALUTE
Gli Usa hanno individuato e incriminato due cybercriminali russi accusati di aver rubato attraverso delle campagne di phishing ben 17 milioni di dollari in criptovalute, scrive Bloomberg.
E sempre sul tema sicurezza delle criptovalute, è stato stretto un accordo tra Satec (Cattolica) e la startup Checksig per la copertura dei rischi nel servizio di custodia bitcoin, scrive Il Sole 24 Ore,

GIG ECONOMY
ll ministero del Lavoro dice no al nuovo contratto per i fattorini delle piattaforme di food delivery, firmato dalla federazione delle app Assodelivery e dal sindacato Ugl, scrive Wired Italia
”Il contratto certifica i rider come lavoratori autonomi e ne limita diritti e rivendicazioni. Esperti e sindacati dicono che si tratta di un'azione ai limiti del comportamento anti sindacale”, scrive Domani (paywall).

LETTURE/APPROFONDIMENTI

QANON
Nascita, genesi, ramificazioni e significato di Q, la nuova ‘religione’ complottista dell’era Trump nata sul web, entrata nella realtà ed esplosa con la pandemia, scrive Valigiablu in un approfondimento firmato da Leonardo Bianchi.
Anche Wu Ming 1 su Internazionale sviscera in dettaglio un fenomeno che a prima vista appare del tutto incomprensibile e assurdo, ma che rischia per questo di essere sottovalutato.
In pratica con questa doppietta saprete tutto su QAnon.
Ma c’è anche un bel podcast sul tema (in inglese) di The Foreign Desk che potete ascoltare qua.

PRIVACY
Cosa succede se mentre scorri le foto su Instagram vedi il boarding pass di un ex primo ministro australiano (da cui vai a estrapolare interessanti altre info)? Un racconto esilarante di security in cui l’autore (l’hacker australiano Alex Hope) finisce con il contattare i servizi di sicurezza australiani, una compagnia aerea e un ex primo ministro. E riesce anche a non essere arrestato. Come dire: tutto è bene quel che finisce bene (e no, non pubblicate in giro i vostri boarding pass).https://mango.pdf.zone/finding-former-australian-prime-minister-tony-abbotts-passport-number-on-instagram

RECOVERY DIGITAL

Teniamoci stretti i nostri dati per la rivoluzione verde in Europa, scrive Francesca Bria su Domani.

SALUTI E CONTATTI
Se qualcuno vuole contattarmi in modo anonimo (o, quanto meno, con una maggiore probabilità di privacy e senza dover passare per una casella email o un account legato a un telefono) può farlo andando su https://contact.carolafrediani.org/#/ via Tor Browser (se da dentro la newsletter non si apre link basta riscriverlo nel browser).
È una piattaforma open source creata da Globaleaks (che ringrazio! in particolare un grande grazie a Giovanni Pellerano) che permette a giornalisti, media e organizzazioni (qua ce ne sono alcune) di ricevere segnalazioni e a chi segnala di proteggere la propria privacy (qui un articolo in inglese su chi sono, che fanno).
Oppure potete scrivermi una mail con PGP. O contattarmi solo su Signal +14783944294. O, se non avete particolari esigenze di privacy, molto semplicemente, rispondere a questa newsletter.

Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato!
E’ gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti.
Come viene fatta questa newsletter (e come leggerla)
Per iscriversi: https://guerredirete.substack.com/
Buona domenica!