[Guerre di Rete - newsletter] Il caso Assange; Uk e i contenuti dannosi; i meccanismi ingannevoli dei social e altro
Guerre di Rete - una newsletter di notizie cyber
a cura di Carola Frediani
Numero 29 - 14 aprile 2019
Oggi si parla di:
- Julian Assange: analisi di un arresto
- l’UK vuole eliminare i contenuti dannosi
- la legge censoria di Singapore contro le fake news
- i meccanismi social usati per ingannarci
- i 7 principi europei per una AI etica
- giornalismo e smart speaker
- ricattatori di utenti di siti pornografici
- e altro
LA STRATEGIA DIETRO ALL’ARRESTO DI ASSANGE
Come saprete tutti, Julian Assange è stato arrestato in UK. L’Ecuador - con cui, sotto il nuovo presidente Lenin Moreno, il fondatore di Wikileaks era in rotta da tempo, ma le tensioni vanno vanno viste nel riavvicinamento del Paese latinoamericano agli Usa anche a causa della recessione economica e dell’indebitamento, con tanto di prestito da 4,2 miliardi di dollari dal Fondo monetario internazionale (Economist) siglato a marzo (FMI) - ha revocato l’asilo e sospeso la cittadinanza (la diretta del Guardian). E a quel punto la polizia inglese è andato a prenderselo nell’ambasciata ecuadoriana dove si era rifugiato nel 2012, un’era politica fa. È accusato di aver violato le condizioni della libertà vigilata in Gran Bretagna, nel 2012, quando evitò l’estradizione in Svezia per essere interrogato su alcune accuse di violenza sessuale, per le quali, nella specifica fattispecie contestata, se condannato avrebbe rischiato al massimo 24 mesi di prigione (ma la sua tesi era che in quel modo sarebbe stato poi estradato negli Usa).
Tuttavia ora è stato arrestato anche in seguito a una richiesta di estradizione americana per una inchiesta su di lui, su cui ci sarà un’udienza il 2 maggio. E che a giudicare anche solo dal tono di politici e giudici inglesi usato nei suoi confronti - “nessuno è al di sopra della legge”, “narcisista” e via dicendo - sembra al momento abbastanza probabile. E ciò malgrado la foglia di fico dell’Ecuador che ha dichiarato di aver chiesto alla Gran Bretagna di non farlo estradare in Paesi con la pena di morte o la tortura. Gli Stati Uniti potranno dire che nel caso specifico Assange non rischia né l’una né l’altra (anche NPR nota che le accuse mosse non comportano pena di morte).
Perché il Dipartimento di Giustizia Usa ha giocato una partita politica sapiente, incastrando Assange nell’unico modo in cui poteva farlo senza inguaiarsi e senza prendere direttamente a sberle la stampa americana, quella internazionale e il primo emendamento Usa. Ma anzi cercando di scavare un fossato fra giornalisti e Assange sulla base di come lui si sarebbe comportato nella pratica nel rapporto con la sua fonte. E questo schema di gioco era in realtà già tutto delineato ed evidente per chi conoscesse un po’ la legislazione americana fin dal 2010, come mostra questo articolo di Wired US dell’epoca - così come i fatti descritti erano già emersi nel 2011.
Ovvero gli americani non accusano Assange di spionaggio, di essere una spia, o di aver ricevuto da una fonte e pubblicato segreti di Stato; non usano l’Espionage Act - che avrebbe rischiato di trascinare nella mischia anche tutti i media che avevano pubblicato i leak, o altri scoop di sicurezza nazionale - bensì la famigerata legge usata per perseguire crimini informatici, la Computer Fraud and Abuse Act (CFAA). Questa è una legge molto ampia, malleabile e tagliente, un coltellino svizzero della pubblica accusa, con cui si possono perseguire cybercriminali di ogni risma e attivisti per il libero accesso a informazioni e documenti come Aaron Swartz (il quale rischiava 35 anni di carcere per aver scaricato articoli accademici). La stessa legge che - insieme ad altre accuse minori - ha mandato in prigione per 5 anni (4 effettivi) l’attivista e giornalista Barrett Brown accusato non di aver hackerato o rubato qualcosa, ma di essere stato “accessorio” dopo la violazione, di aver in qualche modo aiutato l’hacker vero e proprio (Jeremy Hammond) a non farsi identificare.
Il CFAA (qui tutta la legge in inglese) non tiene conto della motivazione dell’accusato, e nel determinare la pena calcola anche l’entità dei danni cagionati (un vecchio approfondimento tecnico sul CFAA, inglese) e altri fattori. Attualmente, con quel solo capo di imputazione, Assange rischia 5 anni di prigione (Reuters), ma tale calcolo è al momento al ribasso e provvisorio. Se come spesso accade arriveranno altre accuse simili o collegate, il conto salirà in fretta. Sappiamo che gli USA lavorano su questo caso da anni e che spesso vengono aggiunti successivamente nuovi capi di imputazione (segnalo che su Wired US “l’avvocato degli hacker” Tor Ekeland sostiene che gli Usa avranno però più problemi ad aggiungere capi di accusa, essendoci di mezzo una estradizione).
L’incriminazione
Ma nello specifico di cosa è dunque accusato Assange? Di essersi accordato con altri (conspiracy, la Section 371 del codice penale) per commettere principalmente due reati:
- una violazione di sistema informatico (hacking) che risulta nell’esposizione di informazioni governative - sezione 1030(a)(2)
- un accesso a computer con info governative protette che possono essere usate per danneggiare gli Stati Uniti o avvantaggiare Stati stranieri - sezione 1030(a)(1).
L’accusa principale (qui comunicato Usa; qui l’incriminazione vera e propria) è la seguente: nel 2010 Assange avrebbe aiutato la sua fonte Chelsea Manning (che passò a Wikileaks i documenti alla base delle rivelazioni su Iraq, Afghanistan e del Cablegate, scoop mondiali finiti su tutti i giornali, e su cui hanno lavorato molti media che erano partner) a violare una password protetta (non riuscendoci a quanto pare) per l’accesso a una rete governativa riservata, SIPRNET; tale password avrebbe permesso a Manning, che aveva già scaricato documenti dalla stessa rete in quanto ne aveva accesso come analista di intelligence, di entrare non col suo username in modo da non essere facilmente individuata. Inoltre viene contestato ad Assange di aver incoraggiato attivamente Manning a passargli altre informazioni.
La tentata violazione della password
Di fronte al concetto di “craccare” una password ovviamente molti se non tutti i giornalisti hanno fatto un passo indietro, e marcato la propria estraneità a simili pratiche, a partire da il più bravo giornalista sul mondo dell’hacking oggi in circolazione, Joseph Cox (suo thread e suo articolo; inoltre questo bel pezzo di Valigia Blu (Fabio Chiusi) sul caso raccoglie anche molte reazioni di questo tipo, e tutte le sfumature intermedie). Dato per certo e scontato che craccare password non è pratica giornalistica, molti reporter si interrogano se non si tratti comunque di un pretesto.
“Data la natura del capo di imputazione - una discussione 9 anni fa su un tentativo non riuscito di trovare una password - penso che sia giusto discutere se non si tratti di una foglia di fico da parte del governo per punire qualcuno per aver pubblicato cose che non voleva fossero pubblicate”, ha commentato il giornalista di sicurezza nazionale del NYT Scott Shane.
Tutto in questo momento si regge infatti a livello legale e politico (ovvero togliere ad Assange il patentino del giornalismo) su un tentato crack di una password di un sistema già violato, ribadisce anche Slate. In realtà non importano molto i dettagli, se il crack sia avvenuto o meno, se servisse o meno. (C’è chi sostiene che Assange non ci abbia nemmeno mai provato ma abbia solo buttato lì una frase in chat).
Per l’accusa conta solo riuscire a dimostrare che ci fosse un qualche accordo fra Manning e Assange per commettere dei crimini (conspiracy), nello specifico di violazione informatica.
Le implicazioni per il giornalismo
Ma a ben vedere l’atto d’accusa si espande su un terreno più infido di quello che sembra, e il fossato appare meno profondo di quanto lo si vorrebbe scavare. ”Gran parte di questa incriminazione sembra coprire attività giornalistica ordinaria, come proteggere una fonte”, scrive EFF che parla di “criminalizzazione del giornalismo”. Dello stesso tenore Freedom of the Press, Snowden, Micah Lee, The Intercept e Glenn Greenwald, e in Italia ancora Valigia Blu (post di Arianna Ciccone).
Per far capire di cosa si parla vengono bene i tweet di Dan Fromkin che evidenziano i punti critici. Dice infatti l’incriminazione che: “era parte dell’accordo per commettere la violazione che Assange e Manning usassero il servizio di chat online Jabber per collaborare”. Che è come dire: era parte dell’accordo criminale che il giornalista e la fonte comunicassero su Whatsapp, tipo.
“Assange e Manning hanno preso misure per nascondere che Manning era la fonte di Wikileaks, tra cui la rimozione degli username dalle informazioni rivelate e la cancellazione delle chat”.
Che si può anche sintetizzare in: Assange ha preso misure per proteggere l’identità della fonte. Una volta i giornalisti dicevano a una fonte di incontrarsi in un luogo nascosto o di non usare il telefono per non farla rintracciare. Si opponevano se qualcuno gli veniva a chiedere chi era. Dunque?
O ancora: “Assange e Manning hanno usato un archivio speciale nel cloud di Wikileaks per trasmettere informazioni ecc”. Ovvero hanno usato internet (o anche fosse un sistema apposito e anonimo per proteggere la fonte, vogliamo proibirli? NYT, Forbes, New Yorker, sono tutti fuori legge allora).
The Intercept riprende tutto questo discorso e ci va giù duro.
Su estradizione, c’è chi pensa che ci sarà una battaglia legale in UK e che ci sia qualche spazio per impedirla (TechCrunch). C’è anche chi pensa che l’incriminazione, dovendo puntare sul CFAA, alla fine sia tutto sommato debole (Tor Ekeland) o che ci siano cavilli legali cui la difesa possa aggrapparsi. Il che forse spiega il tentativo del Dipartimento di Giustizia Usa di ottenere info aggiuntive da Chelsea Manning cercando di obbligarla a testimoniare.
Infatti Wired Italia (Philip Di Salvo) ricorda come l’arresto di Assange sia “interamente connesso al leak dei materiali forniti dalla whistleblower Chelsea Manning che, al momento, si trova di nuovo in carcere negli Usa per essersi rifiutata di rispondere alla domande di un grand jury proprio in relazione al suo coinvolgimento con WikiLeaks”.
La mia impressione è che il CFAA sia, come spesso è stato in passato, un panzer inarrestabile, e che dunque tutto si giocherà adesso: estradizione sì oppure no. Sempre se ci sia davvero ancora una partita.
(In tutto questo, nel mentre, potrebbe anche infilarsi la Svezia, con conseguenze ancora da capire - BBC)
La figura di Assange e il suo ruolo nel giornalismo - La Stampa
BIG TECH E REGOLAMENTAZIONI
LA PROPOSTA UK CONTRO I CONTENUTI DANNOSI E I DANNI COLLATERALI
Il governo britannico ha presentato un piano ambizioso e molto aggressivo per regolare i social media e i contenuti che lì sono pubblicati. Lo ha fatto in un documento di policy (Online Harms White Paper) che verrà dibattuto nei prossimi mesi e che potrebbe diventare la base di una legge che appare già piuttosto controversa. In pratica il governo vuole creare una autorità indipendente con il compito di occuparsi del ripulisti di contenuti pericolosi/dannosi (harmful) dai social media. L'autorità sarà in grado di sanzionare i social, bloccare l'accesso a siti se necessario e arrivare anche a sanzionare o a ritenere legalmente responsabili singoli dirigenti di un'azienda (BBC).
Questi amplissimi poteri si eserciteranno a loro volta su una amplissima gamma di contenuti, alcuni dei quali universalmente considerati illegali e odiosi (come la pedopornografia) e altri che stanno in una zona grigia che sconfina nella libertà di espressione, a seconda del contesto e dell'interpretazione (contenuti genericamente definiti "estremisti", trolling o attacchi a figure pubbliche).
Il documento mette all'indice quelli che definisce contenuti "illegali e inaccettabili". Se la prima categoria è chiara (un contenuto che viola una legge esistente, poi si può discutere sulla bontà della legge), cosa è un contenuto inaccettabile? È inaccettabile per le norme sociali? Per una generica sicurezza statale o sociale? Una domanda che si ripropone quando si parla di voler affrontare "contenuti illegali e pericolosi". Può esserci dunque un contenuto legale ma giudicato pericoloso? Magari un contenuto giudicato politicamente pericoloso? E in tal caso va rimosso?
Il documento elenca quindi le minacce che si vogliono affrontare con questo nuovo ente in grado di comminare sanzioni. Le metto qua in un ordine che grosso modo inizia con quelle più definite e definibili e poi si addentra in quelle in cui il confine del fenomeno diventa più incerto e complesso: sfruttamento sessuale dei bambini; contenuti terroristici online; contenuti caricati illegalmente da carcerati che stanno in prigione (WTF?); contenuti di gang criminali; la vendita di oppioidi; contenuti che bullizzano, intimidiscono, molestano; autolesionismo; disinformazione online; contenuti violenti; contenuti estremisti; cyberbullismo e trolling; abuso online di figure pubbliche.
"Mettere assieme fake news con abusi sessuali su minori e terrorismo è un classico trucco autoritario", ha commentato un autore libertario, Christopher Snowdon, su Twitter.
Il dark web non rientra nel raggio d'azione di questo organismo regolatorio, perché (dice il documento) i crimini che lì avvengono sono già trattati dalla legge attuale. (Ma soprattutto perché questo piano ha in mente un'area ben precisa, quella dei social media; inoltre hai voglia a far rimuovere contenuti dal dark web).
Critico il portavoce dell'Internet Association - che raccoglie le aziende tech come Facebook, Google, Twitter ecc - per il quale servono proposte mirate e pratiche da implementare sia per grandi che per piccole piattaforme. Mentre questa del governo inglese coprirebbe un ambito troppo ampio (Business Insider).
Ci va giù anche più dura l'organizzazione anticensura Index On Censorship, per la quale quel documento mostra sprezzo per la libertà di espressione e limita l'accesso a informazioni online. "Una definizione ampia di 'danno/abuso online' metterebbe in pericolo la libertà di espressione", ammonisce l'ong. A tal proposito, un sondaggio di Ofcom menzionato dai legislatori cita un 45 per cento di utenti internet adulti che avrebbero subito una qualche forma di danno o abuso (harm) online. Tuttavia se poi si vanno a guardare bene le domande, emerge che la lista di danni include lo spam, un linguaggio volgare e pure la pubblicità mirata.
A parlare di danni/pericoli/abusi così a ruota libera, non vorrei che davvero anche la libertà di espressione finisse col diventare un danno (collaterale).
E LA FRANCIA MEDIA
Oltremanica è molto più cauta la posizione francese, incarnata da Cédric O, già consulente di Macron recentemente promosso ministro per l'Economia Digitale. Il quale sembra cercare più un approccio collaborativo con le piattaforme - con lui Facebook ha concordato di mostrare agli emissari del governo il funzionamento del processo di moderazione dall'interno. Inoltre secondo Cédric O bisogna evitare che i social cancellino contenuti che non dovrebbero cancellare
TechCrunch
LA STRATEGIA DEL G7 PER UNA CYBER DETERRENZA
Su un altro fronte i ministri degli Esteri del G7, riuniti qualche giorno fa in Francia, hanno discusso una proposta per una comune strategia sul cyberspazio al fine di proteggere i sistemi politici da attacchi informatici e tentativi di manipolazione via social da parte di Stati. La strategia includerebbe misure condivise per la prevenzione di minacce, ma anche per l'identificazione e punizione dei responsabili. A guidare le danze ovviamente gli Stati Uniti. Sullo sfondo l'attacco NotPetya del 2017 attribuito successivamente alla Russia da una serie di governi. L'obiettivo è avere presto a disposizione strumenti di deterrenza.
FT (con possibile paywall)
A SINGAPORE LEGGE CHOC CONTRO LE FAKE NEWS
A Singapore se ne sono usciti invece con una proposta di legge contro le "fake news" (Protection from Online Falsehoods and Manipulation Act o POFMA) che sembra paracadutata dai manuali di censura del secolo scorso. In base alla proposta qualsiasi ministro del governo avrebbe il potere di ordinare la correzione ed eventualmente la rimozione di contenuti falsi; e di bloccare l'accesso alla piattaforma che non esegua la richiesta di rimozione. Basta che il ministro ritenga ci sia un interesse pubblico per intervenire. Sono previste sanzioni pecuniarie e anche fino a un anno di carcere per individui. Facebook e Twitter possono dover pagare fino a un milione di dollari di multa. Ma tranquilli ci si può appellare eh. (Non ditelo in giro, non sia mai che qualche politico italiano la prenda come esempio)
Lowy Institute
Il Financial Times (paywall) parla di censura, aggiungendo che “le democrazie dovrebbero essere caute a introdurre leggi anti-fake news che potrebbero essere abusate”.
USA CONTRO I MECCANISMI SOCIAL INGANNEVOLI
Più interessante la proposta di legge di due senatori negli Usa che vogliono impedire ai social media di usare meccanismi più o meno ingannevoli per ottenere dati dagli utenti o aumentare il loro engagement. O per indurli a fare cose o dissuaderli dal farne altre (come un opt-out o un annullamento di iscrizione al servizio) attraverso un'interfaccia grafica o altri percorsi di navigazione costruiti apposta per ottenere un certo effetto (eccesso di notifiche, menù e percorsi che facilitano l'accettazione di impostazioni meno restrittive sulla privacy ecc).
Gizmodo
Quei meccanismi che alcuni definiscono dark patterns, cioè schemi che forzano l'utente a fare qualcosa limitandone l'autonomia. La definizione è ampia ma qui (DarkPatterns.org) c'è una carrellata di esempi pratici per capire di cosa si parla. Tipo: "aggiungi il prodotto al carrello se vuoi vedere il prezzo"; oppure: "per cancellare il test gratuito del prodotto e non pagare l'abbonamento annulla l'iscrizione mandando [comodamente] un fax"; o anche provare a cancellare una richiesta di una app ("posso accedere alla tua videocamera?") e non riuscire a farlo. Io ne ho riscontrato un esempio in una app per il fitness. Se clicchi in un qualche punto sbagliato che non ho ancora ben identificato ti si apre una pubblicità per installare un'altra app, ed è difficile chiudere la finestra senza cliccare inavvertitamente su Installa.
Sono sicura che tutti noi, se ci pensiamo un po', possiamo trovare alcuni dark pattern negli strumenti che usiamo tutti i giorni. Se vi vengono in mente esempi mandatemeli via reply twitter a questo tweet che li raccogliamo!
Ad ogni modo, la proposta di legge americana vuole anche impedire a grosse piattaforme di progettare giochi/siti/app per bambini sotto i 13 anni che sfruttino alcuni di questi meccanismi per indurre dipendenza. Non sono chiarissimi gli schemi specifici che hanno in mente, ma in questo caso il riferimento è a ciò che induca comportamenti compulsivi come l'auto-play dei video (Reuters)
IL LAVORO DI CHI DEVE ASCOLTARE ALEXA
Amazon impiega migliaia di persone sparse per diversi Paesi al fine di migliorare la performance del suo assistente digitale Alexa e dei relativi altoparlanti intelligenti Echo. Queste persone devono ascoltare le registrazioni audio catturate dai dispositivi Echo nelle case o uffici dei rispettivi proprietari per poi trascriverle, annotarle e usarle per alimentare il software con nuovi input che correggano difetti e migliorino la comprensione dei comandi e le relative risposte. Lo scrive Bloomberg, sottolineando il ruolo della componente umana nello sviluppo di un software che “vive nel cloud” ma viene lavorato e alimentato col contributo di dipendenti e consulenti sparsi tra Boston, la Costa Rica, l’India e la Romania. Sempre secondo Bloomberg, i dipendenti che ascoltano questi spezzoni audio non possono vedere il nome o l’indirizzo degli utenti, ma hanno il loro numero di account, il seriale del device e il nome proprio.
Bloomberg
Assistenti? Li vogliamo ciarlieri
Eppure, le persone vorrebbero che i loro assistenti digitali fossero più loquaci. È quanto emerge da una ricerca di Apple segnalata da Import AI, in cui si è cercato di capire come reagiscono le persone ad assistenti digitali più o meno discorsivi. Per fare la ricerca però non hanno utilizzato una tecnologia di intelligenza artificiale ma una ventina di persone che dovevano ascoltare dei comandi verbali emessi da un assistente virtuale simulato, che in realtà era un dipendente Apple seduto in un’altra stanza. Il risultato? “Le persone non solo preferiscono interagire con un assistente digitale che rispecchi il loro livello di loquacità nelle risposte, ma interagendo in questo modo aumenta la loro fiducia” in quel sistema.
La ricerca.
Dipendenti Amazon per il clima
Sempre questa settimana 4200 dipendenti di Amazon hanno chiesto che l’azienda adotti una azione più decisa contro il cambiamento climatico e per ridurre la propria impronta di carbonio, cioè la quantità di emissioni. E’ il più ampio movimento aziendale per il clima
NYT
Il Pentagono sta per scegliere
Amazon e Microsoft sono i due finalisti per un contratto da 10 miliardi di dollari di nome JEDI con il Pentagono per traghettare l’infrastruttura sul cloud
NYT
CREDITO DI FIDUCIA
I crediti sociali segreti usati dalle aziende per giudicarci
Si parla tanto del sistema di credito sociale cinese, ma cosa sappiamo dei sistemi, ovviamente più limitati e mirati, usati soprattutto da aziende?
“Quando ti logghi nell’account Starbucks, o prenoti su Airbnb o su OpenTable, molte informazioni su di te sono istantaneamente processate in un punteggio che viene poi valutato insieme ad altri dati personali per determinare se sei un bot malevolo o un essere umano potenzialmente rischioso. Spesso questa operazione viene eseguita da un servizio chiamato Sift, usato da startup e aziende consolidate, come Instacart e Linkedin, per difendersi da frodi e carte di credito rubate. Il punteggio di Sift mette assieme 16mila segnali, con rating che vanno da 1 a 100, e viene usato per flaggare dispositivi, carte di credito e account posseduti da entità - umane o altro - che una azienda vuole bloccare. È come un punteggio sull’affidabilità creditizia, ma per l’affidabilità complessiva”.
Interessante articolo del WSJ ma dietro paywall.
L’idea che i consumatori non abbiano visibilità o capacità di sapere quale è il loro punteggio e come viene determinato solleva una serie di questioni di diritto, nota questo blog legale
AI/ETICA
I 7 principi dell’UE
Qualche giorno fa la Commissione europea ha lanciato una fase pilota sulle linee guida etiche per lo sviluppo e l'utilizzo dell'Intelligenza Artificiale, che nella visione europea dovrà avere l'essere umano al centro (human-centric è il motto). Il suo gruppo di esperti ha stilato sette elementi essenziali per una AI Trustworthy (degna di fiducia, sicura e affidabile), che dovranno essere valutati e testati dal mondo dell'industria, della ricerca e da altre autorità pubbliche.
Ecco i sette principi-elementi essenziali per ottenere una AI Trustworthy:
1)Azione e sorveglianza umane: i sistemi di IA dovrebbero promuovere lo sviluppo di società eque sostenendo l'azione umana e i diritti fondamentali e non dovrebbero ridurre, limitare o sviare l'autonomia dell'uomo.
2) Robustezza e sicurezza: per un'IA di cui ci si possa fidare è indispensabile che gli algoritmi siano sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di IA.
3) Riservatezza e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati personali e nel contempo i dati che li riguardano non dovranno essere utilizzati per danneggiarli o discriminarli.
4)Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di IA.
5)Diversità, non discriminazione ed equità: i sistemi di IA dovrebbero tenere in considerazione l'intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.
6)Benessere sociale e ambientale: i sistemi di IA dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi e accrescere la sostenibilità e la responsabilità ecologica.
7)Responsabilità intesa anche come accountability: dovrebbero essere previsti meccanismi che garantiscano la responsabilità e l'accountability dei sistemi di IA e dei loro risultati.
È chiaro che i punti 3-4-5 (riservatezza e controllo sui dati; trasparenza/tracciabilità delle decisioni; non discriminazione algoritmica) sono gli aspetti tecnici più rilevanti in questo momento da affrontare. Sono la base tecnica (almeno una sua parte) su cui sviluppare principi ulteriori (come gli ambiti di applicazione). L'habeas corpus dell'era AI.
A questo proposito non posso non citare questo panel che abbiamo fatto al Festival del Giornalismo dove parliamo anche di come l'Europa sta giocando (giustamente) la partita sull'AI nel campo dell'etica; e tuttavia i finanziamenti a disposizione rispetto a Usa e soprattutto Cina sono ancora pochissimi. Si parte con 1,5 miliardi di euro nel biennio 2018-2020. E si dovrebbe arrivare (non si capisce bene come) a 20 miliardi di euro tra pubblico e privato dal 2020. "Non ci sono ancora piani concreti su come raggiungere" questa cifra, scrive la ricercatrice Charlotte Stix. Sappiamo però - aggiunge- che attualmente gli investimenti di venture capital in AI in Europa sono sei volte più bassi di quelli americani.
Google e il comitato etico naufragato
Quando dai principi si scenderà nel pratico, su una AI etica si scorneranno in molti. Basti vedere il comitato sull'etica dell'AI di Google, composto da esperti esterni, che ha resistito pochi giorni prima di sfasciarsi ed essere infine abbandonato a causa delle polemiche per la scelta di alcuni suoi membri considerati inadatti a stare in un board sull'etica. Ma per Vox il peccato originale del comitato sarebbe stato di non avere potere effettivo. Anche la rivista del MIT ha raccolto un po' di pareri su come doveva essere fatto: doveva avere il potere di dire no a specifici progetti, dice un esperto; ascoltare di più i dipendenti; e molto altro.
La legge sulla accountability degli algoritmi
Intanto negli USA è stata presentata una proposta di legge sulla accountability degli algoritmi. In pratica la proposta chiede alla Commissione federale sul commercio di stabilire delle regole per valutare sistemi automatizzati molto sensibili. Le aziende dovranno controllare che gli algoritmi alla base dei loro strumenti non siano discriminatori.
The Verge
Il libro
Per approfondire segnalo un libro in cui l'autore spiega come le persone debbano avere il diritto di conoscere perché degli algoritmi abbiano deciso su di loro in un certo modo. Un Bill of Rights per proteggerci dagli algoritmi, appunto, come si diceva anche prima. (MarketWatch)
Il libro è: A Human’s Guide to Machine Intelligence: How Algorithms Are Shaping Our Lives and How We Can Stay in Control del professore Kartik Hosanagar.
Il paper
Infine un paper di policy (di Claudia Biancotti e Paolo Ciocca) che esamina la possibilità di “aprire i monopoli internet” obbligando le grandi aziende a condividere i loro dati.
AI, AZIENDE E LAVORO
Decine di aziende britanniche usano uno strumento che analizza in dettaglio le attività dei dipendenti, quante mail ricevono, quando, a chi scrivono, chi accede a quali file, chi incontra chi. L’obiettivo dichiarato della piattaforma, fornita da Status Today, è migliorare la gestione del lavoro e dei lavoratori, individuando colli di bottiglia o persone sovraccariche. Ma cosa impedisce che invece i dati siano usati per sorvegliare i lavoratori o indurli ad aumentare una apparente efficienza (come la velocità di risposta alle mail) a scapito delle capacità di analisi e di pensiero? Soprattutto, pare che i dipendenti non possano accedere a questi dati.
Guardian
DISINFORMAZIONE
“Aspetta whatsappo all’antibufala”
Whatsapp ha creato una linea telefonica anti-bufala in India cui le persone possono inoltrare notizie e avere una risposta - se la notizia vera, falsa, contestata, o se non sanno rispondere. In collaborazione con alcune redazioni.
The Next Web
L’alfabetizzazione digitale dei più anziani è una questione politica
Le persone di una certa età hanno spesso più soldi e tempo per dedicarsi alla politica o dare contributi. Per questo la loro alfabetizzazione digitale è importante e urgente. Perché sono anche le persone più esposte alla disinformazione
Buzzfeed (Craig Silverman)
FACEBOOK
Il social ha fatto nuove modifiche al newsfeed per limitare la diffusione di cattiva informazione.
Wired
E limiterà i gruppi che diffondono disinformazione.
The Verge
CYBERCRIMINE
IL RICATTATORE CHE USAVA GLI ADS DEI SITI PORNO
Un 24enne britannico è stato condannato a sei anni di prigione per aver estorto oltre 700mila sterline ricattando utenti di siti pornografici. Lui stesso piazzava pubblicità su alcuni di questi siti. Se gli utenti ci cliccavano scaricavano un kit malevolo che cercava di sfruttare vulnerabilità dei loro computer per installare un ransomware. Il software malevolo mostrava anche un finto messaggio di avviso della polizia o dell’FBI, che chiedeva una ammenda di 100 sterline, per aver violato la legge. Evidentemente alcuni pagavano (il 5 per cento secondo gli investigatori).
BBC
CYBERSICUREZZA
Molti siti di hotel leakano i dettagli di prenotazione degli ospiti permettendo a terze parti di accedere ai loro dati personali.
Symantec (post tecnico)
SORVEGLIANZA
Cellbrite, azienda che fornisce strumenti per estrarre dati dai cellulari, normalmente usati in indagini forensi, ora si propone sul mercato della sorveglianza dei migranti/richiedenti asilo, segnala Privacy International. Qui anche un thread.
GIORNALISMO
La diffusione degli smart speaker potrebbe richiedere ai giornalisti di sviluppare format e contenuti ad hoc? Qualcuno se lo sta chiedendo
NiemanReports
USA-CINA
Non solo 5G
Il Dipartimento della Difesa Usa sta valutando di mettere al bando contractor che abbiano una catena di approvvigionamento rischiosa, scrive Yahoo News. Ma l’impresa non sarà né immediata né facile. Basti pensare che Lockheed Martin, uno dei principali contractor del Pentagono, ha più di 20mila aziende diverse nella sua catena logistica.
LETTURE/APPROFONDIMENTI
AI e Pregiudizi
Come sistemi di pubblicità targettizzata basati su machine learning sono discriminatori su razza, genere, età quando usati per pubblicizzare case, lavoro o credito. Uno studio.
via Soltani e Stamos
Il potere delle piattaforme private
Panel discussion con Alex Stamos e Marietje Schaake (VIDEO)
L’uso di Zello in Venezuela
Wired US
Come Instagram ha sostituito la rubrica
Atlantic
L’irresistibile ascesa di Huawei
(dal punto di vista di Foreign Policy)
Qui puoi leggere le passate edizioni https://tinyletter.com/carolafrediani/archive
Come viene fatta questa newsletter (e come leggerla)
Ti è piaciuta? Inoltrala a chi potrebbe essere interessato.
Per iscriversi a questa newsletter: https://tinyletter.com/carolafrediani
Se vuoi mandarmi suggerimenti basta rispondere.
Buona domenica!