Nel nome delle infrastrutture
di Morlock Elloi
Se vivete a Potrero Hill, a San Francisco, avrete diverse opzioni razionali per raggiungere un bar della Mission. Ci sono i mezzi pubblici: potete prendere la linea 10 fino a SoMA, poi la 16 fino alla Mission. Potete andare in bicicletta: scendete per De Haro, poi giù per la 17esima. La decisione di andarci dipende dal meteo, dalla disponibilità di tempo e dall’umore. Alcuni bar della Mission sono da escludere: è troppo difficile parcheggiare o sono troppo lontani dai mezzi di trasporto, oppure ci sono troppi escrementi sul marciapiede. Alcuni bar sono abbastanza comodi e quindi diventano la scelta naturale. Col tempo, quelli scomodi vengono dimenticati.
Gli itinerari sono disegnati dall’azienda per il trasporto pubblico che ha preso decisioni specifiche sui percorsi degli autobus che ha determinato la disponibilità di parcheggi; gli urbanisti hanno tracciato le strade come sono ora e la politica cittadina ha portato all’attuale distribuzione delle feci sui marciapiedi. La scelta del vostro bar favorito è stata progettata da molti collaboratori nel corso del tempo. Le città sono così e ci siamo abituati. Per consentire un traffico efficiente i politici, i burocrati, i servizi e le municipalità devono operare delle scelte. Si è liberi di usare questa infrastruttura in molti modi, ma è impossibile uscire dall’infrastruttura e per questo è importante avere voce in capitolo sul suo funzionamento. Mentre vi recate al bar più comodo, potete riflettere su tutto questo e magari formulare qualche idea per azioni future.
Le città sono modellate attraverso uno conflitto continuo tra residenti, proprietari immobiliari, investitori, costruttori, politici, partiti e gruppi d’azione. Chiunque abbia una vaga familiarità con la politica cittadina sa quanto sia difficile e lento cambiare qualcosa. Quando una fermata dell’autobus è troppo lontana dalla vostra destinazione o la vostra strada ha delle buche o ci sono troppe auto, non discuterete con l’autista dell’autobus, con gli appaltatori dei marciapiedi o con gli automobilisti. Potete contattare il vostro rappresentante di circoscrizione per sollevare il problema alle prossime riunioni. Oppure potreste decidere di trasferirvi in un altro posto, con una politica e un’infrastruttura più accessibili.
Città diverse hanno mentalità diverse e sono state influenzate da politiche e strategie di sviluppo diverse. Tutte hanno una cosa in comune: il funzionamento della città è osservabile. I cambiamenti nello scenario cittadino sono evidenti: cantieri, ingorghi, controlli del traffico, multe, poliziotti in servizio. Le infrastrutture sono visibili: le strade del vostro quartiere hanno o non hanno le piste ciclabili, sono congestionate o meno, sono a senso unico o a doppio senso. Questa visibilità, a sua volta, significa che si ha la possibilità di agire sulla base di scelte informate.
Cosa succede quando un altro tipo di traffico, la comunicazione tra persone, viene strutturato da interessi multipli? I nostri modi “naturali” di comunicare sono quelli verbali, visivi e tattili, tutti fisici e che richiedono la vicinanza dell’altra persona. Tutto il resto richiede una qualche forma di tecnologia e di infrastruttura, dalle pagine stampate alla fibra ottica e ai relè satellitari. Chi sono i costruttori, gli investitori, i proprietari di immobili, i politici, i gruppi d’azione, le aziende di servizi e le società di servizi per questa infrastruttura? Come si presenta la rete stradale? Come si avvia un cambiamento?
È importante saperlo, perché lo stato e il tracciato di queste strade possono avere un impatto su di voi molto più forte degli ingorghi urbani. Può determinare chi incontrerete, chi saranno i vostri amici e i vostri avversari, quale istruzione e quale lavoro avrete, chi sarà la vostra futura famiglia e come morirete. È importante essere in grado di vedere e riconoscere queste infrastrutture nello stesso modo in cui si riconoscono gli ingorghi stradali o le feci dei marciapiedi, perché non bisogna fidarsi delle dichiarazioni degli uffici di pubbliche relazioni e degli esperti che affermano che queste cose esistono o no. Una politica e un attivismo efficaci avvengono solo dopo aver individuato gli ingorghi e le feci.
Tutte queste considerazioni, tuttavia, sono inapplicabili al campo delle comunicazioni digitali. Nonostante il fatto che noi utilizziamo ormai Internet per ogni tipo di transazione o comunicazione, le infrastrutture impiegate per la comunicazione e l’elaborazione dei dati rimangono invisibili agli utenti e l’ideologia e le politiche di chi le progetta non sono facilmente comprensibili. Le ragioni di ciò sono molte, ma non è rilevante esporle qui. L’intento di questo scritto è di mostrare che l’ideologia e le politiche delle infrastrutture Internet esistono e influenzano pesantemente gli individui.
L’ideologia delle infrastrutture elettroniche va molto in profondità e spesso non è percepita dagli attori coinvolti. Gli ingegneri informatici generalmente pensano di star facendo il migliore lavoro possibile senza rendersi conto che l’ideologia è parte integrante delle infrastrutture elettroniche che costruiscono perché è mascherata da questione tecnica, sia per gli esperti, sia per il pubblico. La presunta difficoltà tecnica è usata come scudo per nascondere ai non addetti ai lavori l’ideologia che sta alla base del sistema. La cosa più stupefacente è che tale dissimulazione è operante anche tra gli specialisti del settore. È molto difficile penetrare oltre la coltre tecnicistica e separare ciò che è tecnologia da ciò che è ideologia. La mole di contraddizioni è tale da superare qualsiasi altro sistema di credenze ideato dall’uomo, tuttavia bisogna farlo.
Il principale aspetto dell’ideologia elettronica è la centralizzazione. Il sistema di internet è basato sulla centralizzazione del traffico dei dati, degli indici, delle banche dati, delle informazioni personali, ecc. Il centro di raccolta di tutte queste informazioni è da qualche parte la fuori, ma non dove state voi. Le persone che utilizzano gli strumenti elettronici nell’ambito di questa ideologia sono chiamati “utenti”. Questo è già molto significativo perché in un ambito diverso, per esempio chi guida una macchina, è chiamato “guidatore” o “pilota” e chi viene guidato o trasportato è chiamato “passeggero”. Oggi milioni e milioni di “utenti” non guidano nulla, ma sono semplicemente guidati nel senso che obbediscono ciecamente alle istruzioni delle macchine elettroniche. L’intelligenza degli “utenti” di Internet è sostituita dal termine “Intelligenza Artificiale”. Questo è un costrutto puramente propagandistico che ha la funzione di separare lo strumento dall’operatore, dando allo strumento alcuni insensati attributi di “personalità” e l’idea che lo strumento in qualche modo faccia le cose da solo. È come dare un nome a una mazza da baseball, ad esempio “Joe”, e dopo aver picchiato a sangue la gente con essa, affermare che è stato “Joe”, e i creduloni poi staranno a ruminare sui pericoli di “Joe” e su come controllarlo.
In passato, solo selezionati scrittori, registi, cantanti e dittatori avevano il privilegio di diffondere le loro comunicazioni alla quasi totalità delle masse per scopi di intrattenimento, indottrinamento o informazione. Oggi la programmazione elettronica è capillarmente diffusa ed è il mezzo che permette lo scambio di qualsiasi tipo di dati, dalle semplici conversazioni private, alle transazioni commerciali e finanziarie, all’intrattenimento.
Forse l’aspetto più sinistro di questa ideologia è che assorbe tutta l’energia degli attivisti, che hanno adottato i medesimi canoni ideologici e costruiscono le stesse architetture distopiche in modalità open source pensando di stare dalla parte dei buoni, come se una gabbia open source fosse qualcosa di diverso da una gabbia. L’errore è pensare che il potere sarà usato a fin di bene, ma questo diventa evidente sempre troppo tardi, quando le forze e la fiducia sono esaurite. In questo modo gli utili idioti portano a compimento il sistema e lo rendono a prova di alternative.
Le questioni infrastrutturali qui considerate sono di natura fondamentale, non riguardano i tipi di traffico che si aggiungono all’infrastruttura (social network, motori di ricerca, ecc.). Si tratta di tre esempi sparsi in un ambito enorme che servono a esplicitare i vincoli che l’infrastruttura impone, l’inerzia nei confronti del cambiamento che essa crea fingendo di avere una giustificazione tecnologica, e la necessità di una profonda riprogettazione. È ovvio che si tratta di una questione enorme, ma è comunque preferibile a continuare sulla strada attuale. Infine, questo non è un argomento luddista contro le macchine. Abbiamo bisogno delle macchine, ma progettate e gestite secondo un’ideologia diversa. Quale sia questa ideologia dovremmo stabilirlo noi attraverso le istituzioni sociali poiché l’infrastruttura digitale in cui viviamo non è determinata da necessità di ordine tecnico. I tre esempi di infrastrutture qui riportati riguardano tre temi: la centralizzazione, l’asimmetria della comunicazione e la sicurezza:
1. la centralizzazione (“Il pedaggio dei server”) è la concentrazione non necessaria dell’elaborazione e dell’archiviazione ei dati invece della distribuzione a tutte le apparecchiature internet marginali (chiamate “edge computing“) al fine di mantenere il controllo sugli individui.
2. l’asimmetria della comunicazione (“La portineria dei cyber bassifondi”) spiega come la funzione di base di Internet—la comunicazione—sia divisa in due segmenti: uno per le classi privilegiate, che possono comunicare con chiunque, e uno per le classi diseredate, che possono comunicare direttamente solo con la classe privilegiata, ma non tra di loro.
3. la sicurezza (“Sicurezza basata sulla celebrità”) delinea il teatro della sicurezza fittizia che dà la falsa impressione che ci sia sicurezza per gli “utenti”.
Queste sono le componenti ideologiche primarie dell’infrastruttura che causano numerose conseguenze secondarie, per esempio l’alienazione dell’identità individuale: le persone coinvolte non possiedono la loro identità e il loro indirizzo, ma sono controllati dalla classe privilegiata. La raccolta massiccia di dati consente ai raccoglitori, e solo ai raccoglitori, di fare e utilizzare inferenze che sono al di fuori della portata degli altri permettendo di creare canali di propaganda a senso unico che inondano gli individui di false “opinioni di maggioranza”.
Ma è importante capire che queste conseguenze secondarie si basano sulle componenti ideologiche primarie dell’infrastruttura e sarebbero impossibili senza di esse. Pertanto, i nostri sforzi devono essere concentrati sulla ristrutturazione delle componenti primarie, non sprecati su quelle secondarie.
- Il pedaggio dei server
I server sono grandi gruppi di computer collocati in edifici dove c’è abbondanza di spazio, energia elettrica, aria condizionata e tubature per la banda larga. Questi luoghi sono chiamati “server farms”, fattorie di server, oppure colocazioni quando le batterie di computer siano di proprietà di parti diverse. Le grandi aziende possiedono molteplici fattorie di server.
È difficile calcolare il numero totale di server, ma se si considerano i 25 milioni di vendite annuali di processori per un periodo di 4 anni, che è la vita media di un server, si può stimare che siano attivi circa 100 milioni di server. Questo grafico tratto da https://wiredre.com/us-data-center-list/ mostra la distribuzione ei server negli Stati Uniti.
D’altra parte, sono in circolazione circa 2,5 miliardi di cellulari e almeno altrettanti dispositivi internet marginali (PC, tablet, smart TV, Internet delle cose). Tenendo conto che un server medio è da 10 a 100 volte più potente (in termini di processori e spazio di archiviazione) di uno smartphone, sembra che la potenza di calcolo totale dei dispositivi internet marginali (detti “marginali” perché stanno ai margini, ovvero sui bordi della rete centralizzata) sia probabilmente maggiore della potenza totale dei server, con una tendenza a favore del singolo dispositivo. Per dispositivi marginali si intendono tutti i computer nelle mani o nelle case di privati, aziende, ecc. Il peso del silicio dei dispositivi marginali (il silicio è il metallo di cui sono fatti i microprocessori) sarà presto di un ordine di grandezza superiore al peso del silicio totale dei server, se non lo è già. Tuttavia, poiché ci sono diversi miliardi di proprietari di computer marginali e solo pochi milioni di proprietari di server, con meno di poche centinaia di quelli più grandi, i proprietari di server controllano una potenza di calcolo migliaia e milioni di volte superiore a quella del proprietario medio di computer marginali.
Dal punto di vista della potenza di calcolo, i server non sembrano essere una componente dominante dell’intero sistema. Eppure oggi i server controllano tutto. Quasi tutti i computer marginali parlano direttamente solo con i server. La centralizzazione fa apparire lo schema del traffico piuttosto strano: come se i residenti di tutte le città di Italia, quando ne visitano un’altra, dovessero prima tutti passare per Roma, secondo il principio che “tutte le strade conducono a Roma”.
Quasi ogni singola applicazione e sito web si basa su questo paradigma. C’è un server e ci sono migliaia/milioni/miliardi di “clienti”. La motivazione di fondo è che il proprietario del server, il barone elettronico, in questo modo ha il controllo su moltitudini di clienti-servi della gleba, cioè i proprietari dei computer marginali che avrebbero in realtà bisogno di questa centralizzazione tanto quanto gli abitanti di Milano hanno bisogno di passare per Roma ogni volta che prendono il treno. Ma i cyber servi della gleba non hanno altra scelta. Il colmo è che questa situazione è considerata normale: dai creatori di startup, in cui pochi realizzeranno e gestiranno qualcosa che verrà utilizzato da miliardi di persone, alle scuole in cui gli ingegneri imparano a far funzionare i server e a far funzionare i clienti.
Gli argomenti tecnici a favore della concentrazione del traffico di dati sono deboli. Oggi l’intera Wikipedia può stare su uno smartphone. Le mappe stradali di tutti i luoghi che una persona visiterà nel corso della sua vita hanno una dimensione di pochi gigabyte. La quantità di contenuti “nuovi” è relativamente piccola. Eppure i server si ostinano a distribuire piccole briciole di informazioni dal loro archivio centralizzato solo quando sono necessarie, come se dessero una mancetta a un bambino per comprare un gelato. Ciò consente ai baroni elettronici di sapere sempre cosa stanno facendo i computer marginali e quando.
Ma i servizi più diffusi di oggi possono esistere con una memoria di archiviazione decentralizzata? La risposta è sì, e c’è una prova empirica: man mano che gli Stati affermano la loro sovranità, le aziende che forniscono questi servizi sono costrette a spostare la memoria di archiviazione dei dati relativi ai cittadini nei rispettivi Paesi e a renderli soggetti alle leggi locali. Non sembra che alcuno di questi servizi ne abbia risentito. Ciò che funziona a livello nazionale funzionerà sicuramente a qualsiasi altro livello: città, comune, famiglia.
Gli argomenti tecnici a favore della centralizzazione del calcolo sono ancora più deboli. I dispositivi marginali non ne traggono alcun vantaggio per la semplice ragione che c’è molta più potenza in ciascun singolo dispositivo che nella minuscola frazione di server assegnata ad esso.
Dal punto di vista tecnico esistono soluzioni per le applicazioni decentralizzate—la denominazione, la memoria, la scoperta delle risorse e l’instradamento delle fonti—quindi gli interventi contro il transito attraverso i server sono di natura puramente politica. La schiavitù degli “utenti” si supera solo se ogni dispositivo marginale diventerà il proprio centro. Ciò richiede una regolamentazione contro l’elaborazione e l’archiviazione di dati in remoto. Esistono paralleli nel mondo delle politiche urbane: i costruttori di strade non sono mai riusciti a far passare tutti attraverso un singolo sportello di pedaggio; molte città hanno frenato la diffusione delle catene di negozi; la cattura e lo sfruttamento degli istinti sociali e libidinali dell’uomo sono abitualmente limitati dalle leggi: per esempio, ci sono pochissimi posti al mondo in cui la prostituzione è legalizzata e industrializzata. Gli strumenti politici per intervenire esistono già.
- La portineria dei cyber bassifondi
L’infrastruttura di comunicazione è composta da una dorsale di linee in fibra a lungo raggio, che negli Stati Uniti segue più o meno l’infrastruttura stradale e dai fornitori di servizi Internet (ISP) che forniscono la connessione “dell’ultimo miglio” tra la dorsale e i singoli partecipanti. Qui è mostrata la disposizione della fibra negli Stati Uniti continentali, tratta da “InterTubes: A Study of the US Long-haul Fiber-optic Infrastructure, R. Durairajan et al 2015“.
La disposizione della rete assomiglia più o meno all’infrastruttura stradale fisica, dove le autostrade collegano le città, ognuna delle quali ha una propria griglia stradale. Ma c’è una differenza.
Se a Milano si può salire in macchina e arrivare fino al condominio di un amico a Roma, entrare in ascensore e andare a trovarlo, non si può fare lo stesso se si vuole inviare un pacchetto di informazioni al il proprio amico. Il pacchetto informativo viene fermato all’ingresso dell’edificio. Il portinaio controllerà se il vostro amico si aspetta il pacchetto. Se il vostro amico non avvisa la reception un minuto o meno prima dell’arrivo previsto del pacchetto, il vostro pacchetto verrà scartato. In altre parole, non potete inviare un regalo a sorpresa al vostro amico. La domanda interessante è: come si fa ad avvisare l’amico? Lui non può chiederlo a voi, perché anche nel vostro edificio vige la stessa politica dei pacchetti a sorpresa. In altre parole, voi due non potete mai scambiarvi pacchetti direttamente. Ci sono stati numerosi tentativi di ingannare la reception per far entrare pacchetti non richiesti, ma non hanno mai avuto un successo affidabile e quindi non sono mai diventati la base per una connettività diretta diffusa.
Fortunatamente, nelle vicinanze c’è un’altra attività che accetta pacchetti da chiunque. È il già menzionato “server”. Sia voi che il vostro amico potete inviare pacchetti al server. Quando inviate un pacchetto al server, avvisate il portinaio del vostro palazzo che vi aspettate qualcosa di ritorno da questo particolare server. Il vostro amico deve fare lo stesso. In questo modo, il server funge da punto di incontro per consentire lo scambio tra voi e il vostro amico. Inutile dire che entrambi dovete piacere al server e di solito gli piacete perché lui trae profitto da ognuno di voi.
Il numero di server è migliaia di volte inferiore a quello degli appartamenti, e la scusa tecnica iniziale di questa riduzione degli ingressi e degli intermediari dei server è stata che non ci sono abbastanza indirizzi stradali per coprire tutti, quindi solo i server hanno un ingresso pubblico per sé, mentre tutti gli altri condividono l’indirizzo dell’edificio e devono avere a che fare con il portinaio (tra l’altro, l’indirizzo stradale dell’edificio stesso cambia, a volte più volte al giorno, quindi non si può contare sul fatto che esso sia noto). Gli indirizzi dei server invece non cambiano. Non avete altra scelta che usare il server come intermediario se volete comunicare con gli altri. Ma c’è una scelta, un nuovo tipo di indirizzamento, disponibile dal 1998, chiamato IPv6. Purtroppo non sta prendendo piede, il che potrebbe avere molto a che fare con il lucroso business dei server. Anche laddove l’IPv6 viene implementato, i fornitori di servizi internet (ISP) tendono a limitarlo o a richiedere, tramite contratti, che non si ricevano mai pacchetti non richiesti. Mentre voi e il vostro amico dovete usare gli intermediari, i proprietari dei server non hanno questo problema: ad esempio, il New York Times è direttamente accessibile, perché ha i suoi server.
Questo sistema a due livelli, da un lato l’impossibilità di accettare informazioni direttamente e di avere un proprio indirizzo permanente per la gente comune, dall’altro la posizione privilegiata dei gestori dei server, ha una profonda influenza sia sui partecipanti marginali e sul modo in cui i computer marginali sono progettati e utilizzati. I proprietari di dispositivi marginali acquisiscono la mentalità di un senzatetto, che non ha una dimora permanente e lo considera normale. I computer marginali devono essere legati a vari server privilegiati, poiché non possono comunicare direttamente. Questo ha plasmato le menti degli ingegneri, i framework e gli strumenti che utilizzano e progettano. È da qui che nascono i social network e i provider di posta elettronica centralizzati. Sebbene questo non sia più un ostacolo tecnico da 20 anni, questo definisce ancora l’intero panorama informatico.
La soluzione è tecnicamente semplice, anche se politicamente difficile: è necessario mobilitarsi per far istituire un IPv6 senza restrizioni e assegnare indirizzi permanenti a tutti. Nessuno deve rimanere senza tetto.
- Sicurezza basata sulla celebrità
Durante la Seconda Guerra Mondiale i tedeschi utilizzavano la macchina Enigma per criptare il traffico radio militare mondiale, compreso quello tra il comando centrale e i sottomarini. Gli alleati riuscirono a decifrare la crittografia di Enigma nel 1941, ma non lo dissero ai tedeschi. Non solo, permisero anche l’affondamento di alcune navi e in qualche caso gli aerei da ricognizione individuarono “accidentalmente” il sottomarino la cui posizione era nota invece grazie al traffico decrittato, in modo che i tedeschi non sospettassero la decodifica della cifratura.
I tedeschi lo scoprirono solo nel 1973 e stentarono a crederci. Molti testi sono stati scritti sul tema dell’arroganza dei progettisti di Enigma. Questo divario di tre decenni tra il successo della crittoanalisi e la divulgazione al pubblico è tipico della crittografia e deve essere tenuto in considerazione quando si progettano metodi di sicurezza. Ciò non rende la crittografia inutile: la criptoanalisi non verrà utilizzata contro obiettivi di scarso valore e alcune navi potranno essere affondate.
In generale, la criptoanalisi (la decodifica di un cifrario) è difficile quanto la progettazione del cifrario stesso, se non più difficile. Gli Alleati impiegarono uno sforzo considerevole – molti anni di lavoro – per compiere questa impresa di criptoanalisi. Un modo ovvio per rimanere al passo con la curva critto-analitica è quello di continuare a introdurre nuovi cifrari. Nella Seconda Guerra Mondiale le macchine che eseguivano sia la crittografia che la crittoanalisi erano elettromeccaniche e costose da costruire, quindi l’introduzione di nuovi cifrari era un processo molto lento. Eppure i tedeschi modificarono la loro macchina Enigma tre volte in 10 anni, una volta nel bel mezzo della Seconda Guerra Mondiale.
Si potrebbe pensare che oggi, quando tutta la crittografia è realizzata con un software che può essere eseguito su qualsiasi computer, questo principio di anticipare la curva sia una norma. Non è così. Al contrario, l’ideologia della crittografia predica l’esatto contrario: mai fare crittografia personalizzata, usare sempre quella standard, quella approvata dagli esperti che ne sanno più di voi. Come in ogni ideologia, c’è del vero in questo: progettare cifrari e sistemi di sicurezza forti è molto difficile. Ma questo non tiene conto dei rapporti di forza e dei modelli di minaccia. È anche ovvio che l’arroganza dei progettisti di cifrari è ancora una costante crittografica.
Sebbene sia difficile stimare quanti esperti “autorizzati” partecipino alla progettazione di cifrari, è possibile stimare il limite superiore: l’International Association for Cryptologic Research conta circa 2.000 membri. D’altra parte, la stima inferiore, non verificata, del numero di matematici che lavorano per una sola agenzia statale (NSA) è di circa 10.000, quindi possiamo supporre che a livello mondiale ci siano almeno 10 volte più cervelli pagati per la crittoanalisi che impegnati nella progettazione di cifrari, e questo rapporto potrebbe facilmente essere centuplicato. C’è di peggio: il numero totale di cifrari a blocchi oggi ampiamente utilizzati (“approvati dagli esperti”) è di quattro (AES, Camellia, ARIA, ChaCha20-Poly1305, tutti pubblicati tra il 1998 e il 2007), e il numero totale di protocolli di scambio di chiavi ritenuti sicuri e ampiamente utilizzati è anch’esso di quattro (RSA, DH, EC, GOST, tutti pubblicati tra il 1976 e il 2005). A questo punto, decine di migliaia di crittoanalisti hanno avuto dieci anni per compromettere quattro algoritmi, progettati da meno di una dozzina di esperti. La dottrina ufficiale di utilizzare questi quattro fa parte dell’equazione di potere che impone l’uniformità dei dispositivi di protezione e permea sia il mondo accademico che l’industria. Dall’altra parte, nessun servizio diplomatico, militare o di comunicazione governativa sembra utilizzare uno di questi: “I Paesi seri (USA, Regno Unito, Germania, Francia) non utilizzano algoritmi stranieri per esigenze di alta sicurezza” (Eric Filiol dell’ESIEA).
Anche in questo caso vediamo il principio “pochi per molti” che fa la sua brutta figura, facilitando il controllo centralizzato e i relativi compromessi. Ognuno dovrebbe progettare i propri cifrari, milioni di aziende e individui che progettano i propri cifrari in modo terribilmente debole, uno nuovo ogni anno? Non esiste un modo automatizzato per critto-analizzare anche i cifrari ingenuamente deboli (e molti ne sarebbero creati di non così ingenui). Decine di migliaia di crittoanalisti non potrebbero nemmeno cominciare a scalfire la debole sicurezza di milioni di nuovi cifrari personalizzati e non pubblicati ogni anno. Prima dovrebbero capire qual è il cifrario e poi decifrarlo. Ci vuole tempo, anche se si tratta di una variante della ROT-13.
Ciò che accadrebbe sarebbe un livellamento del campo di gioco. Ciò metterebbe cervelli contro cervelli, su una scala che la crittoanalisi non potrebbe sostenere. L’approccio critto-analitico mirato funzionerebbe ancora, ma con un numero limitato di obiettivi, e probabilmente non sarebbe diverso, in termini di numero complessivo di violazioni, dall’odierno hacking mirato dei sistemi informatici. Ma lo spionaggio di massa cesserebbe di esistere.
L’osservanza dell’ideologia crittografica che vieta i cifrari personalizzati, è sconcertante perché impedisce il reclutamento della potenza cerebrale grezza che è l’unica speranza di cambiare lo squilibrio di potere. Il modus operandi è semplice: poiché le diverse applicazioni fanno cose uniche e hanno codici unici, dovrebbero essere dotate di cifrari unici e cambiarli spesso. La probabilità che il sistema venga violato da un hacking mirato rimarrà più o meno la stessa, ma la probabilità che il vostro sistema sia un libro aperto per tutti i vostri principali avversari si riduce a zero.
Che fare?
Bisogna abbandonare il lusso di non occuparsi dell’infrastruttura digitale e di lasciarla agli esperti e alle industrie coinvolte. Spendere le proprie energie al livello della sovrastruttura (monopoli dell’informazione, diritti d’autore, proprietà e raccolta dei dati, libertà di parola…) è inutile quando l’infrastruttura incarna e fissa un modello diametralmente opposto. Nessuna quantità di inganni e di assicurazioni che gli operatori sono onorevoli e rispettosi della legge cambierà mai questo fatto. La macchina spionistica-propagandistica di Internet è stata finora celata alla vista del pubblico. È ora di iniziare il duro lavoro di osservarla. Ma le azioni di resistenza sembrano piuttosto scarse: l’avversario ha sotto controllo le infrastrutture, le reti di comunicazione, la produzione e la formazione. Una resistenza efficace richiede di dotarsi degli stessi strumenti di cui dispone l’avversario: tecnologia moderna, infrastrutture e soprattutto un’organizzazione politica. E qui ci troviamo di fronte a un problema serio: la produzione di tecnologia è un’attività ben controllata, così come la produzione (cioè la formazione) dei lavoratori in quella tecnologia.
Il problema è difficile, ma è un problema fondamentale che deve essere risolto con una chiara definizione degli obiettivi da raggiungere e la programmazione di azioni politiche articolate a breve e a lungo termine. Già in passato monopoli tecnologici sono stati abbattuti, per citarne alcuni: l’invenzione della stampa ha eliminato il monopolio dell’alfabetizzazione assegnato agli scribi e ai monaci e il movimento open source ha sconfitto il monopolio del codice.
Il primo obiettivo è l’immunizzazione della popolazione contro la moderna tecno-ideologia. Per far ciò è prima necessario che i sudditi diventino consapevoli che c’è qualcosa contro cui dovrebbero essere immunizzati, cioè bisogna che gli effetti della tecnologia esistente siano resi visibili, come in passato è stata resa visibile l’esistenza dei microrganismi, che ha determinato un aumento ampiamente accettato degli standard igienici. Per far ciò bisogna rendere disponibile al pubblico i dati raccolti attraverso internet e le correlazioni derivate. Questa è un’azione puramente politico-legale. La raccolta segreta di informazioni sul comportamento umano deve essere proibita così come è proibito mantenere segreti i dettagli dell’anatomia umana in medicina.
Inoltre, bisogna rendere manifeste, con mezzi tecnici in possesso del pubblico, le manipolazioni quotidiane di internet sugli individui, cioè svelare le varie tecniche di persuasione. Questo è già stato fatto negli Stati Uniti per le elezioni a livello statale dallo psicologo americano Robert Epstein, che ha mostrato e documentato l’influenza illegale sugli elettori in occasione delle elezioni di diversi stati statunitensi. Ciò ha portato ad azioni legali da parte dei governi degli stati e alla cessazione di queste azioni da parte delle multinazionali di internet.
Robert Epstein è riuscito a dimostrare l’esistenza di queste tecniche di persuasione installando un software di monitoraggio sui computer di volontari che ha permesso di raccogliere le “ephemeral experiences”, le esperienze effimere, cioè le manipolazioni mirate su singoli individui in base al loro profilo ad insaputa delle aziende tecnologiche che le avevano messe in atto. I risultati sono stati analizzati e confermati con esperimenti in doppio cieco. I dati sono poi stati forniti alle varie assemblee legislative statali, che non hanno gradito affatto e hanno immediatamente intrapreso azioni legali.
Bisogna agire in modo analogo: creare e installare un software su dispositivi personali che identifichi le modifiche del comportamento indotte, che registri il comportamento effettivo della persona influenzata e che fornisca poi rapporti periodici al proprietario di questi dispositivi mostrando come è stato effettivamente influenzato, creando così un incentivo per il passo successivo: neutralizzare queste influenze in modo che non raggiungano la persona che utilizza il dispositivo. Questa è l’immunizzazione vera e propria: impedire che le azioni di modifica del comportamento raggiungano la persona che utilizza il dispositivo, senza che chi la implementa ne sia consapevole. Questo può essere fatto inizialmente con un software e successivamente incapsulato in un hardware personale.
Traduzione a cura di Marina de Carneri
La Fionda è una rivista di battaglia politico-culturale che non ha alle spalle finanziatori di alcun tipo. I pensieri espressi nelle pagine del cartaceo, sul blog online e sui nostri social sono il frutto di un dibattito interno aperto, libero e autonomo. Aprendo il sito de La Fionda non sarai mai tempestato di pubblicità e pop up invasivi, a tutto beneficio dei nostri lettori. Se apprezzi il nostro lavoro e vuoi aiutarci a crescere e migliorare, sia a livello di contenuti che di iniziative, hai la possibilità di cliccare qui di seguito e offrirci un contributo. Un grazie enorme da tutta la redazione!