Due chiarimenti
Anzitutto, proviamo a chiarire due concetti che spesso contribuiscono a gettare un’ombra di incomprensibilità quando si affronta il tema delle tecnologie digitali.
1) Cosa sono gli algoritmi? Questi “esseri” chiamati in causa di frequente non sono, in realtà, qualcosa di astratto. Sono delle semplici operazioni di comando. O meglio, sono delle procedure per fare qualcosa. Per esempio, una ricetta è un algoritmo. Gli algoritmi, dunque, sono dappertutto, accompagnano la nostra vita quotidiana: ci mostrano il meteo sullo smartphone, ci indicano la strada quando usiamo il navigatore, ci permettono di inviare le email, decidono i prezzi dei prodotti che compriamo… Certo, a differenza di una normale ricetta, gli algoritmi che mediano la nostra vita tecnologizzata hanno una complessità tale per cui veramente una minuscola parte della popolazione planetaria è in grado di leggerli correttamente. Un esempio su tutti è che Facebook stesso, appena un anno fa, ha dichiarato che nessuno dei suoi sviluppatori è più in grado di comprendere come agisce l’algoritmo di personalizzazione del Feed News, scritto da centinaia di mani diverse nell’arco di ormai dieci anni. Ma dobbiamo riuscire a dissipare la nebbia che li circonda, e guardare la luna: gli algoritmi sono tecnologie sociali, incarnano cioè i desideri (e le paure) della società che li produce. Nelle mani degli autori di algoritmi risiede un enorme potere materiale: anche la più piccola modifica di un algoritmo molto diffuso può avere enormi conseguenze per tutti, rafforzando di fatto alcune prospettive sulla realtà e indebolendone altre. Sarà anche vero che la libertà costa cara mentre la Silicon Valley paga decisamente bene, ma è necessario rimboccarsi le maniche e tuffarle dentro questo mondo che conosciamo troppo poco, per manipolarlo e tirarne fuori la ricchezza che può produrre per tutti, sottraendola al profitto di pochi.
2) Cosa sono i dati? Sgomberiamo il campo dall’idea che esistano dei dati grezzi. Siamo solitamente abituati a pensare che tutti i giganti mangia-dati, capitanati tanto da Google quanto dall’NSA, abbiano a disposizione una massa di dati “vergini”, neutrali. I dati sono un’opinione. Qualunque dato, per esistere in quanto dato, deve essere misurato: la percezione è di conseguenza sempre mediata da qualche sensore, di carne o di metallo e silicio che sia, che ci restituisce solo alcune informazioni, ritenute più di valore rispetto al contesto in cui ne abbiamo bisogno; la percezione è di conseguenza sempre il risultato di una selezione, di una scelta. I sensori, essendo dispositivi di cattura, sono sempre al servizio di uno scopo. I dati altro non sono che dei fatti, sempre situati in un qui e ora, che riguardano cose, persone, luoghi, fenomeni e che noi raccogliamo e organizziamo per poterli leggere e analizzare: sulla base della sintesi che facciamo tra le informazioni che riceviamo e la nostra precedente esperienza, configuriamo la nostra azione. Se ad esempio i dati descrivono certe condizioni climatiche che fanno concludere che pioverà, probabilmente prenderemo l’ombrello prima di uscire all’aperto. Ma i dati non sono una sostanza che esiste di per sé, sono anch’essi un prodotto del linguaggio; non esistono dei dati universali che descrivono esattamente il mondo, possono esistere dei dati più o meno precisi. Il che vuol dire che, qualsiasi infrastruttura costruiscano i signori del silicio, non potranno mai prevedere questo scarto che è proprio del linguaggio.
L’idea positivista che il mondo sia perfettamente conoscibile è una menzogna che funziona come un mito, che affascina perché porta con sè il sogno ancestrale di controllare tanto l’ambiente quanto il corpo e sopravvivere cosi nell’evoluzione: le tecnologie, vere e proprie espansioni del corpo, sono esplose verso l’esterno promettendo un futuro migliore per l’umanità intera. Dobbiamo però fare i conti con il fatto che non ci sarà nessun futuro migliore ad aspettarci se permettiamo ad algoritmi proprietari e segreti di regolare le nostre vite fino alle sfere più intime della nostra esistenza: macinando dati parziali, questi algoritmi ci restituiranno sempre una unica risposta universale e trascendente. Dietro alla menzogna dell’imparzialita scientifica dei dati, di un mondo conoscibile e misurabile il cui contenuto (compresi i suoi abitanti!) può essere codificato tecnicamente, si nasconde l’imposizione silenziosa una unica visione del mondo: there is no alternative, mantra della tecnocrazia neoliberista. Ma quale spazio di autonomia e di libertà esiste in un mondo in cui esiste una sola e unica risposta di fronte ai bisogni e ai desideri individuali e collettivi?
Se gli algoritmi sono intelligenti, è solo grazie a noi, all’enorme quantità di lavoro gratuito che facciamo a nostra insaputa, connettendoci ogni giorno alle app che mediano il nostro rapporto con il mondo: se pubblico una foto di una persona su Facebook e applico il tag “sono felice”, sto contribuendo a insegnare all’intelligenza artificiale quale espressione facciale associare allo stato emotivo della felicità. Questo piccolo fatto, moltiplicato per i due miliardi di utenti mensili attivi sulla piattaforma, probabilmente significa che un robot antropomorfo, da qualche parte, avrà più possibilità di scegliere l’espressione giusta da assumere quando usa determinati gruppi di parole. Se siamo parte di un processo che genera guadagno, vogliamo essere pagati per il lavoro che facciamo: vogliamo tutti i soldi di Google, di Facebook, di Amazon. Perchè gli algoritmi hanno un cuore: il nostro.
Quattro fallimenti
Poco più di due anni fa un algoritmo di Google Images identificò come “gorilla” le persone di colore che comparivano in una fotografia, poiché le sole immagini taggate come “persone” che aveva elaborato durante l’addestramento raffiguravano persone con la pelle bianca: questo episodio racconta che le macchine sono riflesso di chi le ha prodotte …che in questo caso era uno sviluppatore con evidenti problemi nella sua vita sociale!
Potrà sembrare strano, ma le cause della morte di Joshua Brown sono molto simili: schiantatosi a tutta velocità contro un tir con la sua Tesla Model S del 2015, Joshua è stata la prima vittima di un incidente in cui alla guida ci fosse AutoPilot. Tesla commentò così: “La fiancata dell’autoarticolato era bianca, né Autopilot né il conducente sono riusciti a distinguerla dallo sfondo del cielo luminoso”. Ovvero, la macchina-che-si-guida-da-sola ha ancora dei gravi problemi a svolgere la sua funzione più elementare: distinguere una figura dallo sfondo. C’è sempre uno scarto tra una tecnologia progettata in laboratorio e una tecnologia in funzione nel mondo reale.
Un’altra storia racconta che durante un servizio trasmesso dalla National Public Radio su Amazon Echo, diversi segnali pronunciati ad alta voce in trasmissione siano stati letti come comandi dai dispositivi Echo degli ascoltatori: uno di questi riportò che Echo, non distinguendo la voce radiofonica da quella del suo proprietario, aveva erroneamente sparato il termostato a 70 gradi Farenheit!
All’inizio degli anni ’80, la Air Force statunitense progettò l’ X-29: un aereo fighter con le ali al contrario, che chiedeva un computer tre volte più potente per controllare i movimenti: un errore di un quarto di secondo determinava la totale perdita del controllo. L’ X-29 però guadagnava in manovrabilità quello che perdeva in stabilità: non richiedeva tutta l’energia che serviva ai fighters ordinari per cambiare direzione, semplicemente “cadeva” nella direzione indicata. L’aereo non è mai stato prodotto, ma ha permesso di fare importanti studi sulla stabilità e sulla manovrabilità. Ci sono dei casi in cui la fallibilità è prevista sin dal principio nei sistemi uomo-macchina: non è dunque un errore ma un vantaggio di progettazione.
Una ipotesi
Questi quattro aneddoti mostrano che è possibile rendere visibile il funzionamento di complicati algoritmi di apprendimento automatico cosi come dei dispositivi smart che abitano la nostra quotidianità: come nella tradizione cinematografica, l’infrastruttura diventa visibile quando fallisce. Se il successo delle tecnologie è dato in parte dalla loro capacità di farsi invisibili (pensiamo alle protesi che “spariscono” nel corpo, per esempio, o alle interfacce, che non devono essere invadenti, ma anche ai dispositivi indossabili), forse tutto ciò che dobbiamo fare è moltiplicarne le occasioni di fallimento e rompere, pezzo dopo pezzo, il vaso di Pandora, per riprenderci tutta la ricchezza che ci appartiene.
Cyber*Resistance
Contributi:
Leggi: Nuvole Marziane di Antonio Caronia
Altri contributi di Cyb*Res:
A Genova non avevamo gli smart phones
Whatsapp + Facebook = Telegram? Noi scegliamo Signal!
Poxit: leave or remain? Cosa pensiamo di Pokemon Go
“Io sono vivo, voi siete morti!” Intervista postuma ad Antonio Caronia