Benvenuto su Satisfiction   Click to listen highlighted text! Benvenuto su Satisfiction

Cory Doctorow. Come distruggere il capitalismo della sorveglianza

Home / Uncategorized / Cory Doctorow. Come distruggere il capitalismo della sorveglianza

Da tempo ormai si dibatte in merito al problema del «capitalismo della sorveglianza», ovvero il business del controllo, dell’estrazione e della vendita dei dati degli utenti che è esploso con l’ascesa dei giganti tecnologici quali Google, Apple, Facebook, Amazon. Doctorow si chiede se il cosiddetto capitalismo della sorveglianza in realtà non sia una forma di capitalismo disonesto o una svolta sbagliata presa da alcune aziende deviate, ma parte di un sistema che funziona esattamente come previsto. Per cui l’unica speranza di ripristinare un web libero è quella di combattere direttamente il sistema stesso. Egli sostiene che l’unica possibilità è distruggere i monopoli che attualmente costituiscono il web commerciale per tornare a un web più aperto e libero, in cui la raccolta predatoria dei dati non sia un principio fondante.

Ci sono tre modi evidenti nei quali il capitalismo della sorveglianza si distacca dalla storia del capitalismo di mercato:

  • Si basa sul privilegio di una libertà e di una conoscenza illimitate.

  • Abbandona gli storici rapporti di reciprocità con le persone.

  • Dietro allo spettro della vita nell’alveare è possibile intravedere una visione collettivista della società, sostenuta da un’indifferenza radicale espressa nel Grande Altro.

La concorrenza tra capitalisti della sorveglianza li spinge alla ricerca della totalità. La totalità dell’informazione si avvicina alla certezza, e pertanto a esiti sicuri. Operazioni del genere implicano la possibilità di conoscere nel dettaglio domanda e offerta dei mercati dei comportamenti futuri. Il capitalismo della sorveglianza, pertanto, mette la certezza al posto del mistero, e renderizzazione, modifica del comportamento e previsione al posto del vecchio «schema insondabile». È un’inversione fondamentale dell’ideale classico secondo il quale il mercato era intrinsecamente non conoscibile. Il capitalismo della sorveglianza è definito da una convergenza inedita di libertà e conoscenza. L’intensità di tale convergenza è pari forza del potere strumentalizzante.1

«Più informazioni ci date su di voi e sui vostri amici, migliore sarà la qualità delle vostre ricerche. Non serve nemmeno che scriviate. Sappiamo dove siete. Sappiamo dove siete stati. Sappiamo più o meno anche a cosa state pensando.»2

Per il proprio tornaconto, il capitalismo della sorveglianza ci spinge verso l’alveare. Questo ordine sociale strumentalizzato è una nuova forma di collettivismo nel quale è il mercato, e non lo Stato, a detenere conoscenza e libertà. La convergenza di libertà e conoscenza trasforma i capitalisti della sorveglianza negli autoproclamati padroni della società. Dal loro piedistallo determinato dalla divisione dell’apprendimento, i “regolatori” appartenenti a un clero privilegiato governano l’alveare interconnesso per fargli produrre sempre più materie prime. Grazie all’indifferenza radicale, essi giudicano i contenuti in base a volume, varietà e profondità del surplus, con criteri “anonimi” quali clik like e durate, senza curarsi del fatto evidente che ogni situazione ha un significato diverso.3

«Noi mettiamo le persone in contatto. Può essere una cosa buona se fanno qualcosa di positivo. Magari qualcuno troverà l’amore o salverà la vita di un potenziale suicida. Ma può essere una cosa cattiva se fanno qualcosa di negativo. Magari qualcuno dovrà affrontare il bullismo e ci rimetterà la vita. Il lato brutto della faccenda è che per noi qualunque cosa ci consenta di connettere più persone di fatto è positiva. Non sono i prodotti migliori a vincere. Sono quelli che usano tutti.»4

L’indifferenza radicale ritiene equivalenti i fattori positivi e negativi, malgrado i loro diversi esiti e significati morali. Il solo obiettivo razionale non è più realizzare i prodotti “migliori”, ma quelli che intrappolano “tutti”. Una conseguenza rilevante dell’uso dell’indifferenza radicale è che il primo testo diviene corruttibile da contenuti che normalmente sarebbero ritenuti ripugnanti: bugie, disinformazione sistematica, violenza, odio. Basta che i contenuti aiutino a “crescere”. Di norma, la corruzione dell’informazione non viene ritenuta problematica finché non allontana gli utenti o attira l’attenzione della legge. Per questo, la “moderazione dei contenuti” è al massimo una tattica difensiva non una presa di responsabilità.5

L’esasperata ricerca di un remunerativo sistema finanziario mondiale ci ha immessi in sistemi sociali ed economici sempre più complessi che non tengono conto, però, di una visione comune globalizzata e di una prospettiva che vada oltre gli interessi delle singole parti. Ciò a cui ci stiamo maggiormente abituando è il fatto di vivere quasi esclusivamente in una dimensione orizzontale, sia individuale che collettiva, senza aspirazioni alte e profonde, senza aneliti lontani, senza visioni nobili e di ampio respiro. Il problema principale nasce dall’illusione, alimentata dalla postmodernità, dell’onnipotenza individuale supportata da protesi tecnologiche sempre più sofisticate ed efficienti e rafforzata dallo sganciamento dagli altri, dal rifiuto del “noi”, dal volersi pensare indipendenti da tutto e da tutti.6 La grande apertura al mondo promessa dal web ha esaltato l’io e probabilmente l’ha anche illuso, ma certamente l’ha spaesato ancor di più.7

Il capitalismo della sorveglianza sta segmentando miliardi di casi. Possono indirizzarci in base a un articolo letto o a un recente acquisto online. Possono identificarci in base al fatto che riceviamo e-mail o messaggi relativi a un determinato prodotto o argomento. Tutto questo è ovviamente inquietante ma, nell’analisi di Cory Doctorow, non si tratta di un controllo mentale. La vulnerabilità di piccoli segmenti della popolazione all’efficacia della manipolazione commerciale sistematica è una preoccupazione reale che merita attenzione ma non è una minaccia mortale per la società.

Il monitoraggio degli utenti è diventato molto più efficiente grazie alle major dell’IT. Nel 1989, la Stasi, la polizia segreta della Germania dell’Est, teneva sotto controllo l’intero Paese, un’impresa massiccia che ha reclutato una persona su sessanta come informatore o agente dell’intelligence. Oggi l’NSA (National Security Agency) spia una frazione significativa dell’intera popolazione mondiale e il rapporto tra agenti di sorveglianza e utenti sorvegliati è più o meno uno ogni diecimila. E ciò è stato possibile grazie all’ausilio delle aziende tecnologiche. I dispositivi e le app raccolgono la maggior parte dei dati che l’NSA estrae per il suo progetto di monitoraggio.

Doctorow sottolinea come il controllo di massa da parte dello Stato sia possibile solo grazie al capitalismo della sorveglianza e ai suoi sistemi di targeting pubblicitario a bassissimo rendimento, che richiedono un’alimentazione costante di dati personali per dirsi sufficientemente redditizi.

Per cui, sottolinea l’autore, il problema principale del capitalismo della sorveglianza è rappresentato dagli annunci pubblicitari fuori tema, mentre il problema principale della sorveglianza di massa è rappresentato dalle palesi violazioni dei diritti umani, che tendono al totalitarismo. La sorveglianza di Stato non è un mero parassita delle Big Tech, che succhia loro dati senza fornire nulla in cambio. In realtà, le due cose sono in simbiosi. Le grandi industrie stoccano i nostri dati per le agenzie di intelligenze, e le agenzie di intelligence si assicurano che i governi non limitino le attività dell’IT. Doctorow sostiene non vi sia una distinzione netta tra sorveglianza di Stato e capitalismo della sorveglianza; dipendono l’una dall’altro.

Quando si è osservati, succede che qualcosa dentro di noi cambia. Per crescere, per migliorare, per evolvere, per realizzarsi, è necessario esporre il proprio sé autentico. I tessuti teneri e non protetti esposti in questi momenti sono troppo delicati per rivelarli in presenza di un’altra persona. Nell’era dell’informatica il sé autentico è inestricabilmente legato alla vita digitale. La cronologia delle ricerche è un registro delle domande su cui si è riflettuto. La cronologia degli spostamenti è un registro dei luoghi cercati o vissuti. Il grafico sociale rivela le diverse sfaccettature della propria identità e delle persone con cui si è stati in contatto. Per Doctorow, essere osservati in queste attività significa perdere il riparo del proprio sé autentico.

La condizione dell’utente 2.0 è di doppia esistenza che oscilla di continuo tra l’essere e il poter essere, ossia tra una realtà fisica di cui l’uomo fa biologicamente parte e una realtà virtuale che, lungi dall’essere assorbente e parallela, è oggi piuttosto tangente e in continuo divenire. La maggior parte degli utenti online non si interroga su quale sia il proprio stato in rete e vive inconsapevolmente la condizione interattiva. Esattamente come il processo identitario reale, l’individuo necessita di uno spazio di riconoscimento e di rappresentazione del sé in rete. A giudicare dagli ambienti di condivisione e di discussione, l’esigenza di riconoscimento sociale in rete occupa oggi un posto preponderante nei desideri del singolo utente. In particolare nei social network avviene un continuo raffronto tra un mondo personale – quello del proprio diario – e un mondo collettivo – quello della rete sociale in cui l’utente si esprime e compie le azioni. Esattamente come nella realtà fisica, anche nella virtualità ibrida l’io proietta il proprio sé in un insieme, un “altro generalizzato”, ossia in una forma con cui la comunità esercita il suo controllo sulla condotta dei singoli membri. Perciò è in questo modo che il processo sociale o la comunità si inseriscono come fattore determinante nel modo di pensare dell’individuo. Esiste quindi una relazione dialettica tra l’individuo e il gruppo sociale di cui è parte che consente al primo di modellarsi e di modificarsi a seconda del ruolo e delle esigenze espresse dalla comunità. Il rispecchiarsi nell’atteggiamento universale dell’altro generalizzato significa fondare in qualche modo il processo identitario su una logica riflessiva, cioè basata sul rimando della propria immagine nello specchio sociale del gruppo. In pratica, l’individuo vede se stesso tramite il suo riflesso negli altri, avendo quindi la percezione e la visione di un suo doppio. L’io parla con se stesso come se si relazionasse con un altro, rispecchiandosi così nell’insieme del gruppo.8

C’è anche un altro modo in cui, nell’analisi di Doctorow, il capitalismo della sorveglianza priva gli utenti della capacità di essere autentici: rendendoli ansiosi.

I linguaggi digitali hanno avuto la capacità di aprire spazi inediti per la nostra identità, di cui sono riusciti a illuminare e rendere operative parti d’ombra, sempre censurate dalla dimensione sociale e civile del nostro vivere quotidiano. La fase attuale si caratterizza per un nuovo modo di intendere la Rete. I primi studi sul web hanno decantato l’effervescenza ricreativa dell’ambiente digitale, sottolineando come la configurazione del medium consentisse di ospitare e favorire nuove forme dell’abitare, irregolari e alternative, vie di fuga dal grigiore delle esistenze altrimenti ingabbiate nei meccanismi sociali. Tale dimensione ludico-ricreativa è, oggi, sempre più evanescente perché oppressa da tre tendenze: la normalizzazione etica, l’istituzionalizzazione del medium, le criticità legate alla privacy.9 Nella fase iniziale, alla rete è stata riconosciuta la potenzialità di dare forma a una ricreazione digitale: quella attività creativa e dissacrante che il prosumer, ossia l’utente non più consumatore passivo ma inventore di un nuovo linguaggio, ha potuto innescare grazie al nuovo medium reticolare. Oggi, le criticità legate alla potenza invasiva raggiunta dalle tecnologia possono essere sintetizzate nell’espressione black mirror, lo schermo digitale può rappresentate metaforicamente la superficie su cui scorgere la catastrofe ossia, etimologicamente, il rovesciarsi dell’originaria percezione delle tecnologie digitali, da opportunità creativa a inquietanti e incontrollabili strumenti capaci di incidere profondamente nelle nostre scelte esistenziali.10

Un utilizzo eccessivo e disfunzionale degli strumenti tecnologici può avere un impatto negativo su atteggiamenti, pensieri, comportamenti. Sono due i principali fattori di tecnostress individuati: il primo legato alla imponente quantità di informazioni provenienti da più fonti che possono portare a una eccessiva stimolazione e a un affaticamento; il secondo è riferito alla durata della connessione che a sua volta ha ripercussione su mente e fisico.11 Oggi essere collegati è quasi la norma. Essere offline è invece diventata un’eccezione. Quando siamo connessi siamo “al sicuro” perché potenzialmente o effettivamente viviamo una condizione di collegamento con le nostre reti sociali, mentre l’assenza di questa condizione provoca un senso di mancanza. L’ansia da disconnessione, ovvero la persistente e spiacevole condizione caratterizzata da preoccupazione e disagio, causata da periodi di disconnessione tecnologica dagli altri.12

Doctorow ritiene la tecnologia essere solo un’altra industria, cresciuta in assenza di obblighi monopolitstici reali. Maconsidera gli strumenti online la chiave per superare problemi molto più urgenti della monopolizzazione: il cambiamento climatico, la disuguaglianza, la misoginia e la discriminazione sulla base della razza, dell’identità di genere e di altri fattori. Internet è il mezzo con cui recluteremo le persone per combattere queste battaglie e il come coordineremo il loro lavoro. La tecnologia non sostituisce la responsabilità democratica, lo stato di diritto, l’equità o la stabilità, ma è un mezzo per raggiungere questi obiettivi. Internet rende più facile che mai trovare persone che vogliono collaborare a un progetto e più facile che mai anche coordinare il lavoro da svolgere. Per cui, sottolinea l’autore, la migliore speranza di risolvere i grandi problemi è una tecnologia libera, equa e aperta.

La trasformazione dello spazio nel quale i comportamenti umani possono trovare collocazione e svolgimento, rappresentata dall’avvento della Rete, è stata osservata attraverso tre possibili lenti:

  • Ottimistica o utopica.

  • Distopica, conservativa, a tratti apocalittica.

  • Razionale, rappresentata da quei cyber-realist che si sono posti e si pongono soprattutto il problema della regolazione.

Tutte le riflessioni sulla Rete prendono in fondo le mosse da un’esigenza di tutelare la libertà, sia in una prospettiva che legge la tecnologia come strumento per una piena realizzazione della libertà d’informazione (libertà di informare e libertà di essere informati), sia nella prospettiva che si potrebbe definire maggiormente oppositiva, o protettiva, che si concentra sul diritto di controllare il trattamento informatizzato dei propri dati personali.

Il tema centrale, per chi intenda investigare la possibilità per le tecnologie di contribuire alla realizzazione di una società più giusta ed equa, dove sono garantiti tutti i diritti fondamentali, non è solo o tanto quello dell’algoritmo ma quello dei dati, e dunque della creazione di condizioni che consentano all’AI, per esempio, di utilizzare basi di dati costruite correttamente.

Se nell’approccio tecnologico il bias rappresenta un errore di valutazione, un concetto che rischia di minare la correttezza e l’affidabilità dei risultati di un’analisi, nella prospettiva giuridica il bias rappresenta lo stereotipo pronto a trasformarsi in scelta discriminatoria.13

Per cui la questione è quella della riflessività degli stereotipi e delle discriminazioni nel passaggio dalla generazione dei dati, spesso frutto dell’intelligenza e del comportamento umano, alla costruzione degli algoritmi. L’errore di derivare dall’essere il dover essere14 diviene particolarmente grave quando l’essere è fatto da una realtà ingiusta, che tende a perpetrare diseguaglianze, e che quindi la cristallizzazione dell’ingiustizia nelle maglie dell’algoritmo rischia di normativizzare.15

Il progetto gendershades.org16 ha mostrato come le tecniche di machine learning utilizzate per la classificazione di genere da parte di tre compagnie (IBM, Microsoft e Face++) presentano evidenti bias etnici e di genere. Se l’AI è in grado di fallire così come lo è l’intelligenza naturale, il problema è che essa è altrettanto in grado di discriminare.17 Studi dimostrano come gli algoritmi dei motori di ricerca tendano a rafforzare ideologie e sentimenti razzisti.18

Il principio di eguaglianza costituisce la pietra angolare degli ordinamenti democratici occidentali al punto che, per quanto i tempi storici stiano sottoponendo i sistemi giuridici a nuove pressioni e compressioni ideologiche, sarebbe impossibile pensare di rigettarlo. Eppure, l’unanimità normativa sopra questo consenso, per come essa sembra emergere in particolare dalla Dichiarazione Universale dei Diritti Umani del 1948 e dalla Dichiarazione di Vienna del 1993, è non solo affatto recente ma anche difficile da articolare in termini concreti. Riprendendo le tesi di Peter Sloterdijk, Silvia Vida ha recentemente sostenuto che l’humanitas dipende direttamente dallo stato della tecnica. È però interessante chiedersi se la diversità dei cosiddetti “soggetti tecnologici” sia stata davvero superata, a cominciare da quella tra uomini e donne. I dati statistici mostrano l’esistenza di un “digital gender divide” quale conseguenza di già consolidate differenze socio-economiche tra i sessi. Il gap sembra altresì supportato da “nuovi” stereotipi di genere, che influenzerebbero le attitudini personali dei “soggetti tecnologici”, indirizzando gli uni verso una maggiore propensione alla tecnologia, le altre verso una “fuga” dalla stessa.19

Se è vero che le nostre vite sono regolate da quattro forze (la legge – ciò che è legale, il codice – ciò che è tecnologicamente possibile, le norme – ciò che è socialmente accettabile, i mercati – ciò che è redditizio)20 lo è anche che per risolvere il problema delle major sarà necessario un grande lavoro di iterazione. Per aiutare le persone a riflettere sui monopoli sarebbero opportuni non solo degli interventi legislativi ma anche tecnologici che le aiutino a vedere come potrebbe essere un mondo libero dalle Big Tech. Doctorow ipotizza e sogna un mondo virtuale scevro dal ritmo ansiogeno degli algoritmi e libero dalla continua sorveglianza. Le aziende spiano perché i governi glielo permettono. Lo fanno anche perché qualsiasi vantaggio derivante dall’attività di controllo è così effimero e marginale che devono aumentare sempre di più la loro attività solo per riuscire a rimanere sul mercato. Si interroga allora l’autore su quale possa essere il motivo per cui le cose sono così incasinate. La risposta è: il capitalismo. In particolare la circolarità con cui il monopolio crea disuguaglianza e la disuguaglianza crea monopolio. È una forma di capitalismo che premia i sociopatici che distruggono l’economia reale per gonfiare i profitti, e la fanno franca per lo stesso motivo per cui le aziende sono libere di spiare.

La sorveglianza non rende il capitalismo disonesto. Il capitalismo sregolato genera sorveglianza. La sorveglianza non è negativa perché permette di manipolare le persone, ma perché schiaccia la nostra capacità di essere autentici.

Irma Loredana Galgano

#

Cory Doctorow, Come distruggere il capitalismo della sorveglianza, Mimesis Edizioni, Milano-Udine, 2024.

Traduzione del Gruppo Ippolita.

Titolo originale: How to destroy surveillance capitalism.

1S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma, 2019.

2Dichiarazione del 2010 di Eric Schmidt, amministratore delegato di Google dal 2001 al 2011.

3S. Zuboff, op.cit.

4R. Mac, C. Warzel, A. Kantrowitz, Growth at Any Cost: Top Facebook Executive Defended Data Collection in 2016 Memo and Warned That Facebook Could Get People Killed, Buzzfeed, 29 marzo 2018.

5S. Zuboff, op.cit.

6R.G. Romano, Tramonto del “noi”, individualismo e nuovi poteri globali, in Quaderni di Intercultura, Anno IX/2017.

7R.G. Romano, Nuove povertà globali, virtualità e manipolazioni comunicative, in Quaderni di Intercultura, Anno X/2018.

8L. Denicolai, Riflessioni del sé. Esistenza, identità e social network, in Media Education – Studi, Ricerche e Buone pratiche, Vol. 5, anno 2014, Edizioni Centro Studi Erickson, Trento, 2014.

9G.N. Bovalino, La Katastrophé del Capitalismo. Da Black Mirror a Squid Game: la religione capitalista alla “fine dei giochi”, in IM@GO – A journal of the social imaginary, n°18 – year X / December 2021.

10C. Attimonelli, V. Susca, Un oscuro riflettere. Black mirror e l’aurora digitale, Mimesis Edizioni, Sesto San Giovanni (Milano), 2020.

11F. Bosco, Tecnostress, gli effetti collaterali legati a una vita davanti allo schermo, in Sanità informazione, 18 gennaio 2022.

12C. Galimberti, F. Gaudioso, Tecnostress: stato dell’arte e prospettive d’intervento. Il punto di vista psicosociale, in Tutela e Sicurezza del Lavoro – Rivista di Ateneo, Università degli Studi Milano-Bicocca, numero 1 anno 2015, Milano, 2015.

13E. Stradella, Stereotipi e discriminazioni: dall’intelligenza umana all’intelligenza artificiale, in Liber Amicorum per Pasquale Costanzo, Consulta online, 30 marzo 2020.

14A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in Rivista di BioDiritto, n°1/2019.

15E. Stradella, op.cit.

16J. Buolamwini – T. Gebru, Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classfication, in Proceedings of Machine Learning Research 81/2018.

17E. Stradella, op.cit.

18S.U. Noble, Algorithms of Oppression. How Search Engines Enforce Racism, New York University Press, New York, 2018. P. Costanzo, Motori di ricerca: un altro campo di sfida tra logiche del mercato e tutela dei diritti?, in Diritto all’internet, 2006.

19S. Vantin, L’eguaglianza di genere tra mutamenti sociali e nuove tecnologie, Pacini Giuridica, Pisa, 2018.

20L. Lessig, Code and Other Laws of Cyberspace, Basic Book, New York, 1999.

Click to listen highlighted text!