intelligenza artificiale (IA)

Svelare il ruolo dell’Intelligenza Artificiale nelle dinamiche coloniali

Come l’intelligenza artificiale sta diventando uno strumento di neocolonialismo nelle mani delle grandi potenze
Questo articolo è un estratto della tesi di laurea magistrale discussa nell’ottobre 2024 sotto la supervisione del professor Pietro de Perini.
IA, Intelligenza umana e tecnologia

Sommario

Nel XXI secolo stiamo assistendo a un’impennata inarrestabile delle tecnologie di intelligenza artificiale (IA), che stanno trasformando quasi ogni aspetto della nostra vita e ponendo grandi sfide a nazioni, società ed individui. Tuttavia, dietro le promesse del progresso dell’IA si cela una realtà preoccupante: questa tecnologia, in gran parte controllata dalle nazioni più potenti e dalle Big Tech, sta rimodellando le dinamiche globali e diventando un nuovo strumento di influenza che riflette le logiche coloniali. Costruita su dati storici, l’IA perpetua le disuguaglianze e gli squilibri esistenti, incorporandoli nei suoi sistemi. Continuando a costruire il nostro futuro su questi sistemi distorti, stiamo aprendo la strada a un impero dell’IA che perpetua le ingiustizie del passato sotto una veste moderna.

 

La difficoltà nel definire l’IA

L’intelligenza artificiale (IA) è una delle tecnologie più trasformative del nostro tempo, eppure la sua stessa definizione rimane sfuggente. Il termine racchiude un concetto vasto e complesso, poiché tenta di replicare o simulare qualcosa che noi stessi non comprendiamo pienamente: l’intelligenza umana

Negli ultimi anni, istituzioni globali e regionali hanno compiuto grandi sforzi per definire in modo esaustivo l’IA. Tuttavia, i vari tentativi oscillano spesso tra due estremi. Una definizione troppo ampia rischia di diventare vaga e soggetta ad interpretazioni, mentre una definizione eccessivamente specifica potrebbe compromettere l’efficacia delle regolamentazioni ed escludere sviluppi futuri nel campo dell’intelligenza artificiale. Questa tensione riflette la più ampia difficoltà epistemologica nel comprendere l’IA: la sua essenza cambia a seconda delle prospettive disciplinari e dei contesti culturali.

Nonostante l’influenza crescente dell’IA in ogni ambito della vita moderna, l’assenza di una definizione unica e universalmente accettata mette in evidenza una questione epistemologica più profonda. Non si tratta solo di terminologia, ma di confrontarsi con la vera natura dell’intelligenza stessa, sia umana che artificiale.

La corsa alla regolamentazione dell’IA 

Man mano che l’IA modella sempre più il nostro mondo, la necessità di regolamentarne l’uso è diventata una priorità globale. Senza un’attenta supervisione, questa tecnologia trasformativa potrebbe aggravare problemi legati all’etica, alla trasparenza, al controllo giurisdizionale, alla disinformazione, alla coesione sociale e persino all’integrità delle istituzioni democratiche. Tuttavia, regolamentare l’IA non è un compito semplice, soprattutto in un panorama globale in cui interessi e filosofie contrastanti si scontrano. Il mercato globale dell’IA è in gran parte plasmato da tre principali attori regolatori: l’Unione Europea, gli Stati Uniti e la Cina, che competono per definire le linee guida etiche a livello globale, ciascuno con un modello distintivo. 

L’Unione Europea ha adottato un approccio basato sulla tutela dei diritti, sancito nell’AI Act il primo quadro legislativo completo al mondo sull’intelligenza artificiale. Al contrario, gli Stati Uniti seguono un modello incentrato sul mercato, puntando a guidare la corsa globale all’IA privilegiando la crescita economica e l’innovazione, ma con una regolamentazione meno rigida. Nel frattempo, la Cina ha abbracciato una strategia statalista, bilanciando il progresso tecnologico con il controllo e la sorveglianza statale, affermandosi come una potenza dominante nel panorama dell’IA. 

Questi modelli divergenti evidenziano la frammentazione della governance globale dell’IA, dove la rivalità geopolitica e la competizione tra le grandi potenze ostacolano la creazione di un quadro normativo unificato. Nonostante i progressi significativi nella regolamentazione, gli sforzi per governare l’IA su scala globale incontrano una forte resistenza. Gli interessi economici e geopolitici sono semplicemente troppo alti, con nazioni e aziende leader bloccate in una corsa per sfruttare il potenziale trasformativo dell’IA a proprio vantaggio strategico.

Bias e disuguaglianze: l’IA come strumento di discriminazione

Mentre le nazioni e le multinazionali guidano lo sviluppo e la diffusione dell’intelligenza artificiale, inevitabilmente incorporano in queste tecnologie i propri valori, standard e strutture di potere. Per i Paesi e le comunità tecnologicamente meno avanzate, questo dominio rischia di perpetuare le disuguaglianze globali e di limitare la sovranità di intere popolazioni. Infatti, lontana dall’essere neutrale, l’IA spesso riflette e amplifica i pregiudizi e le disuguaglianze dei suoi creatori, perpetuando narrazioni coloniali sotto le sembianze dell’innovazione.

Il mito della neutralità dell’IA è pervasivo. Si è sempre ritenuto che gli algoritmi fossero strumenti imparziali perché basati su dati oggettivi e che l’uso delle tecnologie digitali riducesse l’errore umano, producendo risultati accurati, rapidi e aderenti alla realtà oggettiva delle cose. Tuttavia, questa convinzione si sgretola quando viene sottoposta a un’analisi più approfondita. I dati, la pietra miliare dell’IA, sono creati, selezionati e interpretati dall'uomo. Come tali, sono essenzialmente umani e “terreni”.

Un’analisi più approfondita degli algoritmi alla base dell’IA rivela cinque momenti critici nella programmazione e nel funzionamento delle tecniche di intelligenza artificiale da cui possono scaturire risultati sproporzionatamente sfavorevoli e avere un effetto discriminatorio sui gruppi emarginati.

Il primo meccanismo di potenziale discriminazione risiede nella relazione tra la target variablela caratteristica che il sistema di IA cerca di identificare – e la class labella categoria assegnata a quella caratteristica. 

La seconda fonte di pregiudizio riguarda la raccolta e selezione dei dati, un processo comunemente noto come data trainingaddestramento dei dati. Se i dati sono distorti o influenzati da pregiudizi, il modello risultante sarà verosimilmente discriminatorio, secondo il principio noto come “garbage in, garbage out”.

La “feature selection” costituisce il terzo meccanismo, ossia il processo attraverso il quale vengono scelte le singole variabili che il modello utilizza. 

I proxy, gli elementi usati dagli algoritmi per differenziare tra i gruppi, rappresentano il quarto meccanismo di potenziale discriminazione. 

Il quinto e ultimo modo di discriminazione nelle tecniche di intelligenza artificiale è chiamato “masking”; si verifica quando la discriminazione deriva direttamente dalle azioni intenzionali del programmatore nella fase di sviluppo del modello. 

Dalla raccolta dei dati alla programmazione, e dall'addestramento del modello alla sua implementazione, i sistemi di IA presentano numerose vulnerabilità che colpiscono in modo sproporzionato i gruppi marginalizzati. Che si tratti di set di dati distorti, assunzioni errate o della mancanza di consapevolezza culturale, queste tecnologie possono rafforzare le disuguaglianze sistemiche, amplificando i problemi che affermano di voler risolvere.

L’Impero dell’IA: colonialismo dei dati e oppressione digitale

Il dibattito globale sull'intelligenza artificiale è stato in gran parte dominato dalle prospettive di gruppi privilegiati e nazioni potenti. Come accaduto con le precedenti rivoluzioni tecnologiche, l’IA riflette inevitabilmente i valori e i pregiudizi dei suoi creatori, come il razzismo, il sessismo e l'esclusione economica. Tuttavia, questa nuova Era porta con sé un fenomeno unico, che gli studiosi hanno definito colonialismo dei dati. Non viviamo più semplicemente nell’“Era dell’Intelligenza Artificiale”, ma nell’epoca dell’Impero dell’IA, in cui i sistemi di intelligenza artificiale sono profondamente intrecciati con dinamiche politiche, storiche, culturali, razziali, di genere e di classe. Lungi dall'essere tecnologie indipendenti, questi sistemi sono profondamente radicati e rafforzano attivamente le strutture più ampie del colonialismo, del capitalismo, del razzismo e del patriarcato.

Nell’Impero dell’IA, il potere è sempre più concentrato nelle mani di pochi attori globali, mentre le comunità vulnerabili e marginalizzate sono escluse o sfruttate da queste tecnologie. Il fatto stesso che la lingua inglese domini in quest’epoca non è un dettaglio insignificante; al contrario, la lingua è un pilastro dell’identità di una comunità, che influenza e rispecchia la sua cultura, la sua storia e la sua visione del mondo. Pertanto, imporre l’inglese alle società non anglofone perpetua modelli coloniali di pensiero e comportamento, opprimendo così la creatività e l’autodeterminazione di queste popolazioni. 

Le stesse dinamiche oppressive che caratterizzavano il colonialismo storico vengono rivitalizzate in modi che sembrano nuovi, ma con la stessa logica sottostante. Se il colonialismo storico comportava l'annessione di territori, risorse naturali e popolazioni, la “materia prima” dell’Impero dell’IA è la vita umana stessa, sotto forma di dati. Questa mentalità estrattiva considera ogni aspetto della vita come una risorsa da sfruttare, perpetuando disuguaglianze sotto la falsa apparenza del progresso tecnologico. 

L’Impero dell’IA opera attraverso una visione del mondo che attribuisce maggiore valore ad alcune vite, culture e identità, mentre svaluta in modo sistematico altre. Combina forme di controllo vecchie e nuove, come la sorveglianza costante, lo sfruttamento del lavoro fisico e digitale, e l’estrazione di dati biologici e sensoriali. 

Le stesse gerarchie e disuguaglianze di potere che caratterizzavano il colonialismo storico vengono replicate digitalmente, spesso mascherate dal linguaggio dell'innovazione e della neutralità.

Le comunità marginalizzate, molte delle quali sono state vittime della colonizzazione storica, continuano a subire il peso di questa violenza automatizzata. Ad esempio, il caso giudiziario Ewert v. Canada illustra in modo evidente l’intersezione tra discriminazione algoritmica e retaggi coloniali. Questo caso ha rivelato che i sistemi di IA utilizzati per valutare i detenuti indigeni in merito a valutazioni psicologiche e rischi di recidiva non garantiscono un trattamento equo e imparziale. La sentenza della Corte Suprema ha messo in luce il rischio di fare affidamento a tecnologie avanzate che, dietro l’apparenza di un’oggettività scientifica, mascherano forme di discriminazione strutturale.

Altri esempi dimostrano come l’intelligenza artificiale venga utilizzata per intensificare e perpetuare pregiudizi storici, controllare intere popolazioni e comunità, e amplificare la loro esclusione. A Johannesburg, le tecnologie di sorveglianza basate sull’IA colpiscono in modo sproporzionato le comunità nere, rafforzando le disuguaglianze razziali radicate nell'apartheid. Allo stesso modo, nel 2020, il volto di un professore nero è stato ripetutamente cancellato dalla piattaforma Zoom – una conseguenza inquietante di algoritmi addestrati principalmente su volti bianchi, rendendo di fatto invisibili gli individui razzializzati. Inoltre, gli Uiguri, una minoranza musulmana in Cina, sono sottoposti ad un'intensa sorveglianza video da parte del governo di Pechino, con l'obiettivo di controllare il loro comportamento e implementare misure preventive contro gli individui etichettati come “pericolosi”.

Conclusione

Fino a che punto l'intelligenza artificiale può davvero essere considerata neutrale? E fino a che punto, al contrario, essa riflette i pregiudizi culturali, diventando così portatrice di un pensiero occidentale, bianco e privilegiato? Questi sono i quesiti urgenti che dobbiamo affrontare mentre l’IA diventa una forza sempre più pervasiva nel plasmare il nostro mondo.

Per contrastare le sfide e le implicazioni inquietanti dell’ascesa del nuovo impero dell’IA, dobbiamo adottare una visione decolonizzata per analizzare i dati e la tecnologia. Decolonizzare l’IA non richiede solo interventi normativi, che ovviamente sono importanti, ma implica un cambiamento radicale nel modo di pensare e guardare al mondo. Ci impone di mettere in discussione e decostruire le narrazioni dominanti e le strutture di potere che plasmano lo sviluppo e l'implementazione di queste tecnologie.

Al cuore di questo processo c’è la necessità di adottare modalità decisionali inclusive, che diano voce alle comunità marginalizzate e riconoscano la ricchezza della diversità dell'esperienza umana. L’esclusione delle prospettive indigene e dei gruppi socialmente marginalizzati rischia di perpetuare una forma di miopia culturale.

Decolonizzare i dati è, in sostanza, un atto creativo e immaginativo – un atto che sfida le tendenze omologanti della datafication e resiste alla presa totalizzante del controllo algoritmico. Questo processo ci spinge a ripensare “l’altro” non come un mero oggetto di sfruttamento, ma come una fonte essenziale di conoscenza, promuovendo così il riconoscimento e la valorizzazione dell'eterogeneità della nostra realtà condivisa. Sebbene il panorama tecnologico possa sembrare complesso e intimidatorio, dobbiamo ricordare che l’IA è, prima di tutto, un’impresa umana. Il suo potenziale non sta nella capacità di controllare, ma nella sua abilità di riflettere e arricchire la diversità dell'esperienza umana.

È necessario, sul piano etico, creare percorsi alternativi che mirino a decostruire il rafforzamento di un ordine globale fondato su logiche coloniali, patriarcali e capitalistiche. L’enorme potere nelle mani delle multinazionali – alimentato dalla vasta raccolta di dati e dalla loro influenza sulle politiche governative – rende questa impresa particolarmente complessa. Tuttavia, affrontare tale sfida è una necessità ineludibile: le persone e le comunità di tutto il mondo non dovrebbero pagare il prezzo di un impero dell’IA che accentua le disuguaglianze e consolida i sistemi di sfruttamento.

Collegamenti

Parole chiave

intelligenza artificiale (IA) discriminazione tecnologia

Percorsi

Human Rights Academic Voice