A A+ A++
28/12/2022

FRA: Testare gli algoritmi per evitare discriminazioni

Gli algoritmi basati sull'intelligenza artificiale (IA) colpiscono le persone ovunque: dal decidere quali contenuti le persone vedono sui loro feed dei social media al determinare chi riceverà benefici statali. Le tecnologie dell'IA sono tipicamente basate su algoritmi che fanno previsioni per supportare o addirittura automatizzare completamente il processo decisionale. Tra gli obiettivi principali di utilizzare l'IA in questo modo vi è l'aumento di efficienza e sistemi operativi su larga scala. Ma, una questione centrale, e una questione di diritti fondamentali, cosa succede se gli algoritmi diventano prevenuti contro alcuni gruppi di persone, come le donne o i migranti?

L'Agenzia dell'UE per i diritti fondamentali (FRA) mette in luce nel suo report 'Pregiudizi negli algoritmi- Intelligenza artificiale e discriminazione', che l'uso dell'IA può influire su molti diritti fondamentali. Gli algoritmi possono essere un utile strumento, ma possono anche violare il diritto alla privacy o portare a un processo decisionale discriminatorio, che ha un impatto concreto sulla vita delle persone.
Il report si propone di informare i policymakers, esperti di diritti umani e il pubblico in generale sul rischio di pregiudizi nell’utilizzo dell'IA, alimentando così gli sviluppi delle politiche. Si riconosce che i pregiudizi possono essere compresi in modi diversi. Questa analisi studia i pregiudizi nel contesto della non discriminazione, che è una delle principali preoccupazioni per quanto riguarda la conformità dell’intelligenza artificiale con i diritti fondamentali. I risultati designano modi per individuare e contrastare le forme di pregiudizio che possono portare alla discriminazione, con l'obiettivo finale di utilizzare algoritmi di intelligenza artificiale in un modo che rispetti i diritti fondamentali.

La relazione si divide in quattro parti:
-intelligenza artificiale e pregiudizi: qual è il problema?
-cicli di feedback: come gli algoritmi possono influenzare gli algoritmi
-pregiudizi etnici e di genere nel l'individuazione del linguaggio offensivo
-guardando al futuro: affinare l'attenzione dei diritti fondamentali sul l'intelligenza artificiale per mitigare pregiudizi e discriminazioni.