top of page

Essere donna ai tempi dell'intelligenza artificiale: quando il tuo capo è l'algoritmo

c4e0eb_244c3fe04efb43dfbce05525928c403a_mv2.jpg

Neue Fabrik

Feb 28, 2024

L’uso dell’intelligenza artificiale in questioni che hanno a che fare con i diritti delle persone può essere fermato solo attraverso una lotta collettiva e organizzata. Prima iniziamo, meglio è.
di PAULA GUERRA CACERES (ESP)

L’uso dell’intelligenza artificiale sul posto di lavoro sta influenzando gli annunci di lavoro a cui abbiamo accesso, il modo in cui veniamo valutati in un processo di selezione e l’emergere di una nuova organizzazione del lavoro governata da algoritmi che hanno il potere di penalizzarti e licenziarti.


Paula Guerra Cáceres

28 FEBBRAIO 2024 06:00


L’intelligenza artificiale è il nuovo paradigma sociale. Tutti ne parlano e il consenso sulla sua infallibilità e sui suoi vantaggi ha trasceso molto tempo fa l’ambito delle grandi società di sviluppo tecnologico per affermarsi come un’idea piuttosto radicata nella società.


In quest’era governata dal tecno-soluzionismo, sempre più pubbliche amministrazioni, aziende e organizzazioni di tutti i settori, utilizzano strumenti di intelligenza artificiale per automatizzare processi e decisioni con una premessa d’oro: migliorare l’efficienza, la produttività e ridurre i costi. L’intelligenza artificiale è di moda.


Ma che impatto ha questo nuovo modello di ordine sociale sulla vita delle persone, in particolare sulla vita lavorativa delle donne?

I pregiudizi di genere nel targeting degli annunci su piattaforme come LinkedIn fanno sì che le donne non vedano le offerte di lavoro che l’algoritmo mostra agli uomini

Si suppone che l’intelligenza artificiale sia lì per aiutarci, per rendere le nostre vite meno complesse, ma, se esaminiamo i suoi usi, vediamo come serve a riprodurre vecchi modelli di potere. In uno studio congiunto dell’UNESCO, dell’IDB e dell’OCSE intitolato "Gli effetti dell’intelligenza artificiale sulla vita lavorativa delle donne", pubblicato nel 2022, vengono menzionati diversi aspetti in cui l’uso dell’intelligenza artificiale sta attualmente danneggiando le donne per quanto riguarda il lavoro.


È il caso dei pregiudizi di genere nel targeting degli annunci pubblicitari su piattaforme come LinkedIn, Indeed e Facebook, che fanno sì che le donne non riescano a vedere determinate offerte di lavoro che l’algoritmo mostra agli uomini. In un esperimento con più di 60mila annunci, citato da questo studio, si è scoperto che, assegnando il genere “femminile” ad un utente, a questa persona venivano mostrati meno annunci per lavori ben pagati rispetto a quando gli veniva assegnato il genere maschile.


Già nel 2018, LinkedIn aveva scoperto che i suoi algoritmi mostravano più posizioni aperte agli uomini che alle donne semplicemente a causa del fatto che gli uomini cercano più spesso nuovi lavori, il che potrebbe essere correlato, secondo questa ricerca, a determinati modelli sociali di genere: gli uomini hanno più tempo per cercare offerte di lavoro poiché dedicano meno tempo alla cura dei figli e tendono anche ad essere più propensi a candidarsi per posizioni per le quali sono sottoqualificati e ad assegnarsi più competenze di quelle che possiedono.


I pregiudizi di genere nel targeting degli annunci pubblicitari influiscono direttamente sul numero di uomini e donne che svolgono determinate occupazioni. Uno studio del 2019 sui pregiudizi algoritmici di genere, nella visualizzazione di offerte di lavoro in settori quali scienza, tecnologia, ingegneria e matematica, ha rilevato che gli annunci di lavoro in queste quattro aree vengono mostrati il ​​20% in più agli uomini che alle donne e questo finisce per avere un impatto negativo sul numero di donne che intraprendono alcune di queste carriere per studiare. Ciò influenza quindi il numero di donne che progettano e sviluppano sistemi di intelligenza artificiale, creando un circolo vizioso che alimenta e riproduce pregiudizi.


Il “candidato ideale”

Un altro esempio di questa folle corsa al “tecno-soluzionismo” sul posto di lavoro sono i vari strumenti di intelligenza artificiale che stanno emergendo per rivedere i curriculum in tempi record e analizzare video di colloqui di lavoro per valutare aspetti come le espressioni facciali, l’intonazione del discorso e la voce. e l'uso di determinate parole. Aziende come L'Oreal, Telepizza, Prosegur o Securitas Direct utilizzano già questo tipo di tecnologia, che viene offerta con il vantaggio aggiuntivo di ottenere una maggiore diversità nei candidati eliminando presumibilmente i pregiudizi di genere e di razza dei reclutatori umani.


Ma funzionano? Nell’ambito di un rapporto del 2022 sui pregiudizi di razza e di genere negli strumenti di intelligenza artificiale per il reclutamento di lavoro, il Cambridge Gender Studies Center ha voluto testare l’efficacia di questi strumenti creando un proprio programma basato sull’intelligenza artificiale per analizzare i video delle interviste di lavoro. Il rapporto ha rivelato che piccoli cambiamenti nelle espressioni semplici, nell’abbigliamento e persino nell’illuminazione potrebbero dare letture della personalità completamente diverse, mettendo quindi in dubbio l’efficacia di questo tipo di tecnologia.


D’altra parte, il team di Cambridge ha affermato che questi strumenti possono aumentare l’omogeneità delle persone assunte (piuttosto che espandere la diversità), perché gli algoritmi sono programmati per premiare le caratteristiche precedentemente comunicate dai datori di lavoro, senza tenere conto delle condizioni strutturali che rendono le persone adatte. o non rientrare in questi profili.


Quando comanda l'algoritmo

Uno degli ambiti lavorativi in ​​cui la realtà sta superando la finzione, in termini di utilizzo dell’intelligenza artificiale, è quello delle piattaforme di consegna a domicilio. Queste aziende fanno parte della cosiddetta economia digitale e basano il loro funzionamento interno su una organizzazione algoritmica del lavoro.


Nel dicembre dello scorso anno, ho avuto l'opportunità di incontrare, ad un evento a Lisbona, Nuria Soto Aliaga, una delle fondatrici di Riders x Rights. In quell'incontro, Soto Aliaga ha commentato che le donne che viaggiano subiscono penalità specifiche, a causa degli algoritmi utilizzati in queste applicazioni: quando hanno le mestruazioni, quando si fermano negli esercizi per entrare in un servizio, l'algoritmo determina che stanno impiegando troppo tempo per effettuare una consegna. Queste penalità influenzano gli ordini e le aree che verranno loro assegnate il giorno successivo. E se accumulano troppe sanzioni rischiano di essere “disconnesse”, che, nel linguaggio inventato da queste piattaforme, significa licenziate.


Nel suo libro "Riders on the storm" , Soto Aliaga commenta altri modi in cui questo tipo di lavoro danneggia le donne: molestie sul posto di lavoro da parte dei clienti, che spesso salutano le fattorine in mutande, fanno loro avances sessuali o inviano messaggi direttamente ai loro numeri di cellulare (la piattaforma permette loro di accedere alla foto e al numero di telefono delle persone che consegnano); problemi di infezioni o cistiti per la mancanza di un centro di lavoro che permetta loro di andare in bagno quando ne hanno bisogno e, di conseguenza, una spesa mensile extra per dover fare ripetutamente la spesa negli stabilimenti per poter accedere a un servizio.


I ciclisti non sono gli unici a risentire di questa organizzazione algoritmica del lavoro . Il libro parla anche dell'emergere dell'economia delle piattaforme in settori altamente femminilizzati, precari e razzializzati, come le lavoratrici del sesso, le lavoratrici domestiche e di cura e le governanti, che con un clic di un pulsante sono costrette a pulire le camere d'albergo in orari impossibili , per svolgere giornate lavorative che non prevedano orari o tempi di riposo, a causa del proliferare di app e piattaforme che cercano di offrire i prezzi più competitivi a scapito dello sfruttamento lavorativo dei lavoratori, che devono essere sempre “disponibili” per evitare di essere penalizzati dall’algoritmo.

"L'algoritmo era come avere un capo onnipresente con cui non potevi discutere, ma che poteva dettare come, quando e in che modo avresti dovuto lavorare e a che punto ti avrebbe lasciato andare"

In riferimento al suo lavoro di rider , Soto Aliaga sottolinea che “nonostante fossimo presumibilmente i capi di noi stessi, non mi sono mai sentita così controllata sul lavoro, né sono stata governata da un sistema che penalizzava così tanto la minima deviazione da quello che "era previsto" per te. E aggiunge: “L’algoritmo era come avere un capo onnipresente con cui non potevi discutere, ma che poteva imporre come, quando e in che modo, avresti dovuto lavorare e in quale momento ti avrebbe lasciato andare”.


È noto che i settori più precari tendono a diventare laboratori di sperimentazione di pratiche che poi finiscono per diffondersi al resto della società. Ciò che oggi a molti può sembrare distante perché “non è il loro turno” potrebbe domani governare il loro stipendio, i loro orari e la loro intera vita.


L’uso dell’intelligenza artificiale in questioni che hanno a che fare con i diritti delle persone può essere fermato solo attraverso una lotta collettiva e organizzata. Prima iniziamo, meglio è.



PAULA GUERRA CACERES

fonte: (ESP) elsaltodiario.com - 28 feb. 2024

traduzione: LE MALETESTE

bottom of page