Attualità

Algoritmi e intelligenza artificiale condannano i rider di Glovo

di Redazione -


di UMBERTO RAPETTO

Oltre oceano la comunità degli Amish, stabilitasi negli Stati Uniti tre secoli fa, rifiuta la modernità e addirittura teme l’energia elettrica. Non c’è bisogno di ispirarsi a loro nonostante rappresentino – per chi è spaventato dalla sostituzione etnica – un invidiabile modello di incremento demografico con una media di sette figli per famiglia… Rifuggendo le esagerazioni, varrebbe la pena provare a riflettere sul progressivo piegarsi al volere e disporre delle “macchine” cui spesso si affidano i processi decisionali senza considerare la naturale “disumanità” che le contraddistingue.

Per riconoscerne la pericolosità è sufficiente partire dalla cronaca quotidiana, senza vedersi costretti a ipotesi più o meno realistiche e credibili. Lo spunto viene dal procedimento (uno dei tanti) nei confronti di Foodinho, la società iberica che controlla la ben nota struttura di recapito a domicilio Glovo. In questi giorni il Tribunale di Torino ha condannato l’azienda per condotta antisindacale e la radice della contesa è il mistero che avvolge gli algoritmi su cui si basa il funzionamento del servizio prestato e soprattutto dell’impiego del personale.

E’ una storia di moderna schiavitù, dove i negrieri vengono dematerializzati e le frustate sono delegate ad un software che vede, controlla, misura, valuta e decide il da farsi. A distanze siderali dai fotogrammi de “La classe operaia va in Paradiso”, il cottimo non è disciplinato da un banale cronometro o da un block-notes annotato meticolosamente, ma è gestito da una manciata di istruzioni che senza pietà alcuna (e perché mai dovrebbero averne) regolano il ciclo biologico di una attività ben lungi dal preoccuparsi di chi ne fa le spese. L’ordinanza del giudice si impernia sulla opacità degli algoritmi adoperati e sulla necessità che chi se ne avvale renda comprensibili “le logiche di funzionamento dei sistemi, le informazioni che consentano di rendere «prevedibile» e «trasparente» la decisione adottata dal sistema automatizzato, le misure adottate per prevenire decisioni di natura discriminatoria”.

Le performance dei forzati al precariato sono rilevate, osservate e considerate in un processo gestionale rigidissimo che fa perno su un sistema di profilazione dei “rider” in cui sono in tanti a intravedere il rischio di discriminazioni o di lesione dei diritti dei soggetti interessati (nella fattispecie, i lavoratori). Il 10 giugno 2021 il Garante per la Privacy, mutuando un provvedimento dell’omologa Autorità spagnola, ha punito Foodinho con una multa da 2,6 milioni d euro, rilevando che quella società ha smaccatamente eluso le disposizioni del Regolamento Europeo GDPR e dato luogo a numerose gravissime violazioni e ad un atteggiamento per nulla collaborativo, circostanze che hanno contribuito a determinare l’entità elevata della sanzione amministrativa.

Peccato che il Tribunale di Milano abbia annullato quel provvedimento (il n° 234) considerandolo fortemente sproporzionato e illegittimo rispetto ai paramenti sanzionatori indicati nell’art. 83 del Regolamento europeo 2016/679… Nonostante questo discutibile segnale assolutorio, pesa come un macigno la sentenza del Tribunale di Palermo del 24 novembre 2021 in cui si legge che il lavoratore – sospeso il suo account per il presunto mancato rispetto di ordini e consegne – era addirittura nell’impossibilità di dialogare con il datore di lavoro perché, cercando di interloquire con gli operatori messi a disposizione della piattaforma Glovo per l’assistenza ai corrieri, riceveva esclusivamente risposte automatiche nelle quali veniva informato che sarebbe stato ricontattato al più presto… E’ ormai acclarato che il sistema di profilazione dei “ciclofattorini” presenta concreti rischi di penalizzazione del diritto di sciopero e sia una minaccia per determinate categorie di lavoratori e lavoratrici ritenute meno produttive dalle logiche di programmazione dei modelli di gestione.

Il 5 agosto scorso il giudice torinese ha rilevato, all’interno dei parametri che determinano i punteggi dei rider (funzionali all’accesso prioritario al calendario delle consegne), l’esistenza di “possibili discriminazioni indirette e della mancanza di misure idonee a prevenirle e ad eliminarne gli effetti”. Le piattaforme di “food delivery” devono svelare tutte le informazioni necessarie, secondo il decreto legge 104 del 2022 sulla trasparenza, a capire e a spiegare il funzionamento dell’algoritmo, la natura della distribuzione dell’attività lavorativa e le dinamiche che conducono alla sospensione o alla risoluzione del contratto di lavoro… Il nostro futuro è destinato ad esser stabilito da un computer sulla base di ragionamenti imperscrutabili? Un assaggio del domani lo si trova nel film “E noi come stronzi rimanemmo a guardare” dove Arturo – il personaggio interpretato da Fabio De Luigi – finisce con l’essere licenziato dall’algoritmo che lui stesso aveva programmato. Ormai la “formula” funzionava perfettamente e non c’era più bisogno di chi l’aveva redatta…


Torna alle notizie in home