Il vigile che non esiste (e a cui obbediamo lo stesso)
Si occupa di progettazione come strumento di cambiamento sociale, intrecciando attivismo, tecnologia e cultura. Lavora su progetti che mettono al centro le persone, l’accessibilità e l’impatto positivo, esplorando come gli strumenti digitali possano supportare comunità, consapevolezza e nuove forme di partecipazione.
A Hangzhou, in Cina, un robot alto 1,8 metri ha iniziato a dirigere il traffico a un incrocio trafficato. Si chiama Hangxing No. 1, ha telecamere ad alta definizione, si muove su ruote omnidirezionali, può fischiare e fare i gesti standard del vigile: braccio teso, palmo aperto, stop, vai. Non ha volto, non ha badge, non può fisicamente fermarti.
Eppure la gente si ferma.
Stiamo scoprendo che l'autorità non ha bisogno di esistere per funzionare. Ha solo bisogno di sembrare autorità.
L'autorità è sempre stata un costume
Pensa a un vigile umano. Cosa gli dà autorità? Non la forza fisica, un passante qualsiasi potrebbe essere più forte. Non la saggezza, probabilmente non sa nulla della tua vita o delle tue ragioni per attraversare. Quello che ha è una divisa riconoscibile e dei gesti codificati che hai imparato a decifrare. In altre parole: anche il vigile umano è una finzione. Una finzione utile, necessaria, ma pur sempre una finzione. Funziona perché tutti accettiamo di far finta che quella persona con quella divisa abbia il diritto di dirci cosa fare.
Il robot di Hangzhou porta questa logica alla sua forma più radicale: elimina la persona, tiene la divisa e i gesti. E funziona esattamente allo stesso modo.
Quando obbedivamo al vigile umano, a chi stavamo obbedendo davvero? Alla persona? O al sistema di cui quella persona era solo l'interfaccia?
Il vuoto della responsabilità
Ecco dove le cose si fanno interessanti. Se Hangxing No. 1 sbaglia, diciamo che ferma un'ambulanza in emergenza, o non riconosce una situazione che richiederebbe flessibilità, chi è responsabile? Non il robot, ovviamente. Non può scegliere. È programmato.
Il programmatore? Il produttore? La polizia di Hangzhou che l'ha comprato?
La risposta onesta è: nessuno, davvero.
Hannah Arendt, scrivendo su Eichmann, aveva identificato la "banalità del male" proprio in questo: il male più efficiente non viene dai mostri, ma da chi esegue procedure senza interrogarle. Hangxing No. 1 è l'Eichmann perfetto, esegue ordini senza nemmeno la possibilità teorica di disobbedire. Ma c'è una differenza: Eichmann avrebbe potuto rifiutare. Aveva agency, per quanto non l'abbia esercitata. Il robot no.
Con il vigile umano potevamo almeno illuderci che ci fosse qualcuno lì, qualcuno che potesse vedere l'eccezione, esercitare discrezione, o almeno essere ritenuto responsabile se sbagliava. Il robot elimina questa illusione.
E in Cina questo è precisamente il punto. L'autorità umana può corrompere, può solidarizzare, può dubitare. L'autorità algoritmica no. È imparziale perché non può essere altro che ciò per cui è stata programmata.
Cittadini o pattern da classificare?
Pensa a come ti "vede" Hangxing No. 1. Non vede la persona, non vede un individuo con una storia, con urgenze, con ragioni. Vede: "pedone senza casco", "violazione dell'incrocio", "comportamento anomalo". Sei un datapoint da processare.
James C. Scott, in "Seeing Like a State", mostrava come gli stati moderni abbiano sempre cercato di rendere le società "leggibili" – semplificare la complessità umana in categorie gestibili. Ma quello che richiedeva eserciti di burocrati ora lo fa un algoritmo in tempo reale. La differenza è la velocità e l'automatismo con cui veniamo classificati.
Stiamo accettando di essere trattati come input. Per essere gestito dal sistema, devi essere quantificabile, classificabile, riducibile a categoria.
E noi collaboriamo. Ci fermiamo quando il robot lo ordina non perché riconosciamo la sua autorità in senso pieno, non possiamo, è una macchina, ma perché abbiamo interiorizzato la logica del sistema. Ci siamo già addestrati a comportarci come dati conformi.
È sempre stato così?
L'autorità umana ci permetteva di mantenere l'illusione che ci fosse trattativa, eccezione, umanità nel sistema. Il vigile ti guardava negli occhi, potevi supplicare, spiegare, sperare in comprensione. Anche se nella pratica il risultato era lo stesso, la multa, l'ordine di fermarti, quella possibilità teorica rendeva tutto più tollerabile.
Quando l'autorità smette di nascondersi dietro volti umani e belle parole, quando è ridotta a pura procedura visibile, diventa forse finalmente contestabile. Non puoi ragionare con Hangxing No. 1. Ma puoi, se vuoi, contestare apertamente il sistema che rappresenta.
Con il vigile umano, confondevi la critica al sistema con l'attacco a una persona. Con il robot, la distinzione è chiara: non stai discutendo con qualcuno, stai mettendo in discussione una procedura.
La domanda aperta
A Hangzhou, qualcuno attraversa comunque quando il robot dice stop. Il robot fischia, gesticola, registra la violazione. Ma non può inseguirti. Non può costringerti. Non può punirti direttamente.
È un'autorità completamente dipendente dalla tua complicità.
E forse, in questa dipendenza, c'è una rivelazione: l'autorità, quella umana come quella robotica, ha sempre funzionato così. Non attraverso la forza, ma attraverso il nostro consenso ad accettare la finzione.