Le recenti celebrazioni pasquali mi invitano a fare un collegamento tra il significato etimologico del termine pasqua e il tema della nostra newsletter mensile, l’essere pronti.
Il nome della Pasqua deriva dall’ebraico pesàch, cioè “passaggio, liberazione”, messo in relazione al verbo pāsàcḥ, col significato di "zoppicare" e "saltare", ma anche di "passar oltre (saltando qualche cosa)". Nel senso laico, ma pur spirituale, la Pasqua – che coincide con l’inizio della primavera - è simbolo di rinascita e rinnovamento e può essere vista come un'occasione per imparare dagli errori del passato, fare un salto in avanti per superare le avversità, ricostruire, evolversi. Questo è ciò che normalmente s’intende proprio quando si parla di resilienza che, a seguito di un fallimento o un evento avverso, non può limitarsi ad un semplice riequilibrio o riassetto organizzativo: essa dovrebbe contemplare delle azioni che non siano solo riparative, ma che siano trasformative, ovvero che vadano a migliorare la capacità stessa del sistema di fronteggiare simili rischi futuri. Così una risposta reattiva e adattiva a qualcosa che è accaduto diventa la base con cui alimentare proattivamente (e creativamente) l’affidabilità del sistema riguardo a qualcosa che deve ancora accadere. Questo è essere pronti.
Ad allontanare molte organizzazioni da questa ideale condizione dinamica di apprendimento vi è ancora un forte attaccamento a logiche accusatorie individualistiche che attribuiscono all’essere umano, alle sue decisioni e ai suoi comportamenti, la responsabilità (che diventa poi colpa) di incidenti e fallimenti. È un argomento di cui si parla da almeno trent’anni - quantomeno nella letteratura sugli incidenti e il fattore umano - da quando alcuni terribili disastri hanno scosso il mondo ed hanno attirato l’attenzione degli studiosi, diventando dei case studies ricorrenti. Due di questi li ricordiamo proprio nel mese di aprile: si tratta del disastro nucleare di Černobyl in Ucraina il 26 aprile 1986 (uno dei più gravi incidenti nucleari nella storia) e l’incidente dello Space Shuttle Columbia il 28 aprile 2003, che si disintegrò durante il rientro nell'atmosfera terrestre, causando la morte di tutti e sette gli astronauti a bordo (un disastro analogo, quello del Challenger, si verificò qualche anno prima, sempre nel 1986). Si tratta di casi – questi e molti altri come Three Mile Island, Fukushima, Deepwater Horizon, e diversi incidenti aerei – che hanno avviato lenti ma radicali cambiamenti nella cultura organizzativa della sicurezza e che hanno stimolato riflessioni profonde sull’errore umano, mettendo sempre più in luce l’importanza di adottare una visione sistemica del fallimento. Un’organizzazione non può, infatti, non essere considerata un sistema socio-tecnico complesso, dove ogni risultato (output) è generato dalle interazioni dinamiche e non-lineari dei suoi componenti. In quest’ottica, un errore, un fallimento, non può essere avulso dal contesto in cui si è verificato e deve essere letto come una conseguenza, piuttosto che una causa. Solo così l’errore diventa un’informazione preziosa sullo “stato di salute/sicurezza” del sistema che, in modo retroattivo, la utilizza per migliorare la sua resilienza e prontezza.
Oggi, l’adozione di questa prospettiva è tuttavia ancora ostacolata da molte resistenze e da impianti giudiziari improntati sulla ricerca di un colpevole invece che sull’identificazione delle criticità e cause latenti che hanno portato ad un incidente. D’altronde la caccia al colpevole ha i suoi vantaggi: fornisce senso di controllo, ripristina la fiducia, preserva la credibilità delle istituzioni e riduce l’ansia sociale. Vogliamo un lieto fine, e lo vogliamo in fretta: che giustizia sia fatta! Così agli incidenti le istituzioni rispondono con nuove leggi, norme più stringenti. Ma di leggi ce ne sono sin troppe e sono più che sufficienti. Anzi, questa iper-legiferazione in materia di sicurezza rischia di produrre gli effetti opposti creando null’altro che più paura, disincentivando le segnalazioni di piccoli errori o near miss, e favorendo una condizione di inerzia al cambiamento. Queste logiche punitive e semplicistiche, con le loro contromisure palliative, nella maggior parte dei casi non cambiano in alcun modo le condizioni nel sistema che hanno prodotto un incidente che, con buone probabilità, finirà per verificarsi di nuovo, ma con colpevoli diversi. Tutto questo non consente di avviare quel ciclo di resilienza in cui all’errore segue un apprendimento e un miglioramento vero e, quindi, una maggiore affidabilità.
I tribunali non possono migliorare la prontezza e la resilienza di un’organizzazione: i tribunali cercano colpevoli, emettono sentenze. Sta all’organizzazione la responsabilità di avviare il proprio processo di cambiamento culturale e scegliere su quali paradigmi fondare la propria sicurezza. È innegabilmente una sfida difficile, e in questo breve articolo – che non rende giustizia (tanto per stare in tema) alla complessità degli argomenti qui solo accennati, ma che vuole piuttosto dare delle suggestioni – si auspica, se non altro, un maggiore coraggio nel fare quel passaggio, quel salto oltre le logiche predominanti di demonizzazione e colpevolizzazione dell’errore umano, a favore di approcci sistemici ai fallimenti organizzativi. Tali approcci sono gli unici che possono davvero essere generativi di apprendimento e miglioramento, gli unici che promuovono una responsabilità condivisa della sicurezza, vista come obiettivo da perseguire costantemente, ma mai definitivamente raggiungibile.
Riferimenti
Catino, M. (2022). Trovare il colpevole: la costruzione del capro espiatorio nelle organizzazioni. Il mulino.
Catino, M. (2008). A review of literature: individual blame vs. organizational function logics in accident analysis. Journal of contingencies and crisis management, 16(1), 53-62.
Dekker, S., Cilliers, P., & Hofmeyr, J. H. (2011). The complexity of failure: Implications of complexity theory for safety investigations. Safety science, 49(6), 939-945.
Logan, T. M., Aven, T., Guikema, S. D., & Flage, R. (2022). Risk science offers an integrated approach to resilience. Nature Sustainability, 5(9), 741-748.
Read, G. J., Shorrock, S., Walker, G. H., & Salmon, P. M. (2021). State of science: evolving perspectives on ‘human error’. Ergonomics, 64(9), 1091-1114.
Weick, K. E., & Sutcliffe, K. M. (2010). Governare l'inatteso-Organizzazioni capaci di affrontare le crisi con successo (F. Dovigo, Trans.). Milano: Raffaello Cortina (Original work published 2009).
Comments