Trasformare le debolezze cognitive in alleati per la sicurezza.

Troppo spesso si legge che l’80% degli incidenti sul lavoro è dovuto al fattore umano. Peccato che questa cifra non sia supportata da dati concreti. Vediamo invece come gli esseri umani, con tutte le loro imperfezioni, possono essere i veri attori della sicurezza sul lavoro.

Il Fattore Umano: non il nemico, ma l’alleato

Molti credono che il fattore umano sia l’anello debole nella catena della sicurezza. Niente di più impreciso! Gli esseri umani, con la loro adattabilità, flessibilità e capacità di risolvere problemi complessi, sono spesso i correttori necessari per compensare i difetti dei sistemi tecnici e organizzativi. Vediamo quali strumenti possono introdurre nella realtà dei fatti, che è sempre diversa da come si pensa che vadano:

  1. Adattabilità: in situazioni impreviste, gli esseri umani si adattano rapidamente, trovando soluzioni pratiche.
    • Esempio: in caso di incendio, un lavoratore potrebbe trovare una via di fuga alternativa non prevista nei piani di emergenza, salvando se stesso e i colleghi.
    • Caso storico: il 21 novembre 1980, un incendio devastante scoppiò nell’Hotel MGM Grand di Las Vegas. L’incendio iniziò in un ristorante del piano terra e si diffuse rapidamente attraverso l’edificio, causando la morte di 85 persone e ferendone altre 650. La tragedia portò a una revisione completa delle norme antincendio negli hotel e nei casinò. Durante l’incendio, molte persone furono salvate grazie all’adattabilità e alla creatività sia dei lavoratori dell’hotel che dei primi soccorritori.
  2. Riconoscimento dei patterns: gli esseri umani sono perfettamente in grado di riconoscere anomalie e rischi potenziali che le macchine possono non rilevare.
    • Esempio: una persona può notare un rumore insolito in una macchina, indicando un possibile guasto imminente, e fermarla per la manutenzione preventiva.
    • Caso storico: il 21 marzo 1996, durante un normale giorno di lavoro sulla Canadian National Railway, un ingegnere ferroviario notò un rumore insolito proveniente dai freni di una locomotiva mentre stava attraversando una zona remota del Canada. Il rumore era anomalo e non previsto durante le operazioni standard. La prontezza e l’attenzione ai dettagli dell’ingegnere gli fecero scoprire che un componente critico del sistema frenante stava per guastarsi completamente. Il danno avrebbe potuto causare la perdita dei freni e potenzialmente un deragliamento, soprattutto considerando il carico pesante e il terreno accidentato. La locomotiva fu fermata per riparazioni immediate, evitando così un possibile incidente.
  3. Creatività: Quando emergono problemi inaspettati, la creatività umana trova soluzioni innovative.
    • Esempio: in mancanza di un’attrezzatura specifica, un tecnico può improvvisare uno strumento sicuro utilizzando materiali disponibili.
    • Caso storico: durante la missione spaziale Apollo 13, lanciata l’11 aprile 1970, un’esplosione nel modulo di servizio mise a rischio la vita degli astronauti. L’esplosione causò la perdita di gran parte dell’energia elettrica e delle riserve di ossigeno, compromettendo gravemente la missione. La prontezza e la creatività del team di controllo missione della NASA furono decisive per il salvataggio degli astronauti, dato l’accumulo di anidride carbonica a bordo. I filtri del modulo lunare non erano sufficienti per purificare l’aria per tre astronauti. Il team di terra, utilizzando materiali disponibili a bordo, come sacchetti di plastica, copertine di manuali, e nastro adesivo, progettò un adattatore per collegare i filtri quadrati del modulo di comando ai filtri rotondi del modulo lunare.
  4. Comunicazione e coordinazione: la capacità di comunicare e collaborare efficacemente è una qualità umana insostituibile.
    • Esempio: durante un’emergenza, i membri del team possono coordinarsi rapidamente tramite comunicazioni verbali e non verbali per mettere in sicurezza l’area.
    • Caso storico: il 28 marzo 1979, il reattore 2 della centrale nucleare di Three Mile Island in Pennsylvania subì un guasto che portò al parziale meltdown del nucleo del reattore. La risposta rapida e coordinata del team di emergenza fu fondamentale per mitigare i danni e mettere in sicurezza l’area: durante l’emergenza, la comunicazione verbale e non verbale tra gli operatori della centrale e i team di supporto fu cruciale. Gli operatori del controllo comunicarono chiaramente le condizioni del reattore e le azioni necessarie per stabilizzare la situazione. Fu organizzata rapidamente l’evacuazione non solo del personale non essenziale ma anche delle aree circostanti per garantire la sicurezza pubblica. La cooperazione con le autorità locali e federali assicurò una risposta unificata e coordinata. Fu gestita la pressione del sistema di raffreddamento utilizzando procedure di emergenza e soluzioni improvvisate per mantenere il controllo del reattore, evitando così un disastro maggiore.

Le euristiche: amiche o nemiche?

Le euristiche sono scorciatoie mentali che ci aiutano a prendere decisioni rapide. Kahneman e Tversky, due influenti ricercatori, nei loro studi pubblicati negli anni ’70 e ’80, hanno identificato diverse euristiche che usiamo quotidianamente. Le principali sono:

  1. Euristica della Disponibilità: giudichiamo la probabilità di un evento basandoci su quanto facilmente ci vengono in mente esempi simili. Questo può portarci a sovrastimare la frequenza di eventi rari ma drammatici.
    • Esempio: se sentiamo spesso parlare di incidenti in un cantiere edile, potremmo sovrastimare la probabilità che accadano, anche se le statistiche dicono il contrario. Questo è il cosiddetto bias della probabilità.
    • Caso storico: l’attacco terroristico dell’11 settembre 2001 ha avuto un impatto profondo non solo sulla sicurezza aerea, ma anche sulla percezione pubblica del rischio di volare. Gli attentati contro le Torri Gemelle e il Pentagono sono stati ampiamente coperti dai media, lasciando un’impressione duratura nella mente delle persone. Molte persone hanno sviluppato una paura intensa di volare, giudicando la probabilità di un attacco terroristico aereo molto più alta di quanto non fosse in realtà.
  2. Euristica della Rappresentatività: giudichiamo la probabilità di un evento basandoci sulla sua somiglianza a un prototipo conosciuto, ignorando le statistiche reali.
    • Esempio: potremmo pensare che un evento preparato meticolosamente non possa essere soggetto ad incidente, ignorando il fatto che la valutazione del rischio deve essere sempre dinamica e contestuale. Questo è il cosiddetto bias dell’analogia.
    • Caso storico: il 28 gennaio 1986, lo Space Shuttle Challenger esplose 73 secondi dopo il decollo, portando alla morte di tutti e sette i membri dell’equipaggio. L’incidente fu causato dal guasto di una guarnizione (O-ring) in uno dei razzi a propellente solido, che non riuscì a sigillare correttamente a causa delle basse temperature. Nel caso del Challenger, la fiducia eccessiva nella rappresentatività delle procedure standard e dei controlli di qualità portarono a sottovalutare i rischi reali, peraltro ben noti.
  3. Euristica dell’Ancoraggio: facciamo stime numeriche basandoci su un valore iniziale e aggiustiamo insufficientemente da quel punto di partenza.
    • Esempio: se ci viene detto che una macchina è sicura al 95%, potremmo sottovalutare i rischi reali, anche se ci sono evidenze di problemi. Questo è il cosiddetto bias dell’atteggiamento (o dell’abitudine).
    • Caso storico: il 15 aprile 1912 il Titanic, considerato il più grande e lussuoso transatlantico dell’epoca, affondò dopo aver colpito un iceberg durante il suo viaggio inaugurale. L’incidente causò la morte di oltre 1.500 persone e rimane uno dei disastri marittimi più famosi della storia. La convinzione che il Titanic fosse “inaffondabile” servì come ancoraggio che influenzò negativamente le decisioni prese durante il viaggio e dopo la collisione con l’iceberg.

Bias Cognitivi: come sfruttarli a nostro favore

Come evidente anche dagli esempi, il problema delle euristiche -che in sé sono fisiologiche- è che espongono al rischio di commettere errori sistematici, i cosiddetti bias cognitivi. Su questi esiste una corposa mole di studi, ad esempio l’ICAO (International Civil Aviation Organization) ne identifica molte decine.

Tuttavia, a mio avviso, si può avere una visione alternativa e pensare che il meccanismo mentale che conduce a commettere errori cognitivi possa essere sfruttato per migliorare la sicurezza sul lavoro. Come è possibile? Vediamo alcuni esempi.

  1. Bias di Ottimismo: questo bias, figlio dell’euristica della disponibilità, può motivare i lavoratori a impegnarsi di più nelle pratiche di sicurezza e ad essere più resilienti di fronte alle difficoltà.
    • Esempio: credere che seguire rigorosamente le procedure di sicurezza ridurrà significativamente gli incidenti può portare a una maggiore aderenza alle pratiche di sicurezza.
  2. Bias di Conferma Positivo: questo bias, derivato dall’euristica della rappresentatività, induce a cercare e interpretare informazioni che confermano le proprie credenze positive, e può rafforzare il morale e la coesione del team, migliorando la sicurezza operativa.
    • Esempio: se i membri del gruppo credono fermamente che le proprie misure di sicurezza siano efficaci, saranno più propensi a seguirle rigorosamente.
  3. Bias del Controllo: anche questo discende dall’euristica di rappresentatività, porta a credere di avere più controllo sugli eventi di quanto realmente si abbia, e questo può incoraggiare i lavoratori a prendere iniziative per migliorare la sicurezza.
    • Esempio: un lavoratore che si sente in controllo delle proprie attività potrebbe essere più proattivo nel segnalare e risolvere potenziali pericoli.
  4. Bias di Ingroup: sempre sulla base dalla rappresentatività, la tendenza a favorire i membri del proprio gruppo può migliorare la comunicazione e la collaborazione, creando un ambiente di lavoro più sicuro.
    • Esempio: Un forte spirito di squadra può motivare i lavoratori a proteggersi reciprocamente e a rispettare le norme di sicurezza.
  5. Bias del Sunk Cost: figlio dell’euristica dell’ancoraggio, porta a seguire rigorosamente le procedure di sicurezza perché si è investito molto su di esse, e può generare una maggiore aderenza alle pratiche di sicurezza.
    • Esempio: se un’azienda ha investito significativamente in formazione e consulenza sulla sicurezza, gli attori aziendali possono sentirsi motivati a non sprecare tali risorse e a seguire rigorosamente le procedure apprese.

Migliorare la sicurezza con la consapevolezza

Per trasformare le euristiche e i bias in strumenti di vantaggio, è essenziale:

  • Formazione ed esercizio: educare dirigenti, preposti e lavoratori sui diversi tipi di euristiche e bias.
  • Feedback e debiasing: utilizzare tecniche come il reframing e il nudging per mitigare l’impatto dei bias.
    • Il reframing è una tecnica comunicativa che consiste nel cambiare la percezione e l’interpretazione di una situazione, evento o comportamento, modificando il contesto o la cornice (frame) in cui viene percepito.
      • L’esempio più noto è la creazione di una mentalità safety first.
    • Il nudging è una tecnica comportamentale che mira a influenzare le decisioni delle persone in modo prevedibile, senza particolare persuasività o assertività.
      • Il modo più efficace è puntare sugli aspetti ergonomici.
  • Sistemi di supporto alla decisione: implementare sistemi che aiutino a ridurre la dipendenza dalle euristiche. In questo senso la tecnologia può aiutare sensibilmente.
  • Cultura della Sicurezza: promuovere una cultura aziendale che valorizzi la sicurezza psicologica e incoraggi il riconoscimento e la gestione dei bias.

Riflessione e proposta operativa

Gli esseri umani non sono solo la fonte di errori nei sistemi di sicurezza, ma spesso rappresentano la chiave per correggere i difetti tecnici e organizzativi. Con la giusta formazione e consapevolezza, possiamo trasformare i nostri limiti cognitivi in strumenti di vantaggio, migliorando la sicurezza e l’efficienza sul lavoro. Riconosciamo quindi il ruolo essenziale del fattore umano e lavoriamo per potenziarlo, creando ambienti di lavoro più sicuri e resilienti.

Investiamo sulle safeheuristics: si tratta dell’innovativa combinazione tra euristiche e sicurezza, ideata per guidare decisioni rapide ed efficaci in ambienti lavorativi complessi. Queste tecniche sfruttano scorciatoie mentali ben studiate per migliorare la consapevolezza e le pratiche di sicurezza, trasformando potenziali debolezze cognitive in vantaggi strategici. Con le safeheuristics, i lavoratori imparano a riconoscere e utilizzare i bias cognitivi in modo positivo, prevenendo incidenti e promuovendo un ambiente di lavoro sicuro e proattivo.

Una nuova mentalità può essere fondata su come la mente funziona!

Fonti: Puntosicuro.it, Andrea Cirincione (Psicologo del lavoro e delle organizzazioni)