Cultura della Safety e prassi di lavoro: suggerimenti per un’organizzazione resiliente








di Fabrizio Bracco – Pubblicato su ticonzero (apri l’articolo originale)

Ma come è possibile che un operaio esperto metta le mani nude su apparati in tensione? Come è possibile che un anestesista confonda adrenalina e atropina? Come è possibile che un controllore di volo non si accorga di aver messo due aerei in rotta di collisione? Queste tre storie sono (quasi) inventate, ma sono realistiche. Sono solo tre di migliaia di situazioni che ogni giorno si verificano nei luoghi di lavoro. L’enormità degli esiti ci porta a pensare che queste persone abbiano agito in modo scriteriato. Di fronte a questi incidenti la mente umana resta sgomenta e lo stupore lascia spazio solo al biasimo. Ecco perché è difficile analizzare questi eventi: la nostra mente non è preparata a gestire informazioni di questa portata. Abbiamo creato sistemi socio-tecnici complessi, ma il nostro cervello è lo stesso di chi dipingeva bufali nelle caverne e scopriva che il fuoco brucia.

1 – Ma come hanno potuto?

Era una giornata di grande carico di lavoro, gli operai entrarono in cabina elettrica in cerca del guasto, mentre gli utenti della zona protestavano per il disservizio. Il preposto cercò di individuare il guasto il più velocemente possibile, intervenne sui dispositivi senza le adeguate protezioni, non rispettando le procedure. Innescò un arco elettrico che lo uccise sul colpo. L’anestesista era immerso nei suoi pensieri durante l’operazione, tutto era nella norma mentre il chirurgo procedeva con l’intervento. La routine gli permetteva di dedicare i suoi pensieri a impegni accademici e professionali ben più pressanti. Poi qualcosa di inatteso accadde, il cuore del paziente andò in aritmia, l’anestesista abbandonò i suoi pensieri e somministrò per errore una fiala di adrenalina anziché atropina. Il paziente morì per arresto cardiaco. Il controllore di volo era in turno di notte, tutto era normale. Il collega si allontanò per riposare e il controllore lavorò su due schermi, come spesso accadeva in quella torre. Quella sera però erano in corso lavori di manutenzione sugli strumenti elettronici di avviso automatico, le cosiddette safety net (rete di sicurezza), che segnalano in tempo al controllore il potenziale conflitto di traffico. Intanto il traffico aereo aumentava, il controllore cercò allora di coordinarsi tra i due schermi ma così facendo perse la consapevolezza della posizione dei due aerei e non si accorse che erano entrati in rotta di collisione, diede loro indicazioni sbagliate che li portarono a scontrarsi in volo, provocando la morte di centinaia di persone. Ma come hanno potuto? Ma come è possibile che un operaio esperto metta le mani nude su apparati in tensione? Come è possibile che un anestesista confonda adrenalina e atropina? Come è possibile che un controllore di volo non si accorga di aver messo due aerei in rotta di collisione?
Queste tre storie sono (quasi) inventate, ma sono realistiche. Sono solo tre di migliaia di situazioni che ogni giorno si verificano nei luoghi di lavoro. L’enormità degli esiti ci porta a pensare che queste persone abbiano agito in modo scriteriato. Di fronte a questi incidenti la mente umana resta sgomenta e lo stupore lascia spazio solo al biasimo. Ecco perché è difficile analizzare questi eventi: la nostra mente non è preparata a gestire informazioni di questa portata. Abbiamo creato sistemi socio-tecnici complessi, ma il nostro cervello è lo stesso di chi dipingeva bufali nelle caverne e scopriva che il fuoco brucia. La mente è naturalmente predisposta a trattare eventi come quelli descritti sopra mettendo in atto meccanismi che se risultavano funzionali per accendere un fuoco, forse non lo sono più per gestire un sistema complesso. Bisogna cambiare occhiali, aprire la mente alla dimensione della complessità. Il rischio è quello di continuare a leggere gli eventi nei sistemi socio-tecnici odierni con gli stessi strumenti concettuali che si sono rivelati funzionali in passato. E allora, si sarebbe portati a pensare che, come una piccola fiamma brucia poco, e un grande incendio devasta foreste immense, allo stesso modo un grave incidente sarà procurato da azioni scellerate, un piccolo incidente sarà effetto di piccole distrazioni. Non è così. Questo ragionamento fallace si chiama simmetry bias, perché non è affatto vero che nei sistemi complessi effetti devastanti siano prodotti da grandi cause. L’effetto farfalla, tanto citato dai teorici della complessità, ci ricorda che basta un battito d’ali, un piccolo evento nel qui ed ora, per innescare reazioni imprevedibili con effetti enormi in altri tempi e altri luoghi. Basta una piccola distrazione e un anestesista di fama scambia adrenalina con atropina. L’errore cognitivo è piccolo, il suo effetto è mortale. Altro errore: se la fiamma brucia la capanna, accendere il fuoco è stato pericoloso, ma se la fiamma scalda l’ambiente e cuoce i cibi, il fuoco è un’invenzione rivoluzionaria. Allo stesso modo, se il tecnico della compagnia elettrica lavora con tale efficienza da risolvere il problema in fretta, sarà lodevole la sua solerzia per evitare disservizi all’utenza, ma se quella stessa fretta lo porta ad agire su parti in tensione e folgorarsi, quei comportamenti saranno visti come azzardati e irresponsabili. Questo ragionamento fallace è chiamato outcome bias, perché vincola il giudizio di gravità delle azioni alla gravità dei risultati: se la fretta porta a un lavoro veloce, è cosa buona, se porta ad infortuni, è negativa e pericolosa. Non è così, perché i comportamenti vanno valutati in base alla loro rischiosità, indipendentemente dall’esito contingente. Il fatto che a volte vada a finire bene, pur avendo corso rischi, non significa che andrà sempre così. Infine: è ovvio che se metto la mano sul fuoco allora mi brucio, così come era ovvio che il controllore, in quelle condizioni di lavoro, da solo e con radar rallentati, non avrebbe notato gli aerei in rotta di collisione. Questo è il terzo e forse più grave errore cognitivo che si può fare ragionando di comportamenti poco sicuri, si chiama hindsight bias, il senno di poi che rende ovvi gli eventi, ma solo dopo che sono accaduti. Ecco che a posteriori saremo pronti a giudicare come aberranti i comportamenti insicuri, perché noi sappiamo che hanno portato all’incidente, ma l’incidente è un fatto probabilistico e l’operatore non aveva la certezza degli esiti. Non è come il fuoco, che ogni volta che lo tocchiamo ci brucia la mano. Quante volte il controllore avrà gestito da solo due schermi, e tutto è andato bene? Rasmussen, uno dei padri dell’ergonomia cognitiva, disse che lo stupore che noi proviamo quando ci chiediamo “ma come hanno potuto?” non è misura della scelleratezza delle azioni incriminate, ma riflette la nostra lontananza da ciò che realmente pensavano gli operatori. Qui sta il problema: quando si trattava di gestire il fuoco, questi stili di pensiero erano funzionali, ma se dobbiamo gestire sistemi socio-tecnici complessi, siamo obbligati a cambiare impostazione mentale, pur contro le nostre naturali predisposizioni. Se continueremo ad adottare questi atteggiamenti, useremo vecchie strategie per nuovi tipi di problemi e saremo destinati al fallimento: sarebbe come mettere i fratelli Wright a pilotare un Airbus…Ecco quindi che tali atteggiamenti alimentano la cosiddetta blame culture, la visione personalistica degli incidenti, dove si cerca il colpevole, la mela marcia, con l’illusione/speranza che rimuovendo o punendo il “cattivo” il sistema resti sano, e che gli altri membri del sistema siano quindi i buoni, a rischio di essere corrotti dall’elemento deviante. La blame culture porta gli operatori a chiudersi, a proteggersi, a sviluppare cinismo, disfattismo, egoismo, a perdere il senso del loro lavoro, a sviluppare impotenza. In un sistema colpevolizzante, si genera la micidiale equazione “io ho sbagliato = io sono sbagliato”, cioè si passa dal comportamento alla persona. Nessuno sarà disposto a parlare dei propri errori, se questi saranno usati per screditare la persona nella sua globalità. Se l’operaio, l’anestesista e il controllore di volo potessero parlare, condividere le proprie esperienze con i colleghi, parlare dei propri errori, farebbero più sicurezza per sé e per gli altri. Perché è certo che i tre protagonisti delle storie, già altre volte prima dell’incidente avevano messo in atto gli stessi comportamenti e tramite il confronto con altre esperienze avrebbero potuto capire i fattori di rischio, agire in modo proattivo.
Questa è una cultura “giusta”, dove le persone si fidano dei colleghi, dove c’è valorizzazione delle reciproche competenze, dove se accade un incidente non ci si chiede “chi è stato”, ma “quali difese hanno fallito” e soprattutto “come possiamo fare per evitare che accada di nuovo”. In una cultura giusta gli errori sono informazione utile per creare apprendimento, sono la base per lo sviluppo e la sicurezza. Questo non significa evitare le sanzioni dovute a violazioni, perché se un operatore viola delle procedure di sicurezza potrà anche essere punito. Ma non ci si illuda che basti la sanzione per evitare che il comportamento accada di nuovo e, soprattutto, che aumenti la sicurezza del sistema. Potrebbe accadere che il comportamento punito in modo esemplare non sia ripetuto né dalla persona né dai colleghi, ma non è detto che questa cautela si estenda ad altri comportamenti non sicuri e violazioni. Per eliminare le violazioni servirebbe quindi una costante punizione di tutti i comportamenti devianti, in ottica comportamentista e riduzionista. È molto più produttivo sviluppare una cultura della sicurezza di tipo endogeno, che porti le persone a credere nella sicurezza come parte integrante del lavoro, e non come un rallentamento, un vincolo normativo, un comportamento messo in atto per evitare sanzioni, perché si è sotto controllo. La sanzione deve quindi essere accompagnata da strategie per capire le ragioni del comportamento deviante, senza giudicare, ma solo per bisogno di capire perché, per quell’operatore, era sensato agire in quel modo, violando le procedure. Occorre dare valore e fiducia agli operatori, farli sentire più attivi contributori per la sicurezza. Ma finché la sicurezza sarà vissuta dagli stessi preposti e ispettori come un vincolo, un setaccio con cui scremare i “buoni” dai “cattivi”, un binario entro cui stare per evitare conseguenze penali, una paranoica applicazione di regole per limitare la scelleratezza umana, continueremo il nostro volo sull’Airbus pilotato dai due fratelli inventori.

2 – Adottare gli occhiali giusti per vedere i segnali deboli

Abbiamo detto che i sistemi socio-tecnici complessi seguono dinamiche e hanno proprietà che non sono gestibili con modelli mentali “primitivi”. Ma quali sono queste proprietà? Prima di tutto sono composti da diversi livelli, sono stratificati e le interazioni all’interno dei livelli e tra livelli diversi sono molteplici e a volte imprevedibili. Ciò che vede un livello (ad esempio, il management), potrebbe non essere visto, conosciuto, dai livelli inferiori (gli operativi), e viceversa. Spesso c’è differenza tra il lavoro per come viene pensato e progettato a un livello e il lavoro per come viene effettivamente svolto a un altro livello. Spesso chi pianifica le procedure non coglie tutti gli effetti di tali regole, non sa come e quanto saranno applicate, né se siano realmente applicabili. Anche le procedure per la sicurezza, se pensate lontano dal lavoro effettivo, sono controproducenti e rischiose. Eccoci quindi alla seconda proprietà dei sistemi complessi: l’imprevedibilità degli effetti dovuti a interazioni tra elementi interni ed esterni. Se le procedure bastassero ad esaurire la gamma di possibili situazioni che si possono generare durante il lavoro, basterebbe rinforzare un apprendimento meccanico o, anche meglio, sostituire le persone con delle macchine. Ma pochi di noi volerebbero su un aereo condotto dal solo pilota automatico perché, per quanto fallibile, l’essere umano sa gestire l’inatteso. E l’imprevedibilità è frequente nei sistemi complessi. Facciamo un esempio per spiegare le caratteristiche di livelli molteplici e imprevedibilità. Una centrale di produzione di energia elettrica riceve l’ordine di modificare il piano di controllo degli estintori. Il dirigente, dalla sede centrale, ritiene che le verifiche trimestrali siano troppo dilazionate nel tempo e per maggiore sicurezza dirama una direttiva di controllo mensile degli impianti antincendio. La notizia arriva agli operativi, i quali accolgono di malumore la notizia, perché devono aumentare la mole di lavoro, senza modificare le altre attività. D’altro canto, il direttore della centrale aveva già segnalato la carenza di personale e il problema dei carichi di lavoro, ma chi ha emanato la direttiva non aveva immaginato l’impatto di un piccolo provvedimento di sicurezza. Siamo di fronte al fatto che chi pianifica il lavoro e le attività è lontano, distante diversi livelli rispetto a chi poi dovrà applicare quelle attività. Non è facile immaginare le ripercussioni, se non giungono informazioni di ritorno dalla base operativa. Succede allora che il personale si adatta alla nuova direttiva ma controlla gli estintori con maggiore fretta e superficialità, perché ritiene che ci siano altre cose più urgenti da sbrigare e comunque eventuali anomalie agli impianti antincendio si potranno scoprire al prossimo ravvicinato controllo. Ecco quindi che un provvedimento di sicurezza, teoricamente ineccepibile, possa avere effetti imprevedibili che vanno a ridurre proprio la sicurezza stessa. L’unica soluzione per gestire queste caratteristiche dei sistemi complessi, molteplicità di livelli e imprevedibilità, è l’orientamento verso una reporting culture, una cultura della libera condivisione. Gli operatori front-line sono i veri sensori dei segnali deboli, delle anomalie, della deriva verso l’incidente. Sviluppare una cultura “giusta”, dove si stimola il reporting di situazioni di rischio, è l’unico modo per sviluppare la resilienza, ossia la capacità di ascoltare i segnali deboli e di dare risposte forti e proattive, per evitare di continuare la deriva verso l’incidente. Come già illustrato in altri contributi su questa rivista, la resilienza è una delle ultime proposte che sono state sviluppate dalla ricerca per aumentare la sicurezza dei sistemi complessi. Hollnagel, uno dei padri di questo concetto, la definisce come la capacità di un sistema di imparare dall’esperienza, di essere flessibile e aperto alla condivisione delle informazioni, di essere capace di dare risposte forti in caso di emergenza, senza perdere i propri obiettivi (Hollnagel, Woods e Leveson, 2006). Alcuni possono pensare che sono ottimi principi, ma che sono talmente ideali da restare confinati nelle discussioni accademiche, privi di applicabilità concreta. Non nego che sia difficile calare nella realtà operativa queste “belle parole” e, a maggior ragione, nel contesto culturale italiano, dove una forma diffusa di cultura della colpa, mista a burocratismi, inefficienze e rigidità, non costituiscono certo il terreno ideale per lo sviluppo di questi nuovi paradigmi. Però posso dire che, per quella che è stata la mia esperienza di consulenza sulla sicurezza, è possibile mettere piccoli semi in un terreno ben dissodato e col tempo qualche frutto nasce. I piccoli semi sono i principi della resilienza, ma adattati al contesto italiano, adattati alla nostra cultura e alle nostre prassi lavorative. Sono quegli stessi concetti che hanno tratto ispirazione dalle teorie della complessità ma che non devono essere astrusi modelli, complicati piuttosto che complessi. Devono essere modelli facili da capire, chiari da rappresentare, veloci da applicare. E il terreno deve essere ben dissodato, ossia ci vuole fiducia dei lavoratori, e impegno dei dirigenti. Senza le due cose insieme non attecchisce nulla di buono. Se i lavoratori non colgono l’utilità del progetto e non ne vedono la diretta implicazione nel miglioramento della sicurezza e del benessere, se lo sentono come qualcosa di calato dall’alto, non avranno orecchie per ascoltare. Se i dirigenti non sono i primi a sostenere questo approccio, a crederci, i lavoratori saranno solo frustrati dall’aver acquisito nuove competenze e maggior consapevolezza dei rischi, ma saranno annichiliti dalle vecchie logiche di organizzazione del lavoro. Un modello semplice ed efficace che, per quella che è la mia esperienza, ha dato buoni frutti, è quello che visualizza la resilienza di individui e organizzazione come un ciclo ispirato al modello Skill-Rule-Knowledge di Rasmussen (Rasmussen, 1983). Rimando ad altre pubblicazioni per la spiegazione dettagliata di questo modello (Bracco, 2007; Bracco, Gianatti e Pisano, 2008, Bracco, Bruno e Sossai, 2011), mi limito qui ad illustrarlo nella sua forma generale: un ciclo dove il lavoratore è il primo attore ad intervenire. Egli è in grado di vedere i segnali deboli, le anomalie sul lavoro, le irregolarità, i fattori di rischio per salute e benessere. Deve essere in grado di fare il proprio lavoro, ma anche di notare queste anomalie, di capirle e poterle condividere. Questa è la prima parte del ciclo: l’apertura mentale dei lavoratori nel notare segnali deboli. Per avere questa apertura mentale devono essere formati all’automonitoraggio, alla consapevolezza dei propri processi di pensiero, alla percezione del rischio. Devono vivere il lavoro senza malessere. Se i lavoratori stanno male, non gli si può chiedere apertura, perché dedicheranno le proprie risorse mentali alla gestione del problema che li affligge, non certo a notare segnali deboli. Se una persona sta male, preferisce dare attenzione a un dolore certo, piuttosto che a un rischio ipotetico. Una volta che l’operatore ha notato i segnali deboli, deve poterli comunicare e condividere, perché altrimenti si sente abbandonato nel farsi carico di tali anomalie e sviluppa disfattismo e impotenza. Tante volte mi è successo di sentire racconti di operatori che mi riportavano situazioni di rischio, con il sorriso amaro e cinico dato dal fatto che “tanto le cose non cambieranno mai”. Queste anomalie allora diventano i compagni quotidiani del lavoro, diventano gli ostacoli alla sicurezza e al benessere. Se un lavoratore nota questi segnali deboli deve quindi essere messo nelle condizioni di chiudere il ciclo. Perché l’operatore da solo non può rimuovere le anomalie e i fattori di rischio. Spesso è necessaria una visione d’insieme che solo i dirigenti possono avere, sono presenti vincoli (e risorse) che non sono noti al lavoratore e che richiedono una organizzazione del lavoro concertata dall’alto. Il ciclo della resilienza allora si chiude dando modi, spazi e tempi opportuni per far circolare le informazioni, raccogliere le anomalie e farle condividere con altri. Qui è necessario saper ascoltare senza giudicare, cogliendo quanto viene detto come un atto di fiducia del lavoratore e non come una autodenuncia. Anche la terminologia andrebbe cambiata, non esistono errori e violazioni, termini che implicano colpa, ma varietà di comportamenti. Quello che è importante sapere dai lavoratori è perché per loro era sensato agire come hanno agito (sbagliando o violando le procedure), quali condizioni ambientali li hanno portati ad agire in quel modo. A livello di team e di comunicazione c’erano fattori predisponenti? E l’interazione con gli strumenti era motivo di errore? Le procedure erano chiare? Gli ambienti facilitavano errori o violazioni? A questo punto è il sistema (dirigenti e lavoratori) che si prende in carico la gestione dei segnali deboli, si individuano le figure che si faranno carico delle soluzioni e i tempi per la loro realizzazione. Se le nuove soluzioni saranno efficaci passeranno lentamente nella routine operativa quotidiana e il sistema sarà stato “immunizzato” rispetto a quel fattore di rischio. Ciò non significa che non vi siano altri fattori di rischio, infatti il ciclo deve riprendere e i lavoratori saranno portatori di nuove informazioni. Questo circolo virtuoso della resilienza si può sviluppare solo se prima di tutto si tutelano benessere dei lavoratori, fiducia reciproca, condivisione, valorizzazione delle competenze, senso di responsabilità individuale e collettiva, capacità di controllo, autoefficacia, fiducia nel futuro e aspettative che i propri sforzi porteranno a risultati. Questi ingredienti produrranno nelle persone un atteggiamento mentale aperto ai segnali deboli. I lavoratori non saranno meri esecutori di procedure, saranno sensori di segnali deboli. Anche il management dovrà agire di conseguenza, al suo livello si noteranno diversi tipi di segnali deboli, anche i dirigenti devono potersi fidare, comunicare, pensare in modo proattivo. Il reporting da parte degli operatori va inoltre sostenuto e deve dare origine a risposte veloci e coerenti da parte del management. Se gli operatori si aprono alla fiducia e riportano errori, violazioni, anomalie, ma poi nulla accade, questo sarà il maggior disincentivo al reporting e l’operatore svilupperà amarezza, cinismo, disfattismo. Sviluppare la cultura del reporting non significa semplicemente trasferire nei lavoratori nuovi contenuti, nuove abitudini, imporre loro nuovi occhiali, essa implica che tutto il sistema decida di cambiare, per dare finalmente soluzioni complesse a problemi complessi.

Promoting safety through resilient organization managers: Different ways of being resilient

Abstract: Recent views about safety and human factors suggest the major challenge for current theories, models and frameworks is to handle what Weick and Sutcliffe (2007) correctly defined as “dynamic non-events”. This led researchers to develop a new way to think about system safety: resilience. According to Hollnagel et al. (2011), “A system is resilient if it can adjust its functioning prior to, during, or following events (changes, disturbances, and opportunities), and thereby sustain required operations under both expected and unexpected conditions.”
The main ingredient for resilience is, in our view, the capacity to notice, communicate and manage weak signals, before they transform themselves into strong and negative outcomes.
This ability requires the capacity of front-line operators to notice anomalous situations, to foresee possible outcomes of behaviors that are “normally deviant”, to understand the coupling between procedures, technology and organization, and how they could bias operators behavior. In addition, it requires the operators to be able to communicate these weak signals, which can only be enabled within a just and fair culture (Dekker, 2012) and the adequate organizational background capable of managing these reported issues and of learning from them.

Bracco, F., Brunel, C., Piccinno, T. F., Sedaoui, A., & Tazi, D. (2015). Promoting safety through resilient organization managers: Different ways of being resilient. Presentation at the 3rd SAF€RA Symposium, Paris, France, 9th-10th February. PDF

 

Imparare dagli errori, la cultura giusta

Ogni attività organizzativa è caratterizzata da una probabilità di errore. Questo può essere dovuto a una scorretta interpretazione di una situazione, a una difficoltosa interazione tra le persone o a un cattivo accoppiamento tra la tecnologia e gli operatori; perfino quando ogni individuo del sistema opera correttamente, non si può escludere l’eventualità di un evento avverso. Dalla continua ricerca dell’efficienza nascono tecniche e metodi che consentono di misurare l’errore, al fine di ottenere processi e prodotti più sicuri. Queste tecniche e metodi sono basate su analisi di eventi “pericolati” (near miss), ovvero di tutte quelle situazioni critiche e potenzialmente dannose che non hanno causato danni, ma erano assolutamente in grado di provocarne e per le quali l’unica differenza con un incidente è solo nelle conseguenze e non nelle dinamiche che l’hanno generato. L’approccio non colpevolizzante, detto Cultura Giusta (Just Culture) si differenzia dagli altri metodi per l’esplicita considerazione dell’ambiente sistemico in cui l’errore avviene, ambiente che include individui, tecnologie, processi e cultura. Partendo da questa visione dell’ambiente, esso mira a non colpevolizzare l’errore, superando una logica di tipo “colpa dell’operatore”, al fine di sviluppare un apprendimento collettivo che porti ad una maggiore consapevo lezza e sicurezza futura. Questo è un approccio organizzativo fondato su una concezione “positiva” dell’errore, visto come un’opportunità di apprendimento; resta inteso comunque che molti tipi di errore rimangono inaccettabili e vengono sanzionati, anche più pesantemente in certi casi, se dovuti ad esempio a violazioni volontarie, negligenza, imprudenza o imperizia, come vedremo di seguito. Questo articolo presenta l’approccio della Cultura Giusta valutandone le possibilità di apprendimento e le caratteristiche organizzative che sono necessarie per la sua adozione, anche alla luce dell’emanazione da parte europea del Regolamento 376/2014 valido per l’aviazione civile ma chiaramente d’indirizzo per tutto il comparto dei trasporti.

Trespidi, A., Genovesi, P., Piccinno, T. & Bracco, F. (2015). Imparare dagli errori, la cultura giusta. La tecnica Professionale, 9. PDF

Turning Variability into Emergent Safety: the Resilience Matrix for Providing Strong Responses to Weak Signals

Abstract: Resilience is the ability to provide strong responses to weak signals. Weak signals are uncertain information that could be read as a warning of future changes, both mishaps and opportunities. They could be the first symptoms of a big change, but they are embedded in a variability that is hidden in normal operations and difficult to distinguish from random occurrences. We propose a model, the Resilience Matrix, which could help systems cope with these weak and potentially resonant signals by means of a cyclic information transfer along the system. Frontline operators should be able to notice weak signals, understanding how the current variability is a threat that is not mitigated by available procedures and barriers. This information should be shared and managed at the group level and then, if necessary, it should be transferred at the organizational level, where procedures and barriers should be formally redesigned according to the new information. These procedures should then be tested for their effectiveness at the group level and transferred as new skills for operators by means of training. This cycle is aimed at empowering people, groups and organizations, helping them to turn variability into a source for resilience.

Bracco, F., Piccinno, T., & Dorigatti, G. (2013). Turning Variability into Emergent Safety: the Resilience Matrix for Providing Strong Responses to Weak Signals.  In proceedings of the 5th Resilience Engineering Symposium, Soesterberg (The Netherlands),  25th-27th July.  PDF

Gestire la crisi con lo sviluppo delle competenze non tecniche sul lavoro: una proposta programmatica e un caso di studio

La crisi economica in corso ha interessato la maggior parte dei settori produttivi in Italia, sia nel pubblico, sia nel privato. Gli effetti più evidenti, per i lavoratori, sono stati la contrazione delle risorse disponibili, da un lato, e la richiesta di aumentare qualità e produttività, dall’altro. Tali richieste sono state vissute come contraddittorie e hanno spesso generato senso di impotenza, frustrazione, cinismo e disfattismo (Seligman, e Maier, 1967). Di fronte a questo diffuso malessere psicologico nei luoghi di lavoro, la dirigenza ha spesso adottato un’impostazione ancora più autoritaria e rigida, sollecitando i lavoratori all’ottimizzazione delle competenze tecniche. I risultati sono spesso deludenti e si assiste a un crescente ritiro motivazionale, un impoverimento emotivo e relazionale, compromettendo ulteriormente la qualità del lavoro e la produttività, in un circolo vizioso senza uscita. Questo intervento vuole mostrare come lo sviluppo delle cosiddette “competenze non tecniche” (Flinn et al. 2008) sia la strategia più efficace per avviare un’inversione di tendenza. Tali competenze (non specifiche dell’attività professionale) fanno appello a variabili di tipo piscologico quali: capacità di gestione dello stress, comunicazione, lavoro di gruppo, leadership, decisione e soluzione di problemi condivisa, visione prospettica sulla situazione. Si presenterà un caso di studio, un progetto di ricerca/azione presso un dipartimento ospedaliero, dove la crisi economica ha provocato accorpamenti di strutture, fusione di gruppi di lavoro, metodi, culture (Modafferi et al., 2014). Per la gestione di sintomi come burnout, stress, cinismo, è stata realizzata una formazione ispirata allo sviluppo delle tre condizioni rogersiane (Gordon, 2005). I partecipanti hanno compilato prima della formazione e dopo 6 mesi una batteria di questionari indaganti coping, resilienza, intelligenza emotiva, burnout, personalità, benessere e stress. È stato calcolato il Reliability Change Index (RCI) in ogni partecipante per ogni variabile ed è stata condotta un’analisi dei cluster per individuare dei profili prototipici di cambiamento, al netto della mancanza di differenze iniziali sulle variabili nei partecipanti. I risultati documentano un generale effetto positivo di tale intervento su due terzi del campione, dove si evidenzia un cambiamento positivo nelle misure di resilienza individuale, di strategie attive di soluzione dei problemi e nelle misure di burnout, in particolare un aumento del senso di realizzazione personale nel proprio lavoro. I risultati evidenziano come la resilienza del sistema richieda la tutela della resilienza di gruppi e lavoratori, favorita dallo sviluppo di competenze non tecniche che aiutino le persone a dare un senso al loro lavoro, a sentirsi membri di un gruppo, a stimolare una motivazione intrinseca per superare ostacoli e gestire fatiche (Magrin, 2008).

Bracco, F., Modafferi, C., & Belgrano, G.A. (2014). Gestire la crisi con lo sviluppo delle competenze non tecniche sul lavoro: una proposta programmatica e un caso di studio. Comunicazione presentata al Convegno Nazionale Associazione Europea della Psicoterapia Centrata sul Cliente e dell’Approccio Centrato sulla Persona, Firenze, 24-25 maggio. PDF

Burnout nello sport giovanile: effetti della resilienza, perfezionismo e clima motivazionale determinato dagli allenatori

Questo studio esamina alcuni fattori personali (percezione di competenza, resilienza e perfezionismo) ed un fattore situazionale (clima motivazionale determinato dagli allenatori) in relazione al burnout di giovani atleti liguri praticanti sport individuali e di squadra. Lo studio evidenzia come il perfezionismo auto-orientato mostra una correlazione negativa con le tre dimensioni del burnout (esaurimento psico-fisico, ridotto senso di realizzazione personale e svalorizzazione dello sport), mentre la resilienza sembra essere un fattore protettivo solo del ridotto senso di realizzazione personale. I risultati mostrano come le tre dimensioni del burnout si correlano positivamente con il clima motivazionale orientato sulla prestazione e negativamente con il clima motivazionale orientato sulla competenza. I risultati, dunque, mostrano come gli allenatori dovrebbero creare un clima motivazionale orientato sulla competenza per prevenire il burnout dei propri atleti.

Scimone, V, Chiorri, C., Modafferi, C., Bracco, F., Vitali, F. (2014). Burnout nello sport giovanile: effetti della resilienza, perfezionismo e clima motivazionale determinato dagli allenatori. Giornale Italiano di Psicologia dello Sport, 21, 23-30. Link

Promuovere la sicurezza. La gestione dei rischi nelle organizzazioni complesse.

Abstract: Gli odierni sistemi sociotecnici sono caratterizzati da profonde e talvolta ignote connessioni tra elemento umano, tecnologia e organizzazione. Si tratta di organismi complessi, e complessi sono anche gli incidenti che possono riguardarli. Siamo stati molto abili nel progettare sistemi che però non riusciamo a comprendere e gestire in modo sicuro. Rischiamo di adottare modelli e strumenti di gestione dei rischi ormai antiquati, non più adatti alla realtà attuale. Servono quindi nuovi occhiali per guardare alla sicurezza. Occorre un linguaggio innovativo, centrato sul lavoratore e sul lavoro per come viene vissuto ed effettivamente svolto, condotto da persone che cercano di dare un senso a ciò che fanno, raccogliendo informazioni sparse in un ambiente dinamico, fatto di vincoli e incertezze. Il libro vuole fornire una proposta operativa per favorire questo cambiamento, interpretando la sicurezza come un processo e non come uno stato. La sicurezza di un sistema non si ottiene come risultato di una procedura, ma si promuove conoscendo le persone che vi lavorano, comprendendo come interagiscono e come ragionano quando sono immerse nella complessità dei loro contesti operativi.

Bracco, F. (2013). Promuovere la sicurezza. La gestione dei rischi nelle organizzazioni complesse. Roma: Carocci.

Favorire il cambiamento nelle organizzazioni: una rivoluzione silenziosa

La psicologia del lavoro si sta progressivamente spostando da una visione reificata dell’organizzazione, come una entità separata dalle persone, a una visione dinamica, dove la differenza tra livello individuale e livello organizzativo si fa più sfumata: non esiste l’organizzazione ma l’organizzare, ossia l’azione complessa e sinergica di persone, regole e ambienti. Questo cambiamento di prospettiva permette di ripensare gli interventi sulla promozione della salute, della sicurezza e del benessere. Finora, uno dei limiti della visione dualista del sistema (persona versus organizzazione) era dovuto al fatto che spesso le ragioni del malessere delle persone erano riconducibili all’organizzazione e quindi si finiva con il ritenere che il problema provenisse da quell’altrove non meglio specificato. Ciò portava solo all’aumento del malessere, del cinismo organizzativo e dell’impotenza appresa, perché l’organizzazione finiva per essere un comodo fantasma su cui scaricare responsabilità. Ma in quanto fantasma, l’organizzazione era un’entità da cui ci si attendeva invano un cambiamento, quando invece il cambiamento proviene dalle persone e solo da loro. La prospettiva unitaria e complessa, di persone che organizzano, porta a dare potere di azione agli individui e ai gruppi, a renderli consapevoli delle dinamiche, delle procedure e delle prassi. Proprio in questa nuova prospettiva, riportiamo esperienze in cui abbiamo cercato di sfatare questo fantasma dell’organizzazione, portando l’approccio rogersiano nel modo di stare con le persone e nel modo di costruire relazioni più efficaci e autentiche sui luoghi di lavoro. L’Approccio Centrato sulla Persona, per definizione, sposta l’accento dall’organizzazione alle persone, ognuno si sente ascoltato e impara ad ascoltarsi, ad ascoltare. È un cambiamento scomodo, lungo e silenzioso. È un cambiamento che porta al potere personale di ognuno di fare qualcosa per il benessere e la salute propria e degli altri.

Bracco, F., & Belgrano, G. (2012). Favorire il cambiamento nelle organizzazioni: una rivoluzione silenziosa. Presentazione al Congresso Nazionale dell’Istituto dell’Approccio Centrato sulla Persona, Messina, 15-17 giugno 2012. PDF

Improving resilience through practitioners’ well-being: an experience in Italian health-care

Abstract: Building and maintaining resilience in health care requires psychological and organizational attitudes that could be affected by the lack of worker well-being. Resilience requires the ability to give strong responses to weak signals, but, if well-being is threatened, workers are more committed to defend it, than detecting and monitoring weak signals in foresight. Malaise is a weak signal itself that, as well as leading to accidents due to fatigue, miscommunication, distraction, etc., blocks operators at a resource-saving cognitive level that prevents noticing and reporting further weak signals. We adopted the Skill-Rule-Knowledge model by Rasmussen as a framework to conceive resilience as continuous movement of workers along the three steps of the ladder. According to this model, we describe a research-intervention project carried out in a few Italian hospitals where trainees were enabled to develop a tool for detecting and monitoring malaise and threats to safety. Its potentials for reducing effects like distrust, resignation, cynicism, helplessness are discussed in light of a well-being-based resilience engineering.

Bracco, F., Bruno, A., & Sossai, D. (2011). Improving resilience through practitioners’ well-being: an experience in Italian health-care. In E., Hollnagel, E., Rigaud, & D., Besnard (eds.). Proceedings of the Fourth Symposium on Resilience Engineering, (pp. 43-49). Paris: Presses des Mines. PDF

Benessere e sicurezza sul lavoro: l’Approccio Centrato sulla Persona come modello di intervento nei sistemi socio-tecnici complessi

Il benessere nei luoghi di lavoro può essere considerato una proprietà emergente che deriva dalle interazioni complesse tra le dimensioni del sistema organizzativo: il suo presidio rappresenta una risorsa individuale e organizzativa per la gestione dei processi produttivi (Kaneklin, Scaratti, 2010; Avallone, Paplomatas, 2005), per sostenere la qualità del servizio offerto e la qualità della vita organizzativa (sia per gli erogatori che per i fruitori del servizio stesso). In particolare, il monitoraggio delle criticità entro il sistema, utilizzato in ottica di apprendimento, favorisce la resilienza del sistema organizzazione e, di conseguenza, la sua flessibilità nella gestione di fattori perturbanti (Weick, Sutcliffe, 2007; Hollnagel et al., 2006; Reason, 2008). La domanda: “come favorire le condizioni per singoli e gruppi affinché si possano monitorare/usare le criticità?” è alla base di un progetto finanziato dalla Regione Liguria, commissionato al nostro Dipartimento, per favorire la tutela del benessere e della sicurezza in sala operatoria, che ha visto la partecipazione di 4 aziende ospedaliere e 2 ASL disseminate su tutto il territorio ligure. L’intervento ha voluto coniugare l’attenzione alla dimensione culturale con quella delle pratiche professionali. In particolare, gli obiettivi sono stati: sviluppare pratiche professionali riflessive per la mappatura dei rischi psicosociali presenti nei contesti organizzativi; sostenere l’apprendimento dall’esperienza per progettare strategie migliorative; valorizzare il potere d’azione degli operatori. Inoltre, vi è stato un obiettivo di disseminazione, attraverso la diffusione delle azioni di intervento intraprese, per sostenere le competenze di ricerca proprie di ogni servizio, nell’ottica di costruzione di un osservatorio permanente regionale sui temi della sicurezza psicosociale e del benessere organizzativo in ambito sanitario. Si è scelto di utilizzare la metodologia della ricerca-formazione. Il percorso si è articolato, nel periodo di un anno (2010 – 2011), su 2 livelli: uno ristretto di progettazione partecipata (30 partecipanti), uno allargato (60 partecipanti) di osservazione degli esiti costruiti. Gli esiti sono differenziati: 1) costruzione di uno strumento di monitoraggio delle criticità in sala operatoria, strumento modellato dai partecipanti sulle proprie esigenze e di cui hanno percepito l’utilità e soprattutto la gestibilità. Consta di 3 fasi che esplicitano il processo di costruzione dell’oggetto di lavoro a partire dalla rilevazione del problema: analisi della criticità; problem setting e analisi del processo decisionale di implementazione azioni migliorative; monitoraggio azione intrapresa. 2) Riflessioni sulle condizioni di utilizzo dello strumento, offerte dal confronto tra contesti (ASL vs struttura opedaliera) e tra ruoli dei proponenti (RSPP vs coordinatore). 3) Primi dati su percezione criticità rilevanti in sala operatoria e implementazione strategie migliorative. 4) Condivisione e progettazione buone pratiche per il monitoraggio della sicurezza e del benessere organizzativo attraverso evento pubblico con la partecipazione di interlocutori isituzionali (assessorato sanità, direzione sanitaria, RSPP, rappresentanti di categoria) e del mondo della formazione accademica. Per queste caratteristiche (molteplicità contesti sanitari partecipanti, diffusione sul territorio, presenza differenti professionalità – infermieri, anestesisti, chirurghi, RSPP) gli esiti del progetto rappresentano prime linee guida per la progettazione di un osservatorio sulla rilevazione e utilizzo delle criticità in ambito sanitario.

Bracco, F., & Belgrano, G.A. (2010). Benessere e sicurezza sul lavoro: l’Approccio Centrato sulla Persona come modello di intervento nei sistemi socio-tecnici complessi. Presentato al 9th World Conference for Person-Centered and Experiential Psychotherapy and Counseling, Rome, 30° June, 4° July. PDF