La morte di Domenico e le tante domande che dobbiamo farci al di là della cronaca
Paolo Benini.
Ho seguito la vicenda del bambino Domenico deceduto a Napoli, a seguito di una vicenda che definisco tragica e surreale. Domenico muore dopo il trapianto di cuore che doveva farlo vivere. Prima di tutto sono colpito per ragioni umane. Quando muore un bambino il pensiero non resta neutro, e sarebbe strano il contrario. Ma nel mio caso, oltre alla reazione emotiva, si è attivato anche un altro riflesso professionale. Chi lavora da anni sulla psicologia della prestazione e sui processi decisionali nei contesti ad alta responsabilità non riesce a fermarsi alla sola indignazione o al dolore. Scatta quasi automaticamente il bisogno di capire come sia possibile che una sequenza di azioni pensate per salvare una vita si trasformi, invece in una catastrofe. Le ricostruzioni giornalistiche parlano di un cuore che durante il trasporto avrebbe subito un danno legato alla temperatura, probabilmente a causa dell’aggiunta di ghiaccio secco. Naturalmente saranno le indagini a stabilire cosa sia davvero accaduto. Tuttavia già da queste informazioni emerge un quadro che la letteratura scientifica sugli errori conosce molto bene. Le tragedie raramente nascono da un singolo errore isolato.
Nascono quasi sempre da una catena. Piccole decisioni, piccoli passaggi, piccole interpretazioni che prese singolarmente sembrano innocue ma che, allineandosi, producono un esito irreversibile. Immaginiamo la scena più banale possibile all’interno di una procedura estremamente sofisticata. Qualcuno decide di aggiungere ghiaccio per mantenere stabile la temperatura dell’organo. È un gesto che, nel contesto mentale dell’operatore, può apparire perfettamente coerente con l’obiettivo della procedura. Ed è qui che entrano in gioco domande che non servono ad accusare ma a capire. In che condizioni cognitive si trovava quella persona? Quante ore aveva lavorato? Che tipo di pressione stava vivendo? Il protocollo in quel momento era pienamente presente nella sua mente oppure stava operando in modalità automatica? E soprattutto: oltre a conoscere teoricamente la differenza tra ghiaccio normale e ghiaccio secco, si è reso conto davvero di star maneggiando ghiaccio secco?
A chi osserva dall’esterno può sembrare impossibile che un professionista non distingua una cosa dall’altra. Ma la psicologia cognitiva insegna che tra il possesso di una conoscenza e il suo utilizzo corretto in una situazione operativa esiste una distanza significativa. Il cervello umano non analizza ogni stimolo da zero. Classifica rapidamente ciò che vede sulla base dell’obiettivo dominante. Se l’obiettivo mentale è “serve ghiaccio”, il sistema percettivo può registrare semplicemente la categoria generale “ghiaccio” senza attivare un controllo analitico più profondo. Questo fenomeno diventa ancora più probabile quando entrano in gioco pressione temporale, fatica e routine operativa. Nei contesti di lavoro complessi la mente cerca continuamente di risparmiare energia cognitiva. Le procedure ripetute centinaia di volte diventano automatismi. Questo è normalmente un vantaggio perché consente di lavorare con efficienza.
Tuttavia proprio l’automatismo riduce la probabilità che ogni passaggio venga riesaminato con piena attenzione consapevole. Dopo molte ore di lavoro il cervello tende inoltre a semplificare ulteriormente le decisioni. Non perché le persone siano irresponsabili o incompetenti, ma perché il funzionamento della mente umana è vincolato a limiti biologici precisi. A questo punto la sequenza degli eventi continua e si entra nel cuore della medicina dei trapianti. Quando un organo arriva in ospedale pare esistere una finestra temporale molto ristretta entro cui intervenire. Il tempo biologico non concede margini. L’équipe sa che ogni minuto conta. Se un cuore è arrivato e sembra idoneo, si procede rapidamente con l’espianto del cuore malato per preparare l’impianto del nuovo. È una corsa contro il tempo che modifica inevitabilmente il modo in cui le persone percepiscono e valutano le informazioni.
C’è però un elemento che nelle ricostruzioni giornalistiche colpisce in modo particolare e che merita una riflessione ulteriore. Il bambino, pur affetto da una patologia cardiaca seria, sembrerebbe essere riuscito fino a quel momento a condurre una vita relativamente stabile, quasi normale. Non si trovava cioè in una condizione di collasso imminente nel giro di pochi minuti. Questo non cambia la gravità della malattia né la necessità del trapianto, ma introduce una domanda importante sulla sequenza temporale delle decisioni. Nel momento in cui si procede con l’espianto del cuore malato il processo diventa di fatto irreversibile. Da quell’istante non esiste più la possibilità di fermarsi e attendere ulteriori verifiche sull’organo in arrivo. L’équipe deve necessariamente proseguire. Se le ricostruzioni saranno confermate, potrebbe essere accaduto proprio questo: il cuore nuovo viene dato per idoneo, si procede con l’espianto e solo successivamente emerge che qualcosa non va nella conservazione dell’organo. A quel punto però il sistema è già oltre il punto di ritorno. Questa fase, che probabilmente si gioca non su ore ma su pochi minuti, è esattamente il tipo di snodo che nei sistemi complessi diventa decisivo. Una conferma verbale, una verifica non ancora completata, una fiducia implicita nella procedura. Piccoli passaggi che normalmente funzionano ma che in quella circostanza si allineano nel modo peggiore possibile.
Il risultato è che l’organo danneggiato viene comunque impiantato perché il cuore originario non c’è più. In questo senso diventa ancora più significativo ciò che è emerso dalle cronache riguardo alla comunicazione in sala operatoria. Si è detto che il chirurgo abbia chiesto se il cuore fosse idoneo e che lo staff abbia risposto affermativamente. Successivamente, nelle prime verifiche, sembrerebbe che quella risposta così netta non sia stata pronunciata in modo così chiaro. Non sappiamo ancora quale sia la ricostruzione corretta, ma la questione apre un problema molto più generale. È possibile che in una procedura di questa importanza la conferma finale si basi su uno scambio verbale così semplice? I sistemi ad altissima affidabilità cercano proprio di evitare ambiguità di questo tipo. La comunicazione informale è una delle principali fonti di errore nelle organizzazioni complesse. Non perché le persone mentano, ma perché memoria, percezione e interpretazione cambiano profondamente quando si opera sotto pressione. È noto, per esempio, che in condizioni di forte tensione decisionale le persone tendano a sentire ciò che si aspettano di sentire. Se l’équipe è mentalmente orientata verso l’intervento, una risposta incerta può essere percepita come una conferma. Questo fenomeno è stato studiato in molti contesti critici. La tentazione, a questo punto, è immaginare che basti introdurre nuovi controlli per eliminare il problema.
Tuttavia anche qui la realtà è più complessa. Ogni nuovo passaggio di verifica aumenta teoricamente la sicurezza ma aumenta anche la complessità del sistema. E ogni aumento di complessità introduce nuove possibilità di errore. Charles Perrow ha descritto questo paradosso mostrando come nei sistemi altamente interconnessi alcune sequenze di incidente diventino strutturalmente possibili. C’è poi un ulteriore aspetto psicologico che merita attenzione. In molti contesti medici altamente specializzati alcune procedure diventano, dal punto di vista tecnico, relativamente standardizzate. L’impianto di un cuore, paradossalmente, viene talvolta descritto come un intervento tecnicamente “semplice” per un’équipe esperta. Naturalmente semplice in senso relativo. Ma proprio questa familiarità può produrre un effetto psicologico particolare: l’abbassamento implicito della soglia di allerta. Quando un’attività viene eseguita molte volte con successo, il cervello tende a percepirla come controllabile. È un fenomeno noto nella sicurezza organizzativa. La mente riduce il livello di vigilanza perché l’esperienza passata suggerisce che tutto andrà come previsto. Il problema è che in attività con conseguenze estreme anche un singolo errore ha un peso enorme. La psicologia della prestazione osserva dinamiche simili anche nello sport di altissimo livello. Un gesto può diventare automatico dopo migliaia di ripetizioni, ma proprio per questo basta una minima distrazione per produrre un errore decisivo.
Nello sport l’errore costa una gara. In medicina può costare una vita. Di fronte a tragedie come questa la reazione più immediata è cercare un responsabile singolo. È comprensibile. Tuttavia la ricerca scientifica sugli incidenti complessi mostra che quasi sempre il problema è sistemico. Persone normali, competenti e preparate possono trovarsi dentro condizioni che favoriscono una sequenza di decisioni sbagliate. Questo non cancella la responsabilità individuale, ma suggerisce che fermarsi a quella rischia di lasciare intatto il problema. Se un sistema consente a una catena di errori di svilupparsi senza essere intercettata, il sistema stesso merita di essere ripensato. La medicina moderna ha raggiunto livelli tecnologici straordinari. Tuttavia spesso continua a funzionare come se gli operatori potessero mantenere attenzione perfetta, lucidità costante e capacità decisionale invariata per ore. La ricerca neuroscientifica racconta una realtà diversa. L’attenzione si riduce sotto stress, la fatica altera la precisione, la pressione temporale spinge verso scorciatoie cognitive. Per questo molte organizzazioni ad alta affidabilità stanno cambiando prospettiva. Non cercano di eliminare l’errore umano, cosa impossibile, ma di costruire sistemi che lo intercettino prima che produca danni irreversibili. Controlli indipendenti, comunicazioni strutturate, strumenti tecnologici avanzati progettati per compensare i limiti cognitivi delle persone. In questa storia probabilmente non c’è un solo errore. C’è una sequenza. Un organo conservato male, una verifica incompleta, una comunicazione ambigua, una decisione presa pochi minuti prima del punto di non ritorno. Quando tutte queste cose si allineano, il sistema smette di proteggere e diventa vulnerabile. Ed è esattamente questo che dovrebbe interessarci capire.





