0 Condivisioni

Martin Bromiley E Il Coraggio Di Non Mollare - Come Imparare Dagli Errori

Dopo la morte della moglie in seguito a un intervento chirurgico, il pilota Martin Bromiley ha deciso di usare quello che sa sulle cause dei disastri aerei per cambiare il modo di lavorare dei medici nel Regno Unito.

Dalla rivista Internazionale N.10685 del 22 Agosto 2014

Martin Bromiley è un uomo modesto con un’aspirazione tutt’altro che modesta: cambiare il modo in cui è praticata la medicina nel Regno Unito. L’ho incontrato la prima volta a Birmingham, a una conferenza del Clinical human factors group (Chfg), un’organizzazione che riunisce direttori sanitari, primari di chirurgia, infermieri e ricercatori. Tra i relatori più importanti c’era l’ex consulente del governo per la sanità Liam Donaldson. Nei corridoi e nelle sale riunioni si percepiva un senso di determinazione e di ottimismo. Era una riunione di credenti. La lenta trasformazione della sanità pubblica britannica sta finalmente prendendo il via. Finora è passata quasi inosservata, perché non è il risultato di una legge. Come mi ha detto Suren Arul, un chirurgo pediatrico del Children’s hospital di Birmingham, “è in corso una rivoluzione silenziosa e un giorno Bromiley sarà riconosciuto come l’uomo che ci ha indicato la strada”. All’inizio non è stato facile individuare Bromiley. Non era sul palco e non si rivolgeva al pubblico. L’ho trovato seduto a un tavolo ai margini della sala. Era dificile immaginare che fosse lui il fondatore del Chfg e che tutte quelle persone fossero lì per lui.

Bromiley non corrisponde a nessuna delle idee preconcette su come dev’essere un leader naturale: parla a bassa voce e non cerca di attirare l’attenzione. Non è un medico né un professionista della sanità. È un pilota d’aerei. Ma è anche un uomo comune con una storia terribile da raccontare. La mattina del 29 marzo 2005 Bromiley ha baciato sua moglie. Poi lui e i due figli – Victoria, che all’epoca aveva sei anni, e Adam, che ne aveva cinque – l’hanno salutata mentre entrava in sala operatoria. Nel periodo di Natale il viso di Elaine si era gonfiato a causa di una sinusite che la tormentava da anni. Per risolvere il problema una volta per tutte le avevano consigliato di sottoporsi a un piccolo intervento chirurgico per raddrizzare il setto nasale. Verso le 11 Bromiley ha ricevuto una telefonata dall’otorinolaringoiatra. “Elaine non si sta svegliando bene dall’anestesia”, gli ha detto. “Può tornare qui?”. Quando è arrivato in ospedale, lo specialista gli ha spiegato che durante l’anestesia avevano avuto problemi a tenere aperte le vie respiratorie di Elaine e il livello di ossigeno nel sangue si era pericolosamente abbassato. Perciò avevano deciso di trasferirla in terapia intensiva.

Ripescando qualche vaga conoscenza medica acquisita guardando serie televisive come Casualty , Bromiley ha chiesto se avevano tentato una tracheotomia, ma gli hanno spiegato che avevano ritenuto più sicuro aspettare che si svegliasse naturalmente. Si è avviato verso il reparto di terapia intensiva. Quando è arrivato, la prima persona che gli si è avvicinata è stato l’anestesista, che l’ha abbracciato senza dire niente. Bromiley si è ritrovato a cercare di consolarlo. “Queste cose succedono”, ha detto. Si è seduto e ha aspettato che gli dessero notizie. Dopo dieci minuti sono usciti due medici e si sono seduti di fronte a lui. Gli hanno detto in tono cupo che Elaine era rimasta senza ossigeno per molto tempo e, di conseguenza, aveva subìto gravi danni cerebrali. Un’ora dopo gli hanno permesso di vedere la moglie. “Non sembrava diversa”, mi ha detto.

Ma lo era. Dopo aver finalmente stabilizzato il livello di ossigeno, i medici le avevano indotto il coma per evitare che il cervello si gonfiasse al punto da schiacciarsi contro la spina dorsale. Ben presto era stato evidente che da quel coma non si sarebbe più svegliata. Qualche giorno dopo, non prima di averne discusso con i medici, Bromiley ha accettato che le fosse staccata la spina. I dottori sono rimasti sorpresi dalla resistenza del suo cuore, che ha continuato a battere ancora per una settimana finché, l’11 aprile 2005, Elaine Bromiley è morta. Com’era potuto succedere? All’inizio Bromiley ha accettato la spiegazione dell’otorinolaringoiatra, secondo cui i medici avevano preso tutte le decisioni giuste ma si erano trovati davanti a un’emergenza che nessuno aveva potuto prevedere: l’eccezionale difficoltà di infilare un tubo nella gola di Elaine. Bromiley presumeva comunque che ci sarebbe stata un’indagine. Ma quando ha chiesto informazioni al direttore del reparto di terapia intensiva, il medico ha scosso la testa: “Il servizio nazionale non la prevede.

A livello personale il medico era d’accordo con lui. Poco dopo la morte di Elaine, lo aveva chiamato dicendogli di aver chiesto a un famoso anestesista suo amico, il professor Michael Harmer, se era disposto a condurre un’indagine. Harmer aveva accettato.

Appena Bromiley ha ottenuto il consenso dell’ospedale, Harmer si è messo al lavoro, interrogando tutte le persone coinvolte nell’incidente, dai chirurghi agli infermieri. Nel luglio del 2005 Harmer ha consegnato il suo rapporto. Quando l’ha letto, Bromiley è tornato con la mente a una delle ultime notti che aveva passato in ospedale mentre sua moglie era in coma e a quello che gli aveva detto l’infermiera di turno: “È terribile. Non posso credere che sia successo”. A ripensarci, quello era un indizio. Dal rapporto di Harmer emergeva una storia diversa da quella che aveva raccontato l’otorino. La verità era che Elaine era morta nelle mani di due chirurghi specializzati e tecnicamente competenti in un ospedale moderno e ben attrezzato, a causa di un errore banale. I medici commettono errori. C’è stato il caso della donna in gravidanza extrauterina a cui hanno asportato la tuba sbagliata, rendendola sterile per sempre. Quello di un’altra donna a cui hanno rimosso la tuba di Falloppio invece dell’appendice. E l’intervento al cuore effettuato sul paziente sbagliato.

Naturalmente rispettiamo i medici. Pensiamo che la sanità usi metodi scientifici e che gli ospedali siano luoghi sicuri. Per tutti questi motivi restiamo sconvolti quando ci rendiamo conto che si può uscire da un ospedale in condizioni peggiori di prima, se non addirittura morti. Il National audit ofice, un ente indipendente britannico che vigila sulla spesa pubblica, calcola che ogni anno le morti causate da incidenti nella sanità nel Regno Unito sono circa 34mila. Quando era direttore sanitario, Liam Donaldson diceva che le probabilità di morire in ospedale per un errore dei medici erano 33mila volte superiori a quelle di morire in un disastro aereo. Questa non è una peculiarità del sistema sanitario britannico. Negli Stati Uniti si calcola che gli errori commessi negli ospedali siano la terza causa di morte dopo il cancro e l’infarto. Nel mondo c’è una probabilità su dieci che a causa di un errore evitabile o di una distrazione un paziente lasci l’ospedale in condizioni peggiori di quando è entrato. Ci sono anche altri settori in cui uno sbaglio ha conseguenze gravi, ma gli errori dei medici hanno una maggiore connotazione etica, perché il loro compito è guarire e tutti si aspettano che lo facciano. Forse proprio a causa della fiducia quasi superstiziosa che riponiamo nei chirurghi, a nessuno piace pensare che possano sbagliare, che quando sono stanchi lavorino meno bene, che alcuni di loro siano più bravi di altri, che il nervosismo possa far scivolare una mano e che a volte si prendano decisioni sbagliate per eccessiva fiducia in se stessi, per lo stress o per un errore di comunicazione. Ma tutte queste cose succedono perché i medici sono esseri umani. Ventilazione artificiale Due minuti dopo l’inizio dell’operazione, l’anestesista si era reso conto che le vie aeree di Elaine Bromiley erano occluse e l’ossigeno non le arrivava. Dopo aver tentato più volte la ventilazione artificiale, aveva chiesto aiuto al chirurgo otorinolaringoiatra e a un anestesista più esperto. I tre avevano cercato due volte di intubare Elaine, ma avevano incontrato un misterioso blocco. In anestesia l’impossibilità di ventilare un paziente o di intubarlo è considerata un’emergenza per la quale esistono indicazioni precise. La prima regola che ho trovato in un manuale è: “Non perdete tempo a cercare di intubarlo quando la priorità è l’ossigenazione”. S e veniamo privati dell’ossigeno, nel giro di poco tempo il cervello ha difficoltà a funzionare e il cuore a battere: dieci minuti sono il tempo massimo in cui possiamo restare in queste condizioni prima di subire danni irreversibili. La soluzione consigliata è quella di effettuare una tracheotomia, cioè di aprire la trachea per far entrare l’aria, senza perdere tempo a cercare di intubare.

Venti minuti dopo che le vie aeree di Elaine si erano occluse, i medici stavano ancora tentando di infilarle un tubo in gola. I monitor indicavano che il suo cervello era a corto di ossigeno e che il battito cardiaco si era pericolosamente abbassato. Il viso era bluastro e le braccia scattavano ciclicamente in aria, segno che il

tessuto cerebrale era irritato. Ma i medici avevano insistito. Dopo 25 minuti erano finalmente riusciti a intubarla, ma ormai era troppo tardi. In quei minuti cruciali i dottori non si erano resi conto della gravità della situazione, ma il personale della sala operatoria sì. Le infermiere avevano visto che respirava male, che era diventata bluastra, che la pressione sanguigna saliva e scendeva, che il livello dell’ossigeno era basso e che faceva movimenti convulsi. Erano rimaste sorprese quando i medici non avevano cercato di aprirle la trachea, ma non se l’erano sentita di intervenire. Almeno non esplicitamente: un’infermiera aveva preso gli strumenti.

Un’altra aveva telefonato al reparto di terapia intensiva, chiedendo che preparassero immediatamente un letto. Quando aveva informato i medici della sua iniziativa, l’avevano guardata come se pensassero che la sua reazione era stata eccessiva. Leggendo queste cose, si stenta a credere che i medici possano essere stati così stupidi o negligenti. Ma quando Bromiley ha letto il rapporto di Harmer, la sua reazione è stata molto diversa. Non è rimasto senza parole e non si è infuriato. Finalmente ha capito. Un rumore sordo Poco dopo le cinque del pomeriggio del 28 dicembre 1978, il volo 173 della United Airlines cominciò la discesa verso l’aeroporto internazionale di

Portland. Il cielo era sereno, l’aereo era partito da New York quella mattina e, dopo aver fatto scalo a Denver, stava raggiungendo la destinazione finale con 189 persone a bordo. Al momento di abbassare il carrello, si sentì un rumore sordo e il velivolo sbandò leggermente a destra. L’equipaggio vide che una delle spie luminose non si era accesa. Il comandante si mise in contatto radio con la torre di controllo di Portland e disse: “Abbiamo un problema al carrello”. Poi concordò con il controllore di volo che avrebbero girato sopra l’aeroporto fino a quando non avessero deciso cosa fare. L’equipaggio comunicò ai passeggeri che ci

sarebbe stato un ritardo e cominciò a fare una serie di verifiche. Circa mezz’ora dopo, il comandante contattò il centro assistenza della United per informarlo che avrebbe ritardato l’atterraggio di 15 o 20 minuti. Disse anche che nel serbatoio c’erano solo 3.500 litri di carburante. Il tecnico della United gli rispose in tono leggermente preoccupato: “Quindi pensa di atterrare verso le 18.05?”. Il comandante rispose in tono ostentatamente rilassato: “Sì, mi sembra una stima corretta. Non abbiamo fretta”. L’aereo aveva ancora carburante per una trentina di minuti. Il comandante e i due ufficiali continuarono a discutere sulla possibilità o meno che il carrello si fosse aperto. Il pilota chiese all’equipaggio quanto carburante sarebbe rimasto se avessero volato per altri 15 minuti. Il motorista di bordo rispose: “Non abbastanza. Quindici minuti sono troppi”. Alle 18.07, uno dei motori si spense. Sei minuti dopo il motorista gli comunicò che si erano fermati tutti e due. Il comandante, come se si rendesse conto della situazione solo in quel momento, disse: “Non ce la facciamo neanche a scendere a Troutdale”, un piccolo aeroporto prima di Portland. “Non possiamo arrivare da nessuna parte”, disse il primo uficiale. Alle 18.13 il primo ufficiale mandò l’ultimo messaggio alla torre di controllo. “Stiamo precipitando. Non ce la facciamo a raggiungere l’aeroporto”. Corsi di addestramento tutti i piloti di linea conoscono la storia del volo United 173 perché la studiano durante i corsi di addestramento. In seguito a quello e ad altri incidenti avvenuti nello stesso periodo sono state modificate le norme di sicurezza ed è stata messa a punto una precisa procedura chiamata gestione risorse dell’equipaggio ( crew resource management , crm). La scelta si è rivelata giusta. Oggi la percentuale di incidenti aerei è al minimo storico e volare è il modo di viaggiare più sicuro. Come amano dire gli addetti ai lavori, ormai la parte più pericolosa del viaggio è il tragitto da casa all’aeroporto. La crm è stata introdotta alla fine degli anni novanta, quando ci si è resi conto che la causa più frequente dei disastri aerei non erano i problemi tecnici, ma gli errori umani. Le sue radici, però, risalgono ai tempi della seconda guerra mondiale, quando l’esercito statunitense incaricò lo psicologo Alphonse Chapanis di indagare su un curioso fenomeno. In fase di atterraggio i bombardieri B-17 continuavano a schiantarsi sulla pista anche se non avevano nessun problema tecnico. Invece di prendersela con i piloti, Chapanis attribuì la responsabilità al quadro degli strumenti. La leva che controllava il carrello era accanto a quella che metteva in funzione gli ipersostentatori, o lap. Dopo un lungo volo, i piloti erano stanchi e confondevano le due leve, quindi tiravano su il carrello prima di atterrare. Chapanis suggerì di attaccare una rotella alla leva del carrello e un triangolo a quella dei lap, rendendole facilmente distinguibili anche solo al tatto. Il problema fu risolto. Lo psicologo aveva capito che la tendenza delle persone a commettere errori quando sono stanche è molto più difficile da modificare della forma delle leve. Ma, soprattutto, aveva capito che gli esseri umani hanno dei limiti e molti dei loro errori sono la prevedibile conseguenza di quei limiti. È per questo che, secondo i suoi creatori, lo scopo della crm è ridurre gli errori umani, non gli errori dei piloti.

Piuttosto che assumere o formare piloti perfetti, è meglio progettare sistemi che riducono al minimo o attenuano le conseguenze degli inevitabili errori umani. Negli anni novanta lo psicologo cognitivo James Reason ha trasformato questo principio in una teoria su come avvengono gli incidenti nelle grandi

Quando una navicella spaziale precipita o una petroliera perde il suo carico, istintivamente si cerca un’unica causa. Questo di solito porta a individuare la persona che ha provocato il disastro tirando la leva sbagliata o digitando al computer l’istruzione sbagliata. Ma quell’azione è l’ultimo anello di una lunga catena di decisioni, alcune delle quali sono state prese quel giorno, altre molto tempo prima. Tutte queste decisioni hanno contribuito a provocare l’incidente. Come i successi, anche gli errori sono frutto di un lavoro di squadra. Reason ha proposto il modello del formaggio svizzero: gli incidenti si verificano a causa di una concatenazione di fattori casuali e imprevedibili, come i buchi in una forma di groviera. Il messaggio che voleva trasmettere era questo: poiché gli esseri umani sono fallibili e commetteranno sempre errori, i manager devono garantire che quegli errori siano previsti, pianificati e sfruttati per imparare qualcosa. Senza eliminare del tutto il concetto di responsabilità personale, Reason ha spostato l’accento dai difetti dei singoli a quelli delle organizzazioni. Nell’industria aeronautica, ormai, prevale la scienza del “fattore umano”, che comprende un sofisticato studio del tipo di errori che perfino i più esperti possono commettere quando sono sotto stress. Quando Martin Bromiley ha letto il rapporto di Harmer, finalmente ha capito come si era verificato un evento che fino a quel momento gli era sembrato incomprensibile: “Ho pensato che fosse un tipico esempio di fattore umano. Di insistenza nell’errore, di mancata percezione del trascorrere del tempo e di gerarchia”. Immaginate una macchina bloccata a un passaggio a livello mentre sta arrivando un treno.

Preso sempre più dal panico, l’automobilista prova e riprova a metterla in moto invece di scendere e allontanarsi. I tre medici chini su Elaine Bromiley avevano continuato a cercare di intubarla, come i tre piloti del volo 173 avevano continuato a cercare di capire se il carrello era in posizione. In entrambi i casi quegli esperti professionisti avevano trascurato l’equivalente del treno in arrivo: nel caso di Elaine il livello di ossigeno e in quello dell’aereo il livello del carburante. Quando le persone si fissano su una cosa, perdono la percezione del tempo. Uno degli aspetti più sconcertanti della trascrizione delle frasi pronunciate dall’equipaggio negli ultimi minuti del volo della United è che il comandante sembra convinto di avere molto tempo a disposizione fino a quando i motori non si fermano. Non è che non avesse le informazioni corrette, è che il suo cervello non registrava il passare del tempo. Lo stesso discorso vale per i chirurghi di Elaine: si rendevano conto che non le arrivava l’ossigeno, ma la loro percezione del tempo era distorta. Quando Harmer lo ha interrogato, l’anestesista ha confessato che non aveva idea di quanto tempo fosse passato.

Immaginate per un attimo di essere uno di quei medici. Avete davanti una paziente che ha smesso di respirare. Il tempo passa. La procedura standard non sta funzionando, ma l’avete già usata decine di volte e sapete che è quella giusta. Anche i colleghi più anziani sono in dificoltà e questo vi rassicura. Vi aggrappate alla convinzione che tutti e tre insieme risolverete il problema, se è possibile risolverlo. Vi rendete vagamente conto delle infermiere che entrano in sala operatoria e vi dicono qualcosa, ma non le ascoltate. Forse vi viene in mente che fareste meglio a fermarvi un attimo e cambiare procedura, ma non volete che i colleghi pensino che vi siete lasciati prendere dal panico o che siete degli incompetenti. Perciò vi concentrate sull’unica cosa che siete in grado di controllare: la procedura che state seguendo. Continuate a ripeterla, sperando ogni volta in un risultato diverso. È una follia, ma è una follia comprensibile. Una lunga lista Nei mesi successivi alla morte di Elaine, mentre cercava di ricostruire la sua vita, Bromiley continuava a chiedersi che diferenza c’era tra il modo in cui gli incidenti erano trattati nel campo della sanità e nel settore aeronautico. Quindi ha cominciato a telefonare a diverse persone che lavoravano per il servizio sanitario nazionale e a fare domande. Ha scoperto che molti, tra cui un anestesista scozzese e un ricercatore londinese, si chiedevano la stessa cosa. Alla fine ha stilato una lunga lista di persone che la pensavano come lui ma non si conoscevano tra loro, ha afittato una stanza d’albergo e le ha invitate a una riunione con alcuni esperti di altri settori e studiosi, come James Rea son. Tutti hanno concordato nel dire che dal punto di vista della sicurezza la sanità era ancora a livelli medievali. Gli ospedali più o meno fingevano che gli incidenti non succedessero, non imparavano niente dagli errori e, di conseguenza, li commettevano di nuovo. Se a noi non piace pensare che i medici sbagliano, a loro piace ancora meno. Uno dei problemi più gravi che Bromiley e gli altri hanno individuato è stato quello della gerarchia non uficiale ma radicata da sempre negli ospedali. Bromiley, che ha lavorato con esperti di diversi settori in cui la sicurezza è un fattore critico, tra cui l’esercito, mi ha detto che l’ospedale è il posto di lavoro più gerarchizzato che abbia conosciuto. In cima alla piramide ci sono le star della sala operatoria, i chirurghi: fortemente motivati, competitivi, prevalentemente maschi e poco inclini ad ammettere incertezze. Poi vengono gli anestesisti, che spesso sono tipi più tranquilli e consapevoli dei rischi.

All’ultimo posto ci sono le infermiere, apprezzate per il duro lavoro che fanno ma non per la loro intelligenza. Un principio chiave del fattore umano è che le regole tacite su chi può parlare, e quando, spesso portano alla conseguenza che alcune cose importanti restano non dette. La parte più straziante della trascrizione dell’ultima ora del volo 173 sono le osservazioni del motorista. Si sente la sua preoccupazione per il livello del carburante e la sua esitazione a esprimerla. “Quindici minuti sono troppi”. Forse dà per scontato che il comandante e i due ufficiali sono consapevoli dell’urgenza di prendere una decisione. Forse ha timore di parlare senza essere stato interpellato. Comunque sia, non dice quello che pensa: è un’emergenza, dobbiamo atterrare subito. Per lo stesso motivo le infermiere che vedevano in che condizioni era Elaine non se la sono sentita di dire ai medici che stavano per commettere un grave errore. Hanno dato solo suggerimenti indiretti, che erano facili da ignorare. John Pickles, un chirurgo otorinolaringoiatra ed ex direttore sanitario dell’Nhs foundation trust dell’ospedale di Luton e Dunstable, mi ha detto che di solito quando si effettua un intervento nella parte sbagliata del corpo, c’è almeno una persona in sala operatoria che si accorge dell’errore o lo sospetta. Mi ha raccontato il caso di un paziente del Galles meridionale al quale avevano asportato il rene sano. Una studentessa aveva detto che stavano sbagliando, ma i due chirurghi (maschi) l’avevano ignorata e avevano continuato. Il paziente, che aveva 70 anni, era rimasto con il rene malato ed era morto sei settimane dopo. In altri casi nessuno parla. I pionieri della Crm sapevano che non basta avvertire i piloti della possibilità di fissarsi su una cosa. È un istinto troppo forte perché possa essere represso del tutto, pur sapendo che esiste. La soluzione era puntare sull’equipaggio. Dato che anche i piloti più esperti possono commettere errori, l’intero equipaggio deve agire come un’intelligenza collettiva, attenta ai problemi e pronta a suggerire soluzioni. “Spesso sono proprio le persone ai margini, distaccate dalla situazione, a vederla in modo più obiettivo”, mi ha detto Bromiley. Ha ricordato il caso del volo 92 della British Midland. L’8 gennaio 1989 l’aereo era appena decollato da Londra diretto a Belfast quando i piloti scoprirono che uno dei motori stava andando a fuoco. Seguendo la procedura standard, lo spensero. Il comandante spiegò ai passeggeri che, a causa di un problema al motore destro, avrebbe tentato un atterraggio d’emergenza. Gli assistenti di volo che, come i passeggeri ma a diferenza dei piloti, vedevano il fumo e le fiamme uscire dal motore sinistro, non trasmisero questa informazione. E quando l’unico motore funzionante fu spento, l’aereo precipitò sull’autostrada nei pressi di Kegworth, nel Leicestershire. Quarantasette delle 126 persone a bordo morirono e 74 restarono ferite gravemente. L’industria aeronautica individuò subito la principale causa della mancanza di comunicazione tra i membri dell’equipaggio: il comandante. Il suo rango manteneva l’aura che aveva ereditato dall’esercito agli albori dell’aviazione, quando piloti come Chuck Yeager, la cui figura è stata immortalata in un romanzo di Tom Wolfe, La stoffa giusta , erano considerati audaci avventurieri. I pionieri della Crm si resero conto che, nell’era dei viaggi aerei di massa, l’eroismo

carismatico era la cosa meno utile. Serviva il lavoro di squadra. L’aura che circondava il comandante era come un campo di forza che impediva agli altri membri dell’equipaggio di dire quello che pensavano nei momenti critici. Non era solo il quadro comandi che doveva cambiare, ma anche la cultura della cabina.

Anche prima che cominciassero a fare più bene che male, i chirurghi erano riveriti da tutti e considerati dei geni. Nel settecento e nell’ottocento le superstar della chirurgia operavano in anfiteatri afollati davanti a un pubblico silenzioso e ammirato. Un grande chirurgo era un incrocio tra un virtuoso e un dio. Gli assistenti e le infermiere erano lì solo per eseguire i suoi ordini, come i pianeti che girano intorno al sole in un planetario meccanico. L’avvento della scienza medica ha dato una base di realtà a questo mito: almeno oggi possiamo essere sicuri che quasi sempre i dottori guariscono le persone. Ma ha raforzato l’idea che i pazienti e il personale non possono mettere in discussione i luminari, e in particolare i chirurghi. Per garantire una maggiore sicurezza è necessario tirar giù i dottori dal loro piedistallo o, meglio, invitarli a scendere.

Le sale operatorie sono piene di gente, vari specialisti esprimono il loro giudizio o eseguono procedure, e poi se ne vanno. Le équipe chirurgiche sono spesso formate da persone che si conoscono superficialmente, se mai si conoscono. È inevitabile che più sono le persone coinvolte in un lavoro, meno si conoscono e più è probabile che qualcuno commetta un errore. Più potere ai margini La novità più importante introdotta negli ultimi anni per evitare i danni causati dal fattore umano è sorprendentemente semplice: la checklist. Presa in prestito dall’industria aeronautica, è una lista di procedure standard da eseguire per ogni operazione e per ogni evenienza. Le checklist compensano la tendenza innata degli esseri umani sotto stress a dimenticare le cose importanti, comprese quelle basilari (il primo punto di una lista dell’aeronautica è: mettere in moto l’aereo). Le liste danno anche un po’ più di potere alle persone che sono ai margini: prima dell’operazione e in alcuni momenti chiave dell’intervento, l’intera équipe controlla a turno ogni punto, comprese le emergenze, e questo dà anche alle persone più timide l’opportunità di parlare. Le checklist funzionano meglio se l’atmosfera è informale e rilassata: è stato dimostrato che basta chiamarsi per nome perché la comunicazione migliori, e che dare a tutti la possibilità di parlare all’inizio aumenta le probabilità che lo facciano anche durante l’intervento. Naturalmente quest’atmosfera informale comporta una diminuzione del potere del chirurgo, o comunque una maggiore distribuzione dei poteri. Ad alcuni medici questo non dà fastidio. Anzi, ne sono contenti, perché si rendono conto che l’équipe può aiutarli a evitare errori che sarebbero dannosi per la loro carriera. Altri oppongono più resistenza, soprattutto quelli che tengono molto alla loro indipendenza: gli eroi solitari non seguono checklist.

Ma anche quelli che pensano di rispettare la squadra, a volte sopravvalutano la propria disponibilità ad ascoltare gli altri. J. Bryan Sexton, uno psicologo della Johns Hopkins university, ha condotto una serie di studi sul personale delle sale operatorie di vari paesi del mondo e ha scoperto che mentre il 64 per cento dei chirurghi era convinto che durante gli interventi prevalesse il lavoro di squadra, solo il 28 per cento delle infermiere era d’accordo con loro. Lo status sociale dei chirurghi non è l’unica causa degli errori dovuti al fattore umano. Fin dai suoi primi colloqui con gli addetti ai lavori, Bromiley si è reso conto che, se si volevano raggiungere i livelli di sicurezza dell’aviazione, era necessario cambiare radicalmente la cultura del sistema sanitario nazionale. Gli ospedali si preoccupavano poco di sapere come funzionavano le loro équipe. I medici sottovalutavano gli effetti della stanchezza sulle loro prestazioni. Le facoltà di medicina sostenevano che la cosa più importante era l’eccellenza nella tecnica e non si preoccupavano minimamente di insegnare agli studenti come comunicare o come gestire l’attività collettiva. Gli specialisti pensavano che il loro compito fosse curare una parte del corpo, non una persona. Durante la conferenza del Clinical human factors group di quest’anno, Peter Jaye, un chirurgo del Guy’s hospital di Londra, ha osservato: “All’università mi hanno insegnato a vedere il paziente come una coppia di reni”. Praticamente non esistevano dati su chi commetteva errori, in quali ospedali e dove bisognava intervenire con urgenza. I rischi erano regolarmente sottovalutati. La situazione in cui non si riesce a intubare un paziente che non respira è un’emergenza che si verifica una volta su 20mila, quindi gli anestesisti la considerano una possibilità remota. Ma, come mi ha detto Bromiley, “nell’aviazione ci preoccupiamo anche se c’è una probabilità su un milione che un motore si fermi. Per me una volta su ventimila è una percentuale altissima”. Come ha dimostrato James Reason, gli errori sono provocati soprattutto dalle coincidenze. Suren Arul, il pediatra di Birmingham, mi ha detto che “quando si commette un errore, non è quasi mai colpa di una persona sola. Di solito dipende da una serie di cose, alcune delle quali sono apparentemente insignificanti”. Bromiley ha chiesto alle direzioni degli ospedali di considerare la possibilità di usare i pennarelli per segnare la parte del corpo su cui si deve intervenire (la cosa migliore sarebbe che a farlo fosse il chirurgo stesso e ci mettesse la sua sigla). “Dico sempre: ‘Capisco che dovete contenere le spese. Ma vi rendete conto che risparmiando sui pennarelli avete triplicato le probabilità che s’intervenga nel posto sbagliato?'”. Oggi c’è più consapevolezza della complessità dei sistemi di sicurezza. Il Clinical human factors group, l’organizzazione fondata da Bromiley, non svolge un ruolo ufficiale all’interno del sistema sanitario britannico, ma la sua inluenza si fa sentire. Alla conferenza alla quale ho assistito tutte le persone con cui ho parlato sembravano convinte che le cose stessero andando nella direzione giusta, anche se lentamente. Simulazioni cliniche La situazione è drammatica: un bambino di 18 mesi è caduto dalle scale della stazione di Euston square, a Londra, battendo la testa e ferendosi a una gamba. Attraverso un finto specchio vedo una giovane dottoressa entrare nella sala operatoria dove l’aspetta la madre disperata. La donna seduta accanto a me si rivolge alla sua équipe: “Perché non fai il chirurgo ortopedico questa volta, Dave?”, dice. “E tu, Clare, vuoi fare l’anestesista?”. Da qualche anno le simulazioni sono usate per la formazione dei medici. Sarah Chievely-Williams, l’anestesista che dirige le simulazioni cliniche negli ospedali dell’University college di Londra, mi ha invitato ad assistere all’iniziazione dei giovani pediatri. C’è la replica quasi perfetta di una sala operatoria, con tutta l’attrezzatura per eseguire le anestesie, i monitor e i farmaci. Il finto bambino ha le pupille che si dilatano, una sorta di battito cardiaco e può piangere.

A Chieveley-Williams e alla sua équipe interessa vedere se il medico riesce a individuare le giuste priorità: bisogna prima stabilizzare le condizioni del bambino anestetizzandolo; poi chiedere a un neurologo di esaminare la ferita alla testa, per evitare o ridurre al minimo i danni cerebrali. Dalla nostra parte del vetro c’è una donna seduta davanti a un computer dal quale può modificare i segni vitali del bambino. A quel punto rallenta il battito cardiaco, rendendo più urgente prendere una decisione. Chieveley-Williams si rivolge a un altro collega: “Dave, puoi fare in modo che si fissi sulla gamba?”. Dave ci lascia e un momento dopo riappare nella sala operatoria in camice bianco. Dopo aver esaminato il paziente propone, con l’aria di chi non è abituato a sentirsi dire di no, di efettuare una radiografia alla gamba. ChieveleyWilliams osserva la scena con attenzione. In tono tranquillo ma deciso, la giovane dottoressa dice: “In questo momento è più importante la ferita alla testa. La gamba dovrà aspettare”. Chieveley-Williams si gira verso di me sorridendo. “L’ha messo in riga”, dice. Nei venti minuti successivi entrano ed escono dalla stanza molte persone. Si interpellano specialisti, si ordinano farmaci e si organizzano procedure. A volte si ha l’impressione che regni il caos. Un trauma di questo tipo, mi spiega ChieveleyWilliams, è una sfida anche dal punto di vista organizzativo, oltre che medico. Dato che spesso comporta ferite in varie parti del corpo, intervengono molti specialisti, ognuno dei quali ha le sue idee. “Il medico deve mantenere il controllo della situazione e fare in modo che tutti restino concentrati sulla cosa più importante, la salute del paziente”. Nel caso di Elaine Bromiley c’era stata troppa gerarchia, ma non abbastanza. Da una parte le infermiere non avevano avuto il coraggio di parlare. Dall’altra nessuno si era assunto la responsabilità della sicurezza della paziente. Come ha osservato John Pickles, “c’erano tre medici esperti in sala, ma nessuno che comandava”. La gerarchia, intesa nel senso della presenza di un leader riconosciuto, è una cosa positiva, a condizione che chi comanda sia abbastanza sicuro di sé da ammettere un’incertezza. Uno dei problemi più comuni, dice Chieveley-Williams, è che i giovani medici non hanno il coraggio di ammettere di non sapere cosa fare, perché sono ansiosi di dimostrarsi competenti. Un altro medico della sua équipe mi ha detto: “Quando non si sa cosa fare, consigliamo sempre di sentire gli altri. Qualcuno probabilmente ha la risposta giusta, ma se nessuno gli chiede nulla, può presumere che sia chiara a tutti”. Dieci anni fa lezioni del genere non esistevano. Oggi anche l’ospedale pediatrico londinese di Great Ormond street è all’avanguardia in questo nuovo sistema per la sicurezza dei pazienti e sta imparando da altri settori. Il trasferimento di un paziente dalla sala operatoria al reparto di terapia intensiva è un’operazione complessa, che deve essere eseguita rapidamente e coinvolgere diverse persone. Com’è facile immaginare, è un momento critico: si lasciano cadere delle cose, i tubi restano sospesi e il paziente sofre. In collaborazione con Ken Catchpole, un ricercatore esperto in fattore umano, l’ospedale ha studiato quello che succede quando le macchine si fermano ai box in una gara di Formula uno e ha capito quant’è importante che a ogni componente della squadra sia afidato un compito preciso. Da quel momento gli errori sono diminuiti. Un bel carico di lavoro Bromiley si è rifatto una vita. Si è risposato ed è padre dei due figli della sua seconda moglie, oltre che di Victoria e Adam. La tragica morte di Elaine non lo tormenta più, ma lo spinge a portare avanti la sua missione. Quando non vola, va a parlare con medici, infermieri, ricercatori e funzionari del sistema sanitario nazionale, mettendo in contatto tra loro quelli che la pensano allo stesso modo e raccontando la sua storia a tutti quelli, manager o studenti di medicina, che hanno più bisogno di sentirla. È un bel carico di lavoro e gli ho chiesto se non ha mai la tentazione di lasciar perdere, ora che la sua organizzazione ha preso il via. Ha scosso la testa: “No, ho il dovere di continuare”. Aumentare la sicurezza nel settore della sanità non richiede grandi spese né una complessa riorganizzazione. Richiede solo riflessione, empatia, umiltà e disponibilità a imparare dagli errori. E questo, dopotutto, è un dovere nei confronti di chi ne è rimasto vittima. Bromiley ha insistito perché il rapporto Harmer fosse reso pubblico, come quelli degli incidenti aerei, e ha scelto come introduzione un’epigrafe presa in prestito dall’aviazione: “Affinché molti altri possano imparare, e ancora di più vivere”. Tutto il personale medico coinvolto nel caso di Elaine è tornato al lavoro. È esattamente quello che voleva Bromiley, perché dopo quell’esperienza saranno medici migliori e appoggeranno la sua causa. Ci sono due modi per riformare le grandi istituzioni. Si possono imporre cambiamenti dall’esterno invocando la volontà o la rabbia della popolazione, oppure convincere gli addetti ai lavori a recepire il messaggio. Funzionano entrambi. Quando, nel 2007, Julie Bailey ha denunciato i gravi errori del personale dell’ospedale di Staford, ha dato una bella scossa al sistema sanitario britannico.

Bromiley l’ammira molto, ma ha scelto una strada diversa. Piuttosto che usare la sua storia come una clava e nessuno l’avrebbe criticato se lo avesse fatto – l’ha usata come vorremmo che un chirurgo usasse il bisturi su una persona che amiamo, con abilità e precisione. “Quando la situazione di Elaine è precipitata, le cose sono cambiate, perché tutti sapevano che mestiere facevo”, dice Bromiley. Di fronte alla sua calma e alla sua straordinaria capacità di mettersi nei loro panni, l’équipe ha dato il meglio. Dopo che Elaine è entrata in coma, lo hanno coinvolto in tutte le decisioni, fino alla fine. È stato un vero lavoro di squadra. E un modello per la campagna che avrebbe lanciato. “Sono un outsider, ma anche uno di loro”, dice. Bromiley ha ricordato ai medici che non esiste solo la pratica clinica. Il risultato della sua battaglia, dice la professoressa Jane Reid, che insegna scienze infermieristiche al Queen Mary’s hospital di Londra, è “una nuova cultura della sicurezza” nel sistema sanitario nazionale. Bromiley non ci tiene ad avere un ruolo ufficiale. “Non sono un esperto di medicina”, mi ha detto. “Sono solo un pilota di aerei”.

0 Condivisioni
Share
Share
Tweet
WhatsApp