Rapport Patiëntveiligheid, de rol van de bestuurder - Veilige zorg ...

Rapport Patiëntveiligheid, de rol van de bestuurder - Veilige zorg ... Rapport Patiëntveiligheid, de rol van de bestuurder - Veilige zorg ...

11.07.2015 Views

1984 groeit het aantal van 14 naar rond de 35 per jaar in 1993. In de jaren 90groeit het aantal tot rond de 80 publicaties per jaar. In maart 2000 wijddehet gezaghebbende tijdschrift British Medical Journal een hele editie aanpatiëntveiligheid. Vanaf 2000 neemt het aantal hits in PubMed ieder jaarfors toe tot meer dan 1150 artikelen per jaar in 2009, meer dan 3 publicatiesper dag. De publicaties bestrijken een brede waaier aan thema’s die gerelateerdzijn aan patiëntveiligheid, zoals indicatoren waarmee veiligheid kanworden gemeten, medisch inhoudelijke onderwerpen (medicatieveiligheid,veiligheid van specifieke apparatuur of behandelingen), patiëntveiligheid inonderwijs en opleidingen, het betrekken van de patiënt bij patiëntveiligheid,open zijn naar patiënten nadat iets mis is gegaan, veiligheidscultuur en hetleren van incidenten.192 Patiëntveiligheid - theoretische achtergrondDe rol van het Systeem – “It’s not bad people, it’s bad systems”Het rapport “To Err Is Human” bracht voor het eerst de omvang van vermijdbareschade in de zorg onder de brede aandacht. Nog belangrijkerechter, is dat het een vernieuwend inzicht gaf in de oorzaken ervan en hetsoort maatregelen waarmee de schade kon worden verminderd. In “To Err IsHuman” wordt gesteld dat het overgrote deel van de medische foutenontstaat door mankementen in gezondheidszorgprocessen (“systemen”) enniet door slechte prestaties of gebrekkige inzet van individuen. “Preventingerrors and improving safety for patients requires a systems approach inorder to modify the conditions that contribute to errors. People working inhealthcare are among the most educated and dedicated workforce in anyindustry. The problem is not bad people; the problem is that the systemneeds to be made safer.” Daarmee was een lans gebroken voor “systeemdenken”in de gezondheidszorg.20Systeemdenken betekent dat processen worden beschouwd als een geheelvan aaneengesloten onderdelen die invloed hebben op elkaar en op deuitkomst van het proces. Menselijke handelingen staan dus niet op zichzelf,maar zijn onderdeel van een systeem. Mensen zullen altijd fouten blijvenmaken en het systeem waarin mensen werken moet idealiter zo ontworpenzijn dat deze fouten niet tot schade kunnen leiden.Een eenvoudig voorbeeld van systeemdenken is het aanpassen van de diametervan de tuit van een dieselslang bij een tankstation, zodat deze niet meer past in dePatiëntveiligheid, de rol van de bestuurder 37

opening van de brandstoftank van een benzinemotor. Iemand kan nog steeds eenfout maken door de verkeerde slang te pakken, maar de fout kan niet meer totschade leiden.2122Het Zwitserse Kaas ModelDe auteurs van “To Err Is Human” bouwden voort op eerder werk vanondermeer Charles Perrow, James Reason en Karl Weick. Het werk vanWeick wordt in de volgende subparagraaf behandeld. Charles Perrow had hetongeluk geanalyseerd dat in maart 1979 had plaatsgevonden in de kernreactorThree Mile Island in Pennsylvania. In zijn onderzoek toonde hij aan hoe“systems” bij kunnen dragen aan het ontstaan en het voorkómen vanongevallen. Op basis van zijn onderzoek introduceerde hij de “NormalAccident Theory”, die stelt dat bepaalde organisaties dermate complex en“tighly coupled” zijn, dat kleine incidenten gemakkelijk kunnen uitgroeientot calamiteiten. De Britse psycholoog James Reason heeft meerdere ongevallengeanalyseerd en hieruit gedestilleerd wat de rol was van de betrokkenmensen en wat de rol was van de systemen om deze mensen heen. In zijnboek “Managing the risks of organizational accidents” stelt Reason datveiligheid alleen verbeterd kan worden door gelijktijdig aandacht te bestedenaan de mens, de techniek waarmee de mens moet werken en de organisatiewaarin gewerkt wordt. Reason spreekt over een samenspel van “latentefouten” die het mogelijk maken dat een “actieve fout” leidt tot een incident.Hij ontwikkelde een model om dit in beeld te brengen, het zogenaamde“Zwitserse Kaas Model” (zie figuur 1). Hierbij staan de kaasplakjes symboolvoor de diverse veiligheidsbarrières die doorbroken moeten worden voordater een incident kan ontstaan.23Figuur 1: “Zwitserse Kaas Model” van professor James Reason.38Hoofdstuk 3 | Achtergrond van het thema patiëntveiligheid

opening <strong>van</strong> <strong>de</strong> brandstoftank <strong>van</strong> een benzinemotor. Iemand kan nog steeds eenfout maken door <strong>de</strong> verkeer<strong>de</strong> slang te pakken, maar <strong>de</strong> fout kan niet meer totscha<strong>de</strong> lei<strong>de</strong>n.2122Het Zwitserse Kaas Mo<strong>de</strong>lDe auteurs <strong>van</strong> “To Err Is Human” bouw<strong>de</strong>n voort op eer<strong>de</strong>r werk <strong>van</strong>on<strong>de</strong>rmeer Charles Perrow, James Reason en Karl Weick. Het werk <strong>van</strong>Weick wordt in <strong>de</strong> volgen<strong>de</strong> subparagraaf behan<strong>de</strong>ld. Charles Perrow had hetongeluk geanalyseerd dat in maart 1979 had plaatsgevon<strong>de</strong>n in <strong>de</strong> kernreactorThree Mile Island in Pennsyl<strong>van</strong>ia. In zijn on<strong>de</strong>rzoek toon<strong>de</strong> hij aan hoe“systems” bij kunnen dragen aan het ontstaan en het voorkómen <strong>van</strong>ongevallen. Op basis <strong>van</strong> zijn on<strong>de</strong>rzoek introduceer<strong>de</strong> hij <strong>de</strong> “NormalAcci<strong>de</strong>nt Theory”, die stelt dat bepaal<strong>de</strong> organisaties <strong>de</strong>rmate complex en“tighly coupled” zijn, dat kleine inci<strong>de</strong>nten gemakkelijk kunnen uitgroeientot calamiteiten. De Britse psycholoog James Reason heeft meer<strong>de</strong>re ongevallengeanalyseerd en hieruit ge<strong>de</strong>stilleerd wat <strong>de</strong> <strong>rol</strong> was <strong>van</strong> <strong>de</strong> betrokkenmensen en wat <strong>de</strong> <strong>rol</strong> was <strong>van</strong> <strong>de</strong> systemen om <strong>de</strong>ze mensen heen. In zijnboek “Managing the risks of organizational acci<strong>de</strong>nts” stelt Reason datveiligheid alleen verbeterd kan wor<strong>de</strong>n door gelijktijdig aandacht te beste<strong>de</strong>naan <strong>de</strong> mens, <strong>de</strong> techniek waarmee <strong>de</strong> mens moet werken en <strong>de</strong> organisatiewaarin gewerkt wordt. Reason spreekt over een samenspel <strong>van</strong> “latentefouten” die het mogelijk maken dat een “actieve fout” leidt tot een inci<strong>de</strong>nt.Hij ontwikkel<strong>de</strong> een mo<strong>de</strong>l om dit in beeld te brengen, het zogenaam<strong>de</strong>“Zwitserse Kaas Mo<strong>de</strong>l” (zie figuur 1). Hierbij staan <strong>de</strong> kaasplakjes symboolvoor <strong>de</strong> diverse veiligheidsbarrières die doorbroken moeten wor<strong>de</strong>n voordater een inci<strong>de</strong>nt kan ontstaan.23Figuur 1: “Zwitserse Kaas Mo<strong>de</strong>l” <strong>van</strong> professor James Reason.38Hoofdstuk 3 | Achtergrond <strong>van</strong> het thema patiëntveiligheid

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!