Łatwo jest przypisać incydentom nurkowym „błąd ludzki”, ponieważ często brakuje nam szczegółów na temat tego, co się stało. Jest to również przewrotnie satysfakcjonujące, aby obwinić kogoś, jednostkę, zamiast przyznać, że jest to problem systemowy. Częściowo wynika to z tego, że możemy wtedy zacząć to tłumić, zdystansować się i powiedzieć, że „my nie popełnilibyśmy tego błędu”, co jest naturalną ludzką reakcją.
Niestety szukanie winnych, nazywanie ich „laureatami Nagrody Darwina” lub wskazywanie na ich głupotę, nie pomaga w zidentyfikowaniu rzeczywistych problemów, które doprowadziły do niepożądanego zdarzenia, ani też takie działania nie pomagają w doskonaleniu procesu uczenia się, ponieważ osoby, które miały zdarzenia potencjalnie niebezpieczne, boją się reakcji w mediach społecznościowych, kiedy publikują posty na temat zdarzeń, które są tak „oczywiste” w swoich skutkach.
W tym krótkim artykule przedstawimy ramy ludzkiego błędu Jamesa Reasona i spróbujemy znaleźć sposób, w jaki możemy je wykorzystać, aby poprawić bezpieczeństwo i wydajność człowieka w nurkowaniu.
Model sera szwajcarskiego
Profesor James Reason w swojej książce Human Error opisał koncepcję zwaną Swiss Cheese Model. Ludzki błąd jest przedstawiony, jako liniowy proces, w którym warstwy (zabezpieczenia i bariery) zostały wprowadzone przez organizacje, przełożonych i jednostki, aby zapobiec wystąpieniu niepożądanych zdarzeń. Niestety, ponieważ nic nie jest doskonałe, warstwy te miałyby dziury, które pozwalałyby błędom przemieszczać się po trajektorii. Na warstwy te składają się takie elementy jak kultura organizacyjna, procesy i procedury, nadzór i przywództwo, zarządzanie zmęczeniem i stresem, wyposażenie i konstrukcja systemu oraz odpowiednie zasoby ludzkie i techniczne, a wszystko to w celu zmniejszenia prawdopodobieństwa wystąpienia zdarzenia niepożądanego.
Model dzieli się na dwie części, warunki utajone i awarie aktywne.
Awarie aktywne
Awarie aktywne to niebezpieczne działania popełniane przez nurków, którzy mają bezpośredni kontakt z systemem lub działaniem. Przybierają one różne formy: pomyłek, wpadek, błędów i naruszeń. W nurkowaniu może to być niezdolność do podania gazu w przypadku sytuacji OOA, niezdolność do zrzucenia pasa balastowego, błędne odczytanie wskazań komputera nurkowego lub przekroczenie minimalnej rezerwy gazu.
Warunki utajone
Warunki utajone to nieuniknione „patogeny rezydujące” w systemie. Są dwa negatywne efekty spowodowane przez stany utajone: tworzą one sprzyjające błędom warunki w bezpośredniej sytuacji nurkowej (np. presja czasu, brak personelu, nieodpowiedni sprzęt, zmęczenie i brak doświadczenia) i mogą stworzyć długoterminowe słabości lub braki w systemie obronnym (zawodne alarmy i wskaźniki, niewykonalne procedury, braki w konstrukcji i wykonaniu…). Warunki utajone mogą pozostawać bierne i niezauważone w systemie przez znaczny okres czasu, zanim połączą się z aktywnymi awariami i lokalnymi wyzwalaczami, stwarzając możliwość wypadku. Shappell i Weigmann rozwijają to w swoim modelu HFACS.
Uproszczony model Reasona pokazuje, że tylko wtedy, gdy wszystkie dziury są ułożone w jednej linii, dochodzi do niekorzystnego zdarzenia. Jednak, jak wiemy, świat jest miejscem dynamicznym, a ludzie mają nieco zmienną naturę, dlatego otwory również się przemieszczają i zmieniają rozmiar. Oznacza to, że naruszenia barier znajdujących się dalej w modelu mogą być chronione przez barierę znajdującą się niżej. Często to właśnie człowiek w systemie zapewnia tę ostateczną barierę. Ten film pokazuje model w działaniu.
Błędy poznawcze
Niestety, kiedy analizujemy zdarzenia i wypadki w celu wyciągnięcia wniosków, napotykamy na wiele uprzedzeń, które zaburzają nasze procesy decyzyjne. Kilka z nich omówiono poniżej, a więcej na innym blogu, który napisałem.
Po pierwsze, jesteśmy stronniczy w sposobie myślenia o czasie jako czynniku wpływającym na zdarzenia. Jesteśmy przyzwyczajeni do tego, że czas jest procesem liniowym (bo tak jest!), ale zdarzenia niepożądane są często kombinacją zdarzeń, które niekoniecznie przebiegają zgodnie z tą samą linią czasu i obejmują różne systemy, których nie jesteśmy w stanie zobaczyć. Po zdarzeniu możemy poskładać układankę, ale w czasie rzeczywistym jest to znacznie trudniejsze, biorąc pod uwagę naszą ograniczoną pamięć krótkotrwałą i dlatego podejmowane przez nas decyzje opierają się na niepełnych informacjach.
Po drugie, cierpimy z powodu błędu perspektywy czasu, co oznacza, że widzimy czynniki, które są istotne dla wydarzenia, ale nie zdawaliśmy sobie z nich sprawy w tamtym czasie. Przykładem tego może być ktoś, kto nie ma doświadczenia w środowisku ‚pod stropem’, traci orientację i tonie, ale obserwatorzy powiedzą „Wiedziałem, że to się stanie, wystarczyło zobaczyć ich podejście do bezpieczeństwa”, a przecież ten nurek mógł podjąć podobne działania bez problemu.
Wiedza zakłada wysoki poziom pewności, podczas gdy nie możemy przewidzieć ze 100% pewnością, jak potoczą się sprawy.
„Nie ma prawie żadnego ludzkiego działania lub decyzji, której nie można by przedstawić, by w mylącym świetle perspektywy czasu wyglądała na wadliwą i mniej sensowną. Istotne jest, aby krytyk stale uświadamiał sobie ten fakt”.
Sir Anthony Hidden
Wreszcie, „efekt wyniku”. Oceniamy zdarzenia niepożądane, które kończą się urazem lub śmiercią, jako znacznie poważniejsze niż w przypadku, gdy zdarzenie nie miało miejsca, tzn. nic złego się nie stało. Przykładem może być nurek, który nie zanalizował swojego nitroxu przed nurkowaniem i nic się nie stało, ale podczas kolejnego nurkowania technik mieszający gazy, pomylił butle i napełnił butlę 80% tlenu zamiast 32%, a nurek doznał toksyczności tlenowej i doznał drgawek na głębokości.
Co możemy zrobić w kwestii zarządzania błędami? Nie wystarczy tylko wiedzieć, że błędy istnieją i że są „złe”?
James Reason w swojej książce Managing Maintenance Error: A Practical Guide, wymienił 12 zasad dotyczących radzenia sobie z błędami. Chociaż zasady te pierwotnie dotyczyły obsługi technicznej lotnictwa, mają one również zastosowanie w nurkowaniu (lub w każdej innej dziedzinie życia).
- Błąd ludzki jest uniwersalny i nieunikniony. Nigdy nie możemy wyeliminować błędu ludzkiego, ale możemy nim zarządzać i moderować go.
- Błędy nie są z natury złe, ponieważ sukces i porażka mają te same psychologiczne korzenie. Jeśli się nad tym zastanowić, niektóre formy innowacji wynikają wyłącznie z błędów, a rozwój opiera się na uczeniu się na błędach (wyobraźmy sobie dziecko uczące się chodzić). Ważne jest to, co robimy z błędami.
- Nie można zmienić kondycji ludzkiej, ale można zmienić warunki, w których człowiek pracuje. Sytuacje i środowisko różnią się ogromnie pod względem zdolności do wywoływania niepożądanych i nieoczekiwanych zdarzeń. W związku z tym nie możemy zidentyfikować i przeszkolić na każdą niekorzystną ewentualność, ale możemy zidentyfikować prawdopodobne sytuacje powodujące powstawanie błędów, takie jak duże obciążenie zadaniami, nowe doświadczenia, presja czasu i słaba komunikacja.
- Najlepsi ludzie mogą popełniać najgorsze błędy – żadna osoba nie jest odporna na „błąd człowieka”. Powinniśmy zdawać sobie sprawę, że osoby o największych umiejętnościach i wiedzy często zajmują najbardziej odpowiedzialne stanowiska. W konsekwencji ich błędy mogą mieć największy wpływ, gdy są rozpatrywane jako część szerszego systemu.
- Ludzie nie mogą w łatwy sposób uniknąć działań, których nie zamierzali popełnić. Obwinianie ludzi za ich błędy może być emocjonalnie satysfakcjonujące, ale raczej nie rozwiąże problemu systemowego. Nie należy jednak mylić winy z odpowiedzialnością. Każdy powinien być odpowiedzialny za swoje błędy, przyznać się do nich i dążyć do zmniejszenia prawdopodobieństwa ich wystąpienia w przyszłości. Nie wystarczy „Być ostrożnym” lub „Nurkować bezpiecznie”!
- Błędy są konsekwencjami, a nie przyczynami, ponieważ błędy mają swoją historię. Odkrycie błędu jest początkiem poszukiwania przyczyn, a nie końcem. Tylko poprzez zrozumienie okoliczności możemy mieć nadzieję na ograniczenie szans na ich powtórzenie. Historie bogate w kontekst są więc naprawdę ważne dla identyfikacji czynników początkujących powstawania błędów.
- Wiele błędów wpisuje się w powtarzające się schematy, a skupiając się na tych powtarzających się typach błędów, możemy maksymalnie wykorzystać ograniczone zasoby, jakimi dysponujemy.
- Błędy istotne dla bezpieczeństwa mogą wystąpić na wszystkich poziomach systemu. Powinniśmy uznać, że popełnianie błędów nie jest monopolem tych, którzy brudzą sobie ręce w działaniach operacyjnych! Paradoksalnie, im wyżej w organizacji znajduje się dana osoba, tym bardziej niebezpieczne są konsekwencje jej błędów. Pomyślcie o Course Director lub Instruktorze Trenerze, który przekazuje niewłaściwe informacje? W związku z tym, techniki zarządzania błędami muszą być stosowane w całym systemie, w całym przekroju.
- Zarządzanie błędami polega na zarządzaniu tym, czym można zarządzać. Sytuacjami, a nawet systemami, można zarządzać, jeśli analizujemy je w sposób systemowy. Natura ludzka jest złożona i nie da się nią zarządzać, więc nie powinniśmy próbować izolować i tworzyć „bezpiecznych” zachowań ludzkich. Rozwiązania, które obejmują środki techniczne, proceduralne i organizacyjne, a nie tylko zachowania, mają największe szanse przetrwać najdłużej.
- Zarządzanie błędami polega na uczynieniu dobrych ludzi doskonałymi. Doskonali operatorzy rutynowo przygotowują się do potencjalnie trudnych działań poprzez mentalne przećwiczenie swoich reakcji na różne wyobrażone sytuacje – przeprowadzając symulacje mentalne z posiadanych przez nas modeli mentalnych. Poprawa umiejętności wykrywania błędów jest co najmniej tak samo ważna, jak uświadomienie ludziom, jak błędy powstają w pierwszej kolejności.
- Nie ma jednego najlepszego sposobu na rozwiązanie problemu błędów ludzkich, ponieważ różne rodzaje problemów związanych z czynnikami ludzkimi występują na różnych poziomach organizacji i wymagają różnych technik zarządzania i przywództwa, aby je rozwiązać. Kultury dodają kolejny wymiar, który również należy wziąć pod uwagę. Najskuteczniejsze interwencje opierają się na zamknięciu luki pomiędzy pracą wyobrażoną a wykonaną poprzez zaangażowanie osób z najbliższego otoczenia do pomocy przy projektowaniu i rozwiązywaniu problemów.
- Skuteczne zarządzanie błędami ma na celu ciągłą reformę, a nie tylko skupianie się na lokalnych poprawkach. Niestety, zawsze istnieje silna tendencja do koncentrowania się na kilku ostatnich błędach, ale próba zapobiegania pojedynczym błędom jest jak zwalczanie komarów, jedynym sposobem na rozwiązanie problemu komarów jest osuszenie bagien, w których się rozmnażają. Reforma systemu jako całości musi być procesem ciągłym, którego celem jest opanowanie całych grup błędów, a nie pojedynczych pomyłek, jednocześnie należy szukać słabych sygnałów, które mogą wskazywać na duży problem leżący u podstaw.
Według Reason’a zarządzanie błędami składa się z trzech elementów:
- Ograniczanie
- Zapobieganie
- Zarządzanie tymi dwoma, aby pozostały skuteczne
i to właśnie ten trzeci element stanowi największe wyzwanie, ponieważ nie można od razu wyczarować rozwiązania „Zarządzania Błędami” w organizacji lub zespole, wprowadzić coś w życie i oczekiwać natychmiastowych rezultatów. Wymaga to czasu, zaangażowania i inwestycji – rzeczy, które nie zawsze dają namacalne rezultaty.
Bez wymiernych efektów trudno jest o motywację, zwłaszcza jeśli redukujemy małą ilość do jeszcze mniejszej, jaki jest zatem bodziec do skupienia się na wysokiej skuteczności?
Tylko Ty, czytelniku, możesz sam odpowiedzieć na to pytanie.
Jednak twierdziłbym, że kiedy podejmujemy aktywne decyzje, aby złamać „zasady” lub popełnić naruszenie, wtedy robimy założenie, że nic innego w systemie nie jest złamane i oczekujemy, że „normalne” się nadal wydarzy. Ale wszyscy inni w systemie też są ludźmi, więc czy nasze założenia są nadal prawdziwe?
Wreszcie, jeśli kiedykolwiek przeczytałeś w raporcie z wypadku „błąd człowieka” lub „błąd nurka”, to albo nie potrafiono, albo nie chciano zagłębić się w śledztwo, aby dowiedzieć się, dlaczego to co zrobił, miało dla niego sens, jaka była jego lokalna racjonalność. Tak czy inaczej, przypisanie 'błędu człowieka’ raczej nie naprawi ukrytych warunków, które doprowadziły do wypadku…