30
© Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen Ergonomie und Mensch-Maschine-Systeme (Arbeitswissenschaft II) Lehreinheit 8 Cognitive Engineering II Sommersemester 2017 Dr.-Ing. Dr. rer. medic. Dipl.-Inform. Alexander Mertens Lehrstuhl und Institut für Arbeitswissenschaft RWTH Aachen Bergdriesch 27 52062 Aachen Tel.: 0241 80 99 494 E-Mail: [email protected]

Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

© Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Ergonomie und Mensch-Maschine-Systeme (Arbeitswissenschaft II)

Lehreinheit 8 Cognitive Engineering II Sommersemester 2017

Dr.-Ing. Dr. rer. medic. Dipl.-Inform. Alexander Mertens

Lehrstuhl und Institut für Arbeitswissenschaft RWTH Aachen Bergdriesch 27 52062 Aachen

Tel.: 0241 80 99 494 E-Mail: [email protected]

Page 2: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 2 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Lernziele Ziel dieser Lehrveranstaltung ist es: Das Phänomen „menschliche Fehler“ systematisch zu erschließen, Menschliches Fehlverhalten zu analysieren, klassifizieren und zu bewerten, mit

dem Ziel Gestaltungshinweise zur Systemoptimierung zu geben, Ursachen menschlicher Fehler kennenzulernen,

Einblick in verschiedene Klassifizierungsansätze menschlichen Fehlverhaltens zu

bekommen,

Kriterien zur Steigerung der menschlichen Zuverlässigkeit kennenzulernen.

Page 3: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 3 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Definitionen Menschliche Fehler:

„Menschliche Fehler“ können formal definiert werden als „menschliches Versagen“ bei einer definierten Arbeitsaufgabe (oder Ausführung einer verbotenen Aufgabe) innerhalb einer spezifizierten Ausführungsgenauigkeit, Reihenfolge oder Zeit, welche in einer Beschädigung von Material und Besitz oder Störung geplanter Abläufe münden kann [Hagen / Mays, 1981]. Ein menschlicher Fehler kann nach VDI 4006 Bl. 2 in eine der folgenden beiden Kategorien eingeordnet werden: Unterlassungsfehler: Etwas wurde unterlassen Etwas ist unterblieben Ausführungfehler Etwas ist falsch (ausgewählt) Etwas ist fehlerhaft (eingestellt)

Menschliche Zuverlässigkeit:

„Zuverlässigkeit“ ist die Antithese zur Fehlerwahrscheinlichkeit. Menschliche Zuverlässigkeit ist somit als Wahrscheinlichkeit definiert, dass ein Mensch eine Aufgabe über eine gewisse Zeitdauer fehlerfrei ausführt. [Park, 1997]

Page 4: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 4 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Urs

ache

n

Aus

wirk

unge

n (S

ympt

ome)

Kontext

Unfallanalyse (retrospektiv)

Zuverlässigkeitsvorhersage (prospektiv)

[Hollnagel, 1993]

Ursachen und Wirkungen menschlicher Fehler

Page 5: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 5 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Prozentuale Verteilung der Unfallursachen

Technische Fehler

Organisatorische Fehler

Menschliche Fehler

Nicht-Können

Nicht-Wissen

Nicht-Wollen

Unfallursachen Ursachen menschlicher Fehler

100%

90%

80%

70%

60%

50%

40%

30%

20%

10%

100%

90% 80% 70% 60% 50% 40% 30% 20% 10%

Page 6: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 6 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen [Bubb, 1992]

Klassifizierung der menschlichen Arbeitsfehler Auftretensorientierte Klassifizierung (Was? Wo? Wie? Wann?)

Rigby,1970 Meister,1977 Swain,1980

Basis: Unfallstatistiken, etc.

Ursachenorientierte Klassifizierung (zusätzlich: Warum?) Klassifizierung unter Berücksichtigung relevanter Informationen

[Hacker,1987] Klassifizierung unter Berücksichtigung von Informationsverarbeitung

[Norman,1986] Klassifizierung unter Berücksichtigung von Einflussfaktoren auf die Arbeit

[Zimolong,1990] Basis: Einzelfallanalysen von Flugzeugabstürzen, Reaktorunfällen, etc.

Kombinierte Klassifizierungsansätze Multi-Aspekt-Taxonomie [Rasmussen,1987] Generic Error Modeling System (GEMS) [Reason,1991] Zweistufiges Klassifizierungsschema [Rouse / Rouse,1983]

Page 7: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 7 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Arten von Fehlhandlungen:

Sporadische Fehlhandlungen Zufällige Fehlhandlungen

Systematische Fehlhandlungen

[Bubb, 1992]

Klassifizierungsansatz von Rigby

Page 8: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 8 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Klassifizierung unter Berücksichtigung relevanter Informationen nach Hacker

Informationsmangel

Objektives Fehlen erforderlicher Informationen

Nutzungsmängel objektiv vorhandender Informationen

Fehlende Nutzung Falsche Nutzung

Übersehen Vergessen/ Versäumen Übergehen Informations- reduzierung Verarbeitungsdefizite

Falsches Orientieren Falsche Nutzung im Zielstellen Entwerfen fehlerhafter Programme Falsches situatives Einpassen von Programmen

Page 9: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 9 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

1.2 Beanspruchung

Stress Skilled NoviceVery low x 2 x 2Optimum x 1 x 1Moderately High x 2 x 4Extremely high x 5 x 10

Increase in Error Probability

[Miller / Swain, 1986]

Ausgewählte Faktoren im Hinblick auf menschliche Fehler (I)

2. Situative Faktoren

1. Leistungsbeeinflussende Faktoren 1.1 Ziele und Absichten

Subjektive Ziele und Absichten stehen in einem Konflikt zu der auszuführenden Aufgabe, wodurch Fehler verursacht werden.

2.1 Physikalische Arbeitsumgebung

Einflüsse, die von außen auf den Menschen Einwirken, wie z.B. Lärm, Temperatur, Gerüche, etc.

50

60

70

80

90

100

100 200 300 400 500 600

Rückgang der Fehler in

%

Beleuchtungsstärke in Lux als Intensitätsvariable der Beleuchtung

Stanzen

Bohren

Abisolieren

Zuschneiden

Sägen

Wirkung der Beleuchtungsstärke auf die menschliche Zuverlässigkeit:

Quelle: Wirkung der Beleuchtungsstärke auf die menschliche Zuverlässigkeit bei industriellenTätigkeiten (aus GALL u. VÖLKER 1996)

Page 10: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 10 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Ausgewählte Faktoren im Hinblick auf menschliche Fehler (II)

Aufgaben beanspruchen unterschiedlich stark mentale Ressourcen. Die mentalen Ressourcen des Menschen unterliegen erheblichen kapazitiven Beschränkungen. Diese Beschränkung bewirkt, dass man bei der Ausführung von bestimmten Aufgaben mehr Fehler macht. Die deutliche Begrenzung der verfügbaren Kapazität des Arbeitsgedächtnisses (7±2 chunks) und die ungenaue Erinnerung aus dem Langzeitgedächtnis haben einen starken Einfluss auf die menschliche Zuverlässigkeit. Komplexe Folgen von Aufgabenelementen in einer speziellen Reihenfolge überbeanspruchen das menschliche Gedächtnis und führen zu Fehlverhalten [Park, 1997]. Aufgabencharakteristiken, die das Auftreten menschlicher Fehler begünstigen sind z.B.:

• Die Komplexität der Aufgabe • Die Zeitstruktur der Aufgabe • Die Vertrautheit mit der Aufgabe • …

2.2 Aufgabencharakteristik

Page 11: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 11 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

[Rasmussen, 1987]

Leistungsbeeinflussende Faktoren •Ziele und Absichten •Beanspruchung •Ressourcen •Affektive Faktoren

Situative Faktoren •Physik. Arbeitsumgebung •Aufgabencharakteristik •Zeitl. Arbeitsorganisation

Personal / Aufgaben

•Komponentenauslegung •Erstellung von Handlungsanweisungen •Herstellung •Montage •Wartung •Instandhaltung •Verwaltung •Beschaffung •Management

Ursachen menschlichen Fehlverhaltens

•Externe Ereignisse (Ablenkung etc.)

•Überforderung, Unterforderung (Kraft, Zeit, Kenntnis etc.)

•Unzureichende Leistungs- voraussetzung

(Krankheit etc.) •Intrinsische Variabilität

Mechanismen menschlichen Fehlverhaltens Diskrimination • Stereotyp-Fixation • Spontanreaktion auf vertraute Muster • Stereotyp-Übernahme • Nichterkennen vertrauter Muster Eingangsinformationsverarbeitung • fehlende oder fehlerhafte Wahrnehmung • Fehlinterpretation • Annahmen Gedächtnisaktivität • Vergessen einer isolierten Handlung • falsche Wahlentscheidung • sonstige Gedächtnisfehler Interferenz • Bedingung oder Nebeneffekt missachtet Physische Koordination • Variabilität der Motorik • räumliche Fehlorientierung

Interne Form des Fehlverhaltens Erkennen Assoziieren Regelanwendung Identifizieren Entscheiden • Zielauswahl • Handlungsgegenstand Planen • Aufgabe • Prozedur • Kommunikation

Externe Form des Fehlverhaltens Auslassungsfehler Ausführungsfehler • Reihenfolge • Zeitpunkt

Klassifizierungsansatz von Rasmussen: Multi-Aspekt-Taxonomie menschlichen Fehlverhaltens

Page 12: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 12 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Klassifizierungsansatz GEMS General Error Modeling System

fertigkeitsbasierte Ebene (Schnitzer und Patzer) Routinehandlung in einer vertrauten Umgebung

Aufmerksamkeits-Checks für den Handlungsfortgang

Zielzustand

regelbasierte Ebene (regelbasierte Fehler)

OK? OK? JA

JA

Beachte lokale Zustands- information

Problem

IST DAS MUSTER VERTRAUT?

Wende gespeicherte Regeln an.

WENN (Situation) DANN (Handlung)

NEIN IST DAS PROBLEM GELÖST?

Finde Analogie auf höherer Ebene

wissensbasierte Ebene (wissensbasierte Fehler)

Zurück zum mentalen Modell des Problemraums. Analysiere die abstrakteren Beziehungen zwischen Struktur und Funktion

Leite Diagnose ab und formuliere Korrekturhandlungen. Wende die Handlungen an. Betrachte das Ergebnis etc.

JA

NEIN

NEIN

wiederholte Versuche

KEINE GEFUNDEN

Unaufmerksamkeit Interferenz: Zwei simultane Pläne können zu einer Vermischung der ausgeführten Handlungen führen

Überaufmerksamkeit Versäumnis: Man glaubt, der Prozess sei schon weiter vorangeschritten, und lässt die Zwischenschritte aus

[Reason, 1994]

Probleme mit Kausalität: • Kausalitäten werden zu sehr vereinfacht • Unregelmäßigkeiten in der Zukunft werden unterschätzt • Verzerrungen durch die Repräsentativitäts- und

Verfügbarkeits-Heuristik (illusion of control; hindsight bias)

Fehlanwendung guter Regeln

Anwendung schlechter Regeln Enkodierdefizite: Merkmale einer bestimmten Situation werden entweder gar nicht oder im Wenn-Teil einer Regel falsch repräsentiert

erste Ausnahmen: Die erste Gelegenheit, bei der eine Ausnahme vom Regelfall auftritt, wird wahrscheinlich zum Fehler führen; dies gilt insbesondere, wenn die Regel in der Vergangenheit immer korrekt wirkte

Page 13: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 13 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Klassifizierungsansatz GEMS General Error Modeling System

Zeic

hen

Sym

bole

(Signale)

Sensorischer Input Signale Handlungen

Ziele

Entscheiden Identifizieren Planen

Erkennen Assoziieren Regeln

Merkmals- funktion

Sensumotorische Muster

Unaufmerksamkeit • Patzer bei

Belastungssuperposition • Versäumnisse nach

Unterbrechung • verkürzte Intentionalität • Wahrnehmungsverwirrung • Interferenzfehler

Fehlanwendung guter Regeln • erste Ausnahmen • Gegenanzeigen / Nicht-Zeichen • Informationsüberlastung • Stärke der Regeln • allgemeine Regeln • Redundanz • Rigidität

Selektivität • Beschränkungen im mentalen Modell • Vergessen („aus den Augen, aus dem Sinn“) • Hang zur Bestätigung • übermäßiges Vertrauen • Beurteilungsfehler (Halo-Effekt) • Probleme mit Kausalität • Probleme mit Komplexität

Anwendung schlechter Regeln • Enkodierdefizite • Handlungsdefizite • falsche Regeln • nicht empfehlenswerte

Regeln

Überaufmerksamkeit • Versäumnis • Wiederholung • Aufhebung

[Reason, 1994]

Page 14: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 14 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

[Reason, 1994]

Klassifizierungsansatz GEMS General Error Modeling System Beispiele für Fehlleistungen auf fertigkeitsbasierter Ebene:

„Ich nahm meinen Mantel, um das Haus zu verlassen, da klingelte das Telefon. Ich erledigte das Telefonat und ging dann ohne meinen Mantel zur Haustür hinaus.“ Versäumnis nach Unterbrechung

„Ich wollte das Fenster schließen, da es kalt war. Stattdessen machte ich die Schranktür zu.“ verkürzte Intentionalität

Beispiele für Fehlleistungen auf regelbasierter Ebene:

„Ein Freund wollte sich in den fließenden Verkehr einreihen. Er sah im Seitenspiegel, dass sich ein rotes Auto näherte. Dann sah er flüchtig im Rückspiegel ein rotes Auto, das noch ein Stück weit weg war. Er fuhr los und wurde von einem roten Auto beinahe angefahren. Es gab zwei von der Sorte. Er hatte jedoch angenommen, dass es sich um ein und dasselbe Fahrzeug handelt.“ Erste Ausnahmen

„Für eine Person, die nur einen Hammer besitzt, sieht jedes Problem wie ein Nagel aus.“ Rigidität

Beispiele für Fehlleistungen auf wissensbasierter Ebene:

Bei einem Kreditnehmer, der sauber und gepflegt ist und evtl. auch noch heiter und gelassen, wird der Bankangestellte eher weniger auf Formalitäten achten als bei einem ungepflegten, mürrischem Kunden. Halo-Effekt (Beurteilungsfehler, Wahrnehmungseffekt)

Eine Person schätzt vor der Wahl, dass die Partei X 30% der Stimmen erhalten wird. Tatsächlich gewinnt sie 50%. Nach der Wahl wird die Person gebeten,´sich zurück zu erinnern, wie ihre Schätzung war. Sie ist überzeugt, 40% geschätzt zu haben. Problem mit Kausalität, Hindsight bias (Rückschaufehler)

Page 15: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 15 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Problemdefinition

Darstellung des Einflusses menschlicher Fehler auf das System

Quantifizierung der menschlichenFehlerwahrscheinlichkeit

Aufgabenanalyse

Ermittlung der potentiellenmenschlichen Fehler

Untersuchung der Bedeutungder ermittelten Fehler

Umsetzung und Überwachungder Maßnahmen

Dokumentation der Analyse

Quantifizierunggewünscht/erforderlich?

Menschl.Zuverlässigkeit

ausreichendhoch?nein [qual.]

ja

[nach Kirwan,1994]

Festlegen von Maßnahmenzur quantitativen Fehlerreduktion

Festlegen von Maßnahmenzur qualitativen Fehlerreduktion

nein [quant.]

ja

nein

Spezielle Verfahren zur quantitativen Human Reliability Analysis:• HCR-Modell• THERP

Verfahren zur Analyse und Bewertung menschlicher Zuverlässigkeit: Generelles Vorgehen

Page 16: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 16 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Etwa 100 Mal am Tag...

[Bubb, 1992]

Datenquellen bzgl. menschlicher Fehler Datenerhebungsmethoden:

Simulatorstudien Laborexperimente Feldstudien Expertenschätzungen

Probleme: kein allgemeiner Konsens über Taxonomie der Daten große Vielfalt von Datenquellen Feldstudien im Anwendungsgebiet oft sehr schwierig bzw. unmöglich

Expertenschätzungen: am wenigsten valide Datenquelle oft einzige Möglichkeit

Schätzverfahren: eindimensionale hierarchische mehrdimensionale

Page 17: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 17 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

[Park, 1997]

1. Bei ereignisdiskreten Aufgaben:

2. Bei kontinuierlichen Aufgaben / Prozessen:

Human Error ProbabilityAnzahl fehlerhaft durchgeführter Aufgaben des Typs

Anzahl aller durchgeführten Aufgaben des TypsiHEP(i)

i=

Schätzung der menschlichen Zuverlässigkeit (I)

[ ]( )zeitabhängige Fehlerrate ( )

Anzahl der Fehler in ,( )

t

E t t dtt

dt

λ

λ+

=

2.1

2.2

konstante FehlerrateAnzahl menschlicher Fehler

Akkumulierte Aufgabenausführungszeit

constλ

λ

=

=Aufgabenausführungszeit

Page 18: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 18 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

1. Zuverlässigkeit (Reliability) der Aufgabe i:

2. bei n wiederholten, unabhängigen Aufgaben i:

3. bei zeitkontinuierlichen Aufgaben:

4. bei personeller Mehrfachbesetzung mit N Personen (Redundanz) der Zuverlässigkeit Rj:

Schätzung der menschlichen Zuverlässigkeit (II)

[Park, 1997]

( )( ) 1R i HEP i= −

( )( )( , ) 1-n

R i n HEP i= R(n)

2 1

1

1

( )

1 2 ( )( , )

( )

t

t

t t

t dt

e für constR t t

e für t

λ

λ

λ

λ

− −

== ∫

t2

( )1 21

( , ) 1 1N

jj

R t t R=

= − −∏R

Page 19: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 19 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

• Analoganzeige falsch ablesen

• Graphen falsch ablesen

• Störanzeige übersehen

• Stellteil bei hohem Stress in die falsche Richtung bewegen

• Ventil nicht schließen

• Checkliste nicht benutzen

• Checkliste nicht in der richtigen Reihenfolge abarbeiten

~ 0,003

~ 0,01

~ 0,003

~ 0,5

~ 0,005

~ 0,01

~ 0,5

Kataloge von Fehlerwahrscheinlichkeiten (I) Beispiel: Tätigkeiten in Kernkraftwerken

[Swain / Guttman, 1983]

HEP Tätigkeit

Page 20: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 20 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

• Einfache und häufig durchgeführte Aufgaben bei minimalem Stress

• Komplexere Aufgaben unter Zeitdruck, wobei eine gewisse Sorgfalt bei der Durchführung notwendig ist

• Komplexere, ungewohnte Aufgaben mit geringer Rückmeldung über den Erfolg und die Gefahr, Zerstörungen zu verursachen

• Hochkomplexe Aufgabe unter ziemlichem Stress und erheblichen

Zeitdruck • Unter extremem Stress durchgeführte Aufgaben, die aber sonst

nur selten bewältigt werden müssen

Aufgabenkategorie HEP

~ 0,001 ~ 0,01 ~ 0,1 ~ 0,3 ~ 1

[Bubb, 2000]

Kataloge von Fehlerwahrscheinlichkeiten (II) Beispiel: Abhängigkeit von der Belastungssituationen

Page 21: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 21 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Handlungen HEP (Streuung) A/a: Operateur unterlässt die Durchführung der folgenden Handlungssequenz

A=0,01 (0,005 - 0,05) B/b: Operateur unterlässt die Kontrolle des Schalters B=0,01 (0,005 - 0,05) C/c: Operateur unterlässt die Kontrolle eines Ventils C=0,01 (0,005 - 0,05) D/d: Schichtleiter kann Fehler nicht erkennen D=0,09 (0,009 - 0,9) E/e: Operateur vergisst Endprüfung E=0,01 (0,005 - 0,05)

Erfolg Misserfolg

Misserfolg

Misserfolg

Misserfolg

d=0,91

0305 , 0 ) (

) ( ) (

) (

= ⋅ ⋅ ⋅ +

⋅ ⋅ ⋅ ⋅ + ⋅ ⋅ ⋅ +

⋅ + =

E c b a E d C b a

D C b a B a

A PGesamt-Misserfolg

Fehlerwahrscheinlichkeiten – Großbuchstaben Erfolgswahrscheinlichkeiten – Kleinbuchstaben

Technique for Human Error Rate Prediction (THERP) Ereignisablaufdiagramm und Fehlerwahrscheinlichkeiten

[Swain / Guttman, 1983]

Page 22: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 22 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Zeit (normiert)

Wah

rsch

einl

ichk

eit f

ür n

icht

erf

olgr

eich

es R

eagi

eren

HCR Model

100

10-1

10-2

10-3

100 101

12ad

tT

( )P t≤τ

Human Cognitive Reliability (HCR) Model

Weibull-Wahrscheinlichkeits-verteilung mit Parametern:

12

itT iad

i

cc

R( t ) e

β

γ

η

− =

: Wahrscheinlichkeit, dass die Aufgabe innerhalb des Zeitfensters t nicht erfolgreich durchgeführt wird;

)1()1()1( 32121

21 KKKTT ad +⋅+⋅+⋅=

Korrigierter geschätzter Median der Reaktionszeit adT

21

Regulationsebene βi cγi cηi Fertigkeiten 1,13 0,72 0,388

Regeln 1,27 0,148 1,14 Wissen 0,795 0,389 0,969

Verteilungsparameter für Regulationsebene (Wissen, Regeln, Fertigkeiten) icc ii βηγ ,,

[Hannaman, Spurgin, Lukie, 1985]

Erfahrung K 1 : 1. Experte - 0,22 2. Durchschnittlich geübt 0,00 3. Anfänger 0,44

Erfahrung K 1 : 1. Experte - 0,22 2. Durchschnittlich geübt 0,00 3. Anfänger 0,44

Stress - Level K 2 : 1. Extrem 0,44 0,44 2. Hoch 0,28 3. normal 0,00 4. Gering 0,28

Stress - Level K 2 : 1. Extrem 0,44 0,44 2. Hoch 0,28 3. normal 0,00 4. Gering 0,28

Qualität des Cockpitdesigns K 3 : 1. Exzellent - 0,22 2. gut 0,00 3. Angemessen 0,44 4. Schlecht 0,78 5. Extrem schlecht 0,92

Qualität des Cockpitdesigns K 3 : 1. Exzellent - 0,22 2. gut 0,00 3. Angemessen 0,44 4. Schlecht 0,78 5. Extrem schlecht 0,92

( )P t≤τ

Page 23: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 23 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

[Bubb, 1992]

Maßnahmen zur Erhöhung der menschlichen Zuverlässigkeit

1. Vermeidung systematischer Fehler durch Verbesserung des

Arbeitssystems Benutzerzentrierte (anthropometrische + informationstechnische) Gestaltung Minderung physikalischer Umwelteinflüsse Personelle und organisatorische Maßnahmen Berücksichtigung sozialer Einflüsse

2. Vermeidung zufälliger Fehler durch Gestaltung fehlertoleranter

Systeme

Page 24: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 24 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Vermeidung zufälliger Fehler Beschränktes Versagen (fail-safe)

Kalkulation möglicher Schadensfälle, so dass das System bei Versagen in den sicheren Zustand geführt wird.

Abfangen von Überbeanspruchungen durch Sollbruchstellen / Sicherungen, wobei eine Vorrichtung den Schaden anzeigen muss

z.B.: Explosionsklappen, Hilfssysteme für Bremse oder Lenkung

Prinzip der Redundanz Funktionelle Redundanz: Mehrfachverwendung von Systemen mit gleicher Funktion.

Im Versagensfall übernimmt das zweite System die Funktion vollständig. z.B.: Fahrstuhl mit zwei Trageseilen, Rückleuchten am PKW Diversitäre Redundanz: Vermeidung von systematischen Fehlern durch Verwendung

verschiedener Wirkprinzipien; z.B.: elektrische und mechanische Bremse

Page 25: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 25 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Redundante Systeme – diskrete Analyse Parallelsysteme (1-von-n-Systeme) befinden sich nur dann in einem Zustand der Nichtverfügbarkeit, wenn alle Subsysteme U1 bis Un Nichtverfügbarkeitszustände kennzeichnen.

U1

U2

...

Un

Wahrscheinlichkeit der Nichtverfügbarkeit (U) bei unabhängigen Fällen:

ei : Schadensereignis Subsystem i

Ui = P(ei) : Nichtverfügbarkeitswkt. Subsystem i

Vi = 1-Ui : Verfügbarkeitswkt. Subsystem i

U : Nichtverfügbarkeitswkt. Gesamtsystem

( ) ( )

( ) ( ) ( )nn

n

ii

n

ii

n

ii

eP...ePe...eP

eP-VUU

⋅⋅=∩∩

=== ∏∏∏===

11

111

1

U ( )U10log

iU

iUiU

iU

Page 26: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 26 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Redundante Systeme – kontinuierliche Analyse (I)

Vorhersage der Lebensdauer einzelner Komponenten Ki Berechnung der Ausfallwahrscheinlichkeit Weibull-Verteilung (β: Formparameter, λ: Skalierungsparameter):

Mit (Rayleigh-Verteilung) und :

βλβλβλβ xexxWei −−⋅⋅= 1),,(

2=β 1=λ2

2)( xRayleigh exxf −⋅=

K1

K2

...

Kn

Lebensdauer

Weibull - Dichtefunktion für verschiedene Formparameter k Weibull - Dichtefunktion für verschiedene Formparameter k D

icht

efun

ktio

n

Page 27: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 27 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

0 0.5 1 1.5 2 2.5 30

0.2

0.4

0.6

0.8

1

1.2

Redundante Systeme – kontinuierliche Analyse (II) Ausfallwkt. einer Komponente Ki bis zu einem bestimmten Zeitpunkt t für und :

Ausfallwkt. eines Systems aus n parallelen gleichwertigen Komponenten

bis zu einem bestimmten Zeitpunkt t:

Lebensdauer

τ: Zeit zwischen Ausfällen

2β = 1λ =

𝑃𝑃 𝜏𝜏 ≤ 𝑡𝑡 = 𝑃𝑃 𝜏𝜏1 ≤ 𝑡𝑡 ⋅ … ⋅ 𝑃𝑃 𝜏𝜏𝑛𝑛 ≤ 𝑡𝑡 = 1 − 𝑒𝑒−𝑡𝑡2𝑛𝑛

𝑃𝑃 𝜏𝜏 ≤ 𝑡𝑡 = � 2𝑥𝑥 ⋅ 𝑒𝑒−𝑥𝑥2𝑑𝑑𝑥𝑥𝑡𝑡

0= 1 − 𝑒𝑒−𝑡𝑡2

Dic

htef

unkt

ion

1-von-1-System 1-von-2-System 1-von-3-System 1-von-4-System

Page 28: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 28 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Lernerfolgsfragen

Was sind die wichtigsten Einflussgrößen menschlicher Fehler?

Welche Klassifizierungsansätze für menschliche Fehler, orientieren sich an Fertigkeiten, Regeln und Wissen?

Welche Methoden zur Schätzung menschlicher Zuverlässigkeit kennen Sie?

Was sind die wichtigsten Maßnahmen zu Vermeidung menschlicher Fehler?

Page 29: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 29 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Literaturverzeichnis Bubb, H.: http://www.lfe.mw.tu-muenchen.de, 2000 Bubb, H. (Hrsg.): Menschliche Zuverlässigkeit. ecomed, Landsberg/Lech, 1992 Gall, D., Völker, S. (1996) Nutzen einer besseren Beleuchtung, Abschlussbericht TU

Illmenau, zitiert nach licht wissen. Heft 05 „Industrie und Handwerk“ Hagen, E.; Mays, G.: Human Factors Engineering in the U.S. Nuclear Arena. Nuclear Sa-fety,

17(3), 315-326, 1981 Hannaman, G.; Spurgin, A.; Lukic, Y.: A Model for Assessing Human Cognitive Reliability in

PRA Studies. Proceedings IEEE Conference on Human Factors and Power Plants, Monterey, CA, New York,1985

Hollnagel, E.: Human Reliability Analysis: Context and Control. Academic Press, London, 1993

Kirwan, B.: A Guide to Practical Human Reliability Assessment. Taylor & Francis, London, 1994

Meister, D.: Human Factors: Theory and Practice. John Wiley, New York, 1971 Meister, D.: Human Error in Man Machine Systems. In: N.T. Brown (ed.), Human Aspects of

Man-Machine Systems, Open University Press, Miltore (UK), 1977 Miller, D.; Swain, A.: Human Error and Human Reliability. In: G. Salvendy (ed.), Handbook of

Human Factors/Ergonomics. John Wiley, New York, 1986 Norman, D.A.: Cognitive Engineering. In: D.A. Norman, S.W. Draper (eds.), User Centered

System Design. Lawrence Earlbaum Associates, 1986.

Page 30: Ergonomie und Mensch -Maschine-Systeme · Verfügbarkeits-Heuristik (illusion of control; hindsight bias) Fehlanwendung . guter Regeln . Anwendung schlechter Regeln . Enkodierdefizite:

8 - 30 © Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen

Literaturverzeichnis Park, S.K.: Human Error. In: G. Salvendy (ed.), Handbook of Human Factors and

Ergonomics, New York: John Wiley, 1997 Rasmussen, J.: The Definition of Human Error and a Taxonomy for technical System Design.

In: J. Rasmussen et al. (eds.), New Technology an Human Error. John Wiley, New York, 1987 Reason, J.: Human Error. Cambridge University Press, Cambridge, 1990 Reason, J.: Identifying the Latent Causes of Aircraft Accidents Before and After the Event.

22nd Annual Seminar, The International Society of Air Safety Investigators, Canberra, 1991. Reason, J.: Menschliches Versagen : psychologische Risikofaktoren und moderne

Technologien. Aus dem Amerikan. Übers. von Joachim Grabowski. Spektrum Akad. Verl., Heidelberg, 1994

Rigby, L.: The Nature of Human Error. Annual technical conference transactions of the ASQC, 1970

Rouse, W.B.; Rouse, S.H.: Analysis and Classification of Human Errors. IEEE Transactions on Systems, Man and Cybernetics, Vol. SMC-13, No. 4, 1983

Schlick, C.; Bruder, R.; Luczak, H.: Arbeitswissenschaft. Springer, Berlin, 2010 Swain, A.D.; Guttman, H.E.: Handbook of Human Reliability Analysis with Emphasis on

Nuclear Power Plant Applications NUREG/CR-1278. Sandia Laboratories, Albuquerque, 1983 VDI-Richtlinie 4006 Blatt 2 (2003) Menschliche Zuverlässigkeit Methoden zur quantitativen

Bewertung menschlicher Zuverlässigkeit. VDI-Verlag, Düsseldorf Zimolong, B.: Fehler und Zuverlässigkeit. In: Ingenieurpsychologie, Enzyklopädie der

Psychologie, Band 2. Hogrefe, Göttingen, 1990