92
Masterarbeit Human Computer Interaction: Analyse und Segmentierung von PC- Peripheriegeräten Verfasser: Gregor J. Jessner 1150 Wien Betreuung: Univ. Prof. Dr. W. Grossmann Angestrebter akademischer Grad: Diplom-Ingenieur (Dipl.-Ing.) Studienkennzahl lt. Studienblatt: A 066 926 Studienrichtung lt. Studienblatt: Masterstudium Wirtschaftsinformatik Ort und Jahr der Einreichung: Wien, 2008

Human Computer Interaction: Analyse und Segmentierung von ...othes.univie.ac.at/3391/1/2008-12-12_0000949.pdf · PC gearbeitet wird, ob gesundheitliche Beschwerden auftreten, die

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Masterarbeit

Human Computer Interaction:

Analyse und Segmentierung von

PC- Peripheriegeräten

Verfasser:

Gregor J. Jessner

1150 Wien

Betreuung:

Univ. Prof. Dr. W. Grossmann

Angestrebter akademischer Grad: Diplom-Ingenieur (Dipl.-Ing.)

Studienkennzahl lt. Studienblatt: A 066 926

Studienrichtung lt. Studienblatt: Masterstudium Wirtschaftsinformatik

Ort und Jahr der Einreichung: Wien, 2008

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 1

Inhaltsverzeichnis

1. Abstrakt ................................................................................................................................... 3

2. Einleitung und Motivation ....................................................................................................... 3

3. Das Feld der Human-Computer Interaction ............................................................................ 5

3.1 Einführung ..................................................................................................................... 5

3.2 Historische Entwicklung ................................................................................................. 7

3.3 User Centered Design .................................................................................................... 8

3.4 Gesetzliches zur Bildschirmarbeit ................................................................................ 10

3.5 Standards ..................................................................................................................... 11

4. Hardware ............................................................................................................................... 13

4.1 Bildschirm .................................................................................................................... 13

4.1.1 Geschichtliche Entwicklung und Funktionsweise ........................................ 13

4.1.2 Bildschirme im Kontext der HCI ................................................................... 16

4.2 Tastatur ........................................................................................................................ 18

4.2.1 Geschichtliche Entwicklung und Funktionsweise ........................................ 18

4.2.2 Tastaturen im Kontext der HCI .................................................................... 23

4.3 Computermaus ............................................................................................................ 24

4.3.1 Geschichtliche Entwicklung und Funktionsweise ........................................ 24

4.3.2 Computermäuse im Kontext der HCI ........................................................... 27

4.4 Schnittstellen- Standards ............................................................................................. 28

4.4.1 Einführung ................................................................................................... 28

4.4.2 Serielle Schnittstelle .................................................................................... 29

4.4.3 Parallele Schnittstelle .................................................................................. 30

4.4.4 PS/2 Schnittstelle ......................................................................................... 31

4.4.5 Universal Serial Bus ...................................................................................... 32

5. Vorgehensweise und verwendete statistische Methoden .................................................... 34

5.1 Conjoint Analyse .......................................................................................................... 34

5.2 Clusteranalyse .............................................................................................................. 36

5.3 Assoziationsanalyse ..................................................................................................... 38

5.4 Vorgehensweise........................................................................................................... 39

6. Die Datenerhebung ............................................................................................................... 42

6.1 Statistischer Hintergrund ............................................................................................. 42

6.2 Erstellung des Fragebogens ......................................................................................... 43

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 2

6.3 Der Vor-Test ................................................................................................................ 47

6.4 Der Fragebogen ........................................................................................................... 48

6.5 Die Umfrageteilnehmer .............................................................................................. 50

7. Die Analyse ............................................................................................................................ 51

7.1 Auswertung der allgemeinen Fragestellungen ........................................................... 51

7.2 Auswertung der Monitore .......................................................................................... 55

7.2.1 Betrachtung der Ist–Situation ..................................................................... 55

7.2.2 Betrachtung der Soll–Situation ................................................................... 56

7.3 Auswertung der Tastaturen ........................................................................................ 60

7.3.1 Betrachtung der Ist–Situation ..................................................................... 60

7.3.2 Betrachtung der Soll–Situation ................................................................... 61

7.4 Auswertung der Computermäuse ............................................................................... 64

7.4.1 Betrachtung der Ist–Situation ..................................................................... 64

7.4.2 Betrachtung der Soll–Situation ................................................................... 66

7.5 Komponentenübergreifende Ergebnisse der Analyse ................................................ 69

8. Ausblick auf die Zukunft der Hardware-HCI ......................................................................... 71

8.1 Virtual & Mixed Reality ............................................................................................... 71

8.2 Eingabe mittels Blickrichtung ...................................................................................... 76

9. Conclusio ............................................................................................................................... 78

10. Literatur- und Quellenverzeichnis ...................................................................................... 79

Anhang ...................................................................................................................................... 82

Abstrakt – Deutsch ............................................................................................................ 82

Abstract – English .............................................................................................................. 82

Lebenslauf: Wissenschaftlicher Werdegang ..................................................................... 83

SPSS Syntax für das orthogonale Design ........................................................................... 83

SPSS Syntax für die Conjoint Analyse ................................................................................ 84

SPSS Syntax der Cluster Analyse für die Monitor-Komponente ....................................... 85

Dendrogramme der Clusteranalysen ................................................................................ 86

Teilnutzen der Monitorcluster .......................................................................................... 88

Teilnutzen der Tastaturcluster .......................................................................................... 89

Teilnutzen der Mauscluster .............................................................................................. 90

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 3

“I’m a very selfish designer: when I design software, I design it for me. And so my first task is to become you.”

Bruce Tognazzini, 1995

1. Abstrakt

Die vorliegende Arbeit handelt von der Human-Computer Interaction (HCI). Im Speziellen

wird hierbei die menschliche Interaktion mit den wesentlichsten Eingabe- und

Ausgabegeräten analysiert. Im Zeitalter einer omnipräsenten Digitalisierung üben IT

Systeme einen wesentlichen Einfluss auf uns aus, sodass die Interaktion mit Computern

zur täglichen Routine zählt. Eines der vielfältigen Ziele des wissenschaftlichen Feldes der

Mensch-Computer Interaktion ist es, diese Interaktion und Kommunikation so einfach und

bequem wie möglich zu gestalten. Einführend werden Konzepte und Grundprinzipien der

HCI, sowie ihre Auswirkung auf gesetzliche Vorschriften, erläutert.

Mit Hilfe statistischer Methoden werden die Kundenpräferenzen bestimmt und Auskunft

über die Wichtigkeit von ausgewählten Merkmalen und deren Ausprägungen gegeben. Da

der Bildschirm, die Tastatur als auch die PC Maus zu den wichtigsten Aus- und

Eingabegeräten zählen, konzentriert sich die Studie auf diese Komponenten. Zur

Sammlung der erforderlichen Informationen wurde eine Online-Umfrage mit 110

Teilnehmern durchgeführt. Den Hauptteil bildet die Präsentation der Umfrage und deren

Ergebnisse, inklusive einer Conjoint Analyse, Cluster Analyse sowie einer

Assoziationsanalyse für die drei erwähnten Interaktionsgeräteklassen. Da die Umfrage

auch Informationen zu allgemeineren Themen, etwa über die Art der PC Nutzung oder

über ergonomische Aspekte erhebt, werden auch diese Resultate im Hauptteil präsentiert.

Darüber hinaus werden die einzelnen Hardwarekomponenten und deren historischen

Entwicklungen beschrieben.

Im Schlussteil werden die Zukunftsaussichten im Bereich der PC-Interaktionen angeführt,

vor allem soll hierbei auf die hoch entwickelten Virtual und Mixed Reality Interfaces

eingegangen werden.

2. Einleitung und Motivation

Ziel der Arbeit ist die Untersuchung der hardwarespezifischen Interaktion zwischen PC-

Systemen und deren Benutzer. Im Fokus der Untersuchung stehen die verbreitesten

Peripheriesysteme, die bei der Eingabe sowie Ausgabe von Information behilflich sind.

Diese Komponenten sind die Bildschirme bei den Ausgabegeräten, bei den Eingabegeräten

werden Tastaturen und Computermäuse untersucht. Erforscht wird die Wichtigkeit

bestimmter Merkmale und wie sich deren Ausprägungen auf den Gesamtnutzen des

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 4

Benutzers auswirken. Homogene Nutzergruppen werden identifiziert und an ihre

Bedürfnisse angepasste Geräte vorgestellt.

Im dritten Abschnitt der Arbeit geht der Autor auf die wesentlichen Aspekte der Human

Computer Interaction (HCI) ein. Neben den Begriffserklärungen und der geschichtlichen

Entwicklung soll eine Einführung in das Thema präsentiert werden. So werden das

Konzept des User Centered Designs und Regeln beziehungsweise Richtlinien für eine

gesundheitsschonende Interaktion mit dem PC vorgestellt. Darüber hinaus wird auf

gesetzliche Bestimmungen eingegangen.

Das vierte Kapitel befasst sich mit den technischen Details zum Thema

Computerperipherie und gibt einen Überblick über deren geschichtliche Entwicklung.

Erläutert werden die vielfältigen Standards zum Verbinden von Ein- und Ausgabegeräten,

aber auch sonstiger externer Hardware mit dem PC.

Das folgende, fünfte Kapitel erklärt die statistischen Methoden, die in der Auswertung der

Umfrage angewandt werden. Diese sind die Conjoint Analyse als Basis für die weitere

Auswertung, sowie die Clusteranalyse und die Assoziationsregeln, die auf den Ergebnissen

der Conjoint Analyse aufbauen.

Details zur Erstellung und Verteilung des Fragebogens und Ähnlichem erhalten Sie im

Kapitel Datenerhebung. Hierzu zählt auch die Durchführung des Pretests. Der Abschluss

dieses Abschnitts ist der Beschreibung der demographischen Daten der

Umfrageteilnehmer gewidmet.

Kapitel 7 ist der Auswertung der zu analysierenden Komponenten gewidmet. Als

Nebenprodukt der Arbeit sollen unter Anderem allgemeinere Fragen zum

Computergebrauch beantwortet werden. Beispielhaft wird ermittelt, wie lange täglich am

PC gearbeitet wird, ob gesundheitliche Beschwerden auftreten, die Anzahl der PCs im

Besitz, usw. Mit Hilfe statistischer Methoden werden die Kundenpräferenzen bestimmt

und so Auskunft über die Wichtigkeit von Merkmalen und deren Ausprägungen geben. Da

eine individuell angepasste Produktion der einzelnen Ein- und Ausgabegeräte kaum

sinnvoll beziehungsweise möglich ist, sollen daher mit Hilfe der Clusteranalyse einzelne

Marktsegmente identifiziert werden. Diesen Segmenten kann anschließend ein

Idealprodukt zugeteilt werden. Nach Definieren der einzelnen Marktsegmente für jedes

einzelne Eingabe- und Ausgabesystem kann mit Hilfe von Assoziationsregeln ein Vergleich

zwischen den Peripheriegeräten durchgeführt werden. Unter Umständen sind häufige

Marktsegmentkombinationen identifizierbar. So lassen sich auch die Präferenzen einer

Person für ein bestimmtes Produkt vorhersagen, wenn ihre Daten über die

Wunschvorstellungen der anderen Ein- und Ausgabegeräte vorhanden sind.

Im folgenden Abschnitt möchte der Autor auf die Zukunftsperspektiven der

Computerinteraktion, mit dem steten Fokus auf die Hardware, eingehen. Wesentlichen

Einfluss auf zukünftige Anwendungen scheint neben anderen Technologien die Virtual und

Mixed Reality auszuüben. Diese fortschrittlichen, interaktiven User Interfaces sind zwar

bereits länger Forschungsobjekte, sind allerdings noch zu teuer für eine weite

Verbreitung.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 5

Im Abschluss werde ich eine kurze Zusammenfassung der Arbeit geben. Ebenso sind in der

Conclusio Gedanken des Autors zur Durchführung der Studie und des Themengebietes

enthalten.

Meine Motivation zur Auswahl dieses Themas ist zum Ersten das Interesse an der

Computerhardware. Dies betrifft zum Einen die Technik der verschiedenen

Computerkomponenten, deren Funktionsweisen und Geschichte. Zum Anderen

interessiert sich der Autor nicht nur für die Theorie hinter der Hardware, sondern ist auch

dem Assembling zugetan.

Der zweite Punkt, das Interesse an der Ergonomie, beruht auf eigenen regelmäßig

auftretenden Schmerzen während längerer Computerbedienung. Somit geht die Arbeit

auch auf diese Aspekte ein, erläutert mögliche Gesundheitsrisiken und bietet Vorschläge

zu deren Minderung an, umreißt aber ebenso die rechtlichen Vorgaben durch die Republik

Österreich.

3. Das Feld der Human - Computer Interaction

3.1 Einführung

Das wissenschaftliche Feld der HCI ist eine junge Disziplin, die sich, stark vereinfacht

ausgedrückt, mit den Formen der Interaktion zwischen Computern und deren Benutzern

auseinandersetzt. Eine häufig anzutreffende Definition stammt von der Association for

Computing Machinery (ACM). Demnach ist die Human-Computer Interaction „a discipline

concerned with the design, evaluation and implementation of interactive computing

systems for human use and with the study of major phenomena surrounding them.”

(Hewett, Baecker, Card, Carey, Gasen, Mantei, Perlman, Strong & Verplan, 1992).

Auch wenn es mehrere Definitionen der HCI gibt, so ist man sich einig, dass die HCI aus

vielen Einzeldisziplinen besteht. Zu diesen zählen nach Stone, Jarrett, Woodroffe und

Minocha (2005) die Informatik inklusive technischer Informatik, Psychologie, Ergonomie

und Grafikdesign. Für Shneiderman (1998) tragen darüber hinaus auch die Soziologie und

Anthropologie einen wichtigen Anteil bei. Je nach Herkunft der Spezialisten ergibt sich

eine andere Sicht auf das Thema, für ACMs Fachgruppe Special Interesst Group in

Computer-Human Interaction (SIGCHI) ist das zentrale Element die Informatik, alle

anderen Wissenschaften dienen als unterstützende Gebiete. Einen guten Überblick über

die jeweiligen Fachgebiete und deren Beitrag zur HCI bietet Shneiderman (1998) an:

Die Theorien über menschliche motorische und geistige Leistungen stammen meist

aus den Richtungen der Psychologie, Ergonomie und teilweise aus der Informatik

selbst.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 6

Den Software Designern schreibt Shneiderman das Vorantreiben der

Informationsrepräsentation zu. Hierzu zählen neben den grafischen Formen auch die

nicht-visuellen Sinneskanäle, explizit wird die Nutzung von Tönen und Geräuschen

erwähnt. Außerdem erwähnt Shneiderman die Virtual Reality, auf die in dieser Arbeit

im Kapitel 7 näher eingegangen wird.

Die Verbesserung der Hardwarekomponenten geschieht durch Hardware- und

Systementwickler. Sie untersuchen die für die HCI wesentlichen, auch in dieser Studie

im Mittelpunkt stehenden, Eingabe- und Ausgabegeräte.

Für Soziologen, Anthropologen und sogar Philosophen eignen sich Untersuchungen

der menschlichen Komponente der HCI, zum Beispiel die Auswirkungen auf soziale

Veränderungen oder Änderungen in der Arbeitswelt.

Diese Aufzählung ist natürlich nicht vollständig. Sie soll jedoch vorführen, dass die HCI ein

sehr breites interdisziplinäres Feld mit einer großen Anzahl an Aufgabenstellungen ist.

Die HCI beschäftigt sich nicht nur mit der Nutzung von PCs, sondern schließt alle Arten von

Computern ein. Somit fallen auch Mainframes, integrierte Computersysteme und ähnliche

Produktgruppen in diese Kategorie. Daraus ergibt sich eine klare Abgrenzung zum sehr

ähnlichen Feld der Man-Machine Interaction, das darüber hinaus auch alle anderen Arten

von Maschinen einbezieht. Der Fokus auf die IT unterscheidet diese Disziplin auch von der

Ergonomie, die oft auch als Human Factors bezeichnet wird. Dieses Feld geht noch einen

Schritt weiter und befasst sich mit der menschlichen Interaktion mit allen erzeugten

Produkten (Hewett, Baecker, Card, Carey, Gasen, Mantei, Perlman, Strong & Verplan,

1992).

Für Shneiderman (1998) ist das ultimative Ziel der HCI die Verbesserung der quality of life

des Computernutzers. Jede von ihm zu erledigende Aufgabe soll unter Berücksichtigung

der individuellen Eigenschaften und Merkmale durchzuführen sein. Betrachtet man ein

Computersystem, so soll dieses unter Berücksichtigung der Aufgaben, die an es gestellt

werden, entwickelt werden. An ein PDA werden selbstverständlich andere Software- und

Hardwareanforderungen gestellt als an ein Computerprogramm für Spezialisten oder ein

öffentliches Ticketterminal an einem Bahnhof. Daher soll das System die entsprechenden

zentralen Arbeitsprozesse bestmöglich unterstützen.

Allerdings erwarten sich die User nicht nur innerhalb eines Systems oder Anwendung eine

gewisse Konsistenz, sondern auch übergreifend: Das Bild einer Diskette soll den

Speicherbefehl ausführen, dessen Bedeutung seit Computeranfängen die gleiche ist,

anstatt den Benutzer mit einer neuen Funktion zu Überaschen. Unzählige Standards von

Unternehmen, unabhängigen Organisationen und de-facto Standards sind maßgeblich am

Design beteiligt. Einen detaillierteren Überblick über die Standards und Vorgehensweisen

erhalten Sie in den Kapiteln 3.3 bis 3.5.

Ein wesentlicher Begriff der HCI ist das User Interface. Darunter werden in diesem Kontext

alle Komponenten zusammengefasst, die eine Kommunikation mit einem Computer

ermöglichen. Stone, Jarrett, Woodroffe und Minocha (2005, S.4) bezeichnen das User

Interface als „that part of the computer system with which a user interacts in order to

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 7

undertake his or her tasks and achieve his or her goals“. Für einen typischen PC würden

hierzu nebst der entsprechenden Software ein Monitor als Ausgabegerät, sowie eine

Tastatur und eine Maus als Eingabegeräte fungieren. Diesen drei Peripheriegeräten

werden in dieser Studie besondere Aufmerksamkeit geschenkt. Die immense Wichtigkeit

der User Interfaces für deren Benutzer zeigt sich, dass für viele Personen das User

Interface nicht nur der Kommunikation dient, sondern das gesamte Computersystem

ausmacht – oder in den Worten der eben erwähnten Autoren: „*…+ to users the interface

often is the system.“ (Stone, Jarrett, Woodroffe & Minocha, 2005, S.4).

3.2 Historische Entwicklung

Aufgrund der vielen Teilgebiete der HCI ist es nicht einfach einen genauen Zeitpunkt als

Anfang festzulegen. Jede Disziplin hat ihren Beitrag geleistet, sodass kaum ein bestimmtes

Jahr als Geburtsjahr bestimmt werden kann.

Ein wichtiges Datum der vergangenen HCI ist für J. Canny (2006) das Jahr 1973. Zu dieser

Zeit, bereits bevor IBM mit dem PC eine neue Ära der Computergeschichte begründete,

überwiegen Minicomputer und Großrechner. Getrieben von der Vision, Computer für

jedermann herzustellen, veröffentlicht Xerox PARC seinen Alto Desktop Computer. Dass

dieser PC- Vorläufer niemals kommerziell erfolgreich wurde ordnet Canny den Umständen

zu, dass für den Alto trotz seiner technischen Qualitäten zu wenig Marktforschung

betrieben wurde, das System keinen Software-Verkaufsschlager besaß, noch wurde

dessen Software benutzerfreundlich gestaltet. Demgegenüber stellt er den von Xerox

1976 entwickelten Star vor, der seiner Meinung zu Recht als Begründer der HCI gilt.

Entscheidenden Anteil an der Benutzerfreundlichkeit ist insbesondere dem Windows,

Icons, Mouse, Pointer (WIMP)-Paradigma mit dessen grafischer Benutzeroberfläche

zuzuschreiben - und auf diese Art den Computern den Weg zur Nutzung durch die

Allgemeinheit ebnete (Canny, 2006). Allerdings konnte auch dieser Computer nie die

erhoffte Popularität erringen, entgegen des ausgezeichneten Interfacedesigns, des

ausgereiften Entwicklungsprozesses für die Softwareherstellung und der

benutzerfreundlichen Gestaltung. Der Grundgedanke des WIMP Paradigmas ist allerdings

noch heute in den meisten Anwendungen erkennbar.

Die nahe Zukunft der HCI scheint aufregend und vielversprechend zu werden. Die stetig

steigende Verbreitung von Computern aller Art, zunehmende Automatisierung und

technischer Fortschritt garantieren eine intensive Auseinandersetzung mit HCI-

spezifischen Themen. Als Beispiele für zukünftig wichtige Forschungsbereiche nennt

Shneiderman (1998) die Reduzierung der Computerangst, eine automatische Anpassung

der Programme an die steigenden Programmkenntnisse der Benutzer, die Entwicklung

fortgeschrittener Werkzeuge zur Definition und Implementierung von Interaktionen sowie

das Vorantreiben der aktuellen User Interface Hardware. Canny (2006) erhofft sich von

zukünftigen Entwicklungen Verbesserungen im Bereich der kontextabhängigen Mensch

Computer Interaktion. Dies bedeutet, dass unter Berücksichtigung der

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 8

benutzerspezifischen Historie, umweltbedingter und situativer Faktoren und Ähnliches

intelligente Interaktionen ermöglicht werden.

3.3 User Centered Design

Ein wesentlicher Gedanke der HCI ist die Anpassung der Benutzerschnittstellen an den

Systembediener. Die User-Centered Design (UCD) Methode ist ein Ansatz, der Herstellern

bestmöglich bei der Umsetzung dieses Gedankens unterstützen soll. UCD basiert auf dem

internationalen Standard ISO 13.407 Human-Centered Design Process. Da es nicht

ausreicht, nur den zukünftigen Benutzer und dessen Aufgaben zu identifizieren,

beschäftigt sich diese Methode auch mit dessen organisationeller, physischer und sozialen

Umgebung (Stone, Jarrett, Woodroffe & Minocha, 2005).

UCD basiert auf einem iterativen Entwicklungsprozess mit einer frühestmöglichen, starken

Einbindung der zukünftigen Benutzer. Stone empfiehlt für UCD Projekte den in Abbildung

1 dargestellten Star Life Cycle als Vorgangsmodell zu wählen. Er unterstützt ihrer Meinung

nach ausgezeichnet den iterativen

Gedanken und verdeutlicht mit der

zentral positionierten Evaluierung die

Wichtigkeit der Usereinbindung. Die

Einbindung der Benutzer beginnt

üblicherweise bei der Erfassung der

Anforderungen. Dabei sollten neben

den zukünftigen Nutzern auch alle

anderen Stakeholder mit berechtigtem

Interesse am neuen Interface

eingebunden werden. Weitere Phasen mit wesentlicher Einbindung sind laut dem

erwähnten Autorenteam während der Prototypentwicklung und –bewertung, kurz vor

Einführung des Systems und während der Schulungen.

Neben der Auswahl des passenden Vorgehensmodells sind auch personelle Ressourcen

auschlaggebend für den Erfolg. So soll das Entwicklerteam umfassende Kenntnis der HCI

besitzen und somit auf Ressourcen der bereits erwähnten unterschiedlichen

unterliegenden Wissensfelder zurückgreifen können.

Wenn das Ziel vorgegeben wird, eine bestmögliche Anpassung an den Benutzer zu

erreichen, muss auf dessen Besonderheiten eingegangen werden. Dabei müssen insofern

Abstriche gemacht werden, dass die Ausrichtung anhand einer Zielgruppe erfolgt, da es

nicht üblich und sinnvoll ist, auf jedes Individuum gesondert zu agieren. Ein unerlässliches

Kriterium sind die physischen Merkmale. Die Anthropologie, die sich mit der Entwicklung

und den Unterschieden der menschlichen körperlichen Eigenschaften beschäftigt, stellt

für diese Zwecke ausreichend Unterlagen zur Verfügung. Von besonderem Interesse für

die Gestaltung von Hardware-Benutzerschnittstellen sind die Körpermaße. Allerdings gibt

Shneiderman (1998) zu bedenken, dass es keinen „Durchschnittsbenutzer“ gibt, und daher

Abbildung 1: Star Life Cycle als UCD- Prozess (nach Stone et al., 2005)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 9

im Falle einer einheitlichen Produktentwicklung für die Teilmenge der Benutzer, die weit

vom Mittelwert der Zielgruppe gestreut sind, etliche Abstriche vom Ideal gemacht werden

müssen. Neben den Körpermaßen betont Shneiderman (1998) noch die Wichtigkeit von

dynamischen Aktionen – darunter versteht er etwa die Größe der Zugriffsfläche in

sitzender Position oder die Muskelkraft – und Wahrnehmungsfähigkeiten, vor allem

visuelle Merkmale stehen hierbei im Mittelpunkt.

Verständlicherweise sind auch kulturelle Unterschiede zu beachten. Die Sprache, deren

Buchstaben und Zeichen, und nationale Maßeinheiten sind offensichtliche kulturelle

Differenzen. Verhaltensmuster sowie Gedankenmodelle sind komplizierter zu

identifizieren, sollten allerdings ebenfalls nicht vernachlässigt werden. Wie wichtig

Lokalisierungen sind kann aus Hardwaresicht anhand der erhältlichen Tastaturvarianten

veranschaulicht werden. Viele Sprachen enthalten Sonderzeichen, sodass zusätzliche

Tasten gegenüber dem amerikanischen 104-tastigen Standardmodell zur Verfügung

stehen müssen, oder benutzen gar ein anderes Zeichensystem. So erlauben kyrillische

oder Tastaturen für asiatische Sprachen neben den lokalen Zeichensätzen meist eine

Eingabe lateinischer Buchstaben. Nicht lokalisierte Tastaturen haben gegenüber lokalen

Konkurrenzprodukten kaum Marktchancen. Ähnliches gilt für den Softwarebereich.

Shneiderman (1998) führt als einen weiteren Faktor zur Gestaltung benutzerzentrierter

Userinterfaces die persönlichen Unterschiede an, wobei er hier dem Geschlecht des

Benutzers eine wesentliche Bedeutung zuschreibt und dies anhand von bevorzugten

Lieblingsspielen und –genres verdeutlicht. Als Unterstützung zur Kategorisierung der

Persönlichkeit empfiehlt er die Verwendung des Myers-Briggs Type Indicator (MBTI), das

auf Carl Gustav Jungs Theorie der vier Archetypen aufbaut (Abb. 2). Diese kostenpflichtige

Methode ist im Eigentum des Unternehmens CPP, welche MBTI in erster Linie als

Werkzeug für Karriereberater und das Personalmanagement bewirbt (CPP, 2008). Frei

zugängliche Varianten wurden jedoch ebenfalls entwickelt.

Abbildung 2: Kategorisierung der Persönlichkeit mit Hilfe der 8 MBTI-Dimensionen (nach Shneiderman, 1998; Wikipedia, 2008)

Die MBTI Methode baut auf einen umfassenden Fragebogen mit dichotomen

Antwortmöglichkeiten auf. Nach der Auswertung erfolgt die Einteilung in eine von 16

möglichen Persönlichkeitskategorien mit detaillierten Erläuterungen zum

Persönlichkeitstyp.

Der Fokus der UCD- Methode auf die Benutzer und deren Aufgaben, zusammen mit dem

vom Entwicklungsteam zur Verfügung gestelltem HCI-Wissen, sollen die

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 10

Entwicklungskosten senken, Benutzerzufriedenheit und Effizienz steigern. Dies trifft für

die Softwaregestaltung ebenso zu wie für Hardwarekomponenten.

3.4 Gesetzliches zur Bildschirmarbeit

Zum Schutze ihrer Bürger beschäftigen sich auch Gesetzesgeber mit der HCI, im Speziellen

mit der Ergonomie. Im Vordergrund stehen hierbei für die europäischen Staaten

gesundheitliche und sicherheitstechnische Aspekte (Billingsley, 1994). Relevante

österreichische gesetzliche Grundlagen sind im ArbeitnehmerInnenschutzgesetz (ASchG

BGBI. 450/1995) und in der Bildschirmarbeitsverordnung (BS-V BGBI. II 124/1998)

verankert. Im Paragraph 67 des ArbeitnehmerInnenschutzgesetzes definiert man

Bildschirmarbeitsplätze als „Arbeitsplätze, bei denen das Bildschirmgerät und die

Dateneingabetastatur oder sonstige Steuerungseinheit sowie gegebenenfalls ein

Informationsträger eine funktionale Einheit bilden“. (ASchG, §67). Dieser und der folgende

Paragraph regeln innerhalb von 13 Absätzen die Pflichten der Arbeitgeber gegenüber den

Bildschirmarbeitern, bleiben allerdings recht vage und lassen Platz für unterschiedliche

Interpretationen. Zusammenfassend werden die folgenden Punkte angesprochen:

Die Pflicht zur ergonomischen

Gestaltung der Arbeitsplatzmittel

und Arbeitsumgebung.

Die Ein- und Ausgabegeräte

müssen dem Stand der Technik

entsprechen.

Für eine angemessene Beleuchtung

und Platzangebot ist zu sorgen.

Verwendung von an die Tätigkeit

und dem Benutzer angepasster

Software.

Verpflichtende Pausen oder

Unterbrechungen.

Arbeitnehmer haben ein Recht auf

kostenlose, regelmäßig

wiederkehrende Untersuchungen des Sehvermögens sowie auf eventuelle Sehhilfen.

Die Bildschirmarbeitsverordnung klärt in fünf Abschnitten und 17 Paragraphen weitere

Details zum gesetzlichen Zustand. Der erste Abschnitt, inklusive einer Referenz zum

ArbeitnehmerInnenschutzgesetz, befasst sich mit dem Geltungsbereich der Verordnung.

Darüber hinaus definiert der Gesetzesgeber, dass eine Arbeit als Bildschirmarbeit

klassifiziert wird, wenn pro Arbeitstag durchgehend zwei Stunden, oder drei Stunden bei

gewährten Pausen, mit Bildschirmarbeit ausgefüllt werden.

Laut zweitem Abschnitt müssen die erwähnten Arbeitsmittel vorgeschriebene

Bedingungen erfüllen um zugelassen zu werden. Abbildung 3 führt wesentliche Kriterien

Abbildung 3: Kriterien für Arbeitsmittel

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 11

für diese an. Des Weiteren steht den Arbeitnehmern das Recht auf eine Fußstütze zu,

wenn diese erforderlich sein sollte. Zum Thema der Beleuchtung steht in der Verordnung,

dass sie keine unnötigen Störungen an den Arbeitsmitteln verursachen dürfen, Fenster

müssen verdunkelbar sein. Bildschirme sind, wenn möglich, so aufzustellen, dass die

Blickrichtung und Fensterreihe parallel zueinander sind. Die Regelung der Pausenzeit für

ununterbrochene Bildschirmarbeit stellt einen weiteren zentralen Punkt der Verordnung

dar. Hierbei gibt es unterschiedliche, jedoch gleichwertige Arten. Die erwähnte Pause

kann in einem Tätigkeitswechsel oder in einer echten Pause bestehen, wobei Pausen nach

§ 10.(5) in die Arbeitszeit einzurechnen sind. Ebenso wie im

ArbeitnehmerInnenschutzgesetz wird auch in der Bildschirmarbeitsverordnung das Recht

auf eine Augenuntersuchung und einer Sehhilfe erwähnt. Vorschriftsmäßig müssen

Tastaturen neigbar sein, obwohl aus gesundheitlicher Sicht eine möglichst flache

Tastaturlage zu empfehlen wäre. Zu steil eingestellte Tastaturen können die Blutgefäße,

Sehnen und Nerven in Handgelenksnähe einengen und damit Schmerzen und

Gesundheitsrisiken fördern (Wittig-Goetz, 2008).

3.5 Standards

Für alle denkbaren Bereiche der HCI sind Standards und Richtlinien verfügbar. Erstellt

werden sie von Organisationen und Unternehmen für internationale oder nationale

Ebenen. Eine der wichtigsten Institutionen ist die International Organization for

Standardization (ISO). Sie veröffentlicht in regelmäßigen Abständen neue,

gebührenpflichtige Standards unter dem Begriff „Ergonomie der Mensch-System-

Interaktion“, auch als ISO 9241 bekannt. Teile, die vor 2006 veröffentlicht wurden, tragen

allerdings noch den ursprünglichen Titel „Ergonomische Anforderungen für

Bürotätigkeiten mit Bildschirmgeräten“ (vgl. ISO, 2008). Folgende Teile werden auf der

Homepage http://www.iso.org der Organisation zum Kauf angeboten:

9241-1:1997 General Introduction

9241-2:1992 Guidance on task requirements

9241-3:1992 Visual display requirements

9241-4:1998 Keyboard requirements

9241-5:1998 Workstation layout and postural requirements

9241-6:1999 Guidance on the work environment

9241-7:1998 Requirements for display with reflections

9241-8:1997 Requirements for displayed colours

9241-9:2000 Requirements for non-keyboard input devices

9241-11:1998 Guidance on usability

9241-12:1998 Presentation of information

9241-13:1998 User guidance

9241-14:1997 Menu dialogues

9241-15:1997 Command dialogues

9241-16:1999 Direct manipulation dialogues

9241-17:1998 Form filling dialogues

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 12

9241-20:2008 Accessibility guidelines for information/communication technology (ICT) equipment and services

9241-110:2006 Dialogue principles

9241-151:2008 Guidance on World Wide Web user interfaces

9241-171:2008 Guidance on software accessibility

9241-400:2007 Principles and requirements for physical input devices

9241-410:2008 Design criteria for physical input devices

Für die Hardware sind daher die Standardteile drei, vier und sieben bis neun interessant.

Bildschirme werden in den Teilen drei, sieben und acht behandelt, wobei jeder Teil im

Schnitt 29 Seiten aufweist und 71 Euro kostet. Der Rest der aufgezählten Teile beschäftigt

sich mit den Inputgeräten, sie sind um je 70 Euro erhältlich und umfassen 27 Seiten. Teil

vier handelt von den Tastaturen, alle sonstigen Eingabegeräte werden im neunten Teil

zusammengefasst.

Selbstverständlich gibt es neben diesen speziell erwähnten Standards zahlreiche weitere

Standards und Regeln, die die HCI direkt oder indirekt betreffen. Allerdings soll auf diese

an dieser Stelle nicht weiter eingegangen werden.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 13

4. Hardware

4.1 Bildschirm

4.1.1 Geschichtliche Entwicklung und Funktionsweise

Der Bildschirm ist das Ausgabegerät des PCs schlechthin. Als grafische Geräte nutzen sie

zur Informationsrepräsentation den für Menschen optimalen visuellen Sinneskanal.

Insofern ist es nicht verwunderlich, dass jeder PC einen angeschlossenen Monitor

voraussetzt. Im Gegensatz zu konkurrierenden Ausgabegeräten überzeugt er durch seine

sofortige Synchronisierung und der reichhaltigen Informationsdarstellung in hoher

Bildqualität. Trotz der von Shneiderman (1998) aufgezählten potentiellen

Gesundheitsrisiken der visuellen Ermüdung, Stress und Strahlungsaussetzung gibt es keine

echten Alternativen zum Monitor. Das hartnäckige Gerücht der früheren PC-Geschichte,

der Bildschirm mache generell krank, kann heutzutage getrost beiseite geschoben

werden.

Frühe Computer integrierten den Bildschirm in das Computergehäuse und bildeten eine

gemeinsame Einheit. Seit der Trennung, die durch IBMs ersten PC 1981 Verbreitung

erlangte, verwendet man als Synonym auch den Begriff Monitor. Bildschirme basierten bis

vor Kurzem auf der von F. Braun 1897 erfundenen Kathodenstrahlröhrentechnologie (CRT)

(Abb. 4).

Abbildung 4: Aufbau von Kathodenstrahlenröhren (nach Wikipedia, Kathodenstrahlröhre, 2006)

Hierbei werden Elektronen mit hoher Geschwindigkeit aus einer Kathode geschossen und

mit Hilfe eines magnetischen Feldes zur gewünschten Position gelenkt. Auf diese Weise

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 14

wird der Elektronenstahl zeilenweise vom ersten linken Bildpunkt der obersten Zeile bis

zum letzten Pixel der rechten, unteren Ecke geführt. Anschließend beginnt der Kreislauf

von vorne. Die Zeit um diese Strecke zurückzulegen, die Wiederholrate, ist ein

wesentliches Leistungsmerkmal. Ein zu langsamer Bildaufbau ist deutlich als Flimmern des

Bildes erkennbar. Als Bündelungshilfe dient die Lochmaske, die je nach Ausführungsart die

Bildpunkte in Form eines gleichschenkligen Dreieckes (Deltaröhre), streifenförmig

(Triniton-Röhre) oder rechteckig (In-Line-Röhre) anordnet. Die auf der

Bildschirmoberfläche aufschlagenden Elektronen bringen die dort angebrachte

Phosphorschicht zum Leuchten. Aufgrund der geringen Wiederholraten erfreute sich der

grünfärbige P39 Phosphor bei den Herstellern der frühen Ära großer Beliebtheit. Seine

langanhaltende Leuchtkraft kann die geringen Wiederholraten zumindest teilweise

kompensieren (Shneiderman, 1998), sodass das störende Flimmern gemindert wird. Frühe

Modelle erlauben nur monochrome Darstellungen. Zur Darstellung von Farben bestehen

die Bildpunkte aus je einer rot-, grün- und blaufärbigen Subeinheit. Allerdings sind drei

Kathoden nötig um jeden Farbpunkt mit einer eigenen Intensität zu beschießen und so

durch eine additive Mischung andere Farbtöne herzustellen.

Heutzutage gelten Kathodenstrahlröhren als

veraltet. Abgelöst werden sie von Plasma- und den

im Computerbereich bevorzugten

Flüssigkristalltechnologien (LC). Die

Flüssigkeitskristalle selbst erzeugen kein Licht. Da

sie auf eine Hintergrundbeleuchtung angewiesen

sind spricht man von passiven Displays. Die

Eigenschaft der Flüssigkristalle, bei Stromanlegung

die Lichtbrechungsrichtung zu verändern und somit

zu verdunkeln, und bei der Freilassung in den

durchsichtigen Zustand zurück zu wechseln, ist

bereits seit Mitte des 20. Jahrhunderts bekannt.

Wie der Name bereits andeutet, sind sie sowohl

flüssig als auch dank ihrer kristallinen Eigenschaft

anisotrop, können also je nach Ausrichtung Einfluss

auf den Lichtverlauf nehmen. Die Ausrichtung der

stabförmigen Flüssigkristalle geschieht mittels Magnetfeld. In Abbildung 5 sehen Sie den

Aufbau einer LCD Zelle. Ein Glas umschließt die Zelle. Der erste Polarisationsfilter filtert

alle nichtparallelen Lichtwellen aus. Die die Flüssigkristallschicht umgebenden Elektroden

beeinflussen die Ausrichtung der Flüssigkristalle und steuern somit die

Lichtdurchlässigkeit. Ob das Licht in der LC Schicht gedreht wird und wie stark, hängt von

der Herstellungsmethode ab. In Abbildung 5 erfolgt im Ruhezustand eine Drehung um 90

Grad. Aktivieren die Elektroden die Flüssigkristalle kann die nötige Drehung nichtmehr

vollzogen werden und das Licht wird vom zweiten Polarisationsfilter absorbiert. Bei Farb-

LCDs folgt nun abwechselnd eine Schicht mit einer der drei Grundfarben Rot, Grün und

Blau. Sie benötigen daher für einen Pixel drei separate LC Zellen. Den Abschluss bildet zum

Schutz der Konstruktion eine zweite Glasschicht.

Abbildung 5: Funktionsweise der Flüssigkristallbildschirme (ODECTRA, 2008)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 15

Den interessierten Lesern, die mehr über die technische Funktionsweise und Anwendung

der LCDs erfahren möchten, wird die öffentlich zugängliche Webseite

www.pacificdisplay.com/technical.htm empfohlen.

Die Bildqualität der ersten LCDs konnte noch nicht mit den konkurrierenden CRT

mithalten. Ortmann (2006) führt dies auf zwei Ursachen zurück: Zum Einen war der

Kontrast zwischen lichtdurchlässigen und lichtundurchlässigen Zellen zu gering, um

scharfe, farbgetreue Bilder zu erzeugen. Dieses Problem wird in modernen

Flachbildschirmen mit Hilfe spezieller lichtbrechender Folien und weiterentwickelten

Fertigungsmethoden gelöst, sodass durchaus erstaunliche Kontrastverhältnisse erzielt

werden. Die zweite Ursache ist auf die Trägheit der Flüssigkristalle zurückzuführen, da sie

sich nach dem Anlegen der Spannung nur relativ langsam in ihre Ausgangslage

zurückpositionieren. Bei raschen Bildänderungen entstehen somit Schlieren und

Schmiereffekte. Mit Hilfe der neu entwickelten Thin Film Transistor (TFT) Displays, einer

Modifikation der existierenden LCDs, konnten diese Probleme seiner Meinung nach

allerdings beseitigt werden. Sie teilen jedem Bildpunkt zur Erzeugung eines Magnetfeldes

einen eigenen Transistor und einen Kondensator zur Steuerung zu. Diese Vorgehensweise

ist als Aktiv-Matrix bekannt, denen die früheren Modelle mit sogenannter Passiv-Matrix

gegenüberstehen. Sie steuern Bildpunkte über ein Leitungsgeflecht zeilen- und

spaltenweise an.

Bei der Betrachtung des aktuellen Marktes ist die Übermächtigkeit der TFT-LCDs

erkennbar. Weder Anbieter noch Käufer scheinen noch Interesse an CRT Monitoren zu

besitzen. Vergleicht man beide Technologien ist dies auch nicht verwunderlich.

Wesentliche Vorteile der LCD Monitore sind:

Geringerer Stromverbrauch.

Augenschonendes Arbeiten: die flimmerfreie Anzeige sorgt für größeres

Wohlbefinden.

Platzersparnis: Neben der geringen Tiefe benötigen LCDs keine breiten, ungenutzten

Ränder.

Geringeres Gewicht.

Besseres Verhältnis zwischen Gehäuse- und Anzeigefläche.

Weniger Abwärme.

Abbildung 6 fasst Attribute von LCD Monitoren in den drei Kategorien Technologie,

Verbauung, und Sonstiges zusammen. Übliche Technologiearten sind CRT, LCD und TFT.

Das Bildformat kennzeichnet das Verhältnis der Länge zur Breite des sichtbaren Bildes. Im

PC-Bereich ist das Standardformat 4:3 und seit Neuerem sind vermehrt die

Breitbildmonitore mit 16:10, inklusive seltener vorkommender Derivate, anzutreffen.

Nach allgemeiner Auffassung sind Breitbildmonitore zu bevorzugen, denn sie entsprechen

eher dem menschlichen Sehbereich. Die Bildschirmgröße definiert die tatsächliche

Anzeigefläche des Bildschirms. Sie wird entweder als Länge der Achsen in Zentimeter oder

als Bilddiagonale in Inch angegeben. Das 16:10 Format weist bei gleicher Länge der

Bilddiagonale allerdings eine geringe Fläche als die 4:3 Produkte auf. Der Punktabstand

misst die Entfernung der benachbarten Pixel. Eine andere Schreibweise für das gleiche

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 16

Konzept ist die dots per inch (dpi) Notation. Je geringer der Abstand, umso höher die

Bildqualität. Der Abstand der Pixel bestimmt zusammen mit den Bildmaßen die native

Auflösung des Monitors. Gängige native Auflösungen sind 1024 x 768, 1280 x 960, 1280 x

1024 (entspricht 5:4) und 1600 x 1200. Der Begriff nativ deutet darauf hin, dass der

Bildschirm für diese Auflösung produziert wurde und daher bei der Wahl der Auflösung

bevorzugt werden sollte. Gröbere Auflösungen dürfen eingestellt werden. Das Aktivieren

von schärferen als die native Auflösung ist allerdings physikalisch unmöglich. Unter der

Reaktionszeit versteht man die Dauer, die ein Pixel benötigt, um von Hell nach Dunkel und

wieder zurück zu schalten. Moderne TFT Bildschirme brauchen hierzu etwa 5 bis 12

Millisekunden. Computerspieler sollten verstärkt auf diese Eigenschaft achten, ansonsten

kann es beim raschen Bildwechsel zu unerwünschten Schliereneffekten kommen. Das

Kontrastverhältnis kennzeichnet den Unterschied zwischen Hell und Dunkel, und übt

daher ebenfalls einen starken Einfluss auf die Bildqualität aus. Je höher dieses Verhältnis,

umso getreuer werden Bilder dargestellt.

Abbildung 6: Wichtige Monitor-Attribute

4.1.2 Bildschirme im Kontext der HCI

Der Bildschirm nimmt als wichtigstes Mittel zur Interaktion mit dem PC eine zentrale Rolle

in der HCI ein. Daher ist es nicht verwunderlich, dass sich unzählige Standards, Richtlinien

und Ratschlägen mit dem Bildschirm selbst, als auch mit dessen Zusammenhang in der

Mensch-Computer Beziehung beschäftigen. Technische Minimalanforderungen, die

Bildschirme einhalten müssen, werden vom Gesetzgeber vorgeschrieben. Auch wenn

dieser recht vage bleibt, kann davon ausgegangen werden, dass alle aktuell zum Verkauf

angebotenen Monitore diesen Anforderungen entsprechen.

Dem Fortschritt der Technik ist zu verdanken, dass die Bildqualität längst ein Niveau

erreicht hat, um die geforderte deutliche Darstellung des Inhalts zu gewährleisten. Längst

werden aktuelle 4:3-formatige Bildschirme mit einer minimalen physikalischen Auflösung

von 1024 x 768 angeboten, schlechtere Monitorauflösungen konnte der Autor bei keinem

Anbieter oder Portal (vgl. Acer, Belinea, Geizhals, Lenovo, 2008) finden. Auch der Kontrast,

ein weiteres Merkmal der Darstellungsqualität, ist selbst bei Billigmodellen mit 400:1

ausreichend. Den Vergleich mit Fernsehgeräten oder Filmprojektoren, die beispielsweise

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 17

eine Kontrastrate von etwa 500:1 (Da-Lite, 1997) aufweisen, brauchen sie nicht zu

scheuen. Flimmerfrei sind Flachbildschirme ebenfalls, da sie das Bild, im Gegensatz zu den

Kathodenstrahlröhrenmonitoren, ständig anzeigen und nicht mehr sequentiell aufbauen.

Für den richtigen Standort des Bildschirms sind mehrere Faktoren bestimmend. Bereits

bei der Bildschirmarbeitsverordnung wurde erwähnt, dass die Darstellungsflächen der

Bildschirme, sofern dies möglich ist, stets im rechten Winkel zur Fensterreihe oder einem

Beleuchtungsband aufgestellt werden sollten um Reflexionen zu vermeiden. Die

Häufigkeit, mit der der Computer am Arbeitsplatz verwendet wird, sollte ebenfalls bei der

Positionierung beachtet werden: So empfehlen Richenhagen, Prümper und Wagner (2002)

bei einer intensiven Nutzung den Monitor ausschließlich vor dem Nutzer zu installieren.

Nur bei seltener Verwendung des PCs kann sich der Monitor auch auf einer Seite

befinden. Ideal sind schwenkbare Plattformen, sodass der Monitor je nach Situation

passend ausgerichtet werden kann. Dies trifft insbesondere auf Front Office- Arbeitsplätze

zu, bei denen der Monitor die Sicht auf Kunden versperren würde. Als geeignete Höhe

wird stets befürwortet, dass sich die oberste Zeile des Bildes unterhalb der Augenhöhe

befindet. Der Abbildung 7 können Sie eine detailierte Empfehlung entnehmen. Der

Bereich A kennzeichnet das optimale, B die Größe des totalen Sichtfeldes. Demnach sollte

sich das Bildschirmzentrum etwa 35 Grad unter der Horizontalen befinden. Ist der

Bildschirm zu hoch, können Nacken- und Schultermuskulatur überlastet werden. Ebenso

sind die unter Umständen auftretenden Rückenschmerzen bei zu niedrigen Bildschirmen

zu vermeiden. Die Anpassung der Höhe stellt für moderne LCD- Bildschirme im Normalfall

kein Problem dar. Ältere, insbesondere die schweren CRT Modelle, bieten diese Funktion

meist nicht an. Unter Umständen helfen in solchen Situationen bis zu einer gewissen

Differenz höhenverstellbare Tische, oder auch Stühle, um eine ergonomischere Haltung

einzunehmen. Allerdings gilt hierbei für die Höhe der Arbeitsfläche ähnliches wie für die

Monitorhöhe: ist sie zu hoch, so können Krämpfe in den Armen entstehen und der

Arbeitstisch drückt eventuell gegen die Unterarme. Eine zu niedrige Ablage verursacht

durch „die ständige Krümmung des Rückens Beschwerden vom oberen Nackenbereich bis

in die Lendenwirbelgegend. Dazu kommen ein eingedrückter Magen und, je nach Höhe

der Sitzfläche und Beinstellung, eingeklemmte Oberschenken und Druckstellen am

Unterschenkel“ (Bechmann, Johst, Jungen, Landerer, Reuschenbach & Theißing, 1999).

Abbildung 7: Monitorausrichtung (Richenhagen et al, 2002)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 18

Auch die Entfernung des Monitors vom Benutzer spielt eine wichtige Rolle. Dabei gilt, je

größer der Bildschirm, desto weiter weg sollte er sich befinden. Zu Nahe sollte der

Bildschirm auf keinen Fall positioniert werden, da sonst mit einer Augenübermüdung zu

rechnen ist. In der Literatur wird als minimaler Abstand häufig eine Entfernung von etwa

70 cm angegeben. Heutzutage stößt man bei der richtigen Positionierung der

Flachbildschirme kaum noch auf durch Platzmangel verursachte Probleme. Bei den tiefen

Röhrenmonitoren ist das jedoch nicht selbstverständlich.

Leider können auch trotz Richtlinien und Empfehlungen an die technischen

Anforderungen Augenbeschwerden auftreten. Gründe für die Belastung sind die

auftretenden Akkommodation- und Adaptionsleistungen, die das Auge bei der

Bildschirmarbeit zu verrichten hat (Lindorfer, 2007). Erfreulicherweise ist das

weitverbreitete Gerücht, der Bildschirm könne dem Auge schaden, falsch.

Bildschirmarbeit „bringt nur bereits vorhandene Augenprobleme an den Tag, erzeugt aber

keine neuen“ (Lindorfer, 2007, S.3).

4.2 Tastatur

4.2.1 Geschichtliche Entwicklung und Funktionsweise

An eine ordentliche Bedienung des PCs ohne angeschlossene Tastatur ist nicht zu denken,

auch wenn sie mit der Einführung der grafischen Benutzeroberflächen an Wichtigkeit

verloren hat. Dies macht sich auch daran bemerkbar, dass sich das BIOS unter Umständen

weigert, den PC ohne angeschlossene Tastatur zu booten. In ihren Zuständigkeitsbereich

fallen neben der offensichtlichen Eingabe von Buchstaben und Zeichen auch die

Softwaresteuerung und die Navigation der Textmarke.

Vorgänger der Tastaturen sind die seit 1821 hergestellten mechanischen

Schreibmaschinen. Ihr Aussehen wurde vom Amerikaner C. Sholes geprägt, der 1868 die

noch heute typische Anordnung der Tasten entwickelte (Stone, Jarrett, Woodroffe &

Minocha, 2005). Diese Anordnung wird als QWERTY Layout bezeichnet, benannt nach der

Reihenfolge der ersten sechs Buchstaben der amerikanischen Tastatur. Bei der Wahl der

Tastenanordnung wurde Priorität auf das Verhindern von Verklemmungen der

Anschlagshämmer gelegt, häufig zusammen genutzte Buchstaben wurden daher

voneinander entfernt angebracht. So konnten auch schnelle Schreibmaschinenschreiber

problemlos arbeiten. Sholes Layout fand große Beliebtheit, daher ist es nicht

verwunderlich, dass es für Tastaturen übernommen wurde.

Der 1981 eingeführte IBM Personal Computer, oder als 5150 bezeichnet, zählt dank seiner

Bauweise, aber auch dank seines Erfolges als der Beginn der PC Ära, obwohl der Begriff

selbst schon früher bekannt war. Insofern wird auch die erste Tastatur für PCs der PC-

Reihe 5150 zugeschrieben (Abb. 8) (Wikipedia, 2008; IBM, 2008). Die Computertastaturen

vorangegangener Modelle haben mit IBMs erster PC Tastatur wenig gemein: Neben den

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 19

gewaltigen Ausmaßen unterschieden sie sich durch die damals typische Integration der

Tastatur in das Computergehäuse.

Abbildung 8: Frühe IBM PC Tastatur mit 83 Tasten (www.vintage-computer.com, 2008)

Seit ihrer Erfindung hat sich zumindest das Aussehen der Tastatur kaum geändert. Die

Tastenanordnung der Tastatur orientiert sich nach wie vor am QWERTY Layout der

Schreibmaschine. Und einige Gründe sprechen dafür, dass sich daran auch in Zukunft

wenig ändern wird, da QWERTY seit 1967 ein internationaler, weit verbreiteter Standard

ist. Des Weiteren ist davon auszugehen, dass er dem Benutzer vertraut ist und der

Aufwand zum Erlernen einer anderen Anordnung den meisten Anwendern zu hoch ist

(Stone, 2005; Shneiderman, 1998).

Die meisten optischen

Änderungen betreffen die Anzahl

der verfügbaren Tasten. Einen

Überblick über die Tastenanzahl

für amerikanische und deutsche

Tastaturen im Laufe der Zeit

erhalten Sie in Abbildung 9. Die

Originalversion verfügt über 83 Tasten. Aufgrund der Lokalisierungen mussten für diverse

Sprachen weitere Tasten eingeführt werden. Außerdem verfügten die ersten Versionen

noch über keine LEDs zur Statusanzeige. Dieses Manko wurde jedoch rasch behoben,

sodass zumindest der Zustand des Ziffernblocks, der Feststelltaste und des Scroll Locks

ersichtlich ist.

1986 wurde die Multifunktions-Tastatur (enhanced) eingeführt. Dieser Standard erweitert

die vorhandenen Blöcke um einen Cursorblock sowie einen neuen Block für insgesamt

zwölf Funktionstasten. Der Cursorblock dient in erster Linie der Steuerung der

Schreibmarke. Dies erleichtert die Navigation, da sie zuvor mit dem Nummernblock

gelenkt wurde. Die Funktionstasten sind mit F1 bis F12 beschriftet und befinden sich links

in der obersten Reihe. Kleine Abstände zwischen einzelnen Gruppen haben sich als

nützlich erwiesen um die passende Funktionstaste auch ohne Blickkontakt leicht

identifizieren zu können. Dennoch verzichten viele Nutzer auf sie, um die Hände nicht von

der Home Row entfernen zu müssen (Shneiderman, 1998). Das aktuelle Programm

Abbildung 9: Änderungen der Tastenanzahl

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 20

bestimmt, welche Aktionen durch die Funktionstasten angestoßen werden. In der Regel

lösen sie häufig genutzte Befehle aus oder ersetzen umständliche Tastenkombinationen.

Um dem Designgrundsatz der Konsistenz getreu zu bleiben verwenden viele

Anwendungen, zumindest innerhalb von Produktgruppen, gleiche oder ähnliche

Befehlszuordnungen.

Zur Verbesserung der Bedienung der grafischen Benutzeroberfläche von Windows 95

führt Microsoft drei zusätzliche Tasten ein: Die zwei Windowstasten zu beiden Seiten der

Leertaste minimieren laufende Anwendungen und bringen den Benutzer auf diese Weise

zur Windows-Oberfläche zurück und öffnen das Startmenü. Nebenbei werden sie für neu

eingeführte Tastenkombinationen benötigt. Die Anwendungstaste ist die dritte neue

Taste. Sie ruft das Kontextmenü auf und entspricht somit der rechten Maustaste. Auch

wenn diese Neuerungen ursprünglich für Windows gedacht sind werden längst beinahe

alle neuen Tastaturen, unabhängig vom Betriebssystem, mit dem neuen 104-

beziehungsweise 105- Tasten Layout produziert.

Neue Multimedia Tastaturen ermöglichen dem Benutzer das schnelle und angenehme

Ausführen diverser Befehle. Im Normalfall zählen hierzu Tasten zur Steuerung der

Lautsprecher, des Email Programms und des Internetbrowsers. Allerdings hängt deren

Umfang stark vom Hersteller als auch der angesprochenen Zielgruppe ab. Notwendig sind

diese Neuerungen keinesfalls, da den Betriebssystemen zumindest für das Aufrufen von

Programmen ebenfalls benutzerdefinierte Tastenkombinationen zugeteilt werden

können.

Weitere Trends sind:

Ergonomische Tastaturen

Seit sowohl Hersteller als auch Anwender erhöhten Wert auf die Vermeidung von

Gesundheitsrisiken langen Tastaturgebrauchs legen sind vermehrt Versionen mit

ergonomischen Designs verfügbar. Auf diese soll hier jedoch nicht näher eingegangen

werden, da sie im folgenden Kapitel erwähnt werden.

Spezialisierung auf bestimmte Zielgruppen

Selbstredend sind PC- Nutzer alles andere als

eine homogene Masse. Ebenso unterscheiden

sich die Anforderungen an durchzuführende

Aufgaben. Es macht daher Sinn, an bestimmte

Zielgruppen angepasste Tastaturen zu entwerfen.

Dass dies auch aus wirtschaftlicher Sicht

vernünftig ist zeigen die unzähligen verfügbaren

Spezialtastaturen. Den leidenschaftlichen Computerspielern werden zum Beispiel

zusätzliche Tasten zum Auslösen von selbstprogrammierten Makros oder eine

Tastenhintergrundbeleuchtung angeboten. Noch einen Schritt weiter geht Logitechs G15

Keyboard, dass dem Spieler über eine LCD Anzeige Spielstatistiken und -informationen

darstellt (Abb. 10). Gleichermaßen bieten Tastaturenhersteller Produkte für

Abbildung 10: G15 Tastatur für Spieler (Logitech, 2008)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 21

Berufsgruppen an. Für das Gesundheitswesen gibt es eingebaute Kartenleser für

Krankenversicherungskarten. Für den Point-of-Sale Bereich stehen größere Tastaturen mit

vollständig programmierbaren und beschriftbaren Tasten inklusive Magnetkartenlesern

zur Verfügung. Bei der Menge der Spezialiserungen ließe sich diese Liste lange

weiterführen. Ob sich die Anschaffung einer angepassten Tastatur lohnt, beziehungsweise

wie groß der Nutzen ausfällt, kann pauschal nicht beantwortet werden. Eine Recherche

nach einem an die eigenen Bedürfnissen angepassten Produkt kann allerdings jedem

empfohlen werden.

Flachtastaturen

Ein weiterer Trend der letzten Zeit sind die sehr flachen Tastaturen. Zum Einen soll diese

Bauweise das gesundheitsgefährdende vertikale Abknicken der Handgelenke minimieren.

Zwar sollten die Unterarme beim Benutzen der Tastatur aus ergonomischer Sicht nicht am

Tisch abgelegt werden, geschieht dies dennoch, sind flache, niedrige Tastaturen

gegenüber hohen Alternativen vorzuziehen. Weitere Vorteile, mit denen Anbieter ihre

flachen Tastaturen bewerben, sind das geringe Gewicht, Platzersparnis bei der Verstauung

und die ansprechende Optik dieser Modelle.

Anschlüsse für USB

Seit Aufkommen des Universal Serial Bus (USB) 1996 zählt er zur beliebtesten Art, um

Daten zwischen Peripherie und Host auszutauschen. Auf den USB wird folgend detailierter

eingegangen. Allerdings soll in diesem Kontext USBs Fähigkeit zu mehrfachen

Downstreams erwähnt werden, wodurch ein USB Gerät selbst Anschlüsse für weitere

Geräte zur Verfügung stellen kann. Bei der Untersuchung des Tastaturmarktes stellte der

Autor fest, dass Tastaturen derzeit noch ausgesprochen selten als USB Hubs fungieren.

Dank dieser benutzerfreundlichen Positionierung der Anschlüsse, sowie der weiten

Verbreitung von USB Geräten, ist aber mit einem steigenden Aufkommen zu rechnen.

Im Folgenden wird auf die technische Funktionsweise der PC- Tastaturen eingegangen. Die

vielfältigen mechanischen und Membran-Keyboardtechnologien eignen sich je nach

Einsatzgebiet schlechter oder besser zur Nutzung. Üblicherweise werden für PCs

Langhubtastaturen eingesetzt. Als deren größter Vorteil gibt Dipl. Phys. G. Breidenbach

die rasche und zuverlässige Dateneingabe an, die dank der „erforderlichen taktilen

Rückmeldung und Leichtgängigkeit“ ermöglicht wird (Breidenbach, 2008). Um diesen

Effekt auch bei extrem flachen und Laptoptastaturen zu unterstützen, verlängern diverse

Hersteller künstlich die Länge des Hubweges. Als Beispiel dient etwa das PerfectStroke

System, allerdings soll hier nicht weiter auf diese Thematik eingegangen werden. Den

Membrantastaturen mangelt es aufgrund der kaum vorhandenen Wegstrecke,

geräuschloser Funktionsweise sowie ungenauer Gegenkraft beim Tastenanschlag an einer

angemessenen Feedbackqualität. Ihr größter Vorteil ist die Robustheit gegenüber

Umwelteinflüssen und Langlebigkeit. Daher werden sie meist an öffentlich zugänglichen

Terminals eingesetzt.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 22

Abbildung 11: Aufbau einer Rubberdome Switch Tastatur (nach Tyson & Wilson, 2008)

Zwei verbreitete Vertreter für PC-Tastaturen sind die Dome Switch und die seltener

anzutreffende Buckling Spring -Funktionsweisen. Dome Switches (Abb. 11) können als

Mischform von mechanischen und membranen Tastaturen kategorisiert werden. Im

Gehäuse befinden sich imprägnierte Stromkreise in einer stromundurchlässigen Schicht.

Durch den Tastenhub schließt sich der Stromkreis. Bei den Dome Switches ist unter jeder

Taste eine Gummikuppel, inklusive einem Leiter an der Wölbungsunterseite, angebracht.

Eine gedrückte Taste presst die Gummikuppel auf den Boden, und schließt den

Stromkreis. Im Falle der Dome Switches, die zwei Folien mit Stromkreisen und einer

mittigen, isolierenden Schicht nutzen, wird auf diese Weise der Weg von der ersten zur

dritten Folie überbrückt. Der Mikrochip der Tastatur registriert jede Veränderung des

Stromkreises. Als Resultat erzeugt er bei jedem Tastendruck, aber auch bei jedem

Freilassen der Tasten, ein entsprechendes Signal, welches an den PC weitergeleitet wird.

Ähnlich funktioniert der Buckling Spring Mechanismus. Als rein mechanische Technologie

verwenden diese Tastaturen eine Sprungfeder als Gegenkraft. Ihre hervorstechendste

Eigenschaft sind die lauten Klick- Geräusche, die sie beim Tastenanschlag erzeugen.

Idealerweise würde jede Taste einen eigenen Stromkreis nutzen. Da dies in der Regel

technisch und wirtschaftlich ungeeignet ist, werden Matrixschaltungen zum Verbinden der

Tasten verwendet. Als Folge können bei gleichzeitigem Drücken von mehreren Tasten

ungewünschte Effekte auftreten, die als Roll Over bezeichnet werden. Als Resultat werden

Tastendrücke ignoriert oder unter Umständen zusätzliche, nicht gedrückte Tasten vom

Controller als angeschlagen missinterpretiert.

Weitere wesentliche Charakteristika sind in Abbildung 12 aufgestellt. Zur leichteren

Orientierung wurden die Eigenschaften in die drei Kategorien Technologie, Verbauung und

Sonstiges eingeteilt. Unter der Rubrik Technologie wurden alle Eigenschaften

zusammengefasst, die die Funktionsweise der Tastatur beschreiben, oder im weiteren

Sinne die Inputeingabe beeinflussen. Zur Kategorie Verbauung gehören Attribute, die

primär dem Aussehen und der Verarbeitung zuzuschreiben sind. Sonstiges beinhaltet

allgemeinere Konzepte.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 23

Abbildung 12: Wichtige Tastatur-Attribute

4.2.2 Tastaturen im Kontext der HCI

Ebenso wie bei den Monitoren werden zuerst die Geräteeigenschaften beleuchtet. Auch

für Tastaturen sind zum Schutz der Nutzer bestimmte gesetzliche Minimalanforderungen

vorgegeben. Diese betreffen die Bauweise, die wie bereits bei der

Bildschirmarbeitsverordnung aufgezählt wurde, zur Minderung von Reflexionen matt,

neigungsverstellbar und leserlich beschriftet sowie baulich vom PC getrennt sein muss.

Diese Anforderungen alleine sind allerdings kaum ausreichend, um einen angenehmen

Gebrauch zu gewährleisten.

Vom Erscheinungsbild lässt sich rasch ableiten, ob eine Tastatur nach ergonomischen, und

somit gesundheitsschonenden Aspekten gestaltet wurde. Leider sind auch heutzutage

noch die meisten Tastaturformen beinahe ident mit denen der Originale. Dieses

Festhalten an der Tradition fördert weiterhin eine unnatürliche Haltung, und stellt ein

unterschätztes Gesundheitsrisiko für die Handgelenke und Unterarme dar, wobei

Ortmann insbesondere die Sehnenscheidenentzündung hervorhebt (Ortmann, 2006).

Abhilfe schaffen separate oder angepasste Tastenblöcke. Zwei gängige Varianten sind

hierbei die geteilten (Abb. 13) oder die geschwungenen Layouts (Abb. 14).

Abbildung 13: Kinesis Freestyle (Kinesis, 2008) Abbildung 14: Wave Keyboard (Logitech, 2008)

Bei der Gestaltung der Eingabegeräte warnt die Gesellschaft Arbeit und Ergonomie

(Wittig-Goetz, 2008) vor zu hohen Tastaturen, denn diese zwingen den Benutzer bei

ablegten Unterarmen zum starken Abwinkeln der Handgelenke. Das Gleiche gilt für die

Neigung der Tastatur, generell sind flache Lagen vorzuziehen.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 24

Abbildung 15 veranschaulicht die unnatürliche

Handhaltung, zu der Benutzer der einfachen

Bretttastaturen gezwungen werden. Bei der Eingabe

gilt:

Hände und Unterarme sollen eine gerade Linie

bilden.

Keinesfalls die Handgelenke stark verdrehen.

Die Hände bestenfalls gar nicht oder nur auf

hohen Handballenauflagen ablegen.

Die Tastatur sollte maximal auf Ellbogenhöhe,

niemals darüber sein.

Richtig angewandtes Zehn-Finger System

entlastet die Armmuskulatur.

Kritik kann auch an der Tastenanordnung geäußert werden. Leider wurden ergonomische

Aspekte lange Zeit nicht berücksichtigt. Studien ergaben, dass die QWERTY-Anordnung

nicht nur zu unnötigen Belastungen führe, sondern auch ineffizient sei (David, 1985; West,

1998). Alternativen zur QWERTY-Tastaturanordnung sind zwar vorhanden, können aber

keinesfalls mit der Verbreitung und Beliebtheit des Originals konkurrieren. So entwickelte

zum Beispiel August Dvorak in den 1920ern ein vielversprechendes, allerdings

meistgehend unbeachtetes Design. Eine wesentliche Verbesserung gelang ihm durch die

Verlegung vielgenutzter Buchstaben in die Home Row. Weitere Ziele der Umgestaltung

sind die Entlastung der schwächeren Finger, eine Verkürzung der Wege sowie die

alternierende Nutzung der Hände. Der Umfang der Vorteile der Dvorak- Tastatur ist sehr

umstritten: In den vorhin angeführten Studien wurde von der US. Marine ein

Geschwindigkeitszuwachs von 30% gemessen, während in Wests Versuchsanordnung nur

4% nachgewiesen werden konnten. Shneiderman (1998) erwähnt eine Steigerung von 150

Wörtern pro Minute auf etwa 200 Wörter bei erfahrenen Schreibern, wobei zusätzlich

eine Reduktion der Schreibfehler stattfindet. Seines Erachtens wird sich allerdings an der

geringen Verbreitung der alternativen Tastenanordnungen auch weiterhin nichts ändern,

da meist die Bereitschaft zur etwa einwöchig dauernden Erlernung nicht vorhanden ist.

4.3 Computermaus

4.3.1 Geschichtliche Entwicklung und Funktionsweise

Die Computermaus fällt in die Kategorie der kontinuierlichen indirekten Zeigergeräte.

Durch ihre indirekte Steuerung wird sie auf einer glatten Oberfläche geführt, es ist nicht

möglich, Objekte direkt auf dem Monitor zu manipulieren. Daraus ergeben sich einige

Vorteile, aber auch Nachteile. Zu den wichtigsten Vorteilen zählt nach Shneiderman

Abbildung 15: Natürliche Haltung & bei Tastaturnutzung (Computer Fachwissen, 1993) (11))

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 25

(1998) die Minderung der Handermüdung. Zusätzlich wird die Sicht bei der Eingabe nicht

durch die Hand eingeschränkt. Studien loben darüber hinaus ihre hohe Geschwindigkeit

als auch Präzision (Shneiderman, 1998). Nachteilig erwähnt er die Indirektheit selbst.

Dadurch kommt es zu einer stärkeren kognitiven Belastung und die Erlernung nimmt mehr

Zeit in Anspruch. Weiter führt er die Entfernung zum Keyboard an, sodass die Hand erst

die Maus suchen und greifen muss. Allerdings soll zur Verteidigung der Computermaus

erwähnt werden, dass dies mit Ausnahme der Trackpoints bei allen herkömmlichen

Zeigegeräten der Fall ist.

Zeigegeräte können für sechs Arten von Interaktionen verwendet werden (Foley, Wallace

& Chan, 1984). Zu diesen zählen die Autoren die

Auswahl,

Positionierung,

Orientierung,

Wegbeschreibung,

Quantifizierung,

und Texteingabe.

Für die ersten fünf dieser Punkte eignet sich die Maus hervorragend. Allerdings ist eine

Texteingabe per Maus eine mühsame und meist unästhetische Angelegenheit.

Die Computermaus wurde am Stanford

Research Institute im Jahr 1963 erforscht. Der

erste Prototyp (Abb. 16) von 1964 nutzt noch

keine Kugel, sondern zwei bodenberührende

Rollen in einem klobigen Holzgehäuse zur

Positionsermittlung. 1970 wurde sie von

ihrem Erfinder D. Engelbart als „X-Y position

indicator for a display system“ patentiert. Die

erste Computermaus konnte jedoch keinen

großen Erfolg verbuchen. Nach Dembowski

(2007) wurden für frühe IBM PCs kaum Mäuse

eingesetzt während sie sich unter Apple

Macintosh Nutzern großer Beliebtheit

erfreuten. Dessen grafische Benutzeroberfläche machte sie bereits ab 1984 zu einem

Standard-Eingabegerät.

Die ersten PC-Mäuse besaßen ein Kunststoffgehäuse und wurden mit einer bis zwei

Tasten ausgestattet. Abgesehen von der Anzahl der Tasten hat sich lange Zeit wenig an

ihrem Aussehen geändert. Erst mit Microsofts IntelliMouse von 1996 und dessen

eingebautem Mausrad kommt es zu einer echten Veränderung. Neben dem

obligatorischen vertikalen Scrollen von Dokumenten nutzen viele Hersteller das Mausrad

auch als zusätzlichen Mausknopf oder ermöglichen durch Kippen des Rades ein

horizontales Scrollen. Dieses Feature wird häufig als 4 Wege oder Tilt- Scrollrad

Abbildung 16: Erste Computermaus der Welt (Interactivemaster.com, 2008)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 26

bezeichnet. Ebenso wie die Tastatur wird auch das Aussehen der Computermaus mit dem

Aufkommen ergonomischer Aspekte stark beeinflusst.

Die Funktionsweise der Computermäuse ist denkbar

einfach: Mit Hilfe einer den Boden berührenden

Gummikugel erfassen zwei Rollen im Inneren der

Maus die relative Veränderung der X und Y Achse. An

den Rollen sind Räder mit Schlitzen angebracht, die

einem Lichtsensor die Ermittlung der

Bewegungsgeschwindigkeit erlauben. Die

mechanische Erfassung bringt einige Nachteile mit

sich. Einen wesentlichen Punkt der Kritik betrifft die

ständige Verschmutzung der mechanischen Teile,

insbesondere an den Kontaktpunkten der Rollen. Das

Entfernen der Mauskugel und Reinigen der Kontakte

gehörte zur regelmäßig nötigen Gerätepflege. Ein weiterer Nachteil ist die

Lichtempfindlichkeit der optischen Sensoren im Inneren. So kann selbst schwacher

Lichteinfall den Mauszeiger negativ beeinflussen.

Verbesserung brachte der Umstieg zur optischen Maus, die frei von beweglichen Teilen

ist. In ihrem Inneren befindet sich zur Bewegungserfassung ein optischer Sensor. Je nach

Qualität erfasst dieser bis zu 7080 Mal pro Sekunde (vgl. Microsoft X5) die Oberfläche,

gleicht die Sequenzen miteinander ab, und errechnet auf diese Weise die

Positionsveränderung. Allerdings setzt diese Technik eine beleuchtete Oberfläche voraus.

Ältere Versionen nutzen meist rotfärbige Leuchtdioden (LED). Diese Methode kann auf

vielen Oberflächen nicht den erforderlichen Kontrast für den optischen Sensor erzeugen.

Vor dem Kauf einer optischen Maus sollte daher beachtet werden, auf welcher Unterlage

sie zum Einsatz kommen wird. Vor allem ältere Modelle kommen mit unstrukturierten

oder gläsernen Oberflächen nicht zurecht. So war es zum Beispiel dem Autor in einem

Test nicht möglich, eine 7 Jahre alte Wheel Mouse Optical mit einer roten LED auf einer

roten, einfarbigen Unterlage sinnvoll einzusetzen. Hochwertige aktuelle Computermäuse

haben aber diesbezüglich meist kein Problem mehr. Diese Modelle ersetzen die LED durch

einen Laser. Geht es nach Microsofts Vorstellungen, werden Mäuse in Zukunft nur noch

mit der Blue Track Technologie arbeiten, die im September 2008 vorgestellt wurde. Sie

soll noch genauer als die Laservarianten arbeiten und auf so gut wie allen denkbaren

Oberflächen funktionieren. Da die erste Blue Track Maus allerdings erst ab November

(Ihlenfeld, 2008) erhältlich ist, sind noch keine detaillierten Informationen erhältlich.

Die eben beschriebenen Arten der Bewegungserfassung sind zweifelslos wesentliche

Qualitätsmerkmale. Der Abbildung 18 können Sie weitere Attribute entnehmen. Die

Auflösung wird in dots per inch (dpi) angegeben. Ausgezeichnete Modelle erreichen

Werte bis zu 3.200 dpi. Einige Hersteller geben dem Nutzer selbst die Kontrolle über die

ausgewählte Auflösung. Sie werben mit einer hochpräzisen Erfassung im hohen dpi-

Bereich und stellen dem eine rasche Verarbeitung bei geringer Einstellung gegenüber (vgl.

G9 Laser Mouse, Krait). Die Bildverarbeitungsgeschwindigkeit gibt die Reaktionszeit

wieder. Üblicherweise wird sie in frames per second (fps) oder als megapixels per second

Abbildung 17: An den gekennzeichneten Stellen berühren die mechanischen Teile die Kugel. (Dembowski, 2007)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 27

(mp/s) gemessen. Diese, sowie die folgenden Werte zur Maximalbeschleunigung und -

geschwindigkeit sind meist nur für Spieler interessant. Für den Durchschnittsanwender

sind auch günstige optische Computermäuse genügend ausgereift, um den typischen

Aufgaben nachzugehen.

Abbildung 18: Wichtige Maus-Attribute

In der Kategorie Verbauung befinden sich Attribute zum Mausdesign. Neben der Form

zählen hierzu auch das Vorhandensein eines Mausrades und die Tastenanzahl. Eine häufig

unterschätzte Eigenschaft betrifft die Qualität der Mausfüße, die die Gleitfähigkeit

ausmachen. Teflon ist als reibungsarmes Material im hochpreisigen Sektor anzutreffen,

günstigere Produkte kommen meist mit Hartplastik aus. Unter Sonstigem wurden alle

restlichen Merkmale eingeordnet. Sie bestimmen den Anschluss an den PC und ob eine

kabelgebundene oder kabellose Übertragung erfolgt. Zwei weitere Aspekte betreffen die

verfügbare Software eines bestimmten Produktes. Sinnvoll ist diese jedoch nur, wenn die

Einstellungsoptionen über denen des Betriebssystems hinausgehen. Einfluss auf die

Kaufentscheidung nehmen auch Kosten und Garantiegewährleistungen.

4.3.2 Computermäuse im Kontext der HCI

Abgesehen von der Technik hat sich auch die optische Erscheinung seit ihrer Erfindung

1963 stark gewandelt. Neben funktionalen Zusatzausstattungen wie den heute üblichen

drei oder mehr Tasten oder dem Mausrad haben aktuelle Computermäuse auch dank

ergonomischer Prinzipien wesentlich an Qualität gewonnen. Da die Anforderungen an die

Maus starke individuelle Unterschiede aufweisen sind im Handel unzählige Produktlinien

verfügbar. Um ein möglichst schonendes Arbeiten zu ermöglichen, empfiehlt es sich, dass

das Mausdesign der eigenen Handgröße und -form entspricht. Aus diesem Grund ist vor

einem Kauf oder der Nutzung zu raten, die entsprechende Maus zu testen, idealerweise

unter arbeitsähnlichen Bedingungen. Wittig-Goetz (2008) empfiehlt Designs, bei denen

die Hinterseite rund geformt ist. Die Oberseite sollte geschwungen sein, wobei der

höchste Punkt etwa in der Mitte liegt. Idealerweise ist die Maus vorne im Bereich der

Tasten etwas breiter. Diese sollten leicht erreichbar und mit geringem Druck benutzbar

sein. Die günstigste Positionsermittlung geschieht, wenn sich die Mauskugel oder der

optische Sensor im vorderen Gehäusebereich befindet.

Die Abbildungen 19 und 20 zeigen aktuelle Computermäuse mit ergonomischen Designs.

Erwähnenswert ist die Handhabung der Evoluent Vertical Mouse, denn sie zwingt ihren

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 28

Benutzer durch die seitliche Ausrichtung nicht mehr zum Verdrehen des Arms, sodass der

Unterarm in natürlicher Position verbleiben kann.

Unterschiedliche Meinungen gibt es zur kabellosen Maus. Zwar fällt das Kabel weg, somit

wird die Bewegungseinschränkung kabelgebundener Mäuse aufgehoben und lässt die

Präzision geringfügig steigen. Nachteilig wirkt sich aber das ständige Aufladen der

Stromversorgung sowie der durch das Gewicht der Batterien verursachte erhöhte

Kraftaufwand zum Navigieren aus.

Insbesondere für häufige Computernutzer ist es ratsam, ergonomische Aspekte in der

Vordergrund zu stellen, da auch die Maus ein häufiger Auslöser von computerbedingten

Schmerzen in Hand und Arm ist. Insbesondere die repetitiven, schnell ausgeführten

Mausklicks stellen eine Gefahr dar, die zur typischen Computerkrankheit repetitive strain

injury (RSI) führen können. RSI ist keine spezifische Krankheit, sondern vielmehr ein

Sammelbegriff für krankhafte Sehnen, Muskeln und Nerven. Für Mausbenutzer ist das

Karpaltunnel Syndrom, bei der es zur Quetschung des Mittelhandnervens im Bereich des

Handgelenks kommt, eine der häufigeren RSI- Ausprägungen. Als eine der Hauptursachen,

warum gerade bei der Benutzung der Computermaus Schmerzen auftreten, wird die

ungünstige Handhaltung, kombiniert mit den häufig ausgeführten Mausklicks angesehen.

So schreibt Prof. Peter Hahn, dass die menschliche Hand für die Klickbewegung bei

gleichzeitiger Streckung des Handgelenkes nicht geeignet sei. In diesem Zusammenhang

sollte auch das Mausrad erwähnt werden, dass auf Grund der erforderlichen statischen

Muskelanspannung einen ähnlichen Effekt wie das Betätigen der Maustasten hervorruft.

Eine vom Computermagazin c`t durchgeführte Umfrage ergab, dass sich der Umstieg für

schmerzgeplagte Personen lohnen kann: Immerhin bei 50% der Teilnehmer konnten die

Schmerzen durch die Nutzung eines Trackballs stark gelindert werden, Platz Zwei ging mit

28% an die externen Touchpads. Den Wechsel zu anderen Eingabegeräten oder zumindest

einen sparsamen Einsatz der Maus empfiehlt auch die Gesellschaft Arbeit und Ergonomie

(Wittig-Goetz, 2008).

4.4 Schnittstellen- Standards

4.4.1 Einführung

Abbildung 20: Die Vertical Mouse verhindert eine Drehung des Unterarms (Evoluent, 2008)

Abbildung 19: MX Revolution (Logitech, 2008)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 29

Das folgende Kapitel gibt einen kurzen Überblick über die Möglichkeiten, auf welche Arten

Peripheriegeräte an einen PC angeschlossen werden können. Der Interface-Begriff im

reinen Hardwarekontext ist nicht mit dem der Human-Computer Interaction

gleichzusetzen. Ortmann (2006) bezeichnet Schnittstellen als Verbindungen einer

Zentraleinheit mit seinen Peripheriegeräten, sodass ein Datenaustausch ermöglicht wird.

Um den Datenverkehr zwischen den externen Peripheriegeräten jeglicher Art und dem PC

zu ermöglichen wurden im Laufe der Zeit verschiedene Interface-Standards entwickelt.

Welches Gerät tatsächlich angeschlossen wird, dessen Funktionsweise, Alter oder ähnliche

Eigenschaften, sind nebensächlich, solange sich das anzuschließende Gerät an die

spezifizierte Schnittstelle hält.

Der typische PC bietet über seine Mainboard-Blende an der Rückseite des PCs eine Reihe

unterschiedlicher Anschlussmöglichkeiten an. Darunter sind ältere, nicht mehr häufig

genutzte Kontakte ebenso zu finden wie die aktuellen USB Anschlüsse. Der aktuelle Trend

geht eindeutig zur exzessiven Nutzung des USBs. Bemerkbar macht sich dies durch die

ständig steigende Zahl der USB Anschlüsse an den modernen Mainboards, den aus

Kostengründen immer häufiger weggelassenen Legacy Interfaces sowie der steigenden

Verfügbarkeit von USB Peripheriegeräten.

Abbildung 21: Mainboard-Rückblende des MSI P965 Platinum

Abbildung 21 beschreibt die Anschlussmöglichkeiten eines typischen Standard PCs. Das

dargestellte Mainboard ist seit dem zweiten Halbjahr 2006 erhältlich. Zu sehen ist, dass

auf die zweite serielle Schnittstelle zu Gunsten einer Firewire- und einer digitalen

Audiobuchse (S/PDIF)verzichtet wurde. Das Anfang 2008 erschienene P7N Diamond der

gleichen Firma unterstützt überhaupt keine seriellen oder parallelen Schnittstellen.

Vollständig wird man aber von den Altlasten nicht wegkommen: Zumindest beim ersten

Booten des PCs ist im Normalfall ein Tastatur PS/2 Anschluss erforderlich (vgl. Kapitel

PS/2).

4.4.2 Serielle Schnittstelle

Die 9-polige serielle Schnittstelle, auch als RS-232 Standard oder COM-Port bekannt, wird

seit den 1960ern verwendet und zählt somit zu den ältesten Schnittstellenspezifikationen.

Entwickelt wurde der Standard von der Electronic Industries Association, die ihn in den

frühen 1990ern in EIA232 Standard umbenannte. Aufgrund des Alters und der nur noch

seltenen Verwendung zählt die serielle Schnittstelle zu den Legacy Interfaces (Dembowski,

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 30

2007). Dennoch werden auch die meisten modernen PCs mit zumindest einer seriellen

Schnittstelle ausgeliefert.

Die serielle Schnittstelle basiert auf 9 Leitungen (Abb. 22), die jedoch nicht alle genutzt

werden müssen. Als Minimum sind drei Leitungen vorgesehen: die Masseleitung, die

Sendeleitung und die Empfangsleitung (Abb. 23). Die Nutzung weiterer Kontakte sorgt für

eine qualitativ bessere Verbindung zwischen den angeschlossenen Geräten. Werden etwa

die Leitungen Request to Send und Clear to Send benutzt, so sorgen diese für eine

Initialisierung des Datenaustausches, indem verfügbare Daten beim Host angemeldet

werden.

Wie der Name schon andeutet, erfolgt die Übertragung bei der seriellen Schnittstelle

bitweise hintereinander. Dies macht die serielle Schnittstelle weniger leistungsfähig als

eine parallele Übertragungsweise, sie ist daher in erster Linie für den Transfer von

geringen Datenmengen gedacht.

Abbildung 22: Schnittstelle des PCs (Wikipedia, 2006) Abbildung 23: Serielle Verbindungsunterschiede zwischen DEE und DÜE

Eine Besonderheit der seriellen Verknüpfung ist die Einteilung des anzuhängenden Geräts

in sogenannte Datenendeinrichtungen (DEE) und Datenübertragungseinrichtungen (DÜE).

Auf Grund der vielfältigen Typen, die an die serielle Schnittstelle angehängt werden

können, ist für einen Verbindungsaufbau entscheidend zu wissen, zu welcher Kategorie

das anzuschließende Device gehört. PCs gehören zu den Datenendeinrichtungen. Sollen

daher zwei PCs zusammengeschlossen werden, sind speziell überkreuzte Kabel zu

verwenden (Abb. 23). In allen anderen Fällen, zum Beispiel beim Anschluss eines Modems

oder Druckers, kommen nicht-überkreuzte serielle Verbindungskabeln zum Einsatz.

4.4.3 Parallele Schnittstelle

Die parallele Schnittstelle existiert seit 1970. Entwickelt wurde sie vom

Druckerproduzenten Centronics als eine spezielle Schnittstelle für Drucker, daher ist die

parallele Schnittstelle auch als Centronics-Port bekannt (Dembowski, 2007). Der

wesentlichste Vorteil der parallelen Schnittstelle gegenüber dem seriellen Gegenstück ist

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 31

die höhere Übertragungskapazität, da bei der parallelen Schnittstelle 8 Bits gleichzeitig

gesendet werden können.

Allerdings muss bei der parallelen Schnittstelle bedacht werden, dass nur kurze

Entfernungen überbrückt werden können: Ortmann (2006) definiert die maximale

Kabellänge auf Grund der gegenseitigen Leitungsbeeinflussung als 6 Meter, während er

bei serielle Verbindungen Reichweiten bis 1000 Meter angibt.

Technisch gesehen verfügt die parallele

Schnittstelle am Host über 25 Pins (Abb. 24),

während der Client 36 Kontakte aufweist. Vor

der Einführung des USB waren neben den

Druckern vor allem Wechselspeicher auf die

parallele Schnittstelle angewiesen, allerdings

wurde sie gelegentlich auch von exotischerer

Peripherie, etwa Kopierschutzstecker,

genutzt.

Ein Merkmal der Schnittstelle ist, dass sie nur für die Kommunikation in eine

vorbestimmte Richtung vorgesehen ist. Erst seitdem sich das IEEE ihrer 1994

angenommen hat, Verbesserungen spezifizierte und als IEEE 1284 Standard

veröffentlichte, ist ein bi-direkter Austausch eingeplant. Nach Dembowski (2007) ist eine

weitere Konsequenz, die sich aus der Standardisierung ergab, fünf unterschiedliche

Betriebsmodi, da die Herstellerfirmen jeweils andere Modi durchsetzen wollten.

Allerdings ist zumindest der Compatible Mode rückwärtskompatibel und sollte im

Zweifelsfalle genutzt werden.

4.4.4 PS/2 Schnittstelle

Den Namen verdankt diese Schnittstelle IBMs Personal System/2 Computerreihe, die sie

zum Anschluss von Inputgeräten benutzte. PS/2 wird seit 1987 eingesetzt um die

veralteten RS-232 Mausschnittstelle und die fünf-poligen Rundstecker, die auch als DIN

Stecker bezeichnet werden, abzulösen. Technisch ist sie der seriellen Schnittstelle sehr

ähnlich.

Da die Anschlusskontakte für Tastaturen als auch Mäuse gleich aussehen, wurden 1997

von Microsoft beiden Ports unterschiedliche Farben zugeteilt, um eine Unterscheidung zu

vereinfachen. Seitdem sind bis heute der Mainboard Port der Tastatur violett, und der der

Computermaus grün eingefärbt (Abb. 25)

Die PS/2 Schnittstelle hat durchaus noch ihre Daseinsberechtigung. Allerdings geht man

vermehrt dazu über, nur noch eine statt zwei Buchsen in den Mainboards einzubauen,

wobei diese eine Computermaus oder eine Tastatur anschließt. Aufgrund der

unvorteilhaften Eigenschaft von USB, erst beim Hochfahren des Betriebssystems aktiv zu

Abbildung 24: 25polige parallele Schnittstelle am Host (Wikipedia, 2006)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 32

werden, können USB Geräte meist nicht vor dem vollständigen Start des Betriebssystems

oder im DOS Modus eingesetzt werden. Daher ist eine herkömmliche PS/2

Schnittstellentastatur, zumindest für die Einrichtung eines neuen Systems unerlässlich.

Allerdings kann anschließend im BIOS moderner Mainboards der USB Keyboard Support

aktiviert werden (Dembowski, 2007).

Abbildung 25: PS/2 Buchsen des Dynex USB- Adapters (OCModshop.com, 2007)

4.4.5 Universal Serial Bus

Der Universal Serial Bus, üblicherweise nur als USB referenziert, ist ein Standard des USB

Implementers Forum, dem eine Vielzahl an elektronik- und computererzeugender

Unternehmen angehören. Die erste Version des Standards, USB 1.0, wurde 1996

veröffentlicht. Hauptziele des neuen Universalinterfaces sind die Reduzierung der

benötigten Device-Schnittstellen sowie eine benutzerfreundlichere Handhabung

(Ortmann, 2006). Die 2000 veröffentlichte und 2001 standardisierte, überarbeitete

Version 2.0 erlaubt eine höhere Datenübertragungsrate und ist abwärtskompatibel.

Während die frühe USB Version (Full Speed) eine Datenübertragung von nur 12 MBit/s

erlaubte, erhöht USB 2.0 (High Speed) den Wert auf 480 MBit/s. Verglichen mit den vorhin

erwähnten Schnittstellenspezifikationen sind daher weit höhere Datenübertragungen

möglich. Diese betragen nämlich für die serielle Schnittstelle nur 115kbits/s und die

parallele Standard-Schnittstelle ermöglicht 115kbytes/s. Im November 2008 wurde die

aktuellste Spezifikation, USB 3.0, vorgestellt. Die neue Version erhielt die Bezeichnung

Super Speed und soll einen bis zu zehnmal schnelleren Datentransfer ermöglichen

(USB.org, 2008). Die umfangreichen Standard-Spezifikationen können von interessierten

Lesern auf der offiziellen USB Seite unter http://www.usb.org/developers/docs/

nachgelesen werden.

Bei der Betrachtung der mechanischen Aspekte fällt auf, dass die Anschlüsse der Kabel

unterschiedliche Formen aufweisen (Abb. 26). Welcher Anschluss zu verwenden ist, wird

durch die Verbindungsstruktur festgelegt: Der sogenannte A-Konnektor wird stets am

Host, beziehungsweise in Richtung des Upstreams befestigt. Dementsprechend ist der B-

Typ für die Peripheriegeräte vorgesehen. Dass dieser üblicherweise bei Inputgeräten wie

Tastatur und Computermaus nicht sichtbar ist, liegt an der Integration des USB Kabels im

entsprechenden Gerät. Für kleinere Geräte wurde eine weitere, kleinere Art des B-

Abschlusses entwickelt. Diese Spezifikation ist unter dem Namen Mini-USB bekannt. USB

Kabeln bestehen aus insgesamt vier Leitern. Zwei davon sind Signalleitungen, eine Leitung

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 33

ist der Stromversorgung in Höhe von 5 Volt angedacht, die Letztere dient als

Masseleitung.

Der Konzeption als Universalschnittstelle verdankt USB, dass eine breite Palette an

Peripheriegeräten unterstützt wird. So sind heutzutage zum Beispiel Computermäuse,

Tastaturen, externe Massenspeicher, Drucker, Scanner und Digitalkameras mit USB

Anschlüssen weit verbreitet. Da der USB angeschlossene Geräte mit einem 5 Volt- Strom

versorgt, gibt es Gimmicks, die den USB als Stromquelle zweckentfremden. Dazu zählen

alle Devices, die ausschließlich die Stromversorgungsleitung nutzen, ohne am

Datenaustausch mit dem Host teilzunehmen. Beispiele hierfür wären Ventilatoren,

Lampen und Ähnliches.

Eine weitere Besonderheit des USBs ist seine Plug and Play Fähigkeit. Darunter versteht

man das Anschließen und Nutzen der Peripherie zur Laufzweit. Im Gegensatz zu den

Legacy Interfaces, die einen Computerneustart erforderten, konnte somit die

Userfreundlichkeit erhöht werden. Diese wird auch durch die automatische

Geräteerkennung gefördert. Bevor ein angeschlossenes USB Gerät betriebsbereit ist,

müssen erst einige Schritte durchgeführt werden. Als erstes meldet sich ein USB Device

beim Host durch das Anlegen eines 1,5k Ohm Widerstandes an eine der zwei

Signalleitungen. Nachdem das Gerät entdeckt wurde, wird es mit Hilfe seiner Deskriptoren

identifiziert und erhält eine Busadresse. Anschließend wird eine Enumeration

durchgeführt, in der das Device alle seine Eigenschaften preisgibt, Treiber geladen und die

zustehende Bandbreite definiert wird. Eine Übersicht über die unterstützten

Deviceklassen bietet Abbildung 27. Einige dieser Deviceklassen bestehen wiederum aus

Subklassen und Subprotokollen. So sind beispielsweise für die Klasse der USB Hubs, 09h,

drei unterschiedliche Protokolle für Full Speed und High Speed Hubs vorgesehen.

Abbildung 27: USB Anschlussvarianten (USB.org)

Pro Hostcontroller werden bis zu 127 Geräte unterstützt. Allerdings leidet die Bandbreite

pro Device erheblich bei zu vielen aktiven Geräten. Zwar besitzen moderne PCs meist je

zwei Kontakte an der Rück- und Vorderseite, um jedoch eine größere Anzahl an USB

Peripherie anzuschließen kommen in der Regel Hubs zum Einsatz. Laut USB -Spezifikation

ist hierfür eine baumförmige Struktur vorgesehen. Somit kann es immer nur einen Upload

geben, der Anzahl an Downstreams sind keine Grenzen gesetzt. Eine weitere Restriktion

der Busstruktur wird durch die Maximallänge der Kabel vorgegeben. Diese beträgt 5

Abbildung 26: USB Device Klassen

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 34

Meter und ergibt sich sowohl aus der straffen Response Time für Devices als auch durch

den Signalverlust der verdrillten Kupferkabel (Ortmann, 2006; USB.org, 2008)

5. Vorgehensweise und verwendete statistische Methoden

Für die Auswertung der durchgeführten Umfrage werden die folgenden Methoden aus der

Statistik angewandt. Neben einer kurzen Einführung der ausgewählten Methoden

behandelt dieses Kapitel auch den Vorgangsprozess der Analysendurchführung.

5.1 Conjoint Analyse

Die in dieser Studie verwendete Conjoint Analyse ist ein beliebtes Mittel zur Erfassung von

Benutzerpräferenzen. Nach A. Muir (2008) ist die Conjoint Analyse das beste Werkzeug,

um den komplexen psychologischen Kaufentscheidungsablauf nachzubilden. Sie wurde in

den 1970ern für die Marktforschung entwickelt, hat sich allerdings aufgrund ihrer

Vielseitigkeit in weiteren Anwendungsgebieten etablieren können (Hair, Black, Babin,

Anderson & Tatham, 1998).

Bei der Conjoint Analyse bewertet der Befragte ein fiktives oder

reelles Produkt, den sogenannten Stimulus. Die Person bewertet

das ganze Produkt, nicht nur einzelne Eigenschaften wie bei

vergleichbaren Analysen. Daher ist die Bewertung eine sehr

realistische Aufgabenstellung. Bei der Auswertung der

Umfragedaten kann für jede Person sowohl auf individueller, als

auch auf aggregierter Ebene eine Präferenzstruktur erzeugt werden.

Sie tätigt Aussagen über die Wichtigkeit der einzelnen

Eigenschaften (Faktoren). Darüber hinaus werden die Nutzwerte

der zugehörenden Ausprägungen (Levels) berechnet. Die

Vorgehensweise zur Durchführung einer Conjoint Analyse wird in

Abbildung 28 dargestellt.

Select attributes: Zuallererst erfolgt die Auswahl der Attribute

(Merkmalen), die üblicherweise als Faktoren bezeichnet werden.

Bei der Auswahl der Faktoren ist zu beachten, dass sie

kommunizierbar, beeinflussbar, messbar und unabhängig sind. Für

die traditionelle Conjoint Analyse, die zur Auswertung dieser

Umfrage verwendet wird, empfehlen Hair, Black, Babin, Anderson

und Tatham (1998) weniger als zehn Faktoren zu verwenden, da

Abbildung 28: Conjoint Analyse Prozess (North & de Vos, 2002)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 35

ansonsten zu viele Stimuli bewertet werden müssen.

Determine attribute levels: Im nächsten Schritt werden den einzelnen Faktoren mögliche

Ausprägungen, die Levels, zugeteilt. Korrelationen zwischen bestimmten Levels, die

unrealistisch erscheinen, sind bestmöglich zu vermeiden.

Unter dem Begriff „Determine attribute combinations“ verstehen North und de Vos das

Bestimmen der Anzahl an Kombinationsmöglichkeiten. Sie ergibt sich aus der

Multiplikation der Levelanzahl jedes Faktors (Levelanzahl Factor 1 * Levelanzahl Factor n).

Typischerweise muss die Anzahl der Stimuli auf ein sinnvolles Maß reduziert werden. Trotz

Reduktion muss eine korrekte Durchführung der Analyse gewährleistet sein. Für die

Umfrage wird daher ein optimales Design erstellt, das heißt, eine Stimuli- Sammlung, die

sowohl orthogonal als auch ausgeglichen ist.

Select form of presentation of stimuli and the nature of judgements to secure from

respondents: Als Nächstes soll laut North und de Vos (2002) geklärt werden, auf welche

Art die Erhebung erfolgen soll. Die Stimuli können von den Ausfüllenden auf zwei Arten

bewertet werden. Bei der Ranking-Methode wird eine Reihenfolge erstellt, sie ist aber für

die Anzahl der hier verwendeten Levels nicht geeignet. Daher wird die Score Methode, bei

der jeder Stimulus mit Punkten benotet wird, verwendet.

Decide how judgements will be aggregated: Wie bereits erwähnt können Daten mit Hilfe

der Conjoint Analyse auf individueller und aggregierter Ebene ausgewertet werden.

Aufbauend auf den individuellen Informationen wird in dieser Studie eine Cluster Analyse

durchgeführt.

Select analysis technique: Die im vorherigen Schritt definierte Bewertungsmethode

beeinflusst die Wahl der Analysemethode. Erfolgt die Evaluierung der Stimuli durch

Punktevergabe, empfehlen Hair et al (1998) eine metrische Schätzmethode. Für

Reihenfolgen eignet sich die nichtmetrische Methode, da keine Linearität gegeben ist

(North & de Vos, 2002). Darüber hinaus empfehlen Hair et al (1998) im Vorhinein die

Kompositionsregel zu definieren. Sie beschreibt, wie sich der Gesamtnutzen eines

Produktes zusammensetzt. Im Normalfall entscheidet man sich für die additive Methode,

bei der sich der Gesamtnutzen aus den addierten Teilnutzen eines Produkts ergeben. Für

die Form der Teilnutzenfunktion können ebenfalls Regeln definiert werden, zur Verfügung

stehen lineare, separate (diskrete) und quadratische Teilnutzenbeziehungen (Abb. 29). Für

diese Studie wird in den meisten Fällen eine separate Beziehung angenommen. Aufgrund

der fehlenden Einschränkungen ist hierbei der Nachteil, dass sie geringere statistische

Rückschlüsse ermöglichen. Ausnahmen, zum Beispiel die Levels der Kosten oder bei

offensichtlichen Faktoren wie der Reaktionszeit, verwenden den linearen Teilwert.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 36

Abbildung 29: Mögliche Nutzen-Beziehungen für die Faktoren-Levels

Die statistische Vorgangsweise zur Errechnung der geschätzten Teilwerte und der

Faktorenwichtigkeit besteht aus mehreren Schritten.

Quadrieren der Differenz von Mittelwert und tatsächlichem Wert für alle Teilwerte.

Errechnen der Summe aller quadrierten Abweichungen.

Berechnen der Standardisierungszahl, die sich aus der Anzahl der verwendeten Levels,

dividiert durch die Summe aller quadrierten Abweichungen ergibt.

Durch die Multiplikation der quadrierten Abweichungen mit der Standardisierungszahl

werden alle Levels standardisiert.

Durch Wurzelziehen ergibt sich daraufhin der geschätzte Teilwerte für jeden Level.

Zum Berechnen der relativen Wichtigkeit der Faktoren wird zuerst die Größe des

Teilwert-Intervalls benötigt. Dieser ergibt sich aus der Addition des Maximums mit

dem negativen Minimum.

Feststellen der Summe aller Teilwert- Intervalle.

Die Faktorenwichtigkeit lässt sich mit Hilfe des Teilwert- Intervalls, dividiert durch die

vorhin errechnete Summe, feststellen.

5.2 Clusteranalyse

Durch die Anwendung des hierarchischen Clusterverfahrens auf die Daten der Conjoint

Analyse sollen alle Versuchsteilnehmer in kleinere, möglichst homogene Gruppen

eingeteilt werden. Der Unterschied zwischen den Gruppen soll möglichst groß sein.

Gegenstand der Clusteranalyse sind die Fälle, sprich die Daten der einzelnen

Umfrageteilnehmer, nach Durchführung der Conjoint Analyse. Das Clustern basiert auf

den standardisierten Teilnutzenwerten. Es existieren daher keine nominalen, binären oder

kategorialen Variablen.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 37

In der Clusteranalyse wird „jedes Objekt als Punkt in einem endlich-dimensionalen Raum

repräsentiert. Seine Dimension stimmt mit der Anzahl an Analysevariablen überein“

(Wiedenbeck & Züll, 2001). Wie die Distanz, beziehungsweise die Ähnlichkeit bestimmt

wird, hängt von der gewählten Distanzmaß-Methode ab. Beliebte Distanzmaße sind der

euklidischer Abstand (Abb. 30) beziehungsweise die quadrierte euklidische Distanz und die

Block- oder Manhattandistanz (Abb. 31).

Des Weiteren legen hierarchische Methoden fest, auf welche Art geclustert wird. Zwei in

der Literatur häufig anzufindende, und auch in dieser Studie verwendeten Methoden sind

die Folgenden.

Single Linkage (Nearest Neighbour): Distanz des nahsten Objekts jedes Clusters. Single

Linkage eignet sich zum Identifizieren von Ausreißern. Aus diesem Grund wird sie in

dieser Studie vor dem eigentlichen Klassifizierungsprozess angewandt.

𝐷𝑆𝐿 𝐶𝑟 , 𝐶𝑠 = 𝑚𝑖𝑛𝑎𝑖 ∈ 𝐶𝑟 𝑎𝑗 ∈ 𝐶𝑠

𝑑(𝑎𝑖 , 𝑎𝑗 )

Ward Methode: Der Mittelwert der Variablen jedes Clusters wird berechnet und mit

den der anderen Objekte verglichen. Die Objekte, die den geringsten

Homogenitätsverlust verursachen, werden zusammengelegt. Diese Methode wird zum

Klassifizieren der Daten, nach der Elimination von extremen Ausreißern, angewandt. n

bezeichnet die Anzahl der Fälle eines Clusters.

𝐷𝑊 𝐶𝑟 ,𝐶𝑠 =𝑛𝑟𝑛𝑠

𝑛𝑟 + 𝑛𝑠 𝑑2(𝑥𝑟 ,𝑥𝑠 )

Hierarchische Clusteralgorithmen stellen alle Cluster- Schritte hierarchisch dar, jede Ebene

repräsentiert eine mögliche Lösung. Entscheidet man sich für das agglomerative

Verfahren, so bildet jeder Fall zu Beginn des Algorithmus einen eigenen Cluster. Diese

werden solange miteinander fusioniert bis zum Schluss nur noch ein einzelner Cluster

existiert. Für das divisive Verfahren gilt die Umkehrung, hier wird mit einem einzigen

Cluster begonnen, der in jedem Schritt aufgespalten wird. Die Anzahl der resultierenden

Cluster wird bei der Analyse der Daten bestimmt. Bestimmte Methoden, zum Beispiel das

Ellbogen-Kriterium, helfen bei der Suche nach der „richtigen“ Anzahl an Clustern. Auch

Dendrogramme (Abb. 32), die den ganzen Klassifizierungsprozess grafisch abbilden,

können hierbei unterstützen.

Abbildung 30: Euklidische Distanz Abbildung 31: Manhattandistanz

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 38

Abbildung 32: Dendrogramm als SPSS- Output (nach Wiedenbeck & Züll, 2001)

5.3 Assoziationsanalyse

Die Assoziationsanalyse soll häufig auftretende Attributkombinationen aufdecken. Im

Sinne der Umfrage wird mit den Assoziationsregeln festgestellt, ob und welche

Clusterzugehörigkeiten häufig gemeinsam auftreten. Input der Analyse sind die

dichotomen Variablen der Clusterzugehörigkeiten.

Bollinger (1996) definiert die Assoziationsregeln als Beschreibung der „Korrelationen

zwischen gemeinsam auftretenden Dingen“. Assoziationsregeln treten in der Form X → Y

auf. Sie messen die funktionale Beziehung einer Kombination.

Als Support wird die relative Häufigkeit eines

Merkmals charakterisiert. Ein hoher

Supportwert deutet auf ein häufiges Auftreten

dieses Merkmals oder der

Merkmalkombination hin. D ist die Gesamtheit.

Als Konfidenz wird der prozentuelle Anteil

bezeichnet, in dem sowohl der Antezedent als

auch der Konsequent in einer Regel

vorkommen.

Beeinflussen kann man das Auffinden von starken Regeln durch das Definieren des

minimalen Supports und der minimalen Konfidenz. Ein geringer minimaler Support

erzeugt viele Regeln, die allerdings selten vorkommen. Ist er hoch eingestellt, werden nur

Abbildung 33: Beispiel einer Assoziationsregel

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 39

wenige Assoziationsregeln ausgegeben, die allerdings häufig vorkommen. Für die

Konfidenz gilt, dass bei einem geringen Wert zwar viele Regeln gültig sind, aber diese nur

ungenau sind. Währenddessen erzeugt eine hohe minimale Konfidenzeinstellung wenige,

allerdings häufig zutreffende Regeln.

In der Auswertung wird eine in der Literatur häufig erwähnte Methode, der Apriori-

Algorithmus, angewendet. Der Pseudo-Code ist unterhalb dargestellt. Als Lk wird die

Größe des Sets bezeichnet. Bei L1 bestehen die Itemsets nur aus einem Merkmal. Ck sind

Kandidaten für mögliche häufige Itemssets der kten Stufe.

L1 = {frequent 1-ltemsets}; for (k=2;Lk-1 != {}; k++) do begin

Ck = apriori-gen(Lk-1); II Neue Kandidaten erschaffen for all transactions t є D do begin Ct = subset(Ck,t); II In t enthaltene Kandidaten for all candidates c є Ct do c.count++; end Lk = {c є Ck | c.count> supmin)

end Answer = Uk Lk;

5.4 Vorgehensweise

1. Den Ausgangspunkt der Umfrage bilden die orthogonalen Designs der drei betrachteten

Komponenten. Diese bestimmen die Attributkombinationen der von den Testpersonen zu

bewertenden Stimuli. Sie finden im Anhang alle erstellten Designs.

2. Nach der Durchführung der Umfrage werden die

gespeicherten Datensätze in das Statistikprogramm

SPSS importiert. Die Gesamtmenge aller Datensätze

umfasst 110 Personen. Beim Import werden die

Variablen ihrem Inhalt entsprechend kodiert (Abb. 34)

und das Messniveau aktualisiert. Zur späteren

Identifikation der Personen wird jedem Datensatz eine

ID- Variable zugeordnet.

3. In diesem Schritt erfolgt die Löschung aller ungeeigneten Datensätze. Der Autor braucht

zum Ausfüllen etwa 15 Minuten. Da bei der Erhebung des Fragebogens auch die

Ausfüllzeit ermittelt wurde, lässt sich abschätzen, welche Personen den Fragebogen nicht

ausgefüllt haben sondern sich nur durchgeklickt haben. Dies trifft auf 3 Datensätze zu, als

Grenzwert wurden 5 Minuten definiert. Zusätzlich werden 3 Datensätze, bei denen die

Stimuli aller drei Soll-Zustände gar nicht oder zur Durchführung der Conjoint Analyse

Abbildung 34: Aufteilung und Kodierung

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 40

unzureichend bewertet wurden, entfernt. Als Resultat stehen für die weitere

Untersuchung 104 Datensätze zur Verfügung.

4. Es folgt das Analysieren und eventuelles Ersetzen von fehlenden Werten, sofern dies

unbedenklich ist. Die Filterfragen, etwa a7, ermöglichen unter Umständen fehlende Werte

ihrer nachfolgenden Detailfragen zu ersetzen. Die meisten fehlenden Werte waren nicht

zu korrigieren. Da die Conjoint Analyse keine fehlenden Werte zulässt, mussten die

Auswertungen dieser Personen für das jeweilige Gerät gestrichen werden. Ein fehlender

Wert für die Conjoint Analyse eines Geräts hat jedoch keinen Einfluss auf die Auswertung

der anderen Devices.

5. Schreiben der Conjoint Syntax. Benötigt werden

hierfür nicht der gesamte Datensatz, sondern nur

die Ergebnisse der Stimuli. Betroffen sind die je 16

Variablen der ms, ts und mos, die die Stimuli-

Bewertungen speichern. Entscheidenden Einfluss

auf das Ergebnis haben die Teilnutzendefinitionen

(Abb. 29, Abb. 35). Sollte keine Annahme über die

Beziehung der Faktorenlevel und Nutzerpräferenzen

gemacht werden können, wird der entsprechende

Faktor als diskret (separat) annotiert. In der Umfrage ist diese Art für den Großteil der

Attribute zutreffend. Faktoren mit einer eindeutigen Beziehung, zum Beispiel den Kosten,

der Feedbackqualität der Tastenanschläge und Ähnlichen, werden eine lineare Beziehung

unterstellt.

6. Nach dem Schreiben der Syntax wird die

Conjoint Analyse mit Hilfe des

Programms SPSS durchgeführt. Sie

bestimmt auf aggregierter und

individueller Ebene die

Nutzerpräferenzen (Abb. 36). Für den

Bildschirm sind 96 und für die Tastaturen

93 verwendbare Datensätze vorhanden.

Die Auswertung der PC-Mäuse

verwendet die Antworten von 98

Personen. Die Ergebnisse der Conjoint

Analyse werden in separaten Daten

gespeichert. Für die weitere Verarbeitung

dient eine Datei pro Peripheriegerät.

Abbildung 35: Modellbeschreibung

Abbildung 36: Ergebnis der Conjoint Analyse

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 41

1 7 13 19 25 31 37 43 49 55 61 67 73 79 85 91

Feh

ler

Clusterschritt

7. Überprüfung der Indikatoren zur Vorhersagefähigkeit des

Modells. Sind sie zu niedrig könnte dies an falschen

Modellannahmen oder schlechten Inputdaten liegen. Als

Qualitätsmerkmale der Conjoint Analyse werden Pearsons

r und Kendalls Tau herangezogen. Die entsprechenden

Werte für die Analyse des Monitors finden Sie in Abb. 37. Die Werte der Tastaturen

betragen 0,986 beziehungsweise 0,929. Und die Korrelation zwischen den beobachteten

und errechneten Nutzen für das Modell der PC Mäuse ist mit einem Pearson r von 0,954

und Kendall Tau 0,824 ebenfalls aussagekräftig.

8. Vor der Weiterverarbeitung durch die Cluster Analyse werden die

individuellen Teilnutzenwerte aufbereitet. Das Standardisieren der

Teilnutzenwerte, sodass die Summe aller standardisierten

Teilnutzen den Wert 1 ergeben, ist Voraussetzung für eine weitere

Verarbeitung. Dies geschieht mit den in Abbildung 38 angegebenen

Formeln, wobei sich βjm auf den Teilnutzen des Levels j des Faktors

m bezieht. Die Clusteranalyse verwendet ausschließlich

standardisierte Werte (β^).

9. Im nächsten Schritt werden alle extremen

Ausreißer aussortiert. Die besten Resultate

liefert für diese Aufgabe die Nearest

Neighbour Methode, kombiniert mit der

quadratischen euklidischen Distanz als

Distanzmaß. Extreme Ausreißer werden durch

den sprunghaften Anstieg der Koeffizienten

identifiziert und von der folgenden

Verarbeitung ausgeschlossen. Alle Daten, mit

Ausnahme der Angaben der Person 28 zur Tastatur, werden für das eigentliche Clustern

weiterverwendet. Der eben erwähnte Tastaturdatensatz hätte den Koeffizienten um 103%

ansteigen lassen und erwies sich bei der Untersuchung der Conjoint Ergebnisse als

mangelhaft (Abb. 39).

10. Erneute Durchführung der Clusteranalyse mit

der Ward-Methode. Um die besten Ergebnisse

zu erzielen wird die quadrierte euklidische

Distanz empfohlen (Bühl, 2008). Eine

bedeutende Entscheidung dieses Schrittes

betrifft die Wahl der erwünschten

Clusteranzahl. Als Basis wird hierfür in

eingeschränkter Form das Ellbogenkriterium

Abbildung 37: Analyse der Korrelation

Abbildung 38: Standardisierungsformeln

Abbildung 39: Der 28. Datensatz als Ausreißer

1 7 131925 3137434955616773798591

Feh

ler

ClusterschrittAbbildung 40: Anstieg der Fehlerquote beim Tastaturen- Fusionierungsprozess

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 42

beziehungsweise ein Vergleich der Clusterdistanzen herangezogen. Der Autor entschied

sich für insgesamt 4 Bildschirmcluster, 4 Tastaturcluster und 4 Mauscluster. Diese lassen

sich voneinander in ihren Eigenschaften unterscheiden, sodass die Präferenzen der

Gruppen klar ersichtlich sind. Eine zusätzliche Aufteilung würde zwar das Ergebnis

geringfügig verbessern, aber in zu kleinen Clustergrößen resultieren. Sie finden im Kapitel

„Dendrogramme der Clusteranalysen“ des Anhangs auf der Seite 86 die entsprechenden

Abbildungen.

11. Es folgt eine Analyse der Clustereigenschaften. Mit Hilfe der

Clusterzugehörigkeit erfolgen weitere Conjoint Analysen, die die

Präferenzen der Gruppen wiedergeben (Abb. 41). Ebenso von

Interesse ist die Frage, welche demografischen und statistischen

Größen besonderen Einfluss auf die Clustergruppen nehmen.

12. Für die Assoziationsanalyse werden dichotome Variablen für die Clusterzugehörigkeiten jeder Person erstellt. Nach der Bestimmung der geeigneten Minimumwerte für Support und Konfidenz soll sie beschreiben, welche Clusterzugehörigkeiten häufig gemeinsam auftreten.

6. Die Datenerhebung

6.1 Statistischer Hintergrund

Die Grundgesamtheit besteht aus allen Computernutzer des deutschsprachigen Raumes.

Da die Datenerhebung mit Hilfe eines Online-Fragebogens geschieht, gibt es durch die

Selbstselektion keine repräsentative Stichprobe. Die Selektion der Testpersonen geschieht

zum Einen durch das Auffinden des Fragebogens, zum Anderen durch die freiwillige

Teilnahme. Die qualitativ besten Daten würden möglichst heterogene Gruppen,

entsprechend ihres Anteils an der Grundgesamtheit, hervorbringen. Es ist daher nicht

sinnvoll, wenn eine Gruppe, zum Beispiel Studenten, den Großteil der Befragten

ausmachen würde. Deswegen wurde der Fragebogen auf mehreren Foren mit

unterschiedlichen Themenschwerpunkten veröffentlicht. So soll eine breit gestreute

Abbildung 41: Auswertung der Cluster

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 43

Stichprobe realisiert werden. Der Großteil der Freiwilligen konnte mit Hilfe von

Internetforen mobilisiert werden. Die benutzen Foren waren:

Fswinf, das Forum der „Fachschaft Wirtschaftsinformatik der TU Wien und Uni Wien“.

World of Warcraft Europe, ein deutschsprachiges Forum des gleichnamigen

Rollenspiels mit gewaltiger Reichweite.

Gamona, ein Netzwerk für Software, speziell für Computerspiele.

Forum Austria, ein Forum für Themen aller Art.

Tom’s Hardware, mit dem Themenschwerpunkt für Computerhardware.

Boardplanet.net: Forum für allgemeine Themen.

sowie das Wien Forum.

6.2 Erstellung des Fragebogens

Der Fragebogen beansprucht mit einer Länge von acht Seiten und einer durchschnittlichen

Ausfüllzeit von etwa 15 Minuten relativ viel Zeit. Eine große Sorge war daher, die

erwünschte Anzahl von über 100 Personen erreichen zu können. Allerdings gibt es viele

Anreize, die die Rücklaufquote erhöhen: Als Beispiele nennt Kirchhoff, Kuhnt, Lipp und

Schlawin (2001) unter Anderem kleine Entschädigungsbeiträge für die investierte Zeit oder

die Teilnahme an Gewinnspielen. Im Falle dieser Umfrage besteht die Möglichkeit sich

beim Autor für die Zusendung der fertigen Arbeit sowie der persönlichen, individuellen

Analyse einzutragen.

Die Conjoint Analyse basiert auf der Bewertung eines ganzen Produktes. Der erste Schritt

zur Erstellung der Stimuli der ausgewählten Komponenten ist das Auffinden aller

relevanten Eigenschaften und Besonderheiten der Produkte. Die Herstellerwebseiten,

Prospekte und unabhängige Testanstalten erweisen sich in dieser Hinsicht als brauchbare

Quellen. Selbstverständlich können nicht alle diese Features in den Conjoint Analysen

präsent sein. Zum Einen, da mit der Anzahl der abgefragten Features auch die Anzahl der

zu bewertenden Stimuli sehr rasch steigt. Zum Anderen, da einige Features offensichtlich

unwichtiger als Hauptmerkmale sind und eine untergeordnete Rolle einnehmen. Leider

können Features nicht in die Conjoint Analyse aufgenommen werden, wenn sie nicht

kommunizierbar sind. In diesem Sinne wird eine Eigenschaft, die dem durchschnittlichem

Computerbenutzer kein Begriff ist, ebenfalls ignoriert.

Nach der Auswahl der Features erfolgt die Gestaltung der Ausprägungen der

ausgewählten Eigenschaften, den Levels. Die Auswahl der Levels geschieht ebenso

praxisnahe: Nach der Recherche der am Markt verfügbaren Produkte wurden sinnvolle,

bewertbare und kommunizierbare Ausprägungen ausgewählt. Um eine Überforderung der

Teilnehmer zu vermeiden, bestehen die meisten Faktoren aus zwei konkurrierenden

Levels. So macht es nach Auffassung des Autors wenig Sinn, bei schwerer zu

kommunizierenden Merkmalen, etwa bei dem Gewicht der Maus eine zusätzliche dritte,

neutrale Position einzuführen. Während bei zwei Levels die Abgrenzung noch leichter

stattfinden kann, wäre die Grenzziehung zwischen „leicht“, „mittelschwer“ und „schwer“,

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 44

zu komplex und subjektiv. Der Preis ist zwar kein technisches Feature, wird allerding

aufgrund seiner Wichtigkeit ebenfalls in die Conjoint Analyse aufgenommen.

Nach Bestimmung der Levels können alle Stimuli gebildet werden. Damit nicht alle

möglichen fiktiven Produktkombinationen von den Probanden bewertet werden müssen,

wird mit Hilfe des orthogonalen Designs die Anzahl der Stimuli auf ein Minimum reduziert.

Für die Umfrage bedeutet dies, dass für jede Komponente 16 Fälle zu beurteilen sind.

Abbildung 42: Factors und Levels der Conjoint Analyse der Computermaus

Die Abbildung 42 zeigt die umfragerelevanten Faktoren und deren Ausprägungen für

Computermäuse. Die Umfrage erhebt neun Faktoren, zu je zwei bis vier Levels. Als

Orientierungshilfe ist diese Abbildung auch im Fragebogen abgebildet, dadurch soll der

Teilnehmer an der Studie einen raschen Überblick über mögliche Produktkombinationen

erhalten. Als zusätzliche Hilfestellung ist für jeden Faktor eine Kurzbeschreibung

vorhanden. Detailliertere Angaben zu den technischen Eigenschaften und der

Funktionsweise von Computermäusen erhalten Sie im Kapitel Hardware.

Die Abbildungen 43 und 44 geben einen Überblick über die Zusammensetzung der fiktiven

Tastaturen beziehungsweise der Monitore. Im Anhang finden Sie eine Auflistung aller 48

Stimuli.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 45

Abbildung 43: Faktoren und Levels der Conjoint Analyse der Tastatur

Abbildung 44: Faktoren und Levels der Conjoint Analyse des Monitors

Die Zusammenstellung der Stimuli hat sich im Laufe der Fragebogengestaltung ständig

verändert. Dies betrifft zum Einen die Anzahl der abgefragten Faktoren. So bestanden

Computermäuse für einige Zeit aus zehn Merkmalen, ohne dass sich dadurch die Anzahl

der zu bewertenden Produkte erhöht hätte. Allerdings zeigte sich im Pretest, dass die

Teilnehmer durch das erhöhte Faktorenset zu sehr belastet werden und die Dauer zum

Beantworten der Frage erhöht wurde. Ein weiteres Beispiel betrifft die Tastatur: Hier

wurde bis zum Pretest nicht die Qualität der Inputeingabe abgefragt. Allerdings ist vor

allem das Gefühl beim Tippen eines der zentralen Elemente der Kaufentscheidung. Aus

diesem Grund wurde der Faktor Feedbackqualität eingeführt. Zum Anderen wurden einige

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 46

Faktoren zur Gänze ausgetauscht. So erschien es nicht sinnvoll, das Mausgewicht zu

evaluieren, sondern stattdessen besser mit dem Faktor Gleitfähigkeit zu ersetzen.

In der Designphase galt es eine passende Darstellungsart der Stimuli zu wählen.

Restriktionen der potentiellen Umfragetools und -anbieter ließen eine sinnvolle textuelle

Eingabe der Stimuli nicht zu, daher wurden die Stimuli als Bilder in den Fragebogen

integriert. In der folgenden Abbildung 45 finden Sie eine Übersicht über die drei im Pretest

verwendeten Stimuliformen. Dieser sollte unter Anderem klären, welche Art für die finale

Umfrage verwendet wird.

Abbildung 45: Die drei Arten der Stimuli-Präsentation des Pretests

In der ersten Variante stehen alle Features untereinander, die dazugehörigen Levels

stehen neben den Features. Dadurch wirkt die Informationsdarstellung sehr kompakt. Ein

weiterer Vorteil ist die beinahe quadratische Form: selbst mit einer Monitorauflösung von

800 x 600 Pixeln kann immer der ganze Stimulus ohne horizontalem oder vertikalem

Scrollen angezeigt werden. Allerdings wirkt der Fragebogen durch seine vertikale

Ausdehnung sehr lange.

Bei der zweiten Variante in Tabellenform stehen die Features im Tabellenkopf. Dadurch

wird die Darstellung der Stimuli zwar sehr breit, verbraucht aber wenig an vertikalem

Platz, der Fragebogen wirkt daher kürzer. Da sich die Likert-Skala immer vom linkem zum

rechten Rand ausdehnt, ist die Entfernung zwischen dem Stimulus und der

dazugehörenden Skala gering. Nachteile ergeben sich allerdings bei geringer

Monitorauflösung, da der Benutzer zu ständigem horizontalem Scrollen genötigt wird.

Ebenso verhält es sich bei vielen Features, wenn diese längere Namen innehaben müssen

diese abgekürzt oder in mehreren Zeilen geschrieben werden.

Die dritte Variante fasst alle Produkte in einer Tabelle zusammen, die gleich wie bei der

zweiten Variante aufgebaut ist. Somit lassen sich die Produkte sehr schnell untereinander

vergleichen. Jedoch kann die Trennung der Stimuli von den Likert-Skalen von den

Probanden als sehr unangenehm empfunden werden. Ein weiterer Nachteil, selbst bei

hohen Monitorauflösungen, ist der Zwang zum vertikalen Scrollen nach der Bewertung

der obersten Stimuli.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 47

6.3 Der Vor-Test

Die Durchführung eines Pretests wird für beinahe alle Umfragen empfohlen. Sie

verbessern die Qualität des Fragebogens durch das Auffinden von Formulierungsfehlern,

Suggestivfragen sowie unverständlicher Fragen und Antworten (Kirchhoff, Kuhnt, Lipp &

Schlawin, 2001). Aus diesem Grunde wurde ein Pretest inklusive Diskussion mit vier

Teilnehmern durchgeführt. Neben Schwachstellen in der Gestaltung des Fragebogens

sollte dieser Testdurchlauf auch Konflikte und Gefahrenpotentiale der statistischen

Auswertung aufdecken.

Eine der zentralen Fragen, die der Vor-Test klären sollte, betrifft die Gestaltung und

Präsentation der Stimuli. Beim Pretest wurden die fiktiven Produkte aller drei

Komponenten, Computermaus, Monitor und Tastatur, auf eine andere Art und Weise

dargestellt. Sowohl die erste als auch die zweite Art wurde von mindestens zwei

Testpersonen als angenehm empfunden. Diese zeichnen sich durch eine kompakte

Wiedergabe des Stimulus und der Nähe zur entsprechenden Likert-Skala aus. Die dritte

Variante, in der die Stimuli gemeinsam in einer Tabelle abgelegt sind, wurde von allen

Teilnehmern des Pretests abgelehnt. Die ähnliche, zweite Variante konnte die meisten

Teilnehmer des Pretests überzeugen, vor allem durch die schnelle Vergleichbarkeit mit

benachbarten Stimuli und der raschen Identifizierung des Standortes wichtiger

Schlüsselfaktoren.

Darüber hinaus zeigte der Testfragebogen auf, dass es wenig Sinn machen würde, wie

geplant vier Peripheriegeräte zu analysieren. Der Testfragebogen war mit einer Länge von

90 Fragen bereits ausreichend lange. Kirchhoff, Kuhnt, Lipp und Schlawin (2001) sehen in

der Länge des Fragebogens ein wesentliches Kriterium der Rücklaufquote. Ein zu langer

Fragebögen würde viele Freiwellige im Vorherein abzustoßen, beziehungsweise zu einem

Abbruch führen. Das Evaluieren einer weiteren Komponente hätte den Fragebogen um

etwa zehn schnell zu beantwortende, sowie 16 weitere Stimuli aufgebläht. Um die Geduld

der Freiwilligen nicht zu überstrapazieren beinhaltet diese Analyse nur drei wichtigsten

Komponenten: Den Monitor als primäres Ausgabegerät, sowie die zwei

Standardinputgeräte Tastatur und Computermaus. Auf die Auswertung des zweiten

Ausgabegerätes, des Druckers, wird verzichtet.

Neben dem Design des finalen Fragebogens sollte der Vor-Test auch Aufschluss über

mathematische beziehungsweise statistische Fragestellungen geben. Zwar ist das Ergebnis

des Vortests aufgrund der geringen Teilnehmerzahl sicherlich nicht aussagekräftig, aber

ausreichend um mit den gesammelten Datensätzen ein erstes, vorläufiges

mathematisches Modell zu erstellen.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 48

6.4 Der Fragebogen

Der Fragebogen beginnt mit einer Begrüßung und der Erklärung des Umfrageziels (Abb.

46). Der erwähnte zusätzliche Anreiz der Auswertung der persönlichen Daten befindet sich

ebenfalls im Eingangstext. Kirchhoff, Kuhnt, Lipp und Schlawin (2001) empfehlen zum

Aufwärmen einfache Fragestellungen, die schnell zu beantworten sind. Getreu nach dem

Leitsatz „Vom Allgemeinen zum Speziellen“ behandeln die folgenden Fragebatterien

allgemeine Fragen zum Computergebrauch. Sie sind geschlossene Fragen, bei denen die

zutreffende Antwort entweder per Drop Down-Menü ausgewählt wird oder innerhalb

eines binären „Trifft zu“ – „Trifft nicht zu“ Systems angekreuzt wird.

Abbildung 46: Ausschnitt des Fragebogenanfangs

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 49

Der Hauptteil der Analyse, die Erfassung der Ist- und Soll-Situation, ist nach den

Komponenten gegliedert. Zuerst werden Fragen zum aktuellen Zustand der

Computermaus des Anwenders gestellt. Alle Fragen dieser Fragenbatterie sind

geschlossene Fragen, die mit „Trifft zu“, „Trifft nicht zu“ und „Weiß nicht“ beantwortet

werden können. Die zur Ist-Situation gehörenden Fragen unterscheiden sich je nach

Komponente.

Anschließend folgt eine kurze Erklärung zur Conjoint Analyse sowie eine kleine

Ausfüllhilfe, da sich beim Pretest zeigte, dass vor allem die Bewertung der ersten Produkte

(Stimuli) Probleme verursachen können. Des Weiteren werden vor dem ersten Produkt

alle Levels der einzelnen Faktoren präsentiert um die Kategorisierung zu vereinfachen. Da

im Vortest die Variante, in der die Faktoren horizontal in einer Tabelle aufgelistet wurden,

am meisten Zustimmung fand, wird diese Variante in der Umfrage genutzt.

Abbildung 47: 1. Stimulus der Rubrik "Computermaus"

Für die Conjoint Analyse mit diesem Umfang an Faktoren und Levels müssen mindestens

16 Stimuli bewertet werden. Um den Fragebogen möglichst kurz zu halten, beinhaltet er

nur die Minimalanzahl an Fällen, auf die Auswertung von zusätzlichen Testfällen wird

verzichtet. Abbildung 47 zeigt den Aufbau eines Computermaus-Stimulus.

Für jedes fiktive Produkt kann der Teilnehmer auf einer gewöhnlichen Likert-Skala

zwischen einem und fünf Punkte vergeben, wobei die Kundenpräferenz für das jeweilige

Produkt mit steigender Punktezahl zunimmt. Analog zur Computermaus werden in

gleicher Weise der Sachverhalt für die anderen Komponenten, Tastaturen und Monitore,

abgefragt. Zur Veranschaulichung zeigen die Abbildungen 48 und 49 den jeweils ersten

Stimulus ihrer Kategorien.

Abbildung 48: 1. Stimulus der Rubrik "Tastatur"

Abbildung 49: 1. Stimulus der Rubrik "Monitor"

Wie es bei beinahe allen Fragebogen üblich ist, werden zusätzlich die demografischen

Daten des Ausfüllenden erfasst. Auch wenn einige der Fragen, etwa nach dem

Ausbildungsstand oder zum ausführenden Beruf, zu den eher bedrohlichen

Fragestellungen der Umfrage zählen, so sind sie meiner Meinung nach dennoch nicht

bedrohlich genug, um einen signifikanten Anteil der Freiwilligen vor der Ausfüllung des

Bogens abzuhalten. Erfasst werden die folgenden demographischen Daten:

das Alter,

das Geschlecht,

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 50

die Nationalität,

der Familienstand,

Anzahl der Kinder,

der Beruf,

und der Ausbildungsstand.

Die Frage nach der schulischen Ausbildung ist im allgemeinen Teil am Anfang des

Fragebogens untergebracht. Sie folgt der Frage nach einem vorhandenen EDV-

beziehungsweise IT Unterricht während der Ausbildung und soll durch die Verknüpfung

der beiden Fragen weniger bedrohlich wirken.

Den Schluss des Fragebogens bildet ein Textfeld für Anmerkungen und Kommentare. Eine

statistische Auswertung ist zwar nicht möglich, aber „gehört nicht zuletzt zum

freundlichen Ton, den man gegenüber den Interviewten einschlagen sollte“ (Kirchhoff,

Kuhnt, Lipp & Schlawin, 2001). Im Anschluss bedankt sich der Autor für die investierte

Zeit. Zusätzlich beinhaltet der Abschluss die Kontaktinformationen, und eine Erklärung,

wie man sich das Ergebnis der Studie und die persönlichen Analyse zuschicken lassen kann

insofern daran Interesse besteht.

Der Fragebogen besteht aus 87 Fragen, erfasst 111 Variablen und umfasst 8 Seiten. Davon

behandeln 48 Fragen die Evaluierung der Stimuli, deren Ergebnisse direkt in die Conjoint

Analyse eingehen. Für die Ermittlung des IST- Zustandes sorgen 23 Fragen. Es gibt 7

demographische und statistische Fragestellungen. Die verbleibenden 9 Fragen können der

Kategorie der allgemeinen Fragen zugeteilt werden.

6.5 Die Umfrageteilnehmer

Die Probanden stellten sich freiwillig zur Verfügung. Insgesamt haben 110 Personen an der Umfrage teilgenommen. Wie bereits erwähnt wurde erfolgte die Auswahl der Probanden durch Selbstselektion, um dennoch eine breite Masse anzusprechen wurde die Zugangsadresse zum Onlinefragebogen in Foren für unterschiedliche Zielgruppen veröffentlicht. Den folgenden Abbildungen können Sie Alter (Abb. 50), Geschlecht (Abb. 51), Nationalität (Abb. 52), Familienstand (Abb. 53) entnehmen. Der Grad der Ausbildung wird zusammen mit eventuell stattgefundenen EDV/IT Kursen während der Ausbildung auf der folgenden Seite präsentiert. Eine Sonderheit ist der geringe Anteil weiblicher Probanden. Der Geschlechteranteil der Umfrage liegt für Männer bei 87,5 %, Frauen auf nur 12,5 %.

Abbildung 51: Geschlecht Abbildung 50: Altersklassen

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 51

7. Die Analyse

Das folgende Kapitel beschäftigt sich mit dem Umfrageergebnis. Als erstes soll ein

Überblick über die allgemeinen Fragestellungen gegeben werden. Die aufwändigere

Diagnose der drei Computerinteraktionsgeräte erfolgt im jeweiligen Unterkapitel.

7.1 Auswertung der allgemeinen Fragestellungen

Dieses Unterkapitel beschäftigt sich mit den Ergebnissen der allgemeinen

Fragenstellungen. Die ersten Fragebatterien erheben die Computerkenntnisse der

Versuchspersonen. Im Detail sind dies Fragen, ob während der Ausbildung an EDV

beziehungsweise IT Kursen teilgenommen wurde, das Niveau der Ausbildung und die

Selbsteinschätzung der Computerkenntnisse. Auf 74,7 % der Umfrageteilnehmer trifft eine

derartige Ausbildung zu (Abb. 54). Der signifikanteste Prädiktor der Variable ist das Alter.

Aus der Menge der Unter-21 Jährigen nahmen 15 Personen, dies entspricht einem Anteil

von 60%, an einer EDV Ausbildung teil. Dieser Wert steigt auf 93,5% für die 21 – 25

Jährigen, und fällt anschließend kontinuierlich ab. Demensprechend besuchten 85,7% der

26 – 30 Jährigen und 55,6% der 31 – 35 Jährigen EDV Kurse. Die folgenden Altersklassen

beinhalten zu wenige Datensätze um eine sinnvolle Analyse zu ermöglichen, weisen aber

auf keinen EDV Unterricht hin. Verständlich ist die erkennbare positive Korrelation

zwischen EDV-Unterricht und der Selbsteinschätzung der Computerkenntnisse. Der Anteil

einer entsprechenden EDV Ausbildung aufgrund des Ausbildungsniveaus ist mit Ausnahme

der Hauptschule sowie der sonstigen Kategorie, welche geringere Anteile an EDV

Kursteilnehmern aufweisen, etwa gleich hoch. Die Verteilung auf die einzelnen

Lehrformen wird in der Abbildung 55 veranschaulicht.

Abbildung 52: Nationalität Abbildung 53: Familienstand

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 52

Abbildung 54: Computer- Unterricht Abbildung 55: Ausbildungsniveau der Umfrageteilnehmer

Als nächstes werden die Verwendungsdauer und der Verwendungszweck analysiert. Die

Ergebnisse des Abschnittes können Sie der Abbildung 56 entnehmen. Demnach verbringt

der Großteil der Umfrageteilnehmer täglich mehr als 6 Stunden vor dem PC. Für 25%

überschreitet der tägliche PC-Gebrauch die 8-Stunden Marke. Beim Versuch, die Art der

Benutzung mittels K-Means Algorithmus zu kategorisieren, können die drei in Abbildung

55 dargestellten Gruppen ausgemacht werden.

Abbildung 56: Verwendungsdauer und -zweck

Zur Unterscheidung der drei Gruppen sind die in Abbildung 57 zu sehenden Variablen

relevant. Ebenso sind in dieser Abbildung die Clustergröße und die zutreffenden

Verwendungszwecke ersichtlich, wobei der linke Balken eine Zustimmung und der rechte

Balken nicht zutreffende Sachverhalte repräsentiert. Die zwei Punkte Suche und Recherche

und Kommunikation sind in allen Gruppen gleichermaßen stark ausgeprägt und werden

daher nicht aufgeführt. Die erste, und mit 73 Personen größte Gruppe, nutzt den PC für

alle in Abbildung 57 aufgeführten Zwecke. Die Mitglieder dieser Gruppe tendieren den PC

auch für eher selten verbreitete Anwendungen, etwa dem Online Shopping, zu nutzen. Ein

Vergleich der Cluster mit der täglichen Verwendungsdauer zeigt, dass sich die Mitglieder

der ersten Gruppe überdurchschnittlich lange mit dem PC beschäftigen. 14 Personen

formen die zweite Gruppe. Deren Merkmal ist die Verwendung des PCs als Freizeitgerät,

mit dem kaum gearbeitet wird, aber der gerne für Spiele und zur Unterhaltung eingesetzt

wird. Für die zweite Gruppe verteilt sich die Dauer zwischen 2 bis 8 Stunden und die

74,7

25,3

8,7

0,010,020,030,040,050,060,070,080,0

ja nein keine Angabe

5,210,4

41,7

11,5

22,9

8,3 7,7

0,0

10,0

20,0

30,0

40,0

50,0

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 53

durchschnittliche Nutzungsdauer ist

die geringste aller Gruppen. Schüler

neigen zu einer Aufnahme in diesem

Cluster. Von den zu erwartenden

zwei Schülern sind real 5 Schüler

vertreten. Der dritte Cluster mit 17

Personen nutzt den PC vorwiegend

für berufliche Tätigkeiten, jedoch

kaum für Sonstiges. Mit einem Anteil

von 29,4% nutzt der Großteil der

dritten homogenen Gruppe den PC

zwischen 2 und 4 Stunden, die

verbleibenden Prozent verteilen sich

sehr ähnlich auf die restlichen

Nutzungsdauern. Überraschend war

der signifikant hohe Anteil der

Frauen in diesem Cluster. Etwa 54%

der weiblichen Umfrageteilnehmer

wurden dem reinen Arbeitscluster

zugeteilt.

Die Auswertung zur ergonomischen Gestaltung des Computerplatzes ergibt, dass

grundlegende ergonomische Aspekte meist beachtet werden (Abb. 58). Allerdings gibt es

auch ausreichend Platz für Verbesserungsmöglichkeiten. Probleme scheint es vor allem

bei der Unterstützung der optimalen Sitzposition zu geben. So gaben 58% der Teilnehmer

an, dass sich die Monitorhöhe nicht flexibel ändern lässt, und etwa 32% nutzen einen

ungeeigneten Stuhl. Durch eine höhere Sitzgelegenheit könnte zum Beispiel das Drücken

der Tischkante gegen den Unterarm verhindert oder gemindert werden, unter dem 52,4%

leiden. Um nicht die Geduld der Teilnehmer zu überstrapazieren wurde nur ein Teilgebiet

wesentlicher Faktoren evaluiert. Zur Untersuchung der Beziehung ergonomischer Aspekte

und dem Auftreten von computerbedingten Schmerzen wurden die Teilnehmer in eine

ergonomisch angepasste Gruppe und eine kontrahierende Gruppe mit geringerer

Anpassung an die Mensch-Computer Interaktion eingeteilt. Beim Vergleich der

Häufigkeiten gesundheitlicher Beschwerden weist die erste, ergonomiebewusste Gruppe

einen niedrigeren Mittelwert auf. Betrachtet man nur die einzelnen

Gesundheitsbeschwerden, so fällt auf, dass der ergonomisch angepasste Sektor zwar

häufiger unter Schulterschmerzen zu leiden hat, aber auch zu einem geringfügigeren

Prozentsatz an Handgelenksschmerzen leidet. Weitere bedeutende Unterschiede

zwischen den zwei Clustergruppen konnten nicht identifiziert werden. Dass es kaum

gesundheitliche Unterschiede zwischen diesen Gruppen gibt kann unter Umständen damit

begründet werden, dass viele Personen erst auf eine ergonomische und

gesundheitsschonende Nutzung des PCs achten, nachdem die ersten Beschwerden

aufgetreten sind.

Abbildung 57: Einteilung nach PC-Gebrauchszweck

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 54

Abbildung 58: Ergonomische Faktoren der Computerplätze

Der folgende Abschnitt des Fragebogens erhebt gesundheitliche Aspekte der HCI. Die

erste Frage klärt, wie häufig Schmerzen beim Computergebrauch auftreten. 30,1%

antworteten mit nie, 35,9% mit sehr selten, 27,2% selten und 6,8% mit oft. Die Option sehr

oft wurde nie ausgewählt. Die Vermutung des Autors, dass mit zunehmendem Alter

vermehrt mit gesundheitlichen Komplikationen zu rechnen wäre, konnte nicht bestätigt

werden. Ebenso scheint die Verweildauer vor dem PC keinen Einfluss auf die Häufigkeit zu

nehmen. Im Detail bestimmen sieben Unterpunkte typische computerbedingte

Schmerzerscheinungen. Die häufigsten Beschwerden betreffen Hals und Rücken, gefolgt

von Handgelenksschmerzen. Immerhin noch bei je 22,1% der Teilnehmer können bei einer

längeren PC Nutzung Schultern- oder Kopfschmerzen auftreten.

Abbildung 59: Auftretende Schmerzen im Detail

Das Auftreten von Handgelenksschmerzen korreliert stark mit dem Alter. Sie treten

vergleichsweise selten bei Personen unter 26 Jahren auf. In dieser Gruppe sind etwa 23%

der 61 Personen betroffen. Dieser Prozentsatz steigt auf 45% für Personen über dieser

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 55

Altersgrenze an. Von den drei an dieser Studie teilgenommenen Computernutzern über 50

Jahren gaben alle an, dass Probleme im Handgelenksbereich auftreten können. Eine

wesentliche Beeinflussung für Hals- und Rückenschmerzen stellen die Höhe der

Arbeitsfläche, beziehungsweise der Abstand zur Stuhlhöhe und die Form der Tischkante

dar. So geben 59% der Teilnehmer mit diesen Beschwerden an, dass die Tischkante

störend gegen den Unterarm drückt. In dem Fall, dass die Tischkante keine negativen

Auswirkungen auf den Benutzer hat, tritt dieses Symptom nur mit einer

Wahrscheinlichkeit von etwa 29% auf. Die Auswertung der Beschwerden im

Schulterbereich ergibt, dass diese meist zusammen mit Hals- oder Rückenschmerzen

entstehen. Ausreichend freier Raum unter dem Arbeitstisch vermindert das Risiko von

Beinschmerzen. Bei nur 7,1% der Teilnehmer treten diese trotz genügend Platzangebot

auf. In der Referenzgruppe ohne Beinfreiheit ist das Auftreten von Schmerzen mit 21,1%

um ein Vielfaches wahrscheinlicher. Weitere Ergebnisse sind, dass ein lautes Umfeld

Kopfschmerzen begünstigt.

Weitere signifikante Vorteile konnten nicht bestätigt werden. Ebenso scheiterte der

Versuch, die Häufigkeit auftretender Schmerzen mit Hilfe der Regression zu bestimmen,

an einer zu geringen Vorhersagekraft. Diesen Umstand führt der Autor auf die mit 104

Teilnehmern zu kleine Gesamtmenge zurück.

Überraschend hoch war die Anzahl der PCs pro Haushalt. In jedem Haushalt der 104

Teilnehmer befindet sich zumindest 1 PC, dies war zu erwarten. Allerdings ist die Anzahl

der Haushalte mit nur 1 PC mit einem Anteil von nur 10,6% verhältnismäßig gering. 2 PCs

sind in 36,5% der Haushalte zu finden und 52,9% der Haushalte verfügen über 3 oder

mehr PCs. Der Großteil der Teilnehmer, 94,2%, zeigt Interesse an moderner Technik.

Etwas spezifischer war die folgende Frage, die das Interesse an Computerkomponenten

evaluierte. Die Zustimmung zu dieser Frage fiel um 6,8 Prozentpunkte geringer aus und

trifft nur noch auf 87,4% zu.

7.2 Auswertung der Monitore

7.2.1 Betrachtung der Ist–Situation

Für die Erhebung des aktuellen Ist-Zustandes dienen sieben Fragen, die von den

Teilnehmern mit den Antwortmöglichkeiten „Trifft zu“, „Trifft nicht zu“ und „Weiß nicht“

beantwortet wurden. Die Abbildung 60 stellt die Ergebnisse grafisch dar. Sechs der Fragen

erheben technische Daten, die letzte eruiert die Einsatzhäufigkeit der zwei Zusatzfeatures

Hochformat und Lautsprecher.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 56

Abbildung 60: Ist-Zustand der PC-Monitore

Die Umfrage ergibt, dass mit 88,3% beinahe ausschließlich LCD Bildschirme zum Einsatz

kommen. Die Nutzungsdauer hat den größten Einfluss auf die verwendete

Bildschirmtechnologie. Je länger vor dem PC verweilt wird, umso höher ist die Tendenz

zum LCD Bildschirm ausgeprägt. Dies trifft insbesondere auf Personen zu, die den PC

länger als sechs Stunden täglich nutzen. Unter diesen 57 Personen verwenden nur zwei

Befragte keinen LCD Monitor. Neben diesen statistischen Korrelationen seien noch zwei

wesentliche technische Abhängigkeiten, das 16:10-Breitbildformat und die integrierten

Lautsprecher, erwähnt. Diese Eigenschaften treten ausschließlich bei LCD Monitoren auf.

In der Regel gelten LCD Bildschirme als gesundheitsschonend. In der Umfrage konnte

allerdings kein eindeutiger Zusammenhang zwischen der Technologie und

gesundheitlichen Aspekten, etwa dem Auftreten von Kopfschmerzen, nachgewiesen

werden.

Aus ergonomischer Sicht ist auch die aktuelle Situation der Größe der Anzeigeflächen

erfreulich. 83,5% der Befragten geben an, einen Monitor mit großer Fläche zu benutzen,

wobei in der Umfrage 18,5 Zoll als Grenzwert definiert wurde. Werden die PCs zum

Arbeiten genutzt, so sind sie mit einer Wahrscheinlichkeit von 88,5% großflächig. Bei

Freizeit-PCs sind mit etwa 50% beide Kategorien ausgeglichen.

Das Aufkommen der Breitbildschirme macht sich nicht nur bei Fernsehern, sondern auch

bei den PC Monitoren bemerkbar. Allerdings verwenden derzeit mehr befragte Personen

einen Bildschirm in Standardgröße, sprich in 4:3 oder 5:4 Format. Zusätzliche Features,

wie das Drehen der Anzeigefläche um 90 Grad zum Darstellen von Hochformat oder

eingebaute Lautsprecher sind selten anzutreffen, und werden noch seltener tatsächlich

genutzt.

7.2.2 Betrachtung der Soll–Situation

Die Durchführung der Conjoint Analyse basiert auf 96 Datensätzen. Da die Conjoint

Analyse keine fehlenden Werte erlaubt mussten die restlichen 8 Personen für die

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 57

Bewertung des Monitors ausgeschlossen werden. Bereits erwähnt wurde, dass als

Qualitätsmesser des Modells die zwei Kriterien Pearson r und Kendall tau eingesetzt

werden. Für das aggregierte Modell betragen diese Werte 0,977 und 0,917.

Für alle Umfrageteilnehmer

ergeben sich die folgenden

Wichtigkeiten: Mit 20,5% Anteil am

Gesamtnutzen ist die Reaktionszeit

die einflussreichste Eigenschaft des

Monitors. Als das mit einem 18,4

prozentigem Einfluss

zweitwichtigste Feature konnte die

Größe der Bildschirmdiagonale

identifiziert werden. Ihnen folgen

der Kontrast und die

Anpassungsfähigkeit. Die Kosten

stehen für die gesamte Gruppe nur

an fünfter Stelle. Weniger als je 10%

entfallen auf das Bildschirmformat,

den integrierten Lautsprechern sowie

der Nutzung als Hochformat. Betrachtet man die Resultate jeder Person gesondert, so

ergibt sich die in Abbildung 61 ersichtliche Nutzenverteilung.

Interessanter, vor allem aus wirtschaftlicher Sicht, ist das Auffinden von homogenen

Gruppen und deren produktspezifischen Präferenzen. Daher erfolgt die Einteilung der

Gesamtmenge in 4 Gruppen mit Hilfe der hierarchischen Clusteranalyse. Nach der

Elimination der extremen Ausreißer erfolgt die eigentliche Fusionierung mittels Ward-

Methode. Das entsprechende Dendrogramm im Kapitel Dendrogramme der

Clusteranalysen des Anhangs stellt den Fusionierungsprozess grafisch dar. Die

Eigenschaften der resultierenden Gruppen werden folgend präsentiert. Abbildung 62 fasst

die prozentuelle Wichtigkeit der erhobenen Eigenschaften für alle Gruppen zusammen.

Ebenso aufschlussreich ist die Betrachtung der Teilnutzenwerte. Sie geben die

Auswirkungen der einzelnen Attributausprägungen auf den Gesamtnutzen an. Hierbei ist

allerdings zu beachten, dass sich die Werte, etwa aufgrund unterliegender Subcluster,

gegenseitig aufheben können. Im Anhang sind die Teilnutzen aller drei Komponenten zu

finden. Die Teilnutzen für den Bildschirm sind auf der Seite 88 abgebildet.

Abbildung 61: Individuelle Faktorenwichtigkeit in %

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 58

Abbildung 62: Clustergrößen & prozentuelle Faktorenwichtigkeiten der Monitorgruppen

Die Mitglieder der 1. Gruppe legen hohen Wert auf eine große Bilddiagonale. Mit einem

Anteil von beinahe 36% dominiert dieser Faktor deutlich innerhalb dieser homogenen

Gruppe. Die Qualität der Reaktionsgeschwindigkeit liegt an der zweiten Stelle, sinngemäß

werden rasche Reaktionszeiten bevorzugt. Diese zwei Attribute sind mit einer kumulierten

Wichtigkeit von 58% entscheidend für diese Käufergruppe. Mit einem großen Abstand zu

diesen zwei Faktoren stellen die Produktkosten die drittwichtigste Einflussgröße dar. Ob

sich das Ausgabegerät auch horizontal nutzen lässt oder nicht, etwa für Office

Anwendungen, ist für diese Gruppe unerheblich. Ebenso macht die erste Gruppe kaum

Unterscheidungen zwischen den verfügbaren Bildschirmformaten. Diese Features sollten

daher zu Gunsten der Kosten nicht oder nur die günstigere Variante implementiert

werden. Das beste Produkt für diese Gruppe wäre ein günstiger Bildschirm, der eine große

Darstellungsfläche im 16:10 Format aufweist, Lautsprecher und ein hohes

Kontrastverhältnis besitzt, sowie eine gute Reaktionszeit aufweisen kann. Ein Produkt mit

schlechter Reaktionszeit und kleiner Bilddiagonale würde bei dieser Zielgruppe keine

Kaufbereitschaft wecken. Auffällig ist, dass diese Gruppe am zahlreichsten im zweiten

Ergonomie-Cluster auftritt, und aus diesem Grunde am ehesten dazu neigt, keinen an

ergonomische Richtlinien angepassten Computerplatz zu nutzen. Daher ist es nicht

verwunderlich, dass kaum ergonomische Bedingungen an den Bildschirm gestellt werden.

Ob sich der Bildschirm nicht, nur im Neigungswinkel oder auch höhenmäßig verstellen

lässt, ist kaum von Bedeutung. Die Mitglieder der Gruppe nutzen verhältnismäßig selten

ihren PC für alle abgefragten Verwendungszwecke, sondern neigen dazu, den PC als reines

Arbeitsgerät zu verwenden.

Die zweite identifizierte Gruppe zeigt ein großes Interesse an der Reaktionszeit. Zugleich

ist der Unterschied, ob ein Standardformat oder ein Breitbildformat genutzt wird, von

primärer Beachtung, wobei das 16:10 Format einen klaren Gesamtnutzengewinn bewirkt.

Die deutliche Präferenz des Breitbildformats ist die Besonderheit der 2. Gruppe. Den

restlichen drei Gruppen ist das Bildformat nicht nur unwichtig, sondern sie neigen darüber

hinaus eher zum 4:3 oder zu ähnlichen Formaten. Den dritten und vierten Platz belegen

mit 14% respektive 13% die Anpassungsmöglichkeiten und die Größe der Bilddiagonale.

Von allen Gruppen hat diese angegeben, den ergonomisch am ehesten dem Ideal

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 59

entsprechenden Computerplatz zu nutzen. Dies sei erwähnt, da die Betrachtung der

Anpassungsausprägungen ergibt, dass anscheinend kein großer Wert auf einen Monitor

gelegt wird, dessen Neigungswinkel und Höhe verstellbar ist. Erklären lässt sich dies

aufgrund der Subcluster, die zum Teil eine Anpassung bevorzugen, zum Teil aber auch

ablehnen. Dies könnte unter Umständen auf höhenverstellbare Tische, Monitorsockel

oder Bildschirmhalter zurückzuführen sein, die die Anpassungsoptionen des Bildschirms

überflüssig machen. Mit dem Wegfall der Nutzeranpassung verbleibt daher eine große,

breite Darstellungsfläche mit schneller Reaktionszeit als die bedeutsamsten

Anforderungen. Die Auswertung des Alters ergibt, dass dieser Cluster den jüngsten

Altersschnitt aufweist. Produkte dieser Kategorie sprechen verhältnismäßig viele Schüler

an, werden von Studenten aber deutlich seltener als zu erwarten ist, nachgefragt.

Die nächste Gruppe ist mit einem Anteil von 51% der größte der berechneten Cluster. Die

Zielgruppe bevorzugt hohe technische Qualität und ergonomische Mindestanforderungen.

Mit einem Anteil von 21% beziehungsweise 20% stellen die Kontrastrate und die

Reaktionszeit die zwei wichtigsten Parameter auf den Gesamtnutzen dar. Mit einer

Wichtigkeit von beinahe 15% folgen ihnen die Anpassungsmöglichkeiten des Bildschirms.

Ist keine Anpassung möglich oder kann nur der Neigungswinkel verstellt werden, so würde

diese Gruppe einen deutlich niedrigeren Gesamtnutzen erzielen. Beinahe gleich stark ist

der Wunsch nach einer großen Bildfläche. Die verbleibenden Faktoren, Bildschirmformat,

Hochformat und Lautsprecher, zählen zu den vernachlässigbaren Eigenschaften. Auch

diese Gruppe nutzt ihren PC in einer überdurchschnittlich angepassten ergonomischen

Umgebung.

Die 4. Gruppe mit 12 Personen kann dank ihrer Preissensibilität eindeutig von den

anderen Gruppen unterschieden werden. Bildschirme sind für diese Gruppe erst

interessant, wenn diese kostengünstig zu erwerben sind. Der zweitwichtigste Faktor nach

den Kosten stellt die Größe des Bildschirms dar, bevorzugt werden hierbei große

Bildschirme gegenüber kleineren Modellen. Die Reaktionszeit nimmt den dritten Rang ein.

Daher empfiehlt es sich, unwichtigere Eigenschaften wie etwa alle Zusatzfeatures, aber

auch technische Qualitätsmerkmale wie etwa ein hohes Kontrastverhältnis, zu Gunsten

des Preises einzuschränken. Das gilt auch für die Anpassungsoptionen, vor allem da eine

Anpassung der Höhe von der Zielgruppe nicht gefordert wird, sondern eine Abstimmung

des Neigungswinkels ausreicht.

Jeder Cluster bevorzugt große Bildschirme. Betrachtet man alle Faktoren mit Ausnahme

des Preises, so verursachen große Anzeigeflächen innerhalb zweier Cluster den größten

Nutzengewinn. Auch für die restlichen zwei Cluster ist die Bildschirmgröße ein wichtiger

Faktor. Von allen Teilnehmern bevorzugten nur zwei Personen kleine Bildschirme

gegenüber den größeren Modellen. Einzig die zweite Gruppe legt Wert auf einen breiten

Bildschirm im 16:10 Format. Die starke Präferenz der Breitbildschirme ist das eindeutigste

Merkmal dieser Gruppe. Die restlichen Gruppen zeigen leichte Tendenzen zum 4:3

Standardformat. Für diese Umfrageteilnehmer ist das Bildformat allerdings ein

unwichtiges Merkmal, das kaum Auswirkung auf den Gesamtnutzen hat. Als ein eher

vernachlässigbares Feature kann die Möglichkeit, den Bildschirm um 90 Grad zu drehen

und als Hochformat zu nutzen, bezeichnet werden. Als Hochformat nutzbare Bildschirme

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 60

werden zwar generell bevorzugt, aber auch hier gilt, dass sie nur einen geringen Einfluss

auf den Gesamtnutzen haben. Die Wichtigkeit der Anpassungsmöglichkeiten des

Bildschirms an den Benutzer hätte der Autor vor der Studie als einen wesentlichen Faktor

eingeschätzt. Allerdings zeigt sich, dass nur der dritte Monitorcluster großen Wert auf

Bildschirme legt, die in Neigungswinkel und Höhe verstellt werden können. Dennoch

sollten dieser Aspekt auf keinen Fall vernachlässigt werden, da alleine diesem Cluster 51%

der Teilnehmer zugeteilt wurden. Im ersten und vierten Cluster sind die Meinungen zu

diesem Thema geteilt: Hier heben sich die Personen, die sich anpassbare Monitore

wünschen, mit denen, die keinen Wert auf diese Features legen, in etwa auf. Einzig die

zweite Gruppe benötigt explizit keine Ausrichtungsoptionen. Im Zweifelsfalle sollten die

Anzeigeflächen dennoch zumindest kippbar sein, da dies nur einen geringen Aufwand in

der Herstellung bedeutet. In den Bildschirm integrierte Lautsprecher werden von den

meisten Personen abgelehnt. Als mögliche Ursachen können zum Beispiel die bessere

Qualität der externen Lautsprecher oder der zusätzliche Platzverbrauch genannt werden.

Die Kontrastrate, welche das Verhältnis zwischen hellen und dunklen Bildpunkten misst,

stellt für den dritten Cluster das wichtigste Entscheidungskriterium dar. Diese qualitäts-

und ergonomiebewusste Gruppe verdient insbesondere aufgrund seines 51 prozentigen

Anteils vermehrte Aufmerksamkeit. Aber auch für zwei weitere Gruppen ist die

Kontrastrate von Interesse, ausschließlich für den zweiten Cluster ist sie unwichtig. Wie zu

erwarten war bevorzugen alle Personen den besseren Kontrast. Die Reaktionszeit wird als

eine der wichtigsten Eigenschaften wahrgenommen. Für alle Gruppen bedeutet ein

rascher Bildaufbau den größten oder zweitgrößten Nutzengewinn. Es empfiehlt sich

daher, den Interessenten Monitore mit hochwertiger Technik entsprechend zu

kommunizieren.

7.3 Auswertung der Tastaturen

7.3.1 Betrachtung der Ist–Situation

Abbildung 63: Ist-Zustand der PC-Tastaturen

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 61

Der Tastatursektor wird mit einer Verbreitung von 96,2%, eher mit 99% wenn auch die

Tastaturen mitgerechnet werden deren Layout ungewiss ist, eindeutig von lokalen Layouts

dominiert. Ebenso haben sich die von Microsoft eingeführten Windows Tasten

durchgesetzt. Sie sind auf 9 von 10 Keyboards zu finden. Allerdings gaben 45% der

Personen mit einer Windows Tastatur an, diese Zusatztasten nicht regelmäßig zu nutzen.

Tendenziell greifen eher Personen mit hohen Computerkenntnissen und alle

Personengruppen ab 21 Jahren auf die Funktionen der Windowstasten zurück. Insgesamt

gaben 78,2% an eine Tastatur mit Zusatztasten zu verwenden. Multimedia Tastaturen

oder sonstige Keyboards mit einer erweiterten Tastenanzahl sind in allen PC-

Gebrauchssparten vertreten. Die größte Differenz ist zwischen Spielern und Nicht-Spielern

auszumachen. Ein wesentliches Merkmal benutzerfreundlicher Tastaturen sind

ergonomische Bauweisen. Im Moment werden herkömmliche Bretttastaturen deutlich

häufiger zur Interaktion genutzt. Eine genauere Betrachtung ergibt, dass eher Personen,

die potentiell an Halsschmerzen, Rückenschmerzen oder Schmerzen in den Schultern

leiden, ergonomische Tastaturen benutzen. Einen starken Einfluss auf das Auftreten von

Handgelenksschmerzen konnte nicht nachgewiesen werden, etwa ein Drittel beider

Kategorien sind hiervon betroffen. Des Weiteren ergibt die Analyse des Ist-Zustandes,

dass sich der Neigungswinkel bei 74% der Tastaturen verstellen lässt, dass mit 88,3% die

meisten Tastaturen kabelgebunden sind und dass eine deutliche Mehrheit den

Ziffernblock der Tastatur benötigt. Die letzte Frage evaluierte die Bereitschaft zum

Erlernen und dem Umstieg zu einer effizienteren Tastenanordnung, wenn diese weit

verbreitet wäre. Als Beispiel kann etwa das Dvorak Layout angeführt werden,

beziehungsweise jede andere Anordnung mit nachgewiesenen Vorteilen gegenüber dem

monopolartig verbreiteten QWERTY Standarddesign. Von etwa 42% wurde diese Frage

bejaht, 29% wären dazu nicht bereit, und etwa 29% sind unschlüssig. Der Wille, QWERTY

zu ersetzen, ist durchaus vorhanden. Allerdings gilt zu bedenken, dass momentan für

öffentlich zugängliche Computer und (insbesondere Laptop-) Neuanschaffungen in der

Regel ausschließlich das Standardlayout zur Eingabe zur Verfügung stehen und somit von

keiner „weiten Verbreitung“ gesprochen werden kann. Die zwei wesentlichsten

Prädiktoren, ob eine Bereitschaft zum Erlernen vorliegt, sind das Interesse für

Computerkomponenten und die Selbsteinschätzung der Computerkenntnisse. Personen

mit hohem Interesse und hoher Kenntnis tendieren eher dazu, diese Frage mit „Ja“ zu

beantworten.

7.3.2 Betrachtung der Soll–Situation

Wie bereits bei der Vorgehensweise näher beschrieben wurde werden für die Analyse der

Soll Situation 93 Datensätze verwendet. Die Vorhersagequalität des Modells ist mit 0,986

beziehungsweise 0,929 für das Pearsons r und Kendalls Tau zufriedenstellend. Zuerst

werden erneut die Ergebnisse für alle Untersuchungsteilnehmer vorgestellt. Zu sehen ist,

dass alle ausgewählten Faktoren ähnlich wichtig zu sein scheinen, keine Eigenschaft

dominiert oder nimmt eine untergeordnete Rolle ein. Umso mehr wird daher auf einen

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 62

angemessenen Preis geachtet, der knapp hinter den Windows-Tasten und der

ergonomischen Gestaltung der Tastatur den dritten Rang belegt.

14,7%: Windows Tasten

14,4%: Ergonomisches Designs

13,5%: Kosten

10,9%: Feedback- Qualität

10,7%: Neigungswinkel

10,5%: Zusätzliche Tasten

9%: Anschluss

8,1% Spritzwasserfestigkeit

8%: Tastendrucktiefe

Auf welche Eigenschaften sich die

Teilnehmer bei der Tastaturauswahl

konzentrieren kann aus der 64.

Abbildung abgelesen werden. Bei der

Betrachtung dieser Grafik ist

erkennbar, dass der Gesamtnutzen des 28. Datensatzes vollständig durch die Kosten

bestimmt wird. Dies ist auch der Grund, weshalb er bei der Durchführung des Nearest

Neighbour Clusterverfahrens als Ausreißer identifiziert wurde und für die weitere Analyse

nicht verwendet wird. Bei der Aggregation zu vier Clustern entstanden drei größere

Sektoren, sowie die kleine 4. Gruppe, bestehend aus 5 Personen, die gesteigerten Wert

auf eine USB Anbindung ihrer Tastatur legen und kabellose Verbindungsarten ablehnen.

Die Graphen zu den Teilnutzen jedes Clusters finden Sie im Anhang auf der Seite 89.

Abbildung 65: Clustergrößen & prozentuelle Faktorenwichtigkeiten der Tastaturgruppen

Die erste identifizierte Gruppe legt großen Wert auf ergonomische Tastaturmodelle. Mit

dieser Eigenschaft hebt sie sich stark von der 3. und 4. Gruppe ab. Nicht nur bei der

Tastatur, sondern auch bei den erhobenen ergonomischen Faktoren des Computerplatzes

schneidet diese Gruppe aus ergonomischer Sicht sehr gut ab. Mit einer prozentuellen

Wichtigkeit von 14,5 steht die Möglichkeit, den Neigungswinkel anzupassen, an der

Abbildung 64: Individuelle Faktorenwichtigkeit

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 63

zweiten Stelle. Die Auswertung der Zusatztasten als auch dem Windows Tasten Feature

ergibt eine Wichtigkeit von etwa 12,5%. Die Ausprägungen der Drucktiefe, der

Spritzwasserfestigkeit sowie des Anschlusses haben kaum Einfluss auf die Modellauswahl.

Dass die Zielgruppe funkbasierende Interfaces bevorzugt stellt eine Ausnahme dar.

Tastaturen dieses Clusters müssen nicht unbedingt kostengünstig sein. Zwar werden

billigere Modelle bevorzugt, allerdings ist bei steigenden Kosten beinahe kein

Nutzenverlust sichtbar. Ihre Mitglieder und die der 2. Gruppe sind eher den etwas älteren

Teilnehmern zuzurechnen. Dies würde zum Teil die Kostenunempfindlichkeit erklären.

Ihre tägliche Nutzung ist die geringste aller Gruppen.

Die zweite Gruppe scheint die Gruppe der "Vielschreiber“ zu sein. Mit einem Anteil von

20% steht die Qualität des Tastenanschlags und des Feedbacks im Mittelpunkt des

Interesses. Damit hebt sich diese Gruppe klar von den anderen ab. Als zweites Kriterium

konnten die ergonomischen Aspekte ausgemacht werden. 16% des Gesamtnutzens wird

durch diesen Faktor bestimmt, allerdings gibt es starke Differenzen innerhalb der Gruppe.

So ist zu beachten, dass eine leichte Tendenz zu einer ergonomischen Bauweise

vorhanden ist, aber der Gesamtnutzen kaum ansteigen würde. Erklären lässt sich dieser

Umstand durch die Subcluster dieser Gruppe. Diese bevorzugen teilweise ergonomische,

als auch herkömmliche Bretttastaturen. Es erscheint daher sinnvoll, diesen Sektor zu

unterteilen und sowohl ergonomisch angepasste, als auch typisch standardförmige Arten

anzubieten. Beim Vergleich der Berufsgruppen zeigt sich, dass der Cluster, nach der

Streichung fehlender Wertepaare, zu 50% aus Studenten besteht, in dieser Gruppe

wiederfinden und somit von einer klaren Tendenz gesprochen werden kann.

Auch bei den Tastaturen gibt es einen Cluster, in dem die preisliche Komponente eine

entscheidende Rolle einnimmt. Aus technischer Sicht wünscht sich diese Gruppe vor allem

eine erweiterte Tastenanzahl. Diese Personengruppe erhofft sich Multimedia- oder

sonstige Zusatztasten, sowie die obligatorischen Windows Tasten. Die Qualität und

ergonomische Aspekte sind eher von sekundärem Interesse. Als unwesentliche Details

werden die Art der Anbindung an den PC und eine Spritzwassergewährleistung

angesehen. Diese Zielgruppe wünscht sich eine traditionelle, kostengünstige Tastatur.

Sonstige Zusatzfeatures, mit Ausnahme der Multimediatasten, sind nicht unbedingt

erforderlich. Interessant, insbesondere aus wirtschaftlicher Sicht, ist diese Gruppe dank

ihrer Größe. Mit einem Anteil von 39% ist sie der stärkste Tastaturcluster.

Eine Sonderstelle nimmt der folgende 4. Cluster ein. Dieser kleine, 5 Personen

umfassende Spezialfall wurde aufgrund seiner Vorlieben für den USB Anschluss,

beziehungsweise der Ablehnung einer kabellosen Verbindung fusioniert. Denn mit einem

43% Anteil ist dieser Faktor das Hauptkriterium. Die Gründe für eine Ablehnung einer

kabellosen Schnittstelle können vielfältig ausfallen. Der Autor vermutet, dass

insbesondere das Wechseln und Aufladen der Stromversorgung als unangenehm

betrachtet wird oder jederzeit eine unterbrechungsfreie Tastatureingabe gewährleistet

sein muss. Weit abgeschlagen folgt an zweiter Stelle die Ausprägung der Windowstasten,

die für eine Werterhöhung vorhanden sein sollten. In der Reihenfolge der

Nutzenmaximierung folgen ihnen eine gute Feedbackqualität sowie das Vorhandensein

weiterer Zusatz- und Multimediatasten. Mitglieder dieser Gruppe sind zu 60% im 2.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 64

Ergonomiecluster zu finden, die PC Nutzung geschieht daher in einer aus ergonomischer

Sicht schlechten Umgebung. Des Weiteren sollte bei der Art der Nutzung erwähnt werden,

dass die angeschlossenen PCs nie als ausschließliche Arbeitsgeräte, sondern entweder zur

reinen Freizeitgestaltung oder als Misch-PCs verwendet werden.

Alle Cluster bevorzugen Tastaturen mit ergonomischen Richtlinien. Die Frage, ob daher

ausschließlich ergonomisch geformte Tastaturen am Markt angeboten werden sollen

muss allerdings verneint werden. Viele Personen wünschen sich weiterhin traditionell

geformte Bretttastaturen und verweigern ergonomische Ansätze. Betrachtet man die

Teilnutzen, so ist nur beim 1. Cluster eine eindeutige Präferenz für Ergonomie-Tastaturen

erkennbar. Die Auswertung der Faktorenwichtigkeit ergibt, dass dieser Faktor auch in der

zweiten Gruppe von großer Bedeutung ist. Im Gegensatz zum 1. Cluster befinden sich in

diesem aber aufgrund der Subcluster auch Personen, die ergonomische Formen ablehnen.

Der 2. Cluster könnte daher je nach Präferenz in zwei Subcluster einteilt werden. Als

verpflichtend kann man die Windowstasten der Tastaturen ansehen. Sie sorgen bei so gut

wie allen Umfrageteilnehmern für einen hohen Zusatznutzen. Ebenso werden die

Zusatztasten beziehungsweise Multimediafunktionen von allen Clustern als angenehm

empfunden. Verglichen mit den Windowstasten werden sie jedoch geringfügiger

nachgefragt und bedeuten einen kleineren Nutzengewinn. Die ideale Ausprägung der

Drucktiefe ist für jedes Individuum unterschiedlich und kann nicht generell beantwortet

werden. Allerdings sind leichte Tendenzen zugunsten einer kurzen Wegstrecke

bemerkbar. Als einen unterdurchschnittlich wichtigen Faktor kann man auch die

Anschlussart bezeichnen. Insofern erstaunt es, dass es eine kleine Gruppe gibt, für die die

Art des Anschlusses eine Sonderstellung einnimmt und sich ausschließlich für

kabelgebundene Tastaturen entscheidet. Eine Verbindung über den USB wird auch im 2.

und 3. Cluster bevorzugt, nur in der ersten Gruppe gibt man einer Funkverbindung den

Vorzug. Alle Cluster bevorzugen es, wenn sich der Neigungswinkel der Tastatur verstellen

lässt. Dies trifft vor allem auf die ergonomiebewussten Personen zu. Zu den

wesentlicheren Eigenschaften zählt die Feedbackqualität. Sie ist für den 2. Cluster ein

Hauptkriterium.

7.4 Auswertung der Computermäuse

7.4.1 Betrachtung der Ist–Situation

Ebenfalls sieben Fragen werden zur verwendeten Computermaus gestellt. Die erste

Fragestellung erhebt, ob neben der Maus auch andere Zeigegeräte zum Einsatz kommen.

Die restlichen sechs Fragen sind technisch orientiert und betreffen die Bauweise.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 65

Abbildung 66: Ist-Zustand der PC-Mäuse

Die Auswertung der ersten Frage ergibt, dass immerhin 24,5% der beteiligten Personen

neben der Maus ein weiteres Zeigegerät als Inputdevice verwenden. Für viele Berufe sind

Trackballs, Grafiktablets und Ähnliche sinnvolle Erweiterungen zur Maus. Wie bereits im

Kapitel „Computermäuse im Kontext der HCI“ erwähnt wurde, kann für schmerzgeplagten

Personen der Umstieg auf alternative Eingabegeräte zur Schmerzlinderung besteuern.

Eventuell wurde dieser Prozentsatz von Personen beeinflusst, die ihren Laptop als

primäres Arbeitsgerät nutzen und diesen in der Umfrage bewerteten. Denn sie stellen

serienmäßig neben einem Trackpoint auch ein Touchpad zur Verfügung.

Die Umfrage zeigt, dass mechanische Mäuse beinahe vollständig von optischen Modellen

ersetzt wurden. Von der 104 Personen umfassenden Gesamtmenge nutzen nur 3

Personen keine optische Mausvariante.

76,9% der verwendeten Mäuse haben die Standardgröße. Als Referenz gilt der

Durchschnitt der marktüblichen Größen für PC- Mäuse. Laptopmäuse weichen

offensichtlich von der Standardgröße ab. Aber auch sehr sperrige Gehäuse können in die

Kategorie der untypischen Größen fallen. Bei der Größe der Maus konnte ein signifikanter

Zusammenhang mit der Variable Schmerzen in den Handgelenken festgestellt werden. Aus

der 80 Personen umfassenden Gruppe mit Standardgröße gaben nur 21 Personen (26%)

an, unter Schmerzen in den Handgelenken zu leiden. Werden alternative Mausgrößen

genutzt, steigt der Prozentsatz auf 57,9% an, dies entspricht 11 von 19 Personen. Folgend

soll die Anzahl der Maustasten näher beleuchtet werden. Die Auswertung der

Kreuztabelle zeigt, dass die Varianten mit zwei Haupttasten vorherrschen. 90% der

Umfrageteilnehmer verwenden diese Mausvarianten. Da es so gut wie keine Ein-Tasten

Mäuse mehr gibt ist davon auszugehen, dass die komplementären 10% der Gruppe ein

Eingabegerät mit mindestens drei Tasten verwendet. Bei 80% der Personen können

zusätzliche Tasten, etwa für die Navigation, gefunden werden. Bei 20% der Personen ist

dies nicht der Fall. 77% der Mäuse mit 2 Haupttasten verfügen über zusätzliche

Navigationstasten. In der Gruppe mit 3 oder mehreren Haupttasten besitzen alle 10

Mäuse dieser Kategorie, dies entspricht einem Anteil von 100%, Zusatzköpfe. Das Feature

Navigations- oder Zusatztasten steht in eindeutigem Zusammenhang mit dem Einsatz in

Spielen. Personen, die den PC auch als für Computerspiele nutzen, verwenden mit einer

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 66

Wahrscheinlichkeit von 88% Mäuse mit einer erweiterten Tastenanzahl. Bei den Nicht-

Spielern liegt der Anteil bei nur 27%. Von 104 Personen verwendet nur eine Person eine

Maus ohne Scrollrad. Allerdings produzieren kaum noch Hersteller Modelle ohne

integriertem Mausrad, sodass der Kunde selten Wahlmöglichkeiten hat (vgl. Geizhals,

2008).

7.4.2 Betrachtung der Soll–Situation

Als Basis der Conjoint Analyse der PC

Maus dienen 98 Datensätze. Für die

aggregierten Daten konnten ein

Pearson r von 0,954 und ein Kendall

tau von 0,824 erzielt werden. Für die

Wichtigkeit der Faktoren ergaben sich

die folgenden Werte, gelistet nach

ihrer Wichtigkeit:

18%: Abtastgenauigkeit

16%: Mausrad

15,5%: Tastenanzahl

12,1%: Gleitfähigkeit

10,4%: Kosten

8,6%: Größe

7,5%: Ergonomisches Design

6,5%: Art der Anbindung

5,1%: Oberfläche

Nach der Aufschlüsselung der aggregierten Nutzenwerte erreicht eine günstige,

ergonomische Maus mit hoher Abtastgenauigkeit und ausgezeichneter Gleitfähigkeit,

einem Mausrad mit drei Haupttasten sowie zusätzlichen Navigationstasten den höchsten

Nutzen. Auch wenn die Größe der Maus bei der Wichtigkeit an der 6. Stelle steht, so hat

die tatsächliche Ausprägung, gemeinsam mit der Beschaffenheit der Oberfläche, kaum

Auswirkungen auf den Gesamtnutzen der aggregierten Menge. Die individuellen

Präferenzen aller Teilnehmer sind in Abbildung 67 dargestellt.

Für die weitere Auswertung der gesammelten Daten macht man sich erneut die

Clusteranalyse zunutze. Das entsprechende Dendrogramm können Sie im Anhang finden.

Bei der Einteilung der Datensätze in homogene Gruppen erwiesen sich 4 separate

Clusterauswertungen für sinnvoll.

Abbildung 67: Individuelle Faktorenwichtigkeit in %

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 67

Abbildung 68: Clustergrößen & prozentuelle Faktorenwichtigkeiten der PC-Mausgruppen

Besonderes Augenmerk richtet der erste Cluster auf die Mausgröße und die Tastenanzahl.

Die bevorzugten Ausprägungen sind hierbei die Standardgröße und Modelle mit 3

Haupttasten, weitere Tasten sind nicht unbedingt notwendig. Die Navigationstasten

werden sogar von den meisten Clustermitgliedern als störend empfunden und reduzieren

den Gesamtnutzen. Dies trifft insbesondere auf Modelle mit zwei Haupttasten zu. Etwas

geringer ist der Einfluss von Qualitätsfaktoren in Form der Abtastgenauigkeit und

Gleitfähigkeit. Die 15 Gruppenmitglieder zeichnen sich durch überdurchschnittlich langen

PC Gebrauch aus und gehören zu den jüngsten Studien-Teilnehmern. Somit lässt sich auch

der verhältnismäßig hohe Anteil an Schülern, 28,6%, erklären.

Der 2. Cluster besteht aus 44 Gruppenmitgliedern und formt daher den stärksten Sektor.

Für diesen werden leistungsfähige und qualitativ hochwertige Modell nachgefragt. Ein

Viertel der Aufmerksamkeit kann der Genauigkeit und Präzision des Produkts

zugeschrieben werden. Mit annähernd 15% folgen die Gleitfähigkeit und die Tastenanzahl,

wobei ein starker Hang zu drei Tasten, inklusive Navigations- oder sonstiger Zusatztasten,

bemerkbar ist. Alle anderen Tastenausprägungen werden abgelehnt. Verglichen mit den

anderen Gruppen nehmen ergonomische Faktoren eine untergeordnete Rolle ein. Eine

Besonderheit des Clusters zeigt sich bei der Analyse der Kosten, bei einigen

Gruppenmitgliedern kommt es zur Umkehrung der Regel, dass günstigere Produkte

bevorzugt werden. Da dieser Faktor für die Gruppe generell kaum von Interesse ist,

bleiben die Teilnutzen der drei Ausprägungsmöglichkeiten in etwa neutral. Der

Altersschnitt ist der höchste aller Gruppen, wodurch sich ein Teil der Kostenstarrheit

erklären lässt.

Die dritte Gruppe legt großen Wert auf Mäuse mit Scrollrädern. Zwar bevorzugen alle

Umfrageteilnehmer dieses Feature, allerdings ist der Wunsch nach Mausrädern in diesen

Fällen mit einer durchschnittlichen Wichtigkeit von 31,7% besonders stark ausgebildet. Es

werden nur zwei Haupttasten benötigt. Für die Gruppe scheint eine angenehme

Handhabung und Bedienung im Vordergrund zu stehen. Zusätzliche Features sind ebenso

wie technische Perfektion zweitranging. Die angepassten Mäuse sollten eine

gummibeschichtete Oberfläche aufweisen, um den Gesamtnutzen des Clusters zu

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 68

maximieren. In diesem Punkt unterscheidet sich der Cluster von den anderen. Allerdings

hat dieser Faktor, ebenso wie dessen Nutzenwerte der Levels, nur einen minimalen

Einfluss bei der Wahl des geeigneten Mausmodells. Ob sich aus ökonomischer Sicht eine

gummibehaftete Oberfläche lohnen würde vermag der Autor zwar nicht zu beantworten,

Voraussetzung für eine Anschaffung ist sie allerdings nicht. Auch diese Gruppe verbringt

eine beachtliche Zeit vor dem PC.

Wie auch bei den Monitoren gibt es auch bei den Computermäusen eine Zielgruppe,

bestehend aus 13 Teilnehmern, die ausschließlich preisbewusste Produkte schätzt. In der

Rubrik der Mäuse hat der Kostenfaktor einen Einfluss von 23%. Die Anzahl der Maustasten

ist die zweitwichtigste Variable. Abgelehnt werden Varianten ohne Navigationstasten,

insbesondere wenn sie nur zwei Haupttasten aufweisen können. Die Leistung und Qualität

der Maus ist verhältnismäßig unwichtig. Auf die Umsetzung ergonomischer Richtlinien

sollte allerdings geachtet werden. Die Eigenschaften des Clusters können durch die

kürzeste tägliche Nutzungsdauer und einen überdurchschnittlich hohen Frauenanteil

beschrieben werden. Angeschlossene PCs dieser Kategorie werden selten als reines

Arbeitsgerät betrachtet, sondern für vielfältige Zwecke eingesetzt.

Zusammenfassend soll erwähnt werden, dass die Verbauungsgröße der Maus nur für eine

Gruppe ein einflussreiches Merkmal darstellt, und diese Gruppe Mäuse in Standardgrößen

bevorzugt. Für die anderen Gruppen spielt die Mausgröße keine übergeordnete Rolle,

solange sie sich vernünftig bedienen lässt. Die Gestaltung der Oberfläche, Plastik oder

Gummi, ist für den Durchschnittsnutzer bedeutungslos. In der Regel werden

Plastikoberflächen bevorzugt, der für den Gesamtnutzen sind die Ausprägungen allerdings

nebensächlich. Ergonomische Bauweisen werden in allen Clustern bevorzugt. Zwar spielt

diese Eigenschaft keine beherrschende Rolle bei der Produktauswahl, sie wird allerdings

mit Ausnahme des 2. Clusters als wichtig empfunden. Die Gleitfähigkeit reiht sich im

Mittelfeld ein. Speziell der zweite Cluster mit seinem Hang zu leistungsstarken Mäusen

fordert eine hohe Qualität der Mausfüße. USB-Anschlüsse werden eher nachgefragt als

kabellose Verbindungen. Sowohl die Faktorenwichtigkeit als die Nutzenauswirkungen

zeigen, dass es sich hierbei um eine untergeordnete Eigenschaft handelt. Einige Personen

lehnen die kabelgebundenen Mausvarianten ab, im Sinne der Clusteranalyse sind diese

Unterschiede aber nicht groß genug um einen eigenen, kabellosen Cluster zu erzeugen.

Die Anzahl der Tasten spielt für alle Gruppen eine wichtige Rolle. Entsprechende

Meinungsverschiedenheiten über die optimale Anzahl der Maustasten sind zwischen allen

Gruppen erkennbar. Im Zweifelsfalle empfiehlt der Autor Varianten mit drei Haupttasten

und integrierten Navigationstasten. Diese Variante würde zwar für Personen des 1.

Clusters einen geringen negativen Nutzen bedeuten, wird aber von den anderen Gruppen

als positive Eigenschaft wahrgenommen. Kein Zweifel kommt bei der Verbauung des

Mausrades auf. Dieses erweist sich als Pflichtattribut. Mit Ausnahme einer einzigen Person

wird es von allen Personen nachgefragt.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 69

7.5 Komponentenübergreifende Ergebnisse der Analyse

Eine Fragestellung, der in der Analyse nachgegangen wird, betrifft die Unterschiede

zwischen den männlichen und weiblichen Teilnehmern. Aufgrund der geringen weiblichen

Beteiligung kann davon ausgegangen werden, dass sich Frauen zum Teil weniger mit dem

technischen Computerumfeld beschäftigen, und durch die Art der Zugangsverteilung zum

Fragebogen Frauen möglicherweise benachteiligt wurden. Ein klarer Unterschied im

Nutzungszweck wurde bereits erwähnt: Die an der Umfrage teilgenommenen Frauen

nutzen ihren PC meist für berufsrelevante Zwecke und kaum ausschließlich für Spiele und

zur Unterhaltung. Des Weiteren ist die durchschnittliche Zeit vor dem PC etwas geringer.

Unterschiede gibt es auch bei den Ergebnissen der Soll-Auswertung. So ist der Frauen-

Anteil im 4. Monitor-Cluster mindestens doppelt so hoch als bei den anderen Gruppen.

Bei den Mäusen werden die 3. und 4. Gruppe bevorzugt, das sind Clustergruppen, die

nicht auf die Leistung fokussiert sind. Der Tastatursektor ist zu geschlechtsneutral um

Beziehungen nachweisen zu können.

Die Einteilung der gesammelten Daten in homogenere Kleingruppen ermöglicht eine

komponentenübergreifenden Analyse. Ausgangspunkt ist die Fragestellung, ob es Regeln

gibt, mit denen man einer Person ein ideales Produkt aufgrund der Kenntnisse über

andere Input- oder Outputklassen zuordnen kann. Ein einfaches Beispiel soll die

Vorgangsweise der Assoziationsregeln darstellen: Angenommen eine Person bevorzugt

eine ergonomisch geformte Maus und eine gesundheitsschonende Tastatur und ist daher

den entsprechenden Teilgruppen zugeneigt. Allerdings sind die Vorlieben über die

Monitoreigenschaften unbekannt. Mit Hilfe der Assoziationsregel in der Form wenn

ergonomiebewusste Maus- und Tastaturgruppe, dann Bildschirmclusterx würde man die

Bildschirmpräferenzen einer Person mit einer gewissen Wahrscheinlichkeit vorhersagen

können. Die Anzahl der gefundenen Regeln, wie häufig Regeln auftreten und deren

Vorhersagekraft werden bei der Analyse bestimmt. Der minimale Support wurde auf 5%

gesetzt. Als minimaler Konfidenzwert werden 45% definiert. Darüber hinaus werden nur

Regeln beachtet, deren Lift über 1,3 liegt und somit ein hohes Verhältnis zum

Erwartungswert aufweisen können. Unter Verwendung der Tastatur- und

Mauszugehörigkeiten als Antezedenten sowie den Monitorclustern als Konsequent erhält

man 2 Regeln. 3 Regeln definieren die Einteilung in einen der vier Tastatursektoren. Für

die entsprechende Assoziation der Mauspräferenzen konnten 3 Regeln gefunden werden.

Alle gefundenen Regeln, die den Minimalanforderungen genügen, werden in der

folgenden Tabelle dargestellt. Sie ist nach Komponenten und absteigendem Lift sortiert.

ID Antezedent Konsequent Unterstützung Konfidenz Lift

1 Tastatur_4 Monitor_1 5,2% 60% 3,23

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 70

2 Tastatur_2

Maus_3 Monitor_3 7,2% 71,4% 1,41

3 Monitor_1

Maus_2 Tastatur_1 10,3% 60% 1,94

4 Monitor_4 Tastatur_3 12,4% 66,7% 1,80

5 Maus_4 Tastatur_3 12,4% 50% 1,35

6 Tastatur_2

Monitor_3 Maus_3 11,3% 45,5% 1,84

7 Monitor_1

Tastatur_1 Maus_2 8,3% 75% 1,65

8 Monitor_2

Tastatur_2 Maus_2 6,2% 66,7% 1,47

Tabelle 1: Alle Assoziationsregeln der Analyse

Wie zu erwarten war, können aufgrund der harten Restriktionen nicht alle

Clusterzugehörigkeiten durch Assoziationsregeln beschrieben werden. Aus diesem Grund

werden nur wenige Regeln produziert, dementsprechend weisen sie ein hohes Maß an

Qualität auf. Im Folgenden sollen die Ergebnisse der Assoziationsanalyse besprochen

werden.

Mit einem Lift von 3,23 ist die erste Regel außergewöhnlich stark. Sie sagt aus, dass

Personen mit einem gewaltigen Fokus auf USB- oder sonstigen kabelgebundenen

Tastaturen große, schnelle Bildschirme nachfragen. Diese Gruppe legt anscheinend großen

Wert auf eine schnelle und sichere Verarbeitung. Attribute, die insbesondere für

Computerspieler und einige Berufsgruppen ausschlaggebend sein könnten.

In den Regeln 2 und 6 ist eine Personengruppe aufzufinden, die sich für ergonomische

Qualitätsprodukte entscheidet. Offenbar steht für diese Gruppe ein bequemes Arbeiten

am PC im Vordergrund. In ihren Präferenzen unterscheiden sich diese Cluster zum Teil

stark vom Rest: Als die wichtigste Eigenschaft des Bildschirms wurde ein hohes

Kontrastverhältnis identifiziert, die Tastatur benötigt ausgezeichnete

Schreibeigenschaften und muss beziehungsweise darf keinen, je nach individueller

Einstellung, ergonomischen Richtlinien folgen. Bei den Mäusen, inklusive Scrollrad,

verlangt man ebenfalls nach Qualität und ergonomischen Aspekten.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 71

Die Regeln 4 und 5 weisen den sehr kostensensitiven Personen des entsprechenden

Monitor- und Mausclusters der preisbewussten 3. Tastaturgruppe zu. Im Gegensatz zu

den Antezedenten spielen die Kosten in der Tastaturgruppe eine bei weitem geringere

Rolle. Diese fordert neben günstigen Anschaffungskosten auch ein gewisses Maß an

Qualität. Die Umkehrung, dass Personen dieses Tastaturclusters sich für kostengünstige

Monitore und Mäuse entscheiden, ist abzulehnen.

8. Ausblick auf die Zukunft der Hardware- HCI

Mit Sicherheit kann gesagt werden, dass uns in naher Zukunft die herkömmlichen

Eingabemöglichkeiten per Tastatur und Maus weiterhin erhalten bleiben. Allerdings

werden mit dem Fortschritt der Technologie einer breiten Masse an Nutzern neue Wege

der Interaktion angeboten: Shneiderman (1998) vermutet, dass sich gestische Eingaben,

dreidimensionale Zeigegeräte, sprachbasierende Ein- und Ausgaben, tragbare Geräte und

die vollständige Immersion des ganzen Körpers als brauchbare Alternativen zum Tastatur-

und Mausgebrauch erweisen werden. Ebenso darf man Änderungen und Verbesserungen

im Bezug auf Aussehen und Technik der aktuellen Geräte erwarten. Der nächste Abschnitt

zeigt anhand der künstlichen Welten und der Eingabe per Blickrichtung wie Arten der

zukünftigen Interaktion aussehen können.

8.1 Virtual & Mixed Reality

„Virtual Reality promises to revolutionise the way we use computers.“

Al Gore, 1991

In diesem Kapitel wird das vielversprechende Feld der Virtual und Mixed Reality

vorgestellt. Zwar wird in diesem Feld schon länger geforscht und auch die Resultate sind

beeindruckend, die Entwicklung ist aber stark von der verfügbaren Technologie limitiert. J.

Hollis (1997) betonte vor 11 Jahren, dass erst durch die ständig rascher voranschreitende

Entwicklung der Computational Power eine effiziente Erforschung und Entwicklung vieler

VR Bereiche und Anwendungen ermöglicht wird. Seitdem wurde, auch dank der

erwähnten Steigerung der Leistungsfähigkeit, vieles auf diesem Sektor vorangetrieben.

Dies gilt besonders für den Bereich der mobilen Systeme, da Hardwarefortschritte meist

auch Miniaturisierungen mit sich bringen. Leider stehen Virtual und Mixed Reality

Systeme und Anwendungen nur wenigen Personen, meist in Konzernen oder zu

Forschungszecken, zur Verfügung. Privatpersonen können sich die gigantischen Kosten im

Normalfall nicht leisten und es fehlen sinnvolle Anwendungen für den Privatbereich.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 72

Die Definition von Virtual beziehungsweise Mixed Reality sind nicht einheitlich. So ist es

durchaus möglich, dass die Begriffe einmal enger, einmal weiter aufgefasst werden. Eine

einheitliche Klassifikation sucht man ebenfalls vergeblich.

Für Stone, Jarrett, Woodroffe und Minocha (2005) bestehen VR Systeme aus Hard- und

Softwarekomponenten zur Erschaffung künstlicher Welten, die ausschließlich in einem

Computersystem existieren, und in denen unter Anderem reale Aufgaben nachgestellt

werden können. Zitiert man Burdea und Coiffet (2003), so ist Virtual Reality ein

hochentwickeltes Computer Interface, dass eine interaktive Simulation zur Echtzeit

ermöglicht, und dabei mehrere Sinneskanäle anspricht. Das Autorenteam stellt außerdem

das Konzept des Virtual Reality Triangle vor, dass drei wesentliche Begriffe der Virtual

Reality beinhaltet und welches alle Virtual Reality Systeme auszeichnet. Diese sind die

Immersion, die Interaktion und die Echtheit.

Während bei Burdea und Coiffet alle Systeme, die in diese Definition fallen, als VR

bezeichnet werden, klassifiziert Milgram den Bereich detaillierter. So stellt er in seinem

Konzept des Reality-Virtuality Continuums eine vierstufe Skala vor, an deren Endpunkte

die „reinen Welten“, also die vollkommen reale als auch die rein künstlich erschaffene

Welt, existieren. Alles, was sich zwischen den zwei Extremen befindet, gehört zur Klasse

der Mixed Reality. Als Virtual Reality bezeichnet Milgram nur die Systeme, die eine

vollständige Immersion einer ausschließlich künstlichen Welt anbieten. Die Mixed Reality

wird, je nachdem ob die primäre Welt eine natürliche oder künstliche ist, wiederum in

Augmented Reality beziehungsweise Augmented Virtuality eingeteilt (Abb. 69).

Abbildung 69: Reality-Virtuality Continuum als Klassifizierungshilfe (Milgram, Takemura, Utsumi & Kishino, 1994)

Es gibt nicht das VR oder MR System. Sie unterscheiden sich teilweise erheblich

voneinander. Die Anwendungen unterscheiden sich je nach verwendeter Technologie,

deren Interfacegeräten, technischen Gegebenheiten, etc. Kostengünstigere Systeme, die

nicht immersiv erfahren werden, sondern mit Hilfe eines Bildschirms dargestellt werden,

bezeichnen Burdea und Coiffet (2003) als Window-to-the-world, Shneiderman (1998) als

desktop virtual environments. Im Gegensatz zu „echten immersiven“ Umgebungen sind sie

auch für Privatpersonen leistbar, auch wenn der Effekt nicht mit seinen teureren

Varianten vergleichbar ist.

Für Shneiderman (1998) gibt es mehrere Faktoren, die für eine erfolgreiche künstliche

Umgebung Voraussetzung sind. Diese sind:

Visuelle Anzeige

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 73

Ermittlung der Kopfposition

Ermittlung der Handposition

Force Feedback

Ein- und Ausgabe von Geräuschen

Kooperations- oder konkurrenzunterstützende Umgebung

Sonstige Besonderheiten

Eine beliebte Methode zur Realisierung von dreidimensionalen Umwelten basiert auf der

Nutzung von Shutter Glasses. Deren Flüssigkristalle haben die Eigenschaft, wie bereits im

Kapitel der Bildschirme angeführt wurde, durch Anlegen eines Magnetfeldes die

Lichtbrechungsrichtung zu beeinflussen und bei der Freilassung augenblicklich in ihre

Ursprungsrichtung zurück zu wechseln. Daher können die Bilder eines Auges gezielt

blockiert werden. Synchronisiert man die Shuttergläser mit dem Anzeigemedium, das

alternierend Bilder für nur jeweils ein Auge projiziert, erfährt der Benutzer ein

dreidimensionales Erlebnis. Dessen Qualität hängt vom verwendeten Anzeigemedium ab:

Kostengünstig sind spezielle CRT-Monitore mit sehr hohen Bildwiederholfrequenzen. Da

die Shuttergläser die Hälfte der dargestellten Bilder aussortieren und somit die

Bildwiederholrate halbieren ist diese Methode für herkömmliche CRT-Bildschirme, ebenso

wie LCD-Bildschirme, ungeeignet. Solch eine desktop virtual environment ist in der

Abbildung 70 zu sehen. Einen hohen Grad an Immersion und Realismus bieten große,

würfelförmig angeordnete, von CRTs rückseitig bestrahlte Leinwände (Abb. 71). Diese

Systeme werden als CAVEs bezeichnet. Die virtuelle Umgebung entsteht im Gegensatz zur

vorherigen Methode nicht nur vor dem Benutzer auf dessen Bildschirm, sondern um ihn

herum. Neben der hohen Auflösung zeichnen sie sich durch ihre Multiuser-Fähigkeit aus.

Großflächige CAVEs können von dutzenden Personen betreten werden. Allerdings können

die Teilnehmer das Programm nicht gleichzeitig steuern.

Abbildung 70: Aufbau einer einfachen Desktop VE Abbildung 71: Das CAVE (beide: Burdea & Coiffet, 2003)

Wenn man an VR denkt, so hat man meist auch die Head Mounted Displays (HMD) im

Sinn. Diese Anzeigegeräte werden am Kopf angebracht. Vor den Augen sind zwei

voneinander unabhängige Bildschirme befestigt. Da das Computersystem die dargestellte

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 74

Szene für jeden Bildschirm berechnet, wird dem Gehirn durch den empfundenen

horizontalen Abstand eine Tiefenwahrnehmung vorgetäuscht, die gesehene Welt

erscheint dreidimensional (Abb. 72). Für VR Systeme konstruierte HMD trennen den

Benutzer optisch zur Gänze von der realen Welt. In der MR kommt es zur Vermischung

beider Umwelten. Deren HMDs sind transparent oder integrieren eine Kamera, die die

Außenwelt aufzeichnet, um die Realität mit den künstlich erschaffenen Objekten zu

überlegen. Zur Bestimmung der Blickrichtung sind in den meisten HMDs Tracker eingebaut

oder stellen Stecksysteme zur Verfügung.

Abbildung 72: HMDs mit zwei Monitoren ermöglichen stereoskopisches Sehen (Burdea & Coiffet, 2003)

Vom Standpunkt der HCI ist die Entwicklung von einfachen Ein- und Ausgabegeräten zu

den hochleistungsfähigen, natürlicheren Interaktionsmöglichkeiten ein großer Fortschritt.

Ein wesentlicher Vorteil ist die Nutzung mehrerer Sinneskanäle (Abb. 73). Im Gegensatz

zur traditionellen Informationsdarstellung des PCs ist man nicht auf die 2-dimensionale

visuelle Ebene beschränkt. Die dreidimensionale, stereoskopische Darstellung zählt in

diesem Gebiet schon lange zum Standard. Die Verwendung des auditiven Sinneskanals ist

auch für PCs eine beliebte Methode der Interaktion. Allerdings beschränken sich die

meisten Anwendungen auf das Wiedergeben von qualitätsschwachen Geräuschen. Für

Burdea und Coiffet (2003) sind monophone Geräusche in der traditionellen

Computerinteraktion ausreichend. Für die immersiven dreidimensionalen Systeme sind

diese in der Regel komplexer gestaltet. Sie reichen vom, auch für PCs verfügbaren, Dolby

Surround bis hin zum Convolving, das echtes, realistisches Hören ermöglicht. Ein

aufwändigeres Feature, das in spezielleren Systemen zur Verfügung steht, sind taktile

Rückmeldungen. Sie werden durch sogenannte Datasuits oder Datagloves ermöglicht, die

mit Hilfe kleiner Motoren eine der jeweiligen Interaktion entsprechende Gegenkraft

aufbauen. Eine Neuheit im Bereich der VR ist der Einsatz von Gerüchen. Eine rudimentäre

Simulation von Geruchsaromen ist nur in wenigen künstlichen Umgebungen vorhanden,

soll jedoch laut Chen (2006) in naher Zukunft zum Standard vieler Anwendungen werden.

Aktuelle Forschungen auf diesem Gebiet beschäftigen sich mit tragbaren

Geruchsinterfaces, die dem Benutzer die erzeugten Aromen gezielt in die Nase injizieren.

Stationäre Devices würden zwar eine Gewichtsreduktion des meist ohnehin schwer

beladenen Benutzers bedeuten, haben allerdings Nachteile bei mehreren gleichzeitig

aktiven Usern und dem Entfernen vorheriger Düfte. Noch kurioser ist der Versuch,

Geschmack zu vermitteln. Allerdings ist diese Komponente noch im Entwicklungsstadium,

eine kommerzielle Nutzung ist dem Autor nicht bekannt.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 75

Abbildung 73: Wissenschaftliche Relevanz bestimmter Sinne im Computergebrauch (Jessner & Sieberer, 2008)

Die Eingabe der Benutzer erfolgt in immersiven dreidimensionalen Welten üblicherweise

über eine 3D Maus, einen 3D Stab oder den beliebten Datagloves. Mit Hilfe des Datasuits

ist es gar möglich, die Bewegung der Beine, Arme und des Rumpfs zu erfassen. Sie

ermitteln die Position des jeweiligen Devices und bieten meist Knöpfe für

Interaktionsmöglichkeiten an. Mit ihrer Hilfe können Objekte auf natürlichem Wege wie in

der Realität interagiert oder mit Hilfe von eingeblendeten Steuer- und Bedienelementen

manipuliert werden. Für die Ermittlung der Position stehen diverse Methoden zur

Verfügung. Je nach Intention werden im Allgemeinen mechanische, magnetische oder

optische Sensoren bevorzugt. Eine weitere Form der Eingabe geschieht durch die

Auswertung der Blickrichtung des Benutzers.

Allerdings gibt es auch einige Nachteile in der Dateneingabe. So ist ebenso wie bei

direkten Zeigegeräten, im Sinne von Touchscreens und Ähnlichem, mit einer verstärkten

Ermüdung bei langem Gebrauch zu rechnen. Das Versperren der Sicht durch Arm und

Hand kann ebenfalls kritisiert werden. Des Weitern eignet sich diese Art der Technologie

nicht für alle Anwendungen und Aufgaben. Man denke etwa an das Verfassen eines

Textes: Für einen geübten Schreiber bleibt die Tastatur der schnellste Weg der

Digitalisierung.

Die derzeit spärliche Verbreitung dieser Systeme liegt zum Großteil an deren gewaltigen

Kosten. Der Aufwand für Software ist schwer zu bestimmen, da viele Faktoren Einfluss auf

den Preis nehmen. Im Gegensatz zur Software sind die Hardwarepreise leicht festzulegen

und auch hier erkennt man, dass das Preisniveau im VR und MR Bereich hoch angesiedelt

ist. Auf der Webseite www.vrealities.com des Distributors Virtual Realities kann sich der

geneigte Leser über die Eigenschaften und Kosten vieler gewerblicher VR-

Interaktionsgeräte informieren. Die folgende Aufstellung konzentriert sich nur auf den

Kostenfaktor dieser Devices. Einfache Shutter-Gläser kosten um 50 € ohne Sendergerät,

die monoskopischen HMDs i-glasses PC/SVGA ohne Zubehör bereits 600 €. Die ähnlichen,

komplexeren stereoskopischen HMDs i-glasses PC/SVGA 3D pro werden ohne Zubehör um

940 € gehandelt. Benötigte Spezialeingabegeräte haben ebenfalls ihren Preis, so betragen

etwa die Kosten der technisch simplen P5 Gloves 70 €, die kabellose 3D Maus SpaceGrips

kostet 2.500 €. Für die Erfassung des ganzen Körpers, zum Beispiel mit Hilfe des

GypsyGyro 18 um 45.000 €, erhöhen sich die Kosten drastisch. Komplettsysteme setzten

die Tendenz fort: auch das Visiondome 2 SX21 mit einem Durchmesser von 2,2 Meter und

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 76

einer Auflösung von 1400 x 1050 um 39.000 € beweist, dass die virtuelle und gemischte

Realität noch einen langen Weg vor sich haben, um zu weitverbreiteten Technologien zu

werden. Denn dafür ist die Senkung der Herstellungs- und Vertriebskosten eine wichtige

Voraussetzung.

Abbildung 74: Einige VR- Produkte: HMD, Dataglove, Datasuit und Visiondome (nach vrealities.com)

Allerdings scheinen dafür ihre möglichen Einsatzgebiete fast unbeschränkt zu sein. Sowohl

im wirtschaftlichen als auch privaten Sektor werden sich unzählige Anwendungen finden,

die sich zu den aktuellen Haupteinsatzgebieten der VR, dem virtuellen Prototyping der

Industrie, dem Einsatz zu Ausbildungszwecken und der Visualisierung komplexer

Informationen (Burdea & Coiffet, 2003) dazugesellen werden. Shneiderman (1998) führt

neben den praktischen Aufgaben, dazu gehören unter Anderem die Visualisierung von

komplexen Informationen, die direkte Manipulation von Objekten oder deren entfernte

Steuerung, auch außergewöhnlichere Einsatzgebiete an: Beispielsweise könnten durch VR

Systeme Fantasiewelten, Reisen in die Vergangenheit oder zu anderen Planeten oder die

Veränderung von Naturgesetzen simuliert werden. Besonders vielversprechend

erscheinen MR Anwendungen für berufliche Zwecke zu werden. Sie könnten bei der

Ausübung einer Tätigkeit mit der Hilfe eingeblendeter Zusatzinformationen, zum Beispiel

der richtigen Vorgehensweise oder bei der Identifikation wichtiger Objekte, unterstützend

aushelfen.

8.2 Eingabe mittels Blickrichtung

Eine weitere vielversprechende Eingabemöglichkeit der näheren Zukunft könnte auf der

Auswertung unserer Blickrichtung basieren. Wie auch im vorhin besprochenen Feld der

künstlichen Welten sind die Grundlagen bereits vorhanden, bedürfen jedoch noch

weiterführender Forschung um zur massenhaften Anwendung zu gelangen. Zur Einteilung

der Anwendung können diese in einen diagnostischen Bereich und eine interaktive Sparte

aufgeteilt werden (Qi, Wang & Huang, 2007). Die diagnostischen Anwendungen kommen

insbesondere in der Psychologie und der Marketingbranche zum Einsatz. Interessanter,

zumindest im Kontext der HCI, sind interaktive Systeme, die die Blickrichtung nicht nur

aufzeichnen, sondern auch auf diese reagieren, etwa um einen gewünschten Befehl

auszulösen. Diese Rubrik wiederum unterteilt sich in ein zweidimensionales und ein

dreidimensionales Mapping.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 77

Um die Blickrichtung zu messen wurden unterschiedliche Methoden entwickelt. Diese

unterscheiden sich wesentlich nach dem Grad des Eingriffs, der verwendeten Hardware,

und der Genauigkeit. Die aussichtsreichsten Kandidaten verzichten auf benutzerbefestigte

Hardware, etwa auf das Anbringen von Markern, und nutzen optische Geräte zur

Identifikation (Zhu & Ji, 2007). Diese sollen nun etwas detaillierter besprochen werden.

Zum Einen benötigen sie eine individuelle Kalibrierung des Systems vor der eigentlichen

Nutzung. Der zweite Punkt ist, dass die besten Ergebnisse erzieht werden, wenn der

Benutzer möglichst still ohne Bewegung des Kopfes vor dem Bildschirm verharrt. Dieser

Nachteil ist insbesondere bei den zweidimensionalen Methoden stark ausgeprägt, die

dreidimensionalen Vorgangsweisen versuchen diese Restriktion aufzuheben. Treffen diese

zwei Bedingungen zu, so kann die Nutzung der Blickrichtung als Eingabemedium aber

durchaus hervorragende Ergebnisse erbringen. So berichten Zhu und Ji (2007), dass die

Blickeingabe effizienter sei als traditionelle Eingabegeräte.

Sowohl für die zwei-, als auch

dreidimensionale Berechnung

der Blickrichtung kommen

Methoden (vgl. PPCR) zum

Einsatz, welche Reflexionen auf

der Netzhaut erfassen, und

unter Einberechnung der

relativen Anordnung zur Pupille

den erfassten Punkt des Bildschirms bestimmen. Aktuelle Technologien verwenden hierzu

eine Lichtquelle, die beinahe-infrarotes Licht ausstrahlt, um die Pupille für die

Bilderfassungssoftware identifizierbarer zu machen (Abb. 75). Zusätzlich verringert es den

Einfluss der gegebenen Lichtbedingungen auf die Erfassungsqualität des optischen

Trackers. Weitere Vorteile sind, dass beinahe-infrarotes Licht weder gesundheitsschädlich

noch sichtbar ist, und somit keine negative Einwirkung für den Nutzer darstellt (Qi, Wang

& Huang, 2007; Zhu & Ji, 2007)

Für interaktive Anwendungen ist die Auswertung des Datenstroms der optischen

Aufzeichnung wesentlich. So muss das System zu jedem Zeitpunkt einwandfrei erkennen,

ob sich der Nutzer eine Interaktion mit einem Bildelement wünscht. Sprich, es muss

erkannt werden, ob ein Befehl, vergleichbar mit der Form eines Mausklicks oder

Tastenanschlags, an den PC vorliegt. Eine Art der Auswertung misst die Bewegungen des

Augapfels innerhalb einer zeitlichen Einheit und kombiniert diese mit den örtlichen

Sprüngen der Augenfokussierung. Sind die Änderungen annähernd unverändert wird von

der Software ein Befehl ausgelöst.

Aktuelle Forschungen beschäftigen sich mit der Filterung der Befehle der Anwender aus

dem Datenfluss. Des Weiteren konzentrieren sich die Forscher auf die Verbesserung der

dreidimensionalen Erfassung der Augäpfel und der Blickrichtung. Diese ist naturgemäß

komplexer als das zweidimensionale Mapping, verspricht aber auch größere

Bewegungsfreiheiten und geringere Fehlerquoten.

Abbildung 75: Beinahe-infrarotes Licht erleichtert die Identifikation des Glanzpunktes und der Pupille (rechts) (Zhu & Ji, 2007)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 78

9. Conclusio

Die Human Computer Interaction ist ein aus vielen Unterdisziplinen bestehendes

wissenschaftliches Feld mit zunehmender Bedeutung. Wie der Name bereits andeutet,

beschäftigt sie sich mit der Interaktion zwischen Computern und deren Benutzer. Ein

zentrales Thema der HCI ist die Anpassung des User Interfaces an den Nutzer. Als

Beispielskonzept wird das User Centered Design vorgestellt, welches eine starke

Einbindung der Stakeholder vorsieht. Wie die Anpassung der Software- und

Hardwareprodukte der Informationstechnologie im Detail aussieht wird nicht besprochen.

Entscheidend ist allerdings, dass sie zur Erreichung eines kommerziellen Erfolgs auf die

Bedürfnisse der Benutzer zugeschnitten sein müssen. Bemerkbar machen sich vor Allem

ergonomische Aspekte bei der Erstellung von Gesetzen und Richtlinien. Für die

österreichischen Verhältnisse sind hierbei Teile des ArbeiternehmerInnenschutzgesetzes

und die Bildschirmarbeitsverordnung relevant. Die gesetzlichen Grundlagen für

Bildschirmarbeitsplätze stellen auf jeden Fall ein wichtiges Fundament dar, sind allerdings

meiner persönlichen Meinung vage formuliert und teilweise schwer zu verwirklichen, wie

zum Beispiel die erwünschte Ausrichtung der Beleuchtungsbänder nach den

Bildschirmpositionen für bereits bestehende Räume.

Der Fokus der Arbeit liegt auf dem Hardware Bereich. Dementsprechend werden die

wichtigsten Eingabe- und Ausgabegeräte, namentlich der Bildschirm sowie Tastatur und

PC Maus, vorgestellt und auf ihre geschichtlichen Entwicklungen und Funktionsweisen

hingewiesen. Für diese Komponenten werden mit Hilfe einer Umfrage wichtige Merkmale

identifiziert und deren Ausprägungen Nutzenwerte zugewiesen. Leider konnte für die

Umfrage nur ein geringer Prozentsatz an weiblichen Teilnehmern gewonnen werden. Für

eine gerechtere Verteilung würde eine Umfragemethode ohne Selbstselektion sorgen,

sodass ein getreuerer Geschlechteranteil gegeben wäre. Außerdem nahmen,

verständlicherweise, viele Technikbegeisterte an der Untersuchung teil. Die Umfrage

selbst fand großen Anklang, in etwa eineinhalb Monaten konnten 110 gültige Datensätze

gesammelt werden. Wünschenswert wären ein größeres Budget und ein mehrmonatiger

Zeitraum zum Sammeln von weiteren Daten gewesen. Eventuell wäre dann ein

deutlicherer Zusammenhang zwischen ergonomischen Aspekten der Komponenten und

der Arbeitsumgebung und gesundheitlichen Beschwerden sichtbar gewesen. Außerdem

hätten mit einer größeren Gesamtmenge zusätzliche Cluster erstellt werden können. Mit

104 gültigen Datensätzen hätte das Erstellen von zusätzlichen Gruppen allerdings in zu

kleinen Gruppen resultiert. Die Auswertung zeigt, dass ergonomische Faktoren, egal für

welche Komponente, von den meisten Personen nachgefragt werden. Im Tastaturbereich

gibt es allerdings Personen, die eine ergonomische Gestaltung strikt ablehnen und

herkömmliche Bretttastaturen bevorzugen. In der Regel konnte für jede Komponente ein

Cluster identifiziert werden, der explizit nutzerfreundliche Produkte nachfragt. Allerdings

haben diese ergonomischen Aspekte in der Regel weniger Gewicht als leistungsspezifische

Features. Ebenso gibt es für jedes Device eine kostenempfindliche Gruppe.

Wie bei der Analyse gezeigt wurde, kann ein einziges Modell niemals die Wünsche aller

Personen befriedigen. Wünschenswert wären Auswahlmöglichkeiten bezüglich dieser

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 79

Interaktionsgeräte in Unternehmen, sodass Mitarbeiter sich selbst für das idealste

Produkt entscheiden könnten. Einige wenige Unternehmen verfügen über ein Hardware-

Sortiment, aus dem das Personal wählen kann. Dies scheint ein sinnvoller Ansatz zu sein,

eine vollkommen freie Auswahl würde Probleme bei Anschaffung, Support und Wartung

verursachen.

Gespannt erwartet der Autor die zukünftigen Entwicklungen in diesem Sektor. Neben den

Verbesserungen der drei besprochenen Komponenten dürften insbesondere die VR und

MR starken Einfluss auf die Computerinteraktion nehmen. Deren Auswirkungen lassen

sich im Moment nur schwer einschätzen. Wie gezeigt wurde, könnte die neue immersive

Technologie für beinahe alle Situationen eingesetzt werden. Deren Nutzen steht außer

Frage, allerdings darf keinesfalls auf die Benutzerfreundlichkeit vergessen werden.

Diesbezüglich haben die Interaktionsgeräte noch Aufholbedarf: Viele Geräte neigen zur

Bewegungseinschränkung und Überladung ihrer Benutzer, ebenso ist das Phänomen der

VR Sickness, die durch die Verzögerung zwischen Eingabe und Ausgabe verursacht wird,

aber auch für etwaige Betrachter in einigen Systemen zum Problem werden kann, zu

beseitigen.

10. Literatur- und Quellenverzeichnis

Acer. (2008). Acer Deutschland. Zugriff am 11. 05. 2008, unter http://www.acer.de.

Bechmann, R., Johst, B., Jungen, W., Landerer, S., Reuschenbach, T. & Theißing, F. (1999).

Der Arbeitsplatz am PC. Frankfurt am Main: Bund-Verlag.

Belinea. (2008). Notebooks & PC’s Belinea. Zugriff am 11. 05. 2008, unter

http://www.belinea.com/de.

Billingsley, P. A. (1994). Ergonomic Standards Go Beyond Hardware. IEEE Software, Vol. 11

(2), S. 82-84.

Bollinger, T. (1996). Assoziationsregeln – Analyse eines Data Mining Verfahrens.

Informatik-Spektrum, 19, S. 257-261.

Breidenbach, G. (2008). Kriterien bei der Auswahl einer geeigneten Keyboard-Technologie.

Zugriff am 01. 10. 2008, unter

http://www.elektronikpraxis.vogel.de/index.cfm?pid=876&pk=135867.

Bühl, A. (2008): SPSS 16. München: Pearson Studium

Burdea, G. C. & Coiffet, P. (2003). Virtual Reality Technology—2nd editon. Hoboken, New

Jersey: Wiley Interscience.

Canny, J. (2006). The Future of Human-Computer Interaction. ACM Queue, 4 (6).

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 80

Chen, Y. (2006). Olfactory display: development and application in virtual reality therapy.

16th International Conference on Artificial Reality and Telexistence. IEEE.

CPP (2008). Myers-Briggs Type Indicator® Assessment (MBTI®) Zugriff am 11. 05. 2008,

unter http://www.cpp.com/products/mbti/index.asp.

Da-Lite. (1997). Contrast – From Dark to Light, Angles of View, Vol. 3 (9).

David, P. A. (1985). Clio and the economics of QWERTY. In: American Economic Review,

75:2, (S. 332-337). Nashville: American Economic Association.

Dembowski, K. (2007) PC-Werkstatt. München: Markt+Technik.

Evoluent. (2008).Evoluent. Zugriff am 19. 09. 2008, unter http://www.evoluent.com/.

Foley, J., Wallace, V. & Chan, P. (1984). The human factors of computer graphics

interacton techniques. IEEE Computer graphics and Applications, 4 (11), S. 13 – 48.

Geizhals. (2008). Preisvergleich Geizhals.at Österreich. Zugriff am 02. 06. 2008, unter

http://geizhals.at/.

Hair, J., Black, B., Babin, B., Anderson, E. & Tatham, R. (1998). Multivariate Data Analysis.

New Jersey: Prentice Hall.

Hewett, T., Baecker, R., Card, S., Carey, T., Gasen, J., Mantei, M., Perlman G., Strong, G. &

Verplank, W. (1992). ACM SIGCHI Curricula for Human-Computer Interaction, Zugriff am

07. 06. 2008, unter http://www.acm.org/sigchi/cdg/cdg1.html.

IBM. (2008). IBM PC exhibit. Zugriff am 11. 05. 2008, unter

http://www.03.ibm.com/ibm/history/exhibits/pc/pc_1.html.

Ihlenfeld, J. (2008). BlueTrack – neue Maustechnik von Microsoft. Zugriff am 10. 09. 2008,

unter http://www.golem.de/0809/62314.html.

ISO (2008). ISO 9241. Zugriff am 11. 05. 2008, unter

http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=219

22.

Kirchhoff, S., Kuhnt S., Lipp P. & Schlawin S. (2003). Der Fragebogen. Stuttgart: UTB.

Kinesis. (2008). Kinesis Cooperation. Zugriff am 02. 09. 2008, unter http://www.kinesis-

ergo.com/.

Lenovo. (2008). Lenovo Deutschland. Zugriff am 11. 05. 2008, unter

http://www.lenovo.com/de/de/index.html.

Lindorfer, M. (2007). Auge & Bildschirm. Zugriff am 04. 08. 2008, unter

http://www.gut.tuwien.ac.at/fileadmin/t/gut/Downloads/Arbeitnehmerschutz/Arbeitsmedizi

n/Bildschirmarbeit/BAP-Kurzseminar%20Augen.pdf.

Logitech. (2008). Logitech. Zugriff am 11.05. 2008, unter http://www.logitech.com/ .

Milgram, P., Takemura, H., Utsumi, A. & Kishino, F. (1994). Augmented Reality: A class of

displays on the reality-virtuality continuum. Telemanipulator and Telepresence

Technologies, Vol. 2351, 282-292.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 81

Muir, A. (2008) Design of Experiments/Conjoint Analysis in Marketing. Zugriff am 12. 06.

2008, unter http://www.isixsigma.com/library/content/c051031a.asp.

North, E. & de Vos, R. (2002). The use of conjoint analysis to determine consumer buying

preferences: A literature review. Journal of Family Ecology and Consumer Sciences,30, S.

32-39.

Ortmann, J. (2006). Einführung in die PC-Grundlagen. München: Addison-Wesley.

Qi, Y., Wang, Z. & Huang, Y. (2007) A non-contact eye-gaze tracking system for human

computer interaction. 2007 International Conference on Wavelet Analysis and Pattern

Recognition, Beijing. IEEE.

Richenhagen, G., Prümper, J. & Wagner, J (2002). Handbuch der Bildschirmarbeit, Berlin:

Luchterhand.

Shneiderman, B. (1998.) Designing the User Interface. New Jersey: Addison-Wesley.

Stone, D., Jarrett, C., Woodroffe, M. & Minocha, S. (2005) User Interface Design and

Evaluation. San Francisco: Morgan Kaufmann Publishers.

Tyson, J. & Wilson, T. V. (2008). How Computer Keyboards Work . Zugriff am 03. 08. 2008,

unter http://computer.howstuffworks.com/keyboard3.htm.

USB.org. (2008). Universal Serial Bus. Zugriff am 23. 07. 2008, unter

http://www.usb.org/home.

Vrealities (2008). Virtual Realities. Zugriff am 11. 05. 2008, unter

http://www.vrealities.com/5dt.

Wittig-Goetz, U. (2008). Gesellschaft Arbeit und Ergonomie: Tastatur. Zugriff am 11.06.

2008, unter http://www.ergo-

online.de/site.aspx?url=html/arbeitsplatz/hardware/tastatur.htm.

West, L. J. (1998). The standard and dvorak keyboards revisited: Direct measures of speed.

Santa Fe: Santa Fe Institute.

Wiedenbeck, M. & Züll, C. (2001). Klassifikation mit Clusteranalyse: Grundlegende

Techniken hierarchischer und K-Means-Verfahren. ZUMA How-to-Reihe, 10.

Wikipedia (2008). Myers-Briggs-Typindikator. Zugriff am 11. 06. 2008, unter

http://de.wikipedia.org/wiki/Myers-Briggs-Typindikator.

Zhu, Z. & Ji, Q. (2007). Novel Eye Gaze Tracking Techniques Under Natural Head

Movement. IEEE Transactions on biomedical engineering, Vol. 54 (12).

„Ich habe mich bemüht, sämtliche Inhaber der Bildrechte ausfindig zu machen und ihre

Zustimmung zur Verwendung der Bilder in dieser Arbeit eingeholt. Sollte dennoch eine

Urheberrechtsverletzung bekannt werden, ersuche ich um Meldung bei mir.“ (gemäß

Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 82

Anhang

Abstrakt – Deutsch

Gemäß Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008.

Die vorliegende Arbeit handelt von der Human-Computer Interaction (HCI), im Speziellen

über die menschliche Interaktionen mit den wesentlichsten Eingabe- und Ausgabegeräten.

Im Zeitalter einer omnipräsenten Digitalisierung üben IT Systeme einen wesentlichen

Einfluss auf uns aus, sodass die Interaktion mit Computern zur täglichen Routine zählt.

Eines der vielfältigen Ziele des wissenschaftlichen Feldes der Mensch-Computer

Interaktion ist es, diese Interaktion und Kommunikation so einfach und bequem wie

möglich zu gestalten. Einführend werden Konzepte und Grundprinzipien der HCI, sowie

ihre Auswirkung auf gesetzliche Vorschriften, erläutert.

Mit Hilfe statistischer Methoden werden die Kundenpräferenzen bestimmt und Auskunft

über die Wichtigkeit von ausgewählten Merkmalen und deren Ausprägungen gegeben. Da

der Bildschirm, die Tastatur als auch die PC Maus zu den wichtigsten Aus- und

Eingabegeräten zählen, konzentriert sich die Studie auf diese Komponenten. Zur

Sammlung der erforderlichen Informationen wurde eine Online-Umfrage mit 110

Teilnehmern durchgeführt. Den Hauptteil bildet die Präsentation der Umfrage und deren

Ergebnisse, inklusive einer Conjoint Analyse, Cluster Analyse sowie einer

Assoziationsanalyse für die drei erwähnten Interaktionsgeräteklassen. Da die Umfrage

auch Informationen zu allgemeineren Themen, etwa über die Art der PC Nutzung oder

über ergonomische Aspekte erhebt, werden auch diese Resultate im Hauptteil präsentiert.

Darüber hinaus werden die einzelnen Hardwarekomponenten und deren historischen

Entwicklungen beschrieben.

Im Schlussteil werden die Zukunftsaussichten im Bereich der PC-Interaktionen angeführt,

vor allem soll hierbei auf die hoch entwickelten Virtual und Mixed Reality Interfaces

eingegangen werden.

Eine detaillierte Zusammenfassung in deutscher Sprache finden Sie im Kapitel Einleitung

und Motivation.

Abstract – English

Gemäß Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008

The following paper covers the interaction between humans and personal computers.

With ongoing digitalization IT systems have a powerful impact on our lives, thus making

the interaction between us and computers to a daily routine. One task of the field of

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 83

“Human-Computer Interaction” is to make this communication as easy and comfortable as

possible. The introduction describes general concepts of HCI and its impact on laws.

Statistical methods determine costumer preferences and the value of chosen features and

their levels. The study focuses on the keyboard, the computer mouse as well as the

monitor, as these components are the main input and output devices. Therefore an online

survey was performed to gather accurate data. The presentation of the outcome,

including a conjoint, cluster and association analysis, with a target/actual comparison,

forms the main part of this paper. Furthermore the survey deals with more general topics

which are not directly related to these three devices. In addition the main part contains a

description of the hardware components and their evolutions.

The following part offers future prospects, dealing with high sophisticated interfaces like

virtual and mixed reality. The closing contribution consists of a brief summary and

opinions of the author.

Lebenslauf: Wissenschaftlicher Werdegang

Gemäß Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008

aktuell Magisterstudium Wirtschaftsinformatik & Magisterstudium Informatikmanagement, Universität Wien

01.10.2001 – 29.06.2006 Bakkalaureatsstudium Wirtschaftsinformatik, Universität Wien

01.10.2000 – 29.11.2001 Diplomstudium Wirtschaftsinformatik, Universität Wien

1991 – 1999 Bundesrealgymnasium, Villach 1987 – 1991 Volksschule, Villach

SPSS Syntax für das orthogonale Design

Monitor:

ORTHOPLAN /FACTORS=Bilddiagonale (1 'klein' 2 'groß') Bildschirmformat (1 '4:3 (Standard)' 2 '16:10 (Wide)') Kontrast (1 'gering' 2 'hoch') Reaktionszeit (1 'schlecht' 2 'gut') Hochformat (1 'nicht möglich' 2 'möglich') Anpassung (1 'nicht möglich' 2 'nur Neigungswinkel' 3 'Höhe & Neigungswinkel') Lautsprecher (1 'nicht integriert' 2 'integriert') Kosten (1 '150 Euro' 2 '250 Euro' 3 '350 Euro') /OUTFILE='C:\*\*.sav'.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 84

Tastatur:

ORTHOPLAN /FACTORS=Ergonomisches_Design 'Ergonomisches Design' (1 'nein' 2 'ja') Windows_Tasten 'Windows-Tasten' (1 'nein' 2 'ja') Zusätzliche_Knöpfe 'Zusätzliche Knöpfe' (1 'nein' 2 'ja') Tastendrucktiefe (1 'gering' 2 'tief') Feedbackqualität (1 'niedrig' 2 'hoch') Anschluss (1 'kabellos' 2 'USB Anschluss') Neigungswinkel (1 'nicht verstellbar' 2 'verstellbar') Spritzwasserfestigkeit (1 'nein' 2 'ja') Kosten (1 '15 Euro' 2 '50 Euro' 3 '85 Euro') /OUTFILE='C:\*\*.sav'.

Maus:

ORTHOPLAN /FACTORS=Abtastgenauigkeit (1 'gering' 2 'hoch') Größe (1 'klein (Laptop)' 2 'Standardgröße') Oberfläche (1 'Plastik' 2 'Gummi') Ergonomisches_Design (1 'nein' 2 'ja') Gleitfähigkeit (1 'schlecht' 2 'gut') Anbindung (1 'kabellos' 2 'USB Anschluss') Anzahl_der_Tasten 'Anzahl der Tasten' (1 'Nur 2 Haupttasten' 2 'Nur 3 Haupttasten' 3 '2 Haupttasten & Navigationstasten' 4 '3 Haupttasten & Navigationstasten') Mausrad (1 'nein' 2 'ja') Kosten (1 '10 Euro' 2 '30 Euro' 3 '50 Euro') /OUTFILE='C:\*\*.

SPSS Syntax für die Conjoint Analyse

Monitor:

CONJOINT PLAN='C:\*\*.sav' /DATA='C:\*\*.sav' /SCORE=mos1 TO mos16 /SUBJECT=id /FACTORS= Bilddiagonale (discrete) Bildschirmformat(discrete) Kontrast(linear) Reaktionszeit(linear) Hochformat(discrete) Anpassung(discrete) Lautsprecher(discrete) Kosten (linear) /PRINT=ALL /PLOT = ALL /UTILITY = 'C:\*\*.sav'. Tastatur:

CONJOINT PLAN='C:\*\*.sav' /DATA='C:\*\*.sav' /SCORE=ts1 TO ts16 /SUBJECT=id /FACTORS= Ergonomisches_Design (discrete) Windows_Tasten (discrete) Zusätzliche_Knöpfe (discrete) Tastendrucktiefe (discrete) Feedbackqualität (linear) Anschluss (discrete)

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 85

Neigungswinkel (discrete) Spritzwasserfestigkeit (discrete) Kosten (linear) /PRINT=ALL /PLOT = ALL /UTILITY = 'C:\*\*.sav'. Maus:

CONJOINT PLAN='C:\*\*.sav' /DATA='C:\*\*.sav' /SCORE=ms1 TO ms16 /SUBJECT=id /FACTORS= Abtastgenauigkeit (linear) Größe (discrete) Oberfläche (discrete) Ergonomisches_Design (discrete) Gleitfähigkeit (discrete) Anbindung Anzahl_der_Tasten (discrete) Mausrad (discrete) Kosten (linear) /PRINT=ALL /PLOT = ALL /UTILITY = 'C:\*\*.sav'.

SPSS Syntax der Cluster Analyse für die Monitor-Komponente Nearest Neighbor: CLUSTER n_Bilddiagonale_klein n_Bilddiagonale_groß n_Bildschirmformat_43 n_Bildschirmformat_1610 n_Hochformat_nein n_Hochformat_ja n_Anpassung_keine n_Anpassung_Neigung n_Anpassung_NeiguHöhe n_Lautsprecher_nein n_Lautsprecher_ja n_Kontrast_niedrig n_Kontrast_hoch n_Reaktionszeit_schlecht n_Reaktionszeit_gut n_Kosten_niedrig n_Kosten_mittel n_Kosten_hoch /METHOD SINGLE /MEASURE=SEUCLID /ID=Id_String /PRINT SCHEDULE /PRINT DISTANCE /PLOT DENDROGRAM VICICLE. Ward: CLUSTER n_Bilddiagonale_klein n_Bilddiagonale_groß n_Bildschirmformat_43 n_Bildschirmformat_1610 n_Hochformat_nein n_Hochformat_ja n_Anpassung_keine n_Anpassung_Neigung n_Anpassung_NeiguHöhe n_Lautsprecher_nein n_Lautsprecher_ja n_Kontrast_niedrig n_Kontrast_hoch n_Reaktionszeit_schlecht n_Reaktionszeit_gut n_Kosten_niedrig n_Kosten_mittel n_Kosten_hoch /METHOD WARD /MEASURE=SEUCLID /ID=Id_String /PRINT SCHEDULE CLUSTER(2,4) /PRINT DISTANCE /PLOT DENDROGRAM VICICLE.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 86

Dendrogramme der Clusteranalysen

Monitor:

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 87

Tastatur: Maus:

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 88

Teilnutzen der Monitorcluster

-1,00

-0,80

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,60

0,80

1,001.

-0,50

-0,40

-0,30

-0,20

-0,10

0,00

0,10

0,20

0,30

0,40

0,502.

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,603.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 89

Teilnutzen der Tastaturcluster

-2,50

-2,00

-1,50

-1,00

-0,50

0,00

0,50

1,00

1,50

2,004.

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,601.

-0,80

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,602.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 90

Teilnutzen der Mauscluster

-2,00

-1,50

-1,00

-0,50

0,00

0,50

1,003.

-1,00

-0,80

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,60

0,80

1,004.

-0,50

-0,40

-0,30

-0,20

-0,10

0,00

0,10

0,20

0,30

0,40

0,501.

HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 91

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,602.

-0,80

-0,60

-0,40

-0,20

0,00

0,20

0,40

0,60

0,803.

-1,60

-1,40

-1,20

-1,00

-0,80

-0,60

-0,40

-0,20

0,00

0,20

0,404.