Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
Masterarbeit
Human Computer Interaction:
Analyse und Segmentierung von
PC- Peripheriegeräten
Verfasser:
Gregor J. Jessner
1150 Wien
Betreuung:
Univ. Prof. Dr. W. Grossmann
Angestrebter akademischer Grad: Diplom-Ingenieur (Dipl.-Ing.)
Studienkennzahl lt. Studienblatt: A 066 926
Studienrichtung lt. Studienblatt: Masterstudium Wirtschaftsinformatik
Ort und Jahr der Einreichung: Wien, 2008
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 1
Inhaltsverzeichnis
1. Abstrakt ................................................................................................................................... 3
2. Einleitung und Motivation ....................................................................................................... 3
3. Das Feld der Human-Computer Interaction ............................................................................ 5
3.1 Einführung ..................................................................................................................... 5
3.2 Historische Entwicklung ................................................................................................. 7
3.3 User Centered Design .................................................................................................... 8
3.4 Gesetzliches zur Bildschirmarbeit ................................................................................ 10
3.5 Standards ..................................................................................................................... 11
4. Hardware ............................................................................................................................... 13
4.1 Bildschirm .................................................................................................................... 13
4.1.1 Geschichtliche Entwicklung und Funktionsweise ........................................ 13
4.1.2 Bildschirme im Kontext der HCI ................................................................... 16
4.2 Tastatur ........................................................................................................................ 18
4.2.1 Geschichtliche Entwicklung und Funktionsweise ........................................ 18
4.2.2 Tastaturen im Kontext der HCI .................................................................... 23
4.3 Computermaus ............................................................................................................ 24
4.3.1 Geschichtliche Entwicklung und Funktionsweise ........................................ 24
4.3.2 Computermäuse im Kontext der HCI ........................................................... 27
4.4 Schnittstellen- Standards ............................................................................................. 28
4.4.1 Einführung ................................................................................................... 28
4.4.2 Serielle Schnittstelle .................................................................................... 29
4.4.3 Parallele Schnittstelle .................................................................................. 30
4.4.4 PS/2 Schnittstelle ......................................................................................... 31
4.4.5 Universal Serial Bus ...................................................................................... 32
5. Vorgehensweise und verwendete statistische Methoden .................................................... 34
5.1 Conjoint Analyse .......................................................................................................... 34
5.2 Clusteranalyse .............................................................................................................. 36
5.3 Assoziationsanalyse ..................................................................................................... 38
5.4 Vorgehensweise........................................................................................................... 39
6. Die Datenerhebung ............................................................................................................... 42
6.1 Statistischer Hintergrund ............................................................................................. 42
6.2 Erstellung des Fragebogens ......................................................................................... 43
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 2
6.3 Der Vor-Test ................................................................................................................ 47
6.4 Der Fragebogen ........................................................................................................... 48
6.5 Die Umfrageteilnehmer .............................................................................................. 50
7. Die Analyse ............................................................................................................................ 51
7.1 Auswertung der allgemeinen Fragestellungen ........................................................... 51
7.2 Auswertung der Monitore .......................................................................................... 55
7.2.1 Betrachtung der Ist–Situation ..................................................................... 55
7.2.2 Betrachtung der Soll–Situation ................................................................... 56
7.3 Auswertung der Tastaturen ........................................................................................ 60
7.3.1 Betrachtung der Ist–Situation ..................................................................... 60
7.3.2 Betrachtung der Soll–Situation ................................................................... 61
7.4 Auswertung der Computermäuse ............................................................................... 64
7.4.1 Betrachtung der Ist–Situation ..................................................................... 64
7.4.2 Betrachtung der Soll–Situation ................................................................... 66
7.5 Komponentenübergreifende Ergebnisse der Analyse ................................................ 69
8. Ausblick auf die Zukunft der Hardware-HCI ......................................................................... 71
8.1 Virtual & Mixed Reality ............................................................................................... 71
8.2 Eingabe mittels Blickrichtung ...................................................................................... 76
9. Conclusio ............................................................................................................................... 78
10. Literatur- und Quellenverzeichnis ...................................................................................... 79
Anhang ...................................................................................................................................... 82
Abstrakt – Deutsch ............................................................................................................ 82
Abstract – English .............................................................................................................. 82
Lebenslauf: Wissenschaftlicher Werdegang ..................................................................... 83
SPSS Syntax für das orthogonale Design ........................................................................... 83
SPSS Syntax für die Conjoint Analyse ................................................................................ 84
SPSS Syntax der Cluster Analyse für die Monitor-Komponente ....................................... 85
Dendrogramme der Clusteranalysen ................................................................................ 86
Teilnutzen der Monitorcluster .......................................................................................... 88
Teilnutzen der Tastaturcluster .......................................................................................... 89
Teilnutzen der Mauscluster .............................................................................................. 90
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 3
“I’m a very selfish designer: when I design software, I design it for me. And so my first task is to become you.”
Bruce Tognazzini, 1995
1. Abstrakt
Die vorliegende Arbeit handelt von der Human-Computer Interaction (HCI). Im Speziellen
wird hierbei die menschliche Interaktion mit den wesentlichsten Eingabe- und
Ausgabegeräten analysiert. Im Zeitalter einer omnipräsenten Digitalisierung üben IT
Systeme einen wesentlichen Einfluss auf uns aus, sodass die Interaktion mit Computern
zur täglichen Routine zählt. Eines der vielfältigen Ziele des wissenschaftlichen Feldes der
Mensch-Computer Interaktion ist es, diese Interaktion und Kommunikation so einfach und
bequem wie möglich zu gestalten. Einführend werden Konzepte und Grundprinzipien der
HCI, sowie ihre Auswirkung auf gesetzliche Vorschriften, erläutert.
Mit Hilfe statistischer Methoden werden die Kundenpräferenzen bestimmt und Auskunft
über die Wichtigkeit von ausgewählten Merkmalen und deren Ausprägungen gegeben. Da
der Bildschirm, die Tastatur als auch die PC Maus zu den wichtigsten Aus- und
Eingabegeräten zählen, konzentriert sich die Studie auf diese Komponenten. Zur
Sammlung der erforderlichen Informationen wurde eine Online-Umfrage mit 110
Teilnehmern durchgeführt. Den Hauptteil bildet die Präsentation der Umfrage und deren
Ergebnisse, inklusive einer Conjoint Analyse, Cluster Analyse sowie einer
Assoziationsanalyse für die drei erwähnten Interaktionsgeräteklassen. Da die Umfrage
auch Informationen zu allgemeineren Themen, etwa über die Art der PC Nutzung oder
über ergonomische Aspekte erhebt, werden auch diese Resultate im Hauptteil präsentiert.
Darüber hinaus werden die einzelnen Hardwarekomponenten und deren historischen
Entwicklungen beschrieben.
Im Schlussteil werden die Zukunftsaussichten im Bereich der PC-Interaktionen angeführt,
vor allem soll hierbei auf die hoch entwickelten Virtual und Mixed Reality Interfaces
eingegangen werden.
2. Einleitung und Motivation
Ziel der Arbeit ist die Untersuchung der hardwarespezifischen Interaktion zwischen PC-
Systemen und deren Benutzer. Im Fokus der Untersuchung stehen die verbreitesten
Peripheriesysteme, die bei der Eingabe sowie Ausgabe von Information behilflich sind.
Diese Komponenten sind die Bildschirme bei den Ausgabegeräten, bei den Eingabegeräten
werden Tastaturen und Computermäuse untersucht. Erforscht wird die Wichtigkeit
bestimmter Merkmale und wie sich deren Ausprägungen auf den Gesamtnutzen des
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 4
Benutzers auswirken. Homogene Nutzergruppen werden identifiziert und an ihre
Bedürfnisse angepasste Geräte vorgestellt.
Im dritten Abschnitt der Arbeit geht der Autor auf die wesentlichen Aspekte der Human
Computer Interaction (HCI) ein. Neben den Begriffserklärungen und der geschichtlichen
Entwicklung soll eine Einführung in das Thema präsentiert werden. So werden das
Konzept des User Centered Designs und Regeln beziehungsweise Richtlinien für eine
gesundheitsschonende Interaktion mit dem PC vorgestellt. Darüber hinaus wird auf
gesetzliche Bestimmungen eingegangen.
Das vierte Kapitel befasst sich mit den technischen Details zum Thema
Computerperipherie und gibt einen Überblick über deren geschichtliche Entwicklung.
Erläutert werden die vielfältigen Standards zum Verbinden von Ein- und Ausgabegeräten,
aber auch sonstiger externer Hardware mit dem PC.
Das folgende, fünfte Kapitel erklärt die statistischen Methoden, die in der Auswertung der
Umfrage angewandt werden. Diese sind die Conjoint Analyse als Basis für die weitere
Auswertung, sowie die Clusteranalyse und die Assoziationsregeln, die auf den Ergebnissen
der Conjoint Analyse aufbauen.
Details zur Erstellung und Verteilung des Fragebogens und Ähnlichem erhalten Sie im
Kapitel Datenerhebung. Hierzu zählt auch die Durchführung des Pretests. Der Abschluss
dieses Abschnitts ist der Beschreibung der demographischen Daten der
Umfrageteilnehmer gewidmet.
Kapitel 7 ist der Auswertung der zu analysierenden Komponenten gewidmet. Als
Nebenprodukt der Arbeit sollen unter Anderem allgemeinere Fragen zum
Computergebrauch beantwortet werden. Beispielhaft wird ermittelt, wie lange täglich am
PC gearbeitet wird, ob gesundheitliche Beschwerden auftreten, die Anzahl der PCs im
Besitz, usw. Mit Hilfe statistischer Methoden werden die Kundenpräferenzen bestimmt
und so Auskunft über die Wichtigkeit von Merkmalen und deren Ausprägungen geben. Da
eine individuell angepasste Produktion der einzelnen Ein- und Ausgabegeräte kaum
sinnvoll beziehungsweise möglich ist, sollen daher mit Hilfe der Clusteranalyse einzelne
Marktsegmente identifiziert werden. Diesen Segmenten kann anschließend ein
Idealprodukt zugeteilt werden. Nach Definieren der einzelnen Marktsegmente für jedes
einzelne Eingabe- und Ausgabesystem kann mit Hilfe von Assoziationsregeln ein Vergleich
zwischen den Peripheriegeräten durchgeführt werden. Unter Umständen sind häufige
Marktsegmentkombinationen identifizierbar. So lassen sich auch die Präferenzen einer
Person für ein bestimmtes Produkt vorhersagen, wenn ihre Daten über die
Wunschvorstellungen der anderen Ein- und Ausgabegeräte vorhanden sind.
Im folgenden Abschnitt möchte der Autor auf die Zukunftsperspektiven der
Computerinteraktion, mit dem steten Fokus auf die Hardware, eingehen. Wesentlichen
Einfluss auf zukünftige Anwendungen scheint neben anderen Technologien die Virtual und
Mixed Reality auszuüben. Diese fortschrittlichen, interaktiven User Interfaces sind zwar
bereits länger Forschungsobjekte, sind allerdings noch zu teuer für eine weite
Verbreitung.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 5
Im Abschluss werde ich eine kurze Zusammenfassung der Arbeit geben. Ebenso sind in der
Conclusio Gedanken des Autors zur Durchführung der Studie und des Themengebietes
enthalten.
Meine Motivation zur Auswahl dieses Themas ist zum Ersten das Interesse an der
Computerhardware. Dies betrifft zum Einen die Technik der verschiedenen
Computerkomponenten, deren Funktionsweisen und Geschichte. Zum Anderen
interessiert sich der Autor nicht nur für die Theorie hinter der Hardware, sondern ist auch
dem Assembling zugetan.
Der zweite Punkt, das Interesse an der Ergonomie, beruht auf eigenen regelmäßig
auftretenden Schmerzen während längerer Computerbedienung. Somit geht die Arbeit
auch auf diese Aspekte ein, erläutert mögliche Gesundheitsrisiken und bietet Vorschläge
zu deren Minderung an, umreißt aber ebenso die rechtlichen Vorgaben durch die Republik
Österreich.
3. Das Feld der Human - Computer Interaction
3.1 Einführung
Das wissenschaftliche Feld der HCI ist eine junge Disziplin, die sich, stark vereinfacht
ausgedrückt, mit den Formen der Interaktion zwischen Computern und deren Benutzern
auseinandersetzt. Eine häufig anzutreffende Definition stammt von der Association for
Computing Machinery (ACM). Demnach ist die Human-Computer Interaction „a discipline
concerned with the design, evaluation and implementation of interactive computing
systems for human use and with the study of major phenomena surrounding them.”
(Hewett, Baecker, Card, Carey, Gasen, Mantei, Perlman, Strong & Verplan, 1992).
Auch wenn es mehrere Definitionen der HCI gibt, so ist man sich einig, dass die HCI aus
vielen Einzeldisziplinen besteht. Zu diesen zählen nach Stone, Jarrett, Woodroffe und
Minocha (2005) die Informatik inklusive technischer Informatik, Psychologie, Ergonomie
und Grafikdesign. Für Shneiderman (1998) tragen darüber hinaus auch die Soziologie und
Anthropologie einen wichtigen Anteil bei. Je nach Herkunft der Spezialisten ergibt sich
eine andere Sicht auf das Thema, für ACMs Fachgruppe Special Interesst Group in
Computer-Human Interaction (SIGCHI) ist das zentrale Element die Informatik, alle
anderen Wissenschaften dienen als unterstützende Gebiete. Einen guten Überblick über
die jeweiligen Fachgebiete und deren Beitrag zur HCI bietet Shneiderman (1998) an:
Die Theorien über menschliche motorische und geistige Leistungen stammen meist
aus den Richtungen der Psychologie, Ergonomie und teilweise aus der Informatik
selbst.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 6
Den Software Designern schreibt Shneiderman das Vorantreiben der
Informationsrepräsentation zu. Hierzu zählen neben den grafischen Formen auch die
nicht-visuellen Sinneskanäle, explizit wird die Nutzung von Tönen und Geräuschen
erwähnt. Außerdem erwähnt Shneiderman die Virtual Reality, auf die in dieser Arbeit
im Kapitel 7 näher eingegangen wird.
Die Verbesserung der Hardwarekomponenten geschieht durch Hardware- und
Systementwickler. Sie untersuchen die für die HCI wesentlichen, auch in dieser Studie
im Mittelpunkt stehenden, Eingabe- und Ausgabegeräte.
Für Soziologen, Anthropologen und sogar Philosophen eignen sich Untersuchungen
der menschlichen Komponente der HCI, zum Beispiel die Auswirkungen auf soziale
Veränderungen oder Änderungen in der Arbeitswelt.
Diese Aufzählung ist natürlich nicht vollständig. Sie soll jedoch vorführen, dass die HCI ein
sehr breites interdisziplinäres Feld mit einer großen Anzahl an Aufgabenstellungen ist.
Die HCI beschäftigt sich nicht nur mit der Nutzung von PCs, sondern schließt alle Arten von
Computern ein. Somit fallen auch Mainframes, integrierte Computersysteme und ähnliche
Produktgruppen in diese Kategorie. Daraus ergibt sich eine klare Abgrenzung zum sehr
ähnlichen Feld der Man-Machine Interaction, das darüber hinaus auch alle anderen Arten
von Maschinen einbezieht. Der Fokus auf die IT unterscheidet diese Disziplin auch von der
Ergonomie, die oft auch als Human Factors bezeichnet wird. Dieses Feld geht noch einen
Schritt weiter und befasst sich mit der menschlichen Interaktion mit allen erzeugten
Produkten (Hewett, Baecker, Card, Carey, Gasen, Mantei, Perlman, Strong & Verplan,
1992).
Für Shneiderman (1998) ist das ultimative Ziel der HCI die Verbesserung der quality of life
des Computernutzers. Jede von ihm zu erledigende Aufgabe soll unter Berücksichtigung
der individuellen Eigenschaften und Merkmale durchzuführen sein. Betrachtet man ein
Computersystem, so soll dieses unter Berücksichtigung der Aufgaben, die an es gestellt
werden, entwickelt werden. An ein PDA werden selbstverständlich andere Software- und
Hardwareanforderungen gestellt als an ein Computerprogramm für Spezialisten oder ein
öffentliches Ticketterminal an einem Bahnhof. Daher soll das System die entsprechenden
zentralen Arbeitsprozesse bestmöglich unterstützen.
Allerdings erwarten sich die User nicht nur innerhalb eines Systems oder Anwendung eine
gewisse Konsistenz, sondern auch übergreifend: Das Bild einer Diskette soll den
Speicherbefehl ausführen, dessen Bedeutung seit Computeranfängen die gleiche ist,
anstatt den Benutzer mit einer neuen Funktion zu Überaschen. Unzählige Standards von
Unternehmen, unabhängigen Organisationen und de-facto Standards sind maßgeblich am
Design beteiligt. Einen detaillierteren Überblick über die Standards und Vorgehensweisen
erhalten Sie in den Kapiteln 3.3 bis 3.5.
Ein wesentlicher Begriff der HCI ist das User Interface. Darunter werden in diesem Kontext
alle Komponenten zusammengefasst, die eine Kommunikation mit einem Computer
ermöglichen. Stone, Jarrett, Woodroffe und Minocha (2005, S.4) bezeichnen das User
Interface als „that part of the computer system with which a user interacts in order to
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 7
undertake his or her tasks and achieve his or her goals“. Für einen typischen PC würden
hierzu nebst der entsprechenden Software ein Monitor als Ausgabegerät, sowie eine
Tastatur und eine Maus als Eingabegeräte fungieren. Diesen drei Peripheriegeräten
werden in dieser Studie besondere Aufmerksamkeit geschenkt. Die immense Wichtigkeit
der User Interfaces für deren Benutzer zeigt sich, dass für viele Personen das User
Interface nicht nur der Kommunikation dient, sondern das gesamte Computersystem
ausmacht – oder in den Worten der eben erwähnten Autoren: „*…+ to users the interface
often is the system.“ (Stone, Jarrett, Woodroffe & Minocha, 2005, S.4).
3.2 Historische Entwicklung
Aufgrund der vielen Teilgebiete der HCI ist es nicht einfach einen genauen Zeitpunkt als
Anfang festzulegen. Jede Disziplin hat ihren Beitrag geleistet, sodass kaum ein bestimmtes
Jahr als Geburtsjahr bestimmt werden kann.
Ein wichtiges Datum der vergangenen HCI ist für J. Canny (2006) das Jahr 1973. Zu dieser
Zeit, bereits bevor IBM mit dem PC eine neue Ära der Computergeschichte begründete,
überwiegen Minicomputer und Großrechner. Getrieben von der Vision, Computer für
jedermann herzustellen, veröffentlicht Xerox PARC seinen Alto Desktop Computer. Dass
dieser PC- Vorläufer niemals kommerziell erfolgreich wurde ordnet Canny den Umständen
zu, dass für den Alto trotz seiner technischen Qualitäten zu wenig Marktforschung
betrieben wurde, das System keinen Software-Verkaufsschlager besaß, noch wurde
dessen Software benutzerfreundlich gestaltet. Demgegenüber stellt er den von Xerox
1976 entwickelten Star vor, der seiner Meinung zu Recht als Begründer der HCI gilt.
Entscheidenden Anteil an der Benutzerfreundlichkeit ist insbesondere dem Windows,
Icons, Mouse, Pointer (WIMP)-Paradigma mit dessen grafischer Benutzeroberfläche
zuzuschreiben - und auf diese Art den Computern den Weg zur Nutzung durch die
Allgemeinheit ebnete (Canny, 2006). Allerdings konnte auch dieser Computer nie die
erhoffte Popularität erringen, entgegen des ausgezeichneten Interfacedesigns, des
ausgereiften Entwicklungsprozesses für die Softwareherstellung und der
benutzerfreundlichen Gestaltung. Der Grundgedanke des WIMP Paradigmas ist allerdings
noch heute in den meisten Anwendungen erkennbar.
Die nahe Zukunft der HCI scheint aufregend und vielversprechend zu werden. Die stetig
steigende Verbreitung von Computern aller Art, zunehmende Automatisierung und
technischer Fortschritt garantieren eine intensive Auseinandersetzung mit HCI-
spezifischen Themen. Als Beispiele für zukünftig wichtige Forschungsbereiche nennt
Shneiderman (1998) die Reduzierung der Computerangst, eine automatische Anpassung
der Programme an die steigenden Programmkenntnisse der Benutzer, die Entwicklung
fortgeschrittener Werkzeuge zur Definition und Implementierung von Interaktionen sowie
das Vorantreiben der aktuellen User Interface Hardware. Canny (2006) erhofft sich von
zukünftigen Entwicklungen Verbesserungen im Bereich der kontextabhängigen Mensch
Computer Interaktion. Dies bedeutet, dass unter Berücksichtigung der
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 8
benutzerspezifischen Historie, umweltbedingter und situativer Faktoren und Ähnliches
intelligente Interaktionen ermöglicht werden.
3.3 User Centered Design
Ein wesentlicher Gedanke der HCI ist die Anpassung der Benutzerschnittstellen an den
Systembediener. Die User-Centered Design (UCD) Methode ist ein Ansatz, der Herstellern
bestmöglich bei der Umsetzung dieses Gedankens unterstützen soll. UCD basiert auf dem
internationalen Standard ISO 13.407 Human-Centered Design Process. Da es nicht
ausreicht, nur den zukünftigen Benutzer und dessen Aufgaben zu identifizieren,
beschäftigt sich diese Methode auch mit dessen organisationeller, physischer und sozialen
Umgebung (Stone, Jarrett, Woodroffe & Minocha, 2005).
UCD basiert auf einem iterativen Entwicklungsprozess mit einer frühestmöglichen, starken
Einbindung der zukünftigen Benutzer. Stone empfiehlt für UCD Projekte den in Abbildung
1 dargestellten Star Life Cycle als Vorgangsmodell zu wählen. Er unterstützt ihrer Meinung
nach ausgezeichnet den iterativen
Gedanken und verdeutlicht mit der
zentral positionierten Evaluierung die
Wichtigkeit der Usereinbindung. Die
Einbindung der Benutzer beginnt
üblicherweise bei der Erfassung der
Anforderungen. Dabei sollten neben
den zukünftigen Nutzern auch alle
anderen Stakeholder mit berechtigtem
Interesse am neuen Interface
eingebunden werden. Weitere Phasen mit wesentlicher Einbindung sind laut dem
erwähnten Autorenteam während der Prototypentwicklung und –bewertung, kurz vor
Einführung des Systems und während der Schulungen.
Neben der Auswahl des passenden Vorgehensmodells sind auch personelle Ressourcen
auschlaggebend für den Erfolg. So soll das Entwicklerteam umfassende Kenntnis der HCI
besitzen und somit auf Ressourcen der bereits erwähnten unterschiedlichen
unterliegenden Wissensfelder zurückgreifen können.
Wenn das Ziel vorgegeben wird, eine bestmögliche Anpassung an den Benutzer zu
erreichen, muss auf dessen Besonderheiten eingegangen werden. Dabei müssen insofern
Abstriche gemacht werden, dass die Ausrichtung anhand einer Zielgruppe erfolgt, da es
nicht üblich und sinnvoll ist, auf jedes Individuum gesondert zu agieren. Ein unerlässliches
Kriterium sind die physischen Merkmale. Die Anthropologie, die sich mit der Entwicklung
und den Unterschieden der menschlichen körperlichen Eigenschaften beschäftigt, stellt
für diese Zwecke ausreichend Unterlagen zur Verfügung. Von besonderem Interesse für
die Gestaltung von Hardware-Benutzerschnittstellen sind die Körpermaße. Allerdings gibt
Shneiderman (1998) zu bedenken, dass es keinen „Durchschnittsbenutzer“ gibt, und daher
Abbildung 1: Star Life Cycle als UCD- Prozess (nach Stone et al., 2005)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 9
im Falle einer einheitlichen Produktentwicklung für die Teilmenge der Benutzer, die weit
vom Mittelwert der Zielgruppe gestreut sind, etliche Abstriche vom Ideal gemacht werden
müssen. Neben den Körpermaßen betont Shneiderman (1998) noch die Wichtigkeit von
dynamischen Aktionen – darunter versteht er etwa die Größe der Zugriffsfläche in
sitzender Position oder die Muskelkraft – und Wahrnehmungsfähigkeiten, vor allem
visuelle Merkmale stehen hierbei im Mittelpunkt.
Verständlicherweise sind auch kulturelle Unterschiede zu beachten. Die Sprache, deren
Buchstaben und Zeichen, und nationale Maßeinheiten sind offensichtliche kulturelle
Differenzen. Verhaltensmuster sowie Gedankenmodelle sind komplizierter zu
identifizieren, sollten allerdings ebenfalls nicht vernachlässigt werden. Wie wichtig
Lokalisierungen sind kann aus Hardwaresicht anhand der erhältlichen Tastaturvarianten
veranschaulicht werden. Viele Sprachen enthalten Sonderzeichen, sodass zusätzliche
Tasten gegenüber dem amerikanischen 104-tastigen Standardmodell zur Verfügung
stehen müssen, oder benutzen gar ein anderes Zeichensystem. So erlauben kyrillische
oder Tastaturen für asiatische Sprachen neben den lokalen Zeichensätzen meist eine
Eingabe lateinischer Buchstaben. Nicht lokalisierte Tastaturen haben gegenüber lokalen
Konkurrenzprodukten kaum Marktchancen. Ähnliches gilt für den Softwarebereich.
Shneiderman (1998) führt als einen weiteren Faktor zur Gestaltung benutzerzentrierter
Userinterfaces die persönlichen Unterschiede an, wobei er hier dem Geschlecht des
Benutzers eine wesentliche Bedeutung zuschreibt und dies anhand von bevorzugten
Lieblingsspielen und –genres verdeutlicht. Als Unterstützung zur Kategorisierung der
Persönlichkeit empfiehlt er die Verwendung des Myers-Briggs Type Indicator (MBTI), das
auf Carl Gustav Jungs Theorie der vier Archetypen aufbaut (Abb. 2). Diese kostenpflichtige
Methode ist im Eigentum des Unternehmens CPP, welche MBTI in erster Linie als
Werkzeug für Karriereberater und das Personalmanagement bewirbt (CPP, 2008). Frei
zugängliche Varianten wurden jedoch ebenfalls entwickelt.
Abbildung 2: Kategorisierung der Persönlichkeit mit Hilfe der 8 MBTI-Dimensionen (nach Shneiderman, 1998; Wikipedia, 2008)
Die MBTI Methode baut auf einen umfassenden Fragebogen mit dichotomen
Antwortmöglichkeiten auf. Nach der Auswertung erfolgt die Einteilung in eine von 16
möglichen Persönlichkeitskategorien mit detaillierten Erläuterungen zum
Persönlichkeitstyp.
Der Fokus der UCD- Methode auf die Benutzer und deren Aufgaben, zusammen mit dem
vom Entwicklungsteam zur Verfügung gestelltem HCI-Wissen, sollen die
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 10
Entwicklungskosten senken, Benutzerzufriedenheit und Effizienz steigern. Dies trifft für
die Softwaregestaltung ebenso zu wie für Hardwarekomponenten.
3.4 Gesetzliches zur Bildschirmarbeit
Zum Schutze ihrer Bürger beschäftigen sich auch Gesetzesgeber mit der HCI, im Speziellen
mit der Ergonomie. Im Vordergrund stehen hierbei für die europäischen Staaten
gesundheitliche und sicherheitstechnische Aspekte (Billingsley, 1994). Relevante
österreichische gesetzliche Grundlagen sind im ArbeitnehmerInnenschutzgesetz (ASchG
BGBI. 450/1995) und in der Bildschirmarbeitsverordnung (BS-V BGBI. II 124/1998)
verankert. Im Paragraph 67 des ArbeitnehmerInnenschutzgesetzes definiert man
Bildschirmarbeitsplätze als „Arbeitsplätze, bei denen das Bildschirmgerät und die
Dateneingabetastatur oder sonstige Steuerungseinheit sowie gegebenenfalls ein
Informationsträger eine funktionale Einheit bilden“. (ASchG, §67). Dieser und der folgende
Paragraph regeln innerhalb von 13 Absätzen die Pflichten der Arbeitgeber gegenüber den
Bildschirmarbeitern, bleiben allerdings recht vage und lassen Platz für unterschiedliche
Interpretationen. Zusammenfassend werden die folgenden Punkte angesprochen:
Die Pflicht zur ergonomischen
Gestaltung der Arbeitsplatzmittel
und Arbeitsumgebung.
Die Ein- und Ausgabegeräte
müssen dem Stand der Technik
entsprechen.
Für eine angemessene Beleuchtung
und Platzangebot ist zu sorgen.
Verwendung von an die Tätigkeit
und dem Benutzer angepasster
Software.
Verpflichtende Pausen oder
Unterbrechungen.
Arbeitnehmer haben ein Recht auf
kostenlose, regelmäßig
wiederkehrende Untersuchungen des Sehvermögens sowie auf eventuelle Sehhilfen.
Die Bildschirmarbeitsverordnung klärt in fünf Abschnitten und 17 Paragraphen weitere
Details zum gesetzlichen Zustand. Der erste Abschnitt, inklusive einer Referenz zum
ArbeitnehmerInnenschutzgesetz, befasst sich mit dem Geltungsbereich der Verordnung.
Darüber hinaus definiert der Gesetzesgeber, dass eine Arbeit als Bildschirmarbeit
klassifiziert wird, wenn pro Arbeitstag durchgehend zwei Stunden, oder drei Stunden bei
gewährten Pausen, mit Bildschirmarbeit ausgefüllt werden.
Laut zweitem Abschnitt müssen die erwähnten Arbeitsmittel vorgeschriebene
Bedingungen erfüllen um zugelassen zu werden. Abbildung 3 führt wesentliche Kriterien
Abbildung 3: Kriterien für Arbeitsmittel
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 11
für diese an. Des Weiteren steht den Arbeitnehmern das Recht auf eine Fußstütze zu,
wenn diese erforderlich sein sollte. Zum Thema der Beleuchtung steht in der Verordnung,
dass sie keine unnötigen Störungen an den Arbeitsmitteln verursachen dürfen, Fenster
müssen verdunkelbar sein. Bildschirme sind, wenn möglich, so aufzustellen, dass die
Blickrichtung und Fensterreihe parallel zueinander sind. Die Regelung der Pausenzeit für
ununterbrochene Bildschirmarbeit stellt einen weiteren zentralen Punkt der Verordnung
dar. Hierbei gibt es unterschiedliche, jedoch gleichwertige Arten. Die erwähnte Pause
kann in einem Tätigkeitswechsel oder in einer echten Pause bestehen, wobei Pausen nach
§ 10.(5) in die Arbeitszeit einzurechnen sind. Ebenso wie im
ArbeitnehmerInnenschutzgesetz wird auch in der Bildschirmarbeitsverordnung das Recht
auf eine Augenuntersuchung und einer Sehhilfe erwähnt. Vorschriftsmäßig müssen
Tastaturen neigbar sein, obwohl aus gesundheitlicher Sicht eine möglichst flache
Tastaturlage zu empfehlen wäre. Zu steil eingestellte Tastaturen können die Blutgefäße,
Sehnen und Nerven in Handgelenksnähe einengen und damit Schmerzen und
Gesundheitsrisiken fördern (Wittig-Goetz, 2008).
3.5 Standards
Für alle denkbaren Bereiche der HCI sind Standards und Richtlinien verfügbar. Erstellt
werden sie von Organisationen und Unternehmen für internationale oder nationale
Ebenen. Eine der wichtigsten Institutionen ist die International Organization for
Standardization (ISO). Sie veröffentlicht in regelmäßigen Abständen neue,
gebührenpflichtige Standards unter dem Begriff „Ergonomie der Mensch-System-
Interaktion“, auch als ISO 9241 bekannt. Teile, die vor 2006 veröffentlicht wurden, tragen
allerdings noch den ursprünglichen Titel „Ergonomische Anforderungen für
Bürotätigkeiten mit Bildschirmgeräten“ (vgl. ISO, 2008). Folgende Teile werden auf der
Homepage http://www.iso.org der Organisation zum Kauf angeboten:
9241-1:1997 General Introduction
9241-2:1992 Guidance on task requirements
9241-3:1992 Visual display requirements
9241-4:1998 Keyboard requirements
9241-5:1998 Workstation layout and postural requirements
9241-6:1999 Guidance on the work environment
9241-7:1998 Requirements for display with reflections
9241-8:1997 Requirements for displayed colours
9241-9:2000 Requirements for non-keyboard input devices
9241-11:1998 Guidance on usability
9241-12:1998 Presentation of information
9241-13:1998 User guidance
9241-14:1997 Menu dialogues
9241-15:1997 Command dialogues
9241-16:1999 Direct manipulation dialogues
9241-17:1998 Form filling dialogues
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 12
9241-20:2008 Accessibility guidelines for information/communication technology (ICT) equipment and services
9241-110:2006 Dialogue principles
9241-151:2008 Guidance on World Wide Web user interfaces
9241-171:2008 Guidance on software accessibility
9241-400:2007 Principles and requirements for physical input devices
9241-410:2008 Design criteria for physical input devices
Für die Hardware sind daher die Standardteile drei, vier und sieben bis neun interessant.
Bildschirme werden in den Teilen drei, sieben und acht behandelt, wobei jeder Teil im
Schnitt 29 Seiten aufweist und 71 Euro kostet. Der Rest der aufgezählten Teile beschäftigt
sich mit den Inputgeräten, sie sind um je 70 Euro erhältlich und umfassen 27 Seiten. Teil
vier handelt von den Tastaturen, alle sonstigen Eingabegeräte werden im neunten Teil
zusammengefasst.
Selbstverständlich gibt es neben diesen speziell erwähnten Standards zahlreiche weitere
Standards und Regeln, die die HCI direkt oder indirekt betreffen. Allerdings soll auf diese
an dieser Stelle nicht weiter eingegangen werden.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 13
4. Hardware
4.1 Bildschirm
4.1.1 Geschichtliche Entwicklung und Funktionsweise
Der Bildschirm ist das Ausgabegerät des PCs schlechthin. Als grafische Geräte nutzen sie
zur Informationsrepräsentation den für Menschen optimalen visuellen Sinneskanal.
Insofern ist es nicht verwunderlich, dass jeder PC einen angeschlossenen Monitor
voraussetzt. Im Gegensatz zu konkurrierenden Ausgabegeräten überzeugt er durch seine
sofortige Synchronisierung und der reichhaltigen Informationsdarstellung in hoher
Bildqualität. Trotz der von Shneiderman (1998) aufgezählten potentiellen
Gesundheitsrisiken der visuellen Ermüdung, Stress und Strahlungsaussetzung gibt es keine
echten Alternativen zum Monitor. Das hartnäckige Gerücht der früheren PC-Geschichte,
der Bildschirm mache generell krank, kann heutzutage getrost beiseite geschoben
werden.
Frühe Computer integrierten den Bildschirm in das Computergehäuse und bildeten eine
gemeinsame Einheit. Seit der Trennung, die durch IBMs ersten PC 1981 Verbreitung
erlangte, verwendet man als Synonym auch den Begriff Monitor. Bildschirme basierten bis
vor Kurzem auf der von F. Braun 1897 erfundenen Kathodenstrahlröhrentechnologie (CRT)
(Abb. 4).
Abbildung 4: Aufbau von Kathodenstrahlenröhren (nach Wikipedia, Kathodenstrahlröhre, 2006)
Hierbei werden Elektronen mit hoher Geschwindigkeit aus einer Kathode geschossen und
mit Hilfe eines magnetischen Feldes zur gewünschten Position gelenkt. Auf diese Weise
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 14
wird der Elektronenstahl zeilenweise vom ersten linken Bildpunkt der obersten Zeile bis
zum letzten Pixel der rechten, unteren Ecke geführt. Anschließend beginnt der Kreislauf
von vorne. Die Zeit um diese Strecke zurückzulegen, die Wiederholrate, ist ein
wesentliches Leistungsmerkmal. Ein zu langsamer Bildaufbau ist deutlich als Flimmern des
Bildes erkennbar. Als Bündelungshilfe dient die Lochmaske, die je nach Ausführungsart die
Bildpunkte in Form eines gleichschenkligen Dreieckes (Deltaröhre), streifenförmig
(Triniton-Röhre) oder rechteckig (In-Line-Röhre) anordnet. Die auf der
Bildschirmoberfläche aufschlagenden Elektronen bringen die dort angebrachte
Phosphorschicht zum Leuchten. Aufgrund der geringen Wiederholraten erfreute sich der
grünfärbige P39 Phosphor bei den Herstellern der frühen Ära großer Beliebtheit. Seine
langanhaltende Leuchtkraft kann die geringen Wiederholraten zumindest teilweise
kompensieren (Shneiderman, 1998), sodass das störende Flimmern gemindert wird. Frühe
Modelle erlauben nur monochrome Darstellungen. Zur Darstellung von Farben bestehen
die Bildpunkte aus je einer rot-, grün- und blaufärbigen Subeinheit. Allerdings sind drei
Kathoden nötig um jeden Farbpunkt mit einer eigenen Intensität zu beschießen und so
durch eine additive Mischung andere Farbtöne herzustellen.
Heutzutage gelten Kathodenstrahlröhren als
veraltet. Abgelöst werden sie von Plasma- und den
im Computerbereich bevorzugten
Flüssigkristalltechnologien (LC). Die
Flüssigkeitskristalle selbst erzeugen kein Licht. Da
sie auf eine Hintergrundbeleuchtung angewiesen
sind spricht man von passiven Displays. Die
Eigenschaft der Flüssigkristalle, bei Stromanlegung
die Lichtbrechungsrichtung zu verändern und somit
zu verdunkeln, und bei der Freilassung in den
durchsichtigen Zustand zurück zu wechseln, ist
bereits seit Mitte des 20. Jahrhunderts bekannt.
Wie der Name bereits andeutet, sind sie sowohl
flüssig als auch dank ihrer kristallinen Eigenschaft
anisotrop, können also je nach Ausrichtung Einfluss
auf den Lichtverlauf nehmen. Die Ausrichtung der
stabförmigen Flüssigkristalle geschieht mittels Magnetfeld. In Abbildung 5 sehen Sie den
Aufbau einer LCD Zelle. Ein Glas umschließt die Zelle. Der erste Polarisationsfilter filtert
alle nichtparallelen Lichtwellen aus. Die die Flüssigkristallschicht umgebenden Elektroden
beeinflussen die Ausrichtung der Flüssigkristalle und steuern somit die
Lichtdurchlässigkeit. Ob das Licht in der LC Schicht gedreht wird und wie stark, hängt von
der Herstellungsmethode ab. In Abbildung 5 erfolgt im Ruhezustand eine Drehung um 90
Grad. Aktivieren die Elektroden die Flüssigkristalle kann die nötige Drehung nichtmehr
vollzogen werden und das Licht wird vom zweiten Polarisationsfilter absorbiert. Bei Farb-
LCDs folgt nun abwechselnd eine Schicht mit einer der drei Grundfarben Rot, Grün und
Blau. Sie benötigen daher für einen Pixel drei separate LC Zellen. Den Abschluss bildet zum
Schutz der Konstruktion eine zweite Glasschicht.
Abbildung 5: Funktionsweise der Flüssigkristallbildschirme (ODECTRA, 2008)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 15
Den interessierten Lesern, die mehr über die technische Funktionsweise und Anwendung
der LCDs erfahren möchten, wird die öffentlich zugängliche Webseite
www.pacificdisplay.com/technical.htm empfohlen.
Die Bildqualität der ersten LCDs konnte noch nicht mit den konkurrierenden CRT
mithalten. Ortmann (2006) führt dies auf zwei Ursachen zurück: Zum Einen war der
Kontrast zwischen lichtdurchlässigen und lichtundurchlässigen Zellen zu gering, um
scharfe, farbgetreue Bilder zu erzeugen. Dieses Problem wird in modernen
Flachbildschirmen mit Hilfe spezieller lichtbrechender Folien und weiterentwickelten
Fertigungsmethoden gelöst, sodass durchaus erstaunliche Kontrastverhältnisse erzielt
werden. Die zweite Ursache ist auf die Trägheit der Flüssigkristalle zurückzuführen, da sie
sich nach dem Anlegen der Spannung nur relativ langsam in ihre Ausgangslage
zurückpositionieren. Bei raschen Bildänderungen entstehen somit Schlieren und
Schmiereffekte. Mit Hilfe der neu entwickelten Thin Film Transistor (TFT) Displays, einer
Modifikation der existierenden LCDs, konnten diese Probleme seiner Meinung nach
allerdings beseitigt werden. Sie teilen jedem Bildpunkt zur Erzeugung eines Magnetfeldes
einen eigenen Transistor und einen Kondensator zur Steuerung zu. Diese Vorgehensweise
ist als Aktiv-Matrix bekannt, denen die früheren Modelle mit sogenannter Passiv-Matrix
gegenüberstehen. Sie steuern Bildpunkte über ein Leitungsgeflecht zeilen- und
spaltenweise an.
Bei der Betrachtung des aktuellen Marktes ist die Übermächtigkeit der TFT-LCDs
erkennbar. Weder Anbieter noch Käufer scheinen noch Interesse an CRT Monitoren zu
besitzen. Vergleicht man beide Technologien ist dies auch nicht verwunderlich.
Wesentliche Vorteile der LCD Monitore sind:
Geringerer Stromverbrauch.
Augenschonendes Arbeiten: die flimmerfreie Anzeige sorgt für größeres
Wohlbefinden.
Platzersparnis: Neben der geringen Tiefe benötigen LCDs keine breiten, ungenutzten
Ränder.
Geringeres Gewicht.
Besseres Verhältnis zwischen Gehäuse- und Anzeigefläche.
Weniger Abwärme.
Abbildung 6 fasst Attribute von LCD Monitoren in den drei Kategorien Technologie,
Verbauung, und Sonstiges zusammen. Übliche Technologiearten sind CRT, LCD und TFT.
Das Bildformat kennzeichnet das Verhältnis der Länge zur Breite des sichtbaren Bildes. Im
PC-Bereich ist das Standardformat 4:3 und seit Neuerem sind vermehrt die
Breitbildmonitore mit 16:10, inklusive seltener vorkommender Derivate, anzutreffen.
Nach allgemeiner Auffassung sind Breitbildmonitore zu bevorzugen, denn sie entsprechen
eher dem menschlichen Sehbereich. Die Bildschirmgröße definiert die tatsächliche
Anzeigefläche des Bildschirms. Sie wird entweder als Länge der Achsen in Zentimeter oder
als Bilddiagonale in Inch angegeben. Das 16:10 Format weist bei gleicher Länge der
Bilddiagonale allerdings eine geringe Fläche als die 4:3 Produkte auf. Der Punktabstand
misst die Entfernung der benachbarten Pixel. Eine andere Schreibweise für das gleiche
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 16
Konzept ist die dots per inch (dpi) Notation. Je geringer der Abstand, umso höher die
Bildqualität. Der Abstand der Pixel bestimmt zusammen mit den Bildmaßen die native
Auflösung des Monitors. Gängige native Auflösungen sind 1024 x 768, 1280 x 960, 1280 x
1024 (entspricht 5:4) und 1600 x 1200. Der Begriff nativ deutet darauf hin, dass der
Bildschirm für diese Auflösung produziert wurde und daher bei der Wahl der Auflösung
bevorzugt werden sollte. Gröbere Auflösungen dürfen eingestellt werden. Das Aktivieren
von schärferen als die native Auflösung ist allerdings physikalisch unmöglich. Unter der
Reaktionszeit versteht man die Dauer, die ein Pixel benötigt, um von Hell nach Dunkel und
wieder zurück zu schalten. Moderne TFT Bildschirme brauchen hierzu etwa 5 bis 12
Millisekunden. Computerspieler sollten verstärkt auf diese Eigenschaft achten, ansonsten
kann es beim raschen Bildwechsel zu unerwünschten Schliereneffekten kommen. Das
Kontrastverhältnis kennzeichnet den Unterschied zwischen Hell und Dunkel, und übt
daher ebenfalls einen starken Einfluss auf die Bildqualität aus. Je höher dieses Verhältnis,
umso getreuer werden Bilder dargestellt.
Abbildung 6: Wichtige Monitor-Attribute
4.1.2 Bildschirme im Kontext der HCI
Der Bildschirm nimmt als wichtigstes Mittel zur Interaktion mit dem PC eine zentrale Rolle
in der HCI ein. Daher ist es nicht verwunderlich, dass sich unzählige Standards, Richtlinien
und Ratschlägen mit dem Bildschirm selbst, als auch mit dessen Zusammenhang in der
Mensch-Computer Beziehung beschäftigen. Technische Minimalanforderungen, die
Bildschirme einhalten müssen, werden vom Gesetzgeber vorgeschrieben. Auch wenn
dieser recht vage bleibt, kann davon ausgegangen werden, dass alle aktuell zum Verkauf
angebotenen Monitore diesen Anforderungen entsprechen.
Dem Fortschritt der Technik ist zu verdanken, dass die Bildqualität längst ein Niveau
erreicht hat, um die geforderte deutliche Darstellung des Inhalts zu gewährleisten. Längst
werden aktuelle 4:3-formatige Bildschirme mit einer minimalen physikalischen Auflösung
von 1024 x 768 angeboten, schlechtere Monitorauflösungen konnte der Autor bei keinem
Anbieter oder Portal (vgl. Acer, Belinea, Geizhals, Lenovo, 2008) finden. Auch der Kontrast,
ein weiteres Merkmal der Darstellungsqualität, ist selbst bei Billigmodellen mit 400:1
ausreichend. Den Vergleich mit Fernsehgeräten oder Filmprojektoren, die beispielsweise
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 17
eine Kontrastrate von etwa 500:1 (Da-Lite, 1997) aufweisen, brauchen sie nicht zu
scheuen. Flimmerfrei sind Flachbildschirme ebenfalls, da sie das Bild, im Gegensatz zu den
Kathodenstrahlröhrenmonitoren, ständig anzeigen und nicht mehr sequentiell aufbauen.
Für den richtigen Standort des Bildschirms sind mehrere Faktoren bestimmend. Bereits
bei der Bildschirmarbeitsverordnung wurde erwähnt, dass die Darstellungsflächen der
Bildschirme, sofern dies möglich ist, stets im rechten Winkel zur Fensterreihe oder einem
Beleuchtungsband aufgestellt werden sollten um Reflexionen zu vermeiden. Die
Häufigkeit, mit der der Computer am Arbeitsplatz verwendet wird, sollte ebenfalls bei der
Positionierung beachtet werden: So empfehlen Richenhagen, Prümper und Wagner (2002)
bei einer intensiven Nutzung den Monitor ausschließlich vor dem Nutzer zu installieren.
Nur bei seltener Verwendung des PCs kann sich der Monitor auch auf einer Seite
befinden. Ideal sind schwenkbare Plattformen, sodass der Monitor je nach Situation
passend ausgerichtet werden kann. Dies trifft insbesondere auf Front Office- Arbeitsplätze
zu, bei denen der Monitor die Sicht auf Kunden versperren würde. Als geeignete Höhe
wird stets befürwortet, dass sich die oberste Zeile des Bildes unterhalb der Augenhöhe
befindet. Der Abbildung 7 können Sie eine detailierte Empfehlung entnehmen. Der
Bereich A kennzeichnet das optimale, B die Größe des totalen Sichtfeldes. Demnach sollte
sich das Bildschirmzentrum etwa 35 Grad unter der Horizontalen befinden. Ist der
Bildschirm zu hoch, können Nacken- und Schultermuskulatur überlastet werden. Ebenso
sind die unter Umständen auftretenden Rückenschmerzen bei zu niedrigen Bildschirmen
zu vermeiden. Die Anpassung der Höhe stellt für moderne LCD- Bildschirme im Normalfall
kein Problem dar. Ältere, insbesondere die schweren CRT Modelle, bieten diese Funktion
meist nicht an. Unter Umständen helfen in solchen Situationen bis zu einer gewissen
Differenz höhenverstellbare Tische, oder auch Stühle, um eine ergonomischere Haltung
einzunehmen. Allerdings gilt hierbei für die Höhe der Arbeitsfläche ähnliches wie für die
Monitorhöhe: ist sie zu hoch, so können Krämpfe in den Armen entstehen und der
Arbeitstisch drückt eventuell gegen die Unterarme. Eine zu niedrige Ablage verursacht
durch „die ständige Krümmung des Rückens Beschwerden vom oberen Nackenbereich bis
in die Lendenwirbelgegend. Dazu kommen ein eingedrückter Magen und, je nach Höhe
der Sitzfläche und Beinstellung, eingeklemmte Oberschenken und Druckstellen am
Unterschenkel“ (Bechmann, Johst, Jungen, Landerer, Reuschenbach & Theißing, 1999).
Abbildung 7: Monitorausrichtung (Richenhagen et al, 2002)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 18
Auch die Entfernung des Monitors vom Benutzer spielt eine wichtige Rolle. Dabei gilt, je
größer der Bildschirm, desto weiter weg sollte er sich befinden. Zu Nahe sollte der
Bildschirm auf keinen Fall positioniert werden, da sonst mit einer Augenübermüdung zu
rechnen ist. In der Literatur wird als minimaler Abstand häufig eine Entfernung von etwa
70 cm angegeben. Heutzutage stößt man bei der richtigen Positionierung der
Flachbildschirme kaum noch auf durch Platzmangel verursachte Probleme. Bei den tiefen
Röhrenmonitoren ist das jedoch nicht selbstverständlich.
Leider können auch trotz Richtlinien und Empfehlungen an die technischen
Anforderungen Augenbeschwerden auftreten. Gründe für die Belastung sind die
auftretenden Akkommodation- und Adaptionsleistungen, die das Auge bei der
Bildschirmarbeit zu verrichten hat (Lindorfer, 2007). Erfreulicherweise ist das
weitverbreitete Gerücht, der Bildschirm könne dem Auge schaden, falsch.
Bildschirmarbeit „bringt nur bereits vorhandene Augenprobleme an den Tag, erzeugt aber
keine neuen“ (Lindorfer, 2007, S.3).
4.2 Tastatur
4.2.1 Geschichtliche Entwicklung und Funktionsweise
An eine ordentliche Bedienung des PCs ohne angeschlossene Tastatur ist nicht zu denken,
auch wenn sie mit der Einführung der grafischen Benutzeroberflächen an Wichtigkeit
verloren hat. Dies macht sich auch daran bemerkbar, dass sich das BIOS unter Umständen
weigert, den PC ohne angeschlossene Tastatur zu booten. In ihren Zuständigkeitsbereich
fallen neben der offensichtlichen Eingabe von Buchstaben und Zeichen auch die
Softwaresteuerung und die Navigation der Textmarke.
Vorgänger der Tastaturen sind die seit 1821 hergestellten mechanischen
Schreibmaschinen. Ihr Aussehen wurde vom Amerikaner C. Sholes geprägt, der 1868 die
noch heute typische Anordnung der Tasten entwickelte (Stone, Jarrett, Woodroffe &
Minocha, 2005). Diese Anordnung wird als QWERTY Layout bezeichnet, benannt nach der
Reihenfolge der ersten sechs Buchstaben der amerikanischen Tastatur. Bei der Wahl der
Tastenanordnung wurde Priorität auf das Verhindern von Verklemmungen der
Anschlagshämmer gelegt, häufig zusammen genutzte Buchstaben wurden daher
voneinander entfernt angebracht. So konnten auch schnelle Schreibmaschinenschreiber
problemlos arbeiten. Sholes Layout fand große Beliebtheit, daher ist es nicht
verwunderlich, dass es für Tastaturen übernommen wurde.
Der 1981 eingeführte IBM Personal Computer, oder als 5150 bezeichnet, zählt dank seiner
Bauweise, aber auch dank seines Erfolges als der Beginn der PC Ära, obwohl der Begriff
selbst schon früher bekannt war. Insofern wird auch die erste Tastatur für PCs der PC-
Reihe 5150 zugeschrieben (Abb. 8) (Wikipedia, 2008; IBM, 2008). Die Computertastaturen
vorangegangener Modelle haben mit IBMs erster PC Tastatur wenig gemein: Neben den
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 19
gewaltigen Ausmaßen unterschieden sie sich durch die damals typische Integration der
Tastatur in das Computergehäuse.
Abbildung 8: Frühe IBM PC Tastatur mit 83 Tasten (www.vintage-computer.com, 2008)
Seit ihrer Erfindung hat sich zumindest das Aussehen der Tastatur kaum geändert. Die
Tastenanordnung der Tastatur orientiert sich nach wie vor am QWERTY Layout der
Schreibmaschine. Und einige Gründe sprechen dafür, dass sich daran auch in Zukunft
wenig ändern wird, da QWERTY seit 1967 ein internationaler, weit verbreiteter Standard
ist. Des Weiteren ist davon auszugehen, dass er dem Benutzer vertraut ist und der
Aufwand zum Erlernen einer anderen Anordnung den meisten Anwendern zu hoch ist
(Stone, 2005; Shneiderman, 1998).
Die meisten optischen
Änderungen betreffen die Anzahl
der verfügbaren Tasten. Einen
Überblick über die Tastenanzahl
für amerikanische und deutsche
Tastaturen im Laufe der Zeit
erhalten Sie in Abbildung 9. Die
Originalversion verfügt über 83 Tasten. Aufgrund der Lokalisierungen mussten für diverse
Sprachen weitere Tasten eingeführt werden. Außerdem verfügten die ersten Versionen
noch über keine LEDs zur Statusanzeige. Dieses Manko wurde jedoch rasch behoben,
sodass zumindest der Zustand des Ziffernblocks, der Feststelltaste und des Scroll Locks
ersichtlich ist.
1986 wurde die Multifunktions-Tastatur (enhanced) eingeführt. Dieser Standard erweitert
die vorhandenen Blöcke um einen Cursorblock sowie einen neuen Block für insgesamt
zwölf Funktionstasten. Der Cursorblock dient in erster Linie der Steuerung der
Schreibmarke. Dies erleichtert die Navigation, da sie zuvor mit dem Nummernblock
gelenkt wurde. Die Funktionstasten sind mit F1 bis F12 beschriftet und befinden sich links
in der obersten Reihe. Kleine Abstände zwischen einzelnen Gruppen haben sich als
nützlich erwiesen um die passende Funktionstaste auch ohne Blickkontakt leicht
identifizieren zu können. Dennoch verzichten viele Nutzer auf sie, um die Hände nicht von
der Home Row entfernen zu müssen (Shneiderman, 1998). Das aktuelle Programm
Abbildung 9: Änderungen der Tastenanzahl
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 20
bestimmt, welche Aktionen durch die Funktionstasten angestoßen werden. In der Regel
lösen sie häufig genutzte Befehle aus oder ersetzen umständliche Tastenkombinationen.
Um dem Designgrundsatz der Konsistenz getreu zu bleiben verwenden viele
Anwendungen, zumindest innerhalb von Produktgruppen, gleiche oder ähnliche
Befehlszuordnungen.
Zur Verbesserung der Bedienung der grafischen Benutzeroberfläche von Windows 95
führt Microsoft drei zusätzliche Tasten ein: Die zwei Windowstasten zu beiden Seiten der
Leertaste minimieren laufende Anwendungen und bringen den Benutzer auf diese Weise
zur Windows-Oberfläche zurück und öffnen das Startmenü. Nebenbei werden sie für neu
eingeführte Tastenkombinationen benötigt. Die Anwendungstaste ist die dritte neue
Taste. Sie ruft das Kontextmenü auf und entspricht somit der rechten Maustaste. Auch
wenn diese Neuerungen ursprünglich für Windows gedacht sind werden längst beinahe
alle neuen Tastaturen, unabhängig vom Betriebssystem, mit dem neuen 104-
beziehungsweise 105- Tasten Layout produziert.
Neue Multimedia Tastaturen ermöglichen dem Benutzer das schnelle und angenehme
Ausführen diverser Befehle. Im Normalfall zählen hierzu Tasten zur Steuerung der
Lautsprecher, des Email Programms und des Internetbrowsers. Allerdings hängt deren
Umfang stark vom Hersteller als auch der angesprochenen Zielgruppe ab. Notwendig sind
diese Neuerungen keinesfalls, da den Betriebssystemen zumindest für das Aufrufen von
Programmen ebenfalls benutzerdefinierte Tastenkombinationen zugeteilt werden
können.
Weitere Trends sind:
Ergonomische Tastaturen
Seit sowohl Hersteller als auch Anwender erhöhten Wert auf die Vermeidung von
Gesundheitsrisiken langen Tastaturgebrauchs legen sind vermehrt Versionen mit
ergonomischen Designs verfügbar. Auf diese soll hier jedoch nicht näher eingegangen
werden, da sie im folgenden Kapitel erwähnt werden.
Spezialisierung auf bestimmte Zielgruppen
Selbstredend sind PC- Nutzer alles andere als
eine homogene Masse. Ebenso unterscheiden
sich die Anforderungen an durchzuführende
Aufgaben. Es macht daher Sinn, an bestimmte
Zielgruppen angepasste Tastaturen zu entwerfen.
Dass dies auch aus wirtschaftlicher Sicht
vernünftig ist zeigen die unzähligen verfügbaren
Spezialtastaturen. Den leidenschaftlichen Computerspielern werden zum Beispiel
zusätzliche Tasten zum Auslösen von selbstprogrammierten Makros oder eine
Tastenhintergrundbeleuchtung angeboten. Noch einen Schritt weiter geht Logitechs G15
Keyboard, dass dem Spieler über eine LCD Anzeige Spielstatistiken und -informationen
darstellt (Abb. 10). Gleichermaßen bieten Tastaturenhersteller Produkte für
Abbildung 10: G15 Tastatur für Spieler (Logitech, 2008)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 21
Berufsgruppen an. Für das Gesundheitswesen gibt es eingebaute Kartenleser für
Krankenversicherungskarten. Für den Point-of-Sale Bereich stehen größere Tastaturen mit
vollständig programmierbaren und beschriftbaren Tasten inklusive Magnetkartenlesern
zur Verfügung. Bei der Menge der Spezialiserungen ließe sich diese Liste lange
weiterführen. Ob sich die Anschaffung einer angepassten Tastatur lohnt, beziehungsweise
wie groß der Nutzen ausfällt, kann pauschal nicht beantwortet werden. Eine Recherche
nach einem an die eigenen Bedürfnissen angepassten Produkt kann allerdings jedem
empfohlen werden.
Flachtastaturen
Ein weiterer Trend der letzten Zeit sind die sehr flachen Tastaturen. Zum Einen soll diese
Bauweise das gesundheitsgefährdende vertikale Abknicken der Handgelenke minimieren.
Zwar sollten die Unterarme beim Benutzen der Tastatur aus ergonomischer Sicht nicht am
Tisch abgelegt werden, geschieht dies dennoch, sind flache, niedrige Tastaturen
gegenüber hohen Alternativen vorzuziehen. Weitere Vorteile, mit denen Anbieter ihre
flachen Tastaturen bewerben, sind das geringe Gewicht, Platzersparnis bei der Verstauung
und die ansprechende Optik dieser Modelle.
Anschlüsse für USB
Seit Aufkommen des Universal Serial Bus (USB) 1996 zählt er zur beliebtesten Art, um
Daten zwischen Peripherie und Host auszutauschen. Auf den USB wird folgend detailierter
eingegangen. Allerdings soll in diesem Kontext USBs Fähigkeit zu mehrfachen
Downstreams erwähnt werden, wodurch ein USB Gerät selbst Anschlüsse für weitere
Geräte zur Verfügung stellen kann. Bei der Untersuchung des Tastaturmarktes stellte der
Autor fest, dass Tastaturen derzeit noch ausgesprochen selten als USB Hubs fungieren.
Dank dieser benutzerfreundlichen Positionierung der Anschlüsse, sowie der weiten
Verbreitung von USB Geräten, ist aber mit einem steigenden Aufkommen zu rechnen.
Im Folgenden wird auf die technische Funktionsweise der PC- Tastaturen eingegangen. Die
vielfältigen mechanischen und Membran-Keyboardtechnologien eignen sich je nach
Einsatzgebiet schlechter oder besser zur Nutzung. Üblicherweise werden für PCs
Langhubtastaturen eingesetzt. Als deren größter Vorteil gibt Dipl. Phys. G. Breidenbach
die rasche und zuverlässige Dateneingabe an, die dank der „erforderlichen taktilen
Rückmeldung und Leichtgängigkeit“ ermöglicht wird (Breidenbach, 2008). Um diesen
Effekt auch bei extrem flachen und Laptoptastaturen zu unterstützen, verlängern diverse
Hersteller künstlich die Länge des Hubweges. Als Beispiel dient etwa das PerfectStroke
System, allerdings soll hier nicht weiter auf diese Thematik eingegangen werden. Den
Membrantastaturen mangelt es aufgrund der kaum vorhandenen Wegstrecke,
geräuschloser Funktionsweise sowie ungenauer Gegenkraft beim Tastenanschlag an einer
angemessenen Feedbackqualität. Ihr größter Vorteil ist die Robustheit gegenüber
Umwelteinflüssen und Langlebigkeit. Daher werden sie meist an öffentlich zugänglichen
Terminals eingesetzt.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 22
Abbildung 11: Aufbau einer Rubberdome Switch Tastatur (nach Tyson & Wilson, 2008)
Zwei verbreitete Vertreter für PC-Tastaturen sind die Dome Switch und die seltener
anzutreffende Buckling Spring -Funktionsweisen. Dome Switches (Abb. 11) können als
Mischform von mechanischen und membranen Tastaturen kategorisiert werden. Im
Gehäuse befinden sich imprägnierte Stromkreise in einer stromundurchlässigen Schicht.
Durch den Tastenhub schließt sich der Stromkreis. Bei den Dome Switches ist unter jeder
Taste eine Gummikuppel, inklusive einem Leiter an der Wölbungsunterseite, angebracht.
Eine gedrückte Taste presst die Gummikuppel auf den Boden, und schließt den
Stromkreis. Im Falle der Dome Switches, die zwei Folien mit Stromkreisen und einer
mittigen, isolierenden Schicht nutzen, wird auf diese Weise der Weg von der ersten zur
dritten Folie überbrückt. Der Mikrochip der Tastatur registriert jede Veränderung des
Stromkreises. Als Resultat erzeugt er bei jedem Tastendruck, aber auch bei jedem
Freilassen der Tasten, ein entsprechendes Signal, welches an den PC weitergeleitet wird.
Ähnlich funktioniert der Buckling Spring Mechanismus. Als rein mechanische Technologie
verwenden diese Tastaturen eine Sprungfeder als Gegenkraft. Ihre hervorstechendste
Eigenschaft sind die lauten Klick- Geräusche, die sie beim Tastenanschlag erzeugen.
Idealerweise würde jede Taste einen eigenen Stromkreis nutzen. Da dies in der Regel
technisch und wirtschaftlich ungeeignet ist, werden Matrixschaltungen zum Verbinden der
Tasten verwendet. Als Folge können bei gleichzeitigem Drücken von mehreren Tasten
ungewünschte Effekte auftreten, die als Roll Over bezeichnet werden. Als Resultat werden
Tastendrücke ignoriert oder unter Umständen zusätzliche, nicht gedrückte Tasten vom
Controller als angeschlagen missinterpretiert.
Weitere wesentliche Charakteristika sind in Abbildung 12 aufgestellt. Zur leichteren
Orientierung wurden die Eigenschaften in die drei Kategorien Technologie, Verbauung und
Sonstiges eingeteilt. Unter der Rubrik Technologie wurden alle Eigenschaften
zusammengefasst, die die Funktionsweise der Tastatur beschreiben, oder im weiteren
Sinne die Inputeingabe beeinflussen. Zur Kategorie Verbauung gehören Attribute, die
primär dem Aussehen und der Verarbeitung zuzuschreiben sind. Sonstiges beinhaltet
allgemeinere Konzepte.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 23
Abbildung 12: Wichtige Tastatur-Attribute
4.2.2 Tastaturen im Kontext der HCI
Ebenso wie bei den Monitoren werden zuerst die Geräteeigenschaften beleuchtet. Auch
für Tastaturen sind zum Schutz der Nutzer bestimmte gesetzliche Minimalanforderungen
vorgegeben. Diese betreffen die Bauweise, die wie bereits bei der
Bildschirmarbeitsverordnung aufgezählt wurde, zur Minderung von Reflexionen matt,
neigungsverstellbar und leserlich beschriftet sowie baulich vom PC getrennt sein muss.
Diese Anforderungen alleine sind allerdings kaum ausreichend, um einen angenehmen
Gebrauch zu gewährleisten.
Vom Erscheinungsbild lässt sich rasch ableiten, ob eine Tastatur nach ergonomischen, und
somit gesundheitsschonenden Aspekten gestaltet wurde. Leider sind auch heutzutage
noch die meisten Tastaturformen beinahe ident mit denen der Originale. Dieses
Festhalten an der Tradition fördert weiterhin eine unnatürliche Haltung, und stellt ein
unterschätztes Gesundheitsrisiko für die Handgelenke und Unterarme dar, wobei
Ortmann insbesondere die Sehnenscheidenentzündung hervorhebt (Ortmann, 2006).
Abhilfe schaffen separate oder angepasste Tastenblöcke. Zwei gängige Varianten sind
hierbei die geteilten (Abb. 13) oder die geschwungenen Layouts (Abb. 14).
Abbildung 13: Kinesis Freestyle (Kinesis, 2008) Abbildung 14: Wave Keyboard (Logitech, 2008)
Bei der Gestaltung der Eingabegeräte warnt die Gesellschaft Arbeit und Ergonomie
(Wittig-Goetz, 2008) vor zu hohen Tastaturen, denn diese zwingen den Benutzer bei
ablegten Unterarmen zum starken Abwinkeln der Handgelenke. Das Gleiche gilt für die
Neigung der Tastatur, generell sind flache Lagen vorzuziehen.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 24
Abbildung 15 veranschaulicht die unnatürliche
Handhaltung, zu der Benutzer der einfachen
Bretttastaturen gezwungen werden. Bei der Eingabe
gilt:
Hände und Unterarme sollen eine gerade Linie
bilden.
Keinesfalls die Handgelenke stark verdrehen.
Die Hände bestenfalls gar nicht oder nur auf
hohen Handballenauflagen ablegen.
Die Tastatur sollte maximal auf Ellbogenhöhe,
niemals darüber sein.
Richtig angewandtes Zehn-Finger System
entlastet die Armmuskulatur.
Kritik kann auch an der Tastenanordnung geäußert werden. Leider wurden ergonomische
Aspekte lange Zeit nicht berücksichtigt. Studien ergaben, dass die QWERTY-Anordnung
nicht nur zu unnötigen Belastungen führe, sondern auch ineffizient sei (David, 1985; West,
1998). Alternativen zur QWERTY-Tastaturanordnung sind zwar vorhanden, können aber
keinesfalls mit der Verbreitung und Beliebtheit des Originals konkurrieren. So entwickelte
zum Beispiel August Dvorak in den 1920ern ein vielversprechendes, allerdings
meistgehend unbeachtetes Design. Eine wesentliche Verbesserung gelang ihm durch die
Verlegung vielgenutzter Buchstaben in die Home Row. Weitere Ziele der Umgestaltung
sind die Entlastung der schwächeren Finger, eine Verkürzung der Wege sowie die
alternierende Nutzung der Hände. Der Umfang der Vorteile der Dvorak- Tastatur ist sehr
umstritten: In den vorhin angeführten Studien wurde von der US. Marine ein
Geschwindigkeitszuwachs von 30% gemessen, während in Wests Versuchsanordnung nur
4% nachgewiesen werden konnten. Shneiderman (1998) erwähnt eine Steigerung von 150
Wörtern pro Minute auf etwa 200 Wörter bei erfahrenen Schreibern, wobei zusätzlich
eine Reduktion der Schreibfehler stattfindet. Seines Erachtens wird sich allerdings an der
geringen Verbreitung der alternativen Tastenanordnungen auch weiterhin nichts ändern,
da meist die Bereitschaft zur etwa einwöchig dauernden Erlernung nicht vorhanden ist.
4.3 Computermaus
4.3.1 Geschichtliche Entwicklung und Funktionsweise
Die Computermaus fällt in die Kategorie der kontinuierlichen indirekten Zeigergeräte.
Durch ihre indirekte Steuerung wird sie auf einer glatten Oberfläche geführt, es ist nicht
möglich, Objekte direkt auf dem Monitor zu manipulieren. Daraus ergeben sich einige
Vorteile, aber auch Nachteile. Zu den wichtigsten Vorteilen zählt nach Shneiderman
Abbildung 15: Natürliche Haltung & bei Tastaturnutzung (Computer Fachwissen, 1993) (11))
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 25
(1998) die Minderung der Handermüdung. Zusätzlich wird die Sicht bei der Eingabe nicht
durch die Hand eingeschränkt. Studien loben darüber hinaus ihre hohe Geschwindigkeit
als auch Präzision (Shneiderman, 1998). Nachteilig erwähnt er die Indirektheit selbst.
Dadurch kommt es zu einer stärkeren kognitiven Belastung und die Erlernung nimmt mehr
Zeit in Anspruch. Weiter führt er die Entfernung zum Keyboard an, sodass die Hand erst
die Maus suchen und greifen muss. Allerdings soll zur Verteidigung der Computermaus
erwähnt werden, dass dies mit Ausnahme der Trackpoints bei allen herkömmlichen
Zeigegeräten der Fall ist.
Zeigegeräte können für sechs Arten von Interaktionen verwendet werden (Foley, Wallace
& Chan, 1984). Zu diesen zählen die Autoren die
Auswahl,
Positionierung,
Orientierung,
Wegbeschreibung,
Quantifizierung,
und Texteingabe.
Für die ersten fünf dieser Punkte eignet sich die Maus hervorragend. Allerdings ist eine
Texteingabe per Maus eine mühsame und meist unästhetische Angelegenheit.
Die Computermaus wurde am Stanford
Research Institute im Jahr 1963 erforscht. Der
erste Prototyp (Abb. 16) von 1964 nutzt noch
keine Kugel, sondern zwei bodenberührende
Rollen in einem klobigen Holzgehäuse zur
Positionsermittlung. 1970 wurde sie von
ihrem Erfinder D. Engelbart als „X-Y position
indicator for a display system“ patentiert. Die
erste Computermaus konnte jedoch keinen
großen Erfolg verbuchen. Nach Dembowski
(2007) wurden für frühe IBM PCs kaum Mäuse
eingesetzt während sie sich unter Apple
Macintosh Nutzern großer Beliebtheit
erfreuten. Dessen grafische Benutzeroberfläche machte sie bereits ab 1984 zu einem
Standard-Eingabegerät.
Die ersten PC-Mäuse besaßen ein Kunststoffgehäuse und wurden mit einer bis zwei
Tasten ausgestattet. Abgesehen von der Anzahl der Tasten hat sich lange Zeit wenig an
ihrem Aussehen geändert. Erst mit Microsofts IntelliMouse von 1996 und dessen
eingebautem Mausrad kommt es zu einer echten Veränderung. Neben dem
obligatorischen vertikalen Scrollen von Dokumenten nutzen viele Hersteller das Mausrad
auch als zusätzlichen Mausknopf oder ermöglichen durch Kippen des Rades ein
horizontales Scrollen. Dieses Feature wird häufig als 4 Wege oder Tilt- Scrollrad
Abbildung 16: Erste Computermaus der Welt (Interactivemaster.com, 2008)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 26
bezeichnet. Ebenso wie die Tastatur wird auch das Aussehen der Computermaus mit dem
Aufkommen ergonomischer Aspekte stark beeinflusst.
Die Funktionsweise der Computermäuse ist denkbar
einfach: Mit Hilfe einer den Boden berührenden
Gummikugel erfassen zwei Rollen im Inneren der
Maus die relative Veränderung der X und Y Achse. An
den Rollen sind Räder mit Schlitzen angebracht, die
einem Lichtsensor die Ermittlung der
Bewegungsgeschwindigkeit erlauben. Die
mechanische Erfassung bringt einige Nachteile mit
sich. Einen wesentlichen Punkt der Kritik betrifft die
ständige Verschmutzung der mechanischen Teile,
insbesondere an den Kontaktpunkten der Rollen. Das
Entfernen der Mauskugel und Reinigen der Kontakte
gehörte zur regelmäßig nötigen Gerätepflege. Ein weiterer Nachteil ist die
Lichtempfindlichkeit der optischen Sensoren im Inneren. So kann selbst schwacher
Lichteinfall den Mauszeiger negativ beeinflussen.
Verbesserung brachte der Umstieg zur optischen Maus, die frei von beweglichen Teilen
ist. In ihrem Inneren befindet sich zur Bewegungserfassung ein optischer Sensor. Je nach
Qualität erfasst dieser bis zu 7080 Mal pro Sekunde (vgl. Microsoft X5) die Oberfläche,
gleicht die Sequenzen miteinander ab, und errechnet auf diese Weise die
Positionsveränderung. Allerdings setzt diese Technik eine beleuchtete Oberfläche voraus.
Ältere Versionen nutzen meist rotfärbige Leuchtdioden (LED). Diese Methode kann auf
vielen Oberflächen nicht den erforderlichen Kontrast für den optischen Sensor erzeugen.
Vor dem Kauf einer optischen Maus sollte daher beachtet werden, auf welcher Unterlage
sie zum Einsatz kommen wird. Vor allem ältere Modelle kommen mit unstrukturierten
oder gläsernen Oberflächen nicht zurecht. So war es zum Beispiel dem Autor in einem
Test nicht möglich, eine 7 Jahre alte Wheel Mouse Optical mit einer roten LED auf einer
roten, einfarbigen Unterlage sinnvoll einzusetzen. Hochwertige aktuelle Computermäuse
haben aber diesbezüglich meist kein Problem mehr. Diese Modelle ersetzen die LED durch
einen Laser. Geht es nach Microsofts Vorstellungen, werden Mäuse in Zukunft nur noch
mit der Blue Track Technologie arbeiten, die im September 2008 vorgestellt wurde. Sie
soll noch genauer als die Laservarianten arbeiten und auf so gut wie allen denkbaren
Oberflächen funktionieren. Da die erste Blue Track Maus allerdings erst ab November
(Ihlenfeld, 2008) erhältlich ist, sind noch keine detaillierten Informationen erhältlich.
Die eben beschriebenen Arten der Bewegungserfassung sind zweifelslos wesentliche
Qualitätsmerkmale. Der Abbildung 18 können Sie weitere Attribute entnehmen. Die
Auflösung wird in dots per inch (dpi) angegeben. Ausgezeichnete Modelle erreichen
Werte bis zu 3.200 dpi. Einige Hersteller geben dem Nutzer selbst die Kontrolle über die
ausgewählte Auflösung. Sie werben mit einer hochpräzisen Erfassung im hohen dpi-
Bereich und stellen dem eine rasche Verarbeitung bei geringer Einstellung gegenüber (vgl.
G9 Laser Mouse, Krait). Die Bildverarbeitungsgeschwindigkeit gibt die Reaktionszeit
wieder. Üblicherweise wird sie in frames per second (fps) oder als megapixels per second
Abbildung 17: An den gekennzeichneten Stellen berühren die mechanischen Teile die Kugel. (Dembowski, 2007)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 27
(mp/s) gemessen. Diese, sowie die folgenden Werte zur Maximalbeschleunigung und -
geschwindigkeit sind meist nur für Spieler interessant. Für den Durchschnittsanwender
sind auch günstige optische Computermäuse genügend ausgereift, um den typischen
Aufgaben nachzugehen.
Abbildung 18: Wichtige Maus-Attribute
In der Kategorie Verbauung befinden sich Attribute zum Mausdesign. Neben der Form
zählen hierzu auch das Vorhandensein eines Mausrades und die Tastenanzahl. Eine häufig
unterschätzte Eigenschaft betrifft die Qualität der Mausfüße, die die Gleitfähigkeit
ausmachen. Teflon ist als reibungsarmes Material im hochpreisigen Sektor anzutreffen,
günstigere Produkte kommen meist mit Hartplastik aus. Unter Sonstigem wurden alle
restlichen Merkmale eingeordnet. Sie bestimmen den Anschluss an den PC und ob eine
kabelgebundene oder kabellose Übertragung erfolgt. Zwei weitere Aspekte betreffen die
verfügbare Software eines bestimmten Produktes. Sinnvoll ist diese jedoch nur, wenn die
Einstellungsoptionen über denen des Betriebssystems hinausgehen. Einfluss auf die
Kaufentscheidung nehmen auch Kosten und Garantiegewährleistungen.
4.3.2 Computermäuse im Kontext der HCI
Abgesehen von der Technik hat sich auch die optische Erscheinung seit ihrer Erfindung
1963 stark gewandelt. Neben funktionalen Zusatzausstattungen wie den heute üblichen
drei oder mehr Tasten oder dem Mausrad haben aktuelle Computermäuse auch dank
ergonomischer Prinzipien wesentlich an Qualität gewonnen. Da die Anforderungen an die
Maus starke individuelle Unterschiede aufweisen sind im Handel unzählige Produktlinien
verfügbar. Um ein möglichst schonendes Arbeiten zu ermöglichen, empfiehlt es sich, dass
das Mausdesign der eigenen Handgröße und -form entspricht. Aus diesem Grund ist vor
einem Kauf oder der Nutzung zu raten, die entsprechende Maus zu testen, idealerweise
unter arbeitsähnlichen Bedingungen. Wittig-Goetz (2008) empfiehlt Designs, bei denen
die Hinterseite rund geformt ist. Die Oberseite sollte geschwungen sein, wobei der
höchste Punkt etwa in der Mitte liegt. Idealerweise ist die Maus vorne im Bereich der
Tasten etwas breiter. Diese sollten leicht erreichbar und mit geringem Druck benutzbar
sein. Die günstigste Positionsermittlung geschieht, wenn sich die Mauskugel oder der
optische Sensor im vorderen Gehäusebereich befindet.
Die Abbildungen 19 und 20 zeigen aktuelle Computermäuse mit ergonomischen Designs.
Erwähnenswert ist die Handhabung der Evoluent Vertical Mouse, denn sie zwingt ihren
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 28
Benutzer durch die seitliche Ausrichtung nicht mehr zum Verdrehen des Arms, sodass der
Unterarm in natürlicher Position verbleiben kann.
Unterschiedliche Meinungen gibt es zur kabellosen Maus. Zwar fällt das Kabel weg, somit
wird die Bewegungseinschränkung kabelgebundener Mäuse aufgehoben und lässt die
Präzision geringfügig steigen. Nachteilig wirkt sich aber das ständige Aufladen der
Stromversorgung sowie der durch das Gewicht der Batterien verursachte erhöhte
Kraftaufwand zum Navigieren aus.
Insbesondere für häufige Computernutzer ist es ratsam, ergonomische Aspekte in der
Vordergrund zu stellen, da auch die Maus ein häufiger Auslöser von computerbedingten
Schmerzen in Hand und Arm ist. Insbesondere die repetitiven, schnell ausgeführten
Mausklicks stellen eine Gefahr dar, die zur typischen Computerkrankheit repetitive strain
injury (RSI) führen können. RSI ist keine spezifische Krankheit, sondern vielmehr ein
Sammelbegriff für krankhafte Sehnen, Muskeln und Nerven. Für Mausbenutzer ist das
Karpaltunnel Syndrom, bei der es zur Quetschung des Mittelhandnervens im Bereich des
Handgelenks kommt, eine der häufigeren RSI- Ausprägungen. Als eine der Hauptursachen,
warum gerade bei der Benutzung der Computermaus Schmerzen auftreten, wird die
ungünstige Handhaltung, kombiniert mit den häufig ausgeführten Mausklicks angesehen.
So schreibt Prof. Peter Hahn, dass die menschliche Hand für die Klickbewegung bei
gleichzeitiger Streckung des Handgelenkes nicht geeignet sei. In diesem Zusammenhang
sollte auch das Mausrad erwähnt werden, dass auf Grund der erforderlichen statischen
Muskelanspannung einen ähnlichen Effekt wie das Betätigen der Maustasten hervorruft.
Eine vom Computermagazin c`t durchgeführte Umfrage ergab, dass sich der Umstieg für
schmerzgeplagte Personen lohnen kann: Immerhin bei 50% der Teilnehmer konnten die
Schmerzen durch die Nutzung eines Trackballs stark gelindert werden, Platz Zwei ging mit
28% an die externen Touchpads. Den Wechsel zu anderen Eingabegeräten oder zumindest
einen sparsamen Einsatz der Maus empfiehlt auch die Gesellschaft Arbeit und Ergonomie
(Wittig-Goetz, 2008).
4.4 Schnittstellen- Standards
4.4.1 Einführung
Abbildung 20: Die Vertical Mouse verhindert eine Drehung des Unterarms (Evoluent, 2008)
Abbildung 19: MX Revolution (Logitech, 2008)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 29
Das folgende Kapitel gibt einen kurzen Überblick über die Möglichkeiten, auf welche Arten
Peripheriegeräte an einen PC angeschlossen werden können. Der Interface-Begriff im
reinen Hardwarekontext ist nicht mit dem der Human-Computer Interaction
gleichzusetzen. Ortmann (2006) bezeichnet Schnittstellen als Verbindungen einer
Zentraleinheit mit seinen Peripheriegeräten, sodass ein Datenaustausch ermöglicht wird.
Um den Datenverkehr zwischen den externen Peripheriegeräten jeglicher Art und dem PC
zu ermöglichen wurden im Laufe der Zeit verschiedene Interface-Standards entwickelt.
Welches Gerät tatsächlich angeschlossen wird, dessen Funktionsweise, Alter oder ähnliche
Eigenschaften, sind nebensächlich, solange sich das anzuschließende Gerät an die
spezifizierte Schnittstelle hält.
Der typische PC bietet über seine Mainboard-Blende an der Rückseite des PCs eine Reihe
unterschiedlicher Anschlussmöglichkeiten an. Darunter sind ältere, nicht mehr häufig
genutzte Kontakte ebenso zu finden wie die aktuellen USB Anschlüsse. Der aktuelle Trend
geht eindeutig zur exzessiven Nutzung des USBs. Bemerkbar macht sich dies durch die
ständig steigende Zahl der USB Anschlüsse an den modernen Mainboards, den aus
Kostengründen immer häufiger weggelassenen Legacy Interfaces sowie der steigenden
Verfügbarkeit von USB Peripheriegeräten.
Abbildung 21: Mainboard-Rückblende des MSI P965 Platinum
Abbildung 21 beschreibt die Anschlussmöglichkeiten eines typischen Standard PCs. Das
dargestellte Mainboard ist seit dem zweiten Halbjahr 2006 erhältlich. Zu sehen ist, dass
auf die zweite serielle Schnittstelle zu Gunsten einer Firewire- und einer digitalen
Audiobuchse (S/PDIF)verzichtet wurde. Das Anfang 2008 erschienene P7N Diamond der
gleichen Firma unterstützt überhaupt keine seriellen oder parallelen Schnittstellen.
Vollständig wird man aber von den Altlasten nicht wegkommen: Zumindest beim ersten
Booten des PCs ist im Normalfall ein Tastatur PS/2 Anschluss erforderlich (vgl. Kapitel
PS/2).
4.4.2 Serielle Schnittstelle
Die 9-polige serielle Schnittstelle, auch als RS-232 Standard oder COM-Port bekannt, wird
seit den 1960ern verwendet und zählt somit zu den ältesten Schnittstellenspezifikationen.
Entwickelt wurde der Standard von der Electronic Industries Association, die ihn in den
frühen 1990ern in EIA232 Standard umbenannte. Aufgrund des Alters und der nur noch
seltenen Verwendung zählt die serielle Schnittstelle zu den Legacy Interfaces (Dembowski,
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 30
2007). Dennoch werden auch die meisten modernen PCs mit zumindest einer seriellen
Schnittstelle ausgeliefert.
Die serielle Schnittstelle basiert auf 9 Leitungen (Abb. 22), die jedoch nicht alle genutzt
werden müssen. Als Minimum sind drei Leitungen vorgesehen: die Masseleitung, die
Sendeleitung und die Empfangsleitung (Abb. 23). Die Nutzung weiterer Kontakte sorgt für
eine qualitativ bessere Verbindung zwischen den angeschlossenen Geräten. Werden etwa
die Leitungen Request to Send und Clear to Send benutzt, so sorgen diese für eine
Initialisierung des Datenaustausches, indem verfügbare Daten beim Host angemeldet
werden.
Wie der Name schon andeutet, erfolgt die Übertragung bei der seriellen Schnittstelle
bitweise hintereinander. Dies macht die serielle Schnittstelle weniger leistungsfähig als
eine parallele Übertragungsweise, sie ist daher in erster Linie für den Transfer von
geringen Datenmengen gedacht.
Abbildung 22: Schnittstelle des PCs (Wikipedia, 2006) Abbildung 23: Serielle Verbindungsunterschiede zwischen DEE und DÜE
Eine Besonderheit der seriellen Verknüpfung ist die Einteilung des anzuhängenden Geräts
in sogenannte Datenendeinrichtungen (DEE) und Datenübertragungseinrichtungen (DÜE).
Auf Grund der vielfältigen Typen, die an die serielle Schnittstelle angehängt werden
können, ist für einen Verbindungsaufbau entscheidend zu wissen, zu welcher Kategorie
das anzuschließende Device gehört. PCs gehören zu den Datenendeinrichtungen. Sollen
daher zwei PCs zusammengeschlossen werden, sind speziell überkreuzte Kabel zu
verwenden (Abb. 23). In allen anderen Fällen, zum Beispiel beim Anschluss eines Modems
oder Druckers, kommen nicht-überkreuzte serielle Verbindungskabeln zum Einsatz.
4.4.3 Parallele Schnittstelle
Die parallele Schnittstelle existiert seit 1970. Entwickelt wurde sie vom
Druckerproduzenten Centronics als eine spezielle Schnittstelle für Drucker, daher ist die
parallele Schnittstelle auch als Centronics-Port bekannt (Dembowski, 2007). Der
wesentlichste Vorteil der parallelen Schnittstelle gegenüber dem seriellen Gegenstück ist
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 31
die höhere Übertragungskapazität, da bei der parallelen Schnittstelle 8 Bits gleichzeitig
gesendet werden können.
Allerdings muss bei der parallelen Schnittstelle bedacht werden, dass nur kurze
Entfernungen überbrückt werden können: Ortmann (2006) definiert die maximale
Kabellänge auf Grund der gegenseitigen Leitungsbeeinflussung als 6 Meter, während er
bei serielle Verbindungen Reichweiten bis 1000 Meter angibt.
Technisch gesehen verfügt die parallele
Schnittstelle am Host über 25 Pins (Abb. 24),
während der Client 36 Kontakte aufweist. Vor
der Einführung des USB waren neben den
Druckern vor allem Wechselspeicher auf die
parallele Schnittstelle angewiesen, allerdings
wurde sie gelegentlich auch von exotischerer
Peripherie, etwa Kopierschutzstecker,
genutzt.
Ein Merkmal der Schnittstelle ist, dass sie nur für die Kommunikation in eine
vorbestimmte Richtung vorgesehen ist. Erst seitdem sich das IEEE ihrer 1994
angenommen hat, Verbesserungen spezifizierte und als IEEE 1284 Standard
veröffentlichte, ist ein bi-direkter Austausch eingeplant. Nach Dembowski (2007) ist eine
weitere Konsequenz, die sich aus der Standardisierung ergab, fünf unterschiedliche
Betriebsmodi, da die Herstellerfirmen jeweils andere Modi durchsetzen wollten.
Allerdings ist zumindest der Compatible Mode rückwärtskompatibel und sollte im
Zweifelsfalle genutzt werden.
4.4.4 PS/2 Schnittstelle
Den Namen verdankt diese Schnittstelle IBMs Personal System/2 Computerreihe, die sie
zum Anschluss von Inputgeräten benutzte. PS/2 wird seit 1987 eingesetzt um die
veralteten RS-232 Mausschnittstelle und die fünf-poligen Rundstecker, die auch als DIN
Stecker bezeichnet werden, abzulösen. Technisch ist sie der seriellen Schnittstelle sehr
ähnlich.
Da die Anschlusskontakte für Tastaturen als auch Mäuse gleich aussehen, wurden 1997
von Microsoft beiden Ports unterschiedliche Farben zugeteilt, um eine Unterscheidung zu
vereinfachen. Seitdem sind bis heute der Mainboard Port der Tastatur violett, und der der
Computermaus grün eingefärbt (Abb. 25)
Die PS/2 Schnittstelle hat durchaus noch ihre Daseinsberechtigung. Allerdings geht man
vermehrt dazu über, nur noch eine statt zwei Buchsen in den Mainboards einzubauen,
wobei diese eine Computermaus oder eine Tastatur anschließt. Aufgrund der
unvorteilhaften Eigenschaft von USB, erst beim Hochfahren des Betriebssystems aktiv zu
Abbildung 24: 25polige parallele Schnittstelle am Host (Wikipedia, 2006)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 32
werden, können USB Geräte meist nicht vor dem vollständigen Start des Betriebssystems
oder im DOS Modus eingesetzt werden. Daher ist eine herkömmliche PS/2
Schnittstellentastatur, zumindest für die Einrichtung eines neuen Systems unerlässlich.
Allerdings kann anschließend im BIOS moderner Mainboards der USB Keyboard Support
aktiviert werden (Dembowski, 2007).
Abbildung 25: PS/2 Buchsen des Dynex USB- Adapters (OCModshop.com, 2007)
4.4.5 Universal Serial Bus
Der Universal Serial Bus, üblicherweise nur als USB referenziert, ist ein Standard des USB
Implementers Forum, dem eine Vielzahl an elektronik- und computererzeugender
Unternehmen angehören. Die erste Version des Standards, USB 1.0, wurde 1996
veröffentlicht. Hauptziele des neuen Universalinterfaces sind die Reduzierung der
benötigten Device-Schnittstellen sowie eine benutzerfreundlichere Handhabung
(Ortmann, 2006). Die 2000 veröffentlichte und 2001 standardisierte, überarbeitete
Version 2.0 erlaubt eine höhere Datenübertragungsrate und ist abwärtskompatibel.
Während die frühe USB Version (Full Speed) eine Datenübertragung von nur 12 MBit/s
erlaubte, erhöht USB 2.0 (High Speed) den Wert auf 480 MBit/s. Verglichen mit den vorhin
erwähnten Schnittstellenspezifikationen sind daher weit höhere Datenübertragungen
möglich. Diese betragen nämlich für die serielle Schnittstelle nur 115kbits/s und die
parallele Standard-Schnittstelle ermöglicht 115kbytes/s. Im November 2008 wurde die
aktuellste Spezifikation, USB 3.0, vorgestellt. Die neue Version erhielt die Bezeichnung
Super Speed und soll einen bis zu zehnmal schnelleren Datentransfer ermöglichen
(USB.org, 2008). Die umfangreichen Standard-Spezifikationen können von interessierten
Lesern auf der offiziellen USB Seite unter http://www.usb.org/developers/docs/
nachgelesen werden.
Bei der Betrachtung der mechanischen Aspekte fällt auf, dass die Anschlüsse der Kabel
unterschiedliche Formen aufweisen (Abb. 26). Welcher Anschluss zu verwenden ist, wird
durch die Verbindungsstruktur festgelegt: Der sogenannte A-Konnektor wird stets am
Host, beziehungsweise in Richtung des Upstreams befestigt. Dementsprechend ist der B-
Typ für die Peripheriegeräte vorgesehen. Dass dieser üblicherweise bei Inputgeräten wie
Tastatur und Computermaus nicht sichtbar ist, liegt an der Integration des USB Kabels im
entsprechenden Gerät. Für kleinere Geräte wurde eine weitere, kleinere Art des B-
Abschlusses entwickelt. Diese Spezifikation ist unter dem Namen Mini-USB bekannt. USB
Kabeln bestehen aus insgesamt vier Leitern. Zwei davon sind Signalleitungen, eine Leitung
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 33
ist der Stromversorgung in Höhe von 5 Volt angedacht, die Letztere dient als
Masseleitung.
Der Konzeption als Universalschnittstelle verdankt USB, dass eine breite Palette an
Peripheriegeräten unterstützt wird. So sind heutzutage zum Beispiel Computermäuse,
Tastaturen, externe Massenspeicher, Drucker, Scanner und Digitalkameras mit USB
Anschlüssen weit verbreitet. Da der USB angeschlossene Geräte mit einem 5 Volt- Strom
versorgt, gibt es Gimmicks, die den USB als Stromquelle zweckentfremden. Dazu zählen
alle Devices, die ausschließlich die Stromversorgungsleitung nutzen, ohne am
Datenaustausch mit dem Host teilzunehmen. Beispiele hierfür wären Ventilatoren,
Lampen und Ähnliches.
Eine weitere Besonderheit des USBs ist seine Plug and Play Fähigkeit. Darunter versteht
man das Anschließen und Nutzen der Peripherie zur Laufzweit. Im Gegensatz zu den
Legacy Interfaces, die einen Computerneustart erforderten, konnte somit die
Userfreundlichkeit erhöht werden. Diese wird auch durch die automatische
Geräteerkennung gefördert. Bevor ein angeschlossenes USB Gerät betriebsbereit ist,
müssen erst einige Schritte durchgeführt werden. Als erstes meldet sich ein USB Device
beim Host durch das Anlegen eines 1,5k Ohm Widerstandes an eine der zwei
Signalleitungen. Nachdem das Gerät entdeckt wurde, wird es mit Hilfe seiner Deskriptoren
identifiziert und erhält eine Busadresse. Anschließend wird eine Enumeration
durchgeführt, in der das Device alle seine Eigenschaften preisgibt, Treiber geladen und die
zustehende Bandbreite definiert wird. Eine Übersicht über die unterstützten
Deviceklassen bietet Abbildung 27. Einige dieser Deviceklassen bestehen wiederum aus
Subklassen und Subprotokollen. So sind beispielsweise für die Klasse der USB Hubs, 09h,
drei unterschiedliche Protokolle für Full Speed und High Speed Hubs vorgesehen.
Abbildung 27: USB Anschlussvarianten (USB.org)
Pro Hostcontroller werden bis zu 127 Geräte unterstützt. Allerdings leidet die Bandbreite
pro Device erheblich bei zu vielen aktiven Geräten. Zwar besitzen moderne PCs meist je
zwei Kontakte an der Rück- und Vorderseite, um jedoch eine größere Anzahl an USB
Peripherie anzuschließen kommen in der Regel Hubs zum Einsatz. Laut USB -Spezifikation
ist hierfür eine baumförmige Struktur vorgesehen. Somit kann es immer nur einen Upload
geben, der Anzahl an Downstreams sind keine Grenzen gesetzt. Eine weitere Restriktion
der Busstruktur wird durch die Maximallänge der Kabel vorgegeben. Diese beträgt 5
Abbildung 26: USB Device Klassen
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 34
Meter und ergibt sich sowohl aus der straffen Response Time für Devices als auch durch
den Signalverlust der verdrillten Kupferkabel (Ortmann, 2006; USB.org, 2008)
5. Vorgehensweise und verwendete statistische Methoden
Für die Auswertung der durchgeführten Umfrage werden die folgenden Methoden aus der
Statistik angewandt. Neben einer kurzen Einführung der ausgewählten Methoden
behandelt dieses Kapitel auch den Vorgangsprozess der Analysendurchführung.
5.1 Conjoint Analyse
Die in dieser Studie verwendete Conjoint Analyse ist ein beliebtes Mittel zur Erfassung von
Benutzerpräferenzen. Nach A. Muir (2008) ist die Conjoint Analyse das beste Werkzeug,
um den komplexen psychologischen Kaufentscheidungsablauf nachzubilden. Sie wurde in
den 1970ern für die Marktforschung entwickelt, hat sich allerdings aufgrund ihrer
Vielseitigkeit in weiteren Anwendungsgebieten etablieren können (Hair, Black, Babin,
Anderson & Tatham, 1998).
Bei der Conjoint Analyse bewertet der Befragte ein fiktives oder
reelles Produkt, den sogenannten Stimulus. Die Person bewertet
das ganze Produkt, nicht nur einzelne Eigenschaften wie bei
vergleichbaren Analysen. Daher ist die Bewertung eine sehr
realistische Aufgabenstellung. Bei der Auswertung der
Umfragedaten kann für jede Person sowohl auf individueller, als
auch auf aggregierter Ebene eine Präferenzstruktur erzeugt werden.
Sie tätigt Aussagen über die Wichtigkeit der einzelnen
Eigenschaften (Faktoren). Darüber hinaus werden die Nutzwerte
der zugehörenden Ausprägungen (Levels) berechnet. Die
Vorgehensweise zur Durchführung einer Conjoint Analyse wird in
Abbildung 28 dargestellt.
Select attributes: Zuallererst erfolgt die Auswahl der Attribute
(Merkmalen), die üblicherweise als Faktoren bezeichnet werden.
Bei der Auswahl der Faktoren ist zu beachten, dass sie
kommunizierbar, beeinflussbar, messbar und unabhängig sind. Für
die traditionelle Conjoint Analyse, die zur Auswertung dieser
Umfrage verwendet wird, empfehlen Hair, Black, Babin, Anderson
und Tatham (1998) weniger als zehn Faktoren zu verwenden, da
Abbildung 28: Conjoint Analyse Prozess (North & de Vos, 2002)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 35
ansonsten zu viele Stimuli bewertet werden müssen.
Determine attribute levels: Im nächsten Schritt werden den einzelnen Faktoren mögliche
Ausprägungen, die Levels, zugeteilt. Korrelationen zwischen bestimmten Levels, die
unrealistisch erscheinen, sind bestmöglich zu vermeiden.
Unter dem Begriff „Determine attribute combinations“ verstehen North und de Vos das
Bestimmen der Anzahl an Kombinationsmöglichkeiten. Sie ergibt sich aus der
Multiplikation der Levelanzahl jedes Faktors (Levelanzahl Factor 1 * Levelanzahl Factor n).
Typischerweise muss die Anzahl der Stimuli auf ein sinnvolles Maß reduziert werden. Trotz
Reduktion muss eine korrekte Durchführung der Analyse gewährleistet sein. Für die
Umfrage wird daher ein optimales Design erstellt, das heißt, eine Stimuli- Sammlung, die
sowohl orthogonal als auch ausgeglichen ist.
Select form of presentation of stimuli and the nature of judgements to secure from
respondents: Als Nächstes soll laut North und de Vos (2002) geklärt werden, auf welche
Art die Erhebung erfolgen soll. Die Stimuli können von den Ausfüllenden auf zwei Arten
bewertet werden. Bei der Ranking-Methode wird eine Reihenfolge erstellt, sie ist aber für
die Anzahl der hier verwendeten Levels nicht geeignet. Daher wird die Score Methode, bei
der jeder Stimulus mit Punkten benotet wird, verwendet.
Decide how judgements will be aggregated: Wie bereits erwähnt können Daten mit Hilfe
der Conjoint Analyse auf individueller und aggregierter Ebene ausgewertet werden.
Aufbauend auf den individuellen Informationen wird in dieser Studie eine Cluster Analyse
durchgeführt.
Select analysis technique: Die im vorherigen Schritt definierte Bewertungsmethode
beeinflusst die Wahl der Analysemethode. Erfolgt die Evaluierung der Stimuli durch
Punktevergabe, empfehlen Hair et al (1998) eine metrische Schätzmethode. Für
Reihenfolgen eignet sich die nichtmetrische Methode, da keine Linearität gegeben ist
(North & de Vos, 2002). Darüber hinaus empfehlen Hair et al (1998) im Vorhinein die
Kompositionsregel zu definieren. Sie beschreibt, wie sich der Gesamtnutzen eines
Produktes zusammensetzt. Im Normalfall entscheidet man sich für die additive Methode,
bei der sich der Gesamtnutzen aus den addierten Teilnutzen eines Produkts ergeben. Für
die Form der Teilnutzenfunktion können ebenfalls Regeln definiert werden, zur Verfügung
stehen lineare, separate (diskrete) und quadratische Teilnutzenbeziehungen (Abb. 29). Für
diese Studie wird in den meisten Fällen eine separate Beziehung angenommen. Aufgrund
der fehlenden Einschränkungen ist hierbei der Nachteil, dass sie geringere statistische
Rückschlüsse ermöglichen. Ausnahmen, zum Beispiel die Levels der Kosten oder bei
offensichtlichen Faktoren wie der Reaktionszeit, verwenden den linearen Teilwert.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 36
Abbildung 29: Mögliche Nutzen-Beziehungen für die Faktoren-Levels
Die statistische Vorgangsweise zur Errechnung der geschätzten Teilwerte und der
Faktorenwichtigkeit besteht aus mehreren Schritten.
Quadrieren der Differenz von Mittelwert und tatsächlichem Wert für alle Teilwerte.
Errechnen der Summe aller quadrierten Abweichungen.
Berechnen der Standardisierungszahl, die sich aus der Anzahl der verwendeten Levels,
dividiert durch die Summe aller quadrierten Abweichungen ergibt.
Durch die Multiplikation der quadrierten Abweichungen mit der Standardisierungszahl
werden alle Levels standardisiert.
Durch Wurzelziehen ergibt sich daraufhin der geschätzte Teilwerte für jeden Level.
Zum Berechnen der relativen Wichtigkeit der Faktoren wird zuerst die Größe des
Teilwert-Intervalls benötigt. Dieser ergibt sich aus der Addition des Maximums mit
dem negativen Minimum.
Feststellen der Summe aller Teilwert- Intervalle.
Die Faktorenwichtigkeit lässt sich mit Hilfe des Teilwert- Intervalls, dividiert durch die
vorhin errechnete Summe, feststellen.
5.2 Clusteranalyse
Durch die Anwendung des hierarchischen Clusterverfahrens auf die Daten der Conjoint
Analyse sollen alle Versuchsteilnehmer in kleinere, möglichst homogene Gruppen
eingeteilt werden. Der Unterschied zwischen den Gruppen soll möglichst groß sein.
Gegenstand der Clusteranalyse sind die Fälle, sprich die Daten der einzelnen
Umfrageteilnehmer, nach Durchführung der Conjoint Analyse. Das Clustern basiert auf
den standardisierten Teilnutzenwerten. Es existieren daher keine nominalen, binären oder
kategorialen Variablen.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 37
In der Clusteranalyse wird „jedes Objekt als Punkt in einem endlich-dimensionalen Raum
repräsentiert. Seine Dimension stimmt mit der Anzahl an Analysevariablen überein“
(Wiedenbeck & Züll, 2001). Wie die Distanz, beziehungsweise die Ähnlichkeit bestimmt
wird, hängt von der gewählten Distanzmaß-Methode ab. Beliebte Distanzmaße sind der
euklidischer Abstand (Abb. 30) beziehungsweise die quadrierte euklidische Distanz und die
Block- oder Manhattandistanz (Abb. 31).
Des Weiteren legen hierarchische Methoden fest, auf welche Art geclustert wird. Zwei in
der Literatur häufig anzufindende, und auch in dieser Studie verwendeten Methoden sind
die Folgenden.
Single Linkage (Nearest Neighbour): Distanz des nahsten Objekts jedes Clusters. Single
Linkage eignet sich zum Identifizieren von Ausreißern. Aus diesem Grund wird sie in
dieser Studie vor dem eigentlichen Klassifizierungsprozess angewandt.
𝐷𝑆𝐿 𝐶𝑟 , 𝐶𝑠 = 𝑚𝑖𝑛𝑎𝑖 ∈ 𝐶𝑟 𝑎𝑗 ∈ 𝐶𝑠
𝑑(𝑎𝑖 , 𝑎𝑗 )
Ward Methode: Der Mittelwert der Variablen jedes Clusters wird berechnet und mit
den der anderen Objekte verglichen. Die Objekte, die den geringsten
Homogenitätsverlust verursachen, werden zusammengelegt. Diese Methode wird zum
Klassifizieren der Daten, nach der Elimination von extremen Ausreißern, angewandt. n
bezeichnet die Anzahl der Fälle eines Clusters.
𝐷𝑊 𝐶𝑟 ,𝐶𝑠 =𝑛𝑟𝑛𝑠
𝑛𝑟 + 𝑛𝑠 𝑑2(𝑥𝑟 ,𝑥𝑠 )
Hierarchische Clusteralgorithmen stellen alle Cluster- Schritte hierarchisch dar, jede Ebene
repräsentiert eine mögliche Lösung. Entscheidet man sich für das agglomerative
Verfahren, so bildet jeder Fall zu Beginn des Algorithmus einen eigenen Cluster. Diese
werden solange miteinander fusioniert bis zum Schluss nur noch ein einzelner Cluster
existiert. Für das divisive Verfahren gilt die Umkehrung, hier wird mit einem einzigen
Cluster begonnen, der in jedem Schritt aufgespalten wird. Die Anzahl der resultierenden
Cluster wird bei der Analyse der Daten bestimmt. Bestimmte Methoden, zum Beispiel das
Ellbogen-Kriterium, helfen bei der Suche nach der „richtigen“ Anzahl an Clustern. Auch
Dendrogramme (Abb. 32), die den ganzen Klassifizierungsprozess grafisch abbilden,
können hierbei unterstützen.
Abbildung 30: Euklidische Distanz Abbildung 31: Manhattandistanz
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 38
Abbildung 32: Dendrogramm als SPSS- Output (nach Wiedenbeck & Züll, 2001)
5.3 Assoziationsanalyse
Die Assoziationsanalyse soll häufig auftretende Attributkombinationen aufdecken. Im
Sinne der Umfrage wird mit den Assoziationsregeln festgestellt, ob und welche
Clusterzugehörigkeiten häufig gemeinsam auftreten. Input der Analyse sind die
dichotomen Variablen der Clusterzugehörigkeiten.
Bollinger (1996) definiert die Assoziationsregeln als Beschreibung der „Korrelationen
zwischen gemeinsam auftretenden Dingen“. Assoziationsregeln treten in der Form X → Y
auf. Sie messen die funktionale Beziehung einer Kombination.
Als Support wird die relative Häufigkeit eines
Merkmals charakterisiert. Ein hoher
Supportwert deutet auf ein häufiges Auftreten
dieses Merkmals oder der
Merkmalkombination hin. D ist die Gesamtheit.
Als Konfidenz wird der prozentuelle Anteil
bezeichnet, in dem sowohl der Antezedent als
auch der Konsequent in einer Regel
vorkommen.
Beeinflussen kann man das Auffinden von starken Regeln durch das Definieren des
minimalen Supports und der minimalen Konfidenz. Ein geringer minimaler Support
erzeugt viele Regeln, die allerdings selten vorkommen. Ist er hoch eingestellt, werden nur
Abbildung 33: Beispiel einer Assoziationsregel
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 39
wenige Assoziationsregeln ausgegeben, die allerdings häufig vorkommen. Für die
Konfidenz gilt, dass bei einem geringen Wert zwar viele Regeln gültig sind, aber diese nur
ungenau sind. Währenddessen erzeugt eine hohe minimale Konfidenzeinstellung wenige,
allerdings häufig zutreffende Regeln.
In der Auswertung wird eine in der Literatur häufig erwähnte Methode, der Apriori-
Algorithmus, angewendet. Der Pseudo-Code ist unterhalb dargestellt. Als Lk wird die
Größe des Sets bezeichnet. Bei L1 bestehen die Itemsets nur aus einem Merkmal. Ck sind
Kandidaten für mögliche häufige Itemssets der kten Stufe.
L1 = {frequent 1-ltemsets}; for (k=2;Lk-1 != {}; k++) do begin
Ck = apriori-gen(Lk-1); II Neue Kandidaten erschaffen for all transactions t є D do begin Ct = subset(Ck,t); II In t enthaltene Kandidaten for all candidates c є Ct do c.count++; end Lk = {c є Ck | c.count> supmin)
end Answer = Uk Lk;
5.4 Vorgehensweise
1. Den Ausgangspunkt der Umfrage bilden die orthogonalen Designs der drei betrachteten
Komponenten. Diese bestimmen die Attributkombinationen der von den Testpersonen zu
bewertenden Stimuli. Sie finden im Anhang alle erstellten Designs.
2. Nach der Durchführung der Umfrage werden die
gespeicherten Datensätze in das Statistikprogramm
SPSS importiert. Die Gesamtmenge aller Datensätze
umfasst 110 Personen. Beim Import werden die
Variablen ihrem Inhalt entsprechend kodiert (Abb. 34)
und das Messniveau aktualisiert. Zur späteren
Identifikation der Personen wird jedem Datensatz eine
ID- Variable zugeordnet.
3. In diesem Schritt erfolgt die Löschung aller ungeeigneten Datensätze. Der Autor braucht
zum Ausfüllen etwa 15 Minuten. Da bei der Erhebung des Fragebogens auch die
Ausfüllzeit ermittelt wurde, lässt sich abschätzen, welche Personen den Fragebogen nicht
ausgefüllt haben sondern sich nur durchgeklickt haben. Dies trifft auf 3 Datensätze zu, als
Grenzwert wurden 5 Minuten definiert. Zusätzlich werden 3 Datensätze, bei denen die
Stimuli aller drei Soll-Zustände gar nicht oder zur Durchführung der Conjoint Analyse
Abbildung 34: Aufteilung und Kodierung
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 40
unzureichend bewertet wurden, entfernt. Als Resultat stehen für die weitere
Untersuchung 104 Datensätze zur Verfügung.
4. Es folgt das Analysieren und eventuelles Ersetzen von fehlenden Werten, sofern dies
unbedenklich ist. Die Filterfragen, etwa a7, ermöglichen unter Umständen fehlende Werte
ihrer nachfolgenden Detailfragen zu ersetzen. Die meisten fehlenden Werte waren nicht
zu korrigieren. Da die Conjoint Analyse keine fehlenden Werte zulässt, mussten die
Auswertungen dieser Personen für das jeweilige Gerät gestrichen werden. Ein fehlender
Wert für die Conjoint Analyse eines Geräts hat jedoch keinen Einfluss auf die Auswertung
der anderen Devices.
5. Schreiben der Conjoint Syntax. Benötigt werden
hierfür nicht der gesamte Datensatz, sondern nur
die Ergebnisse der Stimuli. Betroffen sind die je 16
Variablen der ms, ts und mos, die die Stimuli-
Bewertungen speichern. Entscheidenden Einfluss
auf das Ergebnis haben die Teilnutzendefinitionen
(Abb. 29, Abb. 35). Sollte keine Annahme über die
Beziehung der Faktorenlevel und Nutzerpräferenzen
gemacht werden können, wird der entsprechende
Faktor als diskret (separat) annotiert. In der Umfrage ist diese Art für den Großteil der
Attribute zutreffend. Faktoren mit einer eindeutigen Beziehung, zum Beispiel den Kosten,
der Feedbackqualität der Tastenanschläge und Ähnlichen, werden eine lineare Beziehung
unterstellt.
6. Nach dem Schreiben der Syntax wird die
Conjoint Analyse mit Hilfe des
Programms SPSS durchgeführt. Sie
bestimmt auf aggregierter und
individueller Ebene die
Nutzerpräferenzen (Abb. 36). Für den
Bildschirm sind 96 und für die Tastaturen
93 verwendbare Datensätze vorhanden.
Die Auswertung der PC-Mäuse
verwendet die Antworten von 98
Personen. Die Ergebnisse der Conjoint
Analyse werden in separaten Daten
gespeichert. Für die weitere Verarbeitung
dient eine Datei pro Peripheriegerät.
Abbildung 35: Modellbeschreibung
Abbildung 36: Ergebnis der Conjoint Analyse
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 41
1 7 13 19 25 31 37 43 49 55 61 67 73 79 85 91
Feh
ler
Clusterschritt
7. Überprüfung der Indikatoren zur Vorhersagefähigkeit des
Modells. Sind sie zu niedrig könnte dies an falschen
Modellannahmen oder schlechten Inputdaten liegen. Als
Qualitätsmerkmale der Conjoint Analyse werden Pearsons
r und Kendalls Tau herangezogen. Die entsprechenden
Werte für die Analyse des Monitors finden Sie in Abb. 37. Die Werte der Tastaturen
betragen 0,986 beziehungsweise 0,929. Und die Korrelation zwischen den beobachteten
und errechneten Nutzen für das Modell der PC Mäuse ist mit einem Pearson r von 0,954
und Kendall Tau 0,824 ebenfalls aussagekräftig.
8. Vor der Weiterverarbeitung durch die Cluster Analyse werden die
individuellen Teilnutzenwerte aufbereitet. Das Standardisieren der
Teilnutzenwerte, sodass die Summe aller standardisierten
Teilnutzen den Wert 1 ergeben, ist Voraussetzung für eine weitere
Verarbeitung. Dies geschieht mit den in Abbildung 38 angegebenen
Formeln, wobei sich βjm auf den Teilnutzen des Levels j des Faktors
m bezieht. Die Clusteranalyse verwendet ausschließlich
standardisierte Werte (β^).
9. Im nächsten Schritt werden alle extremen
Ausreißer aussortiert. Die besten Resultate
liefert für diese Aufgabe die Nearest
Neighbour Methode, kombiniert mit der
quadratischen euklidischen Distanz als
Distanzmaß. Extreme Ausreißer werden durch
den sprunghaften Anstieg der Koeffizienten
identifiziert und von der folgenden
Verarbeitung ausgeschlossen. Alle Daten, mit
Ausnahme der Angaben der Person 28 zur Tastatur, werden für das eigentliche Clustern
weiterverwendet. Der eben erwähnte Tastaturdatensatz hätte den Koeffizienten um 103%
ansteigen lassen und erwies sich bei der Untersuchung der Conjoint Ergebnisse als
mangelhaft (Abb. 39).
10. Erneute Durchführung der Clusteranalyse mit
der Ward-Methode. Um die besten Ergebnisse
zu erzielen wird die quadrierte euklidische
Distanz empfohlen (Bühl, 2008). Eine
bedeutende Entscheidung dieses Schrittes
betrifft die Wahl der erwünschten
Clusteranzahl. Als Basis wird hierfür in
eingeschränkter Form das Ellbogenkriterium
Abbildung 37: Analyse der Korrelation
Abbildung 38: Standardisierungsformeln
Abbildung 39: Der 28. Datensatz als Ausreißer
1 7 131925 3137434955616773798591
Feh
ler
ClusterschrittAbbildung 40: Anstieg der Fehlerquote beim Tastaturen- Fusionierungsprozess
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 42
beziehungsweise ein Vergleich der Clusterdistanzen herangezogen. Der Autor entschied
sich für insgesamt 4 Bildschirmcluster, 4 Tastaturcluster und 4 Mauscluster. Diese lassen
sich voneinander in ihren Eigenschaften unterscheiden, sodass die Präferenzen der
Gruppen klar ersichtlich sind. Eine zusätzliche Aufteilung würde zwar das Ergebnis
geringfügig verbessern, aber in zu kleinen Clustergrößen resultieren. Sie finden im Kapitel
„Dendrogramme der Clusteranalysen“ des Anhangs auf der Seite 86 die entsprechenden
Abbildungen.
11. Es folgt eine Analyse der Clustereigenschaften. Mit Hilfe der
Clusterzugehörigkeit erfolgen weitere Conjoint Analysen, die die
Präferenzen der Gruppen wiedergeben (Abb. 41). Ebenso von
Interesse ist die Frage, welche demografischen und statistischen
Größen besonderen Einfluss auf die Clustergruppen nehmen.
12. Für die Assoziationsanalyse werden dichotome Variablen für die Clusterzugehörigkeiten jeder Person erstellt. Nach der Bestimmung der geeigneten Minimumwerte für Support und Konfidenz soll sie beschreiben, welche Clusterzugehörigkeiten häufig gemeinsam auftreten.
6. Die Datenerhebung
6.1 Statistischer Hintergrund
Die Grundgesamtheit besteht aus allen Computernutzer des deutschsprachigen Raumes.
Da die Datenerhebung mit Hilfe eines Online-Fragebogens geschieht, gibt es durch die
Selbstselektion keine repräsentative Stichprobe. Die Selektion der Testpersonen geschieht
zum Einen durch das Auffinden des Fragebogens, zum Anderen durch die freiwillige
Teilnahme. Die qualitativ besten Daten würden möglichst heterogene Gruppen,
entsprechend ihres Anteils an der Grundgesamtheit, hervorbringen. Es ist daher nicht
sinnvoll, wenn eine Gruppe, zum Beispiel Studenten, den Großteil der Befragten
ausmachen würde. Deswegen wurde der Fragebogen auf mehreren Foren mit
unterschiedlichen Themenschwerpunkten veröffentlicht. So soll eine breit gestreute
Abbildung 41: Auswertung der Cluster
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 43
Stichprobe realisiert werden. Der Großteil der Freiwilligen konnte mit Hilfe von
Internetforen mobilisiert werden. Die benutzen Foren waren:
Fswinf, das Forum der „Fachschaft Wirtschaftsinformatik der TU Wien und Uni Wien“.
World of Warcraft Europe, ein deutschsprachiges Forum des gleichnamigen
Rollenspiels mit gewaltiger Reichweite.
Gamona, ein Netzwerk für Software, speziell für Computerspiele.
Forum Austria, ein Forum für Themen aller Art.
Tom’s Hardware, mit dem Themenschwerpunkt für Computerhardware.
Boardplanet.net: Forum für allgemeine Themen.
sowie das Wien Forum.
6.2 Erstellung des Fragebogens
Der Fragebogen beansprucht mit einer Länge von acht Seiten und einer durchschnittlichen
Ausfüllzeit von etwa 15 Minuten relativ viel Zeit. Eine große Sorge war daher, die
erwünschte Anzahl von über 100 Personen erreichen zu können. Allerdings gibt es viele
Anreize, die die Rücklaufquote erhöhen: Als Beispiele nennt Kirchhoff, Kuhnt, Lipp und
Schlawin (2001) unter Anderem kleine Entschädigungsbeiträge für die investierte Zeit oder
die Teilnahme an Gewinnspielen. Im Falle dieser Umfrage besteht die Möglichkeit sich
beim Autor für die Zusendung der fertigen Arbeit sowie der persönlichen, individuellen
Analyse einzutragen.
Die Conjoint Analyse basiert auf der Bewertung eines ganzen Produktes. Der erste Schritt
zur Erstellung der Stimuli der ausgewählten Komponenten ist das Auffinden aller
relevanten Eigenschaften und Besonderheiten der Produkte. Die Herstellerwebseiten,
Prospekte und unabhängige Testanstalten erweisen sich in dieser Hinsicht als brauchbare
Quellen. Selbstverständlich können nicht alle diese Features in den Conjoint Analysen
präsent sein. Zum Einen, da mit der Anzahl der abgefragten Features auch die Anzahl der
zu bewertenden Stimuli sehr rasch steigt. Zum Anderen, da einige Features offensichtlich
unwichtiger als Hauptmerkmale sind und eine untergeordnete Rolle einnehmen. Leider
können Features nicht in die Conjoint Analyse aufgenommen werden, wenn sie nicht
kommunizierbar sind. In diesem Sinne wird eine Eigenschaft, die dem durchschnittlichem
Computerbenutzer kein Begriff ist, ebenfalls ignoriert.
Nach der Auswahl der Features erfolgt die Gestaltung der Ausprägungen der
ausgewählten Eigenschaften, den Levels. Die Auswahl der Levels geschieht ebenso
praxisnahe: Nach der Recherche der am Markt verfügbaren Produkte wurden sinnvolle,
bewertbare und kommunizierbare Ausprägungen ausgewählt. Um eine Überforderung der
Teilnehmer zu vermeiden, bestehen die meisten Faktoren aus zwei konkurrierenden
Levels. So macht es nach Auffassung des Autors wenig Sinn, bei schwerer zu
kommunizierenden Merkmalen, etwa bei dem Gewicht der Maus eine zusätzliche dritte,
neutrale Position einzuführen. Während bei zwei Levels die Abgrenzung noch leichter
stattfinden kann, wäre die Grenzziehung zwischen „leicht“, „mittelschwer“ und „schwer“,
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 44
zu komplex und subjektiv. Der Preis ist zwar kein technisches Feature, wird allerding
aufgrund seiner Wichtigkeit ebenfalls in die Conjoint Analyse aufgenommen.
Nach Bestimmung der Levels können alle Stimuli gebildet werden. Damit nicht alle
möglichen fiktiven Produktkombinationen von den Probanden bewertet werden müssen,
wird mit Hilfe des orthogonalen Designs die Anzahl der Stimuli auf ein Minimum reduziert.
Für die Umfrage bedeutet dies, dass für jede Komponente 16 Fälle zu beurteilen sind.
Abbildung 42: Factors und Levels der Conjoint Analyse der Computermaus
Die Abbildung 42 zeigt die umfragerelevanten Faktoren und deren Ausprägungen für
Computermäuse. Die Umfrage erhebt neun Faktoren, zu je zwei bis vier Levels. Als
Orientierungshilfe ist diese Abbildung auch im Fragebogen abgebildet, dadurch soll der
Teilnehmer an der Studie einen raschen Überblick über mögliche Produktkombinationen
erhalten. Als zusätzliche Hilfestellung ist für jeden Faktor eine Kurzbeschreibung
vorhanden. Detailliertere Angaben zu den technischen Eigenschaften und der
Funktionsweise von Computermäusen erhalten Sie im Kapitel Hardware.
Die Abbildungen 43 und 44 geben einen Überblick über die Zusammensetzung der fiktiven
Tastaturen beziehungsweise der Monitore. Im Anhang finden Sie eine Auflistung aller 48
Stimuli.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 45
Abbildung 43: Faktoren und Levels der Conjoint Analyse der Tastatur
Abbildung 44: Faktoren und Levels der Conjoint Analyse des Monitors
Die Zusammenstellung der Stimuli hat sich im Laufe der Fragebogengestaltung ständig
verändert. Dies betrifft zum Einen die Anzahl der abgefragten Faktoren. So bestanden
Computermäuse für einige Zeit aus zehn Merkmalen, ohne dass sich dadurch die Anzahl
der zu bewertenden Produkte erhöht hätte. Allerdings zeigte sich im Pretest, dass die
Teilnehmer durch das erhöhte Faktorenset zu sehr belastet werden und die Dauer zum
Beantworten der Frage erhöht wurde. Ein weiteres Beispiel betrifft die Tastatur: Hier
wurde bis zum Pretest nicht die Qualität der Inputeingabe abgefragt. Allerdings ist vor
allem das Gefühl beim Tippen eines der zentralen Elemente der Kaufentscheidung. Aus
diesem Grund wurde der Faktor Feedbackqualität eingeführt. Zum Anderen wurden einige
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 46
Faktoren zur Gänze ausgetauscht. So erschien es nicht sinnvoll, das Mausgewicht zu
evaluieren, sondern stattdessen besser mit dem Faktor Gleitfähigkeit zu ersetzen.
In der Designphase galt es eine passende Darstellungsart der Stimuli zu wählen.
Restriktionen der potentiellen Umfragetools und -anbieter ließen eine sinnvolle textuelle
Eingabe der Stimuli nicht zu, daher wurden die Stimuli als Bilder in den Fragebogen
integriert. In der folgenden Abbildung 45 finden Sie eine Übersicht über die drei im Pretest
verwendeten Stimuliformen. Dieser sollte unter Anderem klären, welche Art für die finale
Umfrage verwendet wird.
Abbildung 45: Die drei Arten der Stimuli-Präsentation des Pretests
In der ersten Variante stehen alle Features untereinander, die dazugehörigen Levels
stehen neben den Features. Dadurch wirkt die Informationsdarstellung sehr kompakt. Ein
weiterer Vorteil ist die beinahe quadratische Form: selbst mit einer Monitorauflösung von
800 x 600 Pixeln kann immer der ganze Stimulus ohne horizontalem oder vertikalem
Scrollen angezeigt werden. Allerdings wirkt der Fragebogen durch seine vertikale
Ausdehnung sehr lange.
Bei der zweiten Variante in Tabellenform stehen die Features im Tabellenkopf. Dadurch
wird die Darstellung der Stimuli zwar sehr breit, verbraucht aber wenig an vertikalem
Platz, der Fragebogen wirkt daher kürzer. Da sich die Likert-Skala immer vom linkem zum
rechten Rand ausdehnt, ist die Entfernung zwischen dem Stimulus und der
dazugehörenden Skala gering. Nachteile ergeben sich allerdings bei geringer
Monitorauflösung, da der Benutzer zu ständigem horizontalem Scrollen genötigt wird.
Ebenso verhält es sich bei vielen Features, wenn diese längere Namen innehaben müssen
diese abgekürzt oder in mehreren Zeilen geschrieben werden.
Die dritte Variante fasst alle Produkte in einer Tabelle zusammen, die gleich wie bei der
zweiten Variante aufgebaut ist. Somit lassen sich die Produkte sehr schnell untereinander
vergleichen. Jedoch kann die Trennung der Stimuli von den Likert-Skalen von den
Probanden als sehr unangenehm empfunden werden. Ein weiterer Nachteil, selbst bei
hohen Monitorauflösungen, ist der Zwang zum vertikalen Scrollen nach der Bewertung
der obersten Stimuli.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 47
6.3 Der Vor-Test
Die Durchführung eines Pretests wird für beinahe alle Umfragen empfohlen. Sie
verbessern die Qualität des Fragebogens durch das Auffinden von Formulierungsfehlern,
Suggestivfragen sowie unverständlicher Fragen und Antworten (Kirchhoff, Kuhnt, Lipp &
Schlawin, 2001). Aus diesem Grunde wurde ein Pretest inklusive Diskussion mit vier
Teilnehmern durchgeführt. Neben Schwachstellen in der Gestaltung des Fragebogens
sollte dieser Testdurchlauf auch Konflikte und Gefahrenpotentiale der statistischen
Auswertung aufdecken.
Eine der zentralen Fragen, die der Vor-Test klären sollte, betrifft die Gestaltung und
Präsentation der Stimuli. Beim Pretest wurden die fiktiven Produkte aller drei
Komponenten, Computermaus, Monitor und Tastatur, auf eine andere Art und Weise
dargestellt. Sowohl die erste als auch die zweite Art wurde von mindestens zwei
Testpersonen als angenehm empfunden. Diese zeichnen sich durch eine kompakte
Wiedergabe des Stimulus und der Nähe zur entsprechenden Likert-Skala aus. Die dritte
Variante, in der die Stimuli gemeinsam in einer Tabelle abgelegt sind, wurde von allen
Teilnehmern des Pretests abgelehnt. Die ähnliche, zweite Variante konnte die meisten
Teilnehmer des Pretests überzeugen, vor allem durch die schnelle Vergleichbarkeit mit
benachbarten Stimuli und der raschen Identifizierung des Standortes wichtiger
Schlüsselfaktoren.
Darüber hinaus zeigte der Testfragebogen auf, dass es wenig Sinn machen würde, wie
geplant vier Peripheriegeräte zu analysieren. Der Testfragebogen war mit einer Länge von
90 Fragen bereits ausreichend lange. Kirchhoff, Kuhnt, Lipp und Schlawin (2001) sehen in
der Länge des Fragebogens ein wesentliches Kriterium der Rücklaufquote. Ein zu langer
Fragebögen würde viele Freiwellige im Vorherein abzustoßen, beziehungsweise zu einem
Abbruch führen. Das Evaluieren einer weiteren Komponente hätte den Fragebogen um
etwa zehn schnell zu beantwortende, sowie 16 weitere Stimuli aufgebläht. Um die Geduld
der Freiwilligen nicht zu überstrapazieren beinhaltet diese Analyse nur drei wichtigsten
Komponenten: Den Monitor als primäres Ausgabegerät, sowie die zwei
Standardinputgeräte Tastatur und Computermaus. Auf die Auswertung des zweiten
Ausgabegerätes, des Druckers, wird verzichtet.
Neben dem Design des finalen Fragebogens sollte der Vor-Test auch Aufschluss über
mathematische beziehungsweise statistische Fragestellungen geben. Zwar ist das Ergebnis
des Vortests aufgrund der geringen Teilnehmerzahl sicherlich nicht aussagekräftig, aber
ausreichend um mit den gesammelten Datensätzen ein erstes, vorläufiges
mathematisches Modell zu erstellen.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 48
6.4 Der Fragebogen
Der Fragebogen beginnt mit einer Begrüßung und der Erklärung des Umfrageziels (Abb.
46). Der erwähnte zusätzliche Anreiz der Auswertung der persönlichen Daten befindet sich
ebenfalls im Eingangstext. Kirchhoff, Kuhnt, Lipp und Schlawin (2001) empfehlen zum
Aufwärmen einfache Fragestellungen, die schnell zu beantworten sind. Getreu nach dem
Leitsatz „Vom Allgemeinen zum Speziellen“ behandeln die folgenden Fragebatterien
allgemeine Fragen zum Computergebrauch. Sie sind geschlossene Fragen, bei denen die
zutreffende Antwort entweder per Drop Down-Menü ausgewählt wird oder innerhalb
eines binären „Trifft zu“ – „Trifft nicht zu“ Systems angekreuzt wird.
Abbildung 46: Ausschnitt des Fragebogenanfangs
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 49
Der Hauptteil der Analyse, die Erfassung der Ist- und Soll-Situation, ist nach den
Komponenten gegliedert. Zuerst werden Fragen zum aktuellen Zustand der
Computermaus des Anwenders gestellt. Alle Fragen dieser Fragenbatterie sind
geschlossene Fragen, die mit „Trifft zu“, „Trifft nicht zu“ und „Weiß nicht“ beantwortet
werden können. Die zur Ist-Situation gehörenden Fragen unterscheiden sich je nach
Komponente.
Anschließend folgt eine kurze Erklärung zur Conjoint Analyse sowie eine kleine
Ausfüllhilfe, da sich beim Pretest zeigte, dass vor allem die Bewertung der ersten Produkte
(Stimuli) Probleme verursachen können. Des Weiteren werden vor dem ersten Produkt
alle Levels der einzelnen Faktoren präsentiert um die Kategorisierung zu vereinfachen. Da
im Vortest die Variante, in der die Faktoren horizontal in einer Tabelle aufgelistet wurden,
am meisten Zustimmung fand, wird diese Variante in der Umfrage genutzt.
Abbildung 47: 1. Stimulus der Rubrik "Computermaus"
Für die Conjoint Analyse mit diesem Umfang an Faktoren und Levels müssen mindestens
16 Stimuli bewertet werden. Um den Fragebogen möglichst kurz zu halten, beinhaltet er
nur die Minimalanzahl an Fällen, auf die Auswertung von zusätzlichen Testfällen wird
verzichtet. Abbildung 47 zeigt den Aufbau eines Computermaus-Stimulus.
Für jedes fiktive Produkt kann der Teilnehmer auf einer gewöhnlichen Likert-Skala
zwischen einem und fünf Punkte vergeben, wobei die Kundenpräferenz für das jeweilige
Produkt mit steigender Punktezahl zunimmt. Analog zur Computermaus werden in
gleicher Weise der Sachverhalt für die anderen Komponenten, Tastaturen und Monitore,
abgefragt. Zur Veranschaulichung zeigen die Abbildungen 48 und 49 den jeweils ersten
Stimulus ihrer Kategorien.
Abbildung 48: 1. Stimulus der Rubrik "Tastatur"
Abbildung 49: 1. Stimulus der Rubrik "Monitor"
Wie es bei beinahe allen Fragebogen üblich ist, werden zusätzlich die demografischen
Daten des Ausfüllenden erfasst. Auch wenn einige der Fragen, etwa nach dem
Ausbildungsstand oder zum ausführenden Beruf, zu den eher bedrohlichen
Fragestellungen der Umfrage zählen, so sind sie meiner Meinung nach dennoch nicht
bedrohlich genug, um einen signifikanten Anteil der Freiwilligen vor der Ausfüllung des
Bogens abzuhalten. Erfasst werden die folgenden demographischen Daten:
das Alter,
das Geschlecht,
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 50
die Nationalität,
der Familienstand,
Anzahl der Kinder,
der Beruf,
und der Ausbildungsstand.
Die Frage nach der schulischen Ausbildung ist im allgemeinen Teil am Anfang des
Fragebogens untergebracht. Sie folgt der Frage nach einem vorhandenen EDV-
beziehungsweise IT Unterricht während der Ausbildung und soll durch die Verknüpfung
der beiden Fragen weniger bedrohlich wirken.
Den Schluss des Fragebogens bildet ein Textfeld für Anmerkungen und Kommentare. Eine
statistische Auswertung ist zwar nicht möglich, aber „gehört nicht zuletzt zum
freundlichen Ton, den man gegenüber den Interviewten einschlagen sollte“ (Kirchhoff,
Kuhnt, Lipp & Schlawin, 2001). Im Anschluss bedankt sich der Autor für die investierte
Zeit. Zusätzlich beinhaltet der Abschluss die Kontaktinformationen, und eine Erklärung,
wie man sich das Ergebnis der Studie und die persönlichen Analyse zuschicken lassen kann
insofern daran Interesse besteht.
Der Fragebogen besteht aus 87 Fragen, erfasst 111 Variablen und umfasst 8 Seiten. Davon
behandeln 48 Fragen die Evaluierung der Stimuli, deren Ergebnisse direkt in die Conjoint
Analyse eingehen. Für die Ermittlung des IST- Zustandes sorgen 23 Fragen. Es gibt 7
demographische und statistische Fragestellungen. Die verbleibenden 9 Fragen können der
Kategorie der allgemeinen Fragen zugeteilt werden.
6.5 Die Umfrageteilnehmer
Die Probanden stellten sich freiwillig zur Verfügung. Insgesamt haben 110 Personen an der Umfrage teilgenommen. Wie bereits erwähnt wurde erfolgte die Auswahl der Probanden durch Selbstselektion, um dennoch eine breite Masse anzusprechen wurde die Zugangsadresse zum Onlinefragebogen in Foren für unterschiedliche Zielgruppen veröffentlicht. Den folgenden Abbildungen können Sie Alter (Abb. 50), Geschlecht (Abb. 51), Nationalität (Abb. 52), Familienstand (Abb. 53) entnehmen. Der Grad der Ausbildung wird zusammen mit eventuell stattgefundenen EDV/IT Kursen während der Ausbildung auf der folgenden Seite präsentiert. Eine Sonderheit ist der geringe Anteil weiblicher Probanden. Der Geschlechteranteil der Umfrage liegt für Männer bei 87,5 %, Frauen auf nur 12,5 %.
Abbildung 51: Geschlecht Abbildung 50: Altersklassen
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 51
7. Die Analyse
Das folgende Kapitel beschäftigt sich mit dem Umfrageergebnis. Als erstes soll ein
Überblick über die allgemeinen Fragestellungen gegeben werden. Die aufwändigere
Diagnose der drei Computerinteraktionsgeräte erfolgt im jeweiligen Unterkapitel.
7.1 Auswertung der allgemeinen Fragestellungen
Dieses Unterkapitel beschäftigt sich mit den Ergebnissen der allgemeinen
Fragenstellungen. Die ersten Fragebatterien erheben die Computerkenntnisse der
Versuchspersonen. Im Detail sind dies Fragen, ob während der Ausbildung an EDV
beziehungsweise IT Kursen teilgenommen wurde, das Niveau der Ausbildung und die
Selbsteinschätzung der Computerkenntnisse. Auf 74,7 % der Umfrageteilnehmer trifft eine
derartige Ausbildung zu (Abb. 54). Der signifikanteste Prädiktor der Variable ist das Alter.
Aus der Menge der Unter-21 Jährigen nahmen 15 Personen, dies entspricht einem Anteil
von 60%, an einer EDV Ausbildung teil. Dieser Wert steigt auf 93,5% für die 21 – 25
Jährigen, und fällt anschließend kontinuierlich ab. Demensprechend besuchten 85,7% der
26 – 30 Jährigen und 55,6% der 31 – 35 Jährigen EDV Kurse. Die folgenden Altersklassen
beinhalten zu wenige Datensätze um eine sinnvolle Analyse zu ermöglichen, weisen aber
auf keinen EDV Unterricht hin. Verständlich ist die erkennbare positive Korrelation
zwischen EDV-Unterricht und der Selbsteinschätzung der Computerkenntnisse. Der Anteil
einer entsprechenden EDV Ausbildung aufgrund des Ausbildungsniveaus ist mit Ausnahme
der Hauptschule sowie der sonstigen Kategorie, welche geringere Anteile an EDV
Kursteilnehmern aufweisen, etwa gleich hoch. Die Verteilung auf die einzelnen
Lehrformen wird in der Abbildung 55 veranschaulicht.
Abbildung 52: Nationalität Abbildung 53: Familienstand
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 52
Abbildung 54: Computer- Unterricht Abbildung 55: Ausbildungsniveau der Umfrageteilnehmer
Als nächstes werden die Verwendungsdauer und der Verwendungszweck analysiert. Die
Ergebnisse des Abschnittes können Sie der Abbildung 56 entnehmen. Demnach verbringt
der Großteil der Umfrageteilnehmer täglich mehr als 6 Stunden vor dem PC. Für 25%
überschreitet der tägliche PC-Gebrauch die 8-Stunden Marke. Beim Versuch, die Art der
Benutzung mittels K-Means Algorithmus zu kategorisieren, können die drei in Abbildung
55 dargestellten Gruppen ausgemacht werden.
Abbildung 56: Verwendungsdauer und -zweck
Zur Unterscheidung der drei Gruppen sind die in Abbildung 57 zu sehenden Variablen
relevant. Ebenso sind in dieser Abbildung die Clustergröße und die zutreffenden
Verwendungszwecke ersichtlich, wobei der linke Balken eine Zustimmung und der rechte
Balken nicht zutreffende Sachverhalte repräsentiert. Die zwei Punkte Suche und Recherche
und Kommunikation sind in allen Gruppen gleichermaßen stark ausgeprägt und werden
daher nicht aufgeführt. Die erste, und mit 73 Personen größte Gruppe, nutzt den PC für
alle in Abbildung 57 aufgeführten Zwecke. Die Mitglieder dieser Gruppe tendieren den PC
auch für eher selten verbreitete Anwendungen, etwa dem Online Shopping, zu nutzen. Ein
Vergleich der Cluster mit der täglichen Verwendungsdauer zeigt, dass sich die Mitglieder
der ersten Gruppe überdurchschnittlich lange mit dem PC beschäftigen. 14 Personen
formen die zweite Gruppe. Deren Merkmal ist die Verwendung des PCs als Freizeitgerät,
mit dem kaum gearbeitet wird, aber der gerne für Spiele und zur Unterhaltung eingesetzt
wird. Für die zweite Gruppe verteilt sich die Dauer zwischen 2 bis 8 Stunden und die
74,7
25,3
8,7
0,010,020,030,040,050,060,070,080,0
ja nein keine Angabe
5,210,4
41,7
11,5
22,9
8,3 7,7
0,0
10,0
20,0
30,0
40,0
50,0
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 53
durchschnittliche Nutzungsdauer ist
die geringste aller Gruppen. Schüler
neigen zu einer Aufnahme in diesem
Cluster. Von den zu erwartenden
zwei Schülern sind real 5 Schüler
vertreten. Der dritte Cluster mit 17
Personen nutzt den PC vorwiegend
für berufliche Tätigkeiten, jedoch
kaum für Sonstiges. Mit einem Anteil
von 29,4% nutzt der Großteil der
dritten homogenen Gruppe den PC
zwischen 2 und 4 Stunden, die
verbleibenden Prozent verteilen sich
sehr ähnlich auf die restlichen
Nutzungsdauern. Überraschend war
der signifikant hohe Anteil der
Frauen in diesem Cluster. Etwa 54%
der weiblichen Umfrageteilnehmer
wurden dem reinen Arbeitscluster
zugeteilt.
Die Auswertung zur ergonomischen Gestaltung des Computerplatzes ergibt, dass
grundlegende ergonomische Aspekte meist beachtet werden (Abb. 58). Allerdings gibt es
auch ausreichend Platz für Verbesserungsmöglichkeiten. Probleme scheint es vor allem
bei der Unterstützung der optimalen Sitzposition zu geben. So gaben 58% der Teilnehmer
an, dass sich die Monitorhöhe nicht flexibel ändern lässt, und etwa 32% nutzen einen
ungeeigneten Stuhl. Durch eine höhere Sitzgelegenheit könnte zum Beispiel das Drücken
der Tischkante gegen den Unterarm verhindert oder gemindert werden, unter dem 52,4%
leiden. Um nicht die Geduld der Teilnehmer zu überstrapazieren wurde nur ein Teilgebiet
wesentlicher Faktoren evaluiert. Zur Untersuchung der Beziehung ergonomischer Aspekte
und dem Auftreten von computerbedingten Schmerzen wurden die Teilnehmer in eine
ergonomisch angepasste Gruppe und eine kontrahierende Gruppe mit geringerer
Anpassung an die Mensch-Computer Interaktion eingeteilt. Beim Vergleich der
Häufigkeiten gesundheitlicher Beschwerden weist die erste, ergonomiebewusste Gruppe
einen niedrigeren Mittelwert auf. Betrachtet man nur die einzelnen
Gesundheitsbeschwerden, so fällt auf, dass der ergonomisch angepasste Sektor zwar
häufiger unter Schulterschmerzen zu leiden hat, aber auch zu einem geringfügigeren
Prozentsatz an Handgelenksschmerzen leidet. Weitere bedeutende Unterschiede
zwischen den zwei Clustergruppen konnten nicht identifiziert werden. Dass es kaum
gesundheitliche Unterschiede zwischen diesen Gruppen gibt kann unter Umständen damit
begründet werden, dass viele Personen erst auf eine ergonomische und
gesundheitsschonende Nutzung des PCs achten, nachdem die ersten Beschwerden
aufgetreten sind.
Abbildung 57: Einteilung nach PC-Gebrauchszweck
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 54
Abbildung 58: Ergonomische Faktoren der Computerplätze
Der folgende Abschnitt des Fragebogens erhebt gesundheitliche Aspekte der HCI. Die
erste Frage klärt, wie häufig Schmerzen beim Computergebrauch auftreten. 30,1%
antworteten mit nie, 35,9% mit sehr selten, 27,2% selten und 6,8% mit oft. Die Option sehr
oft wurde nie ausgewählt. Die Vermutung des Autors, dass mit zunehmendem Alter
vermehrt mit gesundheitlichen Komplikationen zu rechnen wäre, konnte nicht bestätigt
werden. Ebenso scheint die Verweildauer vor dem PC keinen Einfluss auf die Häufigkeit zu
nehmen. Im Detail bestimmen sieben Unterpunkte typische computerbedingte
Schmerzerscheinungen. Die häufigsten Beschwerden betreffen Hals und Rücken, gefolgt
von Handgelenksschmerzen. Immerhin noch bei je 22,1% der Teilnehmer können bei einer
längeren PC Nutzung Schultern- oder Kopfschmerzen auftreten.
Abbildung 59: Auftretende Schmerzen im Detail
Das Auftreten von Handgelenksschmerzen korreliert stark mit dem Alter. Sie treten
vergleichsweise selten bei Personen unter 26 Jahren auf. In dieser Gruppe sind etwa 23%
der 61 Personen betroffen. Dieser Prozentsatz steigt auf 45% für Personen über dieser
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 55
Altersgrenze an. Von den drei an dieser Studie teilgenommenen Computernutzern über 50
Jahren gaben alle an, dass Probleme im Handgelenksbereich auftreten können. Eine
wesentliche Beeinflussung für Hals- und Rückenschmerzen stellen die Höhe der
Arbeitsfläche, beziehungsweise der Abstand zur Stuhlhöhe und die Form der Tischkante
dar. So geben 59% der Teilnehmer mit diesen Beschwerden an, dass die Tischkante
störend gegen den Unterarm drückt. In dem Fall, dass die Tischkante keine negativen
Auswirkungen auf den Benutzer hat, tritt dieses Symptom nur mit einer
Wahrscheinlichkeit von etwa 29% auf. Die Auswertung der Beschwerden im
Schulterbereich ergibt, dass diese meist zusammen mit Hals- oder Rückenschmerzen
entstehen. Ausreichend freier Raum unter dem Arbeitstisch vermindert das Risiko von
Beinschmerzen. Bei nur 7,1% der Teilnehmer treten diese trotz genügend Platzangebot
auf. In der Referenzgruppe ohne Beinfreiheit ist das Auftreten von Schmerzen mit 21,1%
um ein Vielfaches wahrscheinlicher. Weitere Ergebnisse sind, dass ein lautes Umfeld
Kopfschmerzen begünstigt.
Weitere signifikante Vorteile konnten nicht bestätigt werden. Ebenso scheiterte der
Versuch, die Häufigkeit auftretender Schmerzen mit Hilfe der Regression zu bestimmen,
an einer zu geringen Vorhersagekraft. Diesen Umstand führt der Autor auf die mit 104
Teilnehmern zu kleine Gesamtmenge zurück.
Überraschend hoch war die Anzahl der PCs pro Haushalt. In jedem Haushalt der 104
Teilnehmer befindet sich zumindest 1 PC, dies war zu erwarten. Allerdings ist die Anzahl
der Haushalte mit nur 1 PC mit einem Anteil von nur 10,6% verhältnismäßig gering. 2 PCs
sind in 36,5% der Haushalte zu finden und 52,9% der Haushalte verfügen über 3 oder
mehr PCs. Der Großteil der Teilnehmer, 94,2%, zeigt Interesse an moderner Technik.
Etwas spezifischer war die folgende Frage, die das Interesse an Computerkomponenten
evaluierte. Die Zustimmung zu dieser Frage fiel um 6,8 Prozentpunkte geringer aus und
trifft nur noch auf 87,4% zu.
7.2 Auswertung der Monitore
7.2.1 Betrachtung der Ist–Situation
Für die Erhebung des aktuellen Ist-Zustandes dienen sieben Fragen, die von den
Teilnehmern mit den Antwortmöglichkeiten „Trifft zu“, „Trifft nicht zu“ und „Weiß nicht“
beantwortet wurden. Die Abbildung 60 stellt die Ergebnisse grafisch dar. Sechs der Fragen
erheben technische Daten, die letzte eruiert die Einsatzhäufigkeit der zwei Zusatzfeatures
Hochformat und Lautsprecher.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 56
Abbildung 60: Ist-Zustand der PC-Monitore
Die Umfrage ergibt, dass mit 88,3% beinahe ausschließlich LCD Bildschirme zum Einsatz
kommen. Die Nutzungsdauer hat den größten Einfluss auf die verwendete
Bildschirmtechnologie. Je länger vor dem PC verweilt wird, umso höher ist die Tendenz
zum LCD Bildschirm ausgeprägt. Dies trifft insbesondere auf Personen zu, die den PC
länger als sechs Stunden täglich nutzen. Unter diesen 57 Personen verwenden nur zwei
Befragte keinen LCD Monitor. Neben diesen statistischen Korrelationen seien noch zwei
wesentliche technische Abhängigkeiten, das 16:10-Breitbildformat und die integrierten
Lautsprecher, erwähnt. Diese Eigenschaften treten ausschließlich bei LCD Monitoren auf.
In der Regel gelten LCD Bildschirme als gesundheitsschonend. In der Umfrage konnte
allerdings kein eindeutiger Zusammenhang zwischen der Technologie und
gesundheitlichen Aspekten, etwa dem Auftreten von Kopfschmerzen, nachgewiesen
werden.
Aus ergonomischer Sicht ist auch die aktuelle Situation der Größe der Anzeigeflächen
erfreulich. 83,5% der Befragten geben an, einen Monitor mit großer Fläche zu benutzen,
wobei in der Umfrage 18,5 Zoll als Grenzwert definiert wurde. Werden die PCs zum
Arbeiten genutzt, so sind sie mit einer Wahrscheinlichkeit von 88,5% großflächig. Bei
Freizeit-PCs sind mit etwa 50% beide Kategorien ausgeglichen.
Das Aufkommen der Breitbildschirme macht sich nicht nur bei Fernsehern, sondern auch
bei den PC Monitoren bemerkbar. Allerdings verwenden derzeit mehr befragte Personen
einen Bildschirm in Standardgröße, sprich in 4:3 oder 5:4 Format. Zusätzliche Features,
wie das Drehen der Anzeigefläche um 90 Grad zum Darstellen von Hochformat oder
eingebaute Lautsprecher sind selten anzutreffen, und werden noch seltener tatsächlich
genutzt.
7.2.2 Betrachtung der Soll–Situation
Die Durchführung der Conjoint Analyse basiert auf 96 Datensätzen. Da die Conjoint
Analyse keine fehlenden Werte erlaubt mussten die restlichen 8 Personen für die
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 57
Bewertung des Monitors ausgeschlossen werden. Bereits erwähnt wurde, dass als
Qualitätsmesser des Modells die zwei Kriterien Pearson r und Kendall tau eingesetzt
werden. Für das aggregierte Modell betragen diese Werte 0,977 und 0,917.
Für alle Umfrageteilnehmer
ergeben sich die folgenden
Wichtigkeiten: Mit 20,5% Anteil am
Gesamtnutzen ist die Reaktionszeit
die einflussreichste Eigenschaft des
Monitors. Als das mit einem 18,4
prozentigem Einfluss
zweitwichtigste Feature konnte die
Größe der Bildschirmdiagonale
identifiziert werden. Ihnen folgen
der Kontrast und die
Anpassungsfähigkeit. Die Kosten
stehen für die gesamte Gruppe nur
an fünfter Stelle. Weniger als je 10%
entfallen auf das Bildschirmformat,
den integrierten Lautsprechern sowie
der Nutzung als Hochformat. Betrachtet man die Resultate jeder Person gesondert, so
ergibt sich die in Abbildung 61 ersichtliche Nutzenverteilung.
Interessanter, vor allem aus wirtschaftlicher Sicht, ist das Auffinden von homogenen
Gruppen und deren produktspezifischen Präferenzen. Daher erfolgt die Einteilung der
Gesamtmenge in 4 Gruppen mit Hilfe der hierarchischen Clusteranalyse. Nach der
Elimination der extremen Ausreißer erfolgt die eigentliche Fusionierung mittels Ward-
Methode. Das entsprechende Dendrogramm im Kapitel Dendrogramme der
Clusteranalysen des Anhangs stellt den Fusionierungsprozess grafisch dar. Die
Eigenschaften der resultierenden Gruppen werden folgend präsentiert. Abbildung 62 fasst
die prozentuelle Wichtigkeit der erhobenen Eigenschaften für alle Gruppen zusammen.
Ebenso aufschlussreich ist die Betrachtung der Teilnutzenwerte. Sie geben die
Auswirkungen der einzelnen Attributausprägungen auf den Gesamtnutzen an. Hierbei ist
allerdings zu beachten, dass sich die Werte, etwa aufgrund unterliegender Subcluster,
gegenseitig aufheben können. Im Anhang sind die Teilnutzen aller drei Komponenten zu
finden. Die Teilnutzen für den Bildschirm sind auf der Seite 88 abgebildet.
Abbildung 61: Individuelle Faktorenwichtigkeit in %
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 58
Abbildung 62: Clustergrößen & prozentuelle Faktorenwichtigkeiten der Monitorgruppen
Die Mitglieder der 1. Gruppe legen hohen Wert auf eine große Bilddiagonale. Mit einem
Anteil von beinahe 36% dominiert dieser Faktor deutlich innerhalb dieser homogenen
Gruppe. Die Qualität der Reaktionsgeschwindigkeit liegt an der zweiten Stelle, sinngemäß
werden rasche Reaktionszeiten bevorzugt. Diese zwei Attribute sind mit einer kumulierten
Wichtigkeit von 58% entscheidend für diese Käufergruppe. Mit einem großen Abstand zu
diesen zwei Faktoren stellen die Produktkosten die drittwichtigste Einflussgröße dar. Ob
sich das Ausgabegerät auch horizontal nutzen lässt oder nicht, etwa für Office
Anwendungen, ist für diese Gruppe unerheblich. Ebenso macht die erste Gruppe kaum
Unterscheidungen zwischen den verfügbaren Bildschirmformaten. Diese Features sollten
daher zu Gunsten der Kosten nicht oder nur die günstigere Variante implementiert
werden. Das beste Produkt für diese Gruppe wäre ein günstiger Bildschirm, der eine große
Darstellungsfläche im 16:10 Format aufweist, Lautsprecher und ein hohes
Kontrastverhältnis besitzt, sowie eine gute Reaktionszeit aufweisen kann. Ein Produkt mit
schlechter Reaktionszeit und kleiner Bilddiagonale würde bei dieser Zielgruppe keine
Kaufbereitschaft wecken. Auffällig ist, dass diese Gruppe am zahlreichsten im zweiten
Ergonomie-Cluster auftritt, und aus diesem Grunde am ehesten dazu neigt, keinen an
ergonomische Richtlinien angepassten Computerplatz zu nutzen. Daher ist es nicht
verwunderlich, dass kaum ergonomische Bedingungen an den Bildschirm gestellt werden.
Ob sich der Bildschirm nicht, nur im Neigungswinkel oder auch höhenmäßig verstellen
lässt, ist kaum von Bedeutung. Die Mitglieder der Gruppe nutzen verhältnismäßig selten
ihren PC für alle abgefragten Verwendungszwecke, sondern neigen dazu, den PC als reines
Arbeitsgerät zu verwenden.
Die zweite identifizierte Gruppe zeigt ein großes Interesse an der Reaktionszeit. Zugleich
ist der Unterschied, ob ein Standardformat oder ein Breitbildformat genutzt wird, von
primärer Beachtung, wobei das 16:10 Format einen klaren Gesamtnutzengewinn bewirkt.
Die deutliche Präferenz des Breitbildformats ist die Besonderheit der 2. Gruppe. Den
restlichen drei Gruppen ist das Bildformat nicht nur unwichtig, sondern sie neigen darüber
hinaus eher zum 4:3 oder zu ähnlichen Formaten. Den dritten und vierten Platz belegen
mit 14% respektive 13% die Anpassungsmöglichkeiten und die Größe der Bilddiagonale.
Von allen Gruppen hat diese angegeben, den ergonomisch am ehesten dem Ideal
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 59
entsprechenden Computerplatz zu nutzen. Dies sei erwähnt, da die Betrachtung der
Anpassungsausprägungen ergibt, dass anscheinend kein großer Wert auf einen Monitor
gelegt wird, dessen Neigungswinkel und Höhe verstellbar ist. Erklären lässt sich dies
aufgrund der Subcluster, die zum Teil eine Anpassung bevorzugen, zum Teil aber auch
ablehnen. Dies könnte unter Umständen auf höhenverstellbare Tische, Monitorsockel
oder Bildschirmhalter zurückzuführen sein, die die Anpassungsoptionen des Bildschirms
überflüssig machen. Mit dem Wegfall der Nutzeranpassung verbleibt daher eine große,
breite Darstellungsfläche mit schneller Reaktionszeit als die bedeutsamsten
Anforderungen. Die Auswertung des Alters ergibt, dass dieser Cluster den jüngsten
Altersschnitt aufweist. Produkte dieser Kategorie sprechen verhältnismäßig viele Schüler
an, werden von Studenten aber deutlich seltener als zu erwarten ist, nachgefragt.
Die nächste Gruppe ist mit einem Anteil von 51% der größte der berechneten Cluster. Die
Zielgruppe bevorzugt hohe technische Qualität und ergonomische Mindestanforderungen.
Mit einem Anteil von 21% beziehungsweise 20% stellen die Kontrastrate und die
Reaktionszeit die zwei wichtigsten Parameter auf den Gesamtnutzen dar. Mit einer
Wichtigkeit von beinahe 15% folgen ihnen die Anpassungsmöglichkeiten des Bildschirms.
Ist keine Anpassung möglich oder kann nur der Neigungswinkel verstellt werden, so würde
diese Gruppe einen deutlich niedrigeren Gesamtnutzen erzielen. Beinahe gleich stark ist
der Wunsch nach einer großen Bildfläche. Die verbleibenden Faktoren, Bildschirmformat,
Hochformat und Lautsprecher, zählen zu den vernachlässigbaren Eigenschaften. Auch
diese Gruppe nutzt ihren PC in einer überdurchschnittlich angepassten ergonomischen
Umgebung.
Die 4. Gruppe mit 12 Personen kann dank ihrer Preissensibilität eindeutig von den
anderen Gruppen unterschieden werden. Bildschirme sind für diese Gruppe erst
interessant, wenn diese kostengünstig zu erwerben sind. Der zweitwichtigste Faktor nach
den Kosten stellt die Größe des Bildschirms dar, bevorzugt werden hierbei große
Bildschirme gegenüber kleineren Modellen. Die Reaktionszeit nimmt den dritten Rang ein.
Daher empfiehlt es sich, unwichtigere Eigenschaften wie etwa alle Zusatzfeatures, aber
auch technische Qualitätsmerkmale wie etwa ein hohes Kontrastverhältnis, zu Gunsten
des Preises einzuschränken. Das gilt auch für die Anpassungsoptionen, vor allem da eine
Anpassung der Höhe von der Zielgruppe nicht gefordert wird, sondern eine Abstimmung
des Neigungswinkels ausreicht.
Jeder Cluster bevorzugt große Bildschirme. Betrachtet man alle Faktoren mit Ausnahme
des Preises, so verursachen große Anzeigeflächen innerhalb zweier Cluster den größten
Nutzengewinn. Auch für die restlichen zwei Cluster ist die Bildschirmgröße ein wichtiger
Faktor. Von allen Teilnehmern bevorzugten nur zwei Personen kleine Bildschirme
gegenüber den größeren Modellen. Einzig die zweite Gruppe legt Wert auf einen breiten
Bildschirm im 16:10 Format. Die starke Präferenz der Breitbildschirme ist das eindeutigste
Merkmal dieser Gruppe. Die restlichen Gruppen zeigen leichte Tendenzen zum 4:3
Standardformat. Für diese Umfrageteilnehmer ist das Bildformat allerdings ein
unwichtiges Merkmal, das kaum Auswirkung auf den Gesamtnutzen hat. Als ein eher
vernachlässigbares Feature kann die Möglichkeit, den Bildschirm um 90 Grad zu drehen
und als Hochformat zu nutzen, bezeichnet werden. Als Hochformat nutzbare Bildschirme
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 60
werden zwar generell bevorzugt, aber auch hier gilt, dass sie nur einen geringen Einfluss
auf den Gesamtnutzen haben. Die Wichtigkeit der Anpassungsmöglichkeiten des
Bildschirms an den Benutzer hätte der Autor vor der Studie als einen wesentlichen Faktor
eingeschätzt. Allerdings zeigt sich, dass nur der dritte Monitorcluster großen Wert auf
Bildschirme legt, die in Neigungswinkel und Höhe verstellt werden können. Dennoch
sollten dieser Aspekt auf keinen Fall vernachlässigt werden, da alleine diesem Cluster 51%
der Teilnehmer zugeteilt wurden. Im ersten und vierten Cluster sind die Meinungen zu
diesem Thema geteilt: Hier heben sich die Personen, die sich anpassbare Monitore
wünschen, mit denen, die keinen Wert auf diese Features legen, in etwa auf. Einzig die
zweite Gruppe benötigt explizit keine Ausrichtungsoptionen. Im Zweifelsfalle sollten die
Anzeigeflächen dennoch zumindest kippbar sein, da dies nur einen geringen Aufwand in
der Herstellung bedeutet. In den Bildschirm integrierte Lautsprecher werden von den
meisten Personen abgelehnt. Als mögliche Ursachen können zum Beispiel die bessere
Qualität der externen Lautsprecher oder der zusätzliche Platzverbrauch genannt werden.
Die Kontrastrate, welche das Verhältnis zwischen hellen und dunklen Bildpunkten misst,
stellt für den dritten Cluster das wichtigste Entscheidungskriterium dar. Diese qualitäts-
und ergonomiebewusste Gruppe verdient insbesondere aufgrund seines 51 prozentigen
Anteils vermehrte Aufmerksamkeit. Aber auch für zwei weitere Gruppen ist die
Kontrastrate von Interesse, ausschließlich für den zweiten Cluster ist sie unwichtig. Wie zu
erwarten war bevorzugen alle Personen den besseren Kontrast. Die Reaktionszeit wird als
eine der wichtigsten Eigenschaften wahrgenommen. Für alle Gruppen bedeutet ein
rascher Bildaufbau den größten oder zweitgrößten Nutzengewinn. Es empfiehlt sich
daher, den Interessenten Monitore mit hochwertiger Technik entsprechend zu
kommunizieren.
7.3 Auswertung der Tastaturen
7.3.1 Betrachtung der Ist–Situation
Abbildung 63: Ist-Zustand der PC-Tastaturen
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 61
Der Tastatursektor wird mit einer Verbreitung von 96,2%, eher mit 99% wenn auch die
Tastaturen mitgerechnet werden deren Layout ungewiss ist, eindeutig von lokalen Layouts
dominiert. Ebenso haben sich die von Microsoft eingeführten Windows Tasten
durchgesetzt. Sie sind auf 9 von 10 Keyboards zu finden. Allerdings gaben 45% der
Personen mit einer Windows Tastatur an, diese Zusatztasten nicht regelmäßig zu nutzen.
Tendenziell greifen eher Personen mit hohen Computerkenntnissen und alle
Personengruppen ab 21 Jahren auf die Funktionen der Windowstasten zurück. Insgesamt
gaben 78,2% an eine Tastatur mit Zusatztasten zu verwenden. Multimedia Tastaturen
oder sonstige Keyboards mit einer erweiterten Tastenanzahl sind in allen PC-
Gebrauchssparten vertreten. Die größte Differenz ist zwischen Spielern und Nicht-Spielern
auszumachen. Ein wesentliches Merkmal benutzerfreundlicher Tastaturen sind
ergonomische Bauweisen. Im Moment werden herkömmliche Bretttastaturen deutlich
häufiger zur Interaktion genutzt. Eine genauere Betrachtung ergibt, dass eher Personen,
die potentiell an Halsschmerzen, Rückenschmerzen oder Schmerzen in den Schultern
leiden, ergonomische Tastaturen benutzen. Einen starken Einfluss auf das Auftreten von
Handgelenksschmerzen konnte nicht nachgewiesen werden, etwa ein Drittel beider
Kategorien sind hiervon betroffen. Des Weiteren ergibt die Analyse des Ist-Zustandes,
dass sich der Neigungswinkel bei 74% der Tastaturen verstellen lässt, dass mit 88,3% die
meisten Tastaturen kabelgebunden sind und dass eine deutliche Mehrheit den
Ziffernblock der Tastatur benötigt. Die letzte Frage evaluierte die Bereitschaft zum
Erlernen und dem Umstieg zu einer effizienteren Tastenanordnung, wenn diese weit
verbreitet wäre. Als Beispiel kann etwa das Dvorak Layout angeführt werden,
beziehungsweise jede andere Anordnung mit nachgewiesenen Vorteilen gegenüber dem
monopolartig verbreiteten QWERTY Standarddesign. Von etwa 42% wurde diese Frage
bejaht, 29% wären dazu nicht bereit, und etwa 29% sind unschlüssig. Der Wille, QWERTY
zu ersetzen, ist durchaus vorhanden. Allerdings gilt zu bedenken, dass momentan für
öffentlich zugängliche Computer und (insbesondere Laptop-) Neuanschaffungen in der
Regel ausschließlich das Standardlayout zur Eingabe zur Verfügung stehen und somit von
keiner „weiten Verbreitung“ gesprochen werden kann. Die zwei wesentlichsten
Prädiktoren, ob eine Bereitschaft zum Erlernen vorliegt, sind das Interesse für
Computerkomponenten und die Selbsteinschätzung der Computerkenntnisse. Personen
mit hohem Interesse und hoher Kenntnis tendieren eher dazu, diese Frage mit „Ja“ zu
beantworten.
7.3.2 Betrachtung der Soll–Situation
Wie bereits bei der Vorgehensweise näher beschrieben wurde werden für die Analyse der
Soll Situation 93 Datensätze verwendet. Die Vorhersagequalität des Modells ist mit 0,986
beziehungsweise 0,929 für das Pearsons r und Kendalls Tau zufriedenstellend. Zuerst
werden erneut die Ergebnisse für alle Untersuchungsteilnehmer vorgestellt. Zu sehen ist,
dass alle ausgewählten Faktoren ähnlich wichtig zu sein scheinen, keine Eigenschaft
dominiert oder nimmt eine untergeordnete Rolle ein. Umso mehr wird daher auf einen
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 62
angemessenen Preis geachtet, der knapp hinter den Windows-Tasten und der
ergonomischen Gestaltung der Tastatur den dritten Rang belegt.
14,7%: Windows Tasten
14,4%: Ergonomisches Designs
13,5%: Kosten
10,9%: Feedback- Qualität
10,7%: Neigungswinkel
10,5%: Zusätzliche Tasten
9%: Anschluss
8,1% Spritzwasserfestigkeit
8%: Tastendrucktiefe
Auf welche Eigenschaften sich die
Teilnehmer bei der Tastaturauswahl
konzentrieren kann aus der 64.
Abbildung abgelesen werden. Bei der
Betrachtung dieser Grafik ist
erkennbar, dass der Gesamtnutzen des 28. Datensatzes vollständig durch die Kosten
bestimmt wird. Dies ist auch der Grund, weshalb er bei der Durchführung des Nearest
Neighbour Clusterverfahrens als Ausreißer identifiziert wurde und für die weitere Analyse
nicht verwendet wird. Bei der Aggregation zu vier Clustern entstanden drei größere
Sektoren, sowie die kleine 4. Gruppe, bestehend aus 5 Personen, die gesteigerten Wert
auf eine USB Anbindung ihrer Tastatur legen und kabellose Verbindungsarten ablehnen.
Die Graphen zu den Teilnutzen jedes Clusters finden Sie im Anhang auf der Seite 89.
Abbildung 65: Clustergrößen & prozentuelle Faktorenwichtigkeiten der Tastaturgruppen
Die erste identifizierte Gruppe legt großen Wert auf ergonomische Tastaturmodelle. Mit
dieser Eigenschaft hebt sie sich stark von der 3. und 4. Gruppe ab. Nicht nur bei der
Tastatur, sondern auch bei den erhobenen ergonomischen Faktoren des Computerplatzes
schneidet diese Gruppe aus ergonomischer Sicht sehr gut ab. Mit einer prozentuellen
Wichtigkeit von 14,5 steht die Möglichkeit, den Neigungswinkel anzupassen, an der
Abbildung 64: Individuelle Faktorenwichtigkeit
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 63
zweiten Stelle. Die Auswertung der Zusatztasten als auch dem Windows Tasten Feature
ergibt eine Wichtigkeit von etwa 12,5%. Die Ausprägungen der Drucktiefe, der
Spritzwasserfestigkeit sowie des Anschlusses haben kaum Einfluss auf die Modellauswahl.
Dass die Zielgruppe funkbasierende Interfaces bevorzugt stellt eine Ausnahme dar.
Tastaturen dieses Clusters müssen nicht unbedingt kostengünstig sein. Zwar werden
billigere Modelle bevorzugt, allerdings ist bei steigenden Kosten beinahe kein
Nutzenverlust sichtbar. Ihre Mitglieder und die der 2. Gruppe sind eher den etwas älteren
Teilnehmern zuzurechnen. Dies würde zum Teil die Kostenunempfindlichkeit erklären.
Ihre tägliche Nutzung ist die geringste aller Gruppen.
Die zweite Gruppe scheint die Gruppe der "Vielschreiber“ zu sein. Mit einem Anteil von
20% steht die Qualität des Tastenanschlags und des Feedbacks im Mittelpunkt des
Interesses. Damit hebt sich diese Gruppe klar von den anderen ab. Als zweites Kriterium
konnten die ergonomischen Aspekte ausgemacht werden. 16% des Gesamtnutzens wird
durch diesen Faktor bestimmt, allerdings gibt es starke Differenzen innerhalb der Gruppe.
So ist zu beachten, dass eine leichte Tendenz zu einer ergonomischen Bauweise
vorhanden ist, aber der Gesamtnutzen kaum ansteigen würde. Erklären lässt sich dieser
Umstand durch die Subcluster dieser Gruppe. Diese bevorzugen teilweise ergonomische,
als auch herkömmliche Bretttastaturen. Es erscheint daher sinnvoll, diesen Sektor zu
unterteilen und sowohl ergonomisch angepasste, als auch typisch standardförmige Arten
anzubieten. Beim Vergleich der Berufsgruppen zeigt sich, dass der Cluster, nach der
Streichung fehlender Wertepaare, zu 50% aus Studenten besteht, in dieser Gruppe
wiederfinden und somit von einer klaren Tendenz gesprochen werden kann.
Auch bei den Tastaturen gibt es einen Cluster, in dem die preisliche Komponente eine
entscheidende Rolle einnimmt. Aus technischer Sicht wünscht sich diese Gruppe vor allem
eine erweiterte Tastenanzahl. Diese Personengruppe erhofft sich Multimedia- oder
sonstige Zusatztasten, sowie die obligatorischen Windows Tasten. Die Qualität und
ergonomische Aspekte sind eher von sekundärem Interesse. Als unwesentliche Details
werden die Art der Anbindung an den PC und eine Spritzwassergewährleistung
angesehen. Diese Zielgruppe wünscht sich eine traditionelle, kostengünstige Tastatur.
Sonstige Zusatzfeatures, mit Ausnahme der Multimediatasten, sind nicht unbedingt
erforderlich. Interessant, insbesondere aus wirtschaftlicher Sicht, ist diese Gruppe dank
ihrer Größe. Mit einem Anteil von 39% ist sie der stärkste Tastaturcluster.
Eine Sonderstelle nimmt der folgende 4. Cluster ein. Dieser kleine, 5 Personen
umfassende Spezialfall wurde aufgrund seiner Vorlieben für den USB Anschluss,
beziehungsweise der Ablehnung einer kabellosen Verbindung fusioniert. Denn mit einem
43% Anteil ist dieser Faktor das Hauptkriterium. Die Gründe für eine Ablehnung einer
kabellosen Schnittstelle können vielfältig ausfallen. Der Autor vermutet, dass
insbesondere das Wechseln und Aufladen der Stromversorgung als unangenehm
betrachtet wird oder jederzeit eine unterbrechungsfreie Tastatureingabe gewährleistet
sein muss. Weit abgeschlagen folgt an zweiter Stelle die Ausprägung der Windowstasten,
die für eine Werterhöhung vorhanden sein sollten. In der Reihenfolge der
Nutzenmaximierung folgen ihnen eine gute Feedbackqualität sowie das Vorhandensein
weiterer Zusatz- und Multimediatasten. Mitglieder dieser Gruppe sind zu 60% im 2.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 64
Ergonomiecluster zu finden, die PC Nutzung geschieht daher in einer aus ergonomischer
Sicht schlechten Umgebung. Des Weiteren sollte bei der Art der Nutzung erwähnt werden,
dass die angeschlossenen PCs nie als ausschließliche Arbeitsgeräte, sondern entweder zur
reinen Freizeitgestaltung oder als Misch-PCs verwendet werden.
Alle Cluster bevorzugen Tastaturen mit ergonomischen Richtlinien. Die Frage, ob daher
ausschließlich ergonomisch geformte Tastaturen am Markt angeboten werden sollen
muss allerdings verneint werden. Viele Personen wünschen sich weiterhin traditionell
geformte Bretttastaturen und verweigern ergonomische Ansätze. Betrachtet man die
Teilnutzen, so ist nur beim 1. Cluster eine eindeutige Präferenz für Ergonomie-Tastaturen
erkennbar. Die Auswertung der Faktorenwichtigkeit ergibt, dass dieser Faktor auch in der
zweiten Gruppe von großer Bedeutung ist. Im Gegensatz zum 1. Cluster befinden sich in
diesem aber aufgrund der Subcluster auch Personen, die ergonomische Formen ablehnen.
Der 2. Cluster könnte daher je nach Präferenz in zwei Subcluster einteilt werden. Als
verpflichtend kann man die Windowstasten der Tastaturen ansehen. Sie sorgen bei so gut
wie allen Umfrageteilnehmern für einen hohen Zusatznutzen. Ebenso werden die
Zusatztasten beziehungsweise Multimediafunktionen von allen Clustern als angenehm
empfunden. Verglichen mit den Windowstasten werden sie jedoch geringfügiger
nachgefragt und bedeuten einen kleineren Nutzengewinn. Die ideale Ausprägung der
Drucktiefe ist für jedes Individuum unterschiedlich und kann nicht generell beantwortet
werden. Allerdings sind leichte Tendenzen zugunsten einer kurzen Wegstrecke
bemerkbar. Als einen unterdurchschnittlich wichtigen Faktor kann man auch die
Anschlussart bezeichnen. Insofern erstaunt es, dass es eine kleine Gruppe gibt, für die die
Art des Anschlusses eine Sonderstellung einnimmt und sich ausschließlich für
kabelgebundene Tastaturen entscheidet. Eine Verbindung über den USB wird auch im 2.
und 3. Cluster bevorzugt, nur in der ersten Gruppe gibt man einer Funkverbindung den
Vorzug. Alle Cluster bevorzugen es, wenn sich der Neigungswinkel der Tastatur verstellen
lässt. Dies trifft vor allem auf die ergonomiebewussten Personen zu. Zu den
wesentlicheren Eigenschaften zählt die Feedbackqualität. Sie ist für den 2. Cluster ein
Hauptkriterium.
7.4 Auswertung der Computermäuse
7.4.1 Betrachtung der Ist–Situation
Ebenfalls sieben Fragen werden zur verwendeten Computermaus gestellt. Die erste
Fragestellung erhebt, ob neben der Maus auch andere Zeigegeräte zum Einsatz kommen.
Die restlichen sechs Fragen sind technisch orientiert und betreffen die Bauweise.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 65
Abbildung 66: Ist-Zustand der PC-Mäuse
Die Auswertung der ersten Frage ergibt, dass immerhin 24,5% der beteiligten Personen
neben der Maus ein weiteres Zeigegerät als Inputdevice verwenden. Für viele Berufe sind
Trackballs, Grafiktablets und Ähnliche sinnvolle Erweiterungen zur Maus. Wie bereits im
Kapitel „Computermäuse im Kontext der HCI“ erwähnt wurde, kann für schmerzgeplagten
Personen der Umstieg auf alternative Eingabegeräte zur Schmerzlinderung besteuern.
Eventuell wurde dieser Prozentsatz von Personen beeinflusst, die ihren Laptop als
primäres Arbeitsgerät nutzen und diesen in der Umfrage bewerteten. Denn sie stellen
serienmäßig neben einem Trackpoint auch ein Touchpad zur Verfügung.
Die Umfrage zeigt, dass mechanische Mäuse beinahe vollständig von optischen Modellen
ersetzt wurden. Von der 104 Personen umfassenden Gesamtmenge nutzen nur 3
Personen keine optische Mausvariante.
76,9% der verwendeten Mäuse haben die Standardgröße. Als Referenz gilt der
Durchschnitt der marktüblichen Größen für PC- Mäuse. Laptopmäuse weichen
offensichtlich von der Standardgröße ab. Aber auch sehr sperrige Gehäuse können in die
Kategorie der untypischen Größen fallen. Bei der Größe der Maus konnte ein signifikanter
Zusammenhang mit der Variable Schmerzen in den Handgelenken festgestellt werden. Aus
der 80 Personen umfassenden Gruppe mit Standardgröße gaben nur 21 Personen (26%)
an, unter Schmerzen in den Handgelenken zu leiden. Werden alternative Mausgrößen
genutzt, steigt der Prozentsatz auf 57,9% an, dies entspricht 11 von 19 Personen. Folgend
soll die Anzahl der Maustasten näher beleuchtet werden. Die Auswertung der
Kreuztabelle zeigt, dass die Varianten mit zwei Haupttasten vorherrschen. 90% der
Umfrageteilnehmer verwenden diese Mausvarianten. Da es so gut wie keine Ein-Tasten
Mäuse mehr gibt ist davon auszugehen, dass die komplementären 10% der Gruppe ein
Eingabegerät mit mindestens drei Tasten verwendet. Bei 80% der Personen können
zusätzliche Tasten, etwa für die Navigation, gefunden werden. Bei 20% der Personen ist
dies nicht der Fall. 77% der Mäuse mit 2 Haupttasten verfügen über zusätzliche
Navigationstasten. In der Gruppe mit 3 oder mehreren Haupttasten besitzen alle 10
Mäuse dieser Kategorie, dies entspricht einem Anteil von 100%, Zusatzköpfe. Das Feature
Navigations- oder Zusatztasten steht in eindeutigem Zusammenhang mit dem Einsatz in
Spielen. Personen, die den PC auch als für Computerspiele nutzen, verwenden mit einer
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 66
Wahrscheinlichkeit von 88% Mäuse mit einer erweiterten Tastenanzahl. Bei den Nicht-
Spielern liegt der Anteil bei nur 27%. Von 104 Personen verwendet nur eine Person eine
Maus ohne Scrollrad. Allerdings produzieren kaum noch Hersteller Modelle ohne
integriertem Mausrad, sodass der Kunde selten Wahlmöglichkeiten hat (vgl. Geizhals,
2008).
7.4.2 Betrachtung der Soll–Situation
Als Basis der Conjoint Analyse der PC
Maus dienen 98 Datensätze. Für die
aggregierten Daten konnten ein
Pearson r von 0,954 und ein Kendall
tau von 0,824 erzielt werden. Für die
Wichtigkeit der Faktoren ergaben sich
die folgenden Werte, gelistet nach
ihrer Wichtigkeit:
18%: Abtastgenauigkeit
16%: Mausrad
15,5%: Tastenanzahl
12,1%: Gleitfähigkeit
10,4%: Kosten
8,6%: Größe
7,5%: Ergonomisches Design
6,5%: Art der Anbindung
5,1%: Oberfläche
Nach der Aufschlüsselung der aggregierten Nutzenwerte erreicht eine günstige,
ergonomische Maus mit hoher Abtastgenauigkeit und ausgezeichneter Gleitfähigkeit,
einem Mausrad mit drei Haupttasten sowie zusätzlichen Navigationstasten den höchsten
Nutzen. Auch wenn die Größe der Maus bei der Wichtigkeit an der 6. Stelle steht, so hat
die tatsächliche Ausprägung, gemeinsam mit der Beschaffenheit der Oberfläche, kaum
Auswirkungen auf den Gesamtnutzen der aggregierten Menge. Die individuellen
Präferenzen aller Teilnehmer sind in Abbildung 67 dargestellt.
Für die weitere Auswertung der gesammelten Daten macht man sich erneut die
Clusteranalyse zunutze. Das entsprechende Dendrogramm können Sie im Anhang finden.
Bei der Einteilung der Datensätze in homogene Gruppen erwiesen sich 4 separate
Clusterauswertungen für sinnvoll.
Abbildung 67: Individuelle Faktorenwichtigkeit in %
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 67
Abbildung 68: Clustergrößen & prozentuelle Faktorenwichtigkeiten der PC-Mausgruppen
Besonderes Augenmerk richtet der erste Cluster auf die Mausgröße und die Tastenanzahl.
Die bevorzugten Ausprägungen sind hierbei die Standardgröße und Modelle mit 3
Haupttasten, weitere Tasten sind nicht unbedingt notwendig. Die Navigationstasten
werden sogar von den meisten Clustermitgliedern als störend empfunden und reduzieren
den Gesamtnutzen. Dies trifft insbesondere auf Modelle mit zwei Haupttasten zu. Etwas
geringer ist der Einfluss von Qualitätsfaktoren in Form der Abtastgenauigkeit und
Gleitfähigkeit. Die 15 Gruppenmitglieder zeichnen sich durch überdurchschnittlich langen
PC Gebrauch aus und gehören zu den jüngsten Studien-Teilnehmern. Somit lässt sich auch
der verhältnismäßig hohe Anteil an Schülern, 28,6%, erklären.
Der 2. Cluster besteht aus 44 Gruppenmitgliedern und formt daher den stärksten Sektor.
Für diesen werden leistungsfähige und qualitativ hochwertige Modell nachgefragt. Ein
Viertel der Aufmerksamkeit kann der Genauigkeit und Präzision des Produkts
zugeschrieben werden. Mit annähernd 15% folgen die Gleitfähigkeit und die Tastenanzahl,
wobei ein starker Hang zu drei Tasten, inklusive Navigations- oder sonstiger Zusatztasten,
bemerkbar ist. Alle anderen Tastenausprägungen werden abgelehnt. Verglichen mit den
anderen Gruppen nehmen ergonomische Faktoren eine untergeordnete Rolle ein. Eine
Besonderheit des Clusters zeigt sich bei der Analyse der Kosten, bei einigen
Gruppenmitgliedern kommt es zur Umkehrung der Regel, dass günstigere Produkte
bevorzugt werden. Da dieser Faktor für die Gruppe generell kaum von Interesse ist,
bleiben die Teilnutzen der drei Ausprägungsmöglichkeiten in etwa neutral. Der
Altersschnitt ist der höchste aller Gruppen, wodurch sich ein Teil der Kostenstarrheit
erklären lässt.
Die dritte Gruppe legt großen Wert auf Mäuse mit Scrollrädern. Zwar bevorzugen alle
Umfrageteilnehmer dieses Feature, allerdings ist der Wunsch nach Mausrädern in diesen
Fällen mit einer durchschnittlichen Wichtigkeit von 31,7% besonders stark ausgebildet. Es
werden nur zwei Haupttasten benötigt. Für die Gruppe scheint eine angenehme
Handhabung und Bedienung im Vordergrund zu stehen. Zusätzliche Features sind ebenso
wie technische Perfektion zweitranging. Die angepassten Mäuse sollten eine
gummibeschichtete Oberfläche aufweisen, um den Gesamtnutzen des Clusters zu
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 68
maximieren. In diesem Punkt unterscheidet sich der Cluster von den anderen. Allerdings
hat dieser Faktor, ebenso wie dessen Nutzenwerte der Levels, nur einen minimalen
Einfluss bei der Wahl des geeigneten Mausmodells. Ob sich aus ökonomischer Sicht eine
gummibehaftete Oberfläche lohnen würde vermag der Autor zwar nicht zu beantworten,
Voraussetzung für eine Anschaffung ist sie allerdings nicht. Auch diese Gruppe verbringt
eine beachtliche Zeit vor dem PC.
Wie auch bei den Monitoren gibt es auch bei den Computermäusen eine Zielgruppe,
bestehend aus 13 Teilnehmern, die ausschließlich preisbewusste Produkte schätzt. In der
Rubrik der Mäuse hat der Kostenfaktor einen Einfluss von 23%. Die Anzahl der Maustasten
ist die zweitwichtigste Variable. Abgelehnt werden Varianten ohne Navigationstasten,
insbesondere wenn sie nur zwei Haupttasten aufweisen können. Die Leistung und Qualität
der Maus ist verhältnismäßig unwichtig. Auf die Umsetzung ergonomischer Richtlinien
sollte allerdings geachtet werden. Die Eigenschaften des Clusters können durch die
kürzeste tägliche Nutzungsdauer und einen überdurchschnittlich hohen Frauenanteil
beschrieben werden. Angeschlossene PCs dieser Kategorie werden selten als reines
Arbeitsgerät betrachtet, sondern für vielfältige Zwecke eingesetzt.
Zusammenfassend soll erwähnt werden, dass die Verbauungsgröße der Maus nur für eine
Gruppe ein einflussreiches Merkmal darstellt, und diese Gruppe Mäuse in Standardgrößen
bevorzugt. Für die anderen Gruppen spielt die Mausgröße keine übergeordnete Rolle,
solange sie sich vernünftig bedienen lässt. Die Gestaltung der Oberfläche, Plastik oder
Gummi, ist für den Durchschnittsnutzer bedeutungslos. In der Regel werden
Plastikoberflächen bevorzugt, der für den Gesamtnutzen sind die Ausprägungen allerdings
nebensächlich. Ergonomische Bauweisen werden in allen Clustern bevorzugt. Zwar spielt
diese Eigenschaft keine beherrschende Rolle bei der Produktauswahl, sie wird allerdings
mit Ausnahme des 2. Clusters als wichtig empfunden. Die Gleitfähigkeit reiht sich im
Mittelfeld ein. Speziell der zweite Cluster mit seinem Hang zu leistungsstarken Mäusen
fordert eine hohe Qualität der Mausfüße. USB-Anschlüsse werden eher nachgefragt als
kabellose Verbindungen. Sowohl die Faktorenwichtigkeit als die Nutzenauswirkungen
zeigen, dass es sich hierbei um eine untergeordnete Eigenschaft handelt. Einige Personen
lehnen die kabelgebundenen Mausvarianten ab, im Sinne der Clusteranalyse sind diese
Unterschiede aber nicht groß genug um einen eigenen, kabellosen Cluster zu erzeugen.
Die Anzahl der Tasten spielt für alle Gruppen eine wichtige Rolle. Entsprechende
Meinungsverschiedenheiten über die optimale Anzahl der Maustasten sind zwischen allen
Gruppen erkennbar. Im Zweifelsfalle empfiehlt der Autor Varianten mit drei Haupttasten
und integrierten Navigationstasten. Diese Variante würde zwar für Personen des 1.
Clusters einen geringen negativen Nutzen bedeuten, wird aber von den anderen Gruppen
als positive Eigenschaft wahrgenommen. Kein Zweifel kommt bei der Verbauung des
Mausrades auf. Dieses erweist sich als Pflichtattribut. Mit Ausnahme einer einzigen Person
wird es von allen Personen nachgefragt.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 69
7.5 Komponentenübergreifende Ergebnisse der Analyse
Eine Fragestellung, der in der Analyse nachgegangen wird, betrifft die Unterschiede
zwischen den männlichen und weiblichen Teilnehmern. Aufgrund der geringen weiblichen
Beteiligung kann davon ausgegangen werden, dass sich Frauen zum Teil weniger mit dem
technischen Computerumfeld beschäftigen, und durch die Art der Zugangsverteilung zum
Fragebogen Frauen möglicherweise benachteiligt wurden. Ein klarer Unterschied im
Nutzungszweck wurde bereits erwähnt: Die an der Umfrage teilgenommenen Frauen
nutzen ihren PC meist für berufsrelevante Zwecke und kaum ausschließlich für Spiele und
zur Unterhaltung. Des Weiteren ist die durchschnittliche Zeit vor dem PC etwas geringer.
Unterschiede gibt es auch bei den Ergebnissen der Soll-Auswertung. So ist der Frauen-
Anteil im 4. Monitor-Cluster mindestens doppelt so hoch als bei den anderen Gruppen.
Bei den Mäusen werden die 3. und 4. Gruppe bevorzugt, das sind Clustergruppen, die
nicht auf die Leistung fokussiert sind. Der Tastatursektor ist zu geschlechtsneutral um
Beziehungen nachweisen zu können.
Die Einteilung der gesammelten Daten in homogenere Kleingruppen ermöglicht eine
komponentenübergreifenden Analyse. Ausgangspunkt ist die Fragestellung, ob es Regeln
gibt, mit denen man einer Person ein ideales Produkt aufgrund der Kenntnisse über
andere Input- oder Outputklassen zuordnen kann. Ein einfaches Beispiel soll die
Vorgangsweise der Assoziationsregeln darstellen: Angenommen eine Person bevorzugt
eine ergonomisch geformte Maus und eine gesundheitsschonende Tastatur und ist daher
den entsprechenden Teilgruppen zugeneigt. Allerdings sind die Vorlieben über die
Monitoreigenschaften unbekannt. Mit Hilfe der Assoziationsregel in der Form wenn
ergonomiebewusste Maus- und Tastaturgruppe, dann Bildschirmclusterx würde man die
Bildschirmpräferenzen einer Person mit einer gewissen Wahrscheinlichkeit vorhersagen
können. Die Anzahl der gefundenen Regeln, wie häufig Regeln auftreten und deren
Vorhersagekraft werden bei der Analyse bestimmt. Der minimale Support wurde auf 5%
gesetzt. Als minimaler Konfidenzwert werden 45% definiert. Darüber hinaus werden nur
Regeln beachtet, deren Lift über 1,3 liegt und somit ein hohes Verhältnis zum
Erwartungswert aufweisen können. Unter Verwendung der Tastatur- und
Mauszugehörigkeiten als Antezedenten sowie den Monitorclustern als Konsequent erhält
man 2 Regeln. 3 Regeln definieren die Einteilung in einen der vier Tastatursektoren. Für
die entsprechende Assoziation der Mauspräferenzen konnten 3 Regeln gefunden werden.
Alle gefundenen Regeln, die den Minimalanforderungen genügen, werden in der
folgenden Tabelle dargestellt. Sie ist nach Komponenten und absteigendem Lift sortiert.
ID Antezedent Konsequent Unterstützung Konfidenz Lift
1 Tastatur_4 Monitor_1 5,2% 60% 3,23
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 70
2 Tastatur_2
Maus_3 Monitor_3 7,2% 71,4% 1,41
3 Monitor_1
Maus_2 Tastatur_1 10,3% 60% 1,94
4 Monitor_4 Tastatur_3 12,4% 66,7% 1,80
5 Maus_4 Tastatur_3 12,4% 50% 1,35
6 Tastatur_2
Monitor_3 Maus_3 11,3% 45,5% 1,84
7 Monitor_1
Tastatur_1 Maus_2 8,3% 75% 1,65
8 Monitor_2
Tastatur_2 Maus_2 6,2% 66,7% 1,47
Tabelle 1: Alle Assoziationsregeln der Analyse
Wie zu erwarten war, können aufgrund der harten Restriktionen nicht alle
Clusterzugehörigkeiten durch Assoziationsregeln beschrieben werden. Aus diesem Grund
werden nur wenige Regeln produziert, dementsprechend weisen sie ein hohes Maß an
Qualität auf. Im Folgenden sollen die Ergebnisse der Assoziationsanalyse besprochen
werden.
Mit einem Lift von 3,23 ist die erste Regel außergewöhnlich stark. Sie sagt aus, dass
Personen mit einem gewaltigen Fokus auf USB- oder sonstigen kabelgebundenen
Tastaturen große, schnelle Bildschirme nachfragen. Diese Gruppe legt anscheinend großen
Wert auf eine schnelle und sichere Verarbeitung. Attribute, die insbesondere für
Computerspieler und einige Berufsgruppen ausschlaggebend sein könnten.
In den Regeln 2 und 6 ist eine Personengruppe aufzufinden, die sich für ergonomische
Qualitätsprodukte entscheidet. Offenbar steht für diese Gruppe ein bequemes Arbeiten
am PC im Vordergrund. In ihren Präferenzen unterscheiden sich diese Cluster zum Teil
stark vom Rest: Als die wichtigste Eigenschaft des Bildschirms wurde ein hohes
Kontrastverhältnis identifiziert, die Tastatur benötigt ausgezeichnete
Schreibeigenschaften und muss beziehungsweise darf keinen, je nach individueller
Einstellung, ergonomischen Richtlinien folgen. Bei den Mäusen, inklusive Scrollrad,
verlangt man ebenfalls nach Qualität und ergonomischen Aspekten.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 71
Die Regeln 4 und 5 weisen den sehr kostensensitiven Personen des entsprechenden
Monitor- und Mausclusters der preisbewussten 3. Tastaturgruppe zu. Im Gegensatz zu
den Antezedenten spielen die Kosten in der Tastaturgruppe eine bei weitem geringere
Rolle. Diese fordert neben günstigen Anschaffungskosten auch ein gewisses Maß an
Qualität. Die Umkehrung, dass Personen dieses Tastaturclusters sich für kostengünstige
Monitore und Mäuse entscheiden, ist abzulehnen.
8. Ausblick auf die Zukunft der Hardware- HCI
Mit Sicherheit kann gesagt werden, dass uns in naher Zukunft die herkömmlichen
Eingabemöglichkeiten per Tastatur und Maus weiterhin erhalten bleiben. Allerdings
werden mit dem Fortschritt der Technologie einer breiten Masse an Nutzern neue Wege
der Interaktion angeboten: Shneiderman (1998) vermutet, dass sich gestische Eingaben,
dreidimensionale Zeigegeräte, sprachbasierende Ein- und Ausgaben, tragbare Geräte und
die vollständige Immersion des ganzen Körpers als brauchbare Alternativen zum Tastatur-
und Mausgebrauch erweisen werden. Ebenso darf man Änderungen und Verbesserungen
im Bezug auf Aussehen und Technik der aktuellen Geräte erwarten. Der nächste Abschnitt
zeigt anhand der künstlichen Welten und der Eingabe per Blickrichtung wie Arten der
zukünftigen Interaktion aussehen können.
8.1 Virtual & Mixed Reality
„Virtual Reality promises to revolutionise the way we use computers.“
Al Gore, 1991
In diesem Kapitel wird das vielversprechende Feld der Virtual und Mixed Reality
vorgestellt. Zwar wird in diesem Feld schon länger geforscht und auch die Resultate sind
beeindruckend, die Entwicklung ist aber stark von der verfügbaren Technologie limitiert. J.
Hollis (1997) betonte vor 11 Jahren, dass erst durch die ständig rascher voranschreitende
Entwicklung der Computational Power eine effiziente Erforschung und Entwicklung vieler
VR Bereiche und Anwendungen ermöglicht wird. Seitdem wurde, auch dank der
erwähnten Steigerung der Leistungsfähigkeit, vieles auf diesem Sektor vorangetrieben.
Dies gilt besonders für den Bereich der mobilen Systeme, da Hardwarefortschritte meist
auch Miniaturisierungen mit sich bringen. Leider stehen Virtual und Mixed Reality
Systeme und Anwendungen nur wenigen Personen, meist in Konzernen oder zu
Forschungszecken, zur Verfügung. Privatpersonen können sich die gigantischen Kosten im
Normalfall nicht leisten und es fehlen sinnvolle Anwendungen für den Privatbereich.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 72
Die Definition von Virtual beziehungsweise Mixed Reality sind nicht einheitlich. So ist es
durchaus möglich, dass die Begriffe einmal enger, einmal weiter aufgefasst werden. Eine
einheitliche Klassifikation sucht man ebenfalls vergeblich.
Für Stone, Jarrett, Woodroffe und Minocha (2005) bestehen VR Systeme aus Hard- und
Softwarekomponenten zur Erschaffung künstlicher Welten, die ausschließlich in einem
Computersystem existieren, und in denen unter Anderem reale Aufgaben nachgestellt
werden können. Zitiert man Burdea und Coiffet (2003), so ist Virtual Reality ein
hochentwickeltes Computer Interface, dass eine interaktive Simulation zur Echtzeit
ermöglicht, und dabei mehrere Sinneskanäle anspricht. Das Autorenteam stellt außerdem
das Konzept des Virtual Reality Triangle vor, dass drei wesentliche Begriffe der Virtual
Reality beinhaltet und welches alle Virtual Reality Systeme auszeichnet. Diese sind die
Immersion, die Interaktion und die Echtheit.
Während bei Burdea und Coiffet alle Systeme, die in diese Definition fallen, als VR
bezeichnet werden, klassifiziert Milgram den Bereich detaillierter. So stellt er in seinem
Konzept des Reality-Virtuality Continuums eine vierstufe Skala vor, an deren Endpunkte
die „reinen Welten“, also die vollkommen reale als auch die rein künstlich erschaffene
Welt, existieren. Alles, was sich zwischen den zwei Extremen befindet, gehört zur Klasse
der Mixed Reality. Als Virtual Reality bezeichnet Milgram nur die Systeme, die eine
vollständige Immersion einer ausschließlich künstlichen Welt anbieten. Die Mixed Reality
wird, je nachdem ob die primäre Welt eine natürliche oder künstliche ist, wiederum in
Augmented Reality beziehungsweise Augmented Virtuality eingeteilt (Abb. 69).
Abbildung 69: Reality-Virtuality Continuum als Klassifizierungshilfe (Milgram, Takemura, Utsumi & Kishino, 1994)
Es gibt nicht das VR oder MR System. Sie unterscheiden sich teilweise erheblich
voneinander. Die Anwendungen unterscheiden sich je nach verwendeter Technologie,
deren Interfacegeräten, technischen Gegebenheiten, etc. Kostengünstigere Systeme, die
nicht immersiv erfahren werden, sondern mit Hilfe eines Bildschirms dargestellt werden,
bezeichnen Burdea und Coiffet (2003) als Window-to-the-world, Shneiderman (1998) als
desktop virtual environments. Im Gegensatz zu „echten immersiven“ Umgebungen sind sie
auch für Privatpersonen leistbar, auch wenn der Effekt nicht mit seinen teureren
Varianten vergleichbar ist.
Für Shneiderman (1998) gibt es mehrere Faktoren, die für eine erfolgreiche künstliche
Umgebung Voraussetzung sind. Diese sind:
Visuelle Anzeige
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 73
Ermittlung der Kopfposition
Ermittlung der Handposition
Force Feedback
Ein- und Ausgabe von Geräuschen
Kooperations- oder konkurrenzunterstützende Umgebung
Sonstige Besonderheiten
Eine beliebte Methode zur Realisierung von dreidimensionalen Umwelten basiert auf der
Nutzung von Shutter Glasses. Deren Flüssigkristalle haben die Eigenschaft, wie bereits im
Kapitel der Bildschirme angeführt wurde, durch Anlegen eines Magnetfeldes die
Lichtbrechungsrichtung zu beeinflussen und bei der Freilassung augenblicklich in ihre
Ursprungsrichtung zurück zu wechseln. Daher können die Bilder eines Auges gezielt
blockiert werden. Synchronisiert man die Shuttergläser mit dem Anzeigemedium, das
alternierend Bilder für nur jeweils ein Auge projiziert, erfährt der Benutzer ein
dreidimensionales Erlebnis. Dessen Qualität hängt vom verwendeten Anzeigemedium ab:
Kostengünstig sind spezielle CRT-Monitore mit sehr hohen Bildwiederholfrequenzen. Da
die Shuttergläser die Hälfte der dargestellten Bilder aussortieren und somit die
Bildwiederholrate halbieren ist diese Methode für herkömmliche CRT-Bildschirme, ebenso
wie LCD-Bildschirme, ungeeignet. Solch eine desktop virtual environment ist in der
Abbildung 70 zu sehen. Einen hohen Grad an Immersion und Realismus bieten große,
würfelförmig angeordnete, von CRTs rückseitig bestrahlte Leinwände (Abb. 71). Diese
Systeme werden als CAVEs bezeichnet. Die virtuelle Umgebung entsteht im Gegensatz zur
vorherigen Methode nicht nur vor dem Benutzer auf dessen Bildschirm, sondern um ihn
herum. Neben der hohen Auflösung zeichnen sie sich durch ihre Multiuser-Fähigkeit aus.
Großflächige CAVEs können von dutzenden Personen betreten werden. Allerdings können
die Teilnehmer das Programm nicht gleichzeitig steuern.
Abbildung 70: Aufbau einer einfachen Desktop VE Abbildung 71: Das CAVE (beide: Burdea & Coiffet, 2003)
Wenn man an VR denkt, so hat man meist auch die Head Mounted Displays (HMD) im
Sinn. Diese Anzeigegeräte werden am Kopf angebracht. Vor den Augen sind zwei
voneinander unabhängige Bildschirme befestigt. Da das Computersystem die dargestellte
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 74
Szene für jeden Bildschirm berechnet, wird dem Gehirn durch den empfundenen
horizontalen Abstand eine Tiefenwahrnehmung vorgetäuscht, die gesehene Welt
erscheint dreidimensional (Abb. 72). Für VR Systeme konstruierte HMD trennen den
Benutzer optisch zur Gänze von der realen Welt. In der MR kommt es zur Vermischung
beider Umwelten. Deren HMDs sind transparent oder integrieren eine Kamera, die die
Außenwelt aufzeichnet, um die Realität mit den künstlich erschaffenen Objekten zu
überlegen. Zur Bestimmung der Blickrichtung sind in den meisten HMDs Tracker eingebaut
oder stellen Stecksysteme zur Verfügung.
Abbildung 72: HMDs mit zwei Monitoren ermöglichen stereoskopisches Sehen (Burdea & Coiffet, 2003)
Vom Standpunkt der HCI ist die Entwicklung von einfachen Ein- und Ausgabegeräten zu
den hochleistungsfähigen, natürlicheren Interaktionsmöglichkeiten ein großer Fortschritt.
Ein wesentlicher Vorteil ist die Nutzung mehrerer Sinneskanäle (Abb. 73). Im Gegensatz
zur traditionellen Informationsdarstellung des PCs ist man nicht auf die 2-dimensionale
visuelle Ebene beschränkt. Die dreidimensionale, stereoskopische Darstellung zählt in
diesem Gebiet schon lange zum Standard. Die Verwendung des auditiven Sinneskanals ist
auch für PCs eine beliebte Methode der Interaktion. Allerdings beschränken sich die
meisten Anwendungen auf das Wiedergeben von qualitätsschwachen Geräuschen. Für
Burdea und Coiffet (2003) sind monophone Geräusche in der traditionellen
Computerinteraktion ausreichend. Für die immersiven dreidimensionalen Systeme sind
diese in der Regel komplexer gestaltet. Sie reichen vom, auch für PCs verfügbaren, Dolby
Surround bis hin zum Convolving, das echtes, realistisches Hören ermöglicht. Ein
aufwändigeres Feature, das in spezielleren Systemen zur Verfügung steht, sind taktile
Rückmeldungen. Sie werden durch sogenannte Datasuits oder Datagloves ermöglicht, die
mit Hilfe kleiner Motoren eine der jeweiligen Interaktion entsprechende Gegenkraft
aufbauen. Eine Neuheit im Bereich der VR ist der Einsatz von Gerüchen. Eine rudimentäre
Simulation von Geruchsaromen ist nur in wenigen künstlichen Umgebungen vorhanden,
soll jedoch laut Chen (2006) in naher Zukunft zum Standard vieler Anwendungen werden.
Aktuelle Forschungen auf diesem Gebiet beschäftigen sich mit tragbaren
Geruchsinterfaces, die dem Benutzer die erzeugten Aromen gezielt in die Nase injizieren.
Stationäre Devices würden zwar eine Gewichtsreduktion des meist ohnehin schwer
beladenen Benutzers bedeuten, haben allerdings Nachteile bei mehreren gleichzeitig
aktiven Usern und dem Entfernen vorheriger Düfte. Noch kurioser ist der Versuch,
Geschmack zu vermitteln. Allerdings ist diese Komponente noch im Entwicklungsstadium,
eine kommerzielle Nutzung ist dem Autor nicht bekannt.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 75
Abbildung 73: Wissenschaftliche Relevanz bestimmter Sinne im Computergebrauch (Jessner & Sieberer, 2008)
Die Eingabe der Benutzer erfolgt in immersiven dreidimensionalen Welten üblicherweise
über eine 3D Maus, einen 3D Stab oder den beliebten Datagloves. Mit Hilfe des Datasuits
ist es gar möglich, die Bewegung der Beine, Arme und des Rumpfs zu erfassen. Sie
ermitteln die Position des jeweiligen Devices und bieten meist Knöpfe für
Interaktionsmöglichkeiten an. Mit ihrer Hilfe können Objekte auf natürlichem Wege wie in
der Realität interagiert oder mit Hilfe von eingeblendeten Steuer- und Bedienelementen
manipuliert werden. Für die Ermittlung der Position stehen diverse Methoden zur
Verfügung. Je nach Intention werden im Allgemeinen mechanische, magnetische oder
optische Sensoren bevorzugt. Eine weitere Form der Eingabe geschieht durch die
Auswertung der Blickrichtung des Benutzers.
Allerdings gibt es auch einige Nachteile in der Dateneingabe. So ist ebenso wie bei
direkten Zeigegeräten, im Sinne von Touchscreens und Ähnlichem, mit einer verstärkten
Ermüdung bei langem Gebrauch zu rechnen. Das Versperren der Sicht durch Arm und
Hand kann ebenfalls kritisiert werden. Des Weitern eignet sich diese Art der Technologie
nicht für alle Anwendungen und Aufgaben. Man denke etwa an das Verfassen eines
Textes: Für einen geübten Schreiber bleibt die Tastatur der schnellste Weg der
Digitalisierung.
Die derzeit spärliche Verbreitung dieser Systeme liegt zum Großteil an deren gewaltigen
Kosten. Der Aufwand für Software ist schwer zu bestimmen, da viele Faktoren Einfluss auf
den Preis nehmen. Im Gegensatz zur Software sind die Hardwarepreise leicht festzulegen
und auch hier erkennt man, dass das Preisniveau im VR und MR Bereich hoch angesiedelt
ist. Auf der Webseite www.vrealities.com des Distributors Virtual Realities kann sich der
geneigte Leser über die Eigenschaften und Kosten vieler gewerblicher VR-
Interaktionsgeräte informieren. Die folgende Aufstellung konzentriert sich nur auf den
Kostenfaktor dieser Devices. Einfache Shutter-Gläser kosten um 50 € ohne Sendergerät,
die monoskopischen HMDs i-glasses PC/SVGA ohne Zubehör bereits 600 €. Die ähnlichen,
komplexeren stereoskopischen HMDs i-glasses PC/SVGA 3D pro werden ohne Zubehör um
940 € gehandelt. Benötigte Spezialeingabegeräte haben ebenfalls ihren Preis, so betragen
etwa die Kosten der technisch simplen P5 Gloves 70 €, die kabellose 3D Maus SpaceGrips
kostet 2.500 €. Für die Erfassung des ganzen Körpers, zum Beispiel mit Hilfe des
GypsyGyro 18 um 45.000 €, erhöhen sich die Kosten drastisch. Komplettsysteme setzten
die Tendenz fort: auch das Visiondome 2 SX21 mit einem Durchmesser von 2,2 Meter und
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 76
einer Auflösung von 1400 x 1050 um 39.000 € beweist, dass die virtuelle und gemischte
Realität noch einen langen Weg vor sich haben, um zu weitverbreiteten Technologien zu
werden. Denn dafür ist die Senkung der Herstellungs- und Vertriebskosten eine wichtige
Voraussetzung.
Abbildung 74: Einige VR- Produkte: HMD, Dataglove, Datasuit und Visiondome (nach vrealities.com)
Allerdings scheinen dafür ihre möglichen Einsatzgebiete fast unbeschränkt zu sein. Sowohl
im wirtschaftlichen als auch privaten Sektor werden sich unzählige Anwendungen finden,
die sich zu den aktuellen Haupteinsatzgebieten der VR, dem virtuellen Prototyping der
Industrie, dem Einsatz zu Ausbildungszwecken und der Visualisierung komplexer
Informationen (Burdea & Coiffet, 2003) dazugesellen werden. Shneiderman (1998) führt
neben den praktischen Aufgaben, dazu gehören unter Anderem die Visualisierung von
komplexen Informationen, die direkte Manipulation von Objekten oder deren entfernte
Steuerung, auch außergewöhnlichere Einsatzgebiete an: Beispielsweise könnten durch VR
Systeme Fantasiewelten, Reisen in die Vergangenheit oder zu anderen Planeten oder die
Veränderung von Naturgesetzen simuliert werden. Besonders vielversprechend
erscheinen MR Anwendungen für berufliche Zwecke zu werden. Sie könnten bei der
Ausübung einer Tätigkeit mit der Hilfe eingeblendeter Zusatzinformationen, zum Beispiel
der richtigen Vorgehensweise oder bei der Identifikation wichtiger Objekte, unterstützend
aushelfen.
8.2 Eingabe mittels Blickrichtung
Eine weitere vielversprechende Eingabemöglichkeit der näheren Zukunft könnte auf der
Auswertung unserer Blickrichtung basieren. Wie auch im vorhin besprochenen Feld der
künstlichen Welten sind die Grundlagen bereits vorhanden, bedürfen jedoch noch
weiterführender Forschung um zur massenhaften Anwendung zu gelangen. Zur Einteilung
der Anwendung können diese in einen diagnostischen Bereich und eine interaktive Sparte
aufgeteilt werden (Qi, Wang & Huang, 2007). Die diagnostischen Anwendungen kommen
insbesondere in der Psychologie und der Marketingbranche zum Einsatz. Interessanter,
zumindest im Kontext der HCI, sind interaktive Systeme, die die Blickrichtung nicht nur
aufzeichnen, sondern auch auf diese reagieren, etwa um einen gewünschten Befehl
auszulösen. Diese Rubrik wiederum unterteilt sich in ein zweidimensionales und ein
dreidimensionales Mapping.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 77
Um die Blickrichtung zu messen wurden unterschiedliche Methoden entwickelt. Diese
unterscheiden sich wesentlich nach dem Grad des Eingriffs, der verwendeten Hardware,
und der Genauigkeit. Die aussichtsreichsten Kandidaten verzichten auf benutzerbefestigte
Hardware, etwa auf das Anbringen von Markern, und nutzen optische Geräte zur
Identifikation (Zhu & Ji, 2007). Diese sollen nun etwas detaillierter besprochen werden.
Zum Einen benötigen sie eine individuelle Kalibrierung des Systems vor der eigentlichen
Nutzung. Der zweite Punkt ist, dass die besten Ergebnisse erzieht werden, wenn der
Benutzer möglichst still ohne Bewegung des Kopfes vor dem Bildschirm verharrt. Dieser
Nachteil ist insbesondere bei den zweidimensionalen Methoden stark ausgeprägt, die
dreidimensionalen Vorgangsweisen versuchen diese Restriktion aufzuheben. Treffen diese
zwei Bedingungen zu, so kann die Nutzung der Blickrichtung als Eingabemedium aber
durchaus hervorragende Ergebnisse erbringen. So berichten Zhu und Ji (2007), dass die
Blickeingabe effizienter sei als traditionelle Eingabegeräte.
Sowohl für die zwei-, als auch
dreidimensionale Berechnung
der Blickrichtung kommen
Methoden (vgl. PPCR) zum
Einsatz, welche Reflexionen auf
der Netzhaut erfassen, und
unter Einberechnung der
relativen Anordnung zur Pupille
den erfassten Punkt des Bildschirms bestimmen. Aktuelle Technologien verwenden hierzu
eine Lichtquelle, die beinahe-infrarotes Licht ausstrahlt, um die Pupille für die
Bilderfassungssoftware identifizierbarer zu machen (Abb. 75). Zusätzlich verringert es den
Einfluss der gegebenen Lichtbedingungen auf die Erfassungsqualität des optischen
Trackers. Weitere Vorteile sind, dass beinahe-infrarotes Licht weder gesundheitsschädlich
noch sichtbar ist, und somit keine negative Einwirkung für den Nutzer darstellt (Qi, Wang
& Huang, 2007; Zhu & Ji, 2007)
Für interaktive Anwendungen ist die Auswertung des Datenstroms der optischen
Aufzeichnung wesentlich. So muss das System zu jedem Zeitpunkt einwandfrei erkennen,
ob sich der Nutzer eine Interaktion mit einem Bildelement wünscht. Sprich, es muss
erkannt werden, ob ein Befehl, vergleichbar mit der Form eines Mausklicks oder
Tastenanschlags, an den PC vorliegt. Eine Art der Auswertung misst die Bewegungen des
Augapfels innerhalb einer zeitlichen Einheit und kombiniert diese mit den örtlichen
Sprüngen der Augenfokussierung. Sind die Änderungen annähernd unverändert wird von
der Software ein Befehl ausgelöst.
Aktuelle Forschungen beschäftigen sich mit der Filterung der Befehle der Anwender aus
dem Datenfluss. Des Weiteren konzentrieren sich die Forscher auf die Verbesserung der
dreidimensionalen Erfassung der Augäpfel und der Blickrichtung. Diese ist naturgemäß
komplexer als das zweidimensionale Mapping, verspricht aber auch größere
Bewegungsfreiheiten und geringere Fehlerquoten.
Abbildung 75: Beinahe-infrarotes Licht erleichtert die Identifikation des Glanzpunktes und der Pupille (rechts) (Zhu & Ji, 2007)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 78
9. Conclusio
Die Human Computer Interaction ist ein aus vielen Unterdisziplinen bestehendes
wissenschaftliches Feld mit zunehmender Bedeutung. Wie der Name bereits andeutet,
beschäftigt sie sich mit der Interaktion zwischen Computern und deren Benutzer. Ein
zentrales Thema der HCI ist die Anpassung des User Interfaces an den Nutzer. Als
Beispielskonzept wird das User Centered Design vorgestellt, welches eine starke
Einbindung der Stakeholder vorsieht. Wie die Anpassung der Software- und
Hardwareprodukte der Informationstechnologie im Detail aussieht wird nicht besprochen.
Entscheidend ist allerdings, dass sie zur Erreichung eines kommerziellen Erfolgs auf die
Bedürfnisse der Benutzer zugeschnitten sein müssen. Bemerkbar machen sich vor Allem
ergonomische Aspekte bei der Erstellung von Gesetzen und Richtlinien. Für die
österreichischen Verhältnisse sind hierbei Teile des ArbeiternehmerInnenschutzgesetzes
und die Bildschirmarbeitsverordnung relevant. Die gesetzlichen Grundlagen für
Bildschirmarbeitsplätze stellen auf jeden Fall ein wichtiges Fundament dar, sind allerdings
meiner persönlichen Meinung vage formuliert und teilweise schwer zu verwirklichen, wie
zum Beispiel die erwünschte Ausrichtung der Beleuchtungsbänder nach den
Bildschirmpositionen für bereits bestehende Räume.
Der Fokus der Arbeit liegt auf dem Hardware Bereich. Dementsprechend werden die
wichtigsten Eingabe- und Ausgabegeräte, namentlich der Bildschirm sowie Tastatur und
PC Maus, vorgestellt und auf ihre geschichtlichen Entwicklungen und Funktionsweisen
hingewiesen. Für diese Komponenten werden mit Hilfe einer Umfrage wichtige Merkmale
identifiziert und deren Ausprägungen Nutzenwerte zugewiesen. Leider konnte für die
Umfrage nur ein geringer Prozentsatz an weiblichen Teilnehmern gewonnen werden. Für
eine gerechtere Verteilung würde eine Umfragemethode ohne Selbstselektion sorgen,
sodass ein getreuerer Geschlechteranteil gegeben wäre. Außerdem nahmen,
verständlicherweise, viele Technikbegeisterte an der Untersuchung teil. Die Umfrage
selbst fand großen Anklang, in etwa eineinhalb Monaten konnten 110 gültige Datensätze
gesammelt werden. Wünschenswert wären ein größeres Budget und ein mehrmonatiger
Zeitraum zum Sammeln von weiteren Daten gewesen. Eventuell wäre dann ein
deutlicherer Zusammenhang zwischen ergonomischen Aspekten der Komponenten und
der Arbeitsumgebung und gesundheitlichen Beschwerden sichtbar gewesen. Außerdem
hätten mit einer größeren Gesamtmenge zusätzliche Cluster erstellt werden können. Mit
104 gültigen Datensätzen hätte das Erstellen von zusätzlichen Gruppen allerdings in zu
kleinen Gruppen resultiert. Die Auswertung zeigt, dass ergonomische Faktoren, egal für
welche Komponente, von den meisten Personen nachgefragt werden. Im Tastaturbereich
gibt es allerdings Personen, die eine ergonomische Gestaltung strikt ablehnen und
herkömmliche Bretttastaturen bevorzugen. In der Regel konnte für jede Komponente ein
Cluster identifiziert werden, der explizit nutzerfreundliche Produkte nachfragt. Allerdings
haben diese ergonomischen Aspekte in der Regel weniger Gewicht als leistungsspezifische
Features. Ebenso gibt es für jedes Device eine kostenempfindliche Gruppe.
Wie bei der Analyse gezeigt wurde, kann ein einziges Modell niemals die Wünsche aller
Personen befriedigen. Wünschenswert wären Auswahlmöglichkeiten bezüglich dieser
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 79
Interaktionsgeräte in Unternehmen, sodass Mitarbeiter sich selbst für das idealste
Produkt entscheiden könnten. Einige wenige Unternehmen verfügen über ein Hardware-
Sortiment, aus dem das Personal wählen kann. Dies scheint ein sinnvoller Ansatz zu sein,
eine vollkommen freie Auswahl würde Probleme bei Anschaffung, Support und Wartung
verursachen.
Gespannt erwartet der Autor die zukünftigen Entwicklungen in diesem Sektor. Neben den
Verbesserungen der drei besprochenen Komponenten dürften insbesondere die VR und
MR starken Einfluss auf die Computerinteraktion nehmen. Deren Auswirkungen lassen
sich im Moment nur schwer einschätzen. Wie gezeigt wurde, könnte die neue immersive
Technologie für beinahe alle Situationen eingesetzt werden. Deren Nutzen steht außer
Frage, allerdings darf keinesfalls auf die Benutzerfreundlichkeit vergessen werden.
Diesbezüglich haben die Interaktionsgeräte noch Aufholbedarf: Viele Geräte neigen zur
Bewegungseinschränkung und Überladung ihrer Benutzer, ebenso ist das Phänomen der
VR Sickness, die durch die Verzögerung zwischen Eingabe und Ausgabe verursacht wird,
aber auch für etwaige Betrachter in einigen Systemen zum Problem werden kann, zu
beseitigen.
10. Literatur- und Quellenverzeichnis
Acer. (2008). Acer Deutschland. Zugriff am 11. 05. 2008, unter http://www.acer.de.
Bechmann, R., Johst, B., Jungen, W., Landerer, S., Reuschenbach, T. & Theißing, F. (1999).
Der Arbeitsplatz am PC. Frankfurt am Main: Bund-Verlag.
Belinea. (2008). Notebooks & PC’s Belinea. Zugriff am 11. 05. 2008, unter
http://www.belinea.com/de.
Billingsley, P. A. (1994). Ergonomic Standards Go Beyond Hardware. IEEE Software, Vol. 11
(2), S. 82-84.
Bollinger, T. (1996). Assoziationsregeln – Analyse eines Data Mining Verfahrens.
Informatik-Spektrum, 19, S. 257-261.
Breidenbach, G. (2008). Kriterien bei der Auswahl einer geeigneten Keyboard-Technologie.
Zugriff am 01. 10. 2008, unter
http://www.elektronikpraxis.vogel.de/index.cfm?pid=876&pk=135867.
Bühl, A. (2008): SPSS 16. München: Pearson Studium
Burdea, G. C. & Coiffet, P. (2003). Virtual Reality Technology—2nd editon. Hoboken, New
Jersey: Wiley Interscience.
Canny, J. (2006). The Future of Human-Computer Interaction. ACM Queue, 4 (6).
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 80
Chen, Y. (2006). Olfactory display: development and application in virtual reality therapy.
16th International Conference on Artificial Reality and Telexistence. IEEE.
CPP (2008). Myers-Briggs Type Indicator® Assessment (MBTI®) Zugriff am 11. 05. 2008,
unter http://www.cpp.com/products/mbti/index.asp.
Da-Lite. (1997). Contrast – From Dark to Light, Angles of View, Vol. 3 (9).
David, P. A. (1985). Clio and the economics of QWERTY. In: American Economic Review,
75:2, (S. 332-337). Nashville: American Economic Association.
Dembowski, K. (2007) PC-Werkstatt. München: Markt+Technik.
Evoluent. (2008).Evoluent. Zugriff am 19. 09. 2008, unter http://www.evoluent.com/.
Foley, J., Wallace, V. & Chan, P. (1984). The human factors of computer graphics
interacton techniques. IEEE Computer graphics and Applications, 4 (11), S. 13 – 48.
Geizhals. (2008). Preisvergleich Geizhals.at Österreich. Zugriff am 02. 06. 2008, unter
http://geizhals.at/.
Hair, J., Black, B., Babin, B., Anderson, E. & Tatham, R. (1998). Multivariate Data Analysis.
New Jersey: Prentice Hall.
Hewett, T., Baecker, R., Card, S., Carey, T., Gasen, J., Mantei, M., Perlman G., Strong, G. &
Verplank, W. (1992). ACM SIGCHI Curricula for Human-Computer Interaction, Zugriff am
07. 06. 2008, unter http://www.acm.org/sigchi/cdg/cdg1.html.
IBM. (2008). IBM PC exhibit. Zugriff am 11. 05. 2008, unter
http://www.03.ibm.com/ibm/history/exhibits/pc/pc_1.html.
Ihlenfeld, J. (2008). BlueTrack – neue Maustechnik von Microsoft. Zugriff am 10. 09. 2008,
unter http://www.golem.de/0809/62314.html.
ISO (2008). ISO 9241. Zugriff am 11. 05. 2008, unter
http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=219
22.
Kirchhoff, S., Kuhnt S., Lipp P. & Schlawin S. (2003). Der Fragebogen. Stuttgart: UTB.
Kinesis. (2008). Kinesis Cooperation. Zugriff am 02. 09. 2008, unter http://www.kinesis-
ergo.com/.
Lenovo. (2008). Lenovo Deutschland. Zugriff am 11. 05. 2008, unter
http://www.lenovo.com/de/de/index.html.
Lindorfer, M. (2007). Auge & Bildschirm. Zugriff am 04. 08. 2008, unter
http://www.gut.tuwien.ac.at/fileadmin/t/gut/Downloads/Arbeitnehmerschutz/Arbeitsmedizi
n/Bildschirmarbeit/BAP-Kurzseminar%20Augen.pdf.
Logitech. (2008). Logitech. Zugriff am 11.05. 2008, unter http://www.logitech.com/ .
Milgram, P., Takemura, H., Utsumi, A. & Kishino, F. (1994). Augmented Reality: A class of
displays on the reality-virtuality continuum. Telemanipulator and Telepresence
Technologies, Vol. 2351, 282-292.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 81
Muir, A. (2008) Design of Experiments/Conjoint Analysis in Marketing. Zugriff am 12. 06.
2008, unter http://www.isixsigma.com/library/content/c051031a.asp.
North, E. & de Vos, R. (2002). The use of conjoint analysis to determine consumer buying
preferences: A literature review. Journal of Family Ecology and Consumer Sciences,30, S.
32-39.
Ortmann, J. (2006). Einführung in die PC-Grundlagen. München: Addison-Wesley.
Qi, Y., Wang, Z. & Huang, Y. (2007) A non-contact eye-gaze tracking system for human
computer interaction. 2007 International Conference on Wavelet Analysis and Pattern
Recognition, Beijing. IEEE.
Richenhagen, G., Prümper, J. & Wagner, J (2002). Handbuch der Bildschirmarbeit, Berlin:
Luchterhand.
Shneiderman, B. (1998.) Designing the User Interface. New Jersey: Addison-Wesley.
Stone, D., Jarrett, C., Woodroffe, M. & Minocha, S. (2005) User Interface Design and
Evaluation. San Francisco: Morgan Kaufmann Publishers.
Tyson, J. & Wilson, T. V. (2008). How Computer Keyboards Work . Zugriff am 03. 08. 2008,
unter http://computer.howstuffworks.com/keyboard3.htm.
USB.org. (2008). Universal Serial Bus. Zugriff am 23. 07. 2008, unter
http://www.usb.org/home.
Vrealities (2008). Virtual Realities. Zugriff am 11. 05. 2008, unter
http://www.vrealities.com/5dt.
Wittig-Goetz, U. (2008). Gesellschaft Arbeit und Ergonomie: Tastatur. Zugriff am 11.06.
2008, unter http://www.ergo-
online.de/site.aspx?url=html/arbeitsplatz/hardware/tastatur.htm.
West, L. J. (1998). The standard and dvorak keyboards revisited: Direct measures of speed.
Santa Fe: Santa Fe Institute.
Wiedenbeck, M. & Züll, C. (2001). Klassifikation mit Clusteranalyse: Grundlegende
Techniken hierarchischer und K-Means-Verfahren. ZUMA How-to-Reihe, 10.
Wikipedia (2008). Myers-Briggs-Typindikator. Zugriff am 11. 06. 2008, unter
http://de.wikipedia.org/wiki/Myers-Briggs-Typindikator.
Zhu, Z. & Ji, Q. (2007). Novel Eye Gaze Tracking Techniques Under Natural Head
Movement. IEEE Transactions on biomedical engineering, Vol. 54 (12).
„Ich habe mich bemüht, sämtliche Inhaber der Bildrechte ausfindig zu machen und ihre
Zustimmung zur Verwendung der Bilder in dieser Arbeit eingeholt. Sollte dennoch eine
Urheberrechtsverletzung bekannt werden, ersuche ich um Meldung bei mir.“ (gemäß
Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 82
Anhang
Abstrakt – Deutsch
Gemäß Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008.
Die vorliegende Arbeit handelt von der Human-Computer Interaction (HCI), im Speziellen
über die menschliche Interaktionen mit den wesentlichsten Eingabe- und Ausgabegeräten.
Im Zeitalter einer omnipräsenten Digitalisierung üben IT Systeme einen wesentlichen
Einfluss auf uns aus, sodass die Interaktion mit Computern zur täglichen Routine zählt.
Eines der vielfältigen Ziele des wissenschaftlichen Feldes der Mensch-Computer
Interaktion ist es, diese Interaktion und Kommunikation so einfach und bequem wie
möglich zu gestalten. Einführend werden Konzepte und Grundprinzipien der HCI, sowie
ihre Auswirkung auf gesetzliche Vorschriften, erläutert.
Mit Hilfe statistischer Methoden werden die Kundenpräferenzen bestimmt und Auskunft
über die Wichtigkeit von ausgewählten Merkmalen und deren Ausprägungen gegeben. Da
der Bildschirm, die Tastatur als auch die PC Maus zu den wichtigsten Aus- und
Eingabegeräten zählen, konzentriert sich die Studie auf diese Komponenten. Zur
Sammlung der erforderlichen Informationen wurde eine Online-Umfrage mit 110
Teilnehmern durchgeführt. Den Hauptteil bildet die Präsentation der Umfrage und deren
Ergebnisse, inklusive einer Conjoint Analyse, Cluster Analyse sowie einer
Assoziationsanalyse für die drei erwähnten Interaktionsgeräteklassen. Da die Umfrage
auch Informationen zu allgemeineren Themen, etwa über die Art der PC Nutzung oder
über ergonomische Aspekte erhebt, werden auch diese Resultate im Hauptteil präsentiert.
Darüber hinaus werden die einzelnen Hardwarekomponenten und deren historischen
Entwicklungen beschrieben.
Im Schlussteil werden die Zukunftsaussichten im Bereich der PC-Interaktionen angeführt,
vor allem soll hierbei auf die hoch entwickelten Virtual und Mixed Reality Interfaces
eingegangen werden.
Eine detaillierte Zusammenfassung in deutscher Sprache finden Sie im Kapitel Einleitung
und Motivation.
Abstract – English
Gemäß Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008
The following paper covers the interaction between humans and personal computers.
With ongoing digitalization IT systems have a powerful impact on our lives, thus making
the interaction between us and computers to a daily routine. One task of the field of
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 83
“Human-Computer Interaction” is to make this communication as easy and comfortable as
possible. The introduction describes general concepts of HCI and its impact on laws.
Statistical methods determine costumer preferences and the value of chosen features and
their levels. The study focuses on the keyboard, the computer mouse as well as the
monitor, as these components are the main input and output devices. Therefore an online
survey was performed to gather accurate data. The presentation of the outcome,
including a conjoint, cluster and association analysis, with a target/actual comparison,
forms the main part of this paper. Furthermore the survey deals with more general topics
which are not directly related to these three devices. In addition the main part contains a
description of the hardware components and their evolutions.
The following part offers future prospects, dealing with high sophisticated interfaces like
virtual and mixed reality. The closing contribution consists of a brief summary and
opinions of the author.
Lebenslauf: Wissenschaftlicher Werdegang
Gemäß Mitteilungsblatt 2007/2008, 46. Stück, 30.09.2008
aktuell Magisterstudium Wirtschaftsinformatik & Magisterstudium Informatikmanagement, Universität Wien
01.10.2001 – 29.06.2006 Bakkalaureatsstudium Wirtschaftsinformatik, Universität Wien
01.10.2000 – 29.11.2001 Diplomstudium Wirtschaftsinformatik, Universität Wien
1991 – 1999 Bundesrealgymnasium, Villach 1987 – 1991 Volksschule, Villach
SPSS Syntax für das orthogonale Design
Monitor:
ORTHOPLAN /FACTORS=Bilddiagonale (1 'klein' 2 'groß') Bildschirmformat (1 '4:3 (Standard)' 2 '16:10 (Wide)') Kontrast (1 'gering' 2 'hoch') Reaktionszeit (1 'schlecht' 2 'gut') Hochformat (1 'nicht möglich' 2 'möglich') Anpassung (1 'nicht möglich' 2 'nur Neigungswinkel' 3 'Höhe & Neigungswinkel') Lautsprecher (1 'nicht integriert' 2 'integriert') Kosten (1 '150 Euro' 2 '250 Euro' 3 '350 Euro') /OUTFILE='C:\*\*.sav'.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 84
Tastatur:
ORTHOPLAN /FACTORS=Ergonomisches_Design 'Ergonomisches Design' (1 'nein' 2 'ja') Windows_Tasten 'Windows-Tasten' (1 'nein' 2 'ja') Zusätzliche_Knöpfe 'Zusätzliche Knöpfe' (1 'nein' 2 'ja') Tastendrucktiefe (1 'gering' 2 'tief') Feedbackqualität (1 'niedrig' 2 'hoch') Anschluss (1 'kabellos' 2 'USB Anschluss') Neigungswinkel (1 'nicht verstellbar' 2 'verstellbar') Spritzwasserfestigkeit (1 'nein' 2 'ja') Kosten (1 '15 Euro' 2 '50 Euro' 3 '85 Euro') /OUTFILE='C:\*\*.sav'.
Maus:
ORTHOPLAN /FACTORS=Abtastgenauigkeit (1 'gering' 2 'hoch') Größe (1 'klein (Laptop)' 2 'Standardgröße') Oberfläche (1 'Plastik' 2 'Gummi') Ergonomisches_Design (1 'nein' 2 'ja') Gleitfähigkeit (1 'schlecht' 2 'gut') Anbindung (1 'kabellos' 2 'USB Anschluss') Anzahl_der_Tasten 'Anzahl der Tasten' (1 'Nur 2 Haupttasten' 2 'Nur 3 Haupttasten' 3 '2 Haupttasten & Navigationstasten' 4 '3 Haupttasten & Navigationstasten') Mausrad (1 'nein' 2 'ja') Kosten (1 '10 Euro' 2 '30 Euro' 3 '50 Euro') /OUTFILE='C:\*\*.
SPSS Syntax für die Conjoint Analyse
Monitor:
CONJOINT PLAN='C:\*\*.sav' /DATA='C:\*\*.sav' /SCORE=mos1 TO mos16 /SUBJECT=id /FACTORS= Bilddiagonale (discrete) Bildschirmformat(discrete) Kontrast(linear) Reaktionszeit(linear) Hochformat(discrete) Anpassung(discrete) Lautsprecher(discrete) Kosten (linear) /PRINT=ALL /PLOT = ALL /UTILITY = 'C:\*\*.sav'. Tastatur:
CONJOINT PLAN='C:\*\*.sav' /DATA='C:\*\*.sav' /SCORE=ts1 TO ts16 /SUBJECT=id /FACTORS= Ergonomisches_Design (discrete) Windows_Tasten (discrete) Zusätzliche_Knöpfe (discrete) Tastendrucktiefe (discrete) Feedbackqualität (linear) Anschluss (discrete)
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 85
Neigungswinkel (discrete) Spritzwasserfestigkeit (discrete) Kosten (linear) /PRINT=ALL /PLOT = ALL /UTILITY = 'C:\*\*.sav'. Maus:
CONJOINT PLAN='C:\*\*.sav' /DATA='C:\*\*.sav' /SCORE=ms1 TO ms16 /SUBJECT=id /FACTORS= Abtastgenauigkeit (linear) Größe (discrete) Oberfläche (discrete) Ergonomisches_Design (discrete) Gleitfähigkeit (discrete) Anbindung Anzahl_der_Tasten (discrete) Mausrad (discrete) Kosten (linear) /PRINT=ALL /PLOT = ALL /UTILITY = 'C:\*\*.sav'.
SPSS Syntax der Cluster Analyse für die Monitor-Komponente Nearest Neighbor: CLUSTER n_Bilddiagonale_klein n_Bilddiagonale_groß n_Bildschirmformat_43 n_Bildschirmformat_1610 n_Hochformat_nein n_Hochformat_ja n_Anpassung_keine n_Anpassung_Neigung n_Anpassung_NeiguHöhe n_Lautsprecher_nein n_Lautsprecher_ja n_Kontrast_niedrig n_Kontrast_hoch n_Reaktionszeit_schlecht n_Reaktionszeit_gut n_Kosten_niedrig n_Kosten_mittel n_Kosten_hoch /METHOD SINGLE /MEASURE=SEUCLID /ID=Id_String /PRINT SCHEDULE /PRINT DISTANCE /PLOT DENDROGRAM VICICLE. Ward: CLUSTER n_Bilddiagonale_klein n_Bilddiagonale_groß n_Bildschirmformat_43 n_Bildschirmformat_1610 n_Hochformat_nein n_Hochformat_ja n_Anpassung_keine n_Anpassung_Neigung n_Anpassung_NeiguHöhe n_Lautsprecher_nein n_Lautsprecher_ja n_Kontrast_niedrig n_Kontrast_hoch n_Reaktionszeit_schlecht n_Reaktionszeit_gut n_Kosten_niedrig n_Kosten_mittel n_Kosten_hoch /METHOD WARD /MEASURE=SEUCLID /ID=Id_String /PRINT SCHEDULE CLUSTER(2,4) /PRINT DISTANCE /PLOT DENDROGRAM VICICLE.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 86
Dendrogramme der Clusteranalysen
Monitor:
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 88
Teilnutzen der Monitorcluster
-1,00
-0,80
-0,60
-0,40
-0,20
0,00
0,20
0,40
0,60
0,80
1,001.
-0,50
-0,40
-0,30
-0,20
-0,10
0,00
0,10
0,20
0,30
0,40
0,502.
-0,60
-0,40
-0,20
0,00
0,20
0,40
0,603.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 89
Teilnutzen der Tastaturcluster
-2,50
-2,00
-1,50
-1,00
-0,50
0,00
0,50
1,00
1,50
2,004.
-0,60
-0,40
-0,20
0,00
0,20
0,40
0,601.
-0,80
-0,60
-0,40
-0,20
0,00
0,20
0,40
0,602.
HCI: Analyse und Segmentierung von PC-Peripheriegeräten Seite 90
Teilnutzen der Mauscluster
-2,00
-1,50
-1,00
-0,50
0,00
0,50
1,003.
-1,00
-0,80
-0,60
-0,40
-0,20
0,00
0,20
0,40
0,60
0,80
1,004.
-0,50
-0,40
-0,30
-0,20
-0,10
0,00
0,10
0,20
0,30
0,40
0,501.