45
GRUNDLAGEN DER TECHNISCHEN INFORMATIK 5., aktualisierte Auflage Im Internet: Lösungen zu den Übungsaufgaben, Übungsblätter und weiteres Zusatzmaterial dirk w. HOFFMANN

dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

UNSER BUCHTIPP FÜR SIE //

Dirk

W. H

offm

ann,

Th

eore

tisch

e In

form

atik

2015

. 432

Sei

ten.

Fle

xCov

er. €

39,

99.

ISB

N 9

78-3

-446

-444

46-1

H

OFF

MA

NN

GR

UN

DL

AG

EN

DE

RT

EC

HN

ISC

HE

N I

NFO

RM

AT

IK

GRUNDLAGEN DER TECHNISCHEN INFORMATIK // ■ Für Bachelor-Studierende geeignet

■ Zahlreiche Übungsaufgaben und Beispiele

■ Enge Verknüpfung von Theorie und Praxis

■ Ideal zum Selbststudium

■ Anwendungsorientierte und didaktische

Aufbereitung des Lernstoffs

■ Zusatzmaterial unter http://www.dirkwhoffmann.de/TI/

Dieses Lehrbuch bietet Bachelor-Studierenden der

Fachrichtungen Informatik, Elektrotechnik, Informa-

tionstechnik und verwandter Studiengänge eine

praxisnahe Einführung in die technische Informatik.

Inhaltlich richtet es sich dabei nach den typischen

Lehrinhalten, die im Grundstudium an Hochschulen

und Universitäten vermittelt werden. Durch den

anwendungsorientierten und didaktischen Aufbau

des Buches kann es sowohl vorlesungsbegleitend

als auch zum Selbststudium eingesetzt werden.

Neben dem Grundlagenwissen aus den Gebieten

der Halbleitertechnik, der Zahlendarstellung und der

booleschen Algebra vermittelt das Buch die Ent-

wurfsprinzipien kombinatorischer und sequenzieller

Hardware-Komponenten bis hin zur Beschreibung

moderner Prozessor- und Speicherarchitekturen. Es

spannt dabei den Bogen von den mathematischen

Grundlagen digitaler Schaltelemente bis zu ausgefeilten

Hardware-Optimierungen moderner Hochleistungs-

computer.

Zahlreiche Übungen und Beispiele ergänzen und

veranschaulichen die Inhalte. Die 5. Auflage wurde

komplett durchgesehen und aktualisiert.

www.hanser-fachbuch.de/computer

Prof. Dr. Dirk W. HOFFMANN ist

Dozent an der Fakultät für Infor-

matik und Wirtschaftsinformatik

der Hochschule Karlsruhe – Technik

und Wirtschaft.

AUS DEM INHALT //

■ Grundlagen der technischen

Informatik

■ Halbleitertechnik

■ Zahlendarstellung und Codes

■ Boolesche Algebra

■ Schaltnetze

■ Mikroprozessortechnik

■ Rechnerstrukturen

€ 40,00 [D] | € 41,20 [A] ISBN 978-3-446-44867-4

GRUNDLAGEN DER TECHNISCHEN INFORMATIK

5., aktualisierte Auflage

Im Internet: Lösungen zu den Übungsaufgaben, Übungsblätter und weiteres Zusatzmaterial

dirk w. HOFFMANN

44867_Hoffmann_194x244_RZ.indd 1 09.05.16 14:20

Page 2: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

HoffmannGrundlagen der Technischen Informatik

Page 3: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik
Page 4: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Dirk W. Hoffmann

Grundlagen derTechnischen Informatik

5., aktualisierte Auflage

Mit 357 Bildern, 57 Tabellen und 93 Aufgaben

Page 5: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

AutorProf. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Alle in diesem Buch enthaltenen Programme, Verfahren und elektronischen Schaltungen wurden nach bestem Wissenerstellt und mit Sorgfalt getestet. Dennoch sind Fehler nicht ganz auszuschließen. Aus diesem Grund ist das im vorliegen-den Buch enthaltene Programm-Material mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden. Autor undVerlag übernehmen infolgedessen keine Verantwortung und werden keine daraus folgende oder sonstige Haftung über-nehmen, die auf irgendeine Art aus der Benutzung dieses Programm-Materials oder Teilen davon entsteht.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohnebesondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Bibliografische Information Der Deutschen NationalbibliothekDie Deutsche Nationalbibliothek verzeichnet diese Publikation in derDeutschen Nationalbibliografie; detaillierte bibliografische Daten sind imInternet über http://dnb.d-nb.de abrufbar.

Dieses Werk ist urheberrechtlich geschützt.Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung des Buches, oder Teilen daraus,vorbehalten. Kein Teil des Werkes darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form (Fotokopie,Mikrofilm oder ein anderes Verfahren), auch nicht für Zwecke der Unterrichtsgestaltung � mit Ausnahme der in den§§ 53, 54 URG genannten Sonderfälle �, reproduziert oder unter Verwendung elektronischer Systeme verarbeitet,vervielfältigt oder verbreitet werden.

2016 Carl Hanser Verlag München

Lektorat: Mirja WernerHerstellung: Franziska KaufmannSatz: Dirk W. Hoffmann, KarlsruheCovergestaltung: Stephan RönigkDatenbelichtung, Druck und Bindung: Kösel, KrugzellAusstattung patentrechtlich geschützt. Kösel FD 351, Patent-Nr. 0748702Printed in Germany

ISBN: 978-3-446-44867-4E-Book-ISBN: 978-3-446-44903-9

www.hanser.de/computer

Page 6: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Vorwort

Die Computertechnik hat in wenigen Jahrzehnten eine Entwicklung vollzogen, die in ihrerGeschwindigkeit und Intensität einzigartig ist. Setzten sich die ersten Computer noch ausvergleichsweise wenigen Schaltkreisen zusammen, so verrichten in jedem modernen Ar-beitsplatzrechner, Tablet-PC oder Smartphone Abermillionen von Transistoren ihren Dienstund führen in jeder Sekunde Milliarden von Berechnungen aus. Doch so rasant die Ent-wicklung der letzten Jahrzehnte auch war: Vergleichen wir die Maschinen der Pionierzeitmit unseren modernen Rechenboliden, so lassen sich eine Reihe von Grundprinzipien iden-tifizieren, die sich im Laufe der Zeit zwar weiterentwickelt, aber im Kern nicht veränderthaben. Diese Grundprinzipien, zusammen mit ihren modernen Ausprägungen, formen dasGebiet der technischen Informatik und sind Gegenstand des vorliegenden Buchs.

Geschrieben habe ich das Buch für Bachelor-Studenten der Fachrichtungen Informatik,Elektrotechnik, Informationstechnik und verwandter Studiengänge. Inhaltlich habe ichmich dabei an den typischen Lehrinhalten orientiert, die im Grundstudium an Hochschu-len und Universitäten vermittelt werden. Neben dem Grundlagenwissen aus den Gebietender Halbleitertechnik, der Zahlendarstellung und der booleschen Algebra werden die Ent-wurfsprinzipien kombinatorischer und sequenzieller Hardware-Komponenten bis hin zurBeschreibung moderner Prozessor- und Speicherarchitekturen vermittelt. Damit spannt dasBuch den Bogen von den mathematischen Grundlagen digitaler Schaltelemente bis hin zuden ausgefeilten Hardware-Optimierungen moderner Hochleistungscomputer.

Es ist mir ein besonderes Anliegen, den Stoff anwendungsorientiert und didaktisch anspre-chend zu vermitteln. Damit das Buch sowohl vorlesungsbegleitend als auch zum Selbst-studium eingesetzt werden kann, werden die Lehrinhalte aller Kapitel durch zahlreicheÜbungsaufgaben komplementiert. Des Weiteren habe ich zahlreiche Anwendungsbezügemit aufgenommen, um eine enge Verzahnung zwischen Theorie und Praxis zu erreichen.

Seit dem Erscheinen der letzten Auflage habe ich wieder zahlreiche Zuschriften erhalten,über die ich mich sehr gefreut habe. Namentlich bedanken möchte ich mich bei Herrn SvenBadke, Frau Ines Machinek und Herrn Prof. Dr. Martin Rumpler, die mich auf mehrere bis-her unentdeckte Fehler aufmerksam gemacht haben. Inzwischen erscheinen die Grundlagender technischen Informatik in der fünften Auflage, und ich bin weiterhin jedem aufmerksa-men Leser für Hinweise zu Verbesserungsmöglichkeiten oder Fehlern dankbar.

Karlsruhe, im August 2016 Dirk W. Hoffmann

Page 7: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Symbolwegweiser

Definition

Satz, Lemma, Korollar

--- Leichte Übungsaufgabe--- Mittelschwere Übungsaufgabe--- Schwere Übungsaufgabe

Lösungen zu den Übungsaufgaben

In wenigen Schritten erhalten Sie die Lösungen zu den Übungsaufgaben:

1. Gehen Sie auf die Seite www.dirkwhoffmann.de/TI

2. Geben Sie den neben der Aufgabe abgedruckten Webcode ein

3. Die Musterlösung wird als PDF-Dokument angezeigt

Page 8: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Inhaltsverzeichnis

1 Einführung 111.1 Was ist technische Informatik? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.2 Vom Abakus zum Supercomputer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.3 Wohin geht die Reise? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Halbleitertechnik 332.1 Halbleiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.1.1 Atommodell von Bohr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.1.2 Reine Halbleiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372.1.3 Dotierte Halbleiter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.2 Integrierte Schaltelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.2.1 Halbleiterdioden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.2.2 Bipolartransistoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.2.3 Feldeffekttransistoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2.3 Chip-Fertigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.3.1 Produktion integrierter Schaltkreise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 512.3.2 Integrationsdichte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

2.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3 Zahlendarstellung und Codes 593.1 Zahlensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603.2 Rechnerinterne Zahlenformate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3.2.1 Darstellung natürlicher Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 673.2.2 Darstellung rationaler Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.3 Zahlencodes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803.3.1 Tetraden-Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803.3.2 Fehlererkennende Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

3.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

4 Boolesche Algebra 894.1 Axiomatisierung nach Huntington . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

4.1.1 Mengenalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 914.1.2 Schaltalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

4.2 Boolesche Ausdrücke und Aussagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 954.2.1 Abgeleitete Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 974.2.2 Erfüllbarkeit und Äquivalenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1004.2.3 Strukturelle Induktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1024.2.4 Dualitätsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

Page 9: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

8 Inhaltsverzeichnis

4.3 Rechnen in booleschen Algebren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.3.1 Abgeleitete Umformungsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.3.2 Vereinfachung boolescher Ausdrücke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1114.3.3 Vollständige Operatorensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

4.4 Normalformdarstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1194.4.1 Konjunktive und disjunktive Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . 1194.4.2 Reed-Muller-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1224.4.3 Binäre Entscheidungsdiagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

4.5 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

5 Schaltnetze 1395.1 Grundlagen der Digitaltechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

5.1.1 Schaltkreisfamilien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1405.1.2 MOS-Schaltungstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1455.1.3 Lastfaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

5.2 Schaltungssynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1565.2.1 Zweistufige Schaltungssynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1575.2.2 BDD-basierte Schaltungssynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1585.2.3 FDD-basierte Schaltungssynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159

5.3 Formelsynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1615.3.1 Funktionale Formelsynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1615.3.2 Relationale Formelsynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1635.3.3 Definitorische Formelsynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

5.4 Komplexitätsanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1675.5 Zeitverhalten digitaler Schaltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

5.5.1 Signalausbreitung und -verzögerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1695.5.2 Störimpulse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

5.6 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

6 Minimierung 1816.1 Minimierungsziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1826.2 Karnaugh-Veitch-Diagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186

6.2.1 Minimierung partiell definierter Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 1906.2.2 Konstruktion Hazard-freier Schaltungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1946.2.3 Minimierung mehrstelliger Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

6.3 Quine-McCluskey-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1976.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

7 Standardschaltnetze 2057.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2067.2 Multiplexer und Demultiplexer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2067.3 Komparatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2137.4 Präfix-Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215

Page 10: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Inhaltsverzeichnis 9

7.5 Addierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2187.5.1 Halb- und Volladdierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2187.5.2 Carry-ripple-Addierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2207.5.3 Carry-look-ahead-Addierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2217.5.4 Conditional-Sum-Addierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2247.5.5 Präfix-Addierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2277.5.6 Carry-save-Addierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

7.6 Inkrementierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2327.7 Subtrahierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2337.8 Multiplizierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234

7.8.1 Matrixmultiplizierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2357.8.2 Carry-save-Multiplizierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2387.8.3 Wallace-Tree-Multiplizierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2417.8.4 Dadda-Tree-Multiplizierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246

7.9 Barrel-Shifter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2497.10 Arithmetisch-logische Einheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2517.11 Programmierbare Logikbausteine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2537.12 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

8 Schaltwerke 2658.1 Digitale Speicherelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266

8.1.1 Asynchrone Speicherelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2678.1.2 Taktzustandsgesteuerte Speicherelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . 2718.1.3 Taktflankengesteuerte Speicherelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . 2748.1.4 Bevorrechtigte Eingänge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2818.1.5 CMOS-Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282

8.2 Vom Flipflop zum Schaltwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2858.2.1 Endliche Automaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2868.2.2 Schaltwerksynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

8.3 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293

9 Standardschaltwerke 2999.1 Register . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300

9.1.1 Auffangregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3009.1.2 Schieberegister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3029.1.3 Universalregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3049.1.4 Akkumulatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305

9.2 Zähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3089.2.1 Synchrone Binärzähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3099.2.2 Asynchrone Binärzähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3139.2.3 Mischzähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3149.2.4 Instruktionszähler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316

Page 11: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

10 Inhaltsverzeichnis

9.3 Hauptspeicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3189.3.1 SRAM-Speicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3189.3.2 DRAM-Speicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3209.3.3 Fehlererkennung und -korrektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327

9.4 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330

10 Register-Transfer-Entwurf 33510.1 Entwurf komplexer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336

10.1.1 Operationswerksynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33810.1.2 Steuerwerksynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340

10.2 Mikroprogrammierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34310.3 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349

11 Mikroprozessortechnik 35111.1 Elemente eines Mikrorechners . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352

11.1.1 Von-Neumann-Architektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35211.1.2 Aufbau der CPU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356

11.2 Ein einfacher Modellprozessor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36011.3 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374

12 Rechnerstrukturen 37712.1 Rechnerklassifikation nach Flynn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37812.2 Instruktionsarchitekturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379

12.2.1 CISC-Prozessoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38012.2.2 RISC-Prozessoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384

12.3 Methoden zur Leistungssteigerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38812.3.1 Pipelining . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38812.3.2 Cache-Speicher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393

12.4 Leistungsbewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39912.4.1 Maßzahlen zur Leistungsbewertung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39912.4.2 Benchmarks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402

12.5 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405

A Notationsverzeichnis 411

B Abkürzungsverzeichnis 413

C Glossar 415

Literaturverzeichnis 433

Namensverzeichnis 437

Sachwortverzeichnis 439

Page 12: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

1 Einführung

„The first microprocessor only had 22 hundred transis-tors. We are looking at something a million times thatcomplex in the next generations – a billion transistors.What that gives us in the way of flexibility to design pro-ducts is phenomenal.“

Gordon E. Moore, Intel Corporation

1.1 Was ist technische Informatik?

Blicken wir auf die Entwicklung der letzten hundert Jahre zurück, sohat keine andere technische Innovation unser Leben mehr verändert alsdie Erfindung des Computers, wie wir ihn heute kennen. Die Geschwin-digkeit, mit der die digitale Revolution immer größere Bereiche unserestäglichen Lebens erobert und umgestaltet hat, ist nicht nur in der Retro-spektive atemberaubend. Die Auswirkungen sind heute tief bis in unserkulturelles und gesellschaftliches Leben zu spüren. Ob wir wollen odernicht: Wir stehen heute an der Schwelle des ubiquitären Computerzeit-alters und haben sie in manchen Bereichen auch schon überschritten.Mit der Fortsetzung der kontinuierlich voranschreitenden Miniaturisie-rung und der zunehmenden Vernetzung verschiedenster Geräte ist derComputer von morgen allgegenwärtig und in vielen Fällen nicht einmalmehr als solcher zu erkennen.

Hand in Hand mit der sich rasant entwickelnden Computertechnikwuchs gleichermaßen die Bedeutung der Informatik, die sich in kür-zester Zeit von einer Nischendisziplin zu einer eigenständigen Wissen-schaft entwickeln konnte (vgl. Abbildung 1.1). Eine ihrer Kernsäulen istdie technische Informatik, die sich grob gesprochen mit dem Entwurf,der logischen Struktur und der technischen Realisierung von Computer-Hardware beschäftigt.

Ausgehend von der elementaren Hardware-Komponente des Logikgat-ters beschäftigt sich die technische Informatik mit der Konstruktion

Page 13: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

12 1 Einführung

Logikgatter

Schaltnetze

Schaltwerke

Mikroprozessoren

Rechnerarchitekturen

Hardware-Entwurf

Computerperipherie

Codierung

Logik

Formale Sprachen

Berechenbarkeit

Komplexitätstheorie

Deduktion

Endliche Automaten

Datenstrukturen

Algorithmen

Compilerbau

Betriebssysteme

Software-Engineering

Schnittstellen

Programmierung

Computergrafik

Künstliche Intelligenz

Multimedia

Bio-Informatik

Signalverarbeitung

Assistenzsysteme

Simulation

I N F O R M A T I K

Ausführlich behandelt Einführend behandelt

Theoretische Informatik

TechnischeInformatik

Angewandte Informatik

PraktischeInformatik

Abbildung 1.1: Die vier Säulen der Informatik

komplexer Digitalschaltungen. Hierzu gehören einfache Schaltnetze ge-nauso wie komplexe, mit Speicherelementen angereicherte Schaltwerke.Durch das wechselseitige Zusammenspiel von Millionen von Schaltele-menten sind wir heute in der Lage, Systeme mit einer Komplexität zukonstruieren, die noch vor nicht allzu langer Zeit als unmöglich erachtetwurde. Nichtsdestotrotz lässt sich selbst das komplexeste System stetsauf die gleichen Grundprinzipien zurückführen. Die folgenden Kapitelwerden diese in ein helleres Licht rücken und den Leser praxisnah indie technische Funktionsweise moderner Computersysteme einführen.

Die technische Informatik ist eng mit der theoretischen Informatik ver-zahnt. Viele der dort entwickelten Konzepte aus den Bereichen der Co-dierungstheorie, Logik und der endlichen Automaten dienen uns als dasmathematische Fundament zur Beschreibung von Computer-Hardware.In entsprechender Weise werden wir uns auch in diesem Buch mitetlichen Teilaspekten dieser Disziplin beschäftigen. Doch bevor wirvollends in die Welt der Bits und Bytes eintauchen, wollen wir einenkurzen Streifzug durch die junge, aber bewegte Geschichte der Compu-tertechnik wagen und uns mit der Frage beschäftigen, wohin die Reisein den nächsten Jahren führen wird.

Page 14: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

10121010

1091011

108

107

106

105

104

103

102

101

100

0 0 0 0 0 0 0 0 3 7 9 2 5

Abbildung 1.2: Der Suan pan (chinesischerAbakus)

10 = 1 ·10

10 = 2 ·5

10 = 1 ·5+5 ·1

Abbildung 1.3: Die Zahl 10 kann mit Hil-fe des Abakus auf drei verschiedene Weisendargestellt werden.

1.2 Vom Abakus zum Supercomputer 13

1.2 Vom Abakus zum Supercomputer

Die ersten mechanischen Rechenhilfen

Wir beginnen unseren Streifzug durch die Geschichte im elften Jahrhun-dert vor Christus. Etwa zu dieser Zeit wird in China mit dem Suan pandie erste mechanische Rechenhilfe entwickelt – der sogenannte Aba-kus. Obwohl das auf den ersten Blick primitiv anmutende Rechenbrettnicht viel mit der heutigen Computertechnik verbindet, stellt der Aba-kus einen bedeutenden Schritt in Richtung des maschinellen Rechnensdar und ist mit seiner redundanten Zifferndarstellung ein willkommenerEinstieg in die Thematik der Zahlensysteme.

Abbildung 1.2 zeigt das Bild eines chinesischen Abakus, wie er nochheute auf vielen fernöstlichen Warenmärkten die uns vertraute elektro-nische Kasse ersetzt. Aufgebaut ist der Suan pan aus einer Reihe vonStäben, auf denen jeweils 7 bewegliche Kugeln in zwei unterschiedli-chen Segmenten aufgefädelt sind. Das obere Segment – der Himmel –enthält jeweils 2 und das untere Segment – die Erde – die restlichen fünfKugeln. Zur Zahlendarstellung verwendet der Abakus das uns geläufi-ge arabische System. Jeder Stab repräsentiert eine einzelne Ziffer, derenWert sich aus der Stellung und den Wertigkeiten der einzelnen Kugelnbestimmt. In die Berechnung des Ziffernwerts gehen ausschließlich die-jenigen Kugeln ein, die nach innen, d. h. in Richtung der mittleren Quer-strebe, geschoben wurden. Jede Kugel aus dem oberen Segment erhöhtden Ziffernwert dabei um 5 und jede Kugel aus dem unteren Segmentum 1.

Abbildung 1.3 demonstriert die Darstellung der Zahl 10. Wie das Bei-spiel zeigt, ist die Zahlendarstellung im Gegensatz zum klassischen De-zimalsystem nicht eindeutig. Der Grund hierfür liegt in der Anzahl undder Wertigkeit der Kugeln, mit denen sich nicht nur die klassischen De-zimalziffern 0 bis 9, sondern auch die Werte 10 bis 15 darstellen lassen.

Der Aufbau des Abakus hat sich im Laufe der Zeit und durch den Ein-fluss verschiedener Kulturkreise in unterschiedliche Richtungen weiter-entwickelt. So besitzt der japanische Soroban im Gegensatz zum chine-sischen Suan pan nur noch 5 statt 7 Kugeln und der russische Stschotykennt z. B. überhaupt keine Aufteilung in Himmel und Erde mehr.

Page 15: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

„Dasselbe, was Du auf rechnerischem Weggemacht hast, habe ich kürzlich

mechanisch versucht und eine aus 11vollständigen und 6 verstümmelten

Rädchen bestehende Maschine gebaut,welche gegebene Zahlen im Augenblickautomatisch zusammenrechnet: addiert,

subtrahiert, multipliziert und dividiert. Duwürdest hell auflachen, wenn Du da wärestund sehen könntest, wie sie, so oft es übereinen Zehner oder Hunderter weggeht, dieStellen zur Linken ganz von selbst erhöht

oder ihnen beim Subtrahieren etwaswegnimmt.“

Wilhelm Schickard (1592 - 1635)

Abbildung 1.4: Schickard in einem Briefvom 20.9.1623 an Johannes Kepler

Abbildung 1.5: Die Schickard’sche Re-chenuhr

14 1 Einführung

Die Schickard’sche Rechenuhr

Mit dem Abakus lassen sich Zahlen darstellen und mit etwas Übungselbst komplexe arithmetische Operationen durchführen. Gleichwohlerfolgen alle Berechnungen stets manuell. Weit mehr als tausend Jah-re vergingen, bis der deutsche Astronom, Mathematiker und Theolo-ge Wilhelm Schickard das erste mechanische Rechenwerk ersann, mitdessen Hilfe sich zwei Zahlen zum einen vollautomatisch addieren undsubtrahieren und zum anderen halbautomatisch multiplizieren und di-vidieren ließen. Schickard, der am 22.4.1592 im schwäbischen Her-renberg geboren wurde und 1619 einem Ruf an die Universität Tübin-gen folgte, verband eine lebenslange Freundschaft mit dem kaiserlichenMathematiker und Astronomen Johannes Kepler, der für seine umfang-reichen Berechnungen zur Planetenbewegung bis dato auf Papier undBleistift angewiesen war.

Die Schickard’sche Rechenuhr besteht aus drei Teilen, die übereinan-der angeordnet sind (siehe Abbildung 1.5). Der obere Teil entsprichtdem Multiplikationswerk, der mittlere dem Additionswerk und der un-tere einem Speicher, der die Funktion einer Merkhilfe für Zwischen-ergebnisse übernimmt. Die Funktionsweise des Multiplikationswerksentspricht im Wesentlichen dem Prinzip der Napierstäbchen, die aufden schottischen Mathematiker Lord John Napier of Merchiston zu-rückgehen [32]. Das Multiplikationswerk und das Additionswerk verfü-gen über keinerlei mechanische Verbindung. Die verschiedenen bei derProduktberechnung entstehenden Teilsummen mussten deshalb manu-ell abgelesen und per Hand in das Addierwerk übertragen werden. Ausdiesem Grund war die Multiplikation mit Hilfe der Schickard’sche Re-chenuhr nur halbautomatisch möglich.

Von der Schickard’schen Rechenuhr wurden nur zwei Exemplare über-haupt gebaut, die in den Wirren des Dreißigjährigen Kriegs für immerverloren gingen. Anhand von Skizzen und Aufzeichnungen aus denNachlässen von Schickard und Kepler konnte die Rechenuhr jedoch re-konstruiert und die Funktionstüchtigkeit in mehreren Nachbauten nach-träglich unter Beweis gestellt werden.

Es war die Pest, die das Leben von Wilhelm Schickard und seiner Fami-lie im sechzehnten Jahr des Dreißigjährigen Kriegs ein tragisches Endenehmen ließ. Zuerst rafft der schwarze Tod im Jahre 1634 seine Frauund seine drei Töchter dahin. Ein Jahr später, am 24. Oktober 1635,stirbt auch Wilhelm Schickard – zwei Tage, bevor sein neunjährigerSohn ebenfalls der Seuche erliegt.

Page 16: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

„One evening I was sitting in the rooms ofthe Analytical Society, at Cambridge, my

head leaning forward on the table in a kindof dreamy mood, with a table of logarithms

laying open before me. Another member,coming into the room, and seeing me half

asleep, called out, ‘Well Babbage, what areyou dreaming about?’ to which I replied, ‘Iam thinking that all these tables (pointingto the logarithms) might be calculated by

machinery.“ [95]

Charles Babbage (1791 – 1871)

Abbildung 1.6: Charles Babbage

1.2 Vom Abakus zum Supercomputer 15

Die Rechenmaschinen des Charles Babbage

Weitere Meilensteine im Bereich des maschinellen Rechnens stellendie Rechenmaschinen des britischen Mathematikers und ÖkonomenCharles Babbage dar, der am 26. Dezember 1791 in London das Lichtder Welt erblickte [45]. Bereits mit 22 Jahren wird Babbage Mitglied inder Royal Society und nimmt 1823 unter Förderung der britischen Re-gierung die Arbeiten an der Differenzenmaschine auf. Im Gegensatz zurSchickard’schen Rechenuhr, die für die automatische bzw. halbautoma-tische Durchführung von primitiven arithmetischen Operationen konzi-piert war, sollte die Differenzenmaschine in der Lage sein, ganze Wer-tetafeln komplexer Polynome selbstständig zu erzeugen.

Das Prinzip der Maschine beruhte auf der Newton’schen Differenzen-methode, mit der solche Berechnungen auf trickreiche Weise unterder ausschließlichen Verwendung von Additionen und Subtraktionendurchgeführt werden können. Um zum Beispiel das Polynom

y = x2 �2x+3

mit Hilfe der Differenzenmethode an den Stützstellen y = 0,1,2,3, . . .auszuwerten, gehen wir in drei Schritten vor:

n Im ersten Schritt stellen wir die initiale Differenzentabelle auf. FürPolynome n-ten Grades tragen wir zunächst die ersten n+1 manuellberechneten Funktionswerte y(0) bis y(n) ein. Die nächsten Spaltenwerden durch sukzessive Differenzberechnung erzeugt. Dabei ent-hält die zweite Spalte die Differenzen der Elemente der ersten Spal-te, die dritte Spalte die Differenzen der Elemente der zweiten Spalteund so fort. Insgesamt entsteht auf diese Weise die in Abbildung 1.7(oben) dargestellte Tabelle.

n In der dritten Spalte erhalten wir als Differenz zweiter Ordnung denWert 2. Egal um wie viele Stützstellen Sie die Tabelle nach untenergänzen – die Elemente der dritten Spalte sind für unser Beispielstets gleich. Aus funktionsanalytischer Sicht ist dieses Ergebnis auchnicht weiter verwunderlich, schließlich berechnen wir durch die n-malige Differenzenbildung nichts anderes als die diskrete Ableitungn-ter Ordnung und diese ist für Polynome n-ten Grades stets kon-stant. Unseren Überlegungen folgend können wir somit die dritteSpalte, wie in Abbildung 1.7 (Mitte) dargestellt, im zweiten Schrittbeliebig nach unten erweitern.

n Im dritten Schritt füllen wir fehlende Einträge der Differenzentabellevon rechts nach links auf und können die gesuchten Funktionswerte

Page 17: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

n Die initiale Differenzentabelle:

3

21

-1

2

3

y(i) ∆∆(i)∆(i)

i = 0

i = 1

i = 2

n Fortsetzen der letzte Spalte:

3

2

1

-1

2

2

2

2

3

y(i) ∆∆(i)∆(i)

i = 0

i = 1

i = 2

n Ableiten weiterer Stützstellen:

3

21

3

-1

6

-3

11

-5

18

-7

2

2

2

2

i = 0

y(i) ∆∆(i)∆(i)

i = 1

i = 2

i = 3

i = 4

i = 5

Abbildung 1.7: Stützstellenberechnung mitHilfe der Differenzenmethode am Beispieldes Polynoms y = x2 �2x+3

16 1 Einführung

schließlich in der ersten Spalte ablesen. Die auf diese Weise vervoll-ständigte Differenzentabelle ist für unser Beispiel in Abbildung 1.7(unten) dargestellt.

Leider wird die Differenzenmaschine nie gebaut. Zum einen gestaltetsich die Fertigung vieler der geschätzten 25.000 Bauteile schwierigerals erwartet, zum anderen bringt Babbage stets neue Ideen und Verbes-serungsvorschläge ein, die das Projekt zusätzlich verlangsamen. Als dieKosten schließlich vollends aus dem Ruder laufen, zieht sich die briti-sche Regierung 1842 aus dem Projekt zurück.

In der Folgezeit ersann Babbage neben einer deutlich verbesserten Dif-ferenzenmaschine 2 auch die analytische Maschine, die in ihrer Kom-plexität alle seine bisherigen Entwürfe nochmals weit übertrifft. Ob-wohl es sich bei der analytische Maschine um eine vollständig me-chanische Konstruktion handelt, finden sich in deren Entwurf viele derklassischen Elemente wieder, die auch heute noch die Grundstruktu-ren moderner Computer prägen. So verfügt die analytische Maschineüber einen Speicher und ein getrenntes Rechenwerk (Mill). Zur Ausga-be der Ergebnisse sah Babbage einen speziell konstruierten Drucker vor.Programmiert werden sollte die Maschine mit Hilfe von Lochkarten –ein Konzept, das zu dieser Zeit bereits bekannt war und erstmals 1805von dem französischen Buchbinder Joseph-Marie Jacquard zur Auto-matisierung der Webtechnik eingesetzt wurde. Die analytische Maschi-ne war so allgemein konzipiert, dass sie in der Lage gewesen wäre,selbst komplexe Kontrollstrukturen wie Schleifen, Unterprogrammauf-rufe und bedingte Sprünge abzubilden. Leider war der Entwurf nicht nurkonzeptionell, sondern auch in seiner Komplexität der damaligen Zeitweit voraus und die analytische Maschine wurde ebenfalls nie vollen-det.

Trotz seiner unbestrittenen Erfolge in verschiedenen Gebieten der Wis-senschaft war Babbage am Ende seines Lebens tief von dem Scheiternseiner drei Großprojekte gezeichnet. Mit der britischen Regierung, diejeder weiteren finanziellen Förderung eine Absage erteilte, ging er nochzu Lebzeiten hart ins Gericht. Am 18. Oktober 1871 starb Babbage inseinem Haus in London als enttäuschter und verbitterter Mann im Altervon 79 Jahren. 150 Jahre nach ihrer Erfindung schaffte zumindest dieDifferenzenmaschine 2 dann doch noch den Sprung vom Reißbrett indie Realität. Am Londoner Science Museum wurde die Maschine nachOriginalplänen rekonstruiert. 1991 wurden die Arbeiten an der funk-tionsfähigen Maschine beendet – pünktlich zum 200. Geburtstag ihresErfinders.

Page 18: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

n Die NOT-Verknüpfung:

x

z

n Die AND-Verknüpfung:

x

y

z

n Die OR-Verknüpfung:

x

y

z

n Der Relais-basierte Zustandsspeicher:

rst

set

z

Abbildung 1.8: Die Basiskomponenten ei-nes Relais-Rechners

1.2 Vom Abakus zum Supercomputer 17

Die elektrische Revolution

Die Verwendung elektromechanischer Bauteile stellt einen Quanten-sprung in der Computergeschichte dar. Mit der elektrischen Spannungals Informationsträger war auf einen Schlag die Konstruktion von Re-chenmaschinen möglich, die in ihrer Komplexität und Zuverlässigkeitweit über das hinausgingen, was rein mechanisch arbeitende Apparatu-ren je zu leisten im Stande gewesen wären. Die ersten Rechenmaschinendieser Art wurden Anfang der Vierzigerjahre gebaut und verwendetenzunächst elektromechanische Relais zur Daten- und Kontrollflusssteue-rung. Das Relais, das schon kurz nach seiner Erfindung im Jahre 1835durch Joseph Henry mit der Telegraphie das Kommunikationszeitaltereinläutete, löste damit rund hundert Jahre später eine weitere technolo-gische Revolution aus.

Zeitgleich mit dem Relais, das nur die zwei Zustände offen und ge-schlossen unterscheidet, hält das Binärsystem endgültig Einzug in dieComputertechnik und bildet bis heute die Grundlage aller maßgeben-den Computerarchitekturen. Abbildung 1.8 zeigt, wie sich die logischenGrundoperationen mit Hilfe konventioneller elektromechanischer Re-lais konstruieren lassen. In Kapitel 4 werden wir auf die verschiede-nen Logikoperationen im Detail eingehen und in den darauf folgendenKapiteln zeigen, wie sich unter alleiniger Verwendung der Elementar-verknüpfungen NOT, AND und OR Hardware-Schaltungen mit nahezubeliebiger Komplexität in die Praxis umsetzen lassen.

Die legendäre Z3 des Konrad Zuse

Konrad Zuse konstruierte 1941 mit der Z3 den ersten voll funktionsfä-higen Rechner dieser neuen Generation [96]. Im Gegensatz zu der nochweitgehend mechanisch arbeitenden Z1 und dem Versuchsmodell Z2,die aufgrund technischer Mängel beide nur unzuverlässig ihren Dienstverrichteten, verwendete Zuse in der Z3 ausschließlich elektromecha-nische Relais. Die Maschine war aus ca. 2000 Einzel-Relais aufgebautund konnte mit einer Taktfrequenz von 5 bis 10 Hertz betrieben wer-den. Insgesamt kam die Z3 auf ein Gesamtgewicht von ca. 1000 kgund besaß eine Leistungsaufnahme von 4000 Watt. Nicht nur aus derSicht der Ingenieurkunst war die Z3 bis dato einzigartig – sie war vorallem auch aus konzeptioneller Sicht ein Meisterwerk. Viele Konzepte,die sich heute in modernen Computerarchitekturen wiederfinden, warenbereits in der Z3 vorhanden, wenngleich auch in deutlich primitivererForm:

Page 19: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Dezimal-tastatur

NumerischeAnzeige

Steuerwerk

Rechenwerk (ALU)

Exponenten-register

Mantissen-register

Speicher(64 Worte)

Loch-streifen-

leser

Abbildung 1.9: Blockschaltbild der Z3

Fetch Exec Store

Fetch Exec Store

Fetch

Erster Takt

Zweiter Takt

Dritter Takt

Exec Store

Abbildung 1.10: Die Pipeline-Architekturder Z3

Befehl Bedeutung CodierungEin- und Ausgabe

Lu Eingabe 01110000

Ld Ausgabe 01111000

SpeichertransferPr z Lesen 11AdressePs z Schreiben 10Adresse

ArithmetikLm Multiplizieren 01001000

Li Dividieren 01010000

Lw Wurzelziehen 01011000

Ls1 Addieren 01100000

Ls2 Subtrahieren 01101000

Tabelle 1.1: Der Befehlssatz der Z3

18 1 Einführung

n Wie das Blockschaltbild in Abbildung 1.9 demonstriert, sind derSpeicher und der Prozessor – bestehend aus Steuer- und Rechenwerk– klar voneinander getrennt. Diese Zweiteilung findet sich auch heu-te noch in den allermeisten Computerarchitekturen wieder.

n Intern verwendet die Z3 das Gleitkommaformat zur Darstellung ra-tionaler Zahlen. Über die numerische Tastatur eingegebene Operan-den wurden automatisch in das interne Gleitkommaformat übersetztund die Rechenergebnisse für die Anzeige ebenfalls vollautomatischin das Dezimalsystem zurückkonvertiert. Damit war die Erfindungvon Zuse auch hier anderen Maschinen weit voraus, die mit demFestkommaformat eine wesentlich primitivere Art der Darstellungeinsetzten. In Kapitel 3 werden wir uns intensiv mit den Unterschie-den des Gleit- und Festkommaformats beschäftigen.

n Das Prinzip der Mikroprogrammierung, das auch heute die Grund-lage vieler moderner Mikroprozessoren bildet, findet sich bereits inder Z3 verwirklicht. Im Zentrum des Steuerwerks befindet sich hier-zu der sogenannte Mikrosequenzer, mit dessen Hilfe sich komplexeRechenoperationen in mehrere elementare Berechnungsschritte zer-legen und nacheinander ausführen ließen. Im Zusammenhang mitder CISC- und RISC-Architektur werden wir in Kapitel 12 auf die-ses Prinzip der Ablaufsteuerung zurückkommen.

n Zur Geschwindigkeitssteigerung führt die Z3 den Befehlsstromüberlappend aus, d. h. während des Zurückschreibens des Ergebnis-werts ist der Rechner in der Lage, bereits die nächste Instruktioneinzulesen. Wie in Abbildung 1.10 gezeigt, folgte die Z3 damit einerdreistufigen Pipeline-Architektur, die mit einem einstufigen Versatzausgeführt wurde. In Kapitel 12 werden wir uns auch mit diesemArchitekturprinzip genauer beschäftigen.

n Auch das verwendete Rechenwerk musste zu seiner Zeit keinen Ver-gleich scheuen. So setzte die Z3 zur Beschleunigung der Additiondie Carry-look-ahead-Technik ein, die auch heute noch die Grundla-ge vieler Addierwerke bildet. In Kapitel 7 werden wir dieses Addi-tionsprinzip im Detail kennen lernen.

Programmiert wurde die Z3 mit Hilfe eines 8-spurigen Lochstreifens.Jede Zeile codiert einen einzigen Befehl, zusammen mit den dazugehö-rigen Operanden. Wie die Befehlsübersicht in Tabelle 1.1 zeigt, lassensich die insgesamt neun Befehle in die Kategorien Ein- und Ausgabe,Speichertransfer und Arithmetik unterteilen.

Mit Hilfe der Befehle Lu bzw. Ld wird eine Dezimalzahl über die nu-merische Tastatur eingelesen bzw. auf der numerischen Anzeige aus-

creo
Page 20: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Konrad Zuse (1910 – 1995)

Abbildung 1.11: Bronze-Statue in Hünfeldzum Gedenken an Konrad Zuse

Spur 0 bis 7

Spur 8 bis 15

Spur 16 bis 23

Quell- adresse

Ziel- adresse

Opcode

Abbildung 1.12: Aufbau des Lochstreifenszur Steuerung der Harvard Mark I

1.2 Vom Abakus zum Supercomputer 19

gegeben. Beide Befehle stoppen die Ausführung der Maschine, bis derBenutzer manuell die Fortsetzung veranlasst. Die Kommunikation mitdem Hauptspeicher wird über die Befehle Pr bzw. Ps gesteuert. Dieanzusprechende Speicheradresse wird hierzu in den 8-Bit-Opcode derBefehle hineincodiert. Mit den 5 zur Verfügung stehenden Adressbitslassen sich insgesamt 25 = 64 Speicherworte adressieren. Die restlichenBefehle dienen zur Durchführung der vier arithmetischen Grundrechen-arten sowie der Berechnung der Quadratwurzel.

Betrachten wir den Befehlssatz der Z3 genauer, so fällt auf, dass mitden vorhandenen Befehlen weder eine Verzweigung noch eine Schleifeprogrammiert werden kann. Der Programmierung sind hierdurch engeGrenzen gesetzt und die Z3 stellt damit keinen Universalrechner im ei-gentlichen Sinne dar.

Die Harvard Mark I

Fast zeitgleich mit dem Bau der Z3 wurde an den IBM Laboratoriesin New York unter der Regie von Howard H. Aiken der größte jemalsfertiggestellte elektromechanische Rechner gebaut – der Automatic Se-quence Controlled Calculator (ASCC) [17]. In einer feierlichen Ze-remonie wurde die gigantische Maschine am 7. August 1944 an dieHarvard University übergeben und offiziell in Betrieb genommen. DieKomplexität der Konstruktion, die fortan den Namen Harvard Mark Itrug, lässt sich anhand weniger Kenndaten bereits erahnen. So bestanddie gesamte Apparatur aus ca. 765.000 Einzelkomponenten, die überetliche Kilometer Kabel miteinander verbunden waren. Insgesamt füll-te die Konstruktion mit 6 Metern Länge und über 2 Metern Höhe eineWerkhalle vollständig aus.

Die Harvard Mark I enthielt 72 Akkumulatoren, die jeder für sich einedezimalcodierte Zahl mit einer Genauigkeit von 23 Ziffern speichernkonnten. Neben einem weiteren Kurzzeit- sowie einem Konstantenspei-cher verfügte der Rechner über separate Multiplikations- und Divisions-einheiten. Gesteuert wurde die Harvard Mark I über 24-spurige Loch-streifen, deren allgemeiner Aufbau in Abbildung 1.12 dargestellt ist.Jede Zeile codiert einen einzelnen Steuerbefehl, der sich aus drei Kom-ponenten zusammensetzt. So definieren die Einstanzungen der ersten 8Spuren die Quelladresse und die Einstanzungen der mittleren 8 Spurendie Zieladresse einer Operation. Die restlichen 8 Spuren definieren denOpcode des auszuführenden Befehls. Die Harvard Mark I konnte die socodierten Befehle ausschließlich sequenziell abarbeiten – Befehle fürSchleifen, Verzweigungen und Unterprogrammaufrufe sah die Rechne-

Page 21: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Dass wir heute im Software-und Hardware-Bereich Fehlergemeinhin als Bugs bezeich-nen, wird in vielen Quellenin Zusammenhang mit der Harvard MarkI gebracht. Gerüchten zufolge geriet ei-ne Motte in eines der zahlreichen elek-trischen Relais des Rechners und brach-te auf diese Weise die gesamte Maschinezum Erliegen. Die Motte wurde entferntund der Begriff Debugging war geboren.In der Tat gehört die Geschichte zu denklassischen Mythen des Computerzeital-ters. Die besagte Motte gab es wirklich,allerdings stammte sie nicht aus der Har-vard Mark I, sondern von ihrem Nachfol-ger, der Harvard Mark II. Der Begriff desDebuggings wurde jedoch bereits viel frü-her geprägt, wie z. B. der folgende Aus-schnitt aus einem Brief von Thomas Edi-son vom 18. November 1878 an TheodorePuskas verrät:

„It has been just so in all my inventions.The first step is an intuition – and comeswith a burst, then difficulties arise. Thisthing gives out and then that – ’Bugs’ – assuch little faults and difficulties are cal-led – show themselves and months of an-xious watching, study and labor are requi-site before commercial success – or failu-re – is certainly reached“ [47]

Nichtsdestotrotz war die Motte der Har-vard Mark II wahrscheinlich der ersterichtige Bug der Computergeschichte. Ho-ward Aiken selbst bezeichnete sie als den„first actual case of bug being found“.

20 1 Einführung

rarchitektur noch nicht vor. Damit ließen sich Endlosschleifen nur aufphysikalischem Wege durch das Zusammenfügen des Lochstreifens zueinem endlosen Band realisieren.

Das bereits in der Harvard Mark I umgesetzte Konzept, Code und Datenin getrennten Speichern vorzuhalten, hat im Bereich moderner Compu-terarchitekturen in den letzten Jahren eine wahre Renaissance erlebt.So arbeiten z. B. moderne digitale Signalprozessoren fast ausschließ-lich nach diesem Prinzip, da sich im Vergleich zur klassischen Von-Neumann-Architektur deutlich höhere Übertragungsraten zwischen derZentraleinheit und dem Speicher erreichen lassen. In Anlehnung an ih-re historischen Wurzeln sprechen wir in diesem Zusammenhang heuteimmer noch von der Harvard-Architektur.

Die Harvard Mark I wurde erst 1959 außer Betrieb gestellt und anschlie-ßend zerlegt. Einige Komponenten sind heute noch im Cabot ScienceScenter der Harvard University zu sehen, der Rest befindet sich im Be-sitz der IBM Laboratories in New York und des Smithsonian-Institutsin Washington, D.C.

Die ENIAC

Die Frage, ob wir in der Z3 und der in etwa zeitgleich entwickeltenHarvard Mark I die ersten richtigen Computer vor uns sehen dürfen,ist immer wieder Gegenstand hitziger Diskussionen und in Fachkrei-sen umstritten. Einige Experten sehen in der freien Programmierbarkeitund der konzeptionellen Untergliederung der Maschinen in Speicher,Rechenwerk und Steuerwerk die wesentlichen Grundzüge eines Com-puters verwirklicht. Andere Fachleute sind der Meinung, dass die Uni-versalität des zu Grunde liegenden Berechnungsmodells das wesent-liche Charakteristikum des Computers darstellt. Dieser Interpretationfolgend, gelten sowohl die Z3 als auch die Harvard Mark I zwar alsdie ersten universellen Rechenmaschinen, nicht jedoch als Computerim modernen Sinne.

Den Bau der ersten voll funktionsfähigen Rechenmaschine, die nahe-zu allen Definitionen des modernen Computer-Begriffs standhält unddaher von vielen Experten als der erste wirkliche Computer der Weltangesehen wird, datieren wir auf das Jahr 1946 – das Jahr, in dem dieENIAC1 der Öffentlichkeit vorgestellt wurde [36, 86]. Der Rechnerko-loss wurde an der Moore School of Electrical Engineering der Univer-sity of Pennsylvania unter der Leitung von J. Presper Eckert und John

1Electronic Numerical Integrator And Computer

creo
Page 22: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

KathodeHeiz-spirale

Anode

Gitter

--

-

--

--

Abbildung 1.14: Die Trioden-Röhre alsSchaltelement. Der durch die Heizspiraleverursachte Stromfluss von der Kathode zurAnode kann durch das Anlegen einer Span-nung an das Metallgitter blockiert oder ver-stärkt werden – ein einfaches Schaltelemententsteht.

1.2 Vom Abakus zum Supercomputer 21

InitiatingUnit

CyclingUnit

Master Program

mer

Panel 1 (Printer 1)

Master Program

mer

Panel 2

Function Table 1Panel 1

Function Table 1Panel 2

Accumulator 1

Accumulator 2

(Quotient)

Divider andSquare Rooter

Accumulator 3

(Numerator I)

Accumulator 4

(Numerator II)

Accumulator 5

(Square Root I)

Accumulator 6

(Square Root II)

Accumulator 7(Shift I)

Accumulator 8(Shift II)

Accumulator 9

(Multiplier)

Accumulator 10

Multiplier 1

Multiplier 2

Multiplier 3

Accumulator 11(Partial products)Accumulator 12(Partial products)Accumulator 13

Accumulator 14Printer 2 & 3

Printer 4 & 5

PortableFunction Table A

PortableFunction Table C

PortableFunction Table B

Accumulator 15

(Printer 6)Accum

ulator 16(Printer 7 &

8)

Accumulator 17

(Printer 9 & 10)

Accumulator 18

(Printer 11 & 12)

Function Table 2(Panel 1)Function Table 2(Panel 2)

Function Table 3(Panel 1)Function Table 3(Panel 2)Accum

ulator 19(Printer 13 &

14)

Accumulator 20

(Printer 15 & 16)

ContantTransm

itter Panel 1ContantTransm

itter Panel 2

ContantTransm

itter Panel 3

Printer Panel 1

Printer Panel 2

Printer Panel 3

Card Puncher

Card Reader

Programam and Digit TraysProgramam and Digit TraysProgramam and Digit TraysProgramam Trays

Programam and Digit TraysProgramam and Digit TraysProgramam and Digit Trays

(Multiplicant)

Programam

and Digit Trays

Abbildung 1.13: Der „Floorplan“ der ENIAC

W. Mauchly gebaut und beeindruckte schon aufgrund seiner schierenGröße. Wie in Abbildung 1.13 dargestellt, bestand die ENIAC aus ins-gesamt 30 Einheiten, die U-förmig über den gesamten Raum verteiltangeordnet waren. Die gesamte Konstruktion kam auf ein Gesamtge-wicht von knapp 30 Tonnen (Abbildungen 1.15 bis 1.17).

Der Entschluss, einen Rechner dieses Ausmaßes überhaupt zu bauen,wurde aus der Not geboren. Die Intensität, mit der der Zweite Welt-krieg 1939 über die Welt hereinbrach, setzte die U.S.-Armee unterenormen Zeitdruck, sich auf den immer wahrscheinlicher werdendenKriegseintritt vorzubereiten. Unter anderem experimentierten die U.S.-Streitkräfte mit großkalibrigen ballistischen Geschützen, die anhandvon Trajektorien-Tabellen auf ihr Ziel ausgerichtet wurden. Das Auf-stellen der Tabellen erforderte das Lösen von Differenzialgleichungenzweiter Ordnung und damit Fähigkeiten außerhalb des Leistungsspek-trums damaliger Rechenmaschinen. Die ENIAC, mit deren Hilfe die

Page 23: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Abbildung 1.15: Teilansicht der ENIAC(U.S.-Armee-Foto)

Abbildung 1.16: Das Main Control Panelder ENIAC (U.S.-Armee-Foto)

Abbildung 1.17: Programmiert wurdedie ENIAC durch „Kabelstecken“ (U.S.-Armee-Foto)

22 1 Einführung

automatisierte Berechnung der Trajektorien-Tabellen möglich werdensollte, war in zweierlei Hinsicht revolutionär:

n Im Gegensatz zur Z3 oder der Harvard Mark I war es möglich, Ver-zweigungen und Schleifen zu programmieren. Damit unterscheidetsich das formale Berechnungsmodell der ENIAC deutlich von ih-ren Vorgängern und ist insbesondere mit dem heutiger Computervergleichbar, auch wenn die Programmierung des Kolosses im Ver-gleich zur heutigen Technik kaum unterschiedlicher sein könnte.

n In der ENIAC wurde auf die Verwendung elektromechanischer Re-lais verzichtet und die Schaltlogik stattdessen mit Hilfe von Vaku-umröhren implementiert. Zwar ist die ENIAC nicht der erste Röh-renrechner der Welt, aber der erste Großrechner, der die Vakuum-röhre in Form der Triode konsequent als Schaltelement verwende-te. Im Vergleich zum Relais zeichnet sich die Röhre durch eine umden Faktor 1000 bis 2000 gesteigerte Schaltgeschwindigkeit aus, sodass die ENIAC mit einer für damalige Verhältnisse beeindrucken-den Taktfrequenz von 100 Kilohertz betrieben werden konnte. Eineeinzige Multiplikation berechnete die ENIAC in nur knapp 3 Milli-sekunden.

Auf der negativen Seite brachte die ENIAC konstruktionsbedingt auchgravierende Nachteile mit sich. Ein wesentliches Element der Röhren-triode ist, wie in Abbildung 1.14 skizziert, die Heizspirale. Wird sie zumGlühen gebracht, so beginnt die Kathode Elektronen zu emittieren, dievon der Anode angezogen und aufgefangen werden. Konstruktionsbe-dingt sind Vakuumröhren damit äußerst stromhungrige Bauelemente.Die Leistungsaufnahme der ca. 18.000 in der ENIAC verbauten Va-kuumröhren summierte sich auf sagenhafte 174.000 Watt. Des Weite-ren besitzen Vakuumröhren im Vergleich zu Relais eine sehr begrenzteLebensdauer und das langwierige Auffinden und Austauschen defekterRöhren gehörte zur täglichen Arbeit eines ENIAC-Ingenieurs.

Der wohl gravierendste Nachteil betrifft jedoch die Handhabung derMaschine, die nicht auf eine flexible Programmierung ausgelegt war.Der Datenpfad wurde mit Hilfe von Steckverbindungen fest verdrahtetund ein Programm für die ENIAC war damit nichts anderes als ein Ver-bindungsplan, der die benötigten Steckverbindungen beschrieb. Hier-durch war ein flexibler Wechsel zwischen verschiedenen Programmenvon vorneherein ausgeschlossen.

Die Limitierungen der ENIAC inspirierten den in Budapest geborenenund später in die USA immigrierten Wissenschaftler John von Neumann

Page 24: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Zentraleinheit (CPU)

Steuerwerk (CU)

Rechenwerk (ALU)

Speicher (Code + Daten)

John von Neumann(1903 - 1957)

Abbildung 1.18: John von Neumann be-gründete die grundlegende Rechnerarchi-tektur, die auch heute noch die Basis mo-derner Computer bildet.

1.2 Vom Abakus zum Supercomputer 23

zu einer bahnbrechenden Idee [34]. Sein Konzept sah vor, Programmeund Daten beide in einem einzigen Speicher abzulegen und damit nichtmehr länger als getrennte Entitäten zu behandeln: Die Idee der Von-Neumann-Architektur war geboren (vgl. Abbildung 1.18). In Kapitel 11werden wir dieses Prinzip, an dem sich auch die meisten modernenComputerarchitekturen heute noch orientieren, im Detail diskutieren.

Trotz aller Limitierungen und Schwierigkeiten war die ENIAC ein ein-drucksvoller Beweis für die Funktionstüchtigkeit der Röhrentechnik. Inden Folgejahren wurden weitere Großcomputer gebaut, die dem altern-den Koloss in ihrer technischen Konzeption und Handhabung in immergrößerem Maße überlegen waren. Die ebenfalls legendäre, an der Man-chester University entwickelte Manchester Mark I und der ElectronicDelay Storage Automatic Calculator (EDSAC) der Cambridge Univer-sity sind zwei Beispiele aus dieser Zeit. Wie die ENIAC basierten auchdiese Rechner auf der Röhrentechnologie und begründen zusammen dieComputer der ersten Generation.

Der Siegeszug des Transistors

Der hohe Stromverbrauch und die begrenzte Lebensdauer der Vakuum-röhre wurden mehr und mehr zum limitierenden Faktor bei der Entwick-lung immer ausgefeilterer Rechnerkonstruktionen und für Forscher ausaller Welt zur treibenden Kraft bei der Suche nach neuen Technologien.Am 1. Juli 1948 verkündeten die Bell Laboratories in New York offiziellden Durchbruch und stellten den ersten praxistauglichen Transistor vor,der die bis dato dominierende Vakuumröhre vollständig ersetzen sollte:

„An amazingly simple device, capable of performing effi-ciently nearly all the functions of an ordinary vacuum tube,was demonstrated for the first time yesterday at Bell Telepho-ne Laboratories where it was invented. Known as the Tran-sistor, the device works on an entirely new physical principlediscovered by the Laboratories in the course of fundamentalresearch into the electrical properties of solids. Although thedevice is still in the laboratory stage, Bell scientists and en-gineers expect it may have far-reaching significance in elec-tronics and electrical communication.“

Bell Laboratories, Press Release [9]

An der Entwicklung des ersten technisch verwertbaren, voll funktions-fähigen Transistors waren die Ingenieure William Shockley, John Bar-

Page 25: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Abbildung 1.19: Julius Lilienfeld paten-tiert als Erster die Idee des Feldeffekt-Transistors. Die Abbildung zeigt einen Aus-zug aus der zweiten Patentschrift aus demJahre 1928 [56, 57].

24 1 Einführung

deen und Walter Brattain maßgeblich beteiligt und erhielten am 1. De-zember 1956 als Anerkennung ihrer bahnbrechenden wissenschaftli-chen Leistung den Nobelpreis [6, 80]. Das Ergebnis der Arbeiten vonShockley, Bardeen und Brattain gilt heute als der erste technisch ver-wertbare und voll funktionsfähige Transistor – die Idee desselben warjedoch schon weit früher bekannt. So wurde das Prinzip des Transis-tors bereits 1928 von Julius Edgar Lilienfeld zum Patent angemeldet(Abbildung 1.19).

Der erste Computer auf Transistor-Basis wurde an der Manchester Uni-versity Anfang der Fünfzigerjahre gebaut. Dem 1953 fertiggestelltenPrototyp folgte eine deutlich erweiterte Variante, die zwei Jahre späterin Betrieb genommen werden konnte. Aufgrund der noch sehr jungenTransistortechnik war der Rechner den modernen Röhren-Computernvon damals sowohl in seiner Leistungsfähigkeit, aber auch in seiner Zu-verlässigkeit deutlich unterlegen. Sahen einige Experten den Transistorgegenüber der Röhre zu Anfang im Nachteil, so konnte die neue Tech-nologie den beginnenden Wettstreit jedoch alsbald für sich entscheiden.Mit der zunehmenden Verfeinerung der Technik stand mit dem Tran-sistor ein Schaltelement zur Verfügung, das der Röhrentriode in punc-to Leistungsaufnahme, Geschwindigkeit und Zuverlässigkeit haushochüberlegen war.

Der Übergang von der Röhre zum Transistor läutete das Zeitalter derComputer der zweiten Generation ein und war von weiteren wichtigenEntwicklungen begleitet. Steuer- und Rechenwerke wurden deutlichkomplexer und bis dato fortschrittliche Konzepte wie die Verwendungindizierbarer Register oder der Einsatz von Gleitkomma-Hardware ge-hörten schnell zum Stand der Technik. Speicherseitig hielt der Ferrit-kernspeicher Einzug, der Daten im Kilobyte-Bereich speichern konn-te, allerdings in mühevoller Handarbeit gefertigt werden musste. Auchdie ersten Programmiersprachen datieren auf diese Zeit. 1957 wurdeder erste FORTRAN-Compiler ausgeliefert und 1960 die Programmier-sprache COBOL verabschiedet. Beide Sprachen sind heute immer nochim Einsatz – wenngleich sich deren Verwendungszweck nur noch aufwenige Spezialanwendungen konzentriert.

Der Siegeszug des Transistors begann im Jahre 1958, als es dem fürTexas Instruments arbeitenden Ingenieur Jack Kilby gelang, den erstenintegrierten Schaltkreis (engl. Integrated Circuit, kurz IC) herzustellen.Konnten Transistoren bis zu diesem Zeitpunkt ausschließlich als dis-kretes Bauelement verbaut werden, war es mit Kilbys Technik nunmehrmöglich, mehrere Transistoren auf einem kleinen Stück Silizium zu in-tegrieren. Kilbys Entdeckung, für die er im Jahr 2000 – fünf Jahre vorseinem Tod am 20.5.2005 – mit dem Nobelpreis geehrt wurde, war viel-

Page 26: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Small-Scale Integration

n kurz SSI

n weniger als 100 Gatter

Medium-Scale Integration

n kurz MSI

n 100 bis 1000 Gatter

Large-Scale Integration

n kurz LSI

n 1000 bis 10.000 Gatter

Very-Large-Scale Integration

n kurz VLSI

n 10.000 bis 100.000 Gatter

Ultra-Large-Scale Integration

n kurz ULSI

n 100.000 bis 1.000.000 Gatter

Super-Large-Scale Integration

n kurz SLSI

n 1.000.000 bis 10.000.000 Gatter

Extra-Large-Scale Integration

n kurz ELSI oder XLSI

n 10.000.000 – 100.000.000 Gatter

Giga-Scale Integration

n kurz GSI

n mehr als 100.000.000 Gatter

Tabelle 1.2: Klassifizierung integrierterSchaltkreise

1.2 Vom Abakus zum Supercomputer 25

leicht der entscheidendste Durchbruch der Computergeschichte und derAuslöser einer bis heute anhaltenden Leistungsexplosion, die sich zurdamaligen Zeit niemand jemals hätte erträumen können.

Bereits ein Jahr nach der Entwicklung des integrierten Schaltkreises ge-lang es dem Halbleiterhersteller Fairchild Semiconductor, mit der Pla-nartechnik die Grundlage der Massenfertigung zu schaffen. Im Folge-jahr brachte Fairchild nahezu zeitgleich mit Texas Instruments den ers-ten kommerziellen IC auf den Markt. Weitere drei Jahre später begannFairchild 1963 mit der Produktion des Modells 907, der bereits zweivollständige Logikgatter in einem einzigen Chip vereinte und damit dieSSI-Technologie begründete. SSI ist die Abkürzung für Small-Scale In-tegration und bezeichnet eine von mehreren Komplexitätsklassen, in diesich integrierte Schaltklassen einordnen lassen.

Tabelle 1.2 fasst die verschiedenen Komplexitätsklassen zusammen, de-nen sich integrierte Schaltkreise zuordnen lassen. Zwischen den ein-zelnen Klassen existiert keine scharfe Trennung und die numerischenAngaben zur Gatteranzahl sind als Orientierungswerte zu verstehen. Sounterscheiden sich auch die in der Literatur angegebenen Gattergrenzenmitunter erheblich und insbesondere die Abgrenzung im Bereich derVLSI- und ULSI-Klassen wurde im Laufe der Zeit mit zunehmenderChip-Komplexität immer wieder nach oben korrigiert oder durch neueingeführte Klassen (SLSI, XLSI, GSI) ergänzt.

Der Micromosaic, ebenfalls von Fairchild Semiconductor auf den Marktgebracht, integrierte 1967 bereits 150 Logikgatter und ist aus histo-rischer Sicht in zweierlei Hinsicht interessant. Zum einen gehörte ermit der Anzahl integrierter Gatter zu den ersten ICs der MSI-Technik(Medium-Scale Integration), zum anderen ist er der Vorläufer program-mierbarer Logikbausteine, die wir in Kapitel 7 genauer betrachten wer-den.

Für die Herstellung des Micromosaics wurde ein regelmäßig aufgebau-ter Chip verwendet und die Transistorverbindungen erst später durchdas Einbringen einer kundenspezifischen Belichtungsmaske erzeugt.Auf diese Weise war es erstmals möglich, eine speziell auf einen Kun-den zugeschnittene Schaltung mit vergleichsweise geringem Aufwandund Kosten zu produzieren.

Eines der ersten vollständigen Computersysteme, das sich die inte-grierte Schaltkreistechnologie zu Nutze machte, war das legendäreSystem/360, das am 7. April 1964 der Öffentlichkeit vorgestellt wur-de [74]. Mit dieser Modellreihe begründete die Firma IBM die Ära derMainframe-Computer und läutete gleichermaßen das Ende der Pionier-zeit der Computertechnik ein. Der Aufwand, den IBM in die neue Idee

Page 27: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

26 1 Einführung

Erste Generation Zweite Generation Dritte und vierteGeneration

1940 – 1954 1955 – 1964 ab 1965

Relais Vakuumröhre Transistor Integrierter Schaltkreis

Schaltzeit: 10�1 s Schaltzeit: 10�4 s Schaltzeit: 10�6 s Schaltzeit: < 10�9 s

Tabelle 1.3: Die Entwicklung der Schaltelemente in der Übersicht

investierte, war gigantisch. Zu Hochzeiten arbeiteten rund 50.000 Mit-arbeiter an dem Projekt, dessen Gesamtkosten auf über 5 MilliardenUS-Dollar geschätzt werden. Das System/360 brachte einige techni-sche Neuerungen mit sich, die wir noch heute in modernen Compu-tersystemen verwenden. So nutzt die S/360 beispielsweise das Zweier-komplement zur Darstellung negativer Zahlen und führt das Prinzip derbyteweisen Speicheradressierung ein. Auf beide Konzepte kommen wirin Kapitel 3 im Detail zurück. Neben der Entwicklung von Großrech-nern hat die zunehmende Verfügbarkeit leistungsfähigerer und billigererSSI-, MSI- und LSI-Komponenten auch den Bau immer kleinerer undkostengünstigerer Computer ermöglicht. Die um 1970 gebauten PDP-Rechner (PDP = Programmable Data Processor) der Digital EquipmentCorporation (DEC) sind Beispiele solcher Minicomputer.

Nach dem elektromagnetischen Relais, der Röhre, und dem Transis-tor in Form eines diskreten Bauelements ist der integrierte Schaltkreisbereits der vierte revolutionäre Wechsel der Basistechnologie, den dieComputertechnik in ihrer vergleichsweisen jungen Geschichte erfahrenhat. Genau wie die Relais- und Röhrentechnologie stellvertretend fürdie Computer der ersten Generation und die diskrete Transistortechnikfür die Computer der zweiten Generation steht, so werden die frühenRechner auf Basis integrierter Schaltkreise als Computer der dritten Ge-neration bezeichnet. Bis zum heutigen Tag arbeiten Computer nach die-sem Prinzip, wenngleich sich hochintegrierte Schaltkreise der letztenGenerationen bezüglich ihrer Leistungsdaten kaum noch mit den ersten

Page 28: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

D0

D1

D2

D3

VSS

Φ1

Φ2

SYNC

CM-RAM0

CM-RAM1

CM-RAM2

CM-RAM3

CM-ROM

VDD

TEST

RESET

Dat

enbus

Adre

ssbus

Tak

t

Abbildung 1.20: Der 4004-Mikroprozessor

Sprungbefehle

JUN Direkter SprungJIN Indirekter SprungJCN Bedingte VerzweigungJMS UnterprogrammaufrufBBL Unterprogrammende

Ladebefehle

FIM Register laden (direkt)FIN Register laden (indirekt)LD Register ! AkkumulatorXCH Register $ AkkumulatorLDM Wert ! Akkumulator

Arithmetikbefehle

INC InkrementierenISZ INC + bedingter SprungADD AdditionSUB Subtraktion

Sonstige Befehle

NOP Keine Operation

Tabelle 1.4: Die Grundoperationen des In-tel 4004-Prozessors

1.2 Vom Abakus zum Supercomputer 27

integrierten Schaltkreisen vergleichen lassen. Tabelle 1.3 stellt die Ba-sistechnologien der verschiedenen Computergenerationen gegenüber.

Auch die Computertechnik der dritten Generation wurde durch einher-gehende Entwicklungen weiter geprägt. Der Ferritkernspeicher hatteausgedient und wurde nach und nach durch integrierte Speicherchipsersetzt. Diese waren deutlich kleiner und schneller als ihre Vorgängerund ermöglichten hierdurch drastisch höhere Speicherkapazitäten zugeringeren Kosten. Mehr und mehr Lochkartenleser mussten interak-tiven Text-Terminals weichen und so ging auch die Ära der Lochkartebeständig ihrem Ende zu. Auch die ersten Betriebssysteme entstandenauf Computern dieser Generation. Bereits mit Hilfe der ersten Betriebs-systeme war es möglich, verschiedene Programme gleichzeitig auszu-führen und zu überwachen. Die Produktivität der Software-Entwicklungnahm hierdurch erst richtig an Fahrt auf.

Der erste Mikroprozessor

1968 verließen Robert Noyce, Gordon Moore und kurze Zeit späterAndrew Grove die Firma Fairchild Semiconductor und gründeten dieIntegrated Electronics Corporation (Intel) im kalifornischen Santa Cla-ra [46]. Bereits zwei Jahre später stellte Intel mit dem 1103 den ers-ten DRAM-Speicherbaustein vor. Die eigentliche Sternstunde schlugfür Intel jedoch im Jahre 1971, als es dem Ingenieur Federico Fagginals Erstem gelang, alle Komponenten eines Prozessors gemeinsam aufeinem einzigen Stück Silizium zu integrieren. Bereits kurze Zeit späterbrachte Intel mit dem Intel 4004 den ersten Mikroprozessor der Weltauf den Markt und leitete damit den Beginn der vierten und bis datoletzten Computergeneration ein.

Der in einer Strukturbreite von 10 µm gefertigte Prozessor bestand aus2250 Transistoren und lief mit einer Taktfrequenz von 740 kHz. Wiein Abbildung 1.20 gezeigt, wird das Taktsignal über zwei separate Lei-tungen zugeführt. Eine steigende Taktflanke im Signal f2 bewirkte deneigentlichen Zustandswechsel, während das zeitversetzt angelegte Si-gnal f1 zur internen Steuerung eingesetzt wurde. Die beiden Pins VSSund VDD dienten der Stromaufnahme und versorgten den Prozessor miteiner Spannung von 5 V bzw. �10 V. Intern arbeitete der Prozessor, wiein Abbildung 1.21 skizziert, mit einer Bitbreite von gerade einmal 4 Bitund verfügte neben 16 Datenregistern über 4 Stapelregister zur Spei-cherung des Programmzählers und der Rücksprungadressen von Unter-programmaufrufen.

Page 29: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

28 1 Einführung

...

Datenbus-puffer

Instruktions-register

Instruktions-decoder

Programm-zähler

Stack-Register 1

Stack-Register 2

Stack-Register 3

Sta

ck-P

oin

ter

Ind

ex-P

oin

ter

Index-Register 0

Index-Register 1

Index-Register 15

D0 D1 D2 D3

VSS

Φ1 Φ2 CM-

ROM

VDD TEST RESETSYNC CM-

RAM3

CM-

RAM2

CM-

RAM1

CM-

RAM0

Kontrollsteuerung

Interner Datenbus (4 Bit)

StatusbitsZwischen-speicher

Akkumulator

Arithmetisch- logischeEinheit(ALU)

Abbildung 1.21: Blockschaltbild des 4004-Mikroprozessors

Um die mindestens 8 Bit langen Befehlswörter mit Hilfe des 4 Bit brei-ten Bus des 4004 trotzdem in einem einzigen Takt einlesen zu können,arbeitete der Prozessor im sogenannten Multiplexing-Modus. Das be-deutet, dass der Bus mit doppelter Taktfrequenz betrieben wurde, sodass die ersten 4 Bit in der ersten Hälfte und die restlichen 4 Bit in derzweiten Hälfte einer Taktperiode eingelesen werden konnten. Obwohldie Multiplexing-Logik die interne Architektur des 4004 deutlich ver-komplizierte, vereinfachte sie erheblich die Produktion. Der Prozessorpasste vollständig in ein 16-Pin-Gehäuse.

Tabelle 1.4 vermittelt einen detaillierteren Eindruck über die Grund-befehle des 4004-Prozessors. Sehen wir von der NOP-Instruktion ab,die ausschließlich dazu dient, die Befehlsausführung um einen einzigenTakt zu verzögern, lassen sich die Grundbefehle in drei Kategorien ein-teilen. Die erste Kategorie enthält eine Ansammlung von Sprungbefeh-len zur Steuerung des Kontrollflusses. Die zweite Kategorie dient zum

creo
Page 30: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Der Intel 8088

4,77 MHz29.000 Transistoren8-Bit-Datenbus

IBM-Modell 5150

Abbildung 1.22: Das Modell 5150 der Fir-ma IBM begründet das Zeitalter der PCs.

Abbildung 1.23: Computer der heutigenGeneration übertreffen die Rechenleistungehemaliger Großcomputer um ein Vielfa-ches.

1.2 Vom Abakus zum Supercomputer 29

Datentransfer zwischen ROM, Register und Akkumulator und die dritteKategorie umfasst alle Arithmetikbefehle. Neben diesen Grundbefeh-len verfügt der 4004 über etliche spezialisierte Befehle, die in der Ta-belle nicht aufgeführt sind und dem Lesen und Beschreiben des RAM-Speichers dienen. Wie die Liste der Grundbefehle zeigt, besaß der 4004nur begrenzte Arithmetikfähigkeiten. Befehle zum Multiplizieren oderDividieren zweier Datenwörter sind ebenso wenig vorhanden wie Be-fehle zur Durchführung logischer Verknüpfungen. Ebenfalls fehlen In-struktionen zur Interrupt-Steuerung – ein Prinzip, das der 4004 noch garnicht kannte.

Die Entwicklung bis heute

Die Innovationskraft, die der erste Mikroprozessor mit sich brachte,wurde Anfang der Siebzigerjahre durchaus skeptisch betrachtet undselbst Intel maß dem 4004 zum Zeitpunkt seines Erscheinens bei wei-tem nicht die Bedeutung zu, die er rückblickend verdient. Trotzdemsetzte sich das Prinzip des Mikroprozessors durch und entwickelte sichschließlich zur treibenden Kraft der gesamten Computerbranche.

Die Evolution, die der Mikroprozessor in wenigen Jahren vollzog, lässtsich anhand der Entwicklung der Intel-Prozessoren deutlich nachzeich-nen. Obwohl bereits der 4004 in etwa die Leistung einer ENIAC bot,war er mit seiner geringen Bitbreite und dem limitierten Befehlssatznoch nicht für den universellen Einsatz geeignet. Dies änderte sich 1975mit dem Erscheinen des 8-Bit-Prozessors 8080, den viele Experten zuden ersten universell einsetzbaren Mikroprozessoren zählen. 1978 be-gründete Intel mit dem 16-Bit-Prozessor 8086 und kurze Zeit später mitdem auf 8 Bit reduzierten 8088 die x86-Architektur. Als kleiner Bru-der des 8086 feierte der 8088 im ersten Personal Computer (PC) derFirma IBM – dem in Abbildung 1.22 gezeigten IBM-Modell 5150 –sein Debüt. Mit dem beispiellosen Markterfolg der PCs wurde die x86-Architektur gleichermaßen zu einem Massenprodukt.

1982 ersetzte IBM den 8086 durch den 80286, der zwar immer noch miteiner Registerbreite von 16 Bit arbeitete, die Funktionalität des 8086jedoch durch zahlreiche neue Konzepte, wie das Schützen bestimmterSpeicherbereiche (protected mode), deutlich übertraf. Der erste Intel-Prozessor mit einer 32-Bit-Architektur erschien drei Jahre später inForm des 80386-Prozessors. 1989 wurde der 80386 durch den deutlichschnelleren 80486 abgelöst, der unter anderem den vormals externenCoprozessor direkt auf dem Prozessorchip integrierte. Der Nachfolgerdes 80486 kam 1993 auf den Markt – aus patentrechtlichen Gründen

Page 31: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

PPE :SPU :

V-ALU :

V-ALU(128 Bit)

256 KByteSRAM

SP

U 1

I/OController

I/OController

MemoryController

MemoryController

L2-Cache

64-Bit-PowerPC-Kern

PPE

V-ALU(128 Bit)

256 KByteSRAM

SP

U 2

V-ALU(128 Bit)

256 KByteSRAM

SP

U 3

V-ALU(128 Bit)

256 KByteSRAM

SP

U 4

V-ALU(128 Bit)

256 KByteSRAM

SP

U 5

V-ALU(128 Bit)

256 KByteSRAM

SP

U 6

V-ALU(128 Bit)

256 KByteSRAM

SP

U 7

V-ALU(128 Bit)

256 KByteSRAM

SP

U 8

Power Processor ElementSynergistic Processing UnitVektor-ALU

Ele

men

t In

terc

onnec

t B

us

(EIB

)

PPE L2-Cache

EIB

SPU

Abbildung 1.24: Architektur des Cell-Prozessors von IBM

30 1 Einführung

nicht als 80586, sondern unter dem schützungsfähigen Namen Pentium.In den Jahren folgten die Modelle Pentium Pro, Pentium II, PentiumIII sowie diverse Varianten des Pentium 4. Im Jahr 2006 verabschiede-te sich Intel schließlich vom Namen Pentium und leitete mit der Coremicroarchitecture die Ära der Mehrkernprozessoren ein. Kurz danachbegann Intel, Prozessoren der Core-2-Serie zu vertreiben, und im Jahr2008 wurde daraus die Intel-Core-i-Serie.

Verglichen mit dem 4004 hat sich die Architektur moderner Prozessorenzwar an unzähligen Stellen weiterentwickelt, jedoch nie grundlegendverändert. In puncto Leistung haben beide trotzdem nicht mehr viel ge-mein. In einem typischen Arbeitsplatzrechner, Tablet-PC oder Smart-phone operieren heute mehrere parallel arbeitende Kerne im Gigahertz-bereich, die jeder für sich die Leistung früherer Großrechner um einVielfaches übertreffen (Abbildung 1.23). Auch die Anzahl der Transis-toren spricht eine deutliche Sprache. Kommt der 4004-Prozessor nochmit 2250 Transistoren aus, so liegt die Anzahl bei modernen Prozesso-ren heute jenseits der Milliardengrenze.

Als Beispiel für die Topologie einer Mehrkernarchitektur ist in Ab-bildung 1.24 das Blockschaltbild des Cell-Prozessors der Firma IBMdargestellt, der nicht zuletzt durch den Einsatz in der Playstation 3einen hohen Bekanntheitsgrad erlangte. Der größte Teil der über 230Millionen Transistoren verteilt sich auf 8 separate Synergistic Proces-sing Units (SPUs), die mit ihren SIMD-Vektoreinheiten für die effizi-ente Ausführung arithmetischer Operationen optimiert sind. Angesteu-ert werden die SPUs über einen Prozessorkern auf PowerPC-Basis, dersich direkt neben dem L2-Cache befindet und die Kontrolle über dengesamten Chip besitzt. Mit der Einführung der Playstation 4 hat sichSony von der Cell-Architektur verabschiedet und sich stattdessen füreine x86-CPU der Firma der AMD entschieden. Die Grafikberechnungübernimmt in der neuen Konsole eine GPU (Graphics Processing Unit)der Radeon-Familie, ebenfalls von der Firma AMD.

1.3 Wohin geht die Reise?

Blicken wir auf die bewegte Geschichte der Computertechnik zurück,so drängt sich unweigerlich die Frage auf, welchen Weg die Entwick-lung in Zukunft einschlagen wird. Wie vorsichtig wir mit voreiligenSchlussfolgerungen sein müssen, lehrt uns abermals die Vergangenheit.So hätte in den Pioniertagen der Computertechnik niemand auch nur zuträumen gewagt, dass sich die Informationstechnologie zu dem entwi-ckelt, was sie heute ist.

Page 32: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

1.3 Wohin geht die Reise? 31

( ) Anzahl Transistoren

Jahr

1970

1975

1980

1985

1990

1995

2000

2005

2010

2015

2020

103

104

105

106

107

108

109

1010

Abbildung 1.25: Die Entwicklung der Hardware-Komplexität am Beispiel der Desktop-Mikroprozessoren. Werden die ein-zelnen Messpunkte zu einer Linie verbunden, so entsteht eine fast perfekte Gerade. Durch die logarithmische Skala auf dery-Achse lässt sich hieraus ein exponentielles Wachstum der Hardware-Komplexität ableiten.

Der folgende, von Howard Aiken im Jahre 1947 formulierte Satz bringtmit wenigen Worten den Zeitgeist der Pioniertage auf den Punkt: „Onlysix electronic digital computers will be required to satisfy the compu-ting needs of the entire United States“. In die gleiche Kerbe schlägtdas folgende Zitat, das ebenfalls um diese Zeit herum datiert wird: „Ithink there is a world market for maybe five computers“. Zugeschriebenwird dieses Zitat keinem anderen als Thomas Watson Sr., dem Gründerder Firma IBM. Ob es wirklich Watson war, der die legendären Worteformulierte, ist jedoch heftig umstritten und konnte bis heute nie zwei-felsfrei belegt werden. Doch welchen Nutzen können wir aus den Prog-nosen der Vergangenheit ziehen, die nicht unzutreffender hätten seinkönnen? Am Ende ist es die Erkenntnis, dass wir von langfristigen Vor-hersagen zur Entwicklung der Computertechnik absehen sollten. Dierasante Entwicklung der letzten Jahrzehnte barg vielerlei Überraschun-gen und wir dürfen davon ausgehen, dass weitere folgen.

Gleichwohl lassen sich in den vielen Unstetigkeiten der Vergangenheitauch konstante Entwicklungen erkennen, mit deren Hilfe wir zumin-dest kurz- und mittelfristige Trends mit einer gewissen Wahrschein-lichkeit prognostizieren können. Eine dieser Entwicklungen betrifftdie Zunahme der Hardware-Komplexität, gemessen an der Anzahl der

Page 33: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

1965

1970

105

104

103

102

101

100

100 101 102 103 104 105

Her

stel

lun

gsk

ost

en p

ro T

ran

sist

or

Anzahl Transistoren

1962

„The complexity for minimum componentcosts has increased at a rate of roughly afactor of two per year ... Certainly over theshort term this rate can be expected to con-tinue, if not to increase. Over the longerterm, the rate of increase is a bit more un-certain, although there is no reason to be-lieve it will not remain nearly constant forat least 10 years. That means by 1975, thenumber of components per integrated cir-cuit for minimum cost will be 65,000. I be-lieve that such a large circuit can be builton a single wafer.“ [69]

Abbildung 1.26: Im Jahre 1965 prognosti-zierte Gordon Moore die exponentielle Zu-nahme der Chip-Komplexität. In leicht ab-gewandelter Form ist das Moore’sche Ge-setz bis heute gültig.

32 1 Einführung

Transistoren, die ein einzelner Silizium-Chip integriert. Betrachten wirdie Entwicklung über die Jahre hinweg, so zeigt sich ein beeindruckendstabiles Bild.

Seit dem Erscheinen des Intel-4004-Prozessors hat sich die Anzahl derTransistoren, die auf ein einziges Stück Silizium integriert wurden, ca.alle 20 Monate verdoppelt. Dieser Trend setzt sich bis heute fort undzumindest mittelfristig ist kein Ende in Sicht. Die exponentielle Zunah-me der Hardware-Komplexität hat einen berühmten Namen und wirdheute als das Moore’sche Gesetz bezeichnet (Moore’s law). GordonMoore hatte das geschilderte Phänomen im Jahre 1965 vorausgesagt,wenngleich mit einer etwas zu optimistischen Geschwindigkeitsannah-me (Abbildung 1.26).

Die Bedeutung, die das Moore’sche Gesetz für die Entwicklung derComputertechnik besitzt, ist selbst in Expertenkreisen bis heute um-stritten. Für einige spiegelt sich in der Gesetzmäßigkeit schlicht derkontinuierliche Fortschritt eines ganzen Technologiesektors wider. An-dere sehen im Gesetz von Moore eine treibende Kraft, die großen Tei-len der Hardware-Industrie die Schlaggeschwindigkeit regelrecht auf-zwingt. Ganz von der Hand zu weisen ist eine solch aktive Rolle nicht.Nahezu die gesamte Computerindustrie vertraute früher wie heute aufdie Gültigkeit dieser Wachstumsprognose und richtete ihre mittel- undlangfristige Planung darauf aus. Einige Experten sehen in Moore’s lawdeshalb keinen empirischen Zufall, sondern eine Gesetzmäßigkeit, dieim Sinne einer sich selbst erfüllenden Prophezeiung aus eigener Kraftwahr wurde.

Wann der Tag kommen wird, an dem Moore’s law seine Gültigkeit ver-liert, ist umstritten. Dass der Tag kommen wird, gilt als sicher – schonaus rein fundamentalen Überlegungen sind exponentielle Wachstumsra-ten nicht über beliebig lange Zeiträume durchzuhalten. In der Tat wurdedurch die gesamte Computergeschichte hindurch immer wieder postu-liert, das Ende des Machbaren sei erreicht und jedes Mal waren es fin-dige Tüftler und Ingenieure, die sämtliche Kritiker Lügen straften.

Damit ist es an der Zeit, hinter die Kulissen zu blicken und die Metho-den und Techniken genauer zu beleuchten, die eine technische Entwick-lung dieses Ausmaßes überhaupt erst möglich machten.

Page 34: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

2 Halbleitertechnik

In diesem Kapitel werden Sie . . .

n die elektrischen Eigenschaften von Halbleiterkristallen verstehen,

n mit der Diode und dem Transistor zwei grundlegende Halbleiterelemente kennen lernen,

n die Produktion integrierter Schaltkreise nachvollziehen.

Page 35: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Der dänische Physiker Niels Henrik Da-vid Bohr wurde 1885 in Kopenhagengeboren und zählt zu den bedeutends-ten Physikern des zwanzigsten Jahrhun-derts. Im Jahre 1922 wurde Bohr für sei-ne Verdienste um die Erforschung derStruktur der Atome und der von ihnenausgehenden Strahlung mit dem Nobel-preis ausgezeichnet. Zu seinen wichtigs-ten Hinterlassenschaften gehört zweifels-frei das Bohr’sche Atommodell, das neueErkenntnisse in den inneren Aufbau vonAtomen gewährte und zugleich als Weg-bereiter für die sich später entwickelndeQuantenmechanik angesehen wird.Das Modell von Bohr ist eine Weiterent-wicklung des Rutherford’schen Modells,das Elektronen wie winzige, den Atom-kern umkreisende Planeten interpretiertund damit im Widerspruch zur klassi-schen Elektrodynamik steht. Diese sagtaus, dass bewegende elektrische Ladun-gen einen Teil ihrer Energie als elektro-magnetische Welle abstrahlen. Genau ei-ne solche bewegliche Ladung stellt dasElektron dar. Aufgrund seiner Rotationum den Atomkern müsste dieses perma-nent an Energie verlieren und schließlichin den Atomkern stürzen.Bohr postulierte in seinem Modell dieExistenz von Schalen, auf denen sich dieElektronen mit unterschiedlichen Ener-gieniveaus verlustfrei bewegen können.Mit Hilfe dieses Modells war es erstmalsmöglich, viele chemische Reaktionen auferstaunlich einfache Weise physikalischzu erklären.Heute gilt das Bohr’sche Atommodell alsveraltet, da es im Widerspruch zu den mo-dernen Erkenntnissen der Quantenmecha-nik steht. Andere Modelle, wie z. B. dasOrbitalmodell, nehmen gegenwärtig des-sen Platz ein. Nichtsdestotrotz beschreibtdas Bohr’sche Atommodell die Eigen-schaften von Atomen und Elektronen sogenau, dass sich damit unter anderem daselektrische Verhalten von Halbleiterkris-tallen präzise erklären lässt.

34 2 Halbleitertechnik

2.1 Halbleiter

Der historische Rückblick in Kapitel 1 hat aufgezeigt, dass die Ent-wicklung der Computertechnik eng mit den Fortschritten im Bereichder integrierten Schaltungstechnik verbunden ist. Ohne die beeindru-ckenden Erfolge im Bereich der Hochintegration in der zweiten Hälftedes vorherigen Jahrhunderts wäre die Konstruktion von elektronischenGeräten, wie wir sie heute kennen und fast schon als selbstverständlicherachten, niemals Realität geworden. Im Detail betrachtet, setzen sichmoderne Mikrochips aus mehreren Millionen winziger Verknüpfungs-glieder zusammen, die in einem komplizierten Fertigungsprozess dichtgepackt auf ein kleines Stück Silizium aufgebracht werden. Dass wirheute technisch in der Lage sind, mikroskopisch kleine Schaltelementezu erzeugen, die zudem um viele Größenordnungen schneller schaltenals die lange Zeit dominierende Röhrentriode, haben wir den chemi-schen und physikalischen Eigenschaften einer ganz bestimmten Stoff-gruppe zu verdanken – den Halbleitern.

Halbleiter sind der Grundstoff mikroelektronischer Schaltungen und diedaraus gefertigten Transistoren spielen in der Computertechnik die glei-che Rolle wie die Nukleotide in der Genetik. Aufgrund ihrer immensenBedeutung wollen wir in diesem und den nächsten Abschnitten einengenaueren Blick auf die Grundbausteine wagen, aus denen sich sämt-liche modernen Hardware-Schaltungen zusammensetzen. Insbesonde-re werden wir die Frage klären, was Halbleiterelemente so einzigartigmacht und wie wir ihre besonderen Eigenschaften für die Konstruktionkomplexer Mikrochips nutzen können.

Im nächsten Abschnitt werden wir zunächst einen kleinen, aber unab-dingbaren Ausflug in die Chemie unternehmen und zunächst auf atoma-rer Ebene klären, wie sich Stromflüsse durch die Bewegung einzelnerElektronen im Detail erklären lassen. Auf den erworbenen Grundkennt-nissen aufbauend werden wir in den Abschnitten 2.2.1 bis 2.2.3 mitder Halbleiterdiode und dem Transistor die zentralen Bausteine kennenlernen, die in einem komplexen Zusammenspiel das Verhalten von Mi-krochips definieren, mit denen wir tagtäglich hundertfach in Berührungkommen.

2.1.1 Atommodell von Bohr

Nach dem Bohr’schen Atommodell setzt sich ein einzelnes Atom ausProtonen, Neutronen und Elektronen zusammen. Protonen tragen eine

Page 36: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Niels Bohr (1885 – 1962)Albert Einstein (1879 – 1955)

Abbildung 2.1: Niels Bohr (links) imZwiegespräch mit Albert Einstein im Jahre1925.

Abbildung 2.2: Das Heliumatom. Im Kernbefinden sich je zwei Protonen und Neu-tronen, die im Bohr’schen Atommodell vonzwei Elektronen umkreist werden.

2.1 Halbleiter 35

positive, Elektronen eine negative Ladung. Beide weisen die exakt iden-tische Ladungsmenge auf, so dass ein Proton durch jeweils ein Elektronkompensiert wird. Der dritte atomare Baustein – das Neutron – ist la-dungsneutral und trägt ausschließlich zur Masse des Atoms bei. In allenchemischen Elementen ist die Beschaffenheit der drei Grundbausteinegleich. Einzig die zahlenmäßige Zusammensetzung von Protonen undNeutronen im Atomkern entscheidet, welches chemische Element wirletztendlich vor uns haben.

Im Normalzustand ist ein Atom nach außen ladungsneutral – es besitztgenauso viele Protonen wie Elektronen. Weicht die Zahl der Elektronenvon der Zahl der Protonen ab, so sprechen wir von einem Ion. Ein Ionist stets negativ oder positiv geladen, je nachdem, ob die Anzahl derElektronen die Anzahl der Protonen übersteigt oder umgekehrt.

Abbildung 2.2 demonstriert den schematischen Aufbau eines Helium-atoms im Bohr’schen Atommodell. Während je zwei Protonen und Neu-tronen den Atomkern bilden, befinden sich die beiden Elekronen in derAtomhülle. Diese besteht aus mehreren Schalen, auf denen sich dieElektronen um den Kern bewegen. Beachten Sie, dass die Skizze inAbbildung 2.2 bei weitem nicht maßstabsgetreu gezeichnet ist. In Wirk-lichkeit ist der Radius der Atomhülle rund 10.000 mal größer als derdes Kerns. Trotzdem trägt der Atomkern fast die komplette Masse einesAtoms. Obwohl Protonen und Neutronen eine unglaublich kleine Mas-se von 1 6725⇥10�24 g bzw. 1 6748⇥10�24 g besitzen, sind sie immernoch knapp 2000 mal schwerer als ein Elektron.

Ein wesentliches Merkmal des Bohr’schen Atommodells betrifft dieAbstände, in denen einzelne Elektronen den Atomkern umkreisen kön-nen. Anders als z. B. im Rutherford’schen Modell sind diese nicht be-liebig. Wie weiter oben angedeutet, wird der Atomkern durch mehrereSchalen eingehüllt, auf denen sich die verschiedenen Elektronen bewe-gen. Auf welcher Schale sich ein einzelnes Elektron befindet, wird ein-zig und alleine durch sein Energieniveau bestimmt. Elektronen auf deninneren Schalen besitzen ein niedrigeres, Elektronen auf den äußerenSchalen ein höheres Niveau. Das Energieniveau eines Elektrons ist kei-ne kontinuierliche Größe und kann nur ganz bestimmte, diskrete Werteannehmen. Dies ist der Grund, warum sich ein Elektron immer nur aufeiner bestimmten Schale, nie jedoch dazwischen befinden kann.

Zur besseren Unterscheidung wurden die verschiedenen Schalen imBohr’schen Atommodell mit Buchstaben versehen. Die innerste wirdals K-Schale, die zweite als L-Schale, die dritte als M-Schale usw. be-zeichnet. Die verschiedenen Schalen eines Atoms unterscheiden sich inder Anzahl der Elektronen, die sich zur gleichen Zeit darauf befinden

Page 37: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Abbildung 2.3: Vier Wasserstoffatome undein Kohlenstoffatom im Bohr’schen Atom-modell. Über die freien Valenzelektronenvereinigen sich die Atome zu einem stabi-len Methanmolekül (CH4).

Lei

tungsb

and

Val

enzb

and

Sper

rzone

Isolator Leiter

Energieniveau [eV]

Bin

dungs-

ener

gie

Abbildung 2.4: Bändermodell. Die ver-schiedenen Energieniveaus von Leitungs-und Valenzelektronen führen zu einer natür-lichen Zweiteilung auf der y-Achse.

36 2 Halbleitertechnik

können. So kann die K-Schale nur 2, die L-Schale und die M-Schaledagegen 8 Elektronen aufnehmen.

Abbildung 2.3 demonstriert die Elektronenanordnung am Beispiel vonKohlenstoff- und Wasserstoffatomen. In beiden ist die äußere Schalenicht vollständig besetzt. Die Elektronen auf der ungesättigten Scha-le werden Valenzelektronen genannt und bestimmen maßgeblich, wiesich ein Atom im Zuge einer chemischen Reaktion verhält. Atome sindstets bestrebt, den energetisch ärmsten Zustand anzunehmen und wer-den demnach versuchen, ihre äußeren Schalen zu vervollständigen. ImFalle von Kohlenstoff und Wasserstoff führt dies dazu, dass jeweils vierWasserstoffatome ihr freies Valenzelektron mit einem Kohlenstoffatomteilen und diesem dadurch zu einer gesättigten Schale verhelfen. AlsErgebnis entsteht ein Methan-Molekül (Erdgas, CH4). Wie bei allen an-deren chemischen Reaktionen auch, bleiben die inneren Atomschalendurch diese Vorgänge gänzlich unberührt.

Weiter oben haben wir herausgearbeitet, dass einzig und allein das Ener-gieniveau bestimmt, auf welcher Schale sich ein Elektron befindet. ImUmkehrschluss bedeutet dieses Ergebnis, dass ein Elektron durch dieAufnahme oder die Abgabe von Energie zwischen den Schalen hin-und herwechseln kann. Auf atomarer Ebene finden diese Vorgänge inder Tat fortwährend statt. Elektronen, die z. B. aufgrund thermischerErhitzung Energie aufnehmen, bewegen sich in Richtung der äußerenSchalen. Wird ein gewisses Energieniveau überschritten, so verliert dasElektron gänzlich seine Bindung und kann sich frei im Atomverbundbewegen. Aus dem ehemaligen Valenzelektron ist jetzt ein freies Lei-tungselektron geworden.

Um ein Elektron aus dem Atom zu lösen, muss die sogenannte Bin-dungsenergie aufgebracht werden. Diese unterscheidet sich erheblichzwischen den verschiedenen chemischen Substanzen. In klassischenIsolatoren wie z. B. Hartgummi, ist die aufzubringende Energiemengeso groß, dass selbst bei hohen Temperaturen nur wenige Elektronen die-sen Sprung schaffen. Kurzum: Ein Stromfluss kommt so gut wie nichtzustande. In elektrischen Leitern wie z. B. Kupfer oder Silber, reichthingegen eine sehr geringe Energiemenge aus, um freie Leitungselek-tronen zu erzeugen.

Besonders deutlich wird der Unterschied zwischen Isolatoren und Lei-tern im Bändermodell. Tragen wir die möglichen Energieniveaus einesElektrons, wie in Abbildung 2.4 gezeigt, auf der y-Achse eines Dia-gramms auf, so lässt die Unterscheidung in Leitungs- und Valenzelekt-ronen eine natürliche Zweiteilung entstehen. Elektronen hohen Energie-niveaus befinden sich im Leitungsband, während sich Elektronen nied-

Page 38: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Lei

tungsb

and

Val

enzb

and

Bin

dungs-

ener

gie

Sper

rzone

Isolator Halbleiter Leiter

Energieniveau [eV]

Sper

rzone

Bin

dungs-

ener

gie

Abbildung 2.5: Einordnung von Halblei-tern im Bändermodell

Isolatoren

Material Widerstand

Hartgummi 1016 Wm

Bernstein 1014 Wm

Halbleiter

Material Widerstand

Silizium (rein) 102 Wm

Germanium (rein) 100 Wm

Germanium (dotiert) 10�4 Wm

Leiter

Material Widerstand

Platin 10�7 Wm

Silber 10�8 Wm

Tabelle 2.1: Über den spezifischen Wider-stand lassen sich Materialien in Isolatoren,Halbleiter und Leiter klassifizieren.

2.1 Halbleiter 37

rigen Niveaus im Valenzband befinden. Je mehr Bindungsenergie fürdie Freisetzung eines Elektrons aufgebracht werden muss, desto weiterklaffen das Leitungs- und das Valenzband auseinander. Zwischen bei-den Bändern entsteht eine Sperrzone, die keine einnehmbaren Energie-niveaus enthält und mit zunehmender Größe von immer weniger Elek-tronen überwunden werden kann. Wie zu erwarten, zeichnen sich guteIsolatoren durch eine große Sperrzone aus, während das Leitungs- unddas Valenzband in guten Leitern fast nahtlos ineinander übergehen.

2.1.2 Reine Halbleiter

Halbleiter sind spezielle Festkörper, die gleichsam als Isolator wie auchals elektrischer Leiter auftreten können. Ihre spezielle Eigenschaft ha-ben diese Stoffe der Energiemenge zu verdanken, die zur Freisetzungeines Valenzelektrons aufgebracht werden muss. Die Bindungsenergieliegt in einem Bereich, der groß genug ist, um das Material bei ge-ringen Temperaturen zu einem Isolator werden zu lassen, gleichzeitigaber klein genug ist, um bei mäßigen Temperaturen von einer größerenAnzahl von Elektronen überwunden zu werden. So reicht z. B. für denHalbleiter Germanium eine Temperatur von ca. 50� C aus, um eine guteelektrische Leitfähigkeit zu erreichen.

Abbildung 2.5 zeigt die Einordnung von Halbleitern in das Bändermo-dell. Die eingezeichnete Sperrzone befindet sich zwischen derer vonIsolatoren und jener von elektrischen Leitern. Eine exakte Einteilungvon Materialien in Leiter, Halbleiter und Isolatoren ist über deren spezi-fischen Widerstand r möglich (vgl. Tabelle 2.1). Materialien mit einemWert kleiner als 10�6 Wm bzw. größer als 1010 Wm gelten als Leiterbzw. als Isolator. Halbleiter besitzen einen spezifischen Widerstand, derzwischen diesen beiden Werten liegt.

Für den Bau elektronischer Schaltungen spielen insbesondere die Halb-leiterelemente Silizium (Si) und Germanium (Ge) eine Rolle. BeideElemente sind so beschaffen, dass ihre Leitfähigkeit durch äußere Ein-flüsse vergleichsweise einfach beeinflusst werden kann. Silizium stehtan Position 14 des Periodensystems und ist nach dem Sauerstoff daszweithäufigste Element in der Erdkruste. Die 14 Elektronen eines Sili-ziumatoms verteilen sich auf insgesamt 3 Schalen. Die innerste ist mit2 und die zweite mit 8 Elektronen vollständig gefüllt. Die M-Schale istmit 4 Valenzelektronen dagegen ungesättigt.

Im Verbund ordnen sich die Siliziumatome, wie in Abbildung 2.6 skiz-ziert, in Form eines Kristalgitters an. Um jedes Atom gruppieren sich 4

Page 39: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Si Si Si

Si Si Si

Si Si Si

Abbildung 2.6: Struktur des Siliziumkris-talls. Jedes Atom ist von 4 weiteren Atomenumgeben, die über jeweils zwei gemeinsamgenutzte Valenzelektronen eine stabile Ver-bindung herstellen.

+-

+-

+-

+-

Abbildung 2.7: Eigenleitung im Halblei-terkristall. Die freigesetzten Leitungselek-tronen richten sich im elektrischen Feldaus und wandern in Richtung der positi-ven Spannungsquelle. Die gleichzeitig ent-stehenden Elektronenlöcher bewegen sichin entgegengesetzter Richtung auf den Mi-nuspol zu.

38 2 Halbleitertechnik

weitere, die über je 2 gemeinsam genutzte Valenzelektronen eine festeBindung eingehen und die M-Schalen jedes Siliziumatoms damit auf ef-fektiv 8 Elektronen auffüllen. Aufgrund der regulären Struktur der Ato-manordnung sprechen wir in diesem Zusammenhang auch von einemEinkristall (single cristal). Anders als in der schematischen Zeichnungsuggeriert, ordnen sich die einzelnen Atome in der Realität dreidimen-sional an. Bei der skizzierten Struktur handelt es sich um ein verein-fachtes zweidimensionales Modell, das für unsere Anschauungszweckejedoch völlig ausreichend ist.

Die Struktur des Siliziumkristalls entspricht jener des Diamanten. BeideMaterialien unterscheiden sich jedoch erheblich in der Bindungsener-gie, die zum Heraustrennen eines Elektrons benötigt wird. Um ein Elek-tron des Siliziumkristalls in das Leitungsband zu heben, ist eine Energievon ca. 1,1 eV ausreichend. In der wesentlich stabileren Diamantstruk-tur muss mit 6 eV bereits mehr als die fünffache Energie aufgebrachtwerden, um ein Elektron von einem einzelnen Kohlenstoffatom zu tren-nen. Diese hohe Energiemenge macht den Diamant zu einem exzellen-ten Isolator – wenn auch zu einem sehr kostspieligen.

Durch die Brown’sche Molekularbewegung besitzt jedes Elektron einegewisse Schwingungsenergie, die bei Raumtemperatur im Bereich von0 025 eV liegt. Der exakte Wert variiert zwischen den einzelnen Ato-men, so dass es dem ein oder anderen Elektron immer wieder gelingt,die Bindungsenergie zu überwinden und in das Leitungsband zu gelan-gen. Steigt oder sinkt die Temperatur, so nimmt mit der thermischenEnergie auch die Elektronendichte im Leitungsband kontinuierlich zubzw. ab. In einem Siliziumkristall befinden sich bei 50� C bereits 1010

freie Elektronen pro cm3 im Leitungsband. Verglichen mit den klassi-schen elektrischen Leitern ist diese Elektronendichte trotzdem gering.Hier kommt im Durchschnitt auf jedes der ca. 1022 Atome pro cm3 einfreies Leitungselektron.

Die Freisetzung von Elektronen ist der Schlüssel für die elektrischeLeitfähigkeit des Halbleiterkristalls. Für jedes herausgetrennte Elek-tron entsteht eine Bindungslücke, die auch als Elektronenloch oder alsDefektelektron bezeichnet wird. Die gleichzeitige Entstehung von Lei-tungselektronen und Löchern wird mit dem Begriff der Paarbildungumschrieben. Diese hat einen entscheidenden Einfluss auf die Ladungs-verteilung innerhalb des Kristalls. Wechselt ein Elektron in das Lei-tungsband, so hinterlässt es ein positiv geladenes Ion, das seinerseitsanziehend auf die umliegenden Elektronen wirkt. Entsprechend häufigwird das entstandene Loch entweder durch ein freies Leitungselektronoder durch ein benachbart freigesetztes Elektron aufgefüllt. Wir spre-chen in diesem Fall von einer Rekombination.

Page 40: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Abbildung 2.8: Eigenleitung einmal an-ders. Die Bewegung der Ladungsträger lässtsich bildlich mit dem Auffüllen einer Ki-noreihe vergleichen. Während die Besucher(Elektronen) von links nach rechts durchdie Reihe rücken, scheinen die freien Sit-ze (Elektronenlöcher) trotz ihrer stationärenMontage von rechts nach links zu wandern.

Si Si Si

Si P Si

Si Si Si

Abbildung 2.9: Struktur eines Elektronen-überschussleiters (n-Leiter). Durch den ge-zielten Einbau von Phosphoratomen wer-den zusätzliche Valenzelektronen in das Si-liziumgitter eingebracht. Diese können sichnahezu ungehindert durch die Kristallstruk-tur bewegen.

2.1 Halbleiter 39

Legen wir an den Halbleiterkristall ein elektrisches Feld an, so findetein gerichteter Stromfluss statt. Wie in Abbildung 2.7 gezeigt, werdendie freigesetzten Elektronen durch das elektrische Feld in Richtung desPluspols getrieben. Da wir die Elektronenlöcher ohne Probleme als po-sitive Ladungsträger interpretieren können, erzeugen diese einen Lö-cherstrom, der dem Elektronenstrom entgegengesetzt ist. Obwohl diepositiv geladenen Ionen in Wirklichkeit fest in das Kristallgitter inte-griert sind und sich selbst nicht von der Stelle bewegen, ist es für dieAnschauung vollkommen korrekt, sich den Löcherstrom als einen Flusspositiv geladener Ladungsträger vorzustellen (vgl. Abbildung 2.8).

Die Fähigkeit eines Halbleiters, über die Bildung freier Elektronen undDefektelektronen einen Stromfluss zu erzeugen, wird als Eigenleitungbezeichnet. Wie oben angedeutet, nimmt die Paarbildung mit zuneh-mender thermischer Energie stark zu, so dass Halbleiter mit wachsen-der Temperatur zu einem immer besseren Leiter werden. Von den klas-sischen elektrischen Leitern kennen wir diese Eigenschaft nicht. Hierstehen sich die Leitungselektronen bei zunehmender Molekularbewe-gung gegenseitig wie Hindernisse im Weg und sorgen dafür, dass dieLeitfähigkeit mit zunehmenden Temperaturen kontinuierlich sinkt.

2.1.3 Dotierte Halbleiter

In einem reinen Siliziumkristall kommen Elektronen und Defektelek-tronen in gleicher Anzahl vor. Wird dieses Gleichgewicht durch einegezielte Verunreinigung des Trägermaterials gestört, so lässt sich dieelektrische Leitfähigkeit des Kristalls erheblich verbessern. Der Vor-gang der Verunreinigung wird als Dotierung und die entstehende Kris-tallstruktur als dotierter Halbleiter bezeichnet.Als erstes dotiertes Halbleitermaterial betrachten wir den Elektronen-überschussleiter. Dieser entsteht, indem Fremdatome in das Kristallgit-ter eingebaut werden, die über ein zusätzliches Valenzelektron verfü-gen. Wie ein solches Gitter aussehen kann, demonstriert Abbildung 2.9am Beispiel eines mit Phosphor verunreinigten Siliziumkristalls. DasPhosphoratom besitzt 5 Valenzelektronen in der M-Schale und damiteines mehr als das Siliziumatom (vgl. Abbildung 2.10). Von den 5 Va-lenzelektronen werden nur 4 für den Einbau in das Kristallgitter benö-tigt. Das überschüssige fünfte Elektron ist nur schwach eingebunden.Geringe Energiemengen reichen aus, um es zu lösen und zu einem frei-en Ladungsträger werden zu lassen.

Aufgrund ihrer elektronenspendenen Funktion werden die künstlicheingebauten Phosphoratome als Donatoren bezeichnet. Da in einem sol-

Page 41: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Si Si Si

Si Al Si

Si Si Si

Abbildung 2.11: Struktur eines Elektro-nenmangelleiters (p-Leiter). Durch den ge-zielten Einbau von Aluminiumatomen ent-stehen künstliche Elektronenlöcher, die wiepositive Ladungsträger wirken.

40 2 Halbleitertechnik

19K

20Ca

21Sc

22Ti

23V

24Cr

25Mn

26Fe

27Co

28Ni

29Cu

30Zn

31Ga

32Ge

33As

34Se

35Br

36Kr

37Rb

38Sr

39Y

40Zr

41Nb

42Mo

43Tc

44Ru

45Rh

46Pd

47Ag

48Cd

49In

50Sn

51Sb

52Te

53I

54Xe

55Cs

56Ba

72Hf

73Ta

74W

75Re

76Os

77Ir

78Pt

79Au

80Hg

81Tl

82Pb

83Bi

84Po

85At

86Rn

87Fr

88Ra

104Rf

105Db

106Sg

107Bh

108Hs

109Mt

110Ds

111Rg

11Na

12Mg

3Li

4Be

1H

13Al

14Si

15P

16S

17Cl

18Ar

5B

6C

7N

8O

9F

10Ne

2He

57La

58Ce

59Pr

60Nd

61Pm

62Sm

63Eu

64Gd

65Tb

66Dy

67Ho

68Er

69Tm

70Yb

71Lu

89Ac

90Th

91Pa

92U

93Np

94Pu

95Am

96Cm

97Bk

98Cf

99Es

100Fm

101Md

102No

103Lr

IA1

IIA2

IIIB3

IVB4

VB5

VIB6

VIIB7 8

VIIIB9 10

IB11

IIB12

IIIA13

IVA14

VA15

VIA16

VIIA17

VIIIA18

112Uub

Abbildung 2.10: Das Periodensystem. Die Elemente der dritten, vierten und fünften Hauptgruppe spielen für die Halbleiter-technik eine zentrale Rolle. Um die gewünschte elektrische Leitfähigkeit zu erreichen, werden die Trägersubstanzen Silizium(Si) bzw. Germanium (Ge) mit Elementen der dritten bzw. der fünften Hauptgruppe gezielt verunreinigt (dotiert). Die Dotie-rung mit Bor (B), Indium (In), Aluminium (Al) oder Gallium (Ga) lässt ein p-Gebiet entstehen, während die Verunreinigungmit Phosphor (P), Arsen (As), Antimon (Sb) oder Bismut (Bi) ein n-Gebiet erzeugt.

chen Halbleiterkristall mehr Elektronen als Elektronenlöcher vorhandensind, spielen erstere die Rolle des Majoritätsträgers und letztere die desMinoritätsträgers. Aufgrund des negativen Vorzeichen des Majoritäts-trägers sprechen wir im Falle eines Elektronenüberschussleiters auchvon einem n-Leiter.

Wird der Siliziumträger nicht mit Elementen aus der fünften, sondernmit Elementen aus der dritten Hauptgruppe des Periodensystems do-tiert, so entsteht ein Elektronenmangelleiter. Die in Frage kommendenElemente Bor, Indium, Aluminium oder Gallium besitzen mit 3 Valenz-elektronen in der M-Schale ein Elektron weniger als der Silizium- oderder Germaniumträger. Wie in Abbildung 2.11 demonstriert, erzeugt derEinbau der Fremdatome künstliche Löcher innerhalb des Kristallgitters.Diese können Elektronen an sich ziehen und werden aufgrund dieser Ei-genschaft als Akzeptoren bezeichnet. Anders als im Falle des n-Leitersspielen jetzt nicht mehr die Elektronen, sondern die Elektronenlöcherdank ihrer zahlenmäßigen Überlegenheit die Rolle des Majoritätsträ-gers. Gemäß ihrer positiven Ladung sprechen wir jetzt von einem p-Leiter.

Page 42: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

p-Gebiet n-Gebiet

Ladung

Raumladungs-

zone

p-Gebiet n-Gebiet

Ladungsträgerdichte

Ladung

Diffusion

Ion (ortsfest, negativ geladen)

Elektronenloch

Ion (ortsfest, positiv geladen)

freies Leitungselektron

+

-

+

-

Ladungsträgerdichte

Abbildung 2.12: Aufbau einer Halbleiter-diode. Durch die Diffusion der Ladungsträ-ger bildet sich im pn-Gebiet die Raumla-dungszone aus. Diese wirkt wie eine isolie-rende Grenzschicht.

2.2 Integrierte Schaltelemente 41

2.2 Integrierte Schaltelemente

2.2.1 Halbleiterdioden

Dioden sind spezielle Schaltelemente, die den Stromfluss richtungsab-hängig begrenzen. Während sie sich in Durchlassrichtung neutral ver-halten, wirken sie in Sperrrichtung als Isolator.

Wie in Abbildung 2.12 skizziert, lässt sich das Schaltverhalten einer Di-ode durch den Zusammenschluss zweier komplementär dotierter Halb-leiterkristalle erzeugen. Um die physikalischen Vorgänge innerhalb derKristallverbindung im Detail zu verstehen, betrachten wir zunächst, wiesich der Zusammenschluss eines p-Gebiets und eines n-Gebiets im Ru-hezustand verhält. Danach werden wir erarbeiten, wie sich das Anlegeneiner Spannung auf die Leitfähigkeit des Kristallverbunds auswirkt.

Die elektrischen Eigenschaften der Halbleiterdiode werden maßgeb-lich durch die physikalischen Vorgänge an der Grenzschicht des p-Gebiets und des n-Gebiets – dem pn-Übergang – bestimmt. Währenddas p-Gebiet aufgrund seiner speziellen Dotierung viele Elektronenlö-cher aufweist, befindet sich innerhalb des n-Gebiets eine große Anzahlfreier Leitungselektronen. Werden beide Halbleitermaterialien aneinan-dergefügt, so beginnen die freien Leitungselektronen in den p-Leiter zudrängen. Auf diese Weise bildet sich um den pn-Übergang eine Grenz-schicht aus, die nur noch wenige freie Ladungsträger enthält. Im n-Gebiet lässt der Elektronenabfluss positive Ionen zurück und vermehrtzudem die Anzahl negativer Ionen innerhalb des p-Gebiets. Diese sto-ßen die nachdrängenden Elektronen in zunehmendem Maße ab. Nachkurzer Zeit stellt sich zwischen den wirkenden Kräften ein Gleichge-wicht ein und die Diffusion kommt zum Stillstand.

Die entstandene Zone wird als Raumladungszone bezeichnet. Zusam-menfassend zeichnet sich diese durch zwei wesentliche Eigenschaftenaus. Zum einen wird sie durch die Abstoßungskräfte der entstehendenIonen räumlich begrenzt. Zum anderen weist sie aufgrund der sich zahl-reich ereignenden Rekombinationen nur noch wenige freie Ladungsträ-ger auf und besitzt dadurch eine isolierende Wirkung.

Im Bereich eines pn-Übergangs führt die Rekombina-tion von Elektronen und Elektronenlöchern zu einerVerarmung der freien Ladungsträger. Die entstehendeRaumladungszone besitzt eine isolierende Wirkung.

Page 43: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

+-

p-Gebiet n-Gebiet

Abbildung 2.13: Anlegen einer Spannungin Sperrrichtung. Der Minuspol wird mitder p-Schicht und der Pluspol mit der n-Schicht verbunden. Die Ladungsträger wer-den in Richtung der Spannungspole weg-gezogen und bewirken eine Vergrößerungder Sperrschicht. Der Stromfluss wird un-terbunden.

+ -

p-Gebiet n-Gebiet

Abbildung 2.14: Anlegen einer Spannungin Durchlassrichtung. Der Minuspol wirdmit der n-Schicht und der Pluspol mit derp-Schicht verbunden. Die freien Ladungs-träger bewegen sich aufeinander zu undrekombinieren in der Sperrschicht. Stromfließt.

42 2 Halbleitertechnik

Im Folgenden wollen wir erarbeiten, wie sich die Grenzschicht verhält,wenn wir an die Halbleiterdiode eine elektrische Spannung anlegen.Wir unterscheiden zwei Fälle:

n Anlegen einer Spannung in Sperrrichtung

Wir schließen die Halbleiterdiode so an eine Spannungsquelle an,dass die p-Schicht mit dem Minuspol und die n-Schicht mit demPluspol verbunden ist (Abbildung 2.13). In diesem Fall werden diefreien Elektronen des n-Leiters in Richtung des Pluspols und dieElektronenlöcher des p-Leiters in Richtung des Minuspols gezogen.Die Abwanderung der Ladungsträger führt zu einer Vergrößerungder isolierenden Grenzschicht, die jetzt von kaum einem Elektronmehr überwunden werden kann. Kurzum: Die Halbleiterdiode wirktin der angelegten Spannungsrichtung als Isolator, der den Stromflusseffektiv unterbindet.

n Anlegen einer Spannung in Durchlassrichtung

Drehen wir die Polarität der angelegten Spannung um, indem wir diep-Schicht mit dem Pluspol und die n-Schicht mit dem Minuspol ver-binden, so werden zusätzliche Elektronen in den n-Leiter und De-fektelektronen in den p-Leiter gedrängt (Abbildung 2.14). Die Zu-nahme der freien Leitungsträger im Bereich des pn-Übergangs führtjetzt zu einer Verkleinerung der Sperrschicht. Übersteigt die ange-legte Spannung eine bestimmte Schwelle, so können freie Ladungs-träger in großer Anzahl in die Sperrschicht eindringen und rekom-binieren. Die Halbleiterdiode verliert ihre isolierende Wirkung undermöglichen einen nahezu ungehinderten Stromfluss.

Durch das Anlegen einer elektrischen Spannung lässtsich die Sperrzone im Bereich eines pn-Übergangsvergrößern oder verkleinern. Hierdurch wird einStromfluss vom p-Leiter in Richtung des n-Leiters er-möglicht, in der Gegenrichtung jedoch blockiert.

2.2.2 Bipolartransistoren

Im vorherigen Abschnitt haben wir mit der Diode ein klassisches Halb-leiterelement eingeführt und ihre Funktionsweise auf atomarer Ebenebegründet. In diesem Abschnitt werden wir die Überlegungen in dereingeschlagenen Richtung vertiefen und uns dem Herzstück aller mo-dernen Computer zuwenden: dem Transistor.

Page 44: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

Transistor

npn-Transistor

pnp-Transistor

Bipolartransistor

Feldeffekttransistor

MOSFET

JFET

Abbildung 2.15: Transistoren lassen sichauf verschiedene Arten realisieren. Auf derobersten Ebene werden Bipolartransistorenund Feldeffekttransistoren unterschieden.

n Schaltsymbol

+

-+

-

npn-Transistor

Basis

Kollektor

Emitter

n Interner Aufbau

B

K

E

Kollektor (n-Gebiet)

Basis (p-Gebiet)

Emitter (n-Gebiet)

Abbildung 2.16: Beschaltung und Aufbaueines npn-Transistors. Die Basis wird durchein schwach dotiertes p-Gebiet gebildet, dasvon zwei stark dotierten n-Gebieten (Kol-lektor und Emitter) eingerahmt wird.

2.2 Integrierte Schaltelemente 43

Das Wort Transistor ist ein Kunstprodukt aus den Begriffen Transferund Resistor und bedeutet so viel wie „steuerbarer Widerstand“. In sei-ner grundlegenden Funktion entspricht der Transistor der in Kapitel 1eingeführten Röhrentriode und kann dazu verwendet werden, ein elek-trisches Signal zu verstärken bzw. im Falle einer digitalen Ansteuerungein- oder auszuschalten. So sehr sich die beiden Bauelemente funktionalgleichen, so unterschiedlich sind jedoch ihre physikalischen Kenndaten.Der Transistor benötigt nur einen Bruchteil der Energie einer Röhren-triode und lässt sie auch in Bezug auf die Schaltgeschwindigkeit ummehrere Größenordnungen hinter sich.

Wie in Abbildung 2.15 skizziert, lassen sich Transistoren auf unter-schiedliche Weise realisieren. Im nächsten Abschnitt werden wir zu-nächst die verschiedenen Spielarten des Bipolartransistors einführenund anschließend zeigen, wie sich diese von den heute meistgebräuch-lichen Feldeffekttransistoren unterscheiden.

npn-Transistor

Abbildung 2.16 (oben) zeigt das Symbol und die typische Beschaltungeines npn-Transistors. Genau wie die klassische Triodenröhre besitztder Transistor drei Anschlüsse. Der Emitter und der Kollektor dienendem Zufluss bzw. dem Abfluss von Elektronen. Der SteueranschlussB wird als Basis bezeichnet und regelt den Stromfluss zwischen Emit-ter und Kollektor. Analog zur Funktionsweise der Triodenröhre besitztder Steueranschluss eine verstärkende Wirkung: Eine geringe Änderungdes Stromflusses auf der Emitter-Basis-Strecke bewirkt eine große Än-derung des Stromflusses auf der Emitter-Kollektor-Strecke.

Im Folgenden wollen wir genauer betrachten, welche physikalischenVorgänge zu diesem Verhalten führen. Werfen wir einen Blick auf deninternen Aufbau eines Transistors, so werden Parallelen zu der weiteroben eingeführten Halbleiterdiode sichtbar. Schematisch unterscheidetsich der npn-Transistor einzig durch das Vorhandensein einer drittenHalbleiterschicht. Wie in Abbildung 2.16 (unten) gezeigt, besitzt derTransistor im Inneren einen p-dotierten Kern, der von zwei n-dotiertenSchichten eingerahmt wird. Die Basis ist mit dem p-Leiter verbunden,während Emitter und Kollektor an die beiden n-Leiter angeschlossenwerden. Im Gegensatz zur Halbleiterdiode sind die eingesetzten Mate-rialien unterschiedlich stark dotiert. So besitzt der p-Leiter eine deutlichniedrigere Dichte an Fremdatomen als die beiden n-Leiter. Diese unter-scheiden sich untereinander ebenfalls sowohl im Grad der Dotierung alsauch in ihrer Größe, so dass die Emitter- und Kollektoranschlüsse nichtmiteinander vertauscht werden dürfen.

Page 45: dirk w. HOFFMANN INFORMATIK // Zahlreiche Übungsaufgaben … · 2016. 8. 29. · Autor Prof. Dr. Dirk W. Hoffmann, Hochschule Karlsruhe, Fakultät für Informatik und Wirtschaftsinformatik

+

-+

-

VCC

VBB

Kollektorstrom IC

Basisstrom IB

Basis

Kollektor

Emitter

Abbildung 2.18: Stromfluss innerhalb desnpn-Transistors. Ein schwacher Stromflussauf der Basis-Emitter-Strecke verursachteinen starken Stromfluss auf der Kollektor-Emitter-Strecke.

44 2 Halbleitertechnik

Emitter-Kollektor-StreckeBasis-Kollektor-Strecke

+

-+

-

Basis

Kollektor

Emitter

+

-+

-

Basis

Kollektor

Emitter

+

-+

-

Basis

Kollektor

Emitter

Basis-Emitter-Strecke

Der pn-Übergang ist in Durchlassrichtung gepolt und

ermöglicht in Abhängigkeit der angelegten Spannung einen

Stromfluss im Basisstromkreis.

Die Basis besitzt gegenüber dem Kollektor ein negatives elektrisches

Potenzial. Ein Stromfluss wird durch den in Sperrichtung gepolten

pn-Übergang unterbunden.

Zwischen dem Emitter und dem Kollektor stellt sich ein Stromfluss ein, dessen Stärke proportional mit

der Stärke des Basisstroms zunimmt.

VCC

VBB

VCC

VBB

VCC

VBB

Abbildung 2.17: Stromflüsse innerhalb des npn-Transistors

In den Grenzschichten zwischen den beiden n-Leitern und dem mittigeingepassten p-Leiter verhalten sich die freien Ladungsträger genau-so wie im Falle der Halbleiterdiode. An beiden pn-Übergängen bildetsich im Rahmen des Diffusionsprozesses eine Raumladungszone aus,in der die freien Ladungsträger rekombinieren und für den Ladungs-transport nicht mehr zur Verfügung stehen. Die Polung der Anschlüsseist für das korrekte Verhalten des Transistors entscheidend (vgl. Abbil-dung 2.17). Der Emitter wird mit dem Minuspol verbunden, so dass derpn-Übergang auf der Basis-Emitter-Strecke in Durchlassrichtung ge-schaltet ist. In Abhängigkeit der angelegten Basisspannung VBB fließtalso Strom durch den Transistor. Der Kollektor ist mit dem Pluspol ver-bunden und besitzt gegenüber der Basis ein positives Potenzial. Ein nen-nenswerter Elektronenfluss von der (negativeren) Basis zum (positiver-en) Kollektor wird durch den in Sperrichtung geschalteten pn-Übergangjedoch verhindert. Im Folgenden wollen wir herausarbeiten, wie sichdie Änderung der Basisspannung VBB auf die Stromflüsse innerhalb desTransistors auswirkt. Wir unterscheiden zwei Fälle:

n VBB = 0Basis und Emitter liegen auf dem gleichen elektrischen Poten-zial. Die zwischen Emitter und Kollektor anliegende Spannungtreibt Elektronen vom Minuspol der Stromquelle über den Emitter-Anschluss in den Halbleiterkristall. Die Elektronen durchfließen zu-nächst den n-Leiter und dringen anschließend in das p-Gebiet ein,wo sie mit den Elektronenlöchern vollständig rekombinieren. Andieser Stelle gilt es zu beachten, dass der Ladungstransport inner-