» SelfLinux » Einleitung » Computergeschichte » Abschnitt 2 SelfLinux-0.10.0
zurück   Startseite Kapitelanfang Inhaltsverzeichnis GFDL   weiter

SelfLinux-Logo
Dokument Computergeschichte - Abschnitt 2 Revision: 1.1.2.16
Autor:  Matthias Kleine
Formatierung:  Matthias Kleine
Lizenz:  GFDL
 

2 Der Einbruch des Digitalen

Alle bislang erwähnten Hilfsmittel und Geräte haben nichts mit dem Dualsystem zu tun und sind daher nur indirekte Vorläufer heutiger Rechner. Erst die Verknüpfung des Dualsystems mit einigen technischen Entwicklungen ließ die Leistung der entwickelten Rechengeräte Schlag um Schlag wachsen.

Als Erster beschrieb de Gottfried Wilhelm Leibniz eine Rechenmaschine zur Durchführung von Rechnungen im Dualsystem. Viel später, im Jahr 1933, entschloss sich de Konrad Zuse, das Dualsystem seiner geplanten Rechenmaschine zu Grunde zulegen. Dieses Gerät, die sogenannte Z1, wurde 1939 fertiggestellt und verwendete rein mechanische Schalt- und Speicherglieder.

Die Geschwindigkeit (und die Menge) mechanischer Glieder ist naturgemäß beschränkt. Der Fortschritt auf dem Gebiet der Elektrotechnik ermöglichte nun den Einsatz von elektromechanischen Relais anstelle der rein mechanischen Teile. Ein Schaltkreis dient auf einfachste Weise zur Abbildung des dualen Systems: Durch Schaltkontakte kann der Stromfluss geöffnet und geschlossen werden. AUS-Zustand und EIN-Zustand können nun die 0 und die 1 des Dualsystems abbilden. Das Schließen eines solchen elektrischen Kontaktes kann auf verschiedene Arten geschehen.

Die 1940/41 von Zuse erbaute Z3 verwendete elektromagnetische Relais, in denen eine Spule ein Magnetfeld erzeugte und dadurch ein Metallplättchen anzog. Dieses schloss den Stromkreis - das Bit hatte seinen Wert geändert. Die Z3 in Aktion hat einen unvergleichlichen Charme. Nach der Eingabe einer Rechenaufgabe beginnen hunderte von Metallplättchen der aufgereihten Relais scheinbar unkoordiniert zu wippen und zu klappern, bis das Gerät schließlich auf wundersame Art und Weise verstummt und das Ergebnis der Berechnung präsentiert. Interessant ist, dass CPU und Speicher gewissermaßen in ein linkes und ein rechtes "Relais-Regal" unterteilt sind. Nach einer Berechnung kann man den Speicherrelais ansehen, dass sie teilweise "EIN" oder "AUS" sind - auch wenn man nicht im entferntesten erahnen kann, warum es nun gerade diese Auswahl an Plättchen ist, die auf "EIN" steht. Glücklicherweise werden Rechenergebnisse benutzerfreundlich auf einem Bedienelement angezeigt - im Dezimalsystem wohlgemerkt.

Der nächste rein elektrotechnische Fortschritt bestand in der Verwendung von Röhrenschaltungen anstelle von Relais. Wir wollen hier nicht auf die Technik von Elektronenröhren eingehen, aber ihr Vorteil gegenüber den teilweise noch mechanischen Relais besteht in der viel höheren Geschwindigkeit, mit der sie von EIN nach AUS oder umgekehrt umschalten können. Schaltzeiten von einigen Mikrosekunden sind mit Röhren möglich. Das Grundprinzip aber bleibt dasselbe: Geschlossener bzw. offener Stromkreis bilden 0 und 1 des dualen Systems ab und ermöglichen somit Berechnung und Speicherung. Besonders leicht lässt sich mit Hilfe von Röhren die logische Grundfunktion NOR realisieren. Der erste aus Elektronenröhren aufgebaute Rechner war der ENIAC (Electronic Numerical Integrator and Computer, USA 1946). Er hatte ca. 18.000 Röhren und benötigte fast 140 Kilowatt.

Röhren waren zwar schnell, aber sie gingen leicht kaputt. Um genau zu sein, waren die Bedienteams der Röhrenrechner mehr damit beschäftigt, die Röhrenbänke präventiv auszutauschen, als dass sie irgendwelche Programme laufen lassen konnten. Außerdem sind Röhren so groß, dass die Röhrenrechner das Ausmaß eines Kinderzimmers annahmen. Es dauerte nicht allzu lange, bis Transistor-Schaltkreise an die Stelle von Röhrenschaltungen traten. Transistoren sind kleiner, leben länger, verbrauchen weniger Strom, entwickeln weniger Wärme und können dadurch auch dichter gepackt werden. Die Schaltzeiten liegen im Nanosekundenbereich. Um 1960 waren die Röhren in Computern nahezu vollständig durch Transistoren verdrängt. Bis heute bilden Transistoren das Basiselement der Recheneinheiten eines Computers. In modernen CPUs sind heute knapp 100 Millionen Transistoren verbaut.

Die weiteren Fortschritte auf elektrotechnischer Ebene wurden durch die Miniaturisierung der Transistortechnik erzielt. Mit der Entdeckung von Silizium als Baumaterial wurde es zunächst möglich, Dutzende von Transistoren auf einen Chip zu packen. Diese Entwicklung setzte sich fort und ermöglichte bald Tausende, Hunderttausende und schließlich Millionen von Transistoren auf einem einzigen Chip. Diese Chips konnten massenhaft produziert werden und ermöglichten so die Konstruktion von relativ günstigen Minicomputern. Da es sich hier im Wesentlichen um physikalische und chemische Fortschritte bei den Fertigungsprozessen handelt, wollen wir diese Entwicklung nicht im Detail verfolgen. Wenden wir uns stattdessen der Entwicklung der Konzepte zu, die zum heutigen, mit einem (oder gar mehreren) Betriebssystem(en) ausgestatteten, programmierbaren Computer führte.



zurück   Seitenanfang Startseite Kapitelanfang Inhaltsverzeichnis GFDL   weiter