Alle bislang erwähnten Hilfsmittel und Geräte haben nichts mit dem
Dualsystem zu tun und sind daher nur indirekte Vorläufer heutiger Rechner.
Erst die Verknüpfung des Dualsystems mit einigen technischen Entwicklungen
ließ die Leistung der entwickelten Rechengeräte Schlag um Schlag wachsen.
Als Erster beschrieb Gottfried Wilhelm Leibniz eine Rechenmaschine zur
Durchführung von Rechnungen im Dualsystem. Viel später, im Jahr 1933,
entschloss sich Konrad Zuse, das Dualsystem seiner geplanten Rechenmaschine
zu Grunde zulegen. Dieses Gerät, die sogenannte Z1, wurde 1939 fertiggestellt
und verwendete rein mechanische Schalt- und Speicherglieder.
Die Geschwindigkeit (und die Menge) mechanischer Glieder ist naturgemäß
beschränkt. Der Fortschritt auf dem Gebiet der Elektrotechnik ermöglichte
nun den Einsatz von elektromechanischen Relais anstelle der rein mechanischen
Teile. Ein Schaltkreis dient auf einfachste Weise zur Abbildung des dualen
Systems: Durch Schaltkontakte kann der Stromfluss geöffnet und geschlossen
werden. AUS-Zustand und EIN-Zustand können nun die 0 und die 1 des Dualsystems
abbilden. Das Schließen eines solchen elektrischen Kontaktes
kann auf verschiedene Arten geschehen.
Die 1940/41 von Zuse erbaute Z3 verwendete elektromagnetische Relais,
in denen eine Spule ein Magnetfeld erzeugte und dadurch ein
Metallplättchen anzog. Dieses schloss den Stromkreis - das
Bit hatte seinen Wert geändert. Die Z3 in Aktion hat einen unvergleichlichen
Charme. Nach der Eingabe einer Rechenaufgabe beginnen hunderte von
Metallplättchen der aufgereihten Relais scheinbar unkoordiniert zu wippen und
zu klappern, bis das Gerät schließlich auf wundersame Art und
Weise verstummt und das Ergebnis der Berechnung präsentiert. Interessant
ist, dass CPU und Speicher gewissermaßen in ein linkes und ein rechtes
"Relais-Regal" unterteilt sind. Nach einer Berechnung kann man den
Speicherrelais ansehen, dass sie teilweise "EIN" oder "AUS" sind - auch wenn
man nicht im entferntesten erahnen kann, warum es nun gerade diese Auswahl an
Plättchen ist, die auf "EIN" steht. Glücklicherweise werden Rechenergebnisse
benutzerfreundlich auf einem Bedienelement angezeigt - im Dezimalsystem
wohlgemerkt.
Der nächste rein elektrotechnische Fortschritt bestand in der Verwendung
von Röhrenschaltungen anstelle von Relais. Wir wollen hier nicht auf die
Technik von Elektronenröhren eingehen, aber ihr Vorteil gegenüber den teilweise
noch mechanischen Relais besteht in der viel höheren Geschwindigkeit, mit
der sie von EIN nach AUS oder umgekehrt umschalten können. Schaltzeiten von
einigen Mikrosekunden sind mit Röhren möglich. Das Grundprinzip aber bleibt
dasselbe: Geschlossener bzw. offener Stromkreis bilden 0 und 1 des dualen
Systems ab und ermöglichen somit Berechnung und Speicherung. Besonders leicht
lässt sich mit Hilfe von Röhren die logische Grundfunktion NOR realisieren.
Der erste aus Elektronenröhren aufgebaute
Rechner war der ENIAC (Electronic Numerical Integrator and Computer, USA
1946). Er hatte ca. 18.000 Röhren und benötigte fast 140 Kilowatt.
Röhren waren zwar schnell, aber sie gingen leicht kaputt. Um genau zu sein,
waren die Bedienteams der Röhrenrechner mehr damit beschäftigt, die
Röhrenbänke präventiv auszutauschen, als dass sie irgendwelche Programme
laufen lassen konnten. Außerdem sind Röhren so groß, dass die Röhrenrechner
das Ausmaß eines Kinderzimmers annahmen. Es dauerte nicht allzu lange, bis
Transistor-Schaltkreise an die Stelle von Röhrenschaltungen traten.
Transistoren sind kleiner, leben länger, verbrauchen weniger Strom, entwickeln
weniger Wärme und können dadurch auch dichter gepackt werden. Die Schaltzeiten
liegen im Nanosekundenbereich. Um 1960 waren die Röhren in Computern
nahezu vollständig durch Transistoren verdrängt. Bis heute bilden
Transistoren das Basiselement der Recheneinheiten eines Computers. In modernen
CPUs sind heute knapp 100 Millionen Transistoren verbaut.
Die weiteren Fortschritte auf elektrotechnischer Ebene wurden durch die
Miniaturisierung der Transistortechnik erzielt. Mit der Entdeckung von
Silizium als Baumaterial wurde es zunächst möglich, Dutzende von Transistoren
auf einen Chip zu packen. Diese Entwicklung setzte sich fort und ermöglichte
bald Tausende, Hunderttausende und schließlich Millionen von Transistoren auf
einem einzigen Chip. Diese Chips konnten massenhaft produziert werden und
ermöglichten so die Konstruktion von relativ günstigen Minicomputern. Da es
sich hier im Wesentlichen um physikalische und chemische Fortschritte bei
den Fertigungsprozessen handelt, wollen wir diese Entwicklung nicht im Detail
verfolgen. Wenden wir uns stattdessen der Entwicklung der Konzepte zu, die
zum heutigen, mit einem (oder gar mehreren) Betriebssystem(en) ausgestatteten,
programmierbaren Computer führte.
|