Geschichte des Maschinenrechnens
(frei nach Rheingold, H.: Tools for thought, Cambridge,
Mass. 2000)
1833 Charles Babbage
erfindet die Analytische Maschine als Urahn moderner
Computer mit Lochkarten als Eingabeinstrumente - eine Idee, die
bereits Jaquard für seine mechanischen Webstühle nutzte
~ 1840 Ada Lovelace
erfindet programmierbare Befehle, d.h. Subroutinen,
Schleifen und Sprünge (die Wenn-Sätze)
1854 George Boole
veröffentlicht seine Laws of Thought, in denen
er Logik und Mathematik gleichsetzt, somit Boolesche Logik entwickelt
als Zusammenstellung von maschinenrechenbaren Anweisungen, die
auf genau zwei Werten basieren, dem "All" und dem "Nichts"
~ 1890 Hermann Hollerith
gründet eine Firma die später unter dem Namen
IBM bekannt wird und entwickelt Maschinen für automatisierte Datenverarbeitung
durch programmierbares mechanisches Sortieren, die Hollerith-Maschinen
1936 Alan Mathison Turing
denkt an eine Maschine, die Symbole verarbeitet,
nicht bloß Daten und zudem programmierbar ist; die Turing-Maschine
wird so zu einer, die jedes Problem lösen kann, welches in eine
Formel übersetzbar ist
1939 John Vincent Atanasoff
baut mit einem Kollegen den Atanasoff-Berry-Rechner,
die erste Maschine, die Elektronenröhren anstelle mechanischer
Schalter für die Rechenvorgänge nutzt
(1943) Norbert Wiener et al.
veröffentlichen Behaviour, Purpose and Teleology
worin sie behaupten, dass mechanische und Nervensysteme selbstregulierend
durch Rückkoppelung funktionieren; somit begründen sie die Wissenschaft
der Kybernetik
1946 John von Neumann
entwickelt das Logische Design von Rechenmaschinen;
nach dem Konzept sind Befehle und Daten austauschbare Variablen,
die an bestimmten Stellen der Maschine gespeichert werden können
- gespeicherte Programmierung wird somit möglich; des Weiteren
wird die Verarbeitung von Befehlen und Daten an eine interne Uhr
gebunden: jedes Tick ein Befehl, jedes Tack ein Teil der Daten
(1948) Claude Shannon
veröffentlicht seine Mathematical Theory of Information,
die Information als Zustand der Ordnung oder Nicht-Entropie erläutert,
somit grundlegend wird für (elektronische) Telekommunikation und
Sendetechnik
1950er die ersten Transistoren
ersetzen Elektronenröhren
1960er die ersten Integrierten
Schaltkreise ersetzen Transistoren
1960 Joseph Carl Robnett Licklider
entwirft Maschinen, die eher modellieren als nur
Daten verarbeiten; das Konzept bedeutet, dass ein Anwender verschiedene
bildhafte Lösungen für ein formuliertes Problem erhalten soll,
je nach den eingegebenen Variablen; aus technischer Perspektive
ergibt sich so das Problem "zeitnaher" Interaktion mit
der Maschine welches durch "time-sharing" gelöst wird:
ein Anwender (oder mehrere) kann Variablen innerhalb der Zeit-Zyklen
der internen Uhr wechseln, falls also eine genügend schnelle Uhr
vorhanden ist, scheint die Maschine für den (oder die) Anwender
verschiedene Aufgaben simultan zu erledigen
1962 Ivan Sutherland
entwickelt Sketchpad, ein Programm welches einem
Anwender ermöglicht mittels eines Licht-Stiftes und einem Bildschirm
mit dem Computer in (scheinbarer) "Echt-Zeit" zu interagieren
1963 - 1968 Douglas Engelbart
entwickelt das Konzept der Wissenserweiterung
(Knowledge Augmentation), d.h. Computer sollen nicht allein für
Modellierungs- oder Problemlösungsaufgaben verwendet werden, sondern
um das verfügbare Wissen zu erhöhen; die Vorstellungen von Netzwerken
und Terminals von zentralisierten, leistungsstarken Computern
sowie die von Maus und Tastatur als Eingabegeräte stammen aus
Arbeiten des Augmentation Research Center am Stanford Research
Institute, Ersteres alimentiert von der Regierung der USA durch
ihre Advanced Research Projects Agency
1970 - 1974 Bob Taylor
baut den ersten Personal Computer im Jahr 1974,
d.h. eine Maschine, die aus Maus und Tastatur als Eingabegeräte
sowie einen Bildschirm besteht, jedoch nicht nur als Terminal
funktioniert, sondern als eigenständige Rechenmaschine; seine
Forschungen wurden durch Xerox ermöglicht, indem die Firma 1970
das Palo Alto Research Center gründete