Geschichte des Computers

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet vonComputergeschichte)
Zur Navigation springenZur Suche springen

DieGeschichte desComputers reicht zurück bis in dieAntike.

Inhaltsverzeichnis

Geschichte

[Bearbeiten |Quelltext bearbeiten]

Die Vorläufer des modernen Computers

[Bearbeiten |Quelltext bearbeiten]

Die moderneComputertechnologie, wie wir sie heute kennen, entwickelte sich im Vergleich zu anderen Elektrogeräten der Neuzeit sehr schnell. Die Geschichte der Entwicklung desComputers an sich jedoch reicht zurück bis in die Antike und umfasst deutlich mehr, als nur die modernen Computertechnologien oder mechanischen bzw. elektrischen Hilfsmittel (Rechenmaschinen oderHardware). Sie umfasst z. B. auch die Entwicklung vonZahlensystemen und Rechenmethoden, die etwa für einfache Schreibgeräte auf Papier und Tafeln entwickelt wurden. Im Folgenden wird versucht, einen Überblick über diese Entwicklungen zu geben.

Zahlen und Ziffern als Grundlage der Computergeschichte

[Bearbeiten |Quelltext bearbeiten]

Das Konzept derZahlen lässt sich auf keine konkreten Wurzeln zurückführen und hat sich wahrscheinlich mit den ersten Notwendigkeiten derKommunikation zwischen zwei Individuen entwickelt. Man findet in allen bekanntenSprachen mindestens für die Zahleneins undzwei Entsprechungen.

Als Weiterentwicklung ist der Übergang von der reinen Anzahlbenennung zum GebrauchmathematischerRechenoperationen wieAddition,Subtraktion,Multiplikation undDivision anzusehen; auchQuadratzahlen undQuadratwurzel sind hierunter zu fassen. Diese Operationen wurden formalisiert (inFormeln dargestellt) und dadurch überprüfbar. Daraus entwickelten sich dann weiterführende Betrachtungen, etwa die vonEuklid entwickelte Darstellung desgrößten gemeinsamen Teilers.

Im Mittelalter erreichte das ursprünglich aus Indien stammendearabische Zahlensystem Europa und erlaubte eine größere Systematisierung bei der Arbeit mit Zahlen. Es erlaubte die Darstellung von Zahlen, Ausdrücken und Formeln aufPapier und die Tabellierung von mathematischen Funktionen wie der Quadratwurzel, des einfachenLogarithmus undtrigonometrischer Funktionen. Zur Zeit der Arbeiten vonIsaac Newton war Papier undVelin eine bedeutende Ressource für Rechenaufgaben und ist dies bis in die heutige Zeit geblieben, in der Forscher wieEnrico Fermi seitenweise Papier mit mathematischen Berechnungen füllten undRichard Feynman jeden mathematischen Schritt mit der Hand bis zur Lösung berechnete, obwohl es zu seiner Zeit bereits programmierbare Rechner gab.

Frühe Entwicklung von Rechenmaschinen und -hilfsmitteln

[Bearbeiten |Quelltext bearbeiten]
DerAbakus

Das früheste Gerät, das in rudimentären Ansätzen mit einem heutigen Computer verglichen werden kann, ist derAbakus, eine mechanischeRechenhilfe, die vermutlich um 1100 v. Chr. im indochinesischen Kulturraum erfunden wurde. Der Abakus wurde bis ins 17. Jahrhundert benutzt und dann durch die erstenRechenmaschinen ersetzt. In einigen Regionen der Welt wird der Abakus auch heute noch immer verwendet. Einem ähnlichen Zweck diente auch das Rechenbrett desPythagoras.

Mechanismus von Antikythera

Bereits im 1. Jahrhundert v. Chr. wurde mit demRäderwerk von Antikythera die erste Rechenmaschine erfunden.[1] Das Gerät diente vermutlich für astronomische Berechnungen und funktionierte mit einemDifferentialgetriebe.

Mit dem Untergang der Antike kam der technische Fortschritt in Mittel- und Westeuropa fast zum Stillstand und in den Zeiten der Völkerwanderung ging viel Wissen verloren (so beispielsweise auch das Räderwerk von Antikythera, das erst 1902 wiederentdeckt wurde) oder wurde nur noch im oströmischen Reichsteil bewahrt. Die muslimischen Eroberer der oströmischen Provinzen und schließlich Ost-Roms (Konstantinopel) nutzten dieses Wissen und entwickelten es weiter. Durch die Kreuzzüge und spätere Handelskontakte zwischen Abend- und Morgenland sowie die muslimische Herrschaft auf der iberischen Halbinsel, sickerte antikes Wissen und die darauf aufbauenden arabischen Erkenntnisse langsam wieder nach West- und Mitteleuropa ein. Ab derNeuzeit begann sich der Motor des technischen Fortschritts wieder langsam zu drehen und beschleunigte fortan – und dies tut er bis heute.

DerRechenschieber, eine der wichtigsten mechanischen Rechenhilfen für die Multiplikation und Division

1614 publizierteJohn Napier seineLogarithmentafel. Mitentdecker der Logarithmen istJost Bürgi. 1623 bauteWilhelm Schickard die ersteVier-Spezies-Maschine mit getrennten Werken für Addition/Subtraktion und Multiplikation/Division und damit den ersten mechanischen Rechner, wodurch er zum „Vater der Computerära“ wurde. Seine Konstruktion basierte auf dem Zusammenspiel vonZahnrädern, die im Wesentlichen aus dem Bereich derUhrmacherkunst stammten und dort genutzt wurden, wodurch seine Maschine den Namen „Rechenuhr“ erhielt. Ein weiteres Exemplar war fürJohannes Keplers astronomische Berechnungen bestimmt, verbrannte aber halbfertig. Schickards eigenes Gerät ist verschollen.

1642 folgteBlaise Pascal mit seiner Zweispezies-Rechenmaschine, derPascaline. 1668 entwickelteSamuel Morland eine Rechenmaschine, die erstmals nicht dezimal addierte, sondern auf das englische Geldsystem abgestimmt war. 1673 bauteGottfried Wilhelm Leibniz seine erste Vierspezies-Maschine und erfand 1703 (erneut) das binäre Zahlensystem (Dualsystem), das später die Grundlage für dieDigitalrechner und darauf aufbauend diedigitale Revolution wurde.

Mechanischer Rechner von 1914

1805 nutzteJoseph-Marie JacquardLochkarten, umWebstühle zu steuern. 1820 bauteCharles Xavier Thomas de Colmar das „Arithmometer“, den ersten Rechner, der in Massenproduktion hergestellt wurde und somit den Computer für Großunternehmen erschwinglich machte.Charles Babbage entwickelte von 1820 bis 1822 dieDifferenzmaschine (englischDifference Engine) und 1837 dieAnalytical Engine, konnte sie aber aus Geldmangel nicht bauen. 1843 bauten Edvard undGeorge Scheutz inStockholm den ersten mechanischen Computer nach den Ideen von Babbage. Im gleichen Jahr entwickelteAda Lovelace eine Methode zur Programmierung von Computern nach dem Babbage-System und schrieb damit das erste Computerprogramm. 1890 wurde die US-Volkszählung mit Hilfe desLochkartensystems vonHerman Hollerith durchgeführt. 1912 bauteTorres y Quevedo eineSchach­maschine, die mit König und Turm einen König matt setzen konnte, und somit den ersten Spielcomputer.

Mechanische Rechner wie die darauf folgendenAddierer, derComptometer, derMonroe-Kalkulator, dieCurta und derAddo-X wurden bis in die 1970er Jahre genutzt. Diese Rechner nutzten alle dasDezimalsystem. Dies galt sowohl für die Rechner von Charles Babbage um 1800 wie auch für denENIAC von 1945, den erstenvollelektronischen Universalrechner überhaupt.

Es wurden jedoch auch nichtmechanische Rechner gebaut, wie derWasserintegrator.

Von 1935 über die Zuse Z1 bis zur Turing-Bombe

[Bearbeiten |Quelltext bearbeiten]

1935 stelltenIBM dieIBM 601 vor, eine Lochkartenmaschine, die eine Multiplikation pro Sekunde durchführen konnte. Es wurden ca. 1500 Exemplare verkauft. 1937 meldeteKonrad Zuse zwei Patente an, die bereits alle Elemente der so genanntenVon-Neumann-Architektur beschreiben. Im selben Jahr bauteJohn Atanasoff zusammen mit dem Doktoranden Clifford Berry einen der ersten Digitalrechner, denAtanasoff-Berry-Computer, undAlan Turing publizierte einen Artikel, der dieTuringmaschine, ein abstraktes Modell zur Definition des Algorithmusbegriffs, beschreibt.

1938 stellte Konrad Zuse dieZuse Z1 fertig, einen frei programmierbaren mechanischen Rechner, der allerdings aufgrund von Problemen mit der Fertigungspräzision nie voll funktionstüchtig war. Die Z1 verfügte bereits über Gleitkommarechnung. Sie wurde im Krieg zerstört und später nach Originalplänen neu gefertigt, die Teile wurden auf modernen Fräs- und Drehbänken hergestellt. Dieser Nachbau der Z1, der imDeutschen Technikmuseum in Berlin steht, ist mechanisch voll funktionsfähig und hat eine Rechengeschwindigkeit von 1Hz, vollzieht also eine Rechenoperation pro Sekunde. Ebenfalls 1938 publizierteClaude Shannon einen Artikel darüber, wie man symbolische Logik mitRelais implementieren kann. (Lit.: Shannon 1938)

Während desZweiten Weltkrieges gab Alan Turing die entscheidenden Hinweise zurEntzifferung derEnigma-Codes und baute dafür einen speziellen mechanischen Rechner,Turing-Bombe genannt.

Entwicklung des modernen turingmächtigen Computers

[Bearbeiten |Quelltext bearbeiten]

Bis zum Ende des Zweiten Weltkrieges

[Bearbeiten |Quelltext bearbeiten]
Nachbau der Zuse Z3 imDeutschen Museum in München

Ebenfalls im Krieg (1941) baute Konrad Zuse die erste funktionstüchtige programmgesteuerte binäre Rechenmaschine, bestehend aus einer großen Zahl von Relais, dieZuse Z3. Wie 1998 bewiesen werden konnte, war die Z3turingmächtig und damit außerdem die erste Maschine, die – im Rahmen des verfügbaren Speicherplatzes – beliebige Algorithmen automatisch ausführen konnte. Aufgrund dieser Eigenschaften wird sie oft als erster funktionsfähiger Computer der Geschichte betrachtet.[2] Die nächsten Digitalrechner waren der in den USA gebauteAtanasoff-Berry-Computer (Inbetriebnahme 1941) und die britischeColossus (1941). Sie dienten speziellen Aufgaben und waren nicht turingmächtig. Auch Maschinen auf analoger Basis wurden entwickelt.

Colossus Mark II

Auf das Jahr 1943 wird auch die angeblich von IBM-ChefThomas J. Watson stammende Aussage „Ich glaube, es gibt einen weltweiten Bedarf an vielleicht fünf Computern.“ datiert. Im selben Jahr stellteTommy Flowers mit seinem Team inBletchley Park den ersten „Colossus“ fertig. 1944 erfolgte die Fertigstellung des ASCC (Automatic Sequence Controlled Computer, „Mark I“ durchHoward H. Aiken) und das Team umReinold Weber stellte eine Entschlüsselungsmaschine für das VerschlüsselungsgerätM-209 derUS-Streitkräfte fertig.[3] Zuse hatte schließlich bis März 1945 seine am 21. Dezember 1943 bei einem Bombenangriff zerstörte Z3 durch die deutlich verbesserteZuse Z4 ersetzt, den damals einzigenturingmächtigen Computer in Europa, der von 1950 bis 1955 als zentraler Rechner derETH Zürich genutzt wurde.

ComputermodellLandInbetriebnahmeGleitkomma-
arithmetik
Binär Elektronisch ProgrammierbarTuringmächtig
Zuse Z3DeutschlandMai 1941JaJaNeinJa, mittels Lochstreifenüber Umwege, nie genutzt
Atanasoff-Berry-ComputerUSASommer 1941NeinJaJaNeinNein
ColossusUK1943NeinJaJaTeilweise, durch Neu­ver­kabelungNein
Mark IUSA1944NeinNeinNeinJa, mittels LochstreifenJa
Zuse Z4DeutschlandMärz 1945JaJaNeinJa, mittels Lochstreifenkeine bedingte Sprunganweisung
um 1950JaJaNeinJa, mittels LochstreifenJa
ENIACUSA1946NeinNeinJaTeilweise, durch Neu­ver­kabelungJa
1948NeinNeinJaJa, mittels Wider­stands­matrixJa

Nachkriegszeit

[Bearbeiten |Quelltext bearbeiten]
ENIAC auf einem Bild der US-Armee
Der EDVAC
Röhrenrechner Ural-1 aus der Sowjetunion

Das Ende des Zweiten Weltkriegs erlaubte es, dass Europäer und Amerikaner von ihren Fortschritten gegenseitig wieder Kenntnis erlangten. Im Jahr 1946 wurde derElectronical Numerical Integrator and Computer (ENIAC) unter der Leitung vonJohn Eckert undJohn Mauchly entwickelt und an der Moore School of Electrical Engineering der Universität von Pennsylvania gebaut. Der ENIAC verfügte über 20 elektronische Register, 3 Funktionstafeln als Festspeicher und bestand aus 18.000 Röhren sowie 1.500 Relais.[4] Der ENIAC ist der erste vollelektronische digitaleUniversalrechner (Konrad Zuses Z3 verwendete 1941 noch Relais, war also nicht vollelektronisch). 1947 bauteIBM denSelective Sequence Electronic Calculator (SSEC), einenHybridcomputer mitRöhren und mechanischenRelais und dieAssociation for Computing Machinery (ACM) wurde als erste wissenschaftliche Gesellschaft fürInformatik gegründet. Im gleichen Jahr wurde auch der ersteTransistor realisiert, der heute aus der modernen Technik nicht mehr weggedacht werden kann. Die maßgeblich an der Erfindung beteiligtenWilliam B. Shockley,John Bardeen undWalter Brattain erhielten 1956 denNobelpreis für Physik. In die späten 1940er Jahre fällt auch der Bau desElectronic Discrete Variable Automatic Computer (EDVAC), der erstmals dieVon-Neumann-Architektur implementierte.

Im Jahr 1949 stellteEdmund C. Berkeley, Begründer der ACM, mit „Simon“ den ersten digitalen, programmierbaren Computer für den Heimgebrauch vor. Er bestand aus 50 Relais und wurde in Gestalt von Bauplänen vertrieben, von denen in den ersten zehn Jahren ihrer Verfügbarkeit über 400 Exemplare verkauft wurden. Im selben Jahr stellteMaurice Wilkes mit seinem Team in Cambridge denElectronic Delay Storage Automatic Calculator (EDSAC) vor; basierend aufJohn von Neumanns EDVAC ist es der erste Rechner, der vollständig speicherprogrammierbar war. Ebenfalls 1949 besichtigte der Schweizer MathematikprofessorEduard Stiefel die in einem Pferdestall inHopferau aufgestellteZuse Z4 und finanzierte die gründliche Überholung der Maschine durch dieZuse KG, bevor sie an dieETH Zürich ausgeliefert wurde und dort in Betrieb ging.[5]

1950er

[Bearbeiten |Quelltext bearbeiten]

In den 1950er Jahren setzte die Produktion kommerzieller (Serien-)Computer ein. Unter der Leitung vonAlwin Walther wurde am Institut für Praktische Mathematik (IPM) der TH Darmstadt ab 1951 derDERA (Darmstädter Elektronischer Rechenautomat) erbaut.Remington Rand baute 1951 ihren ersten kommerziellen Röhrenrechner, denUNIVersal Automatic Computer I (UNIVAC I) und 1955 beiBell Labs für dieUS Air Force nimmt der von Jean Howard Felker und L.C. Brown (Charlie Braun) gebauteTRansistorized Airborne DIgital Computer (TRADIC) den ersten Computer der Welt, der komplett mit Transistoren stattRöhren bestückt war den Betrieb auf; im gleichen Jahr begannHeinz Zemanek mit der Konstruktion des ersten auf europäischem Festland gebauten Transistorrechners, desMailüfterls, das er 1958 der Öffentlichkeit vorstellte.

Am 30. Dezember 1954[6] vollendet dieDDR mit der „OPtik-REchen-MAschine“ (OPREMA) den Bau ihren erstes Computers mit Hilfe von Relais, der zunächst als Doppelrechner aus zwei identischen Systemen redundant ausgelegt wurde. Als klar war, dass die Maschinen stabil arbeiteten, wurden sie in zwei unabhängige Rechner getrennt. Programmierung und Zahleneingabe wurden per Stecktafel vorgenommen, die Ausgabe erfolgte über eine Schreibmaschine.[7] 1956 tauchte der Begriff „Computer“ erstmals in der DDR-Presse auf, nämlich im Zusammenhang mit demEniac-„Rechenautomaten“, dessen Akronym für „Electronic Numerical Integrator and Computer“ stand.[8][9] Geläufig wurde der Begriff erst Mitte der 1960er Jahre.

1956 nahm die ETH Zürich ihreERMETH in Betrieb und IBM fertigte daserste Magnetplattensystem (Random Access Method of Accounting and Control (RAMAC)). Ab 1958 wurde dieElectrologica X1 als volltransistorisierter Serienrechner gebaut. Noch im selben Jahr stellte die Polnische Akademie der Wissenschaften in Zusammenarbeit mit dem Laboratorium für mathematische Apparate unter der Leitung von Romuald Marczynski den ersten polnischen Digital Computer „XYZ“ vor. Vorgesehenes Einsatzgebiet war die Nuklearforschung. 1959 begannSiemens mit der Auslieferung desSiemens 2002, ihres ersten in Serie gefertigten und vollständig auf Basis von Transistoren hergestellten Computers.

1960er

[Bearbeiten |Quelltext bearbeiten]

1960 baute IBM denIBM 1401, einen transistorisierten Rechner mit Magnetbandsystem, undDECs (Digital Equipment Corporation) ersterMinicomputer, diePDP-1 (Programmierbarer Datenprozessor) erscheint. 1962 lieferte dieTelefunken AG die erstenTR 4 aus. 1964 baute DEC den MinicomputerPDP-8 für unter 20.000 Dollar.

1964 definierte IBM die erste ComputerarchitekturS/360, womit Rechner verschiedener Leistungsklassen denselben Code ausführen konnten und beiTexas Instruments wurde der erste „integrierte Schaltkreis“ (IC) entwickelt. 1965 stellte das Moskauer Institut für Präzisionsmechanik und Computertechnologie unter der Leitung seines Chefentwicklers Sergej Lebedjew mit demBESM-6 den ersten exportfähigen Großcomputer derUdSSR vor. BESM-6 wurde ab 1967 mitBetriebssystem und Compiler ausgeliefert und bis 1987 gebaut. 1966 erschien dann auch noch mitD4a ein 33bit Auftischrechner derTU Dresden.

Olivetti Programma 101

Der erste frei programmierbare Tischrechner der Welt, der „Programma 101“ von der FirmaOlivetti,[10] erschien 1965 für einen Preis von $3,200[11] (was auf das Jahr 2017 bezogen $24,746[12] entspricht).

Nixdorf 820 von 1968

1968 bewarbHewlett-Packard (HP) denHP-9100A in der Science-Ausgabe vom 4. Oktober 1968 als „personal computer“, obgleich diese Bezeichnung nichts mit dem zu tun hat, was seit Mitte der 1970er Jahre bis heute unter einemPersonal Computer verstanden wird. Die 1968 entstandeneNixdorf Computer AG erschloss zunächst in Deutschland und Europa, später auch in Nordamerika, einen neuen Computermarkt: dieMittlere Datentechnik bzw. die dezentraleelektronische Datenverarbeitung. Massenhersteller wieIBM setzten weiterhin auf Großrechner und zentralisierte Datenverarbeitung, wobei Großrechner fürkleine und mittlere Unternehmen schlicht zu teuer waren und die Großhersteller den Markt der Mittleren Datentechnik nicht bedienen konnten. Nixdorf stieß in diese Marktnische mit dem modular aufgebautenNixdorf 820 vor, brachte dadurch den Computer direkt an den Arbeitsplatz und ermöglichte kleinen und mittleren Betrieben die Nutzung der elektronischen Datenverarbeitung zu einem erschwinglichen Preis. Im Dezember 1968 stelltenDouglas C. Engelbart undWilliam English vomStanford Research Institute (SRI) die ersteComputermaus vor, mangels sinnvoller Einsatzmöglichkeit (es gab noch keine grafischen Benutzeroberflächen) interessierte dies jedoch kaum jemanden. 1969 werden die ersten Computer perInternet verbunden.

1970er

[Bearbeiten |Quelltext bearbeiten]

Mit der Erfindung des serienmäßig produzierbarenMikroprozessors wurden die Computer immer kleiner, leistungsfähiger und preisgünstiger. Doch noch wurde das Potential der Computer verkannt. So sagte noch 1977Ken Olson, Präsident und Gründer von DEC: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollte.“

Intel 8008, Vorläufer desIntel 8080

Im Jahr 1971 war es der HerstellerIntel, der mit dem4004 den ersten in Serie gefertigten Mikroprozessor baute. Er bestand aus 2250 Transistoren. 1971 lieferteTelefunken denTR 440 an dasDeutsche Rechenzentrum Darmstadt sowie an die Universitäten Bochum und München. 1972 ging derIlliac IV, ein Supercomputer mitArray-Prozessoren, in Betrieb. 1973 erschien mitXerox Alto der erste Computer mit Maus,graphischer Benutzeroberfläche (GUI) und eingebauterEthernet-Karte; und die französische Firma R2E begann mit der Auslieferung desMicral. 1974 stellte HP mit demHP-65 den ersten programmierbaren Taschenrechner vor undMotorola baute den 6800-Prozessor, währenddessen Intel den8080-Prozessor fertigte. 1975 begannMITS mit der Auslieferung desAltair 8800. 1975 stellteIBM mit derIBM 5100 den ersten tragbaren Computer vor. Eine Zeichenlänge von 8 Bit und die Einengung der (schon existierenden) BezeichnungByte auf dieses Maß wurden in dieser Zeit geläufig.

1975Maestro I (ursprünglich Programm-Entwicklungs-Terminal-System PET) vonSoftlab war weltweit die ersteIntegrierte Entwicklungsumgebung für Software.Maestro I wurde weltweit 22.000 Mal installiert, davon 6.000 Mal in der Bundesrepublik Deutschland. Maestro I war in den 1970er und 1980er Jahren führend auf diesem Gebiet.

Zilog Z80

1976 entwickelteZilog denZ80-Prozessor undApple Computer stellte denApple I vor, den weltweitersten Personal Computer,[13][14][15] gefolgt 1977 vomCommodore PET und dem TandyTRS-80. Der ebenfalls im Jahr 1977 veröffentlichteApple II gilt bislang als letzter in Serie hergestellter Computer, der von einer einzelnen Person,Steve Wozniak, entworfen wurde.[16] 1978 erschien dieVAX-11/780 von DEC, eine Maschine speziell fürvirtuelle Speicheradressierung. Im gleichen Jahr stellteIntel den8086 vor, ein 16-Bit-Mikroprozessor; er ist der Urvater der noch heute gebräuchlichenx86-Prozessor-Familie. 1979 schließlich starteteAtari den Verkauf seiner Rechnermodelle400 und800. Revolutionär war bei diesen, dass mehrereASIC-Chips den Hauptprozessor entlasteten.

1980er

[Bearbeiten |Quelltext bearbeiten]
C64 mit 5¼″-Diskette und Laufwerk

Die 1980er waren die Blütezeit derHeimcomputer, zunächst mit 8-Bit-Mikroprozessoren und einemArbeitsspeicher bis 64 KiB (Commodore VC20,C64,Sinclair ZX80/81,Sinclair ZX Spectrum,Schneider/Amstrad CPC 464/664,Atari XL/XE-Reihe), später auch leistungsfähigere Modelle mit 16-Bit- (Texas Instruments TI-99/4A) oder 16/32-Bit-Mikroprozessoren (z. B.Amiga,Atari ST). Eine Eigenentwicklung vonSiemens, derSiemens PC 16-10, war dagegen mit einem Anfangspreis von 11.300 DM deutlich zu teuer.

Das UnternehmenIBM stellte 1981 denIBM-PC vor, legte die Grundkonstruktion offen und schuf einen informellen Industriestandard;[17] sie definierten damit die bis heute aktuelle Geräteklasse der „IBM-PC-kompatiblen Computer“. Dank zahlreicher preiswerter Nachbauten und Fortführungen wurde diese Geräteklasse zu einer der erfolgreichsten Plattformen für denPersonal Computer; die heute marktüblichen PCs mitWindows-Betriebssystem undx86-Prozessoren beruhen auf der stetigen Weiterentwicklung des damaligen Entwurfs von IBM.

1982 brachte Intel den80286-Prozessor auf den Markt undSun Microsystems entwickelte dieSun-1Workstation. Nach dem ersten Büro-Computer mit Maus,Lisa, der 1983 auf den Markt kam, wurde 1984 derApple Macintosh gebaut und setzte neue Maßstäbe für Benutzerfreundlichkeit. DieSowjetunion konterte mit ihrem „Kronos 1“, einer Bastelarbeit des Rechenzentrums inAkademgorodok. Im Januar 1985 stellte Atari den ST-Computer auf derConsumer Electronics Show (CES) inLas Vegas vor. Im Juli produzierteCommodore den ersten Amiga-Heimcomputer. InSibirien wurde der „Kronos 2“ vorgestellt, der dann als „Kronos 2.6“ für vier Jahre in Serie ging. 1986 brachte Intel den80386-Prozessor auf den Markt, 1989 den80486. Ebenfalls 1986 präsentierte Motorola den 68030-Prozessor. Im gleichen Jahr stellteAcorn denARM2-Prozessor fertig und setzte ihn im Folgejahr inAcorn-Archimedes-Rechnern ein. 1988 stellteNeXT mitSteve Jobs, Mitgründer vonApple, den gleichnamigen Computer vor.

Die Computer-Fernvernetzung, deutsch „DFÜ“ (Datenfernübertragung), über dasUsenet wurde an Universitäten und in diversen Firmen immer stärker benutzt. Auch Privatleute strebten nun eine Vernetzung ihrer Computer an; Mitte der 1980er Jahre entstandenMailboxnetze, zusätzlich zumFidoNet dasZ-Netz und dasMausNet.

1990er

[Bearbeiten |Quelltext bearbeiten]
Pentium

Die 1990er sind das Jahrzehnt desInternets und desWorld Wide Web. (Siehe auchGeschichte des Internets,Chronologie des Internets) 1991 spezifizierte das AIM-Konsortium (Apple, IBM, Motorola) diePowerPC-Plattform. 1992 stellte DEC die ersten Systeme mit dem 64-Bit-Alpha-Prozessor vor. 1993 brachte Intel denPentium-Prozessor auf den Markt, 1995 denPentium Pro. 1994 stellteLeonard Adleman mit demTT-100 den ersten Prototyp einesDNA-Computers vor, im Jahr daraufBe Incorporated dieBeBox. 1999 baute Intel denSupercomputerASCI Red mit 9.472 Prozessoren undAMDstellte mit demAthlon den Nachfolger derK6-Prozessorfamilie vor.

Entwicklung im 21. Jahrhundert

[Bearbeiten |Quelltext bearbeiten]

Zu Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwärtig und allgemein akzeptiert. Während die Leistungsfähigkeit in klassischen Anwendungsbereichen weiter gesteigert wird, werden digitale Rechner unter anderem in dieTelekommunikation undBildbearbeitung integriert. 2001 baute IBM den SupercomputerASCI White, und 2002 ging derNECEarth Simulator in Betrieb. 2003 lieferte Apple den PowerMacG5 aus, den ersten Computer mit 64-Bit-Prozessoren für den Massenmarkt. AMD zog mit demOpteron und demAthlon 64 nach.

2005 produzierten AMD und Intel ersteDual-Core-Prozessoren, 2006 doppelte Intel mit den erstenCore-2-Quad-Prozessoren nach – AMD konnte erst 2007 ersteVierkernprozessoren vorstellen. Bis zum Jahr 2010 stellten mehrere Firmen auch Sechs- und Achtkernprozessoren vor. Entwicklungen wieMehrkernprozessoren,Berechnung auf Grafikprozessoren (GPGPU) sowie der breite Einsatz vonTablet-Computern dominieren in den letzten Jahren (Stand 2012) das Geschehen.

Seit den 1980er Jahren stiegen die Taktfrequenzen von anfangs wenigen MHz bis zuletzt (Stand 2015) etwa 4 GHz. In den letzten Jahren konnte der Takt nur noch wenig gesteigert werden, stattdessen wurden Steigerungen der Rechenleistung eher durch mehr Prozessorkerne und vergrößerte Busbreiten erzielt. Auch wenn durch Übertaktung einzelne Prozessoren auf über 8 GHz betrieben werden konnten, sind diese Taktraten auch 2015 noch nicht in Serienprozessoren verfügbar. Außerdem werden zunehmend auch die in Computern verbauten Grafikprozessoren zur Erhöhung der Rechenleistung für spezielle Aufgaben genutzt (z. B. perOpenCL, siehe auchStreamprozessor undGPGPU).

Seit ca. 2005 spielen auch Umweltaspekte (wie z. B. Stromsparfunktionen von Prozessor und Chipsatz, verringerterEinsatz schädlicher Stoffe) – bei der Produktion, Beschaffung und Nutzung von Computern zunehmend eine Rolle (siehe auchGreen IT).

2020

[Bearbeiten |Quelltext bearbeiten]

Ende September 2020 wurde Europas letztes Computerwerk,Fujitsu in Augsburg, geschlossen.[18]

Siehe auch

[Bearbeiten |Quelltext bearbeiten]

Literatur

[Bearbeiten |Quelltext bearbeiten]
  • Edmund Callis Berkeley:Giant Brains or Machines That Think. 7. Auflage. John Wiley & Sons 1949, New York 1963 (die erste populäre Darstellung der EDV, trotz des für moderne Ohren seltsam klingenden Titels sehr seriös und fundiert – relativ einfach antiquarisch und in fast allen Bibliotheken zu finden). 
  • Bertram Vivian Bowden (Hrsg.):Faster Than Thought. Pitman, New York 1953 (Nachdruck 1963,ISBN 0-273-31580-3) – eine frühe populäre Darstellung der EDV, gibt den Stand seiner Zeit verständlich und ausführlich wieder; nur mehr antiquarisch und in Bibliotheken zu finden
  • Herbert Bruderer:Meilensteine der Rechentechnik. Band 1:Mechanische Rechenmaschinen, Rechenschieber, historische Automaten und wissenschaftliche Instrumente, 2., stark erweiterte Auflage, Walter de Gruyter, Berlin/Boston 2018,ISBN 978-3-11-051827-6
  • Michael Friedewald:Der Computer als Werkzeug und Medium. Die geistigen und technischen Wurzeln des Personalcomputers. GNT-Verlag, 2000,ISBN 3-928186-47-7. 
  • Simon Head:The New Ruthless Economy. Work and Power in the Digital Age. Oxford UP 2005,ISBN 0-19-517983-8 (der Einsatz des Computers in der Tradition desTaylorismus). 
  • Ute Hoffmann:Computerfrauen. Welchen Anteil hatten Frauen an der Computergeschichte und -arbeit? München 1987,ISBN 3-924346-30-5
  • Loading History. Computergeschichte(n) aus der Schweiz. Museum für Kommunikation, Bern 2001,ISBN 3-0340-0540-7, Ausstellungskatalog zu einer Sonderausstellung mit Schweizer Schwerpunkt, aber für sich alleine lesbar
  • Michael Homberg:Digitale Unabhängigkeit: Indiens Weg ins Computerzeitalter – Eine internationale Geschichte (Geschichte der Gegenwart), Wallstein, Göttingen 2022
  • Anthony Hyman:Charles Babbage. Pioneer of the Computer. Oxford University Press, Oxford 1984.
  • HNF Heinz Nixdorf Forum Museumsführer. Paderborn 2000,ISBN 3-9805757-2-1 – Museumsführer des nach eigener Darstellung weltgrößten Computermuseums
  • Karl Weinhart:Informatik und Automatik. Führer durch die Ausstellungen. Deutsches Museum, München 1990,ISBN 3-924183-14-7 – Katalog zu den permanenten Ausstellungen desDeutschen Museums zum Thema; vor allem als ergänzende Literatur zum Ausstellungsbesuch empfohlen
  • H. R. Wieland:Computergeschichte(n) – nicht nur für Geeks: Von Antikythera zur Cloud. Galileo Computing, 2010,ISBN 978-3-8362-1527-5
  • Christian Wurster:Computers. Eine illustrierte Geschichte. Taschen, 2002,ISBN 3-8228-5729-7 (eine vom Text her leider nicht sehr exakte Geschichte der EDV mit einzelnen Fehlern, die aber durch die Gastbeiträge einzelner Persönlichkeiten der Computergeschichte und durch die zahlreichen Fotos ihren Wert hat). 
  • André Reifenrath:Geschichte der Simulation. Dissertation Humboldt-Universität Berlin 2000. Geschichte des Computers von den Anfängen bis zur Gegenwart unter besonderer Berücksichtigung des Themas der Visualisierung und Simulation durch den Computer.
  • Claude E. Shannon:A Symbolic Analysis of Relay and Switching Circuits. In:Transactions of the American Institute of Electrical Engineers. Vol. 57, 1938,S. 713–723. 
  • Jens Müller:The Computer. A History from the 17th Century to Today. Hrsg.: Julius Wiedemann.Taschen Verlag, 2023,ISBN 978-3-8365-7334-4 (englisch). 
  • Jürgen Wolf:Computergeschichte(n): Nicht nur für Nerds. Eine Zeitreise durch die IT-Geschichte. Rheinwerk Computing, Bonn 2020,ISBN 978-3-8362-7777-8. 

Einzelnachweise

[Bearbeiten |Quelltext bearbeiten]
  1. UCL: Experts recreate a mechanical Cosmos for the world’s first computer. 12. März 2021, abgerufen am 18. März 2021 (englisch). 
  2. Konrad Zuse: Die Erfindung des Computers. In: swr.de. 17. Mai 1984, abgerufen am 25. August 2020. 
  3. Klaus Schmeh: Als deutscher Code-Knacker im Zweiten Weltkrieg. In: heise.de. 24. September 2004, abgerufen am 25. August 2020. 
  4. Wilfried de Beauclair:Rechnen mit Maschinen. Eine Bildgeschichte der Rechentechnik. 2. Auflage. Springer, Berlin Heidelberg New York 2005,ISBN 3-540-24179-5,S. 111–113. 
  5. Stefan Betschon:Der Zauber des Anfangs. Schweizer Computerpioniere. In:Franz Betschon, Stefan Betschon, Jürg Lindecker, Willy Schlachter (Hrsg.):Ingenieure bauen die Schweiz. Technikgeschichte aus erster Hand. Verlag Neue Zürcher Zeitung, Zürich 2013,ISBN 978-3-03823-791-4, S. 376–399.
  6. René Meyer: Computer in der DDR. Robotron statt Commodore, VEB Röhrenwerk Mühlhausen statt IBM: Die Computertechnik in der DDR war ganz anders als im Westen – vor allem viel abenteuerlicher. In: www.heise.de. Heise.de, 12. Januar 2023, abgerufen am 12. Januar 2023. 
  7. Andreas Göbel: Spiegel Geschichte: Mit diesem Monstrum konnte man rechnen. 14. Juni 2013, abgerufen im Jahr 2020. 
  8. Neues Deutschland, 6. Mai 1956
  9. Erich Sobeslavsky, Nikolaus Joachim Lehmann: Rechentechnik und Datenverarbeitung in der DDR - 1946 bis 1968. (PDF) Hannah-Arendt-Institut TU Dresden, 1996, abgerufen im Jahr 2020. 
  10. siehe K. Dette:Olivetti Personal Computer fur Lehre und Forschung. Springer, 1989; Brennan, AnnMarie:Olivetti: A work of art in the age of immaterial labour. In:Journal of Design History 28.3 (2015): 235–253;Tischcomputer. In:kuno.de
  11. Wobbe Vegter: Cyber Heroes of the past: Camillo Olivetti. 11. März 2009, abgerufen am 6. April 2017 (englisch). 
  12. US Inflation Calculator
  13. Steven Levy:Hackers: Heroes of the Computer Revolution. Doubleday 1984,ISBN 0-385-19195-2
  14. Boris Gröndahl:Hacker. Rotbuch 3000,ISBN 3-434-53506-3
  15. Steve Wozniak:iWoz: Wie ich den Personal Computer erfand und Apple mitgründete. Deutscher Taschenbuchverlag, Oktober 2008,ISBN 978-3-423-34507-1
  16. Der Traum vom einfachen Computer. In:Der Tagesspiegel
  17. Frank Patalong: 30 Jahre IBM-PC: Siegeszug der Wenigkönner. In: spiegel.de. 12. August 2011, abgerufen am 21. August 2016. 
  18. Europas letztes Computerwerk schließt – Fujitsu macht Augsburg dicht. In: derstandard.de. 26. Oktober 2018, abgerufen am 2. Februar 2024. 
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Geschichte_des_Computers&oldid=254366885
Kategorien: