Movatterモバイル変換


[0]ホーム

URL:


Zum Inhalt springen
WikipediaDie freie Enzyklopädie
Suche

Computer

aus Wikipedia, der freien Enzyklopädie
Dieser Artikel erläutert die Grundlagen aller Computer. Zum Typus des derzeit meistverbreiteten Computers siehePersonal Computer. Zur historischen Berufsbezeichnung sieheMenschlicher Computer.
Datenverarbeitungsanlage undElektronische Datenverarbeitungsanlage sind Weiterleitungen auf diesen Artikel. Allgemein zu Grundlagen derDatenverarbeitung bzw.elektronischen Datenverarbeitung siehe jeweils dort.
Versuchsmodell derAnalytical Engine,
rein mechanisch
Zuse Z3, 1941,
mit 2000Relais
ENIAC, 1946,
mitElektronenröhren
DECPDP-7, 1965,
mit hybridenIntegrierten Schaltkreisen
Apple II, 1977
IBM PC, 1981
Notebook (Laptop)MacBook, 2006
IBM Blue Gene, 2007
Summit, 2018

EinComputer (englisch;deutsche Aussprache [kɔmˈpjuːtɐ]) oderRechner ist ein Gerät, das mittelsprogrammierbarerRechenvorschriftenDaten verarbeitet. Dementsprechend werden vereinzelt auch die abstrahierenden beziehungsweise veralteten, synonym gebrauchten BegriffeRechenanlage,Datenverarbeitungsanlage oderelektronische Datenverarbeitungsanlage sowieElektronengehirn verwendet.

Charles Babbage undAda Lovelace (geboreneByron) gelten durch die von Babbage 1837 entworfeneRechenmaschineAnalytical Engine als Vordenker des modernen universell programmierbaren Computers.Konrad Zuse (Z3, 1941 undZ4, 1945) in Berlin,John Presper Eckert undJohn William Mauchly (ENIAC, 1946) bauten die ersten funktionstüchtigen Geräte dieser Art. Bei der Klassifizierung eines Geräts alsuniversell programmierbarer Computer spielt dieTuring-Vollständigkeit eine wesentliche Rolle. Sie ist benannt nach dem englischen MathematikerAlan Turing, der 1936 das logische Modell derTuringmaschine eingeführt hatte.[1][2]

Die frühen Computer wurden auch (Groß-)Rechner genannt; ihre Ein- und Ausgabe der Daten war zunächst auf Zahlen beschränkt. Zwar verstehen sich moderne Computer auf den Umgang mit weiteren Daten, beispielsweise mit Buchstaben und Tönen. Diese Daten werden jedoch innerhalb des Computers in Zahlen umgewandelt und als solche verarbeitet, weshalb ein Computer auch heute eine Rechenmaschine ist.

Mit zunehmender Leistungsfähigkeit eröffneten sich neue Einsatzbereiche. Computer sind heute in allen Bereichen des täglichen Lebens vorzufinden, meistens in spezialisierten Varianten, die auf einen vorliegenden Anwendungszweck zugeschnitten sind. So dienen integrierte Kleinstcomputer (eingebettetes System) zur Steuerung von Alltagsgeräten wieWaschmaschinen undVideorekordern oder zur Münzprüfung in Warenautomaten; in modernenAutomobilen dienen sie beispielsweise zur Anzeige von Fahrdaten und steuern in „Fahrassistenten“ diverse Manöver selbst.

Universelle Computer finden sich inSmartphones undSpielkonsolen.Personal Computer (engl. für persönliche Computer, als Gegensatz zu von vielen genutzten Großrechnern) dienen der Informationsverarbeitung in Wirtschaft und Behörden sowie bei Privatpersonen;Supercomputer werden eingesetzt, um komplexe Vorgänge zu simulieren, z. B. in derKlimaforschung oder für medizinische Berechnungen.

Begriffsgeschichte

Rechner

Der deutsche BegriffRechner ist abgeleitet vom Verbrechnen. Zur Etymologie sieheRechnen#Etymologie.

Computer

Das englische Substantivcomputer ist abgeleitet von dem englischen Verbto compute. Jenes ist abgeleitet von dem lateinischen Verbcomputare, was zusammenrechnen bedeutet.

Der englische Begriffcomputer war ursprünglich eine Berufsbezeichnung für Hilfskräfte, die immer wiederkehrende Berechnungen (z. B. für dieAstronomie, für dieGeodäsie oder für dieBallistik) im Auftrag von Mathematikern ausführten und damit Tabellen wie z. B. eineLogarithmentafel füllten. Dieser Beruf wurde vorwiegend von Frauen ausgeübt.[3]

In der frühenKirchengeschichte erfolgte eine Ablösung desjüdischen Kalenders durch denJulianischen Kalender. Die hieraus resultierenden Berechnungsschwierigkeiten desOsterdatums dauerten bis zum Mittelalter an und waren Gegenstand zahlreicher Publikationen, häufig betitelt mitComputus Ecclesiasticus. Doch finden sich noch weitere Titel, z. B. vonSigismund Suevus 1574, die sich mit arithmetischen Fragestellungen auseinandersetzen. Der früheste Text, in dem das Wort Computer isoliert verwendet wird, stammt von 1613.[4] Der englische AutorRichard Brathwaite schrieb:

“What art thou (O Man) and from whence hadst thou thy beginning? What matter art thou made of, that thou promisest to thy selfe length of daies: or to thy posterity continuance. I have read the truestcomputer of Times, and the best Arithmetician that ever breathed, an he reduceth thy dayes into a short number: The daies of Man are threescore and ten.”

„Was bist du (O Mensch) und woher stammst du? Woraus bist du gemacht, dass du dir selbst versprichst, lange Tage zu leben: oder deinen Nachkommen Fortbestand. Ich habe den wahren Computer aller Zeiten gelesen, und die bestenArithmetiker die jemals atmeten, und er reduzierte deine Tage zu einer kleinen Zahl: Die Lebenszeit des Menschen sind siebzig [Jahre]“

Richard Brathwaite, „The Yong Mans Gleanings“, 1613[5]

Die Bedeutung und der Kontext des Textes sind nicht eindeutig und lassen mehrere Interpretationen zu. Mitcomputer ist wohl ein sehr intelligenter Mann gemeint, allerdings kann im Mittelalter nur Gott die Lebenszeit des Menschen beeinflussen, so dass im zweiten Teil des Zitats auch Gott handeln könnte.The daies of Man are threescore and ten ist ein Zitat ausPsalm 90,10 KJV, der in derEinheitsübersetzung mit „Der ewige Gott – der vergängliche Mensch“ überschrieben ist.[5]

In der ZeitungThe New York Times tauchte das Wort erstmals am 2. Mai 1892 in einer Kleinanzeige der United States Navy mit dem TitelA Computer Wanted‚Ein Rechner gesucht‘ auf, in der Kenntnisse inAlgebra,Geometrie,Trigonometrie und Astronomie vorausgesetzt worden sind.[6]

An derUniversity of Pennsylvania in Philadelphia wurden im Auftrag der United States Army ballistische Tabellen berechnet. Das Ergebnis waren Bücher für die Artillerie, die für unterschiedliche Geschütze Flugbahnen unterschiedlicher Geschosse vorhersagten. Diese Berechnungen erfolgten größtenteils von Hand. Die einzige Hilfe war eineTabelliermaschine, die zu multiplizieren und zu dividieren vermochte. Die Angestellten, die dort rechneten, wurden „computer“ (im Sinne einesmenschlichen Computers) genannt.[7][8] Erstmals wurde der Begriff 1946 bei der dort entwickelten elektronischen RechenanlageElectronic Numerical Integrator and Computer (ENIAC) für ein technisches Gerät verwendet. Seit 1962 ist der Begriff in Deutschland belegt.[9]

Grundlagen

Grundsätzlich unterscheiden sich zwei Bauweisen: Ein Rechner ist einDigitalrechner, wenn er mitdigitalen Geräteeinheiten digitale Daten verarbeitet (also Zahlen und Textzeichen); er ist einAnalogrechner, wenn er mitanalogen Geräteeinheitenanaloge Daten verarbeitet (also kontinuierlich verlaufende elektrische Messgrößen wieSpannung oderStrom).

Heute werden fast ausschließlich Digitalrechner eingesetzt. Diese folgen gemeinsamen Grundprinzipien, mit denen ihre freie Programmierung ermöglicht wird. Bei einem Digitalrechner werden dabei zwei grundsätzliche Bestandteile unterschieden: DieHardware, die aus den elektronischen, physisch anfassbaren Teilen des Computers gebildet wird, sowie dieSoftware, die dieProgrammierung des Computers beschreibt.

Ein Digitalrechner besteht zunächst nur aus Hardware. Die Hardware stellt erstens einenSpeicher bereit, in demDaten portionsweise wie auf den nummerierten Seiten eines Buches gespeichert und jederzeit zur Verarbeitung oder Ausgabe abgerufen werden können. Zweitens verfügt das Rechenwerk der Hardware über grundlegende Bausteine für eine freie Programmierung, mit denen jede beliebige Verarbeitungslogik für Daten dargestellt werden kann: Diese Bausteine sind im Prinzip dieBerechnung, derVergleich und derbedingteSprung. Ein Digitalrechner kann beispielsweise zwei Zahlen addieren, das Ergebnis mit einer dritten Zahl vergleichen und dann abhängig vom Ergebnis entweder an der einen oder der anderen Stelle des Programms fortfahren. In derInformatik wird dieses Modell theoretisch durch die eingangs erwähnteTuring-Maschine abgebildet; die Turing-Maschine stellt die grundsätzlichen Überlegungen zurBerechenbarkeit dar.

Erst durch eine Software wird der Digitalcomputer jedoch nützlich. Jede Software ist im Prinzip eine definierte, funktionale Anordnung der oben geschilderten Bausteine Berechnung, Vergleich und bedingter Sprung, wobei die Bausteine beliebig oft verwendet werden können. Diese Anordnung der Bausteine, die alsProgramm bezeichnet wird, wird in Form von Daten im Speicher des Computers abgelegt. Von dort kann sie von der Hardware ausgelesen und abgearbeitet werden. Dieses Funktionsprinzip der Digitalcomputer hat sich seit seinen Ursprüngen in der Mitte des 20. Jahrhunderts nicht wesentlich verändert, wenngleich die Details der Technologie erheblich verbessert wurden.

Analogrechner funktionieren nach einem anderen Prinzip. Bei ihnen ersetzen analoge Bauelemente (Verstärker,Kondensatoren) die Logikprogrammierung. Analogrechner wurden früher häufiger zur Simulation von Regelvorgängen eingesetzt (siehe:Regelungstechnik), sind heute aber fast vollständig vonDigitalcomputern abgelöst worden. In einer Übergangszeit gab es auchHybridrechner, die einen Analog- mit einem digitalen Computer kombinierten.

Mögliche Einsatzmöglichkeiten für Computer sind:

  • Mediengestaltung (Bild- und Textverarbeitung)
  • Verwaltungs- und Archivierungsanwendungen
  • Steuerung von Maschinen und Abläufen (Drucker, Produktion in der Industrie durch z. B. Roboter,eingebettete Systeme)
  • Berechnungen und Simulationen (z. B.BOINC)
  • Medienwiedergabe (Internet, Fernsehen, Videos, Unterhaltungsanwendungen wie Computerspiele, Lernsoftware)
  • Kommunikation (Chat,E-Mail,soziale Netzwerke)
  • Softwareentwicklung

Hardwarearchitektur

Das heute allgemein angewandte Prinzip, das nach seiner Beschreibung durch John von Neumann von1946 alsVon-Neumann-Architektur bezeichnet wird, definiert für einen Computer fünf Hauptkomponenten:

In den heutigen Computern sind die ALU und die Steuereinheit meistens zu einem Baustein verschmolzen, der so genanntenCPU (Central Processing Unit, zentralerProzessor).

Der Speicher ist eine Anzahl von durchnummerierten, adressierbaren „Zellen“; jede von ihnen kann ein einzelnes Stück Information aufnehmen. Diese Information wird alsBinärzahl, also eine Abfolge von ja/nein-Informationen im Sinne von Einsen und Nullen, in der Speicherzelle abgelegt.

Bezüglich des Speicherwerks ist eine wesentliche Designentscheidung der Von-Neumann-Architektur, dass sich Programm und Daten einen Speicherbereich teilen (dabei belegen die Daten in aller Regel den unteren und die Programme den oberen Speicherbereich). Demgegenüber stehen in derHarvard-Architektur Daten und Programmen eigene (physikalisch getrennte) Speicherbereiche zur Verfügung. Der Zugriff auf die Speicherbereiche kann parallel realisiert werden, was zu Geschwindigkeitsvorteilen führt. Aus diesem Grund werdendigitale Signalprozessoren häufig in Harvard-Architektur ausgeführt. Weiterhin können Daten-Schreiboperationen in der Harvard-Architektur keine Programme überschreiben (Informationssicherheit).

In der Von-Neumann-Architektur ist das Steuerwerk für die Speicherverwaltung in Form von Lese- und Schreibzugriffen zuständig.

Die ALU hat die Aufgabe, Werte aus Speicherzellen zu kombinieren. Sie bekommt die Werte von der Steuereinheit geliefert, verrechnet sie (addiert beispielsweise zwei Zahlen) und gibt den Wert an die Steuereinheit zurück, die den Wert dann für einen Vergleich verwenden oder in eine andere Speicherzelle schreiben kann.

Die Ein-/Ausgabeeinheiten schließlich sind dafür zuständig, die initialen Programme in die Speicherzellen einzugeben und dem Benutzer die Ergebnisse der Berechnung anzuzeigen.

Softwarearchitektur

DieVon-Neumann-Architektur ist gewissermaßen die unterste Ebene des Funktionsprinzips eines Computers oberhalb der elektrophysikalischen Vorgänge in den Leiterbahnen. Die ersten Computer wurden auch tatsächlich so programmiert, dass man die Nummern von Befehlen und von bestimmten Speicherzellen so, wie es das Programm erforderte, nacheinander in die einzelnen Speicherzellen schrieb. Um diesen Aufwand zu reduzieren, wurdenProgrammiersprachen entwickelt. Diese generieren die Zahlen innerhalb der Speicherzellen, die der Computer letztlich als Programm abarbeitet, aus Textbefehlen heraus automatisch, die auch für den Programmierer einen semantisch verständlichen Inhalt darstellen (z. B. GOTO für den „unbedingten Sprung“).

Später wurden bestimmte sich wiederholende Prozeduren in so genanntenBibliotheken zusammengefasst, um nicht jedes Mal das Rad neu erfinden zu müssen, z. B.: das Interpretieren einer gedrückten Tastaturtaste als Buchstabe „A“ und damit als Zahl „65“ (imASCII-Code). Die Bibliotheken wurden in übergeordneten Bibliotheken gebündelt, welche Unterfunktionen zu komplexen Operationen verknüpfen (Beispiel: die Anzeige eines Buchstabens „A“, bestehend aus 20 einzelnen schwarzen und 50 einzelnen weißen Punkten auf dem Bildschirm, nachdem der Benutzer die Taste „A“ gedrückt hat).

In einem modernen Computer arbeiten sehr viele dieser Programmebenen über- bzw. untereinander. Komplexere Aufgaben werden in Unteraufgaben zerlegt, die von anderen Programmierern bereits bearbeitet wurden, die wiederum auf die Vorarbeit weiterer Programmierer aufbauen, deren Bibliotheken sie verwenden. Auf der untersten Ebene findet sich aber immer der so genannteMaschinencode – jene Abfolge von Zahlen, mit der der Computer auch tatsächlich gesteuert wird.

Computersystem

AlsComputersystem bezeichnet man:

  • einNetzwerk oder einenVerbund aus mehreren Computern, die individuell gesteuert werden und auf gemeinsam genutzte Daten und Geräte zugreifen können;
  • die einen einzelnen voll funktionstüchtigen Rechner in ihrem Zusammenspiel bedingende Gesamtheit von externen und internen Komponenten, d. h.Hardware,Software wie auch angeschlossenenPeripheriegeräten;
  • ein System vonProgrammen zur Steuerung und Überwachung von Computern.[10]

Geschichte

Hauptartikel:Geschichte des Computers
Siehe auch:Geschichte der Informatik

Arten

Basierend auf Arbeitsweise des Computers

Basierend auf der Größe

Zukunftsperspektiven

Auch in wenig entwickelten Ländern immer wichtiger: Computerkurs inOsttimor

Zukünftige Entwicklungen bestehen voraussichtlich aus der möglichen Nutzung biologischer Systeme (Biocomputer), weiteren Verknüpfungen zwischen biologischer und technischer Informationsverarbeitung, optischer Signalverarbeitung und neuen physikalischen Modellen (Quantencomputer).

Ein Megatrend ist derzeit (2017) die Entwicklungkünstlicher Intelligenz. Hier simuliert man die Vorgänge im menschlichen Gehirn und erschafft so selbstlernende Computer, die nicht mehr wie bislang programmiert werden, sondern mit Daten trainiert werden ähnlich einem Gehirn. Den Zeitpunkt, an dem künstliche Intelligenz die menschliche Intelligenz übertrifft, nennt mantechnologische Singularität. Künstliche Intelligenz wird heute (2017) bereits in vielen Anwendungen, auch alltäglichen, eingesetzt (s.Anwendungen der künstlichen Intelligenz).Hans Moravec bezifferte die Rechenleistung desGehirns auf 100 Teraflops,Raymond Kurzweil auf 10.000 Teraflops. Diese Rechenleistung habenSupercomputer bereits deutlich überschritten. Zum Vergleich liegt eine Grafikkarte für 800 Euro (5/2016) bei einer Leistung von 10 Teraflops.[11] Vier Jahre später (Dezember 2020) besitzen bereits Videospielkonsolen für ca. 500 € vergleichbare Leistung.

Für weitere Entwicklungen und Trends, von denen viele noch den Charakter von Schlagwörtern bzw.Hypes haben, sieheAutonomic Computing (= Rechnerautonomie),Grid Computing,Cloud Computing,Pervasive Computing,ubiquitäres Computing (= Rechnerallgegenwart) undWearable Computing.

Die weltweite Websuche nach dem Begriff „Computer“ nimmt seit Beginn der Statistik 2004 stetig ab. In den zehn Jahren bis 2014 war diese Zugriffszahl auf ein Drittel gefallen.[12]

Zeitleiste

Weltweite Marktanteile der Computerhersteller

Folgende Teile dieses Abschnitts scheinen seit 2018nicht mehr aktuell zu sein:
Tabelle
Bitte hilf uns, die fehlenden Informationen zurecherchieren undeinzufügen.
Wikipedia:WikiProjekt Ereignisse/Vergangenheit/fehlend

Verkaufszahlen und Marktanteile der Computerhersteller nach Angaben des MarktforschungsunternehmensGartner Inc., basierend auf Verkaufszahlen vonDesktop-Computer,Notebooks,Netbooks, aber ohneTabletcomputer, an Endkonsumenten:[13][14][15]

RangHerstellerLandVerkaufszahlen 2017Marktanteil 2017Verkaufszahlen 2011Marktanteil 2011Verkaufszahlen 2010Marktanteil 2010Verkaufszahlen 2009Marktanteil 2009
1.Hewlett-Packard55.179.00021,0 %60.554.72617,2 %62.741.27417,9 %58.942.53019,1 %
2.Lenovo54.669.00020,8 %45.703.86313,0 %38.180.44410,9 %24.735.4048,0 %
3.Dell39.793.00015,1 %42.864.75912,1 %42.119.27212,0 %37.353.77412,1 %
4.Apple18.963.0007,2 %unter Sonstigeunter Sonstigeunter Sonstigeunter Sonstigeunter Sonstigeunter Sonstige
5.Asus17.952.0006,8 %20.768.4655,9 %18.902.7235,4 %unter Sonstigeunter Sonstige
6.Acer-Gruppe17.087.0006,5 %39.415.38111,2 %48.758.54213,9 %39.783.93312,9 %
Toshibaunter Sonstigeunter Sonstigeunter Sonstigeunter Sonstige19.011.7525,4 %15.499.8055,0 %
Sonstige Hersteller59.034.00022,5 %143.499.79240,6 %128.862.14134,5 %132.026.22642,9 %
Insgesamt262.676.000100 %352.806.984100 %350.900.332100 %308.341.673100 %

Bekannte Computerhersteller

Aktuelle Hersteller

Bekannte ehemalige Computerhersteller

Literatur

Geschichte:

  • Edmund Callis Berkeley:Giant Brains or Machines That Think. 7. Auflage. John Wiley & Sons 1949, New York 1963 (die erste populäre Darstellung der EDV, trotz des für moderne Ohren seltsam klingenden Titels sehr seriös und fundiert – relativ einfach antiquarisch und in fast allen Bibliotheken zu finden). 
  • B. V. Bowden (Hrsg.):Faster Than Thought. Pitman, New York 1953 (Nachdruck 1963,ISBN 0-273-31580-3) – eine frühe populäre Darstellung der EDV, gibt den Stand seiner Zeit verständlich und ausführlich wieder; nur mehr antiquarisch und in Bibliotheken zu finden
  • Michael Friedewald:Der Computer als Werkzeug und Medium. Die geistigen und technischen Wurzeln des Personalcomputers. GNT-Verlag, 2000,ISBN 3-928186-47-7. 
  • Simon Head:The New Ruthless Economy. Work and Power in the Digital Age. Oxford UP 2005,ISBN 0-19-517983-8 (der Einsatz des Computers in der Tradition desTaylorismus). 
  • Ute Hoffmann:Computerfrauen. Welchen Anteil hatten Frauen an der Computergeschichte und -arbeit? München 1987,ISBN 3-924346-30-5
  • Loading History. Computergeschichte(n) aus der Schweiz. Museum für Kommunikation, Bern 2001,ISBN 3-0340-0540-7, Ausstellungskatalog zu einer Sonderausstellung mit Schweizer Schwerpunkt, aber für sich alleine lesbar
  • Michael Homberg:Digitale Unabhängigkeit: Indiens Weg ins Computerzeitalter – Eine internationale Geschichte (Geschichte der Gegenwart), Wallstein, Göttingen 2022
  • HNF Heinz Nixdorf Forum Museumsführer. Paderborn 2000,ISBN 3-9805757-2-1 – Museumsführer des nach eigener Darstellung weltgrößten Computermuseums
  • Karl Weinhart:Informatik und Automatik. Führer durch die Ausstellungen. Deutsches Museum, München 1990,ISBN 3-924183-14-7 – Katalog zu den permanenten Ausstellungen desDeutschen Museums zum Thema; vor allem als ergänzende Literatur zum Ausstellungsbesuch empfohlen
  • H. R. Wieland:Computergeschichte(n) – nicht nur für Geeks: Von Antikythera zur Cloud. Galileo Computing, 2010,ISBN 978-3-8362-1527-5
  • Christian Wurster:Computers. Eine illustrierte Geschichte. Taschen, 2002,ISBN 3-8228-5729-7 (eine vom Text her leider nicht sehr exakte Geschichte der EDV mit einzelnen Fehlern, die aber durch die Gastbeiträge einzelner Persönlichkeiten der Computergeschichte und durch die zahlreichen Fotos ihren Wert hat). 
  • Anfre Reifenrath:Geschichte der Simulation, Humboldt-Universität, Dissertation, Berlin 2000. Geschichte des Computers von den Anfängen bis zur Gegenwart unter besonderer Berücksichtigung des Themas der Visualisierung und Simulation durch den Computer.
  • Claude E. Shannon:A Symbolic Analysis of Relay and Switching Circuits. In:Transactions of the American Institute of Electrical Engineers. Vol. 57, 1938,S. 713–723. 

Weblinks

Commons: Computer – Sammlung von Bildern, Videos und Audiodateien
Wiktionary: Computer – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
Wikiquote: Computer – Zitate
 Wikinews: Portal:Computer – in den Nachrichten
Wikibooks: Computergeschichte – Lern- und Lehrmaterialien

Computermuseen

Einzelnachweise

  1. Alan Turing:On Computable Numbers, with an Application to the Entscheidungsproblem. In:Proceedings of the London Mathematical Society. Band s2-42,Nr. 1, 1937,S. 230–265,doi:10.1112/plms/s2-42.1.230 (englisch,cs.virginia.edu [PDF]). 
  2. Alan Turing:On Computable Numbers, with an Application to the Entscheidungsproblem. A Correction. In:Proceedings of the London Mathematical Society. Band s2-43,Nr. 1, 1938,S. 544–546,doi:10.1112/plms/s2-42.1.230 (englisch,dna.caltech.edu [PDF]). 
  3. Frauen regierten einst die Informatik – dann war Geld im Spiel. Abgerufen am 3. Juli 2021 (österreichisches Deutsch). 
  4. DasOxford English Dictionary (Third ed.) von 2008 sagt in dem Artikel zu dem Lemma „computer“: “1613 ‘R. B.’ Yong Mans Gleanings 1, I haue read the truest computer of Times, and the best Arithmetician that euer breathed, and he reduceth thy dayes into a short number.
  5. abZitiert in Jürgen Wolf, Computergeschichte(n), Seite 32, Rheinwerk Computing, Bonn 2021,ISBN 978-3-8362-7777-8
  6. Nautical Almanac Office of the United States Naval Observatory
  7. Jenna Anderson: 'HER'story of the Tech Industry: When Women Were Computers. In: Westcoast Women in Engineering, Science and Technology Blog. Simon Fraser University, 13. Januar 2017, abgerufen am 18. Mai 2020 (englisch). 
  8. Roland Schulz: Als Computer weiblich waren. In: Süddeutsche Zeitung. 17. Oktober 2015, abgerufen am 24. Mai 2020. 
  9. Computer. In: wissen.de. Abgerufen am 27. Juli 2020. 
  10. Computersystem. In:Digitales Wörterbuch der deutschen Sprache.
  11. heise.de: Grafikkarte Nvidia GeForce GTX 1080: Monster-Leistung für fast 800 Euro: 8,87 TFlops.
  12. Google Trends (Memento vom 24. Mai 2014 imInternet Archive) Statistik, zuletzt abgerufen am 23. Mai 2014
  13. Gartner Says Worldwide PC Shipments in Fourth Quarter of 2010 Grew 3.1 Percent; Year-End Shipments Increased 13.8 Percent (Memento vom 22. Januar 2011 imInternet Archive)
  14. Gartner Says Worldwide PC Shipments in Fourth Quarter of 2011 Declined 1.4 Percent; Year-End Shipments Increased 0.5 Percent (Memento vom 16. Februar 2012 imInternet Archive)
  15. Gartner Says Worldwide PC Shipments Declined 4.3 Percent in 4Q18 and 1.3 Percent for the Year. Abgerufen am 4. März 2019 (englisch). 
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Computer&oldid=262651729
Kategorien:

[8]ページ先頭

©2009-2026 Movatter.jp