Startseite Index

Computer

Achtung, öffnet in einem neuen Fenster. PDFDruckenE-Mail

engl.: to compute = berechnen, schätzen, veranschlagen

Der Begriff 'Computer' stammt aus dem Engl.; das Verb to compute bedeutet 'berechnen, schätzen, veranschlagen' und geht auf das lat. computus zurück, das in der Spätantike und im Mittelalter vor allem als Bezeichnung für die astronomische Berechnung kirchlicher Feiertage verwendet wurde. Große Berechnungen wurden in früher Zeit u.a. mit einem elaborierten Fingersystem durchgeführt; auf diese Grundfunktion des Rechnens verweist auch der Begriff digital [vgl. lat. digitus = der Finger].

Der Computer ist also grundsätzlich eine Rechenmaschine, die programmgesteuert große, komplizierte Berechnungen durchführt. Und so trugen Computer in den Anfangsjahren des 20. Jhs. zuweilen auch die Bezeichnung Calculator.

Ein Computer setzt sich aus mehreren Bauteilen zusammen: In einer zentralen Recheneinheit (CPU, central processing unit) werden die Berechnungen ausgeführt. Ein Speicher (Festplatte, CD-ROM, Diskette oder sonstiges) hält Ergebnisse und Zwischenergebnisse der Berechnungen fest. Ein Eingabegerät (Tastatur, Maus, Lochkarten usw.) und ein Ausgabegerät (Monitor, Drucker) ermöglichen die Handhabung bzw. Kontrolle und Herstellung der 'Produkte' (Texte, Grafiken …). Diese materiellen Bausteine eines Computers werden Hardware genannt. Mit Software hingegen werden die Programme bezeichnet, die das Zusammenspiel der Hardwarekomponenten steuern wie z.B. Betriebssysteme (Windows, Linux, MacOS, Unix usw.) und sonstige Anwendungsprogramme (Textverarbeitung, Tabellenkalkulation, Grafik, Spiele …).

Im Gegensatz zu den festgelegten Arbeitsroutinen verschalteter Mikrochips (=Mikrocomputer, z.B. in Haushaltsgeräten) sind die Berechnungsabläufe eines Computers frei programmierbar.

Die Entwicklung des Computers im 20. Jh. basiert auf einer langen Geschichte programmierter Rechenhilfen und -maschinen und der Manipulation von großen Zahlenkolonnen. So hat bereits Leibniz 1673 - in der Folge von Schickard (1623) und Pascal (1642) - eine Rechenmaschine konstruiert. Diese basiert ihrerseits auf den Vorarbeiten Nepers, der bereits mit komplexen Rechenstäben arbeitete: Eine Seite dieser Rechenstäbe war komplett mit Nullen angefüllt und ermöglichte sowohl ein mechanisches Ausführen der Grundrechenarten (also inkl. Multiplizieren und Dividieren) als auch - unter Zuhilfenahme eines Zusatzstabes - das Ziehen von Quadrat- und Kubikwurzeln. Der Null, dem Mittelalter als eigenständige Zahl nahezu unbekannt, kommt bei der Entwicklung der Rechenmaschinen eine wichtige Bedeutung zu, und zwar in der Kombination von 0 und 1 im binären System, das ebenfalls von Leibniz publik gemacht worden ist.

Im 20. Jh. entstanden dann die ersten durch Programme gesteuerten Rechenmaschinen: 1904 der sogenannte 'analytical engine', ein Nachbau des durch Charles Babbage bereits 1840 vor- aber nie fertiggestellten Entwurfs; 1936 stellte Konrad Zuse den nach dem binäreren System arbeitenden Z1 vor. Obwohl das Modell Z1 (es folgten noch Z2-Z4) niemals richtig funktionierte bzw. nicht vollelektronisch arbeitete, gilt er doch als der erste frei programmierbare Computer der Welt. In den folgenden Kriegs- und Nachkriegsjahrzehnten wurde die Entwicklung der Großrechner vor allem in Forschungs- und Militäreinrichtungen voran getrieben, bis Anfang der 1980er Jahre sowohl IBM als auch Apple Heimcomputer auf den Markt brachten und für den Privatanwender erschwinglich machten. Seitdem unterscheidet man zwischen einem PC (Personal Computer, einem aus dem Hause IBM stammender Computer mit einer Intel-kompatiblen CPU) und einem Macintosh bzw. Mac der Firma Apple mit einem Power-PC-Chip. Mittlerweile werden nicht nur große Bereiche des Alltagslebens und der Arbeitswelt durch Computer beeinflusst bzw. geregelt; durch den Netzverbund von Computern zum Internet sind auch die Kommunikationsverhältnisse weltweit auf ein neues Niveau gelangt.

Der Computer als Medium scheint das Buch, das Leitmedium der Neuzeit, in seiner einzigartigen Stellung abzulösen: "Computer und elektronische Medien befördern das Ende einer Welt, die Marshall McLuhan Gutenberg-Galaxis genannt hat." (N. Bolz: Am Ende der Gutenberg-Galaxis, S. 7) Auch wenn man dieser These nicht uneingeschränkt zustimmen kann, so gehen mit dem Vormarsch des Computers Veränderungen in den Kommunikationsverhältnissen einher, deren Tragweite noch nicht überschaut werden kann.

©JF

Sekundärliteratur

  • N. Bolz: Am Ende der Gutenberg-Galaxis. Die neuen Kommunikationsverhältnisse, München 1993.
  • A. Borst: Computus. Zeit und Zahl in der Geschichte Europas, durchges. und erw. Aufl. München 1999.
  • computergeschichte.de. Online unter: http://www.computergeschichte.de [letzter Zugriff: 25.03.04]
  • J. Fröhlich: Meßkram oder 'Die Einwanderung der Null in den modernen Schaltkreislauf über das spätmittelalterliche Rechnungsbuch', in: U. Schmitz / H. Wenzel (Hg.): Wissen und neue Medien. Bilder und Zeichen von 800 bis 2000, Berlin 2003, S. 135-158.
  • Th. Kind: Art. Computer, in: H. Schanze (Hg.): Metzler-Lexikon Medientheorie - Medienwissenschaft. Unter Mitarbeit von S. Pütz, Stuttgart u.a. 2002, S. 55-57.
  • The Computer History Museum. Online unter: http://www.computerhistory.org [letzter Zugriff: 25.03.04]