Computersystem

Definition - Was bedeutet Computersystem?

Ein Computersystem ist ein grundlegendes, vollständiges und funktionales Hardware- und Software-Setup mit allem, was zur Implementierung der Computerleistung erforderlich ist.

Das ist die grundlegende Arbeitsdefinition des Computersystems, wie wir es kennen, aber es hat in den letzten Jahrzehnten viele formale Änderungen erfahren.

Technische.me erklärt das Computersystem

Wenn diese Definition auf den ersten Blick abstrakt klingt, gibt es einige Kernaspekte des Rechnens, die ein Computersystem erleichtern muss.

Erstens gibt es die Möglichkeit, Benutzereingaben zu empfangen. Dann gibt es die Möglichkeit, Daten zu verarbeiten. Es besteht auch die Möglichkeit, Informationen für die Speicherung und Ausgabe zu erstellen.

Das ist ein Computersystem auf den Punkt gebracht, aber um zu verstehen, was ein Computersystem ist, muss man auch auf die Zeitachse der Computerentwicklung über die Jahrzehnte zurückblicken.

Computersysteme: Frühe Modelle

Um die Geschichte eines Computersystems zu betrachten, müssen Sie bis zur Differenzialmaschine von Charles Babbage zurückgehen. Dieser Computer (der eigentlich nie vollständig gebaut wurde) war älter als die Mainframes und Großcomputer des frühen 20. Jahrhunderts. Die Von Neumann-Maschine und ihre Art, als sperrige und monolithische Computer, tauchten erstmals in der menschlichen Welt auf.

Der Personal Computer

Dann wurde der Personal Computer oder Desktop-Computer geboren. Dieses Modell bestand lange Zeit, als die Computerbox oder -hülle die zentrale Hardware war und Peripheriegeräte wie Monitor, Tastatur und Maus sowie Software verwendete, die über Disketten an den Computer weitergeleitet wurde.

Betriebssystem

Das Betriebssystem entwickelte sich früh zu einer Konvention, bei der das gesamte Computersystem in der Box unterstützt und sichergestellt wurde, dass Benutzer eine universelle Möglichkeit hatten, mit der auf dieser Hardware ausgeführten Software umzugehen.

Zusätzlich zum Betriebssystem lernten wir dann Dateien, Anwendungen und ausführbare Dateien kennen, die tatsächlichen Softwareprodukte, die für die Ausführung auf einem bestimmten Betriebssystem geliefert wurden.

Laptops

Im Laufe der Zeit, als Moores Gesetz weiterhin galt und die Hardware kleiner wurde, wurde der Laptop geboren. Dann kam das Mobiltelefon, und schließlich wurde das Peripherie-Schnittstellenmodell mit angeschlossener Maus, Tastatur und Monitor durch ein einziges Touchscreen-Gerät ersetzt, sodass keine Peripheriegeräte benötigt wurden.

The Cloud

Gleichzeitig wurde auch ein wichtiger Software-Fortschritt angewendet. Cloud und Software als Speichermodelle führten dazu, dass Software digital über das Internet bereitgestellt wurde, anstatt auf physischen Medien wie Disketten und späteren CDs verkauft zu werden. "Out of the Box" -Software wurde etwas veraltet, insbesondere in der Unternehmens-IT.

Virtualisierung

In jüngerer Zeit hat die Virtualisierung unsere Einstellung zu Hardware- und Software-Setups revolutioniert. Ein modernes Computersystem besteht möglicherweise nicht aus einer Hardware selbst, sondern aus einem virtualisierten Computersystem oder einer virtuellen Maschine, die zum Betrieb Ressourcen aus einem Grid verwendet.

Was wir als Computersystem betrachten, hat sich in der Form geändert, aber nicht in wesentlichen Punkten. Es verfügt immer noch über all diese Kernfunktionen: Empfangen von Benutzereingaben, Verarbeiten von Daten und Speichern von Informationen - dies geschieht nur auf viel elegantere und leistungsfähigere Weise.

Während sich die Schnittstelle weiterentwickelt und wir uns einer neuen Welt der KI und des maschinellen Lernens nähern, sehen wir, was Power-Computing-Systeme haben können.