2. Aufbau und Funktionsweise von Computersystemen Flashcards
(31 cards)
Geschichte der Computersysteme in der Antike
Verwendung mechanischer Rechenhilfen, z.B. Abakus, die zur Unterstützung von Rechenoperationen genutzt wurde
Anfang 20. Jahrhundert
Computer basierten auf Lochkarten aus Karton. Informationen wurden durch Löcher in definierten Formaten gespeichert. Die Computer konnten die Informationen auf den Lochkarten automatisiert auslesen und verarbeiten.
Geschichte der Computersysteme: Jahr 1941
Entwicklung des ersten elektronischen Computers, Z3 von Konrad Zuse. Dieser Computer hatte Vielzahl einzelner Relais (elektromagnetische Schalter), die sowohl als Speicher als auch für die Ausführung von Rechenoperationen genutzt wurden.
Geschichte der Computersysteme: 1940er Jahre
Einführung von Elektronenröhren zur effizienteren Speicherung und Verarbeitung von Informationen. Computer dieser Zeit waren ineffizient und sehr groß (mehrere 10 Meter).
Geschichte der Computersysteme: 1960er Jahre
Elektronenröhren werden zunehmend durch Transistoren ersetzt. Transistoren nutzen Halbleitermaterialien (Germanium, Silicium) und sind kleiner sowie energieeffizienter. Transistoren sind die Grundlage für heutige Computer.
Meilenstein in der Geschichte der Computersysteme
Einführung einer dünnen Halbleiterplatte (Schaltkreis), auf der Milliarden von Transistoren untergebracht sind.
Was ist Moore’s Law?
Moore’s Law beschreibt das empirische Phänomen, dass sich die Anzahl von Transistoren auf einem integrierten Schaltkreis ungefähr alle zwei Jahre verdoppelt. (1965)
Beispiel: M4 Chip im iPad / MacBook hat 28 Milliarden Transistoren.
Moore’s Law Folgen
- Computer immer leistungsfähiger und gleichzeitig kostengünstiger
- Zunehmende Digitalisierung von Wirtschaft und Alltag
- Exponentielle Zunahme der Leistungsfähigkeit durch mehr Transistoren auf kleinen Halbleiterplatten
Moore’s Law Herausforderungen
- Anzeichen für das Ende von Moore’s Law, da die Verkleinerung an physikalische Grenzen stößt
- weitere Miniaturisierung verursacht unverhältnismäßig hohe Kosten
Moore’s Law Zukunftsperspektiven
- neuartige Technologie wie Quantencomputer könnten weiterhin eine Steigerung der Rechenleistung ermöglichen
- mögliche Fortzsetung von Moore’s Law durch innovative Ansätze in der Forschung
Binärsystem und Computer
- Zahlensystem mit der Basis 2
- nur zwei Zustände: AN 1 / AUS 0
- Funktionsweise: Position einer Zahl bestimmt ihren Wert (Stellenwert- oder Positionssysteme)
Bits & Bytes
eine Stelle im binären Zahlensystem wird als Bit bezeichnet. 8 Bits = 1 Byte;
1 Byte = kann Werte von 0 bis 255 darstellen
Binärzahlen in Dezimalzahlen
Man fängt rechts bei 1 an, dann wird das Ergebnis immer verdoppelt (1,2,4,8,16 usw.), dort wo 0 ist wird nicht multipliziert.
- siehe Zettel S.2
Dezimalzahlen in Binärzahlen
man nimmt die größte 2er Potenz, die in diese Zahl passt (bei der Zahl 158 passt 128), dann subtrahiert man den Wert bis man auf 0 kommt.
- siehe Zettel S.2
Negative Binärzahlen
Beispiel: 0011 ist 3, um daraus -3 zu machen, muss man erstmal aus 0 = 1 machen und aus 1 = 0 machen. Dann dazu 0001 addieren.
- siehe Zettel S.3
Was ist ein Hexadezimalsystem?
hat die Basis 16 und wird verwendet, um längere Bitfolgen übersichtlicher darzustellen. Ergänzt Ziffern 0 bis 9 mit Buchstaben A-F, wodurch 16 Symbole entstehen. Beispiel: HTML-Farbcodes.
Hexadezimalzahlen in Dezimalzahlen
man fängt von rechts mit 16^0 an, und so erhöht man immer die Potenz um 1 (16^1, 16^2 usw.), dann addiert man alles.
- siehe Zettel S. 3
Dezimalzahlen in Hexadezimalzahlen
man nimmt die größte Potenz von 16 die in einer Zahl passt (bei der Zahl 3171 ist das 16^2 also 256).
- siehe Zettel S.3
Was ist ASCII?
ASCII (American Standard for Information Interchange) ist ein Datenformat, das 1963 entwickelt wurde und verwendet 7 Bits zur Darstellung lateinischer Buchstaben, Ziffern und Sonderzeichen. Erhält jedoch keine Zeichen für viele Sprachen, z.B. ä für Deutsch.
Unicode-Datenformat
- 1991 als Versuch gestartet, einen weltweiten Standard zu schaffen
- Beginnt mit 2 Bytes (max. 65.336 Zeichen), was schnell als unzureichend erkannt wurde
- Erweiterungen UTF-8 (1 Byte) und UTF-16 (2 Byte) nutzen jeweils 4 Bytes und können alle definierten Unicode-Zeichen darstellen
- Es umfasst Zeichen fast aller bekannten Sprachen sowie besondere Zeichen wie Emojis
Was sind Logikgatter?
Eine Art “Schalter”, der Eingaben (0 und 1) nimmt und sie nach bestimmten Regeln in Ausgaben (0 und 1) umwandelt.
Sie bilden Grundlage für die Basisfunktionen eines Computers: Ausführung von Rechenoperationen und Speicherung von Daten.
Wie führt ein Computer mit elektronischen Schaltungen Rechenoperationen aus?
Mithilfe von Logikgattern.
Welche Logikgatter gibt es und wie funktionieren sie?
AND: gibt nur dann 1 aus, wenn beide Inputs 1 sind, sonst ist 0
OR: gibt 1 aus, wenn einer oder beide der Inputs 1 sind
XOR: gibt nur dann 1 aus, wenn einer der Inputs 1 ist
NOT: kehrt das Eingangssignal um, NOT (0) ergibt 1 und NOT (1) ergibt 0
- siehe Zettel S.5
Negierte Varianten von Logikgattern
NAND: gibt 0 aus, wenn beide Inputs 1 sind
NOR: gibt 0 aus, wenn einer Oder beide der Inputs 1 sind
XNOR: gibt 1 aus, wenn beide Inputs gleich sind (beide 0 oder beide 1)
- siehe Zettel S.5