Vorlesungen über Computer. Zusammensetzung und Konstruktionsprinzipien von Computern. Strukturdiagramm eines PCs

4. Trends in der Entwicklung der Computertechnologie

Experten zufolge im ersten Jahrzehnt des 21. Jahrhunderts. Die Bedeutung von Software wird zunehmen, die Probleme ihrer Kompatibilität und Sicherheit werden zunehmen.

Unter den Betriebssystemen werden Linux- und Windows-Systeme weiterentwickelt. Aus Sicht des Endnutzers dürfte es in den kommenden Jahren zu großen Veränderungen in der Art und Weise kommen, wie er mit dem Computer kommuniziert. Erstens wird die grafische Dateneingabe in größerem Umfang eingesetzt, auch im Modus der automatischen Handschrifterkennung. Zweitens wird die Spracheingabe genutzt – zunächst zur Steuerung von Befehlen, dann wird auch die automatische Sprachdigitalisierung beherrscht. Zur Lösung der oben genannten Probleme werden entsprechende externe Geräte entwickelt.

Arbeiten im Bereich der intelligenten Verarbeitung unstrukturierter Daten, vor allem Texte, dann Grafiken, Ton und Video, werden in Zukunft von großer Bedeutung sein.

Eine der vielversprechendsten Richtungen in der Entwicklung der Computertechnologie ist die Umsetzung des Konzepts des Network Computing, bei dem die Idee genutzt wird, kostenlose Computerressourcen für die Datenverarbeitung zu gewinnen. Dieses Konzept heißt Grid und umfasst fünf Kernpunkte:

Anwendung offener Standards;

Vereinheitlichung heterogener Systeme;

Daten teilen;

Dynamische Ressourcenzuteilung;

Vereinheitlichung der Computernetzwerke vieler Unternehmen und Organisationen.

Die Entwicklung von Computern wird dem Weg der Schaffung optoelektronischer Computer mit massiver Parallelität und neuronaler Struktur folgen, bei denen es sich um ein verteiltes Netzwerk einer großen Anzahl (Zehntausende) einfacher Mikroprozessoren handelt, die die Architektur neuronaler biologischer Systeme simulieren.

Tragbare Personalcomputer mit drahtloser Verbindung zum globalen Internet werden weiterentwickelt.

Es ist zu beachten, dass die Entwicklung der Computertechnologie vollständig von den Trends in der Entwicklung des Weltwirtschaftssystems abhängt.

Vorlesung Nr. 6 Die Geschichte der Entwicklung der Computertechnologie

Vorlesung Nr. 3 Generationen und Klassifizierung von Computern

1. Generationen von Computern

Es gibt fünf Generationen von Computern.

Erste Generation(1945-1954) ist geprägt von der Entstehung der Vakuumröhrentechnik. Dies ist die Ära der Entstehung der Computertechnologie. Die meisten Maschinen der ersten Generation waren Versuchsgeräte und wurden geschaffen, um bestimmte theoretische Positionen zu testen. Das Gewicht und die Größe dieser Computer erforderten oft separate Gebäude.

Als Begründer der Informatik gelten Claude Shannon – der Schöpfer der Informationstheorie, Alan Turing – ein Mathematiker, der die Theorie von Programmen und Algorithmen entwickelte, und John von Neumann – der Autor des Designs von Computergeräten, das bis heute zugrunde liegt die meisten Computer. In den gleichen Jahren entstand eine weitere neue Wissenschaft mit Bezug zur Informatik – die Kybernetik – die Wissenschaft vom Management als einem der wichtigsten Informationsprozesse. Der Begründer der Kybernetik ist der amerikanische Mathematiker Norbert Wiener.

In der zweiten Generation(1955-1964) wurden Transistoren anstelle von Vakuumröhren verwendet und Magnetkerne und -trommeln, die Prototypen moderner Festplatten, wurden als Speichergeräte verwendet. All dies ermöglichte es, die Größe und die Kosten der Computer zu reduzieren, die dann zunächst für den Verkauf hergestellt wurden.

Die wichtigsten Errungenschaften dieser Ära liegen jedoch im Bereich der Programme. In der zweiten Generation erschien erstmals das, was man heute als Betriebssystem bezeichnet. Gleichzeitig wurden die ersten Hochsprachen entwickelt – Fortran, Algol, Kobol. Diese beiden wichtigen Verbesserungen haben das Schreiben von Programmen für Computer erheblich vereinfacht und beschleunigt.

Dies erweiterte den Anwendungsbereich von Computern. Mittlerweile konnten sich nicht nur Wissenschaftler auf den Zugang zu Computern verlassen, da Computer auch für die Planung und Verwaltung eingesetzt wurden, und einige große Firmen begannen sogar damit, ihre Buchhaltung zu computerisieren, was diesen Prozess um zwanzig Jahre vorwegnahm.

IN dritte Generation(1965-1974) wurden erstmals integrierte Schaltkreise verwendet – ganze Geräte und Knoten aus Dutzenden und Hunderten von Transistoren, die auf einem einzigen Halbleiterkristall (Mikroschaltung) hergestellt wurden. Gleichzeitig erschien der Halbleiterspeicher, der noch heute in Personalcomputern als Arbeitsspeicher verwendet wird.

In diesen Jahren nahm die Produktion von Computern einen industriellen Maßstab an. IBM war das erste Unternehmen, das eine Reihe vollständig kompatibler Computer implementierte, vom kleinsten Modell in der Größe eines kleinen Schranks (kleiner wurden sie damals nicht hergestellt) bis hin zu den leistungsstärksten und teuersten Modellen. Am weitesten verbreitet war in diesen Jahren die System/360-Familie von IBM, auf deren Grundlage in der UdSSR die ES-Computerserie entwickelt wurde. Damals in den frühen 1960er Jahren. die ersten Minicomputer erschienen – Computer mit geringem Stromverbrauch, die für kleine Firmen oder Labore erschwinglich waren. Minicomputer waren der erste Schritt auf dem Weg zu Personalcomputern, deren Prototypen erst Mitte der 1970er Jahre auf den Markt kamen.

Inzwischen wuchs die Zahl der Elemente und Verbindungen, die in einen Mikroschaltkreis passen, stetig, und zwar in den 1970er Jahren. Integrierte Schaltkreise enthielten bereits Tausende von Transistoren.

1971 brachte Intel den ersten Mikroprozessor auf den Markt, der für die neu aufkommenden Tischrechner gedacht war. Diese Erfindung sorgte im nächsten Jahrzehnt für eine echte Revolution. Der Mikroprozessor ist die Hauptkomponente des modernen Personalcomputers.

An der Wende der 1960er/70er Jahre. (1969) erschien das erste globale Computernetzwerk ARPA, der Prototyp des modernen Internets. Ebenfalls im Jahr 1969 erschienen gleichzeitig das Betriebssystem Unix und die Programmiersprache C („C“), die einen großen Einfluss auf die Softwarewelt hatten und bis heute ihre dominierende Stellung behalten.

vierte Generation(1975 -1985) zeichnet sich durch eine geringe Anzahl grundlegender Innovationen in der Informatik aus. Der Fortschritt erfolgte hauptsächlich auf dem Weg der Entwicklung bereits Erfundener und Erfundener, vor allem durch die Steigerung der Leistung und Miniaturisierung der Elementbasis und der Computer selbst.

Die wichtigste Neuerung der vierten Generation ist das Erscheinen Anfang der 1980er Jahre. persönliche Computer. Dank ihnen wird die Computertechnologie wirklich massenhaft und allgemein zugänglich. Obwohl Personal- und Minicomputer hinsichtlich der Rechenleistung immer noch hinter soliden Maschinen zurückbleiben, sind die meisten Innovationen wie die grafische Benutzeroberfläche, neue Peripheriegeräte und globale Netzwerke mit der Entstehung und Entwicklung dieser besonderen Technologie verbunden.

Große Computer und Supercomputer entwickeln sich natürlich weiter. Doch mittlerweile dominieren sie die Computerwelt nicht mehr wie früher.

Einige Merkmale der Computertechnologie von vier Generationen sind in aufgeführt

Charakteristisch

Position

Erste

zweite

dritte

vierte

Hauptelement

Elektrische Lampe

Transistor

Integrierter Schaltkreis

Großer integrierter Schaltkreis

Anzahl der Computer auf der Welt, Stk.

Zehntausende

Millionen

Computergröße

Deutlich kleiner

Zehntausende

Mikrocomputer

Leistungsfähige (bedingte) Operationen/ Mit

Mehrere Einheiten

Mehrere Dutzend Einheiten

Mehrere tausend Einheiten

Mehrere Zehntausend Einheiten

Informationsträger

Lochkarte, Lochband

Magnetband

Diskette

Fünfte Generation(1986 bis heute) wird weitgehend durch die Ergebnisse der 1981 veröffentlichten Arbeit des japanischen Komitees für wissenschaftliche Forschung auf dem Gebiet der Computer bestimmt. Dem Projekt zufolge müssen Computer und Rechensysteme der fünften Generation neben hoher Leistung und Zuverlässigkeit bei geringeren Kosten unter Einsatz neuester Technologien folgende qualitativ neue Funktionsanforderungen erfüllen:

    Gewährleistung der Benutzerfreundlichkeit von Computern durch Implementierung von Systemen zur Eingabe/Ausgabe von Informationen per Sprache sowie interaktiver Verarbeitung von Informationen mithilfe natürlicher Sprachen;

    bieten die Möglichkeit des Lernens, assoziativer Konstruktionen und logischer Schlussfolgerungen;

    den Prozess der Erstellung von Softwaretools vereinfachen, indem die Synthese von Programmen gemäß den Spezifikationen der ursprünglichen Anforderungen in natürlichen Sprachen automatisiert wird;

    Verbesserung der grundlegenden Eigenschaften und Leistung der Computertechnologie zur Bewältigung verschiedener sozialer Probleme, Verbesserung des Kosten-Ergebnis-Verhältnisses, Geschwindigkeit, Leichtigkeit und Kompaktheit von Computern;

    bieten eine Vielfalt an Rechentechnologie, hohe Anpassungsfähigkeit an Anwendungen und Zuverlässigkeit im Betrieb.

Derzeit wird intensiv daran gearbeitet, optoelektronische Computer mit massiver Parallelität und neuronaler Struktur zu schaffen, bei denen es sich um ein verteiltes Netzwerk einer großen Anzahl (Zehntausende) einfacher Mikroprozessoren handelt, die die Architektur neuronaler biologischer Systeme simulieren.

2. Klassifizierung elektronischer Computer

Computer können nach mehreren Kriterien klassifiziert werden:

    Nach dem Wirkprinzip.

    Je nach Zweck des Computers.

    Größe und Funktionalität.

Nach dem Funktionsprinzip des Computers :

    AVM – analoge Computer mit kontinuierlicher Aktion, arbeiten mit Informationen, die in kontinuierlicher (analoger) Form präsentiert werden, d.h. in Form einer kontinuierlichen Reihe von Werten einer beliebigen physikalischen Größe (meistens elektrische Spannung);

    TsVM – digitale Computer mit diskreter Aktion, die mit Informationen arbeiten, die in diskreter (digitaler) Form präsentiert werden;

    GVM – Hybridcomputer mit kombinierter Wirkung, arbeiten mit Informationen, die sowohl in digitaler als auch in analoger Form präsentiert werden. GVMs vereinen die Vorteile von AVMs und digitalen Computern. Es ist ratsam, sie zur Lösung der Probleme bei der Verwaltung komplexer technischer Hochgeschwindigkeitskomplexe einzusetzen.

Je nach Zweck des Computers :

    Großrechner Entwickelt, um eine Vielzahl von technischen und technischen Problemen zu lösen: wirtschaftliche, mathematische, informative und andere, gekennzeichnet durch die Komplexität von Algorithmen und eine große Menge verarbeiteter Daten;

    Problemorientierte Computer dienen der Lösung eines engeren Aufgabenspektrums, das in der Regel mit der Steuerung technologischer Prozesse verbunden ist;

    spezialisierte Computer werden zur Lösung eines engen Aufgabenspektrums oder zur Umsetzung einer streng definierten Funktionsgruppe eingesetzt.

Größe und Funktionalität :

    ultraklein (Mikrocomputer) verdanken ihre Entstehung der Erfindung des Mikroprozessors, dessen Vorhandensein zunächst als prägendes Merkmal eines Mikrocomputers diente, obwohl Mikroprozessoren heute ausnahmslos in allen Computerklassen eingesetzt werden;

    klein (Mini-Computer) am häufigsten zur Prozesskontrolle verwendet;

    Großrechner allgemein als Mainframes bezeichnet. Die Hauptrichtungen für den effektiven Einsatz von Großrechnern sind die Lösung wissenschaftlicher und technischer Probleme, die Arbeit in Computersystemen mit Stapelverarbeitung von Informationen, die Arbeit mit großen Datenbanken, die Verwaltung von Computernetzwerken und deren Ressourcen;

    supergroß (Supercomputer)- leistungsstarke Multiprozessor-Computer mit einer Geschwindigkeit von mehreren zehn Milliarden Operationen pro Sekunde und mehreren zehn GB RAM.

3. Prinzipien des Aufbaus und der Funktionsweise der Computer von John von Neumann

Die meisten modernen Computer basieren auf Prinzipien, die 1945 von John von Neumann, einem amerikanischen Wissenschaftler ungarischer Herkunft, formuliert wurden.

1. Das Prinzip der binären Kodierung. Demnach werden alle in den Computer gelangenden Informationen mit binären Symbolen (Signalen) kodiert.

2. Prinzip der Programmsteuerung. Ein Computerprogramm besteht aus einer Reihe von Anweisungen, die vom Prozessor automatisch nacheinander in einer bestimmten Reihenfolge ausgeführt werden.

3. Das Prinzip der Gedächtnishomogenität. Programme und Daten werden im selben Speicher gespeichert, sodass der Computer nicht unterscheidet, was an einem bestimmten Speicherort gespeichert ist – eine Zahl, ein Text oder ein Befehl. Sie können für Befehle dieselben Aktionen ausführen wie für Daten.

4. Das Prinzip des Targetings. Strukturell besteht der Hauptspeicher aus nummerierten Zellen, die dem Prozessor jederzeit zur Verfügung stehen.

Laut von Neumann besteht ein Computer aus folgenden Hauptblöcken:

1) Informationseingabe-/-ausgabegerät;

2) Computerspeicher;

3) ein Prozessor, einschließlich einer Steuereinheit (CU) und einer arithmetischen Logikeinheit (ALU).

Im Laufe des Computerbetriebs gelangen Informationen über Eingabegeräte in den Speicher. Der Prozessor ruft die verarbeiteten Informationen aus dem Speicher ab, arbeitet mit ihnen und legt die Ergebnisse der Verarbeitung darin ab. Die über die Ausgabegeräte erhaltenen Ergebnisse werden der Person gemeldet.

Der Computerspeicher besteht aus zwei Arten von Speicher: internem ( betriebsbereit) und äußere ( langfristig).

Rom ist ein elektronisches Gerät, das Informationen speichert, während es mit Strom betrieben wird. Externer Speicher besteht aus verschiedenen magnetischen Medien (Bänder, Disketten) und optischen Datenträgern.

In den letzten Jahrzehnten verlief der Prozess der Computerverbesserung im Rahmen der oben genannten allgemeinen Struktur.

4. Klassifizierung von Personalcomputern

Wie oben erwähnt, ist ein Personal Computer (PC) ein universeller Einzelbenutzer-Mikrocomputer.

Der Personal Computer ist in erster Linie ein öffentlicher Computer und weist eine gewisse Vielseitigkeit auf.

Um den Bedürfnissen des Benutzers gerecht zu werden, muss der PC über folgende Eigenschaften verfügen:

    relativ geringe Kosten haben und einem einzelnen Käufer zur Verfügung stehen;

    Gewährleistung der Betriebsautonomie ohne besondere Anforderungen an die Umgebungsbedingungen;

    Gewährleistung der Flexibilität der Architektur, die es ermöglicht, sie für vielfältige Anwendungen im Bereich Management, Wissenschaft, Bildung und im Alltag umzubauen;

    Das Betriebssystem und die Software müssen so einfach sein, dass der Benutzer ohne spezielle Fachausbildung mit dem PC arbeiten kann.

    verfügen über eine hohe Betriebszuverlässigkeit (mehr als 5000 Stunden MTBF).

Gemäß der internationalen Standardspezifikation RS99 werden PCs je nach Verwendungszweck in die folgenden Kategorien eingeteilt:

    Massen-PC (Consumer);

    Business-PC (Büro-PC);

    tragbarer PC (mobiler PC);

    Arbeitsplatz (Arbeitsplatz-PC);

    Unterhaltungs-PC (Unterhaltungs-PC).

Die meisten derzeit auf dem Markt erhältlichen PCs sind Mainstream-PCs. Bei Business-PCs werden die Anforderungen an Tools zur Grafikwiedergabe minimiert und es gibt überhaupt keine Anforderungen an Tools zur Audiodatenverarbeitung. Für tragbare PCs ist es zwingend erforderlich, über Tools zum Erstellen von Fernzugriffsverbindungen zu verfügen, d. h. Mittel der Computerkommunikation. In der Kategorie der Workstations steigen die Anforderungen an Speichergeräte und in der Kategorie der Entertainment-PCs – an die Audio- und Videowiedergabe.

PC-Generationen werden unterteilt in:

    Verwenden Sie auf PCs der 1. Generation 8-Bit-Mikroprozessoren.

    PCs der 2. Generation verwenden 16-Bit-Mikroprozessoren;

    PCs der 3. Generation verwenden 32-Bit-Mikroprozessoren;

    PCs der 4. Generation verwenden 64-Bit-Mikroprozessoren.

Auch PCs lassen sich in zwei große Gruppen einteilen: stationäre und tragbare. Zu den tragbaren Computern zählen Laptops, elektronische Notizbücher, Sekretäre und Notizblöcke.

Entwicklungsgeschichte und Klassifizierung von Computern (Vorlesung 1)

Das Konzept der Computerarchitektur

Unter Computerarchitektur kann eine Reihe solcher Komponenten verstanden werden wie:

· Interne Hardware – eine Reihe von Geräten, Produktionstechnologie;

· Software – Betriebssystem, Dateisystem, Befehlssystem;

· Externe Hardware – Peripheriegeräte, Netzwerke.

Computerklassifizierung

Wie alle anderen Geräte können Computer nach der verwendeten Grundbasis oder dem Zeitpunkt ihrer Veröffentlichung klassifiziert werden:

· Elektromechanische Geräte (spätes 19. Jahrhundert – 1930er Jahre);

· Elektronische Vakuumgeräte (1940er – 1950er Jahre);

· Halbleitertransistoren und Dioden (1950er, frühe 1960er Jahre);

Integrierte Schaltkreise, LSI, VLSI (von den 1960er Jahren bis heute)

Je nach Leistung lassen sich Computer in große Computer (Mainframe – die Haupteinheit), Mini- und Mikrocomputer einteilen. Eine eigene Unterklasse der Mikrocomputer ist die Klasse der Personalcomputer. PCs werden am häufigsten hergestellt, sie sind günstiger als andere Maschinen, sie bewältigen alle im Alltag und in der Produktion anfallenden Aufgaben, sie sind vollständig mit System- und Anwendungsprogrammen ausgestattet. Großrechner werden in Industrie und Wissenschaft zur höchst zuverlässigen Steuerung und leistungsstarken Verarbeitung großer Informationsmengen eingesetzt.

Je nach Anwendungsbereich lassen sich Computer in Universal- und Steuerungscomputer einteilen. Universalmaschinen können in nahezu jedem Bereich eingesetzt werden. Steuercomputer werden benötigt, um eine bestimmte Einheit, ein bestimmtes Gerät oder ein bestimmtes Gerät zu steuern und zu verwalten.

Durch die funktionale Zugehörigkeit in einem System mehrerer Rechner lassen sich Rechner in Workstations und Server unterteilen.

Die Geschichte der Entwicklung von Computern

Die Überlegenheit in dieser Angelegenheit wird am häufigsten einem Gerät wie einer Addiermaschine zugeschrieben. Die industrielle Produktion von Addiermaschinen (3 Multiplikationsoperationen von 8-stelligen Zahlen pro Minute) begann im Jahr 1822.

Im Jahr 1874 begann Vilgod Odner, ein in Russland lebender Schwede mit Nationalität, mit der Arbeit an einer Rechenmaschine und baute 1890 deren Massenproduktion auf. Im ersten Viertel des 20. Jahrhunderts wurden Odners Zählgeräte unter verschiedenen Namen auf der ganzen Welt hergestellt, und allein der „russische Park“ solcher Geräte belief sich auf über 22.000 Einheiten.

Im Jahr 1924 Computing Tabulated Recording (CTR), ein Unternehmen zur Analyse von Geschäftssystemen, das statistische Daten nutzt, die auf elektromechanischen Stanz- und Stanzmaschinen verarbeitet werden, wurde in International Business Machines (IBM) umbenannt. Dies betonte die Hauptrichtung der Unternehmenstätigkeit und den Zweck der von ihr hergestellten Computerausrüstung (Tabulatoren und andere Zähl- und Perforationsmaschinen).

Als im Jahr 1935 Die US-Regierung benötigte automatisierte Beschäftigungsdatensysteme, die Daten von 26 Millionen Menschen verarbeiten können. IBM war bereit, diesen Auftrag in kürzester Zeit zu erfüllen.

In den frühen 1940er Jahren begannen IBM-Labore zusammen mit Wissenschaftlern der Harvard University mit der Entwicklung eines der ersten elektromechanischen Computer. Es wurde 1944 zusammengebaut und erhielt den Namen „Mark-1“.

Im Jahr 1953 wurde veröffentlicht IBM 701, gebaut auf elektronischen Vakuumröhren, mit einer Geschwindigkeit von bis zu 17.000 Operationen./s.

Im Jahr 1955 Die IBM 705 wurde als erste kommerzielle Gleitkommamaschine eingeführt.

Im Jahr 1959 IBM brachte die IBM 1401 auf den Markt, eine kommerzielle Transistormaschine. Es wurde in mehr als 10.000 Exemplaren geliefert. Im selben Jahr entwickelte IBM 1961 sein erstes Mainframe-Modell IBM 7090, das vollständig auf Transistorbasis hergestellt wurde und eine Geschwindigkeit von 229.000 Operationen/s hatte. entwickelte das Modell IBM 7030 für das US-Atomlabor in Los Alamos.

April 1964 IBM kündigte das System/360 an, die erste Familie universeller, softwarekompatibler Computer und Peripheriegeräte. Als Elementbasis der 360-Familie wurden Hybrid-Mikroschaltungen gewählt, wodurch die neuen Modelle als Maschinen der dritten Generation galten.

Im Jahr 1971 IBM stellte zwei Modelle der System/370-Familie vor (370/135 und 370/195), den Nachfolger des System/360, der auf einer neuen technischen Basis basiert – monolithischen integrierten Schaltkreisen.

1980, während der Finanzkrise, beschloss die Unternehmensleitung, einen kostengünstigen Personal Computer (PC) zu entwickeln und stellte am 13. August des folgenden Jahres den IBM 150 Personal Computer vor, ein Gerät, das als IBM PC in die Geschichte einging. Der IBM PC nutzte die Entwicklungen anderer Unternehmen: den i8088-Mikroprozessor der Intel Corporation, das DOS-Betriebssystem der Microsoft Corporation. Obwohl die PC-Architektur mittlerweile Wintel (Windows + Intel) heißt, ist der IBM-PC ohnehin zum De-facto-Weltstandard geworden. Der angekündigte Grundpreis betrug 1565 US-Dollar. Die offizielle Präsentation des IBM-PCs fand am 12. September 1981 in New York statt.

Der Verkauf begann im Oktober 1981 und bis zum Jahresende wurden mehr als 35.000 Maschinen verkauft, im ersten Produktionsjahr waren es 136.000. Fünf Jahre später erreichte die PC-Produktion 3 Millionen Einheiten. In den letzten 15 Jahren wurden in den USA mehr PCs als Autos gekauft. Es sei darauf hingewiesen, dass fünf Jahre vor dem Aufkommen des IBM-PCs der erste PC von den Gründern von Apple Computer entwickelt wurde. Bei der Entwicklung des Phänomens des Personalcomputers in der Welt spielten jedoch vor allem die Produktionskapazität des IBM-Konzerns und eine kompetente wissenschaftliche, technische und Marketingpolitik (Massenfreigabe von Software) eine Rolle.

Die IBM Corporation ist führend in der Anzahl der erhaltenen und angemeldeten Patente. In 1997 Es hat 1.724 US-Patente erhalten, davon beziehen sich 550 auf Softwareentwicklung und 250 auf Netzwerktechnologien. Das IBM Research Center schlug die folgenden wichtigsten Lösungen vor:

Laufwerke;

· dynamischer Direktzugriffsspeicher (vor 30 Jahren wurde das IBM-Patent angemeldet);

Relationales DBMS (System R in den späten 70er Jahren, die Quelle der SQL-Sprache, die zum Standard wurde, und DB2 DBMS, für das 10.000 Lizenzen verkauft wurden;

· RISC-Prozessoren (der erste wurde vor 20 Jahren entwickelt und kürzlich wurde die Veröffentlichung eines neuen Mikroprozessors POWER PC mit einer Taktfrequenz von 2 GHz angekündigt);

Technologie der Mikroelektronik.

Universal- und Steuerrechner

Der Hauptunterschied zwischen Steuerungsmaschinen und Großrechnern besteht in ihrer Verbindung mit der Außenwelt (dem gesteuerten Objekt). Die Ausgangsdaten gelangen unter Umgehung des Menschen direkt von Messgeräten oder anderen Geräten, die die charakteristischen Parameter des Objekts erfassen, in die Maschine, auch Steuersignale werden von der Maschine direkt an das Objekt gesendet. Hierzu sind im Rahmen der Steuerungsmaschine spezielle Geräte zur Kommunikation mit dem Objekt vorzusehen. Darüber hinaus müssen Steuerungsmaschinen einen Echtzeitbetrieb ermöglichen, was besondere Anforderungen an ihre Anwendungs- und Systemsoftware stellt. Und diese wiederum bestimmt die Hardware-Architektur und Struktur der Maschine.

An Steuerungsmaschinen werden höhere Anforderungen an die Zuverlässigkeit gestellt als an Computer. Selbst die Wiederholung von Berechnungen, die es ermöglicht, Fehler in Berechnungen auf Computern auszuschließen, ist in Echtzeitsystemen normalerweise unmöglich.

Für die Aufgaben der Steuerung technologischer Prozesse und Objekte ist in den meisten Fällen eine Berechnungsgenauigkeit in der Größenordnung von 0,1 % (seltener 0,01 %) ausreichend, da die Ausgangsdaten ohnehin mit einem gewissen Fehler gemessen werden. Daher kann die Datendarstellung auf ein Maschinenwort mit einer Länge von 15–32 Bit beschränkt werden und nicht auf 32, 48, 64 Bit, wie bei Großrechnern.

Diese grundlegenden Unterschiede führten dazu, dass Steuerungsmaschinen neben der Klasse der Universalcomputer zur Lösung von Rechenproblemen und der Datenverarbeitung einer eigenständigen Klasse der Computertechnologie zugeordnet wurden. In der englischen Terminologie wird die Klasse der Steuercomputer als Steuercomputer definiert.

Software

Jeder Computer muss mit Programmen ausgestattet sein. Steuerrechner arbeiten nach speziellen Programmen, deren Algorithmus die Lösung eines bestimmten Problems vorsieht.

Große Universalcomputer lösen hochspezialisierte Aufgaben und werden daher mit spezifischer Software geliefert. Normalerweise wurden für jede Computerklasse eigene Betriebssysteme entwickelt. Die gängigsten Betriebssysteme für IBM-Mainframes der System /360-Familie waren einst DOS /360 für kleine Maschinen und OS /360 für große Maschinen. Für die aktuellen Mainframes der Serien S/390, z 900 und RS/6000, die Netzwerke bedienen, wird derzeit daran gearbeitet, die Unix- und Linux-Versionen des Betriebssystems zu modifizieren.

Bei Mikrocomputern sind die bekanntesten Betriebssysteme MS-DOS, Linux, MacOS und natürlich Windows. Zu den ersten Programmen für Mikrocomputer gehörten höhere Programmiersprachen (Basic), Spiele, Texteditoren und Tabellenkalkulationsprogramme. Das Vorhandensein praktischer und vielfältiger Software hat diese Computerklasse populär gemacht.

Bundesamt für Bildung

Staatliche Bildungseinrichtung der Höheren

Berufsausbildung

Südrussische Staatliche Universität für Wirtschaft und Dienstleistung

Semenikhin I.N.

(Vorlesungsnotizen)

MINEN 2006

1 EINFÜHRUNG 4

1.1 Architektur, Organisation und Konfiguration von Computern 4

1.2 Allgemeine Anforderungen an moderne Computer 5

1.3 Klassifizierung von Computern nach Anwendung 8

1.4 Leistungsbewertung von Computersystemen 16

2 Befehlssatzarchitektur 26

2.1 Klassifizierung von Befehlssatzarchitekturen 27

2.2 Klassifizierung nach Operandenplatz 29

2.3 CISC- und RISC-Architekturen 35

2.4 Operandentypen und -formate 37

2.5 Symbolinformationen 49

2.6 Boolesche Daten und Strings 51

2.7 Sonstige Arten von Informationen 52

2.8 Befehlstypen und -formate 54

2.9 Methoden zur Operandenadressierung 63

2.10 Operationssystem 71

^ 3 GRUNDLAGEN DER COMPUTER-ORGANISATION 73

3.1 Grundkonzepte 73

3.2 Computerinformationsmodell 73

3.3 Prinzipien von John von Neumann. 77

3.4 Hauptkomponenten des Computers 79

4 von Neumann 83 Computer

4.1 Computer mit Busorganisation 83

4.2 Computer mit Kanalorganisation 87

5 ORGANISATION DES COMPUTERSPEICHERS 92

5.1 Speicherhierarchie 92

5.2 Cache-Organisation 93

5.3 Organisation des Hauptspeichers 98

^

1. EINLEITUNG

1.1 Architektur, Organisation und Konfiguration von Computern


Rechnerarchitektur- eine abstrakte Definition eines Computers in Bezug auf grundlegende Funktionsmodule, Programmiersprachen und Datenstrukturen. Die Architektur bestimmt nicht die Merkmale der Implementierung der Computerhardware, die Ausführungszeit von Befehlen, den Grad der Parallelität, die Breite der Busse und andere ähnliche Merkmale. Die Architektur zeigt Aspekte der Computerstruktur an, die für den Benutzer-Programmierer sichtbar sind: ein System von Anweisungen, Adressierungsmodi, Datenformate und eine Reihe von für das Programm zugänglichen Registern. Mit einem Wort wird der Begriff „Architektur“ verwendet, um die Möglichkeiten zu beschreiben , von Computern bereitgestellt.

Begriff Computerorganisation definiert eine Beschreibung, wie die Fähigkeiten eines Computers implementiert sind.

Der Begriff wird sehr häufig verwendet Computerkonfiguration, Darunter versteht man den Aufbau eines Computergeräts mit einer klaren Definition der Art, Menge, Beziehungen und Hauptmerkmale seiner Funktionselemente.

Also entlang der Kette Architektur → Organisation → Konfiguration Wir bewegen uns von einer abstrakten Definition zu einer Beschreibung eines bestimmten Computers.

Der Begriff „Systemarchitektur“ wird häufig sowohl im engeren als auch im weiten Sinne des Wortes verwendet. Im engeren Sinne bezieht sich Architektur auf die Befehlssatzarchitektur. Die Befehlssatzarchitektur dient als Grenze zwischen Hardware und Software und stellt den Teil des Systems dar, der für den Programmierer oder Compiler-Designer sichtbar ist. Es ist zu beachten, dass dies die häufigste Verwendung des Begriffs ist. Im weitesten Sinne umfasst Architektur das Konzept der Systemorganisation, einschließlich hochrangiger Aspekte des Computerdesigns wie dem Speichersystem, der Systembusstruktur, der E/A-Organisation usw.

In Bezug auf Computersysteme kann der Begriff „Architektur“ als die Verteilung der vom System implementierten Funktionen zwischen seinen Systemen definiert werden Ebenen, genauer gesagt, als die Definition der Grenzen zwischen diesen Ebenen. Somit die Architektur des Computersystems beinhaltet eine mehrstufige Organisation.

Die Architektur der ersten Ebene bestimmt, welche Datenverarbeitungsfunktionen vom Gesamtsystem ausgeführt werden und welche der Außenwelt (Benutzer, Betreiber, Datenbankadministratoren usw.) zugewiesen werden. Das System interagiert mit der Außenwelt durch Schnittstellensatz: Sprachen (Operatorsprache, Programmiersprachen, Datenbankbeschreibungs- und -manipulationssprachen, Jobsteuerungssprache) und Systemprogramme(Dienstprogramme, Programme zum Bearbeiten, Sortieren, Speichern und Wiederherstellen von Informationen).

Die Schnittstellen der nächsten Ebene können bestimmte Ebenen innerhalb der Software abgrenzen. Zum Beispiel, logische Ressourcenverwaltungsschicht kann die Implementierung von Funktionen wie Datenbankverwaltung, Dateien, virtuellem Speicher und Netzwerk-Televerarbeitung umfassen. ZU physische Ressourcenverwaltungsschicht umfassen die Funktionen zur Verwaltung von externem und RAM sowie zur Verwaltung von im System laufenden Prozessen.

Die nächste Ebene spiegelt die Hauptabgrenzungslinie des Systems wider, nämlich Grenze zwischen Systemsoftware und Hardware. Diese Idee lässt sich weiterentwickeln und wir können über die Funktionsverteilung zwischen den einzelnen Teilen des physikalischen Systems sprechen. Einige Schnittstellen definieren beispielsweise, welche Funktionen von CPUs und welche von I/O-Prozessoren implementiert werden.

Die Next-Level-Architektur definiert die Funktionstrennung zwischen I/O-Prozessoren und externen Gerätecontrollern. Dabei kann wiederum zwischen den von den Controllern implementierten Funktionen und den Ein-/Ausgabegeräten selbst (Terminals, Modems, Magnetplattenlaufwerke und Bänder) unterschieden werden. Die Architektur solcher Ebenen wird oft als bezeichnet physische I/O-Architektur.
^

1.2 Allgemeine Anforderungen an moderne Computer

1.2.1 Kosten-Leistungs-Verhältnis

Computerentwickler haben kein einziges Ziel. Um die gesetzten Ziele zu erreichen, muss man beim Entwurf von Hochleistungsstrukturen die Kostenmerkmale außer Acht lassen. In diese Computerkategorie fallen Supercomputer von Cray Research und Hochleistungs-Mainframes von IBM.

Ein weiteres extremes Beispiel wäre ein kostengünstiges Design, bei dem die Leistung geopfert wird, um niedrige Kosten zu erzielen. Dieser Bereich umfasst Personalcomputer verschiedener Nachbauten des IBM-PCs.

Zwischen diesen beiden Extremrichtungen gibt es Konstruktionen, die auf der Beziehung basieren Preis-Leistungsverhältnis wo Entwickler ein Gleichgewicht zwischen Kosten und Leistung finden. Typische Beispiele für solche Computer sind Minicomputer und Workstations.

Um verschiedene Computer miteinander zu vergleichen, werden in der Regel Standardmethoden zur Leistungsmessung verwendet. Diese Methoden ermöglichen es Entwicklern und Benutzern, Testergebnisse zur Bewertung von Lösungen zu verwenden, und letztendlich sind es Leistung und Kosten, die dem Benutzer eine rationale Grundlage für die Entscheidung geben, welchen Computer er wählen soll.
^

1.2.2 Zuverlässigkeit und Fehlertoleranz


Das wichtigste Merkmal von Computersystemen ist Zuverlässigkeit. Die Verbesserung der Zuverlässigkeit basiert auf dem Prinzip der Vermeidung von Fehlfunktionen durch Reduzierung der Ausfall- und Ausfallrate durch den Einsatz elektronischer Schaltkreise und Komponenten mit hohem und höchstem Integrationsgrad, Reduzierung des Störpegels, leichtere Betriebsarten von Schaltkreisen, Gewährleistung der thermischen Betriebsarten ihres Betriebs sowie durch Verbesserung der Methoden zur Montage der Ausrüstung.

Fehlertoleranz- Dies ist eine solche Eigenschaft eines Computersystems, die ihm als logische Maschine die Möglichkeit gibt, die vom Programm festgelegten Aktionen fortzusetzen, nachdem eine Fehlfunktion aufgetreten ist.

Die Einführung von Fehlertoleranz erfordert redundante Hard- und Software. Beim Problem der Zuverlässigkeit stehen vor allem die Bereiche Fehlervermeidung und Fehlertoleranz im Vordergrund. Die Konzepte Parallelität und Fehlertoleranz von Computersystemen hängen naturgemäß miteinander zusammen, da in beiden Fällen zusätzliche Funktionskomponenten erforderlich sind. Daher werden auf parallelen Rechensystemen tatsächlich sowohl die höchste Leistung als auch eine sehr hohe Zuverlässigkeit erreicht. Verfügbare Redundanzressourcen in Parallelsystemen können sowohl hinsichtlich der Leistung als auch der Zuverlässigkeit flexibel genutzt werden. Der Aufbau von Multiprozessor- und Multimaschinensystemen ist angepasst automatische Neukonfiguration und stellt sicher, dass das System nach Auftreten einer Störung weiter betrieben werden kann.

Es sei daran erinnert, dass der Begriff der Zuverlässigkeit nicht nur Hardware, sondern auch Software umfasst. Das Hauptziel der Erhöhung der Zuverlässigkeit von Systemen ist die Integrität der darin gespeicherten Daten.

1.2.3 Skalierbarkeit

Skalierbarkeit stellt eine Chance dar Erweiterungen die Anzahl und Leistung der Prozessoren, die Menge an RAM und externem Speicher sowie andere Ressourcen des Computersystems.

Die Skalierbarkeit muss gewährleistet sein Architektur und Bauwesen Computer, sowie das entsprechende Software. Die Hinzufügung jedes neuen Prozessors in einem wirklich skalierbaren System sollte zu einer vorhersehbaren Leistungs- und Durchsatzsteigerung zu akzeptablen Kosten führen.

Eines der Hauptziele beim Aufbau skalierbarer Systeme besteht darin, die Kosten für die Erweiterung eines Computers zu minimieren und die Planung zu vereinfachen. Im Idealfall sollte das Hinzufügen von Prozessoren zu einem System zu einer linearen Leistungssteigerung führen. Dies ist jedoch nicht immer der Fall. Leistungseinbußen können beispielsweise bei unzureichender Busbandbreite durch erhöhten Verkehr zwischen Prozessoren und Hauptspeicher sowie zwischen Speicher und I/O-Geräten auftreten. In der Realität lässt sich die tatsächliche Produktivitätssteigerung im Voraus nur schwer abschätzen, da sie maßgeblich von der Dynamik des Verhaltens der angewandten Aufgaben abhängt.

Die Software-Skalierbarkeit betrifft alle Softwareebenen, von einfachen Nachrichtenübermittlungsmechanismen bis hin zum Umgang mit komplexen Objekten wie Transaktionsmonitoren und der gesamten Anwendungssystemumgebung. Insbesondere muss die Software den Datenverkehr zwischen Prozessoren minimieren, der das lineare Wachstum der Systemleistung behindern kann.

Hardware (Prozessoren, Busse und E/A-Geräte) ist nur ein Teil einer skalierbaren Architektur, auf der Software vorhersehbare Leistungssteigerungen liefern kann. Es ist wichtig zu verstehen, dass der einfache Wechsel beispielsweise auf einen leistungsstärkeren Prozessor zu einer Überlastung anderer Systemkomponenten führen kann. Das bedeutet, dass ein wirklich skalierbares System vorhanden sein muss in allen Belangen ausgewogen.
^

1.2.4 Softwarekompatibilität und Portabilität


Softwarekonzept Kompatibilität wurde erstmals in großem Umfang von den Entwicklern des IBM/360-Systems eingesetzt. Die größte Herausforderung beim Entwurf interoperabler Systeme bestand darin, eine Architektur zu schaffen, die aus Benutzersicht für alle Systemmodelle gleich ist, unabhängig von Preis und Leistung jedes einzelnen Modells.

Durch die Kompatibilität können Sie den bestehenden Software-Rückstand beibehalten, wenn Sie auf neue (normalerweise produktivere) Modelle umsteigen. Es ist jedoch zu beachten, dass selbst die fortschrittlichste Architektur mit der Zeit unweigerlich veraltet ist und radikale Änderungen an der Architektur und der Art und Weise der Organisation von Computersystemen erforderlich sind.

Derzeit ist einer der wichtigsten Faktoren, die aktuelle Trends in der Entwicklung der Informationstechnologie bestimmen, die Ausrichtung von Computerausrüstungslieferanten auf den Markt für angewandte Software. Das liegt vor allem daran, dass es für den Endanwender letztlich darauf ankommt, eine Software zu verwenden, die ihm die Lösung seiner Probleme ermöglicht, und nicht auf die Wahl einer bestimmten Hardwareplattform.

Dieser Übergang brachte eine Reihe neuer Anforderungen mit sich. Erstens sollte eine solche Computerumgebung eine flexible Änderung der Anzahl und Zusammensetzung von Hard- und Software entsprechend den sich ändernden Anforderungen der zu lösenden Aufgaben ermöglichen. Zweitens sollte es die Möglichkeit bieten, dieselben Softwaresysteme auf verschiedenen Hardwareplattformen auszuführen, d. h. Gewährleistung der Software-Portabilität. Drittens muss diese Umgebung die Möglichkeit gewährleisten, auf allen Computern eines heterogenen Netzwerks die gleichen Mensch-Maschine-Schnittstellen zu nutzen.

Angesichts des harten Wettbewerbs zwischen Herstellern von Hardwareplattformen und Software ist a Offenes Systemkonzept Dabei handelt es sich um eine Reihe von Standards für verschiedene Komponenten der Computerumgebung, die die Mobilität von Software innerhalb eines heterogenen, verteilten Computersystems sicherstellen sollen.

Eine der Optionen für offene Umgebungsmodelle ist das vom IEEE POSIX-Komitee vorgeschlagene OSE-Modell (Open System Environment). Basierend auf diesem Modell hat das US-amerikanische National Institute of Standards and Technology das „Application Portability Profile (APP). The U.S. Government's Open System Environment Profile OSE/1 Version 2.0“ herausgegeben, das für US-Bundesbehörden empfohlene Spezifikationen der Informationstechnologie definiert, die Portabilität bieten von System- und Anwendungssoftware Alle führenden Computer- und Softwarehersteller in den Vereinigten Staaten halten sich derzeit an die Anforderungen dieses Dokuments.

(Dokumentieren)

  • Kirillov V.V. Basiscomputerarchitektur (Dokument)
  • Vorträge zur Organisation der Produktion in einem Maschinenbauunternehmen (Vorlesung)
  • Kasyanov V. N., Sabelfeld V. K. Aufgabensammlung für den Workshop am Computer (Dokument)
  • Zaitsev V.F. Kodierung von Informationen im EU-Computer (Dokument)
  • Pechenegov Yu.Ya. Berechnung hydraulischer Prozesse am Computer (Dokument)
  • Saveliev A.Ya. Arithmetische und logische Grundlagen digitaler Automaten (Dokument)
  • Vorlesungen zur Organisation von Produktion und Management in MS (Vorlesung)
  • n1.doc

    Die Geschichte der Entwicklung von Computern.
    Als Ausgangspunkt kann der Beginn des 17. Jahrhunderts (1623) angesehen werden, als der Wissenschaftler V. Shikard eine Maschine entwickelte, die Zahlen addieren und subtrahieren konnte. Aber die erste Rechenmaschine, die vier Grundrechenarten ausführen konnte, war die Rechenmaschine des berühmten französischen Wissenschaftlers und Philosophen Blaise Pascal. Das Hauptelement darin war ein Zahnrad, dessen Erfindung an sich zu einem Schlüsselereignis in der Geschichte der Computertechnologie wurde. Die Urenkel dieses Rades wurden noch vor etwa fünfzehn Jahren in Addiermaschinen (das entsprechende Modell wurde 1842 hergestellt) auf den Tischen sowjetischer Buchhalter verwendet. Ich möchte darauf hinweisen, dass die Entwicklung auf dem Gebiet der Computertechnologie ungleichmäßig und krampfhaft ist: Perioden der Ansammlung von Kräften werden durch Durchbrüche in der Entwicklung ersetzt, woraufhin eine Phase der Stabilisierung folgt, in der die erzielten Ergebnisse praktisch genutzt werden und gleichzeitig werden Wissen und Kräfte für den nächsten Sprung nach vorne angesammelt. Nach jeder Runde erreicht der Evolutionsprozess eine neue, höhere Ebene.
    Im Jahr 1671 schuf der deutsche Philosoph und Mathematiker Gustav Leibniz ebenfalls eine Additionsmaschine auf Basis eines Zahnrads besonderer Bauart – das Leibniz-Zahnrad. Das Arithmometer von Leibniz führte wie die Arithmometer seiner Vorgänger vier Grundrechenarten durch. Damit endete diese Periode, und fast anderthalb Jahrhunderte lang sammelte die Menschheit Kraft und Wissen für die nächste Runde der Entwicklung der Computertechnologie. Das 18. und 19. Jahrhundert war eine Zeit, in der sich verschiedene Wissenschaften rasant entwickelten, darunter Mathematik und Astronomie. Sie stießen oft auf Probleme, die lange und aufwändige Berechnungen erforderten.
    Eine weitere berühmte Person in der Geschichte der Informatik war der englische Mathematiker Charles Babbage. Im Jahr 1823 begann Babbage mit der Arbeit an einer Maschine zur Berechnung von Polynomen, aber was noch interessanter ist, diese Maschine sollte neben direkten Berechnungen auch Ergebnisse liefern – sie zum Drucken auf eine Negativplatte drucken. Es war geplant, dass die Maschine von einer Dampfmaschine angetrieben würde. Aufgrund technischer Schwierigkeiten konnte Babbage sein Projekt nicht abschließen. Hier entstand erstmals die Idee, ein externes (Peripherie-)Gerät zu verwenden um die Ergebnisse von Berechnungen anzuzeigen. Ein anderer Wissenschaftler, S. Scheutz, realisierte 1853 dennoch die von Babbage konzipierte Maschine (sie erwies sich als noch kleiner als geplant). Im Jahr 1834 skizzierte er die Prinzipien einer anderen Maschine, die er „analytisch“ nannte. Technische Schwierigkeiten erlaubten ihm wiederum nicht, seine Ideen vollständig zu verwirklichen. Babbage konnte die Maschine nur in das experimentelle Stadium bringen. Aber es ist die Idee, die der Motor des wissenschaftlichen und technischen Fortschritts ist. Das nächste Auto von Charles Babbage war die Verkörperung der folgenden Ideen:
    UM Produktionsprozessmanagement. Die Maschine kontrollierte die Arbeit des Webstuhls und veränderte das Muster des erzeugten Stoffes abhängig von der Lochkombination auf einem speziellen Papierband. Dieses Band wurde zum Vorläufer der uns allen bekannten Medien wie Lochkarten und Lochstreifen.
    UM Programmierbarkeit. Der Betrieb der Maschine wurde auch durch ein spezielles Papierband mit Löchern gesteuert. Die Reihenfolge der Löcher darauf bestimmte die Befehle und die von diesen Befehlen verarbeiteten Daten. Die Maschine verfügte über eine Recheneinheit und einen Speicher. Zu den Anweisungen der Maschine gehörte sogar eine bedingte Sprunganweisung, die den Berechnungsverlauf abhängig von einigen Zwischenergebnissen änderte.
    An der Entwicklung dieser Maschine war Gräfin Ada Augusta Lovelace beteiligt, die als die erste Programmiererin der Welt gilt. .
    Die Ideen von Charles Babbage wurden von anderen Wissenschaftlern weiterentwickelt und genutzt. So entwickelte der Amerikaner G. Hollerith 1890, zu Beginn des 20. Jahrhunderts, eine Maschine, die mit Datentabellen arbeitete (das erste Excel?). Die Maschine wurde durch ein Programm auf Lochkarten gesteuert. Es wurde bei der US-Volkszählung von 1890 verwendet. Im Jahr 1896 gründete G. Hollerith ein Unternehmen, das der Vorgänger des IBM-Konzerns war. Mit dem Tod von Babbage kam es bis in die 30er Jahre des 20. Jahrhunderts zu einem weiteren Bruch in der Entwicklung der Computertechnologie.
    1938 verlagerte sich das Entwicklungszentrum kurzzeitig von Amerika nach Deutschland, wo K. Zuse eine Maschine schuf, die im Gegensatz zu ihren Vorgängern nicht mit Dezimalzahlen, sondern mit Binärzahlen arbeitet. Auch diese Maschine war noch mechanisch, aber ihr unbestrittener Vorteil bestand darin, dass sie die Idee der Datenverarbeitung im Binärcode umsetzte. . Als Fortsetzung seiner Arbeit schuf Zuse 1941 eine elektromechanische Maschine, deren Recheneinheit auf der Basis eines Relais aufgebaut war . Die Maschine war in der Lage, Gleitkommaoperationen durchzuführen.
    In Amerika wurde in dieser Zeit auch an der Entwicklung ähnlicher elektromechanischer Maschinen gearbeitet. 1944 entwarf G. Aiken eine Maschine namens MARK-1. Sie arbeitete wie das Auto von K. Zuse an einem Relais. Da diese Maschine jedoch eindeutig von Babbages Arbeit beeinflusst war, verarbeitete sie Daten in Dezimalform.
    Aufgrund des großen Anteils an mechanischen Teilen waren diese Maschinen natürlich dem Untergang geweiht. Es musste nach einer neuen, technologisch fortschrittlicheren Elementbasis gesucht werden. Und dann erinnerten sie sich an die Erfindung von L. Forest, der 1906 eine Drei-Elektroden-Vakuumröhre namens Triode entwickelte . Aufgrund seiner funktionellen Eigenschaften ist es zum natürlichsten Ersatz für das Relais geworden. 1946 wurde in den USA an der University of Pennsylvania der erste Universalcomputer entwickelt. - ENIAC. Der ENIAC-Computer enthielt 18.000 Lampen, wog 30 Tonnen, nahm eine Fläche von 200 m 2 ein und verbrauchte enorme Energie. Es wurden immer noch Dezimaloperationen verwendet, und die Programmierung erfolgte durch Vertauschen von Anschlüssen und Einstellen von Schaltern. Natürlich brachte eine solche „Programmierung“ viele Probleme mit sich, die vor allem durch die falsche Installation von Schaltern verursacht wurden. Mit dem ENIAC-Projekt ist der Name einer weiteren Schlüsselfigur in der Geschichte der Computertechnologie verbunden – des Mathematikers John von Neumann. Er war es, der als Erster vorschlug, das Programm und seine Daten in den Speicher der Maschine zu schreiben, damit sie im Laufe der Arbeit bei Bedarf geändert werden können. Dieses Schlüsselprinzip heißt gespeichertes Programmprinzip, wurde später verwendet, um einen grundlegend neuen Computer EDVAC (1951) zu schaffen. Diese Maschine verwendet bereits binäre Arithmetik und RAM, das auf Ultraschall-Quecksilberverzögerungsleitungen basiert. Der Speicher könnte 1024 Wörter speichern. Jedes Wort bestand aus 44 Binärziffern.
    Darüber hinaus ist der Entwicklungsprozess der Computertechnologie bis Mitte der 80er Jahre üblicherweise in Generationen unterteilt. Der Vollständigkeit halber geben wir diesen Generationen kurze qualitative Charakteristika:
    1. Generation(1945-1954) – die Zeit der Entstehung von Maschinen mit von Neumann-Architektur. In dieser Zeit entsteht ein typischer Satz von Strukturelementen, die Teil des Computers sind. Zu diesem Zeitpunkt hatten die Entwickler bereits ungefähr die gleiche Vorstellung davon, aus welchen Elementen ein typischer Computer bestehen sollte. Das - CPU(CPU), Rom(oder Arbeitsgedächtnis - RAM) und E/A-Geräte(UVV). Die CPU wiederum muss bestehen aus Arithmetik-Logikeinheit(ALU) und Kontrollgerät(UU). Die Maschinen dieser Generation arbeiteten auf der Basis von Lampenelementen, wodurch sie große Energiemengen absorbierten und sehr unzuverlässig waren. Mit ihrer Hilfe wurden im Wesentlichen wissenschaftliche Probleme gelöst. Programme für diese Maschinen konnten nicht mehr in Maschinensprache, sondern in Assemblersprache geschrieben werden.
    2. Generation(1955-1964). Der Generationswechsel wurde durch das Aufkommen einer neuen Elementbasis bestimmt: Anstelle einer sperrigen Lampe wurden in Computern Miniaturtransistoren eingesetzt, Verzögerungsleitungen als Elemente des Direktzugriffsspeichers wurden durch Magnetkernspeicher ersetzt. Dies führte letztendlich zu einer Verringerung der Größe und einer Steigerung der Zuverlässigkeit und Leistung von Computern. In der Computerarchitektur erschienen Indexregister und Hardware zur Durchführung von Gleitkommaoperationen. Für den Aufruf von Unterprogrammen wurden Befehle entwickelt. Es erschienen Hochsprachen – Algol, FORTRAN, COBOL – die die Voraussetzungen für die Entstehung tragbarer Software schufen, die nicht vom Computertyp abhängt. Mit dem Aufkommen von Hochsprachen sind Compiler für sie, Bibliotheken mit Standard-Unterprogrammen und andere Dinge erschienen, die uns heute vertraut sind. Eine wichtige Neuerung, die ich erwähnen möchte, ist das Erscheinen des sogenannten I/O-Prozessoren. Diese spezialisierten Prozessoren ermöglichten es, die CPU von der E/A-Kontrolle zu befreien und die gleichzeitige Ausführung von E/A durch ein spezialisiertes Gerät mit dem Berechnungsprozess zu ermöglichen. Zu diesem Zeitpunkt erweiterte sich der Kreis der Computernutzer stark und das Spektrum der zu lösenden Aufgaben vergrößerte sich. Für ein effizientes Ressourcenmanagement begann man, Maschinen einzusetzen Betriebssystem(Betriebssystem).
    3. Generation(1965-1970). Der Generationswechsel war wiederum auf die Erneuerung der Elementbasis zurückzuführen: Anstelle von Transistoren wurden in verschiedenen Computereinheiten diese eingesetzt integrierte Schaltkreise verschiedene Integrationsgrade. Mikroschaltungen ermöglichten es, Dutzende Elemente auf einer mehrere Zentimeter großen Platte zu platzieren. Dies wiederum steigerte nicht nur die Leistung von Computern, sondern reduzierte auch deren Größe und Kosten. Es erschienen relativ preiswerte und kleine Maschinen - Minicomputer. Sie wurden aktiv zur Steuerung verschiedener technologischer Produktionsprozesse in Systemen zur Sammlung und Verarbeitung von Informationen eingesetzt. Die Steigerung der Computerleistung ermöglichte die gleichzeitige Ausführung mehrerer Programme auf einem Computer. Dazu war es notwendig zu lernen, gleichzeitig ausgeführte Aktionen miteinander zu koordinieren, wofür die Funktionen des Betriebssystems erweitert wurden. Gleichzeitig mit den aktiven Entwicklungen im Bereich Hardware und Architekturlösungen wächst der Anteil der Entwicklungen im Bereich Programmiertechnologien. Zu dieser Zeit wurden die theoretischen Grundlagen von Programmiermethoden, Kompilierung, Datenbanken, Betriebssystemen usw. aktiv weiterentwickelt und Anwendungssoftwarepakete für verschiedene Bereiche des menschlichen Lebens erstellt. Es besteht die Tendenz, Computerfamilien zu schaffen, das heißt, Maschinen werden von Grund auf auf Hardware- und Softwareebene kompatibel. Beispiele für solche Familien waren die IBM System 360-Serie und unser heimisches Analogon – der ES-Computer.
    4. Generation(1970-1984). Eine weitere Änderung der Elementbasis führte zu einem Generationswechsel. In den 1970er Jahren wurde aktiv an der Entwicklung großer und übergroßer integrierter Schaltkreise (LSI und VLSI) gearbeitet, die es ermöglichten, Zehntausende Elemente auf einem einzigen Chip unterzubringen. Dies führte zu einer weiteren deutlichen Reduzierung der Größe und Kosten von Computern. Das Arbeiten mit der Software ist benutzerfreundlicher geworden, was zu einem Anstieg der Benutzerzahlen geführt hat. Im Prinzip wurde es mit einem solchen Integrationsgrad der Elemente möglich, einen funktionsfähigen Computer auf einem einzigen Chip zu erstellen.
    Zu diesem Zeitpunkt nahm die Einteilung der Computer in Klassen Gestalt an.

    Die Klassifizierung von Computern nach Indikatoren wie Abmessungen und Leistung lässt sich wie folgt darstellen:


    • supereffiziente Computer und Systeme (Supercomputer);

    • Großrechner (Allzweckcomputer);

    • mittelgroße Computer;

    • kleine oder Mini-Computer;

    • Mikrocomputer;

    • persönliche Computer;

    • Mikroprozessoren.

    Beachten Sie, dass die Begriffe „groß“, „mittel“ und „klein“ für inländische Computer sehr willkürlich sind und nicht mit ähnlichen Kategorien ausländischer Computer übereinstimmen.
    Historisch gesehen waren es die ersten großen Computer (Allzweckcomputer), deren Elementbasis von Vakuumröhren bis hin zu Schaltkreisen mit einem ultrahohen Integrationsgrad reichte. Im Prozess der evolutionären Entwicklung großer Computer können einzelne Perioden unterschieden werden, die fünf Computergenerationen zugeordnet sind. Die Generation von Computern wird durch die Elementbasis (Lampen, Halbleiter, Mikroschaltungen unterschiedlicher Integrationsgrade), die Architektur und die Rechenfähigkeiten bestimmt.
    Der Hauptzweck großer Computer ist die Ausführung von Arbeiten im Zusammenhang mit der Verarbeitung und Speicherung großer Informationsmengen sowie die Durchführung komplexer Berechnungen und Forschungen zur Lösung rechnerischer und informationslogischer Probleme. Solche Maschinen sind in der Regel mit Rechenzentren ausgestattet, die von mehreren Organisationen gemeinsam genutzt werden. Bis Mitte der 70er Jahre bildeten große Maschinen die Basis der Computertechnikflotte. Dazu gehören die meisten IBM-Modelle (Familien 360, 370, 390) und ihre inländischen Pendants ES-Computer.
    Die Leistung großer Computer erwies sich für eine Reihe von Anwendungen als unzureichend, beispielsweise für Wettervorhersagen, Kernenergie, Verteidigung usw. Diese Umstände regten die Entwicklung von Ultragroßcomputern oder Supercomputern an. Die Kosten für einen einzelnen Computer dieser Klasse beliefen sich auf mehrere zehn Millionen Dollar. Vertreter dieser Computerklasse sind Computer von Cray Research, Control Data Corporation (CDC) und heimische Supercomputer der Elbrus-Familie.
    Mittlere Computer. Rechenmaschinen dieser Klasse verfügen über etwas weniger Leistungsfähigkeit als Großrechner, sind aber auch kostengünstiger. Sie sind für den Einsatz überall dort gedacht, wo ständig ausreichend große Informationsmengen mit vertretbarem Zeitaufwand verarbeitet werden müssen. Derzeit ist es schwierig, eine klare Grenze zwischen mittleren und großen Computern einerseits und kleinen Computern andererseits zu ziehen. Einige Modelle von ES-Computern können als mittelschwer eingestuft werden, zum Beispiel: EC-1036, EC-1130, EC-1120. Im Ausland werden mittelgroße Computer von IBM (International Business Machinery), DEC (Digital Equipment Corporation), Hewlett Packard, COMPARECH usw. hergestellt.
    Kleincomputer stellten die zahlreichste Computerklasse dar. Ihre Beliebtheit beruhte auf ihrer geringen Größe, den geringen Kosten (im Vergleich zu großen und mittleren Computern) und ihren universellen Einsatzmöglichkeiten.
    Die Klasse der Minicomputer erschien in den 60er Jahren (12-Bit-PD5-5-Computer von DEC). Ihr Erscheinen war auf die Entwicklung der Elementbasis und die Redundanz der Ressourcen großer und mittlerer Computer für eine Reihe von Anwendungen zurückzuführen. Minicomputer zeichnen sich durch die Darstellung von Daten mit einem engen Wertebereich (Maschinenwort – 2 Bytes), die Nutzung des Backbone-Prinzips in der Architektur und eine einfachere Interaktion zwischen Mensch und Computer aus. Solche Maschinen werden häufig zur Steuerung komplexer Gerätetypen, zur Erstellung computergestützter Konstruktionssysteme und flexibler Fertigungssysteme eingesetzt. Zu den Minicomputern zählen Maschinen der PDP-Serie (später VAX) von DEC und ihre inländischen Gegenstücke – Modelle der Familie der Kleincomputer (SM-Computer).
    Beim Übergang von Schaltkreisen mit kleinem und mittlerem Integrationsgrad zu integrierten Schaltkreisen mit großem und ultrahohem Integrationsgrad erwies es sich als möglich, ein funktional vollständiges Informationsverarbeitungsgerät zu schaffen, das die Funktionen eines Prozessors auf einem LSI bzw. ausführt VLSI. Ein solches Gerät wird Mikroprozessor genannt. Die Erfindung des Mikroprozessors führte zur Entstehung einer anderen Computerklasse – der Mikrocomputer. Das charakteristische Merkmal eines Mikrocomputers ist das Vorhandensein eines oder mehrerer Mikroprozessoren. Die Entwicklung des Mikroprozessors veränderte nicht nur den zentralen Teil des Computers, sondern führte auch zu der Notwendigkeit, kleine Geräte für seinen peripheren Teil zu entwickeln. Mikrocomputer haben aufgrund ihrer geringen Größe, hohen Leistung, erhöhten Zuverlässigkeit und geringen Kosten in allen Bereichen der Volkswirtschaft und des Verteidigungskomplexes weite Verbreitung gefunden. Mit dem Aufkommen von Mikroprozessoren und Mikrocomputern wird es möglich, sogenannte intelligente Terminals zu schaffen, die komplexe Infordurchführen.
    Fortschritte in der Entwicklung von Mikroprozessoren und Mikrocomputern haben zur Entstehung von Personalcomputern (PCs) geführt, die für den individuellen Benutzerservice konzipiert sind und sich auf die Lösung verschiedener Probleme durch Laien auf dem Gebiet der Computertechnologie konzentrieren.
    In den frühen 1970er Jahren veröffentlichte Intel Mikroprozessor(MP) i4004. Und wenn es vorher nur drei Richtungen in der Welt der Computertechnik gab (Supercomputer, Großrechner (Mainframes) und Minicomputer), kommt jetzt noch eine hinzu – Mikroprozessor. Im Allgemeinen unter Prozessor Verstehen Sie die Funktionseinheit des Computers, die für die logische und arithmetische Verarbeitung von Informationen auf der Grundlage davon ausgelegt ist das Prinzip der Mikroprogrammsteuerung. Durch die Hardwareimplementierung können Prozessoren in Mikroprozessoren (die alle Funktionen des Prozessors vollständig integrieren) und Prozessoren mit niedriger und mittlerer Integration unterteilt werden. Strukturell drückt sich dies darin aus, dass Mikroprozessoren alle Funktionen des Prozessors auf einem einzigen Chip implementieren, während andere Prozessortypen sie durch die Verbindung einer großen Anzahl von Mikroschaltungen implementieren.
    Der erste MP i4004 wurde also Anfang der 70er Jahre von Intel entwickelt. Es handelte sich um ein 4-Bit-Parallelrechnergerät, dessen Fähigkeiten stark eingeschränkt waren. 4004 konnte vier Grundrechenoperationen ausführen und wurde zunächst nur in Taschenrechnern verwendet. Später wurde der Anwendungsbereich durch den Einsatz in verschiedenen Steuerungssystemen (z. B. zur Steuerung von Ampeln) erweitert. Intel hatte das Potenzial der Mikroprozessoren richtig vorhergesehen, setzte die intensive Entwicklung fort und eines seiner Projekte führte schließlich zu einem großen Erfolg, der den zukünftigen Entwicklungspfad der Computertechnologie vorgab. Sie wurden zu einem Projekt zur Entwicklung eines 8-Bit-Mikroprozessors 8008 (1972). Dieser Mikroprozessor verfügte über ein ziemlich fortschrittliches Befehlssystem und war in der Lage, Zahlen zu dividieren. Er war es, der den Personalcomputer Altair entwickelte, für den der junge Bill Gates einen seiner ersten Interpreten der Basic-Sprache schrieb. Wahrscheinlich sollte von diesem Moment an die 5. Generation gezählt werden.
    5. Generation kann als Mikroprozessor bezeichnet werden. Beachten Sie, dass die 4. Generation erst in den frühen 80er Jahren endete, das heißt, die „Eltern“ lebten angesichts großer Maschinen und ihres schnell heranreifenden und an Stärke gewinnenden „Kindes“ fast 10 Jahre lang relativ friedlich zusammen. Für beide ist diese Zeit endgültig vorbei. Designer großer Computer haben umfangreiche theoretische und praktische Erfahrungen gesammelt, und Mikroprozessorprogrammierer haben es geschafft, ihre eigene, wenn auch zunächst sehr enge Nische auf dem Markt zu finden. 1976 schloss Intel die Entwicklung des 16-Bit-Mikroprozessors i8086 ab. Es verfügte über eine ausreichend große Registerkapazität (16 Bit) und einen Systemadressbus (20 Bit), wodurch es bis zu 1 MB RAM adressieren konnte. 1982 wurde der i80286 entwickelt. Dieser Mikroprozessor war eine verbesserte Version des i8086. Es unterstützte bereits mehrere Betriebsmodi: real, wann die Adresse gemäß den i8086-Regeln gebildet wurde, und geschützt, der Multitasking und virtuelle Speicherverwaltung in Hardware implementierte, verfügte der i80286 auch über eine große Adressbusbreite – 24 Bit gegenüber 20 beim i8086, und konnte daher bis zu 16 MB RAM adressieren. Die ersten Computer auf Basis dieses Mikroprozessors erschienen 1984. Dieser Computer ist hinsichtlich seiner Rechenleistung mit dem IBM 370 vergleichbar. Daher können wir davon ausgehen, dass dies das Ende der 4. Generation der Computerentwicklung ist.

    Entwicklungsstadien von Intel Pentium-Prozessoren.
    CPUPentium
    Der Vorfahre einer umfangreichen Familie unter dem gemeinsamen Namen Pentium (Pentium, Pentium MMX, Pentium II, Pentium HALLO, Pentium 4) wurde ein Prozessor mit einem Index P5, verbunden Steckdose 4, dessen Produktion 1993 begann. Im selben Jahr erfolgte der Übergang zum Kern R54C mit Schnittstelle Steckdose 5, später - Steckdose 7. Reihe von Prozessoren Pentium enthaltene Modelle mit Betriebsfrequenzen von 75-200 MHz. Die Prozessoren wurden nach verschiedenen technologischen Normen hergestellt. Modelle mit Frequenzen von 75–120 MHz werden in 0,5-Mikron-Technologie hergestellt, und Prozessoren mit Frequenzen von 120–200 MHz werden in 0,35-Mikron-Technologie hergestellt. Kern R54C enthält 3,3 Millionen Transistoren, 16 KB L1-Cache. Auf der Systemplatine befand sich ein L2-Cache mit bis zu 1024 KB. Familienprozessoren Pentium haben die folgenden Hauptmerkmale:


    • superskalare Architektur (zwei Pipelines);

    • dynamische Verzweigungsvorhersage;

    • Modul zur Pipeline-Verarbeitung von Gleitkommaoperationen; weniger Zeit für die Ausführung von Anweisungen;

    • separater Cache-Speicher für Daten und Anweisungen (je 8 KB); » Daten-Cache-Writeback-Protokoll;

    • 64-Bit-Datenbus;

    • Fahrradleitung im Bus;

    • Adressparitätsprüfung;

    • interne Paritätsprüfung;

    • funktionale Redundanzkontrolle; » Ausführungskontrolle;

    • Leistungsüberwachung;

    • Systemsteuerungsmodus (System Management Modus);

    • Erweiterung virtueller Modi;

    • Intelligentes Energiemanagement (SL);

    • eingebaut API (Programmierschnittstelle).

    CPUPentiumMMX

    Prozessoren Pentium (Kern R55C) mit Technologie MMX (Multi Medien Verlängerung) wurde ein bedeutender Fortschritt in der Familie Pentium. Das Herzstück der Technologie mmh liegt in der Methode SIMD (Einzel Anweisungen - mehrere Daten), Dadurch können Sie die Leistung einer Vielzahl von Multimedia-Anwendungen steigern. Pentium MMX unterstützt 57 neue Anweisungen und vier neue 64-Bit-Datentypen. Produktion Pentium MMX Die 280-nm-Technologie wurde 1997 eingeführt. Daten-Cache und Befehls-Cache in Pentium MMX sind jeweils 16 KB groß. Die Cache-Partitionierung verbessert die Leistung, indem sie die durchschnittliche Speicherzugriffszeit reduziert und einen schnellen Zugriff auf häufig verwendete Anweisungen und Daten ermöglicht. Der Datencache unterstützt zwei Zugriffe gleichzeitig, die Writeback-Methode (Schreiben- zurück) oder progressives Durchschreiben (Durchschreiben). Die dynamische Verzweigungsvorhersage verwendet den Verzweigungsadresspuffer Zweig Ziel Puffer (Übrigens), die den wahrscheinlichsten Satz von Anweisungen vorhersagt, die ausgeführt werden sollen. Zur Verbesserung der Leistung wurde eine zusätzliche Pipeline-Stufe hinzugefügt. Das Schreiben in den Speicher erfolgt über einen Bereich, der aus vier Puffern besteht, die von zwei Pipelines gemeinsam genutzt werden. Die Hauptmerkmale des Prozessors:


    • 4,5 Millionen Transistoren;

    • Cache-Speicher L2 bis zu 1024 KB auf der Systemplatine; » 64-Bit-Datenbus;

    • Kontrolle der Datenintegrität;

    • eingebauter Interrupt-Controller des Mikroprozessors;

    • Leistungsüberwachung und Ausführungsverfolgung;

    • verbessertes Paging;

    • Leistungssteuerung mittels SL-Technologie;

    • Superskalare Architektur mit der Möglichkeit der parallelen Ausführung von zwei ganzzahligen Anweisungen in einem Zyklus.

    (FPU) unterstützt 32- und 64-Bit-Formate. Dadurch ist es möglich, zwei Gleitkommabefehle in einem Taktzyklus auszuführen. Viele Anweisungen erforderten Mikrocode in Prozessoren x86, sind jetzt für hohe Leistung fest in den Prozessor integriert. Bussteuersignale steuern die Cache-Anpassung in Multiprozessorsystemen.
    Der integrierte Interrupt-Controller des Mikroprozessors sorgt für symmetrisches Multiprocessing mit minimalem Overhead. Erstmals ist Hardware-Unterstützung für virtuelle Interrupts integriert. Der Prozessorkern wird identifiziert, um mithilfe des Befehls Informationen über die Familie, das Modell und die Eigenschaften des Prozessors zu erhalten CPUID. Die Fehlererkennung interner Geräte und der Busschnittstelle erfolgt durch das Paritätsschutzsystem und Maschine Überprüfen Ausnahme (MCE). Außerdem wird Hardware-Unterstützung bereitgestellt, um den Abschluss eines Buszyklus zu überprüfen.
    CPUPentiumII

    CPU Pentium II im Kern Klamath Die Produktion begann 1997 nach den technologischen Standards von 350 nm. Der Kern wurde in ein neues Design gebracht – eine Patrone mit Einwegkontakt (Einzel Rand Kontakt - SEK), mit 242 Kontakten. Hohe Datenintegration und Zuverlässigkeit wurden durch den Speicherbus und den Systembus mit Unterstützung gewährleistet ESS, Fehleranalysemechanismus, Wiederherstellungsfunktion und funktionale Redundanzprüfung. Der 512 KB große L2-Cache befand sich auf der Prozessorplatine und lief mit halber Taktung.

    1998 begann die Produktion Pentium II im Kern Deschutet nach technischem Standard 250 nm. Prozessorfamilie Intel Pentium II enthaltene Modelle mit Taktfrequenzen von 233-450 MHz. Deutliche Steigerung der Prozessorleistung Pentium II im Vergleich zu Prozessoren früherer Architektur Intel basierend auf einer Kombination von Technologie Pentium ProfiMit Unterstützung für neue Anweisungen MMX. Wir weisen auf einige Merkmale der Architektur hin Pentium II:


    • Anzahl der Transistoren 7,5 Millionen;

    • Mehrfachzweigvorhersage: Es werden mehrere Richtungen von Programmzweigen vorhergesagt.

    • Datenflussanalyse. Als Ergebnis der Analyse der Abhängigkeit von Anweisungen voneinander entwickelt der Prozessor einen optimierten Zeitplan für deren Ausführung;

    • spekulative Leistung. Der Prozessor führt Anweisungen gemäß dem optimierten ALU-Ladeplan aus;

    • volle Technologieunterstützung MMX.

    Die duale unabhängige Busarchitektur (Systembus und Cache-Bus) bietet verbesserten Durchsatz und Leistung sowie Skalierbarkeit bei Verwendung von mehr als einem Prozessor. Der Systembus unterstützt mehrere Transaktionen, was den Durchsatz verbessert. Die Leistung wird auch durch die Verwendung eines dedizierten 64-Bit-Cache-Busses verbessert. Der Prozessor verfügt über einen separaten First-Level-Cache (16 + 16 KB).
    Gleitkomma-Pipeline (FPU) unterstützt 32- und 64-Bit-Datenformate sowie das 80-Bit-Format. Die wiederholte Paritätsprüfung von Systembus-Anfragen und -Antworten gewährleistet eine hohe Zuverlässigkeit und Datenintegrität.
    ESS-Technologie (Fehler Korrektur Code) ermöglicht die Korrektur von Ein-Bit- und die Erkennung von Zwei-Bit-Systembusfehlern. eingebaut selbst prüfen (BIST) bietet die gleiche Funktionalität wie PentiumMMX. Integrierte Leistungszähler ermöglichen Leistungsmanagement und Ereigniszählung.
    Als Ergebnis gezielter Politik Intel Bei der Aufteilung der Sektoren des PC-Marktes im Jahr 1998 erschienen Prozessoren Celeron, basierend auf Architektur PentiumP. Erste Modifikationen (mit Kernel Covington) hatten keinen Second-Level-Cache und blieben daher in der Leistung zurück Pentium II, unterschied sich aber durch hervorragende Übertaktung. Prozessoren Celeron mit Kern Mendocino erhielt einen Cache-Speicher der zweiten Ebene mit einem Volumen von 128 KB. Im Jahr 1999 soll der Prozessor ausgetauscht werden Pentium II (Deschutet) kam Pentium III auf einem neuen Kern Katmai, wer den Block erhalten hat SSE (Streaming SIMD Erweiterungen), erweiterter Befehlssatz mmh und ein verbesserter Mechanismus für den Streaming-Speicherzugriff. Der Prozessor bestand aus 9,5 Millionen Transistoren und wurde in der 250-nm-Technologie mit Schnittstelle hergestellt Slot 1. Der Second-Level-Cache, der sich im Kernel befindet, hatte eine Größe von 512 KB.
    SchnittstelleSteckdose 370
    Celeron 233-533MHz(April 1998 – Januar 2000) Pentium III 500-1133MHz(Oktober 1999 – Juli 2001) Celeron II 533-1100MHz(Januar 2000 – Juli 2001) Celeron/Pentium III 1000-1400MHz(Januar 2000 – Juli 2001)
    1998 für Prozessoren Pentium III Schnittstelle entwickelt wurde Steckdose 370, Der Kristall wurde in ein Kunststoff-PPGA-Gehäuse eingebaut. Ein wichtiger Vorteil Pentium III Es wurde möglich, einen erweiterten Befehlssatz auszuführen SIMD, Betrieb mit speziellen 128-Bit-Registern. Jeder von ihnen speichert vier reelle Zahlen mit einfacher Genauigkeit. Wenn man also eine Operation an zwei Registern durchführt, SSE arbeitet tatsächlich mit vier Zahlenpaaren. Das heißt, der Prozessor kann dadurch bis zu vier Vorgänge gleichzeitig ausführen. Allerdings muss der Programmentwickler spezielle Anweisungen verwenden und sich um das Ein- und Auslesen von Daten aus vier lokalen Registern kümmern, um so die gesamte Rechenleistung nutzen zu können Pentium III Eine gezielte Codeoptimierung ist erforderlich. Also, in Pentium III Es gibt einen Block wie mmh, aber mit reellen Zahlen operieren. Diese Entscheidung trug zur Verbesserung der Prozessorleistung in den folgenden Bereichen bei:


    • 3D-Grafik und -Modellierung, Beleuchtungsberechnung mittels Gleitkommaberechnungen;

    • Signalverarbeitung und Modellierung von Prozessen mit unterschiedlichsten Parametern;

    • Generierung dreidimensionaler Bilder in Echtzeitprogrammen, die keinen Integer-Code verwenden;

    • Videokodierungs- und -dekodierungsalgorithmen, die Daten in Blöcken verarbeiten;

    • numerische Filteralgorithmen, die mit Datenströmen arbeiten.

    Seit dem Jahr 2000 wird mit der Produktion von Prozessoren im FC-PGA-Gehäuse begonnen. Die neueste Modifikation Pentium III Und Celeron Stahlverarbeiter im Kern Tualatin, Hergestellt nach der 130-nm-Technologie. Modell Pentium III- S Tualatin hat eine Betriebsfrequenz von bis zu 1400 MHz, einen Cache-Speicher der zweiten Ebene mit einer Kapazität von 512 KB. Der Kernel hat einen Block erhalten Daten Vorabholen, was zu einem der Schlüsselelemente der zukünftigen Architektur wurde Pentium 4. Leider, Pentium III- S forderte eine neue Modifikation der Schnittstelle Steckdose 370, was die Möglichkeit einer Modernisierung bestehender Systeme ausschloss.
    SchnittstelleSteckdose 423

    CPU Pentium 4 im Kern Willamette hatte eine neue, auf Technologie basierende Architektur Netburst, was zur logischen Weiterentwicklung der Architektur wurde Pentium III- S im Kern Tualatin. Ein wichtiger Vorteil der Architektur Pentium 4 Es gab einen thermischen Kontrollmechanismus, der die Betriebsfrequenz automatisch reduzierte, wenn die Kerntemperatur einen vorgegebenen Schwellenwert überschritt. In den Kern Willamette führte erstmals die Unterstützung eines erweiterten Satzes von Multimedia-Anweisungen ein SSE2. Allerdings ist die Schnittstelle

    Steckdose 423 Es stellte sich heraus, dass das Unternehmen technologisch nicht sehr fortschrittlich war Intel war gezwungen, die Verwendung einzustellen.

    SchnittstelleSockel 478

    Pentium 4 1300-2800MHz(Juli 2001 – März 2004) Celeron 1700-2930MHz(Juli 2001 – Oktober 2004) Pentium 4IHR 3200-3400 MHz(September 2003 – März 2004)

    Schnittstelle Steckdose 478 wurde gleichzeitig mit der Umstellung der Prozessoren eingeführt Pentium 4 pro Kern Northwood, Ausgestattet mit einem 512 KB L2-Cache. Die Plattform wurde mit Chipsätzen ausgestattet, die einen von drei RAM-Typen unterstützen: Rambus DRAM (RDRAM), SDRAM, DDR SDRAM. MIT Ausdauer, die einer besseren Anwendung würdig ist, Intel unterstützt teuren RDRAM-Speicher auf Kosten von billigerem DDR SDRAM, was sowohl bei Motherboard-Herstellern als auch bei Benutzern für Unzufriedenheit sorgte. Und erst auf Druck von Partnern und Verbrauchern wurde der Chipsatz freigegeben 845 D, unterstützt DDR SDRAM.

    Langes Förderband Pentium 4 erlaubt, die Betriebsfrequenzen des Prozessors und die Frequenz des Systembusses ständig zu erhöhen. CPU-Frequenz mit Kern Northwood auf 3400 MHz und die Systembusfrequenz auf bis zu 800 MHz erhöht. Änderung Celeron unterscheidet sich von Pentium 4 halbierte Cache-Größe L2 und auf eine Systembusfrequenz von 400 MHz begrenzt.
    SchnittstelleSteckdose 775

    Pentium4 2666-3800 MHz(seit Juni 2004) CeleronD2533-3200 MHz(seit Juni 2004) Pentium4 EE 3460-3730 MHz(seit Juni 2004)

    Der nächste große Schritt des Unternehmens Intel Zur Verbesserung der Technik gehörte die Übertragung aller Prozessoren für Desktop-Systeme auf die Schnittstelle Steckdose 775 LGA (Land Grid Array). ). Etwas früher wurde eine verbesserte Kernel-Architektur eingeführt Prescott (technische Standards 90 nm). Der Kernel verfügt über eine erweiterte Ausführungspipeline, einen auf 1024 KB vergrößerten L2-Cache und Unterstützung für den Befehlssatz SSE3. Gleichzeitig steigt die Wärmeleistung des Prozessors Pentium 4 im Kern PrescottMit Die 3,8-GHz-Frequenz erreichte 125 Watt.

    Familienprozessoren Celeron D Ihr Aussehen verdanken sie der Einführung der 90-nm-Technologie. Gemäß Unternehmenspolitik Intel, Die Budgetmodifikation erhielt einen halbierten Cache (also 256 KB) und eine auf 533 MHz begrenzte Systembusfrequenz.

    Der Übergang zur neuen Schnittstelle war durch ein bedeutendes Ereignis gekennzeichnet: Intel weigerte sich, Prozessoren nach Betriebsfrequenz zu kennzeichnen und führte nach dem Vorbild von AMD die Kennzeichnung nach Bewertung (Prozessornummer) ein.

    Extreme Edition (EE)-Prozessoren nehmen in der Pentium 4-Familie eine Sonderstellung ein. Sie basieren auf einem völlig anderen Gallatin-Kern (130-nm-Technologie). Der Hauptunterschied zum Pentium 4 EE ist das Vorhandensein eines 2 MB großen L3-Cache und einer erhöhten Systembusfrequenz auf bis zu 1066 MHz.

    VM ist eine Reihe von Softwaretools, die für die automatische Informationsverarbeitung entwickelt wurden.

    Struktur, Architektur von Computern, Systemen und Netzwerken.

    Vorträge: Ph.D., Assoc. Schanow Alexander Iwanowitsch

    Praxis: Ivakin Konstantin Nikolaevich.

    EINFÜHRUNG

    Russland steht der historischen Notwendigkeit im Weg, eine neue Ebene der sozialen und wirtschaftlichen Entwicklung zu erreichen, die von den grausamen Anforderungen einer Marktwirtschaft bestimmt wird. Es geht um die Art und Weise der Bildung der Informationsgesellschaft. Die materielle Basis der Informationsgesellschaft ist die Informationswirtschaft. Grundlage der Informationswirtschaft ist die Schaffung und der Konsum von Informationsressourcen oder Informationswerten.

    Die Hauptmerkmale der Informationswirtschaft:

    1) Die Hauptform der Akkumulation ist die Akkumulation von Wissen und anderen nützlichen Informationen.

    2).Es handelt sich um eine Veränderung der Art der Produktionsprozesse in den Hauptbereichen.

    3).Wirtschaftlich gerechtfertigt ist die Kleinserien- und Einzelfertigung.

    4) Ein starker Anstieg der Geschwindigkeit wirtschaftlicher Prozesse.

    5).Stärkung der Integrationsprozesse.

    Die entwickelten Länder der Welt haben in den 70er Jahren den Weg der Informationswirtschaft eingeschlagen.

    Dieser Weg hatte folgende Punkte:

    1) Die Überschreitung der Gesamtkosten, reine Informationsbasis gegenüber anderen Branchen.

    2) Eine Erhöhung des Anteils der immateriellen Kosten.

    3).Bildung globaler Kommunikationsnetzwerke der Gesellschaft.

    4) Steigerung der Produktion bis zu 50 % der Bevölkerung in der Informationsverarbeitung beschäftigt.

    BAUGRUNDSÄTZE UND COMPUTERARCHITEKTUR.

    Computer, Computer Hierbei handelt es sich um einen Komplex technischer Mittel zur automatischen Verarbeitung von Informationen bei der Lösung von Rechen- und Informationsproblemen.

    Die Benutzeranforderungen an die Ausführung von Rechenarbeiten werden durch die Auswahl und Konfiguration von Hardware und Software bestimmt, die in einer Struktur zusammengefasst sind.

    Die Struktur eines Computers besteht aus einer Menge seiner Elemente und deren Verbindungen. Es gibt Strukturen technischer, Software- und Hardware-Software-Einrichtungen.

    Rechnerarchitektur - Hierbei handelt es sich um eine mehrstufige Hierarchie von Hardware und Software, aus der ein Computer besteht. Jede der Ebenen ermöglicht mehrere Konstruktionen und Anwendungen.

    Die Detaillierung der architektonischen und strukturellen Konstruktion von Computern wird von verschiedenen Kategorien von Computertechnologiespezialisten durchgeführt:

      Ingenieure (Technologiediagramm) – entwerfen einzelne technische Geräte und entwickeln Methoden für die Vernetzung untereinander.

      Systemprogrammierer – erstellen Programme zur Verwaltung technischer Mittel, zur Informationsverteilung zwischen Ebenen und zur Organisation des Rechenprozesses.

      Anwendungsprogrammierer – entwickeln Softwarepakete auf höherem Niveau, die die Benutzerinteraktion mit dem Computer und den dafür notwendigen Dienst ermöglichen.

      Computerwartungsspezialisten – befassen sich mit allgemeinen Problemen der Benutzerinteraktion mit einem Computer.

    1) Technische und betriebliche Eigenschaften.

    2) Computerleistung – die Menge an Arbeit, die Computer pro Zeiteinheit leisten.

    3) Speicherkapazität: RAM und ROM.

    4) Zuverlässigkeit ist die Fähigkeit eines Computers, unter bestimmten Bedingungen die erforderlichen Funktionen für einen bestimmten Zeitraum auszuführen.

    5) Genauigkeit ist die Fähigkeit, zwischen nahezu gleichen Werten zu unterscheiden.

    6) Zuverlässigkeit ist die Eigenschaft von Informationen, richtig wahrgenommen zu werden.

    Computerklassifizierung

    Die Größe und Vielfalt des modernen Computerparks erforderte ein Computerqualifizierungssystem. Es wurden viele Klassifizierungsprinzipien vorgeschlagen:

      Klassifizierung von Computern nach der Form der Mengendarstellung Computer sind unterteilt in:

      • analog(fortlaufend) AVM

        Digital(diskrete Aktion) digitaler Computer

        Analog Digital(hybrides) GVM

    In AVM werden die verarbeiteten Informationen durch die entsprechenden Werte analoger Berechnungen dargestellt: Strom, Spannung, Drehwinkel.

    In einem digitalen Computer (Computer) werden Informationen im Binärcode kodiert. Digitale Computer mit elektrischer Darstellung diskreter Informationen, elektronische Computer, sind weit verbreitet.

      Klassifizierung von Computern nach Generationen (nach elementarer Basis):

      • Erste Generation (50g): Computer auf elektronischen Vakuumröhren.

        Zweite Generation (60g): Computer auf diskreten Halbleiterbauelementen (Transistoren).

        Dritte Generation (70): Computer, die auf integrierten Halbleiterschaltkreisen mit geringem Integrationsgrad basieren.

        Vierte Generation (80): Computer auf großen integrierten Schaltkreisen.

        Fünfte Generation (90): Computer auf ultragroßen integrierten Schaltkreisen.

        Sechste und folgende Generationen: optoelektronische Computer mit massiver Parallelität und neuronaler Struktur – mit einem verteilten Grad einer großen Anzahl einfacher Mikroprozessoren, die die Architektur neuronaler biologischer Systeme modellieren.

    Integrierter Schaltkreis - eine spezielle elektronische Schaltung in Form eines einzelnen Halbleiterkristalls, der eine große Anzahl von Dioden und Transistoren kombiniert.

      Computerklassifizierung nach Leistung (Geschwindigkeit):

    1).Supercomputer - Maschinen für Großaufgaben (IBM).

    2).Großrechner - Maschinen für territoriale, regionale Aufgaben.

    3).Mittlere Computer - sehr weit verbreitete Maschinen.

    4).Kleine Computer.

    5).PC(persönliche Computer).

    6).Mikrocomputer und Mikroprozessoren.

    7).Computernetzwerke.

    Allgemeine Prinzipien zum Bau moderner Computer.

    Das Grundprinzip beim Aufbau eines Computers ist die Programmsteuerung, die auf der Darstellung eines Algorithmus zur Lösung eines beliebigen Problems in Form eines Berechnungsprogramms basiert.

    Ein Algorithmus ist ein endlicher Satz von Vorschriften, der Lösungen für ein Problem durch eine endliche Anzahl von Operationen ermittelt (internationaler Standard ISO 2382/1-84).

    Ein Programm ist eine geordnete Abfolge von Befehlen, die verarbeitet werden sollen.

    Das Prinzip der Programmsteuerung kann auf unterschiedliche Weise umgesetzt werden. Der Standard für den Bau fast aller Computer wurde 1945 von Neumann eingeführt. Das dem Programmsteuerungsprinzip entsprechende Computerschema spiegelt die Art des menschlichen Handelns gemäß dem Algorithmus wider.

    Programmströme

    und Hintergrundinformationen

    Verallgemeinerte Struktur von Jen-von-Neumann-Computern der ersten und zweiten Generation

    UPD – Datenaufbereitungsgerät.

    UVS ist ein Eingabegerät.

    ALU – arithmetisch-logische Einheit.

    UU - Steuergerät.

    RAM ist ein Speicher mit wahlfreiem Zugriff.

    DZU – Langzeitgedächtnis

    VZU ist ein externes Speichergerät.

    UV-Ausgabegerät.

    ZU+ALU+UU – Prozessor.

    Jeder Computer verfügt über ein Informationseingabegerät, mit dessen Hilfe Programme zur Problemlösung und Daten dazu in den Computer eingegeben werden.

    RAM – ist für die betriebliche Speicherung des in der Ausführung gespeicherten Programms ausgelegt.

    VZU – konzipiert für die langfristige Speicherung von Informationen.

    Cache-Speicher ist ein Zwischenspeicher zwischen RAM und VZU.

    CU – ist für die automatische Ausführung von Programmen durch erzwungene Koordination aller anderen Computergeräte konzipiert.

    ALU – führt arithmetische und logische Operationen an Daten durch. Die Basis der ALU ist eine Betriebsmaschine, die Folgendes umfasst: Addierer, Zähler, logische Operationen.

    Der klassische Aufbau eines Computers ist mit dem Übergang zu LSI (Large-Scale Integrated Circuits) in das Konzept der Computerarchitektur übergegangen.

    CPU

    Geräte

    Konjugation

    Generalisierte Architektur der dritten und vierten Generation

    Bei Computern der dritten Generation entstand die Komplexität der Struktur durch die Trennung der Prozesse der Eingabe/Ausgabe von Informationen und deren Verarbeitung. Es entsteht das Konzept eines Prozessors, bei dem SRAM (Super Operational Device), ALU und CU untrennbar miteinander verbunden sind. Es erscheint das Konzept der Ein-/Ausgabekanäle, die in Multiplex unterteilt sind (MK) und Selektorkanäle (SC).

    MK – Entwickelt für die Bedienung einer großen Anzahl langsamer Geräte.

    SC – Hochgeschwindigkeits-Einzelgeräte bedienen.

    In Bezug auf PCs hat die Architektur eine vereinfachte Sicht auf die Architektur kleiner Maschinen übernommen (das Prinzip der offenen Architektur, bei der das Hauptelement das Systemrückgrat ist). Der Kern eines PCs besteht aus einem Prozessor und einem Hauptspeicher. Alle anderen Geräte werden über Adapter (Koppelgeräte) angeschlossen.

    CPU

    Regler

    Regler

    SYSTEM BUS

    Verallgemeinerte PC-Architektur

    Mathe-Prozessor

    Integral

    Mikroprozessor

    Arithmetik-Logikeinheit

    Mikroprozessorspeicher

    Kontrollgerät

    SYSTEM BUS

    Haupterinnerung

    Externer Speicher

    HDD-Adapter

    NGMD-Adapter

    Videoadapter

    Druckeradapter

    Stromversorgung

    Netzwerkadapter

    Verknüpfung

    Taktgenerator

    Tastaturschnittstelle

    Tastatur

    Strukturdiagramm eines PCs

    FUNKTIONELLE UND STRUKTURELLE ORGANISATION VON COMPUTERN.

    Allgemeine Prinzipien der funktionalen und strukturellen Organisation von Computern

    Ein Computer verfügt neben Hardware und Software (Hard Ware und Soft Ware) über eine Vielzahl funktionaler Werkzeuge. Dazu gehören Codes, mit denen die verarbeiteten Informationen in digitaler Form dargestellt werden:

    ). Arithmetische Codes.

    2) Anti-Jamming-Codes.

    3).Digitale Codes analoger Werte.

    Neben Codes wird die Funktionsweise eines Computers beeinflusst durch:

      Algorithmen für deren Bildung und Verarbeitung

      Technologien zur Durchführung verschiedener Verfahren

      Möglichkeiten, die Arbeit verschiedener Geräte zu organisieren

      Organisation des Interrupt-Systems.

    Die funktionale Organisation eines Computers wird gebildet durch: Codes, Befehlssysteme, Algorithmen zur Durchführung von Maschinenoperationen, Technologie zur Durchführung verschiedener Verfahren und das Zusammenspiel von Hart und Weich, Einsatzmöglichkeiten von Geräten bei der Organisation ihrer gemeinsamen Arbeit, die die Ideologie von ausmachen der Computer.

    Die Ideologie der Computerfunktion kann auf unterschiedliche Weise umgesetzt werden:

    1).Hardware

    2).Software und Hardware

    3) Software.

    Somit ergänzt die Implementierung von Computerfunktionen seine strukturelle Organisation. Der Vergleich von Computerstrukturen, ergänzt um eine funktionale Struktur, führt zum Konzept kompatibler und inkompatibler Computer.

    Organisation des Funktionierens eines Computers mit einer mogestralen Struktur

    Ein Computer ist eine Reihe von Geräten, die auf großen integrierten Schaltkreisen basieren und einen funktionalen Zweck erfüllen.

    Ein Satz integrierter Schaltkreise wird als Mikroprozessorsatz bezeichnet.

    Das Mikroprozessor-Set beinhaltet:

      System-Timer

      Mikroprozessor

      Coprozessoren (Organisation mathematischer Prozesse)

      Interrupt-Controller

      I/O-Geräte-Controller.

    Alle Computergeräte sind unterteilt in:

    1) Zentral (vollelektronisches BIS).

    2) Peripherie (teils elektronisch, teils elektromechanisch mit elektronischer Steuerung).

    In Zentraleinheiten ist das Hauptgerät der Systembus (Systembus).

    Die Systemautobahn besteht aus drei Knoten:

    ).Busadresse (SHA)

    3) Steuerbus (SHU).

    Zur Struktur der Systemautobahn gehören außerdem: Latch-Register, Bus-Arbiter.

    Die Systembusschnittstelle ist die Logik des Systembusses, die Anzahl der Leitungen (Ziffern) in den Daten-, Adress- und Steuerbussen, das Verfahren zur Lösung von Konfliktsituationen.

    Die Zusammensetzung der zentralen Geräte des Computers umfasst:

      CPU

      Haupterinnerung

      eine Reihe zusätzlicher Knoten, die Servicefunktionen ausführen

      Interrupt-Controller

      Controller für direkten Speicherzugriff

    Peripheriegeräte sind unterteilt in:

      externes Speichergerät (HDD – Festplattenlaufwerk, Diskettenlaufwerk – Diskettenlaufwerk)

    Organisation der Computerarbeit bei der Ausführung einer Benutzeraufgabe

    Einer der „transparenten“ Prozesse der Maschine ist die Organisation der Eingabe, Transformation und Anzeige der Ergebnisse der Systemsoftware. Ein Aufgabenprogramm, das von einem Programmierer in einer algorithmischen Sprache geschrieben wurde, wird aufgerufen Originalmodul.

    Die Übersetzung des Quellprogramms in Maschinensprache übernimmt das Programm Übersetzer. Es ist unterteilt in: Compiler Und Dolmetscher.

    Dolmetscher - Nach der Übersetzung jeder Anweisung des Quellmoduls in die Maschinensprache führt es diese sofort aus.

    Compiler – übersetzt zunächst das gesamte Programm des Quellmoduls vollständig in Maschinensprache und führt es dann aus.

    Objektmodul - Maschinensprache.

    Das resultierende Objektmodul wird in die Objektmodulbibliothek geschrieben oder sofort ausgeführt.

    Um ein debuggtes Objektmodul auszuführen, können ihm fehlende Programme aus der Compiler-Bibliothek hinzugefügt werden. Diese Verbindung ist hergestellt Kommunikationseditorprogramm. Infolgedessen a Lademodul.

    Die Ausführung des Bootmoduls wird durchgeführt Ladeprogramm.

    Betriebssystem (OS) – übernimmt die Steuerungsfunktion.

    AUFBAU DES ADRESSRAUMS DES PROGRAMMS ZUM HAUPTSPEICHER

    Um das Programm auszuführen, wenn es in den Arbeitsspeicher (RAM) geladen wird, wird ihm ein Teil der Maschinenressourcen zugewiesen. Die Zuteilung der Ressourcen kann vom Programmierer selbst erfolgen, aber auch das Betriebssystem kann dies tun. Das Zuweisen von Ressourcen vor der Ausführung eines Programms wird aufgerufenstatische Bewegung, Dadurch ist das Programm an einen bestimmten Speicherort gebunden.

    Werden während der Ausführung des Programms Ressourcen der Maschine allokiert, so wird dies aufgerufendynamische Bewegung , hier ist das Programm nicht an einen bestimmten Ort gebunden.

    Bei statischer Bewegung sind zwei Fälle möglich:

    absolutes Programm.

    2) Der tatsächliche Speicher ist kleiner als der erforderliche Adressraum. In diesem Fall stellt sich das Problem der Organisation der Programmausführung.

    Es gibt mehrere Methoden, dieses Problem zu lösen:

      Eine Overlay-Strukturmethode, bei der das Programm in Teile zerlegt wird, die vom OP nach Bedarf aufgerufen werden.

      Die Methode der kostengünstigen Module, bei der das Programm in temporäre Module unterteilt wird, die bei mehreren Aufrufen zur Ausführung verfügbar sind.

    Es gibt Programme im Multiprogrammmodus. A, B, C. Beim Arbeiten im Multiprogramm-Modus kann es vorkommen, dass zwischen den Programmen Lücken im freien Speicher entstehen. Um dies zu vermeiden, verwenden Sie ein Festplatten-Defragmentierungsprogramm.

    Virtueller Speicher

    Der reale Speicher kann „erhöht“ werden, indem der Betrieb mit maximalem Speicher simuliert wird. Der Programmierer geht davon aus, dass ihm der „echte“ Speicher zur Verfügung gestellt wird, der dem Computer maximal zur Verfügung steht. Dieser Modus wird als Modus bezeichnetvirtueller Speicher.

    Der virtuelle Speicher ist das theoretisch verfügbare RAM-Volumen, das nur durch den Adressteil des Befehls bestimmt wird.

    Der virtuelle Speicher verfügt über eine segmenton-page-Organisation und ist in einem hierarchischen Computersystem implementiert. Ein Teil davon wird in den Blöcken des Hauptspeichers abgelegt, ein Teil in den Zellen des externen Speichers. Der beschreibbare Bereich in einer externen Speicherseite wird aufgerufenZelle oder Slot. Alle Programmseiten befinden sich physisch an externen Seitenspeicherorten.

    Programm in den virtuellen Speicher laden - Dies bedeutet, dass mehrere Seiten vom externen Seitenspeicher in den Hauptspeicher überschrieben werden.

    Computer-Interrupt-System

    Computer - Es handelt sich um einen Komplex autonomer Geräte, von denen jedes seine Funktionen unter der Kontrolle eines lokalen Steuergeräts unabhängig von anderen Geräten ausführt.

    Schaltet die Zentraleinheit (CPU) ein und leitet Befehle und notwendige Parameter an das Gerät weiter. Somit richtet die CPU ihre „Aufmerksamkeit“ abwechselnd von Gerät zu Gerät. Damit die CPU funktioniert, wurde ein System von Interrupts erstellt.

    Das Funktionsprinzip des Interrupt-Systems besteht darin, dass sich bei der Ausführung des Programms nach jedem Arbeitszyklus des Mikroprozessors der Inhalt des Registers ändert.

    Interrupts werden in drei Typen unterteilt:

      Hardware

      Rätsel

      Software

    Zentralcomputergeräte

    Hauptspeicher und Gerätezusammensetzung

    Speichergeräte (Speicher) bezeichnet eine Reihe von Softwaretools, die Speicherfunktionen implementieren.

    Der Speicher ist unterteilt in:

    1).Hauptspeicher (OP)

    2).Super-Random-Access-Speicher (SRAM)

    3).Externer Speicher (VZU)

    Das OP umfasst zwei Arten von Geräten:

      RAM (RAM – zufälliger Speicher)

      Rom (ROM – Nur-Lese-Speicher)

    RAM dient zum Speichern variabler Informationen.

    Speicher – enthält Informationen, die sich während der Ausführung der Prozessorberechnungen nicht ändern sollten.

    Die Funktionalität von RAM ist breiter als die von ROM, aber ROM ist nichtflüchtig und hat eine höhere Geschwindigkeit.

    In modernen Computern werden Speicherchips mithilfe von Halbleitertechnologie aus Silizium hergestellt, wobei die Elemente auf einem Chip hochintegriert sind.

    Der Hauptbestandteil des Mikroprozessors ist eine Anordnung von Speicherelementen, die zu einer Antriebsmatrix zusammengefasst sind. Jedes Speicherelement kann 1 Bit Speicher speichern. Jedes Bit hat eine eigene Adresse im Speicher, wodurch Sie über die Adresse auf jedes Speicherelement zugreifen können – den sogenannten Direktzugriffsspeicher.

    2 Bytes – halbes Wort

    4 Bytes - Wort

    8 Bytes - Doppelwort

    variable Länge

    Mit der Matrixorientierung des Speichers wird das Koordinatenprinzip der Adressierung von Speicherelementen umgesetzt, wenn die Adresse durch geteilt wirdX Und Y. Am Schnittpunkt dieser Elemente liegen die auszulesenden Speicherelemente.

    Auf Speicherchips kann aufgebaut werdenSRAM (statisch) Und DRAM (dynamisch).

    Als statisches Speicherelement (EP) wird üblicherweise ein statischer Trigger und als dynamisches EP ein elektrischer Kondensator in einem Siliziumkristall verwendet.

    RAM zeichnet sich durch Volumen und Geschwindigkeit aus. Der Arbeitsspeicher moderner Computer ist modular aufgebaut. Austauschbare Module haben einen anderen strukturellen Aufbau:SIM, ZIM, SIMM, DIMM. Die Erhöhung des Arbeitsspeichers ist auf den Einbau zusätzlicher Module zurückzuführen, die in 30-Pin (30) erhältlich sindStift) oder 72-polig (72Stift) bei 1,4,8,16,32,64 MB. Zugriffszeit aufDRAMbeträgt 60-70 ns.

    Die Computerleistung wird beeinträchtigt Taktfrequenz und Bitbreite des Datenbusses des System Highways (SM). Wenn die Taktfrequenz nicht hoch genug ist, wartet der RAM auf einen Anruf und umgekehrt.

    Ein Leistungsmaß für RAM ist die Bandbreite, gemessen in MB/s.

    ROM-Chips sind nach dem Prinzip einer Matrixstruktur aufgebaut, die Funktionen der Speicherelemente werden jedoch von Jumpern in Form von Halbleiterdioden übernommen. Der Vorgang der Eingabe von Informationen in ROM-Chips wird aufgerufen Programmierung, und das Gerät ist Programmierer.

    SRAM wird zum Speichern kleiner Informationsmengen verwendet, wodurch die Lesegeschwindigkeit um das 10- bis 20-fache sinkt. SRAMs basieren auf Registern, sie sind adressierbar und nicht adressierbar. Registerstrukturen werden in Push-Pull-Speicher und inhaltsselektiven Speicher unterteilt.

    Es gibt eine große Anzahl von MPs, die sich in Name, Funktionalität, Struktur und Ausführung unterscheiden. Der Hauptunterschied besteht in der Anzahl der Bits der verarbeiteten Informationen.

    Zur Gruppe der 8-Bit-Prozessoren gehören:

      I 8080 (INTEL) – Integrierter Electonus

      Firma Zelog (z)

    Am weitesten verbreitet sind:

      ICH 80386

      ICH 80486

    Jede nachfolgende Modifikation verfügt über ein erweitertes Befehlssystem und eine erweiterte Architekturstruktur (z. B. inICH80486 führte einen integrierten Coprozessor ein). Alle Verbesserungen zielen darauf ab, den PC multifunktional zu machen.

    Mikroprozessorcharakteristik

    Jeder MP hat seinen eigenen Namen, seine eigene Taktfrequenz,ICOMP- zeigt den Standard, die Datenbusbreite und den adressierbaren Speicher an, d. h. Adressbusbreite, Vorhandensein eines Coprozessors, Stromverbrauch, diverse Hinweise.

    Der Personalcomputer des UnternehmensINTEL MP-Analoga ( Klon) sind Firmen:

    1). Cyrix

    Herkömmlicherweise kann MP in zwei Teile unterteilt werden:

    1). EU- Ausführungseinheit

    2). BIU– Schnittstellengerät CM

    Die Ausführungseinheit enthält die Recheneinheit und das Universalregister.

    Im zweiten Schritt werden Adressregister erstellt.

    Die MP-Familie des UnternehmensINTELverfügt über ein grundlegendes Befehlssystem, das Folgendes umfasst:

      Befehle zur Datenübertragung.

      Arithmetische Daten.

      Logische Befehle.

      Befehle zur Verarbeitung von String-Daten.

      Steuerübertragungsbefehle.

      Steuerbefehle.

    Der Betrieb des MP wird durch ein im OP-Computer aufgezeichnetes Programm gesteuert. Einen besonderen Platz nimmt die Organisation von Unterbrechungen ein. Das Interrupt-Shell-Programm kann sich in verschiedenen Teilen des OP befinden und verfügt über unterschiedliche SteuerungsmöglichkeitenDOS.

    VERWALTUNG EXTERNER GERÄTE

    Managementprinzipien

    Die Übertragung von Informationen von einem Peripheriegerät an einen Computer nennt manEingabevorgang, und die Übertragung vom Computer -Auszahlungsvorgang.

    Bei der Entwicklung eines I/O-Systems werden Probleme gelöst:

    1) Bieten Sie die Möglichkeit, Maschinen mit variabler Ausstattung zu verkaufen.

    2) Es ist notwendig, den gleichzeitigen Betrieb des Prozessors am Programm und die Ausführung von E/A-Prozeduren zu implementieren.

    3). Vereinfachen Sie die Arbeit des Benutzers mit Eingabe-/Ausgabegeräten.

    Der erste Schritt zur Lösung dieser Probleme wurde bei der Entwicklung von Computern der zweiten Generation getan, als erstmals ein autonomer Betrieb externer Geräte (Schnittstelle) vorgesehen war.

    Schnittstelle – ein Gerät zum Anschluss zentraler und peripherer Geräte (Schnittstellengerät).

    Durch die Schnittstellenstandardisierung ist es möglich geworden, die Struktur des Computers flexibel zu verändern. Dann kam das Konzept der virtuellen Geräte, mit denen Sie verschiedene Arten von Betriebssystemcomputern kombinieren können. Die weitere Entwicklung von Schnittstellen erforderte die Schaffung neuer Geräte (Scanner) und infolgedessen entstand der Bedarf an Erkennung, Identifizierung und Umwandlung von einer grafischen in eine symbolische Form. Die Analyse von Bildern aus dem Weltraum erforderte ein automatisches System beobachteter Objekte. All dies führte dazu, dass Speicher in das externe Gerät eingebaut wurde. Intellektualisierung und Kommunikation sind in den Maschinen der 5. Generation verankert.

    Schnittstelle

    Die interne Schnittstelle ist parallel oder seriell parallel ausgeführt.

    Bei der Verwendung von Software und Hardware werden Ein-/Ausgabeschnittstellen unterteilt in:

      körperlich

      Rätsel.

    HAVE – algorithmische Sprachen höherer Ordnung

    Treiber

    E/A

    DOS-Programm

    BIOS-Programm

    Austausch über IN/OUT-Ports

    Logikebene

    Physikalische Schicht

    Abhängig vom Grad der Beteiligung der CPU am Management gibt es:

    1).Scan-Modus (asynchron)

    2).Synchronmodus

    3).Direkter Speicherzugriff.

    Der Scan-Modus fragt die CPU des Peripheriegeräts ab. Der Scanmodus ist einfach, hat aber Nachteile:

      Der Roprozessor ist ständig ausgelastet und kann keine andere Arbeit erledigen

      Bei einer hohen Geschwindigkeit der Peripheriegeräte hat der Prozessor keine Zeit, die Informationen zu verarbeiten.

    Im synchronen Modus fordert die CPU Peripheriegeräte an, wartet jedoch nicht auf eine Antwort, sondern führt andere Arbeiten aus.

    Zufällige Artikel

    Hoch