Speicher mit wahlfreiem Zugriff -Random-access memory
Arten von Computerspeichern und Datenspeichern |
---|
Flüchtig |
Nicht flüchtig |
Direktzugriffsspeicher ( RAM ; / r æ m / ) ist eine Form von Computerspeicher , der in beliebiger Reihenfolge gelesen und geändert werden kann und normalerweise zum Speichern von Arbeitsdaten und Maschinencode verwendet wird . Ein Speicher mit wahlfreiem Zugriff ermöglicht das Lesen oder Schreiben von Datenelementen in fast der gleichen Zeit, unabhängig vom physischen Speicherort der Daten im Speicher, im Gegensatz zu anderen Datenspeichermedien mit direktem Zugriff (wie Festplatten , CD- RWs , DVD-RWs und die älteren Magnetbänder und Trommelspeicher ), bei denen die zum Lesen und Schreiben von Datenelementen erforderliche Zeit aufgrund mechanischer Einschränkungen wie Medienrotationsgeschwindigkeiten und Armbewegungen je nach ihrer physischen Position auf dem Aufzeichnungsmedium erheblich variiert.
Der RAM enthält eine Multiplex- und Demultiplexschaltung , um die Datenleitungen mit dem adressierten Speicher zum Lesen oder Schreiben des Eintrags zu verbinden. Normalerweise wird über dieselbe Adresse auf mehr als ein Speicherbit zugegriffen, und RAM-Geräte haben oft mehrere Datenleitungen und werden als "8-Bit"- oder "16-Bit"-Geräte usw. bezeichnet.
In der heutigen Technologie nimmt der Direktzugriffsspeicher die Form von Chips mit integrierter Schaltung (IC) mit MOS- (Metall-Oxid-Halbleiter) -Speicherzellen an . RAM ist normalerweise mit flüchtigen Speichertypen (wie z. B. Modulen mit dynamischem Direktzugriffsspeicher (DRAM) ) verbunden, bei denen gespeicherte Informationen verloren gehen, wenn die Stromversorgung unterbrochen wird, obwohl auch nichtflüchtiger RAM entwickelt wurde. Es gibt andere Arten von nichtflüchtigen Speichern , die einen wahlfreien Zugriff für Leseoperationen ermöglichen, aber entweder keine Schreiboperationen zulassen oder andere Arten von Beschränkungen haben. Dazu gehören die meisten ROM -Typen und eine Art Flash-Speicher namens NOR-Flash .
Die zwei Haupttypen von flüchtigen Halbleiterspeichern mit wahlfreiem Zugriff sind statische Speicher mit wahlfreiem Zugriff (SRAM) und dynamische Speicher mit wahlfreiem Zugriff (DRAM). Die kommerzielle Verwendung von Halbleiter-RAM geht auf das Jahr 1965 zurück, als IBM den SP95-SRAM-Chip für ihren Computer System/360 Model 95 einführte und Toshiba DRAM-Speicherzellen für seinen elektronischen Taschenrechner Toscal BC-1411 verwendete , die beide auf Bipolartransistoren basierten . Kommerzielle MOS-Speicher, basierend auf MOS-Transistoren , wurden in den späten 1960er Jahren entwickelt und sind seitdem die Basis für alle kommerziellen Halbleiterspeicher. Der erste kommerzielle DRAM-IC-Chip, der Intel 1103 , wurde im Oktober 1970 eingeführt. Der synchrone dynamische Direktzugriffsspeicher (SDRAM) debütierte später mit dem Samsung KM48SL2000-Chip im Jahr 1992.
Geschichte
Frühe Computer verwendeten Relais , mechanische Zähler oder Verzögerungsleitungen für Hauptspeicherfunktionen. Ultraschall-Verzögerungsleitungen waren serielle Geräte , die Daten nur in der Reihenfolge wiedergeben konnten, in der sie geschrieben wurden. Der Trommelspeicher konnte mit relativ geringen Kosten erweitert werden, aber ein effizienter Abruf von Speicherelementen erforderte Kenntnisse über das physikalische Layout der Trommel, um die Geschwindigkeit zu optimieren. Latches, die aus Vakuumröhren- Trioden und später aus diskreten Transistoren gebaut wurden, wurden für kleinere und schnellere Speicher wie Register verwendet. Solche Register waren relativ groß und zu kostspielig, um sie für große Datenmengen zu verwenden; im Allgemeinen könnten nur wenige Dutzend oder wenige Hundert Bits eines solchen Speichers bereitgestellt werden.
Die erste praktische Form eines Direktzugriffsspeichers war ab 1947 die Williams-Röhre . Sie speicherte Daten als elektrisch geladene Punkte auf der Vorderseite einer Kathodenstrahlröhre . Da der Elektronenstrahl der CRT die Flecken auf der Röhre in beliebiger Reihenfolge lesen und schreiben konnte, war der Speicher ein wahlfreier Zugriff. Die Kapazität der Williams-Röhre betrug einige hundert bis etwa tausend Bits, aber sie war viel kleiner, schneller und energieeffizienter als die Verwendung einzelner Vakuumröhren-Latches. Die Williams-Röhre wurde an der Universität von Manchester in England entwickelt und lieferte das Medium, auf dem das erste elektronisch gespeicherte Programm im Manchester Baby -Computer implementiert wurde, der am 21. Juni 1948 erstmals erfolgreich ein Programm ausführte. Tatsächlich eher als der Williams-Röhrenspeicher Das Baby wurde für das Baby entwickelt und war ein Testbett , um die Zuverlässigkeit des Gedächtnisses zu demonstrieren.
Magnetkernspeicher wurden 1947 erfunden und bis Mitte der 1970er Jahre entwickelt. Es wurde zu einer weit verbreiteten Form von Direktzugriffsspeichern, die auf einer Anordnung magnetisierter Ringe beruhen. Durch Ändern der Richtung der Magnetisierung jedes Rings könnten Daten mit einem pro Ring gespeicherten Bit gespeichert werden. Da jeder Ring eine Kombination von Adressdrähten hatte, um ihn auszuwählen und zu lesen oder zu schreiben, war der Zugriff auf jeden Speicherplatz in beliebiger Reihenfolge möglich. Magnetkernspeicher waren die Standardform von Computerspeichersystemen , bis sie in den frühen 1970er Jahren durch Festkörper- MOS - Halbleiterspeicher ( Metall-Oxid-Silizium ) in integrierten Schaltkreisen (ICs) ersetzt wurden.
Vor der Entwicklung integrierter Nur-Lese-Speicher (ROM)-Schaltungen wurde ein permanenter (oder Nur-Lese- )Speicher mit wahlfreiem Zugriff häufig unter Verwendung von Diodenmatrizen konstruiert, die von Adressdecodern oder speziell gewickelten Kernseil-Speicherebenen angesteuert wurden .
Halbleiterspeicher begannen in den 1960er Jahren mit Bipolarspeichern, die Bipolartransistoren verwendeten . Obwohl es die Leistung verbesserte, konnte es nicht mit dem niedrigeren Preis von Magnetkernspeichern konkurrieren.
MOS-RAM
Die Erfindung des MOSFET (Metalloxid-Halbleiter-Feldeffekttransistor), auch bekannt als MOS-Transistor, durch Mohamed M. Atalla und Dawon Kahng bei Bell Labs im Jahr 1959 führte zur Entwicklung von Metalloxid-Halbleitern (MOS )-Speicher von John Schmidt bei Fairchild Semiconductor im Jahr 1964. Neben der höheren Leistung war der MOS - Halbleiterspeicher billiger und verbrauchte weniger Strom als Magnetkernspeicher. Die Entwicklung der MOS-IC-Technologie ( Silicon-Gate MOS Integrated Circuit ) durch Federico Faggin bei Fairchild im Jahr 1968 ermöglichte die Produktion von MOS - Speicherchips . MOS-Speicher überholten Magnetkernspeicher als vorherrschende Speichertechnologie in den frühen 1970er Jahren.
Ein integrierter bipolarer statischer Direktzugriffsspeicher (SRAM) wurde 1963 von Robert H. Norman bei Fairchild Semiconductor erfunden . Darauf folgte 1964 die Entwicklung von MOS SRAM durch John Schmidt bei Fairchild. SRAM wurde zu einer Alternative zum Magnetkernspeicher , benötigte aber sechs MOS-Transistoren für jedes Datenbit . Die kommerzielle Nutzung von SRAM begann 1965, als IBM den SP95-Speicherchip für das System/360-Modell 95 einführte .
Dynamischer Direktzugriffsspeicher (DRAM) ermöglichte den Ersatz einer Latch-Schaltung mit 4 oder 6 Transistoren durch einen einzelnen Transistor für jedes Speicherbit, wodurch die Speicherdichte auf Kosten der Flüchtigkeit stark erhöht wurde. Daten wurden in der winzigen Kapazität jedes Transistors gespeichert und mussten regelmäßig alle paar Millisekunden aufgefrischt werden, bevor die Ladung abfließen konnte. Der elektronische Taschenrechner Toscal BC-1411 von Toshiba , der 1965 eingeführt wurde, verwendete eine Form von kapazitivem bipolarem DRAM und speicherte 180-Bit-Daten auf diskreten Speicherzellen , die aus Germanium - Bipolartransistoren und Kondensatoren bestanden. Bipolarer DRAM bot zwar eine verbesserte Leistung gegenüber Magnetkernspeichern, konnte aber nicht mit dem niedrigeren Preis des damals dominierenden Magnetkernspeichers konkurrieren.
Die MOS-Technologie ist die Grundlage für moderne DRAMs. 1966 arbeitete Dr. Robert H. Dennard am IBM Thomas J. Watson Research Center an MOS-Speichern. Bei der Untersuchung der Eigenschaften der MOS-Technologie stellte er fest, dass sie in der Lage war, Kondensatoren zu bauen , und dass das Speichern einer Ladung oder keiner Ladung auf dem MOS-Kondensator die 1 und 0 eines Bits darstellen konnte, während der MOS-Transistor das Schreiben der Ladung steuern konnte Kondensator. Dies führte zu seiner Entwicklung einer Eintransistor-DRAM-Speicherzelle. 1967 meldete Dennard unter IBM ein Patent für eine Einzeltransistor-DRAM-Speicherzelle auf Basis der MOS-Technologie an. Der erste kommerzielle DRAM-IC-Chip war der Intel 1103 , der in einem 8 - µm - MOS-Prozess mit einer Kapazität von 1 kbit hergestellt und 1970 auf den Markt gebracht wurde.
Synchronous Dynamic Random-Access Memory (SDRAM) wurde von Samsung Electronics entwickelt . Der erste kommerzielle SDRAM-Chip war der Samsung KM48SL2000, der eine Kapazität von 16 Mbit hatte . Es wurde 1992 von Samsung eingeführt und 1993 in Massenproduktion hergestellt. Der erste kommerzielle DDR-SDRAM -Speicherchip ( SDRAM mit doppelter Datenrate ) war Samsungs 64- Mbit-DDR-SDRAM-Chip, der im Juni 1998 auf den Markt kam. GDDR (Grafik-DDR) ist eine Form von DDR SGRAM (Synchronous Graphics RAM), das erstmals 1998 von Samsung als 16 -Mbit-Speicherchip herausgebracht wurde.
Typen
Die beiden weit verbreiteten Formen von modernem RAM sind statisches RAM (SRAM) und dynamisches RAM (DRAM). Im SRAM wird ein Datenbit unter Verwendung des Zustands einer Speicherzelle mit sechs Transistoren gespeichert , typischerweise unter Verwendung von sechs MOSFETs (Metall-Oxid-Halbleiter-Feldeffekttransistoren). Diese Form von RAM ist teurer in der Herstellung, aber im Allgemeinen schneller und benötigt weniger dynamische Leistung als DRAM. In modernen Computern wird SRAM oft als Cache-Speicher für die CPU verwendet . DRAM speichert ein Datenbit unter Verwendung eines Transistor- und Kondensatorpaars (typischerweise ein MOSFET bzw. MOS-Kondensator ), die zusammen eine DRAM-Zelle bilden. Der Kondensator hält eine hohe oder niedrige Ladung (1 bzw. 0), und der Transistor fungiert als Schalter, mit dem die Steuerschaltung auf dem Chip den Ladezustand des Kondensators lesen oder ändern kann. Da diese Form von Speicher kostengünstiger herzustellen ist als statisches RAM, ist sie die vorherrschende Form von Computerspeicher, die in modernen Computern verwendet wird.
Sowohl statischer als auch dynamischer RAM gelten als flüchtig , da ihr Zustand verloren geht oder zurückgesetzt wird, wenn die Stromversorgung des Systems unterbrochen wird. Im Gegensatz dazu speichert ein Nur-Lese-Speicher (ROM) Daten durch permanentes Aktivieren oder Deaktivieren ausgewählter Transistoren, so dass der Speicher nicht geändert werden kann. Beschreibbare ROM-Varianten (wie EEPROM und NOR-Flash ) teilen die Eigenschaften von ROM und RAM, sodass Daten ohne Stromversorgung bestehen bleiben und aktualisiert werden können, ohne dass eine spezielle Ausrüstung erforderlich ist. ECC-Speicher (der entweder SRAM oder DRAM sein kann) enthält spezielle Schaltungen zum Erkennen und/oder Korrigieren zufälliger Fehler (Speicherfehler) in den gespeicherten Daten unter Verwendung von Paritätsbits oder Fehlerkorrekturcodes .
Im Allgemeinen bezieht sich der Begriff RAM ausschließlich auf Festkörperspeichergeräte (entweder DRAM oder SRAM) und insbesondere auf den Hauptspeicher in den meisten Computern. Bei optischen Speichern ist der Begriff DVD-RAM etwas irreführend, da er im Gegensatz zu CD-RW oder DVD-RW vor der Wiederverwendung nicht gelöscht werden muss. Trotzdem verhält sich eine DVD-RAM ähnlich wie eine Festplatte, wenn auch etwas langsamer.
Speicherzelle
Die Speicherzelle ist der grundlegende Baustein des Computerspeichers . Die Speicherzelle ist eine elektronische Schaltung , die ein Bit binärer Information speichert, und sie muss eingestellt werden, um eine logische 1 (hoher Spannungspegel) zu speichern, und zurückgesetzt werden, um eine logische 0 (niedriger Spannungspegel) zu speichern. Sein Wert wird beibehalten/gespeichert, bis er durch den Setz-/Rücksetzvorgang geändert wird. Auf den Wert in der Speicherzelle kann durch Lesen zugegriffen werden.
Im SRAM ist die Speicherzelle eine Art Flip-Flop- Schaltung, die normalerweise unter Verwendung von FETs implementiert wird . Dies bedeutet, dass SRAM sehr wenig Strom benötigt, wenn nicht auf es zugegriffen wird, aber es ist teuer und hat eine geringe Speicherdichte.
Ein zweiter Typ, DRAM, basiert auf einem Kondensator. Das Laden und Entladen dieses Kondensators kann eine „1“ oder eine „0“ in der Zelle speichern. Die Ladung in diesem Kondensator entweicht jedoch langsam und muss regelmäßig aufgefrischt werden. Aufgrund dieses Auffrischungsprozesses verbraucht DRAM mehr Strom, kann aber im Vergleich zu SRAM höhere Speicherdichten und niedrigere Stückkosten erreichen.
Adressierung
Um nützlich zu sein, müssen Speicherzellen lesbar und beschreibbar sein. Innerhalb der RAM-Vorrichtung werden Multiplex- und Demultiplex-Schaltkreise verwendet, um Speicherzellen auszuwählen. Typischerweise hat eine RAM-Vorrichtung einen Satz von Adressleitungen A0 ... An, und für jede Kombination von Bits, die an diese Leitungen angelegt werden können, wird ein Satz von Speicherzellen aktiviert. Aufgrund dieser Adressierung haben RAM-Bausteine praktisch immer eine Speicherkapazität, die eine Zweierpotenz ist.
Üblicherweise teilen sich mehrere Speicherzellen dieselbe Adresse. Beispielsweise hat ein 4 Bit „breiter“ RAM-Chip 4 Speicherzellen für jede Adresse. Oft sind die Breite des Speichers und die des Mikroprozessors unterschiedlich, für einen 32-Bit-Mikroprozessor würden acht 4-Bit-RAM-Chips benötigt.
Oft werden mehr Adressen benötigt, als von einem Gerät bereitgestellt werden können. In diesem Fall werden externe Multiplexer zum Gerät verwendet, um das richtige Gerät zu aktivieren, auf das zugegriffen wird.
Speicherhierarchie
Man kann Daten im RAM lesen und überschreiben. Viele Computersysteme haben eine Speicherhierarchie, die aus Prozessorregistern , On-Die- SRAM - Caches, externen Caches , DRAM , Paging - Systemen und virtuellem Speicher oder Auslagerungsspeicher auf einer Festplatte besteht. Dieser gesamte Speicherpool wird von vielen Entwicklern möglicherweise als "RAM" bezeichnet, obwohl die verschiedenen Subsysteme sehr unterschiedliche Zugriffszeiten haben können, was gegen das ursprüngliche Konzept hinter dem Begriff des wahlfreien Zugriffs im RAM verstößt. Sogar innerhalb einer Hierarchieebene wie DRAM machen die spezifische Reihen-, Spalten-, Bank-, Rang- , Kanal- oder Verschachtelungsorganisation der Komponenten die Zugriffszeit variabel, wenn auch nicht in dem Maße, wie die Zugriffszeit auf rotierende Speichermedien oder ein Band variabel ist . Das übergeordnete Ziel der Verwendung einer Speicherhierarchie besteht darin, die höchstmögliche durchschnittliche Zugriffsleistung zu erzielen und gleichzeitig die Gesamtkosten des gesamten Speichersystems zu minimieren (im Allgemeinen folgt die Speicherhierarchie der Zugriffszeit mit den schnellen CPU-Registern an der Spitze und der langsamen Festplatte ganz unten).
In vielen modernen PCs ist der RAM in einer leicht aufrüstbaren Form von Modulen, die als Speichermodule oder DRAM-Module bezeichnet werden, etwa so groß wie ein paar Kaugummis. Diese können schnell ausgetauscht werden, wenn sie beschädigt werden oder wenn sich ändernde Anforderungen mehr Speicherkapazität erfordern. Wie oben angedeutet, sind kleinere RAM-Mengen (hauptsächlich SRAM) auch in die CPU und andere ICs auf dem Motherboard sowie in Festplatten, CD-ROMs und mehrere andere Teile des Computersystems integriert.
Andere Verwendungen von RAM
Neben der Funktion als temporärer Speicher und Arbeitsspeicher für das Betriebssystem und Anwendungen wird RAM auf zahlreiche andere Arten verwendet.
Virtueller Speicher
Die meisten modernen Betriebssysteme verwenden eine Methode zur Erweiterung der RAM-Kapazität, die als "virtueller Speicher" bekannt ist. Ein Teil der Festplatte des Computers wird für eine Auslagerungsdatei oder eine Scratch-Partition reserviert , und die Kombination aus physischem RAM und der Auslagerungsdatei bildet den Gesamtspeicher des Systems. (Wenn ein Computer beispielsweise über 2 GB (1024 3 B) RAM und eine Auslagerungsdatei von 1 GB verfügt, stehen dem Betriebssystem insgesamt 3 GB Arbeitsspeicher zur Verfügung.) Wenn dem System der physische Arbeitsspeicher ausgeht, kann es „ austauschen " Teile des Arbeitsspeichers in die Auslagerungsdatei, um Platz für neue Daten zu schaffen und um zuvor ausgelagerte Informationen wieder in den Arbeitsspeicher einzulesen. Die übermäßige Verwendung dieses Mechanismus führt zu Thrashing und beeinträchtigt im Allgemeinen die Gesamtsystemleistung, hauptsächlich weil Festplatten viel langsamer als RAM sind.
RAM-Disk
Software kann einen Teil des Arbeitsspeichers eines Computers "partitionieren", wodurch dieser als viel schnellere Festplatte fungieren kann, die als RAM-Disk bezeichnet wird . Eine RAM-Disk verliert die gespeicherten Daten, wenn der Computer heruntergefahren wird, es sei denn, der Speicher ist so eingerichtet, dass er eine Standby-Batteriequelle hat, oder Änderungen an der RAM-Disk werden auf eine nichtflüchtige Platte geschrieben. Die RAM-Disk wird bei der Initialisierung der RAM-Disk von der physikalischen Disk neu geladen.
Shadow-RAM
Manchmal wird der Inhalt eines relativ langsamen ROM-Chips in einen Lese-/Schreibspeicher kopiert, um kürzere Zugriffszeiten zu ermöglichen. Der ROM-Chip wird dann deaktiviert, während die initialisierten Speicherplätze auf demselben Adressblock (oftmals schreibgeschützt) eingeschaltet werden. Dieser Prozess, der manchmal als Shadowing bezeichnet wird, ist sowohl bei Computern als auch bei eingebetteten Systemen weit verbreitet .
Als gängiges Beispiel hat das BIOS in typischen PCs oft eine Option namens „Schatten-BIOS verwenden“ oder ähnlich. Wenn aktiviert, verwenden Funktionen, die auf Daten aus dem ROM des BIOS angewiesen sind, stattdessen DRAM-Speicherorte (die meisten können auch das Shadowing des ROMs der Grafikkarte oder anderer ROM-Abschnitte umschalten). Je nach System führt dies möglicherweise nicht zu einer Leistungssteigerung und kann zu Inkompatibilitäten führen. Beispielsweise kann das Betriebssystem auf einige Hardware nicht zugreifen, wenn Schatten-RAM verwendet wird. Bei manchen Systemen kann der Vorteil hypothetisch sein, da das BIOS nach dem Booten zugunsten eines direkten Hardwarezugriffs nicht verwendet wird. Der freie Speicher wird durch die Größe der Shadowed-ROMs reduziert.
Kürzliche Entwicklungen
Mehrere neue Arten von nichtflüchtigem RAM , die Daten im ausgeschalteten Zustand erhalten, befinden sich in der Entwicklung. Die verwendeten Technologien umfassen Kohlenstoff-Nanoröhren und Ansätze, die Tunnel-Magnetoresistenz verwenden . Unter den MRAMs der 1. Generation wurde im Sommer 2003 ein 128 kbit ( 128 × 2,10 Bytes ) Chip mit 0,18-µm- Technologie hergestellt 0,18-µm-Technologie. Derzeit befinden sich zwei Techniken der 2. Generation in der Entwicklung: Thermal-Assisted Switching (TAS), das von Crocus Technology entwickelt wird , und Spin-Transfer-Torque (STT), an dem Crocus , Hynix , IBM und mehrere andere Unternehmen arbeiten. Nantero baute 2004 einen funktionierenden Kohlenstoff-Nanoröhrchen-Speicherprototyp mit 10 GB (10 × 2 30 Bytes) Array. Ob einige dieser Technologien letztendlich signifikante Marktanteile von der DRAM-, SRAM- oder Flash-Speichertechnologie einnehmen können, bleibt jedoch abzuwarten .
Seit 2006 sind „ Solid-State-Drives “ (basierend auf Flash-Speicher) mit Kapazitäten von über 256 Gigabyte und einer Leistung, die herkömmliche Festplatten weit übertrifft, verfügbar. Diese Entwicklung hat begonnen, die Definition zwischen traditionellem Direktzugriffsspeicher und „Festplatten“ zu verwischen, wodurch der Unterschied in der Leistung drastisch reduziert wird.
Einige Arten von Direktzugriffsspeichern, wie z. B. „ EcoRAM “, sind speziell für Serverfarmen konzipiert , bei denen niedriger Stromverbrauch wichtiger ist als Geschwindigkeit.
Erinnerungswand
Die „Memory Wall“ ist das wachsende Geschwindigkeitsgefälle zwischen CPU und Speicher außerhalb des CPU-Chips. Ein wichtiger Grund für diese Diskrepanz ist die begrenzte Kommunikationsbandbreite über Chipgrenzen hinweg, die auch als Bandbreitenwall bezeichnet wird . Von 1986 bis 2000 verbesserte sich die CPU -Geschwindigkeit jährlich um 55 %, während sich die Speichergeschwindigkeit nur um 10 % verbesserte. Angesichts dieser Trends wurde erwartet, dass die Speicherlatenz zu einem überwältigenden Engpass bei der Computerleistung werden würde.
Die CPU-Geschwindigkeitsverbesserungen verlangsamten sich erheblich, teilweise aufgrund großer physikalischer Barrieren und teilweise, weil aktuelle CPU-Designs in gewisser Weise bereits an die Speicherwand gestoßen sind. Intel hat diese Ursachen in einem Dokument aus dem Jahr 2005 zusammengefasst.
Erstens, wenn Chipgeometrien schrumpfen und Taktfrequenzen steigen, steigt der Transistor -Leckstrom , was zu übermäßigem Stromverbrauch und Wärme führt... Zweitens werden die Vorteile höherer Taktraten teilweise durch Speicherlatenz zunichte gemacht, da Speicherzugriffszeiten haben mit steigenden Taktfrequenzen nicht Schritt halten konnte. Drittens werden herkömmliche serielle Architekturen für bestimmte Anwendungen weniger effizient, wenn die Prozessoren schneller werden (aufgrund des sogenannten Von-Neumann-Engpasses ), wodurch alle Gewinne, die sonst durch Frequenzerhöhungen erzielt werden könnten, weiter untergraben werden. Darüber hinaus nehmen die Widerstands-Kapazitäts- Verzögerungen (RC) bei der Signalübertragung zu, wenn die Strukturgrößen schrumpfen , teilweise aufgrund von Einschränkungen bei der Erzeugung von Induktivitäten in Festkörpergeräten , was einen zusätzlichen Engpass verursacht, den Frequenzerhöhungen nicht angehen.
Die RC-Verzögerungen bei der Signalübertragung wurden auch in „Clock Rate versus IPC: The End of the Road for Conventional Microarchitectures“ festgestellt, das eine durchschnittliche jährliche Verbesserung der CPU-Leistung von maximal 12,5 % zwischen 2000 und 2014 prognostizierte.
Ein anderes Konzept ist die Prozessor-Speicher-Leistungslücke, die durch integrierte 3D-Schaltungen angegangen werden kann , die den Abstand zwischen den Logik- und Speicheraspekten verringern, die in einem 2D-Chip weiter voneinander entfernt sind. Das Design von Speichersubsystemen erfordert einen Fokus auf die Lücke, die sich mit der Zeit vergrößert. Die Hauptmethode zur Überbrückung der Lücke ist die Verwendung von Caches ; kleine Mengen an Hochgeschwindigkeitsspeicher, in dem die letzten Operationen und Anweisungen in der Nähe des Prozessors untergebracht sind, wodurch die Ausführung dieser Operationen oder Anweisungen in Fällen beschleunigt wird, in denen sie häufig aufgerufen werden. Es wurden mehrere Caching-Ebenen entwickelt, um mit der wachsenden Lücke fertig zu werden, und die Leistung moderner Hochgeschwindigkeitscomputer hängt von sich entwickelnden Caching-Techniken ab. Es kann bis zu 53 % Unterschied zwischen dem Geschwindigkeitswachstum des Prozessors und der verzögerten Geschwindigkeit des Hauptspeicherzugriffs geben.
Die Geschwindigkeit von Solid-State-Festplatten hat weiter zugenommen, von ~400 Mbit/s über SATA3 im Jahr 2012 bis zu ~3 GB/s über NVMe / PCIe im Jahr 2018, wodurch die Lücke zwischen RAM- und Festplattengeschwindigkeiten geschlossen wird, obwohl RAM dies weiterhin tut eine Größenordnung schneller sein, mit Single-Lane DDR4 3200 mit 25 GB/s und modernem GDDR sogar noch schneller. Schnelle, billige, nichtflüchtige Solid-State-Laufwerke haben einige Funktionen ersetzt, die früher von RAM ausgeführt wurden, z. B. das Speichern bestimmter Daten zur sofortigen Verfügbarkeit in Serverfarmen – 1 Terabyte SSD-Speicher ist für 200 US-Dollar zu haben, während 1 TB RAM Tausende kosten würde von Dollar.
Zeitleiste
SRAM
Datum der Einführung | Chipname | Kapazität ( Bit ) | Zugriffszeit | SRAM-Typ | Hersteller | Verfahren | MOSFET | Ref |
---|---|---|---|---|---|---|---|---|
März 1963 | — | 1 Bit | ? | Bipolar ( Zelle ) | Fairkind | — | — | |
1965 | ? | 8 Bit | ? | Bipolar | IBM | ? | — | |
SP95 | 16-Bit | ? | Bipolar | IBM | ? | — | ||
? | 64-Bit | ? | MOSFET | Fairchild | ? | PMOS | ||
1966 | TMC3162 | 16-bit | ? | Bipolar ( TTL ) | Transitron | ? | — | |
? | ? | ? | MOSFET | NEC | ? | ? | ||
1968 | ? | 64-Bit | ? | MOSFET | Fairchild | ? | PMOS | |
144-Bit | ? | MOSFET | NEC | ? | NMOS | |||
512-Bit | ? | MOSFET | IBM | ? | NMOS | |||
1969 | ? | 128-Bit | ? | Bipolar | IBM | ? | — | |
1101 | 256-Bit | 850 ns | MOSFET | Intel | 12.000 Nanometer | PMOS | ||
1972 | 2102 | 1kbit _ | ? | MOSFET | Intel | ? | NMOS | |
1974 | 5101 | 1kbit | 800 ns | MOSFET | Intel | ? | CMOS | |
2102A | 1kbit | 350 ns | MOSFET | Intel | ? | NMOS ( Verarmung ) | ||
1975 | 2114 | 4kBit | 450 ns | MOSFET | Intel | ? | NMOS | |
1976 | 2115 | 1kbit | 70 ns | MOSFET | Intel | ? | NMOS ( HMOS ) | |
2147 | 4kBit | 55 ns | MOSFET | Intel | ? | NMOS (HMOS) | ||
1977 | ? | 4kBit | ? | MOSFET | Toshiba | ? | CMOS | |
1978 | HM6147 | 4kBit | 55 ns | MOSFET | Hitachi | 3.000 Nanometer | CMOS ( Twin-Well ) | |
TMS4016 | 16kBit | ? | MOSFET | Texas-Instrumente | ? | NMOS | ||
1980 | ? | 16kBit | ? | MOSFET | Hitachi, Toshiba | ? | CMOS | |
64kBit | ? | MOSFET | Matsushita | |||||
1981 | ? | 16kBit | ? | MOSFET | Texas-Instrumente | 2.500 Nanometer | NMOS | |
Oktober 1981 | ? | 4kBit | 18 ns | MOSFET | Matsushita, Toshiba | 2.000 Nanometer | CMOS | |
1982 | ? | 64kBit | ? | MOSFET | Intel | 1.500 Nanometer | NMOS (HMOS) | |
Februar 1983 | ? | 64kBit | 50 ns | MOSFET | Mitsubishi | ? | CMOS | |
1984 | ? | 256kBit | ? | MOSFET | Toshiba | 1.200 Nanometer | CMOS | |
1987 | ? | 1 MB | ? | MOSFET | Sony , Hitachi, Mitsubishi , Toshiba | ? | CMOS | |
Dezember 1987 | ? | 256kBit | 10 ns | BiMOS | Texas-Instrumente | 800 Nanometer | BiCMOS | |
1990 | ? | 4 MB | 15–23 ns | MOSFET | NEC, Toshiba, Hitachi, Mitsubishi | ? | CMOS | |
1992 | ? | 16 MB | 12–15 ns | MOSFET | Fujitsu , NEC | 400 Nanometer | ||
Dezember 1994 | ? | 512kBit | 2,5 ns | MOSFET | IBM | ? | CMOS ( SOI ) | |
1995 | ? | 4 MB | 6 ns | Cache ( SyncBurst ) | Hitachi | 100 Nanometer | CMOS | |
256 MB | ? | MOSFET | Hyundai | ? | CMOS |
DRAM
Datum der Einführung | Chipname | Kapazität ( Bit ) | DRAM-Typ | Hersteller | Verfahren | MOSFET | Bereich | Ref |
---|---|---|---|---|---|---|---|---|
1965 | — | 1 bisschen | DRAM ( Zelle ) | Toshiba | — | — | — | |
1967 | — | 1 bisschen | DRAM (Zelle) | IBM | — | MOS | — | |
1968 | ? | 256bit | DRAM ( IC ) | Fairkind | ? | PMOS | ? | |
1969 | — | 1 bisschen | DRAM (Zelle) | Intel | — | PMOS | — | |
1970 | 1102 | 1kbit _ | DRAM (IC) | Intel, Honigwell | ? | PMOS | ? | |
1103 | 1kbit | DRAM | Intel | 8.000 Nanometer | PMOS | 10 mm² | ||
1971 | μPD403 | 1kbit | DRAM | NEC | ? | NMOS | ? | |
? | 2kBit | DRAM | Allgemeines Instrument | ? | PMOS | 13mm² | ||
1972 | 2107 | 4kBit | DRAM | Intel | ? | NMOS | ? | |
1973 | ? | 8kbit | DRAM | IBM | ? | PMOS | 19 mm² | |
1975 | 2116 | 16kBit | DRAM | Intel | ? | NMOS | ? | |
1977 | ? | 64kBit | DRAM | NTT | ? | NMOS | 35 mm² | |
1979 | MK4816 | 16kBit | PSRAM | Mostek | ? | NMOS | ? | |
? | 64kBit | DRAM | Siemens | ? | VMOS | 25 mm² | ||
1980 | ? | 256kBit | DRAM | NEC, NTT | 1.000– 1.500 nm | NMOS | 34–42 mm² | |
1981 | ? | 288kBit | DRAM | IBM | ? | MOS | 25 mm² | |
1983 | ? | 64kBit | DRAM | Intel | 1.500 Nanometer | CMOS | 20 mm² | |
256kBit | DRAM | NTT | ? | CMOS | 31 mm² | |||
5. Januar 1984 | ? | 8 MB | DRAM | Hitachi | ? | MOS | ? | |
Februar 1984 | ? | 1 MB | DRAM | Hitachi, NEC | 1.000 Nanometer | NMOS | 74–76 mm² | |
NTT | 800 Nanometer | CMOS | 53 mm² | |||||
1984 | TMS4161 | 64kBit | DPRAM ( VRAM ) | Texas-Instrumente | ? | NMOS | ? | |
Januar 1985 | μPD41264 | 256kBit | DPRAM (VRAM) | NEC | ? | NMOS | ? | |
Juni 1986 | ? | 1 MB | PSRAM | Toshiba | ? | CMOS | ? | |
1986 | ? | 4 MB | DRAM | NEC | 800 Nanometer | NMOS | 99 mm² | |
Texas Instruments, Toshiba | 1.000 Nanometer | CMOS | 100–137 mm² | |||||
1987 | ? | 16 MB | DRAM | NTT | 700 Nanometer | CMOS | 148 mm² | |
Oktober 1988 | ? | 512kBit | HSDRAM | IBM | 1.000 Nanometer | CMOS | 78 mm² | |
1991 | ? | 64 MB | DRAM | Matsushita , Mitsubishi , Fujitsu , Toshiba | 400 Nanometer | CMOS | ? | |
1993 | ? | 256 MB | DRAM | Hitachi, NEC | 250 Nanometer | CMOS | ? | |
1995 | ? | 4 MB | DPRAM (VRAM) | Hitachi | ? | CMOS | ? | |
9. Januar 1995 | ? | 1 GB | DRAM | NEC | 250 Nanometer | CMOS | ? | |
Hitachi | 160 Nanometer | CMOS | ? | |||||
1996 | ? | 4 MB | FRAM | Samsung | ? | NMOS | ? | |
1997 | ? | 4 GB | QLC | NEC | 150 Nanometer | CMOS | ? | |
1998 | ? | 4 GB | DRAM | Hyundai | ? | CMOS | ? | |
Juni 2001 | TC51W3216XB | 32 MB | PSRAM | Toshiba | ? | CMOS | ? | |
Februar 2001 | ? | 4 GB | DRAM | Samsung | 100 Nanometer | CMOS | ? |
SDRAM
Datum der Einführung | Chipname | Kapazität ( Bit ) | SDRAM-Typ | Hersteller | Verfahren | MOSFET | Bereich | Ref |
---|---|---|---|---|---|---|---|---|
1992 | KM48SL2000 | 16 MB | SZR | Samsung | ? | CMOS | ? | |
1996 | MSM5718C50 | 18 MB | RDRAM | Oki | ? | CMOS | 325mm 2 | |
N64-RDRAM | 36 MB | RDRAM | NEC | ? | CMOS | ? | ||
? | 1024 MB | SZR | Mitsubishi | 150 Nanometer | CMOS | ? | ||
1997 | ? | 1024 MB | SZR | Hyundai | ? | SOI | ? | |
1998 | MD5764802 | 64 MB | RDRAM | Oki | ? | CMOS | 325mm 2 | |
März 1998 | Direkter RDRAM | 72 MB | RDRAM | Rambus | ? | CMOS | ? | |
Juni 1998 | ? | 64 MB | DDR | Samsung | ? | CMOS | ? | |
1998 | ? | 64 MB | DDR | Hyundai | ? | CMOS | ? | |
128 MB | SZR | Samsung | ? | CMOS | ? | |||
1999 | ? | 128 MB | DDR | Samsung | ? | CMOS | ? | |
1024 MB | DDR | Samsung | 140 Nanometer | CMOS | ? | |||
2000 | GS-eDRAM | 32 MB | eDRAM | Sony , Toshiba | 180 Nanometer | CMOS | 279mm 2 | |
2001 | ? | 288 MB | RDRAM | Hynix | ? | CMOS | ? | |
? | DDR2 | Samsung | 100 Nanometer | CMOS | ? | |||
2002 | ? | 256 MB | SZR | Hynix | ? | CMOS | ? | |
2003 | EE+GS-eDRAM | 32 MB | eDRAM | Sony, Toshiba | 90 Nanometer | CMOS | 86mm 2 | |
? | 72 MB | DDR3 | Samsung | 90 Nanometer | CMOS | ? | ||
512 MB | DDR2 | Hynix | ? | CMOS | ? | |||
Elpida | 110 Nanometer | CMOS | ? | |||||
1024 MB | DDR2 | Hynix | ? | CMOS | ? | |||
2004 | ? | 2048 MB | DDR2 | Samsung | 80 Nanometer | CMOS | ? | |
2005 | EE+GS-eDRAM | 32 MB | eDRAM | Sony, Toshiba | 65 Nanometer | CMOS | 86mm 2 | |
Xenos-eDRAM | 80 MB | eDRAM | NEC | 90 Nanometer | CMOS | ? | ||
? | 512 MB | DDR3 | Samsung | 80 Nanometer | CMOS | ? | ||
2006 | ? | 1024 MB | DDR2 | Hynix | 60 Nanometer | CMOS | ? | |
2008 | ? | ? | LPDDR2 | Hynix | ? | |||
April 2008 | ? | 8192 MB | DDR3 | Samsung | 50 Nanometer | CMOS | ? | |
2008 | ? | 16384 MB | DDR3 | Samsung | 50 Nanometer | CMOS | ? | |
2009 | ? | ? | DDR3 | Hynix | 44 Nanometer | CMOS | ? | |
2048 MB | DDR3 | Hynix | 40nm | |||||
2011 | ? | 16384 MB | DDR3 | Hynix | 40nm | CMOS | ? | |
2048 MB | DDR4 | Hynix | 30nm | CMOS | ? | |||
2013 | ? | ? | LPDDR4 | Samsung | 20nm | CMOS | ? | |
2014 | ? | 8192 MB | LPDDR4 | Samsung | 20nm | CMOS | ? | |
2015 | ? | 12 GB | LPDDR4 | Samsung | 20nm | CMOS | ? | |
2018 | ? | 8192 MB | LPDDR5 | Samsung | 10 nm | FinFET | ? | |
128 GB | DDR4 | Samsung | 10 nm | FinFET | ? |
SGRAM und HBM
Datum der Einführung | Chipname | Kapazität ( Bit ) | SDRAM-Typ | Hersteller | Verfahren | MOSFET | Bereich | Ref |
---|---|---|---|---|---|---|---|---|
November 1994 | HM5283206 | 8 MB | SGRAM ( SDR ) | Hitachi | 350 Nanometer | CMOS | 58mm 2 | |
Dezember 1994 | μPD481850 | 8 MB | SGRAM (SDR) | NEC | ? | CMOS | 280mm 2 | |
1997 | μPD4811650 | 16 MB | SGRAM (SDR) | NEC | 350 Nanometer | CMOS | 280mm 2 | |
September 1998 | ? | 16 MB | SGRAM ( GDDR ) | Samsung | ? | CMOS | ? | |
1999 | KM4132G112 | 32 MB | SGRAM (SDR) | Samsung | ? | CMOS | ? | |
2002 | ? | 128 MB | SGRAM ( GDDR2 ) | Samsung | ? | CMOS | ? | |
2003 | ? | 256 MB | SGRAM (GDDR2) | Samsung | ? | CMOS | ? | |
SGRAM ( GDDR3 ) | ||||||||
März 2005 | K4D553238F | 256 MB | SGRAM (GDDR) | Samsung | ? | CMOS | 77mm 2 | |
Oktober 2005 | ? | 256 MB | SGRAM ( GDDR4 ) | Samsung | ? | CMOS | ? | |
2005 | ? | 512 MB | SGRAM (GDDR4) | Hynix | ? | CMOS | ? | |
2007 | ? | 1024 MB | SGRAM ( GDDR5 ) | Hynix | 60 Nanometer | |||
2009 | ? | 2048 MB | SGRAM (GDDR5) | Hynix | 40nm | |||
2010 | K4W1G1646G | 1024 MB | SGRAM (GDDR3) | Samsung | ? | CMOS | 100mm 2 | |
2012 | ? | 4096 MB | SGRAM (GDDR3) | SK Hynix | ? | CMOS | ? | |
2013 | ? | ? | HBM | |||||
März 2016 | MT58K256M32JA | 8 GB | SGRAM ( GDDR5X ) | Mikron | 20nm | CMOS | 140mm 2 | |
Juni 2016 | ? | 32 GB | HBM2 | Samsung | 20nm | CMOS | ? | |
2017 | ? | 64 GB | HBM2 | Samsung | 20nm | CMOS | ? | |
Januar 2018 | K4ZAF325BM | 16 GB | SGRAM ( GDDR6 ) | Samsung | 10 nm | FinFET | 225mm 2 |
Siehe auch
Verweise
Externe Links
- Medien im Zusammenhang mit RAM bei Wikimedia Commons