Memristor-Speichertechnologie von HP soll DRAM ablösen


Erschienen: 13.05.2008, 19:30 Uhr, Quelle: Pressetext, Autor: Patrick von Brunn

Forscher der HP Labs in Palo Alto haben mit Memristor eine neue Speichertechnologie demonstriert, die in Zukunft die heute verwendeten DRAM-Speicher ablösen könnten. Sie entwickelten dazu einen neuen Baustein zum Aufbau von elektronischen Schaltungen. Dabei handelt es sich um einen variablen Widerstand, der über ein "Gedächtnis" verfügt, wie es vonseiten HPs auf Anfrage von pressetext heißt. Der Vorteil der Memristor-Technologie ist, dass Informationen auch dann gespeichert bleiben, wenn die Stromzufuhr unterbrochen wird. Laut HP sei dieses Forschungsergebnis ein wissenschaftlicher Meilenstein in der Weiterentwicklung von Computer- und Speichersystemen. Mit Memristoren lassen sich Rechner ohne Bootvorgang ein- und ausschalten. Zudem würden die Komponenten deutlich weniger Energie benötigen als heutige Speicher.

Die Forschung an der Memristor-Technologie geht auf die Grundidee von Leon Chua zurück, der bereits 1971 das Auftauchen eines vierten Basiselements in der Elektronik neben dem Widerstand, dem Kondensator sowie dem Induktor beschrieben hat. Mithilfe der Nanotechnologie konnte dieses nun tatsächlich gebaut werden. Neben der An- und Aus-Stellung können Memristoren noch weitere Zustände einnehmen, die durch ihren Widerstand definiert werden. Die neuen Speicherkomponenten verfügen damit über Eigenschaften, die nicht durch die Kombination der drei anderen herkömmlichen Basiselemente geschaffen werden können.

Ist der Widerstand bei einem Memristor einmal eingestellt, so wird dieser Wert behalten auch wenn kein Strom angelegt ist. Diese Fähigkeit macht sie unter anderem für schnellere, dichtere Arten nicht-flüchtiger Speicher interessant. Zu dieser Kategorie zählen auch Flash-Memory sowie die magnetische Festplatte. Allerdings seien diese Technologien sehr langsam, weshalb die Forschung auf der Suche nach einer Lösung war, die schnell und zudem nicht-flüchtig ist, berichtet Stanley Williams, Direktor des HP Information und Quantum System Lab. "Die Memristor-Technologie ist für die Lösung dieser Herausforderung ein hervorragender Kandidat", so Williams. Bereits im vergangenen Jahr entwickelten die HP-Forscher eine hybride Architektur, die CMOS- mit Memristor-Technologie kombiniert. "Unser Ziel ist es, bis 2010 ein Produkt auf den Markt bringen zu können", so der Chef der HP-Labors.

« Vorherige News Nächste News »
Weitere Meldungen

Kommentare (16)Zum Thread »

1) Cobalt (14.05.2008, 08:59 Uhr)
Klingt schonmal interessant. Kein Laden von OS mehr? Noch besser. Post wird wohl aber trotzdem nicht wegfallen ^^
Bin aufjedenfall gespannt ob die halten können was sie versprechen. Einziger Nachteil: 2010 is noch soooo lang hin unglücklich
2) Slugger (14.05.2008, 09:53 Uhr)
Der "Entdecker" dieser Technologie heisst Leon nicht Leob (kleiner vertipper nehme ich an).

Was an dieser Technologie auch sehr interessant ist, diese Art von Speicher kann auch Zustände zwischen 0 und 1 annehmen.
Was auch ein weiterer Schritt richtung analoger Computer ist und damit ein weiterer Richtung echter Künstlicher Intelligenz. Augenzwinkern

Macht mir irgendwie Angst. grinsen
3) Thrawn (14.05.2008, 10:33 Uhr)
@ Slugger: Wieso Angst?
Das ist nur ein notwendiger Schritt zu meiner eigenen Cyborg-Armee lachen
4) Vectrafan (14.05.2008, 11:12 Uhr)
gelten für den ram auch die 3 roboter gesetze?^^
5) Babe (14.05.2008, 11:13 Uhr)
Zitat:
Original von Slugger
Der "Entdecker" dieser Technologie heisst Leon nicht Leob (kleiner vertipper nehme ich an).

Korrekt, fixed! smile

Ansonsten ist die Entwicklung natürlich zu begrüßen, auch wenn Serienreife noch sehr lange dauern wird.
6) CANN0NF0DDER (14.05.2008, 13:45 Uhr)
memristoren werden derzeit als eine der möglichen cpu kern entwicklungen der zukunft gesehen.
der 100 mhz prozzi mit memristor der sich an das gebotete os erinnert, die errechnete physikenige usw.... grinsen

am besten find iuch dazu folgenden satz:
Statt Rechner zu kaufen, die angeblich immer schneller werden, sich aber langsamer anfühlen, könnte es bald solche geben, die eigentlich gar nicht schneller sind - sich aber so anfühlen und auch schneller nutzen lassen
7) Empy (14.05.2008, 15:18 Uhr)
Slugger, warum sollte es ein Schritt in Richtung echter künstlicher Intelligenz sein, wenn man statt 2 oder 3 Speicherzellen nur noch eine benötigt? Das spart nur Platz und das mit dem verringertem Platzbedarf von Speicherzellen kennt man eigentlich zur Genüge.
8) Slugger (14.05.2008, 15:59 Uhr)
Weil unsere Welt nun mal analog ist und nicht digital. Daher wird die Entwicklung von analogen Rechensystemen als notwendiger Schritt zur denkenden Maschine gesehen.

Und ich meine wirklich denken und eigene Entscheidungen treffen und nicht irgendwelche Gleichungen ablaufen lassen.
9) Mjolnir (14.05.2008, 16:46 Uhr)
Nun, ich denke, von KI sind wir noch weit entfernt -
aber Empy, das Problem ist, ein Handeln besteht aus einer Entscheidung.
"Das Problem ist die Entscheidung", weil diese nicht nur aus entweder ja oder nein besteht, sondern noch dazu aus einem "vielleicht" und "wahrscheinlich", einem "ziemlich warscheinlich" oder "kann höchstwahrscheinlich nicht sein" etc. Schaffst du nun einen Entscheidungsschaltkreis, der die Möglichkeit hat, auch "Zwischenebenen" zwischen Ja und nein zu wählen, so hast du damit viel mehr Möglichkeiten, aber nicht zwingend mehr Miniaturisierung bzw. Rechenleistung. Wirklich mehr ein Schritt gen Intelligenz anstelle von Beschleunigung.
10) Gast (14.05.2008, 18:52 Uhr)
Analogrechner gibt es schon seit Jahrzehnten. Gut zur Berechnung von Differentialgleichungen, aber mit einer saumäßig geringen Genauigkeit. Mit künstlicher Intelligenz haben diese Kisten nichts zu tun.
Das menchliche Gehirn arbeitet übrigens NICHT analog, ist das ein Zeichen von fehlender Intelligenz?
11) Slugger (14.05.2008, 21:09 Uhr)
Ja eben die Genauigkeit ist eines der Probleme, neben der fehlenden Möglichkeit die Daten auch analog zu speichern.
Weshalb in der Vergangenheit Hybridsysteme entwickelt wurden die analog rechnen und digital speichern können.

Aber der rasante Fortschritt in der Digitaltechnik hat diese Systeme mehr oder weniger verdrängt.
Was sich angesichts der neuesten Entwicklungen in ein paar Jahren wieder ändern könnte.
12) Gast (14.05.2008, 22:15 Uhr)
@10: Das wüsste ich ja jetzt mal gern woher du die Information haben willst. Tatsächlich ist die Funktionsweise des Gehirns erst ansatzweise erforscht und es kann, außer einigen Theorien die sich auch gegenseitig widersprechen, niemand genau sagen welche Teile des Gehirns wie funktionieren. Da beide Systeme Vorteile haben werden hier wohl eher auch beide genutzt werden, eine pauschalisierte Aussage wie "das Gehirn arbeitet nicht analog" ist reine Spekulation und nicht mehr.
13) Cobalt (14.05.2008, 22:52 Uhr)
Richtig. Das menschliche Gehirn arbeitet mit "Ja" und "Nein", also im binärem System. Schwer vorzustellen vielleicht, aber es ist so. Jetzt ist eben die Frage wie wir Denken definieren. Denn so frei wie wir alle vielleicht meinen sind unsere Gedanken nicht.
Einen analogen Computer zur berechnung einer KI herzuziehen halte ich für Schwachsinn, da ein analoger Rechner (wie bereits geschrieben) ungenau arbeitet. Das einzige was ich mir vorstellen könnte wäre eine Kombination aus analog und digital, bei der jede Einheit ihre eigene Aufgabe erfüllt (z.B. analog-Rechner: Sehen, digital-Rechner: Denken)
14) Gast (15.05.2008, 18:17 Uhr)
@12: Tatsächlich ist bei der Funktionsweise des Gehirns noch sehr viel (um nicht zu sagen das Meiste) unklar. Die Funktionsweise der einzelnen Nervenzellen ist dagegen schon recht gut bekannt, und die ist eindeutig binär. Und aus binär funktionierenden Bauteilen läßt sich nun mal nur ein binäres System zusammensetzen. Umgedreht funktioniert das schon eher, aus analogen Bauteilen (Transistoren) lassen sich auch binäre Schaltungen realisieren.
15) aleniusmartial (16.05.2008, 18:50 Uhr)
Zitat:
Original von Gast
@12: Tatsächlich ist bei der Funktionsweise des Gehirns noch sehr viel (um nicht zu sagen das Meiste) unklar. Die Funktionsweise der einzelnen Nervenzellen ist dagegen schon recht gut bekannt, und die ist eindeutig binär. Und aus binär funktionierenden Bauteilen läßt sich nun mal nur ein binäres System zusammensetzen. Umgedreht funktioniert das schon eher, aus analogen Bauteilen (Transistoren) lassen sich auch binäre Schaltungen realisieren.


Ich hoffe lieber Gast, dass Sie/Du nicht in meiner Richtung ad studiam begriffen bist, ansonsten gebe ich Ihnen/Dir nur den Rat nochmals die Bücher zu wälzen, Herr Kollege!

Es existieren keine "einzelnen" Nervenzelltypen. Es existiert lediglich ein Grundbauprinzip des Neurons. Davon wiederum unterscheidet der Mediziner oder Neurobiologe je nach Lokalisation und Spezifikation verschiedene Typen. Zur "Verschaltung" der Neurone im menschlichen Großhirn benötigt man (nur als Beispiel) jedoch noch die Gliazellen, welche Ernährung, Immunabwehr und eben Vernetzung zwischen den einzelnen Neuronen übernehmen... hier müsste man wiedeurm die Pyramidenzellen als besondersen Typus erwähnen... wiederum muss man nun neben Verschaltung über die jeweiligen Dendriten (jeweils bis zu 100.000 zwischen zwei Neuronen) unterscheiden, dass die Signalstransduktion dann wiederum über einzelne Synapsen (als Endköpfe von Dendriten/Axone) je Neuron sogar bis zu 300.000 betragen kann und dies nehme man mal "mindestens" 25 Milliarden Neurone. Wobei jedes einzelne Neuron durch ein spezifisches Aktionspotenzial angeregt, für eine spezifische Synapse, eine spezifische Anzahl/Menge Vesikel exocytotisch freigeben kann... soviel für den Laien. Die einzelnen Fachbereiche wissen zwar viel über die Erregungsleitung/Signaltransduktion im motorneuronalen Bereich (ergo die Peripherie, denn auch dort existieren Nervenzellen...), aber die Funktionsweise der cerebro-neuronalen (meint nicht den Hirnstamm) Signalverarbeitung konnte man bis jetzt nicht eindeutig klären, daher gilt:

1. Die durch Versuche erkannte Funktionsweise der "Nervenzelle" lässt sich nicht in ein Adjektiv binär zusammenfassen, gar als solche bezeichnen.
2. Wenn "man" nicht allzu viel gesicherte Informationen über das Gehirn hat, wie Du/Sie selbst sagst, deswegen weiß man eindeutig, dass die "Funktionsweise" einer Nervenzelle binär ist? Davon abgesehen, dass der Ausdruck schmerzlich daneben ist.
3. Es existiert vor allem ein Informationsspeicherungsunterschied zwischen organischem ZNS und einem Rechenzentrum (nicht ein einzelner Computer...), wir verarbeiten Informationen "bewusst" in unserem Gehirn "genauso" seriell wie ein Prozessor, nur die Aufgabenverteilung/Informationsgewichtung/Speicherung(Zwischerspeicher, Kurzzeitspeicher,Langzeitspeicher) erfolgt alles parallel und unbewusst wertungsgesteuert (durch den Thalamus). Das und die systemische Verarbeitung, welche eher einem Über-Quantencomputer entspricht, sind die wesentlichen Unterschiede zwischen Mensch und Maschine...

So nach dem Aufreger zurück at topic:

Ich finde vor allem die Entwicklung spannend, dass sich unter Umständen Daten im Speicher bereits kombinieren lassen, ohne dass Informationen vorher außerhalb dessen zwischengespeichert werden müssen (Stichwort Stapel). Und sich sicherlich auch die Informationsverarbeitung/Wertung zum Beispiel bei sensoaktiven Maschinen eher durch den einsatz dier Hardware und kleinen Steuerprogrammen, anstatt von riesigen Betriebsprogrammen verbessern und weniger fehleranfällig wird.
16) Gast (17.05.2008, 13:55 Uhr)
Zitat:
Original von Cobalt
Richtig. Das menschliche Gehirn arbeitet mit "Ja" und "Nein", also im binärem System. Schwer vorzustellen vielleicht, aber es ist so. Jetzt ist eben die Frage wie wir Denken definieren. Denn so frei wie wir alle vielleicht meinen sind unsere Gedanken nicht.
Einen analogen Computer zur berechnung einer KI herzuziehen halte ich für Schwachsinn, da ein analoger Rechner (wie bereits geschrieben) ungenau arbeitet. Das einzige was ich mir vorstellen könnte wäre eine Kombination aus analog und digital, bei der jede Einheit ihre eigene Aufgabe erfüllt (z.B. analog-Rechner: Sehen, digital-Rechner: Denken)
Auch wenn die Datenübertragung in teilen digital vonstatten arbeitet das Gehirn deswegen noch lange nicht binär!
Kommentar abgeben 


Sicherheitsabfrage
Bitte übertragen Sie den Code in das Eingabefeld!