Memristor-Speichertechnologie von HP soll DRAM ablösen

  • Klingt schonmal interessant. Kein Laden von OS mehr? Noch besser. Post wird wohl aber trotzdem nicht wegfallen ^^
    Bin aufjedenfall gespannt ob die halten können was sie versprechen. Einziger Nachteil: 2010 is noch soooo lang hin :(

  • Der "Entdecker" dieser Technologie heisst Leon nicht Leob (kleiner vertipper nehme ich an).


    Was an dieser Technologie auch sehr interessant ist, diese Art von Speicher kann auch Zustände zwischen 0 und 1 annehmen.
    Was auch ein weiterer Schritt richtung analoger Computer ist und damit ein weiterer Richtung echter Künstlicher Intelligenz. ;)


    Macht mir irgendwie Angst. ;D

    Meine System:
    Intel X58||Core I7-950||Geforce 970GTX||OCZ DDR3-1600 3x6GB||
    Creative SB-Z||Samsung 850 EVO 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

    Einmal editiert, zuletzt von Slugger ()

  • @ Slugger: Wieso Angst?
    Das ist nur ein notwendiger Schritt zu meiner eigenen Cyborg-Armee :D

    All die Ordnung in dem Chaos verwirrt mich...
    _____________________________
    Intel Q9550 + Noctua NH-C12P
    Gigabyte GA-EPP45 DS5
    4x2048MB 800 DDR2 SDRAM
    Samsung HD103UJ 1 TB
    Tagan Pipe Rock 600 Watt
    Gigabyte GTX670

  • Zitat

    Original von Slugger
    Der "Entdecker" dieser Technologie heisst Leon nicht Leob (kleiner vertipper nehme ich an).


    Korrekt, fixed! :)


    Ansonsten ist die Entwicklung natürlich zu begrüßen, auch wenn Serienreife noch sehr lange dauern wird.

    Mein System:

    ZOTAC ZBOX EI750 Plus, Intel Core i7-4770R, 8 GB DDR3-1333, OCZ Vector 150 (480 GB), Windows 8.1 Pro 64 Bit, 2x Samsung SyncMaster 2494HM, Sharkoon PureWriter TKL, Roccat Kone AIMO

  • memristoren werden derzeit als eine der möglichen cpu kern entwicklungen der zukunft gesehen.
    der 100 mhz prozzi mit memristor der sich an das gebotete os erinnert, die errechnete physikenige usw.... ;D


    am besten find iuch dazu folgenden satz:
    Statt Rechner zu kaufen, die angeblich immer schneller werden, sich aber langsamer anfühlen, könnte es bald solche geben, die eigentlich gar nicht schneller sind - sich aber so anfühlen und auch schneller nutzen lassen

  • Slugger, warum sollte es ein Schritt in Richtung echter künstlicher Intelligenz sein, wenn man statt 2 oder 3 Speicherzellen nur noch eine benötigt? Das spart nur Platz und das mit dem verringertem Platzbedarf von Speicherzellen kennt man eigentlich zur Genüge.

    C2D E4600 (XP120+Papst@1200rpm - 2.664 MHz - 1.12V)
    EVGA 8800GT/512MB (Chip: 540 MHz - Shader: 1350 MHz - RAM: 900 MHz)
    MDT 2x1GB DDR2-800 Timings: 5-5-5-15 2T (370 MHz - 1.86V)
    GigaByte P35-DS3R (P35 - FSB: 888 MHz)
    Idle (ca.): 110W - Load (Peak): 215W

  • Weil unsere Welt nun mal analog ist und nicht digital. Daher wird die Entwicklung von analogen Rechensystemen als notwendiger Schritt zur denkenden Maschine gesehen.


    Und ich meine wirklich denken und eigene Entscheidungen treffen und nicht irgendwelche Gleichungen ablaufen lassen.

    Meine System:
    Intel X58||Core I7-950||Geforce 970GTX||OCZ DDR3-1600 3x6GB||
    Creative SB-Z||Samsung 850 EVO 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

    Einmal editiert, zuletzt von Slugger ()

  • Nun, ich denke, von KI sind wir noch weit entfernt -
    aber Empy, das Problem ist, ein Handeln besteht aus einer Entscheidung.
    "Das Problem ist die Entscheidung", weil diese nicht nur aus entweder ja oder nein besteht, sondern noch dazu aus einem "vielleicht" und "wahrscheinlich", einem "ziemlich warscheinlich" oder "kann höchstwahrscheinlich nicht sein" etc. Schaffst du nun einen Entscheidungsschaltkreis, der die Möglichkeit hat, auch "Zwischenebenen" zwischen Ja und nein zu wählen, so hast du damit viel mehr Möglichkeiten, aber nicht zwingend mehr Miniaturisierung bzw. Rechenleistung. Wirklich mehr ein Schritt gen Intelligenz anstelle von Beschleunigung.

    Gigabyte GA-X58A-OC, Intel i7-980X, 12GB DDR3-RAM 2000Mhz, 2x Geforce GTX480, 1x Geforce 8800GTS, X-Fi Platinum, 3x OCZ-SSD 120GB (Raid0), watercooled


    "Die Welt ist klein, gemein und gnadenlos, und jeder stirbt einsam..."

  • Analogrechner gibt es schon seit Jahrzehnten. Gut zur Berechnung von Differentialgleichungen, aber mit einer saumäßig geringen Genauigkeit. Mit künstlicher Intelligenz haben diese Kisten nichts zu tun.
    Das menchliche Gehirn arbeitet übrigens NICHT analog, ist das ein Zeichen von fehlender Intelligenz?

  • Ja eben die Genauigkeit ist eines der Probleme, neben der fehlenden Möglichkeit die Daten auch analog zu speichern.
    Weshalb in der Vergangenheit Hybridsysteme entwickelt wurden die analog rechnen und digital speichern können.


    Aber der rasante Fortschritt in der Digitaltechnik hat diese Systeme mehr oder weniger verdrängt.
    Was sich angesichts der neuesten Entwicklungen in ein paar Jahren wieder ändern könnte.

    Meine System:
    Intel X58||Core I7-950||Geforce 970GTX||OCZ DDR3-1600 3x6GB||
    Creative SB-Z||Samsung 850 EVO 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

  • @10: Das wüsste ich ja jetzt mal gern woher du die Information haben willst. Tatsächlich ist die Funktionsweise des Gehirns erst ansatzweise erforscht und es kann, außer einigen Theorien die sich auch gegenseitig widersprechen, niemand genau sagen welche Teile des Gehirns wie funktionieren. Da beide Systeme Vorteile haben werden hier wohl eher auch beide genutzt werden, eine pauschalisierte Aussage wie "das Gehirn arbeitet nicht analog" ist reine Spekulation und nicht mehr.

  • Richtig. Das menschliche Gehirn arbeitet mit "Ja" und "Nein", also im binärem System. Schwer vorzustellen vielleicht, aber es ist so. Jetzt ist eben die Frage wie wir Denken definieren. Denn so frei wie wir alle vielleicht meinen sind unsere Gedanken nicht.
    Einen analogen Computer zur berechnung einer KI herzuziehen halte ich für Schwachsinn, da ein analoger Rechner (wie bereits geschrieben) ungenau arbeitet. Das einzige was ich mir vorstellen könnte wäre eine Kombination aus analog und digital, bei der jede Einheit ihre eigene Aufgabe erfüllt (z.B. analog-Rechner: Sehen, digital-Rechner: Denken)

  • @12: Tatsächlich ist bei der Funktionsweise des Gehirns noch sehr viel (um nicht zu sagen das Meiste) unklar. Die Funktionsweise der einzelnen Nervenzellen ist dagegen schon recht gut bekannt, und die ist eindeutig binär. Und aus binär funktionierenden Bauteilen läßt sich nun mal nur ein binäres System zusammensetzen. Umgedreht funktioniert das schon eher, aus analogen Bauteilen (Transistoren) lassen sich auch binäre Schaltungen realisieren.

  • Zitat

    Original von Gast
    @12: Tatsächlich ist bei der Funktionsweise des Gehirns noch sehr viel (um nicht zu sagen das Meiste) unklar. Die Funktionsweise der einzelnen Nervenzellen ist dagegen schon recht gut bekannt, und die ist eindeutig binär. Und aus binär funktionierenden Bauteilen läßt sich nun mal nur ein binäres System zusammensetzen. Umgedreht funktioniert das schon eher, aus analogen Bauteilen (Transistoren) lassen sich auch binäre Schaltungen realisieren.


    Ich hoffe lieber Gast, dass Sie/Du nicht in meiner Richtung ad studiam begriffen bist, ansonsten gebe ich Ihnen/Dir nur den Rat nochmals die Bücher zu wälzen, Herr Kollege!


    Es existieren keine "einzelnen" Nervenzelltypen. Es existiert lediglich ein Grundbauprinzip des Neurons. Davon wiederum unterscheidet der Mediziner oder Neurobiologe je nach Lokalisation und Spezifikation verschiedene Typen. Zur "Verschaltung" der Neurone im menschlichen Großhirn benötigt man (nur als Beispiel) jedoch noch die Gliazellen, welche Ernährung, Immunabwehr und eben Vernetzung zwischen den einzelnen Neuronen übernehmen... hier müsste man wiedeurm die Pyramidenzellen als besondersen Typus erwähnen... wiederum muss man nun neben Verschaltung über die jeweiligen Dendriten (jeweils bis zu 100.000 zwischen zwei Neuronen) unterscheiden, dass die Signalstransduktion dann wiederum über einzelne Synapsen (als Endköpfe von Dendriten/Axone) je Neuron sogar bis zu 300.000 betragen kann und dies nehme man mal "mindestens" 25 Milliarden Neurone. Wobei jedes einzelne Neuron durch ein spezifisches Aktionspotenzial angeregt, für eine spezifische Synapse, eine spezifische Anzahl/Menge Vesikel exocytotisch freigeben kann... soviel für den Laien. Die einzelnen Fachbereiche wissen zwar viel über die Erregungsleitung/Signaltransduktion im motorneuronalen Bereich (ergo die Peripherie, denn auch dort existieren Nervenzellen...), aber die Funktionsweise der cerebro-neuronalen (meint nicht den Hirnstamm) Signalverarbeitung konnte man bis jetzt nicht eindeutig klären, daher gilt:


    1. Die durch Versuche erkannte Funktionsweise der "Nervenzelle" lässt sich nicht in ein Adjektiv binär zusammenfassen, gar als solche bezeichnen.
    2. Wenn "man" nicht allzu viel gesicherte Informationen über das Gehirn hat, wie Du/Sie selbst sagst, deswegen weiß man eindeutig, dass die "Funktionsweise" einer Nervenzelle binär ist? Davon abgesehen, dass der Ausdruck schmerzlich daneben ist.
    3. Es existiert vor allem ein Informationsspeicherungsunterschied zwischen organischem ZNS und einem Rechenzentrum (nicht ein einzelner Computer...), wir verarbeiten Informationen "bewusst" in unserem Gehirn "genauso" seriell wie ein Prozessor, nur die Aufgabenverteilung/Informationsgewichtung/Speicherung(Zwischerspeicher, Kurzzeitspeicher,Langzeitspeicher) erfolgt alles parallel und unbewusst wertungsgesteuert (durch den Thalamus). Das und die systemische Verarbeitung, welche eher einem Über-Quantencomputer entspricht, sind die wesentlichen Unterschiede zwischen Mensch und Maschine...


    So nach dem Aufreger zurück at topic:


    Ich finde vor allem die Entwicklung spannend, dass sich unter Umständen Daten im Speicher bereits kombinieren lassen, ohne dass Informationen vorher außerhalb dessen zwischengespeichert werden müssen (Stichwort Stapel). Und sich sicherlich auch die Informationsverarbeitung/Wertung zum Beispiel bei sensoaktiven Maschinen eher durch den einsatz dier Hardware und kleinen Steuerprogrammen, anstatt von riesigen Betriebsprogrammen verbessern und weniger fehleranfällig wird.

  • Zitat

    Original von Cobalt
    Richtig. Das menschliche Gehirn arbeitet mit "Ja" und "Nein", also im binärem System. Schwer vorzustellen vielleicht, aber es ist so. Jetzt ist eben die Frage wie wir Denken definieren. Denn so frei wie wir alle vielleicht meinen sind unsere Gedanken nicht.
    Einen analogen Computer zur berechnung einer KI herzuziehen halte ich für Schwachsinn, da ein analoger Rechner (wie bereits geschrieben) ungenau arbeitet. Das einzige was ich mir vorstellen könnte wäre eine Kombination aus analog und digital, bei der jede Einheit ihre eigene Aufgabe erfüllt (z.B. analog-Rechner: Sehen, digital-Rechner: Denken)

    Auch wenn die Datenübertragung in teilen digital vonstatten arbeitet das Gehirn deswegen noch lange nicht binär!