Beiträge von ventu

    also das mit der 33 hat sich denke ich geklärt .. Unicode U+0033 ist eindeutig 3 laut Definition.


    zur 1)
    B'L ist die Legendre-Konstante, vgl. http://www.dividano.de/konstanten.html Stichwort: Legendres Konstante.


    pi(x) ~ x / (ln x - B )
    pi(x): Die Anzahl der Primzahlen, die kleiner als X sind mit B = 1,08366



    Da alle anderen Ergebnisse glatt sind meine Theorie: (vielleicht aber zu viel reininterpretiert) der Strich ' sitzt nicht genau auf dem Strich von der 1 sondern ein kleines bißchen weiter unten ... vllt. steht das für die zusätzlichen 0,08366 8) :saint:

    Ich will jetzt nicht sagen, dass die Boxen in ihrer Preisklasse schlecht sind - ich bezweifle aber stark, dass du mit einer neuen Soundkarte bei Filmen und Musik einen Unterschied bemerken würdest.

    Billignetzteile wie z.b. die von Xilence haben oftmals einen schlechten Wirkungsgrad. (Abgesehen von weiteren Nachteilen)
    Da kann es schon sein, dass ein 300W-Markennetzteil mit 85% Wirkungsgrad bei z.b. 50% Last von der Leistung her einem 450 Watt-Billignetzteil entspricht.
    Man sollte bei seiner Kaufentscheidung berücksichtigen, dass das Netzteil die wichtigste Komponente bei einem Computer ist und nicht nur einfach "Strom" liefert, wie viele glauben.
    Der Anteil vom Gesamtbudget, den viele beim Neukauf dem Netzteil zuschreiben, wird dieser Tatsache allerdings meist nicht gerecht...

    Ich fürchte von uns zumindest kann dir dabei keiner weiterhelfen :)
    Es sei denn, du findest noch jemanden, der genau das schonmal hatte. Aber selbst dann muss das nicht genau dieselbe Ursache gewesen sein. :D


    Gruß

    Da du ja Softwarefehler durch das Einspielen des Images mehr oder weniger ausgeschlossen hast und der Rechner nach dem Warmstart ohne Probleme läuft, scheint alles auf das Mainboard als Fehlerursache hinzudeuten. Nur dort gibt es Komponenten, die ihre Betriebseigenschaften derart ändern wenn sie sich erwärmen, dass sie in der Lage sind den Fehler zu produzieren. Was das jetzt aber genau ist weiß der Geier; vllt. ein Kondensator der defekt ist. Da hilft leider nur eins: ausprobieren.


    Wäre das Netzteil betroffen, würde sich der Fehler meiner Meinung nach nicht immer an genau derselben Stelle zeigen. Alle restlichen Hardwarekomponenten wie Festplatte oder CPU kommen aus demselben Grund noch weniger bzw. gar nicht als Fehlerquelle in Frage.

    Zitat

    Original von popopo


    Es gibt einen Nachteil, den ich absolut nicht schlimm finde.


    Da irrst du. Denn der Unterschied von digitaler zu analoger Übertragung wird ab 22 Zoll schon deutlich. Wenn du von einem Röhrenmonitor umsteigst wird dir das erstmal nicht auffallen, stellst du aber einen (guten) digital angeschlossenen Monitor daneben wirst du den Unterschied bemerken.

    2) + 3) hat whoop beantwortet.


    zu 1)


    300 € wird eng aber ist ausreichend. Du wirst allerdings Kompromisse eingehen müssen. Eine dedizierte Grafikkarte wird nicht drin sein.


    Mainboard etwa 70 € inkl. onboard-Grafik und HDMI/DVI-Ausgang.
    CPU 120 €
    Festplatte 35 €
    Netzteil 50 €


    Gehäuse qualitativ hochwertig kostet 70-80, kannst dir aber auch ein 15 € Ramsch-Gehäuse holen, das passt dann ins Budget. Falls du Detail-Infos zu den Komponenten haben willst, sag Bescheid.


    Willst du nicht unbedingt 1080p-Videomaterial (derzeit die höchste Auflösung bei High-Definition-Videos) wiedergeben, fährst du mit der Konfiguration gut. Dedizierte Grafikkarte für etwa 60 € Aufpreis,

    Für Server gibt es ja wirklich nichts besseres, aber leider ist Solaris derzeit noch kaum als vollwertiges Desktop-Betriebssystem zu gebrauchen - zumindest, wenn man bzgl. Treibern und (Multimedia-)Funktionalität nicht komplett anspruchslos ist.

    es gibt mittlerweile glaube ich auch einen neuen ... da sieht man dann die Buchstaben beim Übergang im Vorhinein schon, sodass dort keine Zwangspause entsteht ... werds die Tage wenn ich wieder zu Hause bin auch mal wieder probieren ;)


    Aber 0 falsch bei dem Tempo ist schon verdammt gut, Respekt...

    Zitat


    meiner meinung nach müsste man doch folgendermaßen rechnen:


    [(10^12/2^40)-0,032]*30/100


    für die 30% in Tebibyte von einer TB platte


    Im Prinzip hast du Recht, jedoch rechnen wir mit binären Gigabytes, nicht Terabytes (s. weiter unten).
    Des weiteren wollen wir ja nicht 30% in binären Gigabytes sondern wir wollen mit der Formel die Größe der Pufferpartition berechnen, die, zur Startpartition addiert, genau 70% der formatierten Gesamtkapazität entspricht, damit wir die zweite Partition bei genau den 70% anlegen.


    Zitat


    das habe ich wurde aber daraus nicht schlau.
    Wenn ich das richtig verstanden habe brauchst du die 1024 dazu weil du mit Windows arbeitest und den "wahren" Wert haben willst richtig?


    Richtig.


    1000 Gbyte (dezimal) ergeben bei einer NTFS Partition unter Windows (in Gigabyte gerechnet) 1000/1,024³ = 1000*(10^9/2^30) = 931,... GByte (Binär).
    1 TByte (dezimal) ergibt unter Windows (in Terabyte gerechnet) 1/1,024^4 = 10^12/2^40 = 0,909... TByte (binär) wie Pame vollkommen richtig bemerkt.


    Nichts anderes berechnen wir mit der im Artikel angegebenen Formel.


    Die Startpartition von 32 GByte ist bei jeder Platte gleich. Um jetzt die zweite Partition bei genau 70% der Kapazität anzulegen berechnen wir den Startsektor bei 70% (0,7*(Kapazität in Binär-Gigabytes)) und ziehen davon die Startpartition ab, damit wir wissen, wie groß die Pufferpartition sein muss, die zwischen Start- und End-Partition liegt. Es ergibt sich also somit:


    1.Partition: 32 GByte (formatierte Kapazität)
    2. Partition (Pufferpartition, Größe entsprechend sodass 1. Partition formatiert + 2. Partition formatiert 70% der formatierten Gesamtkapazität ausmachen)
    3. Partition (Startsektor genau bei 70% der formatierten Gesamtkapazität)



    Bitte um Rückmeldung, ob es jetzt verständlicher geworden ist.
    Ich freue mich jederzeit über weitere Anregungen. Ich werde mir überlegen, wie ich das Testverfahren in zukünftigen Artikeln noch etwas anschaulicher beschreiben kann.

    Zitat


    Interesanter Artikel. Nur aus der Formel werde ich nicht ganz schlau. Vorallem das hoch -3 verwirrt mich doch zutiefst :) Müsste hier nicht ein *10^-3 stehen? und woher kommen die 1,024?


    Schau mal weiter unten, dort steht es in der Fußnote. Die 1,024 kommt daher, dass die formatierte Kapazität nicht der angegebenen Kapazität entspricht. In unserem Fall heißt das also, dass 30% von einer 1 TByte Platte nicht bei 300 GByte (0,3*1000) liegen sondern bei 0,3*1000/1,024³ GByte. 1,024³ deshalb, da wir in Gigabyte rechnen. Und das "-" kommt daher, weil der Term in unserer Formel zur besseren Übersichtlichkeit im Zähler steht.


    Zitat


    Sowie "Verglichen mit der F1-Serie konnten wir eine leicht erhöhte Leistungsaufnahme feststellen, diese ist aber mit etwa 0,5 Watt nicht signifikant." auch eher in den Bereich der Messfehler fällt da das Leistungsmessgerät so genaue Messungen garnicht zulässt!


    Richtig, daher ja auch der Hinweis, dass es nicht signifikant ist. (was ja nichts anderes heißt, als dass es durch Messungenauigkeiten zustande gekommen sein kann)


    Zitat


    Das Festplatten Managment zu Lautstärkenreduzierung heisst "Automatic Acoustic Management" kurz AAM.


    korrekt, das ist der englische Term dafür. Ich habe es im Nachhinein editiert um Mißverständissen vorzubeugen.


    Zitat


    Die ST3320613AS ist bei 12Cent pro GB auch nicht wirklich günstig betrachtet man die guten 8Cent pro GB der Samsung F1 1TB sollte man sich echt überlegen ob 320GB noch sinn machen.


    Manchmal ist aber auch der Absout-Preis ausschlaggebend. 320 GByte mögen für viele ausreichend sein, dazu ist es energieeffizienter. Als Festplatte für den normalen Anwender ohne hohe Ansprüche halte ich 320 GByte nach wie vor für sehr attraktiv. Obwohl ich hier auch eher zur F1 HD322HJ greifen würde und nicht zur Seagate.



    Zitat


    Und die WD Black ist nicht wirklich überall überlegen wie es hier heisst
    "Abgesehen vom Iso-Benchmark im FileCopy-Test, ist sie der F1 bzw. F1R in allen Belangen überlegen."


    Bezogen auf die Resultate des FC-Tests ist die Formulierung in der Tat etwas unglücklich, in erster Linie habe ich mich dort auf die h2benchw Anwendungsprofile bezogen. Bei der Seagate solltest du die katastrophalen Ergebnisse im Write-Benchmark beachten, das Laufwerk hat sich also somit quasi selbst aus dem Rennen geworfen.
    Den Ausschlag für den Editor's Choice Award hat letztlich dann das h2benchw-Anwendungsprofil gegeben, dort schneidet die WD Black besser ab als jede andere Festplatte die wir bisher getestet haben. Ich habe den Absatz nochmal etwas umformuliert, ich denke es ist jetzt besser nachvollziehbar. Danke für deine Kritik.