Elder Scrolls IV: Oblivion - ATi-Patch ermöglicht HDR mit AA

  • Du kannst mir ja das Bild mailen ich werde es dann für dich anhängen.


    Mailto: bf1942player@web.de

    Intel Core i7-950 || Asus P6T || Gainward GTX295 || 12 GB DDR3-1333 RAM || 4x 1 TB RAID 10 || Enermax Revolution85+ 920W || Antec Twelve Hundred


    Creative X-FI || Logitech G5 || Logitech G15 || DELL U3011 || DELL 2007FP || Teufel E 400


    Notebook: Asus V1S | Asus eeePC 1000H

  • Du kannst mir ja das Bild mailen ich werde es dann für dich anhängen.


    Mailto: bf1942player@web.de

    Intel Core i7-950 || Asus P6T || Gainward GTX295 || 12 GB DDR3-1333 RAM || 4x 1 TB RAID 10 || Enermax Revolution85+ 920W || Antec Twelve Hundred


    Creative X-FI || Logitech G5 || Logitech G15 || DELL U3011 || DELL 2007FP || Teufel E 400


    Notebook: Asus V1S | Asus eeePC 1000H

  • So, ich hab ma in den Tiefen der Oblivion Ordner meiner Festplatte nachgeschaut und bin da auf so ne Konfigurationsdatei von Oblivion gestoßen, wo steht das meine X850XT Shader 3.0 aber kein HDR unterstützt, laber laber laber....könnt ihr mir vielleicht helfen?


    Renderer Device Information:
    RADEON X850 Series
    ati2dvag.dll
    RenderPath : BSSM_SV_2_B
    PSversion : 200
    VSversion : 200
    VStarget : vs_2_0
    PStarget : ps_2_b
    PS2xtarget : ps_2_b
    maxPS20inst : 512
    3.0 Shaders : yes
    Image space effects : yes
    Nonpowerof2textures : yes
    FP16ARGB blending : no
    FP16ARGB filtering : no
    High dynamic range : no
    Bloom lighting : yes
    Refraction : yes
    2.0 hair : yes
    SLI mode : yes
    Water shader : yes
    Water reflections : yes
    Water displacement : yes
    Water high res : yes
    Multisample Type : 6
    Shader Package : 7

  • So, ich hab ma in den Tiefen der Oblivion Ordner meiner Festplatte nachgeschaut und bin da auf so ne Konfigurationsdatei von Oblivion gestoßen, wo steht das meine X850XT Shader 3.0 aber kein HDR unterstützt, laber laber laber....könnt ihr mir vielleicht helfen?


    Renderer Device Information:
    RADEON X850 Series
    ati2dvag.dll
    RenderPath : BSSM_SV_2_B
    PSversion : 200
    VSversion : 200
    VStarget : vs_2_0
    PStarget : ps_2_b
    PS2xtarget : ps_2_b
    maxPS20inst : 512
    3.0 Shaders : yes
    Image space effects : yes
    Nonpowerof2textures : yes
    FP16ARGB blending : no
    FP16ARGB filtering : no
    High dynamic range : no
    Bloom lighting : yes
    Refraction : yes
    2.0 hair : yes
    SLI mode : yes
    Water shader : yes
    Water reflections : yes
    Water displacement : yes
    Water high res : yes
    Multisample Type : 6
    Shader Package : 7

  • Ich denke eher, dass die Config-Datei irgendwas falsch zuordnet, denn die X850 unterstützt definitiv weder SM 3.0 noch HDR nativ, also vom Chip her. Softwareseitig kann sie zwar HDR, aber das ist auch schon alles hinsichtlich der SM 3.0-Effekte.


    Zudem steht in der Config-Datei SLi: yes, was schlechterdings nicht sein kann, denn SLi ist nV-Karten vorbehalten, es sei denn, die Programmierer von Oblivion nennen die CrossFire-Fähigkeit auch SLi. Ich vermute eher, dass da was falsch ausgelesen wird.


    Intel Core i5 2500K | EKL Alpenföhn Nordwand | Gigabyte Z68X-UD3-B3 | 16 GB Corsair Vengeance DDR3-1600 (9-9-9-24) | EVGA GeForce GTX 570 HD SC | Sound Blaster X-Fi Gamer Fatal1ty Pro | Samsung SpinPoint HD154UI (1,5 TB) | LG GH22-LS30 | Enermax Pro82+ 625 Watt | Lian Li PC-A09 B | Windows 7 64 Pro


    "Wer Visionen hat, sollte zum Arzt gehen." (Helmut Schmidt)
    "Gesegnet seien jene, die nichts zu sagen haben und den Mund halten." (Oscar Wilde)

  • Ich denke eher, dass die Config-Datei irgendwas falsch zuordnet, denn die X850 unterstützt definitiv weder SM 3.0 noch HDR nativ, also vom Chip her. Softwareseitig kann sie zwar HDR, aber das ist auch schon alles hinsichtlich der SM 3.0-Effekte.


    Zudem steht in der Config-Datei SLi: yes, was schlechterdings nicht sein kann, denn SLi ist nV-Karten vorbehalten, es sei denn, die Programmierer von Oblivion nennen die CrossFire-Fähigkeit auch SLi. Ich vermute eher, dass da was falsch ausgelesen wird.


    Intel Core i5 2500K | EKL Alpenföhn Nordwand | Gigabyte Z68X-UD3-B3 | 16 GB Corsair Vengeance DDR3-1600 (9-9-9-24) | EVGA GeForce GTX 570 HD SC | Sound Blaster X-Fi Gamer Fatal1ty Pro | Samsung SpinPoint HD154UI (1,5 TB) | LG GH22-LS30 | Enermax Pro82+ 625 Watt | Lian Li PC-A09 B | Windows 7 64 Pro


    "Wer Visionen hat, sollte zum Arzt gehen." (Helmut Schmidt)
    "Gesegnet seien jene, die nichts zu sagen haben und den Mund halten." (Oscar Wilde)

  • Mit Echt oder Unecht ist nur die Berechnungsmethode gemeint.
    In Lost Coast ist es gerade wegen der Xxx Serie unecht, man hat beruecksichtigt das diese leider nur SM 2.0 besitzen.
    Man wollte nur nicht das ATi Besitzer da im Nachteil sind.

  • ich glaub ich krieg die krise hier. kein echtes HDR???? meine fresse, jede directX9 Karte kann das - nur weil bethesda das shader modell 3 dafür "braucht", ist alles andere kein HDR?


    ich empfehle euch mal die wikipedia oder auch infos aus der beginners guide von toms hardware guide. oder folgendes zitat von 3dcenter.de:


    "Da jede DirectX9-Grafikkarte im Pixelshader mindestens FP24-Genauigkeit unterstützen muss, und jede relevante DirectX9-Karte auch FP32-Texturen einlesen kann, ist dynamisches HDR-Rendering im Prinzip auf jeder DirectX9-Karte möglich. Die Frage ist nur, zu welchem Preis. Analysieren wir die Arbeitsschritte:...."


    wers nicht glaubt kann auch das hdr-demo aus dem jahre 2003 von Masaki Kawase hier herunterladen:


    http://www.daionet.gr.jp/~masa/rthdribl/index.html

  • Zitat

    Original von ohmeingott
    ich glaub ich krieg die krise hier. kein echtes HDR???? meine fresse, jede directX9 Karte kann das - nur weil bethesda das shader modell 3 dafür "braucht", ist alles andere kein HDR?


    Hier redest du über HDR.

    Zitat


    "Da jede DirectX9-Grafikkarte im Pixelshader mindestens FP24-Genauigkeit unterstützen muss, und jede relevante DirectX9-Karte auch FP32-Texturen einlesen kann, ist dynamisches HDR-Rendering im Prinzip auf jeder DirectX9-Karte möglich. Die Frage ist nur, zu welchem Preis. Analysieren wir die Arbeitsschritte:...."


    Hier zitierst du über HDRR.


    Also das passt nicht zusammen.
    Es gibt nen großen Unterschied zwischen High Dynamic Range und High Dynamic Range Rendering.


    Lost Coast besitzt nicht mal volle HDRR Unterstützung. Es zeigt nur auf was damit möglich ist.
    HDR ist ganz was anderes, nämlich eine Bezeichnung für Kontrastverhältnisse in einem Bild.


    Zitat

    Unter High Dynamic Range Rendering (HDRR oder HDR-Rendering , oft fälschlich HDR) versteht man in der Computergrafik eine Technik, die es erlaubt,


    Kannst mal alles genauer hier durchlesen.

    Intel Core i7-950 || Asus P6T || Gainward GTX295 || 12 GB DDR3-1333 RAM || 4x 1 TB RAID 10 || Enermax Revolution85+ 920W || Antec Twelve Hundred


    Creative X-FI || Logitech G5 || Logitech G15 || DELL U3011 || DELL 2007FP || Teufel E 400


    Notebook: Asus V1S | Asus eeePC 1000H

  • völlig klar - na und? nur weil leute aus faulheit ein "r" weniger in der diskussion verwenden und ich das dan eben auch mache, rede ich jetzt plötzlich über etwas völlig anderes, als die anderen? :D


    die zusammenhänge sind mir schon klar - und nur weil lost coast nicht den vollen umfang bietet, heisst das, "echtes" hdrR (damit wir das R nicht wieder vergessen) wäre auf shader 2.0 karten nicht möglich? oder was willst du mir mit deinem post sagen, ausser dass ich auch ein "r" weggelassen habe? ;)


    fassen wir nochmal zusammen: hdrR ist mit directx9 karten möglich. darin sind wir uns also einig. (siehe auch link zum demo in meinem letzten post). ich halte es einfach nur für blödsinn, dass hier mehrmals behauptet wurde, dass 1.) die x850 kein hdrr könne und 2.) unbedingt sm 3.0 dafür notwendig wäre.

  • Ma ma,


    Wa passier wen jede imme den letzte Buchstabe weglasse würd?
    Un sic dan auc noc darübe aufrege wen ma selbe zu fau dafü is, wi d selbe schreibs. :rolleyes:

    Intel Core i7-950 || Asus P6T || Gainward GTX295 || 12 GB DDR3-1333 RAM || 4x 1 TB RAID 10 || Enermax Revolution85+ 920W || Antec Twelve Hundred


    Creative X-FI || Logitech G5 || Logitech G15 || DELL U3011 || DELL 2007FP || Teufel E 400


    Notebook: Asus V1S | Asus eeePC 1000H

  • Zitat

    Original von ohmeingott
    süss. :) naja, wie auch immer. argumentativ kommt da wohl nicht mehr viel . :)


    willst dus nicht einsehen? :rolleyes:

    Der, der seine Freiheit für Sicherheit aufgibt, wird beides verlieren.


    i5 3570k @4100 | EVGA 980Ti @1240 | G7 & MX518 | Iiyama ProLite 26" | Wasserkühlung


    Dieser Beitrag wurde 138 mal editiert, zum letzten Mal von Woflgang Schäuble am 05.10.2046 17:16.

  • irgentwie plöd ^^
    ich würde sagen das die x850 hdr unterstüzt !
    weeiiill
    wenn bei farcry kein "echtes" hdr unterstüzt wird wird dem zufolge
    grau angezeigt "also mann kanns net aktivieren"- ich mein ja blos steht oben im forum drin ! ^^
    sooo...
    aber das tolle ist das ich mit meiner alten karte das schon nutzen konnte die hatte auch sm 2.0...
    grafisch war das hdr auch zu sehen oder zu bemerken...
    ...und das war eine Radeon 9500...^^
    also unmöglich ist es sicher nicht!
    hab auch ne x850xt... ^^
    greezZz


  • ich geb übrigens 33) ohmeingott völlig recht ^^