PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : DirectX10 - Verunsicherung


Gast
2007-07-02, 15:19:46
Mittlerweile gibt es so viele Threads, die irgendetwas mit der Leistung von DirectX10 - Karten zu tun haben. Nvidia und ATI/AMD haben ja ihre Portfolios heraußen und Tests gibt es ebenso.
In all den Foren liest man aber nichts gutes über die Mittelklasse und diverse Tests der High - End Versionen mit DirectX10 Spielen sind auch nicht gerade berauschend.
Sind die Teile denn alle zu vergessen für DirectX10 und soll man also noch warten auf die Refresh - Chips, oder liegt alles an den noch nicht ausgereiften Treibern und nicht vorhandenen DirectX10 Spieletiteln.
Irgendwie war der Übergang von DX8 auf DX9 fließender und der R300 (Beispiel) einfach - und so sollte es sein - allen DX8 Chips überlegen.
Wird sich der Abstand der DX10 Chips zu den DX9 Chips noch vergrößern?
Wenn man kauft - was ist dann am "zukunftssichersten" (Tesselation - Unit im R600, schlafende Rechenwerke im G80 etc.)?

Coda
2007-07-02, 15:22:08
G80 ist doch auch allen früheren D3D9-Chips haushoch überlegen. Was ist das Problem?

Die Tesselationseinheit der R600 wird nicht mal in den ATI-Demos verwendet, kann man also getrost ignorieren, zumal sie in D3D10 nichtmal ansprechbar ist.

Falls ein Spiel die gleichen Features in D3D9 und D3D10 anbietet wird D3D10 auf jeden Fall gleich mindestens schnell sein, wenn der Treiber gleich gut optimiert ist. Es gibt also keine generelle "D3D10-Schwäche".

In UT3 wird man z.B. nur mit D3D10 Anti-Aliasing sehen, ist doch auch schon was.

Mr. Lolman
2007-07-02, 15:33:54
Die Tesselationseinheit der R600 wird nicht mal in den ATI-Demos verwendet, kann man also getrost ignorieren, zumal sie in D3D10 nichtmal ansprechbar ist.

Ich dachte, die Felsen werden damit erstellt. Ist das denn etwa nicht der Fall?

Gast
2007-07-02, 15:34:28
Tja - Frage ist wirklich, ob G80 und R600 in 1 Jahr noch genug Muskeln für D3D10 zeigen

James Ryan
2007-07-02, 15:38:16
Ich dachte, die Felsen werden damit erstellt. Ist das denn etwa nicht der Fall?

Wie soll das gehen wenn das Ding nichtmal unter D3D10 ansprechbar ist? :|

MfG :cool:

Squall2010
2007-07-02, 15:44:02
Wenn endlich Spiele raus kommen die DX10 unterstützen, dann gibt es schon neue Karten die Schneller sind als die Marketing Karten die jetzt draussen sind.

Ich glaube weniger das die wirklich dazu gedacht waren DX10 Spiele zu unterstützen, und das sich die Hersteller darüber bewust sind, das die Karten nicht genug Power haben für die Anwendungen.

In einem Jahr werden die mit sicherheit nicht mehr reichen.

Monger
2007-07-02, 15:52:21
Wie soll das gehen wenn das Ding nichtmal unter D3D10 ansprechbar ist? :|

MfG :cool:
Darüber hat sich auch schonmal Demirug ausgelassen. Irgendeinen Hack über den eigenen Treiber freizulegen, ist kein Problem. Schon alleine deshalb wird es nicht ganz einfach, die selbe Demo auch unter nVidia zum laufen bringen zu können.

Gast
2007-07-02, 15:56:52
Zur DX10-Patch Performance der Grakas würde ich ganz gerne mal mutmaßen:
bei der sehr übersichtlichen Auswahl an DX 10 Karten zum Zeitpunkt der Patchentwicklung kann ich mir gut vorstellen, dass sich die Entwickler gesagt haben "wir bauen jetzt soviele zusätzliche Details ein, dass wir bei einer XYZ-Karte auf round about XY fps kommen".

Coda
2007-07-02, 15:58:41
Ich dachte, die Felsen werden damit erstellt. Ist das denn etwa nicht der Fall?
Nein. Das wird in Software tesseliert, zumindest sagte Demirug das. Es gibt anscheinend auch keine komischen Calls zu D3D10, also muss es wohl so sein. Es läuft auf G80 nicht, weil die semantischen Bindungen der Shader eigentlich falsch sind. Was ein Zufall aber auch...

Mr. Lolman
2007-07-02, 16:01:55
Ich les grad, dass Tesselation sogar schon mit D3D9 möglich sein soll: http://msdn2.microsoft.com/en-us/library/bb206188.aspx


Und imo sind das für Software Tesselation schon viele Details, oder (Video, 2. Demo)? http://ati.amd.com/developer/demos/rhd2000.html

Coda
2007-07-02, 16:37:49
Ich les grad, dass Tesselation sogar schon mit D3D9 möglich sein soll: http://msdn2.microsoft.com/en-us/library/bb206188.aspx
Das ist das was die Parheliah können sollte. Das ist in D3D10 nicht mehr vorhanden und es gab auch nie einen Treiber irgendeines IHVs der das ermöglicht hat (auch nicht von Matrox).

Ind imo sind das für Software Tesselation schon viele Details, oder (Video, 2. Demo)? http://ati.amd.com/developer/demos/rhd2000.html
Es ist Software. Es werden dynamische Vertexdaten von der CPU dafür übertragen.

reunion
2007-07-02, 18:36:29
Die Tesselationseinheit der R600 wird nicht mal in den ATI-Demos verwendet, kann man also getrost ignorieren, zumal sie in D3D10 nichtmal ansprechbar ist.


Sie wird laut ATi in sämtlichen R6xx-Demos verwendet.

Coda
2007-07-02, 18:37:32
Wird sie aber nicht.

http://forum-3dcenter.org/vbulletin/showthread.php?p=5573663#post5573663 ff.

reunion
2007-07-02, 18:40:12
Dann heißt das "Tessellation"-Demo zum Spaß so und die ganze Beschreibung ist nur ein Schwindel? Ich glaube nicht.

Coda
2007-07-02, 18:41:46
Es wird eben in Software tesseliert. Ich denke aber dass es die Hardware mit einer geeigneten API wohl auch könnte - ansonsten wär's für mich wirklich nur Marketing.
Wie auch immer, ich bin fest davon überzeugt dass die Demo auf G80 laufen würde, wenn die - meiner Meinung nach nicht zufälligen - Fehler in Shadern behoben werden würden.

Btw. laufen Cascades und Konsorten eigentlich auf den Radeons?

reunion
2007-07-02, 18:44:06
Okay, deshalb wird wohl die Tessellation-Demo momentan nur als Video angeboten.

Wie auch immer, ich bin fest davon überzeugt dass die Demo auf G80 laufen würde, wenn die - meiner Meinung nach nicht zufälligen - Fehler in Shadern behoben werden würden.


Natürlich ist das nicht zufällig, genau so wenig wie es umgekehrt Zufall ist. Man will eben nicht, dass solche Techdemos auch auf den Konkurrenzprodukten laufen, was aus Sicht der Hersteller durchaus verständlich ist.

Btw. laufen Cascades und Konsorten eigentlich auf den Radeons?

Nein.

Demirug
2007-07-03, 17:51:26
Man kann auch mit dem GS tesselasieren. ;)

Coda
2007-07-03, 18:38:27
Nein.
Ja, die schauen aber wenigstens nur auf die Device-ID. Ich glaube das könnte man relativ leicht rauspatchen.

DK2000
2007-07-04, 12:56:46
Irgendwie erinnert mich diese Situation stark an "damals" als der erste Grafikchip mit T&L Feature kam. Hab keine Ahnung wann dann die ersten T&L Only Spiele rauskamen aber auf einer Geforce1 (am besten noch mit SDR) konnte man es bestimmt nimmer vernünftig spielen...

Auch reine SM3 Titel kommen erst jetzt so langsam ans Tageslicht, wie laufen die auf einer 6800er Geforce, die 2004 rauskam?

Also um auf DX10 umzurüsten (und gleichzeitig ein neues Betriebssystem) habt ihr noch locker 2Jahre Zeit, also nix überstürzen ;)

Gast
2007-07-04, 13:00:30
Also um auf DX10 umzurüsten (und gleichzeitig ein neues Betriebssystem) habt ihr noch locker 2Jahre Zeit, also nix überstürzen ;)Die D3D10-Karten sind aber nunmal auch die schnellsten D3D9-Karten und daher durchaus sinnvoll, auch unter WinXP.

Mr. Lolman
2007-07-04, 13:10:35
Die D3D10-Karten sind aber nunmal auch die schnellsten D3D9-Karten und daher durchaus sinnvoll, auch unter WinXP.

Insgesamt hast du ja recht. Allerdings gibts ne X1900XT Crossfire um 153€ (http://www.kmelektronik.de/main_site/?SiteType=Shop&type=shop&ArtNr=192542&Ref=100&gp=6831&fd=312256) und ausgehend von ner X1950XTX (- ~15%) steht die ja vergleichsweise gut da: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

HOT
2007-07-04, 13:10:52
Tja - Frage ist wirklich, ob G80 und R600 in 1 Jahr noch genug Muskeln für D3D10 zeigen
Diese beiden schon, aber die jetzige "Mainstream"generation definitiv net. Die ist ein meinen Augen eher Bauernfängerei. Dann lieber zu X19xx oder 79xx Varianten greifen, da hat man auch langfristig deutlich mehr von.

Cubitus
2007-07-04, 13:20:16
Die D3D10-Karten sind aber nunmal auch die schnellsten D3D9-Karten und daher durchaus sinnvoll, auch unter WinXP.
und eine einzelne 8800GTX (GTS640MB) ist bei vielem sogar schneller als ATIs Crossfire mit 2x1900XTs

Der_Korken
2007-07-04, 13:37:14
Insgesamt hast du ja recht. Allerdings gibts ne X1900XT Crossfire um 153€ (http://www.kmelektronik.de/main_site/?SiteType=Shop&type=shop&ArtNr=192542&Ref=100&gp=6831&fd=312256) und ausgehend von ner X1950XTX (- ~15%) steht die ja vergleichsweise gut da: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Also wenn das eine einzelne X1950 sein soll, dann kann da was nicht stimmen. Oder warum sollte die auf einmal 60% über ner GX2 oder 80 % über ner 7900GTX liegen?

Gast
2007-07-04, 13:42:09
Also wenn das eine einzelne X1950 sein soll, dann kann da was nicht stimmen. Oder warum sollte die auf einmal 60% über ner GX2 oder 80 % über ner 7900GTX liegen?

Das Problem an dieser ZUsammenfassung ist, dass es einige Tests gibt, wo die G7x Karten kein AA darstellen können. Wenn nun die FPS Werte von 10 zusammengezählt werden und zwei bzw. drei Test fehlen, dann ergibt sich dieses Bild.
Das ist auch der Grund warum Mr.Lolman dies heranführt - er ist einfach so bessen dadrin, die AMD Karten hervorzuheben, dass er solche "Unwichtigkeiten" übersieht.

HOT
2007-07-04, 13:50:33
Es ist aber auch so, dass ATI die Treiber so weit gebracht hat, dass die Geforce7 in anspruchsvolleren Titeln ggü. der x1900 Serie einfach kein Land mehr sieht. Ich finds faszinierend in dem Test, dass die GDDR4 Variante der X1950 mit der Geforce8 GTS mithalten kann... Dafür hat die Geforce8 aber eindeutig die bessere Bildqualität :).

Mr. Lolman
2007-07-04, 13:53:48
Das ist auch der Grund warum Mr.Lolman dies heranführt - er ist einfach so bessen dadrin, die AMD Karten hervorzuheben, dass er solche "Unwichtigkeiten" übersieht.

Wer redet vom G7x? Urpsrünglich gings um DX10-Karten. Und dass man mit ner R580 DX9-Karte auch nicht schlecht fährt, zeigt das Performancerating.

EDIT: Mir kommts so vor, dass du immer der gleiche Spammer bist, der anscheinend ein persönliches Problem mit mir zu haben scheint. Registrier dich mal, dann können wir das per PN regeln.


Dafür hat die Geforce8 aber eindeutig die bessere Bildqualität :).

Bei den getesteten Settings ist die BQ vergleichbar.

Gast
2007-07-04, 14:20:53
Bei den getesteten Settings ist die BQ vergleichbar.


dafür kann man aber beim G80 ohne großartige performanceeinbußen auf HQ stellen, während die ATI-karten dabei schon mal 30-50% verlieren.

HOT
2007-07-04, 15:19:33
[...]
Bei den getesteten Settings ist die BQ vergleichbar.
Die Geforce8 hat deutlich besseres AF als die X19xx Serie und die 7900 Serie. Ist hier aber eh irrelevant.
dafür kann man aber beim G80 ohne großartige performanceeinbußen auf HQ stellen, während die ATI-karten dabei schon mal 30-50% verlieren.
Geht diese unsägliche Diskussion jetzt von vorne los? Keine AI Diskussionen mehr bitte.

Blaire
2007-07-04, 15:26:15
Insgesamt hast du ja recht. Allerdings gibts ne X1900XT Crossfire um 153€ (http://www.kmelektronik.de/main_site/?SiteType=Shop&type=shop&ArtNr=192542&Ref=100&gp=6831&fd=312256) und ausgehend von ner X1950XTX (- ~15%) steht die ja vergleichsweise gut da: http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2400_xt_hd_2600_xt/24/#abschnitt_performancerating_qualitaet

Die X1900XT ist der reinste Krachmacher wie kann man sowas heute noch empfehlen? Normal gehört Ati der Kühler um die Ohren gehaun solchen Schrott den Leuten anzudrehn.

Mr. Lolman
2007-07-04, 15:29:56
Die Geforce8 hat deutlich besseres AF als die X19xx Serie und die 7900 Serie. Ist hier aber eh irrelevant.

Mit Treiberdefault (Q bei NV) ists vergleichbar. Erst mit HQ ist besser.

Die X1900XT ist der reinste Krachmacher wie kann man sowas heute noch empfehlen? Normal gehört Ati der Kühler um die Ohren gehaun solchen Schrott den Leuten anzudrehn.

X1950XT mit Silencer um 150€: http://geizhals.at/eu/a243435.html

Außerdem lassen sich alle R580 mit nem Mausklick in den ATT schön Undervolten, und/oder mit ner Anpassung der Lüftersteuerung leiser machen.

EDIT: Ne FX5800 Ultra mit 13 Sone hat man ohne zu zögern gekauft und eine X1900XT mit maximal 6 Sone hingegen soll schrott sein? Naja, wie du meinst...

Blaire
2007-07-04, 15:43:49
X1950XT mit Silencer um 150€: http://geizhals.at/eu/a243435.html

Ich seh bei deinem Link Preise ab 187€uro.

Außerdem lassen sich alle R580 mit nem Mausklick in den ATT schön Undervolten, und/oder mit ner Anpassung der Lüftersteuerung leiser machen.


Undervolten führt dann unweigerlich zu Freezes je nach Karte, der Lüfter ist dennoch Schrott und viel zu laut.


EDIT: Ne FX5800 Ultra mit 13 Sone hat man ohne zu zögern gekauft und eine X1900XT mit maximal 6 Sone hingegen soll schrott sein? Naja, wie du meinst...

Ich hatte keine 5800 ULtra, kann aber mit Recht sagen das die X1900XTX als CF Verbund mit die lautesten Karten waren die ich jemals hatte.

Mr. Lolman
2007-07-04, 16:03:39
Ich seh bei deinem Link Preise ab 187€uro.

Hoppla. Naja ist auch noch relativ günstig.


Undervolten führt dann unweigerlich zu Freezes je nach Karte, der Lüfter ist dennoch Schrott und viel zu laut.

Aber geh. Ich hab ne X1900XTX der ersten Produktionswochen und die läuft immerhin mit 1.375V anstatt 1.45V und bleibt dabei fast 10°C kühler. (bei 36% Lüfterspeed anstatt bis zu 59%). Diverse X1900XT laufen sogar @ Defaulttakt mit 1.275V bzw, mit leicht verringertem Takt sogar @ 2D Spannung.


Ich hatte keine 5800 ULtra, kann aber mit Recht sagen das die X1900XTX als CF Verbund mit die lautesten Karten waren die ich jemals hatte.

Im CF-Verbund @ Originalvoltage/Lüfterspeed heizen sie sich nochmal gegenseitig ordentlich auf. Und ab 94°C wirds wirklich hässlich laut.

BTW: So suboptimal die Lüfterlautstärke auch sein mag - ab Temperaturen von 88°C (50% Lüfterspeed) bis spätestens 94°C (59% Lüfterspeed) - 2 Vorteile hat der Kühler dennoch: 1. Selbst als ich noch fleissig in meinem Zimmer bei offenen Gehäuse geraucht hab, ist der Kühler quasi garnicht verdreckt (im Ggs zu, Sonictower) und 2. wird die Abwärme aus dem Gehäuse rausgeblasen - die restlichen Komponenten bleiben kühler...

LovesuckZ
2007-07-04, 16:14:00
Mit Treiberdefault (Q bei NV) ists vergleichbar. Erst mit HQ ist besser.

Niemand spielt mit einer 8800GTS oder GTX Karte mit Quality. Der Leistungsverlust ist marginal, der optische Gewinn für einige deutlich sichtbar.
Daher sind auch alle Tests mit Quality für die Tonne, da sie nicht den wirklichen Gegebenheiten eines G80 Käufers widerspiegeln.


EDIT: Ne FX5800 Ultra mit 13 Sone hat man ohne zu zögern gekauft und eine X1900XT mit maximal 6 Sone hingegen soll schrott sein? Naja, wie du meinst...

Was für ein toller Vergleich, du schaffst es immer wieder mich zu begeistern.
Die Standardkühlkonstruktion der r520 und r580 Karten sind mist und stören beim Spielen. Und dabei ist es egal, ob drei Jahre vorher eine Karte noch lauter war. Und ich ziehe eine 7900GTX einer r580 Karte vor, da das Nerven der Kühlkonstruktion den Leistungsmehrgewinn für mich nicht rechtfertigt.

Blaire
2007-07-04, 16:24:10
Hoppla. Naja ist auch noch relativ günstig.

Der Preis ist generell in Ordnung. Aber heutzutage würde ich dann gleich zu einer DX10 Karte greifen.


Aber geh. Ich hab ne X1900XTX der ersten Produktionswochen und die läuft immerhin mit 1.375V anstatt 1.45V und bleibt dabei fast 10°C kühler. (bei 36% Lüfterspeed anstatt bis zu 59%). Diverse X1900XT laufen sogar @ Defaulttakt mit 1.275V bzw, mit leicht verringertem Takt sogar @ 2D Spannung.

Du sprichst jetzt generell vom 2D? Da mag das so laufen glaub ich. Aber wehe man startete ein Game da drehten die Lüfter auf das war nicht mehr normal so laut wie die waren und ich hatte den Tower unter dem Tisch und mir sind fast die Ohren abgefallen. ;D Halo1 nach 5min schon über 104 Grad bei 90% Lüftergeschwindigkeit nee Danke das war nix auf Dauer.

Mr. Lolman
2007-07-04, 16:40:52
Niemand spielt mit einer 8800GTS oder GTX Karte mit Quality. Der Leistungsverlust ist marginal, der optische Gewinn für einige deutlich sichtbar.
Daher sind auch alle Tests mit Quality für die Tonne, da sie nicht den wirklichen Gegebenheiten eines G80 Käufers widerspiegeln.

Genügend spielen mit Quality. Der BQ Unterschied ist meistens mehr oder weniger wurscht. Die Aussage bezügl geringem Leistungseinbruch bei G80-HQ ist zwar korrekt, aber bei AIoff ist er tw. auch äußerst gering (NFS-Carbon <10%). Außerdem ist AIoff auch nicht immer der Weisheit letzter Schluss (aber verlagern wir die Diskussion bezügl ATis einzelner Filtermodi auf den Zeitpunkt nachdem der passende 3DC-Artikel erschienen ist).


Was für ein toller Vergleich, du schaffst es immer wieder mich zu begeistern.
Die Standardkühlkonstruktion der r520 und r580 Karten sind mist und stören beim Spielen. Und dabei ist es egal, ob drei Jahre vorher eine Karte noch lauter war. Und ich ziehe eine 7900GTX einer r580 Karte vor, da das Nerven der Kühlkonstruktion den Leistungsmehrgewinn für mich nicht rechtfertigt.

Noch lauter? Doppelt so laut!. Außerdem kann man ja undervolten und dabei rennt der Kühler im Normalfall maximal auf 36%. Für Leute die ganz ohne Sound spielen ist der Unterschied zu 2D zwar immernoch deutlich hörbar, aber die dürften eh in der Minderheit sein.


Du sprichst jetzt generell vom 2D? Da mag das so laufen glaub ich. Aber wehe man startete ein Game da drehten die Lüfter auf das war nicht mehr normal so laut wie die waren und ich hatte den Tower unter dem Tisch und mir sind fast die Ohren abgefallen. ;D Halo1 nach 5min schon über 104 Grad bei 90% Lüftergeschwindigkeit nee Danke das war nix auf Dauer.

Nö. 2D Spannung. 1.2V mit 600MHz (anstatt 625MHz mit default 1.45V) ist tw auch möglich. Anscheinend geht das gerade bei neueren Karten öfter mal. Und wenn man nicht untertakten will, nimmt man halt 1.25-1.3V, was immernoch ein deutlicher Fortschritt ist. Meine geht relativ schlecht zum undervolten und bleibt trotzdem mit 1.375V bei 650MHz schon um knapp 10°C kühler als mit 1.45V. Umgerechnet auf Defaultlüfterspeed (kann man ja auch problemlos ändern) sind das 36 anstatt 59%.

Bond2k
2007-07-04, 17:44:32
Ist eigentlich schon bekannt, wann die ersten DirectX10.1 Karten rauskommen?

Gast
2007-07-04, 18:15:04
Ist eigentlich schon bekannt, wann die ersten DirectX10.1 Karten rauskommen?


nein, es ist ja nichtmal die DX10.1-spezifikation final.

Das Auge
2007-07-04, 18:18:43
Ist eigentlich schon bekannt, wann die ersten DirectX10.1 Karten rauskommen?

Super Frage, es gibt noch keine DX10 Titel, aber du willst schon eine DX10.1 Karte?! :|
Verrücktes Forum :lol:

Der_Korken
2007-07-04, 19:44:57
Nochmal zu den Benches: ich weiß jetzt, warum die 8800GTS320 hier so schlecht dasteht. In ca. 30 bis 40% der Tests geht der Karte der Speicher aus und die Karte bricht extremst ein - manchmal sogar verrückterweise unter eine 8600GTS ... Mit herabgesetzten Texturdetails könnte das ganz anders aussehen - ich würde die GTS nicht unterschätzen.

HOT
2007-07-04, 20:37:31
Die X1900XT ist der reinste Krachmacher wie kann man sowas heute noch empfehlen? Normal gehört Ati der Kühler um die Ohren gehaun solchen Schrott den Leuten anzudrehn.
Ich habe eine X1900XTX und die ist nicht laut. Allerdings ist sie optimal belüftet. Es ist keine Kunst das Ding zu beruhigen.

Nochmal zu den Benches: ich weiß jetzt, warum die 8800GTS320 hier so schlecht dasteht. In ca. 30 bis 40% der Tests geht der Karte der Speicher aus und die Karte bricht extremst ein - manchmal sogar verrückterweise unter eine 8600GTS ... Mit herabgesetzten Texturdetails könnte das ganz anders aussehen - ich würde die GTS nicht unterschätzen.

Da stellt sich mir aber die Frage, warum das so ist. Andere Grafikchips kommen mit ihrer Speichermenge besser klar. Wir reden hier von moderaten Auflösungen, da sollte der VRAM fast immer reichen.

Cubitus
2007-07-04, 20:43:11
Ich habe eine X1900XTX und die ist nicht laut. Allerdings ist sie optimal belüftet. Es ist keine Kunst das Ding zu beruhigen.

ich hatte mal zwei solcher Monster.
Las die beiden mal auf 75-100% laufen.

Blaire hat schon recht, dass war echt ne Zumutung!

Mr. Lolman
2007-07-04, 20:43:14
Ich habe eine X1900XTX und die ist nicht laut. Allerdings ist sie optimal belüftet. Es ist keine Kunst das Ding zu beruhigen.

Lässt du sie mit Defaultvoltage laufen, oder hast du die Spannung geändert?

HOT
2007-07-04, 20:45:23
läuft auf default. hab aber vorne und hinten im Gehäuse einen geregelten 12er, so dass der ganze Rechner recht leise bleibt. zwischen dem vorderen Lüfter und der Karte habe ich die Festplatten aus dem Weg gebaut und voilá, die Karte ist leise. Schon seit einem Jahr ;) (wurde zwischendruch aber mal gereinigt die Karre). Über die 2. Lüfterstufe kommt die Karte seltenst hinaus. Bei G3 schonmal.

Flashpoint
2007-07-04, 21:23:10
Da stellt sich mir aber die Frage, warum das so ist. Andere Grafikchips kommen mit ihrer Speichermenge besser klar. Wir reden hier von moderaten Auflösungen, da sollte der VRAM fast immer reichen.

Weil es einen Bug im Treiber/Chip gibt der den VRAM nicht leert.
Warum das so ist kann dir vermutlich keiner sagen.
Ich denke nichtmal Coda oder Demirug oder ZBag.

HOT
2007-07-04, 21:24:18
So einen Bug gab es bei den 512MB Versionen der ATIs auch mal oder irre ich da?

Bond2k
2007-07-04, 22:12:10
Super Frage, es gibt noch keine DX10 Titel, aber du willst schon eine DX10.1 Karte?! :|
Verrücktes Forum :lol:

Tja, man ich möchte halt immer das neueste. :biggrin: Von mir aus würde ich mir auch schon eine DirectX300-Karte kaufen. Auch wenn diese erst in 100 Jahren ausgelastet wird.

EcHo
2007-07-05, 00:06:25
Tja, man ich möchte halt immer das neueste. :biggrin: Von mir aus würde ich mir auch schon eine DirectX300-Karte kaufen. Auch wenn diese erst in 100 Jahren ausgelastet wird.
Ahh, ein Early Adopter, das sehen die Firmen gern! Wobei ausgelastet stimmt nicht, man kann jede Karte auch heute schon zum schwitzen bringen, nur die Features werden größtenteils nicht benutzt!;D

N0Thing
2007-07-05, 13:30:26
Genügend spielen mit Quality. Der BQ Unterschied ist meistens mehr oder weniger wurscht.



Noch lauter? Doppelt so laut!. Außerdem kann man ja undervolten und dabei rennt der Kühler im Normalfall maximal auf 36%. Für Leute die ganz ohne Sound spielen ist der Unterschied zu 2D zwar immernoch deutlich hörbar, aber die dürften eh in der Minderheit sein.




Nö. 2D Spannung. 1.2V mit 600MHz (anstatt 625MHz mit default 1.45V) ist tw auch möglich. Anscheinend geht das gerade bei neueren Karten öfter mal. Und wenn man nicht untertakten will, nimmt man halt 1.25-1.3V, was immernoch ein deutlicher Fortschritt ist. Meine geht relativ schlecht zum undervolten und bleibt trotzdem mit 1.375V bei 650MHz schon um knapp 10°C kühler als mit 1.45V. Umgerechnet auf Defaultlüfterspeed (kann man ja auch problemlos ändern) sind das 36 anstatt 59%.


Warum ist einmal "Genügend spielen mit Quality. ein Argument und zum anderen das Untervolten um einen leiseren Lüfter zu bekommen??

Man kann davon ausgehen, daß Nvidia und ATI damit rechnen, daß viele Anwender die Standardeinstellungen im Treiber beibehalten, aber weder ATI noch Nvidia werden damit rechnen, daß die Anwender ihre Grafikchips Untervolten, um den Lüfter leiser zu bekommen.

Nvidia hat mit der FX5xxx Schrott konstruiert und ATI hat ein paar Jahre später den gleichen Fehler gemacht. Und ob doppelt so laut oder nicht ist egal, wenn es in beiden Fällen zu laut ist.

Mr. Lolman
2007-07-05, 14:24:36
Warum ist einmal "Genügend spielen mit Quality. ein Argument und zum anderen das Untervolten um einen leiseren Lüfter zu bekommen??

Das ist deswegen ein Argument, weil die BQ-Unterschiede sich eher auf minimalem Niveau befinden. Klar gibts Leute denen alles unter HQ/AIoff ein Greuel ist, aber im Vertrauen steckt einem auch so mancher (hinsichtlich 3D-Grafik) kompetenter deutschsprachige HW-Redakteur zu, dass er mit AIlow spielt, weil man den Unterschied meistens eh nicht sieht.

Das Problem ist ja der abnehmende Grenzertag und deswegen ists einerseits sogar gut, dass man an der AF-Leistung herumoptimiert hat, andererseits wären umfassendere Einstellungsmöglichkeiten (mitsamt Option zur kompletten Deaktivierung jeglicher Filtertricks) auch nicht verkehrt.

Hint: Man spielt ja im Durchschnitt auch lieber mit 4xMSAA anstatt mit 6x oder 8xMSAA, eben weil der BQ-Unterschied im Normalfall sehr gering ist, man aber die geringeren fps sofort merkt...


Man kann davon ausgehen, daß Nvidia und ATI damit rechnen, daß viele Anwender die Standardeinstellungen im Treiber beibehalten, aber weder ATI noch Nvidia werden damit rechnen, daß die Anwender ihre Grafikchips Untervolten, um den Lüfter leiser zu bekommen

Es ist ja bloß nicht so, dass es keine Möglichkeiten gäbe um einem zu lauten Lüfter beizukommen. Dementsprechend spricht das Argument nicht unbedingt gegen eine günstige Radeon.

1. Vielen ist er nicht zu laut (CF-Mode ausgenommen=
2. Es gibt Karten auf denen standardmässig ein leiserer Lüfter verbaut ist
3. Man kann die Karten problelmlos undervolten. Jemand dem die ATT ein Begriff sind, kann ohne große Umstände die Spannung runterschrauben und/oder die Lüftersteuerung anpassen
4. In einem gut belüfteten Gehäuse ist eine einzelne X1900XT auch mit Standardsettings nicht allzu laut, da die Lautstärke des Lüfters im Ggs zur FX5800 Ultra temperaturabhängig ist.

Gast
2007-07-05, 15:47:37
Das ist deswegen ein Argument, weil die BQ-Unterschiede sich eher auf minimalem Niveau befinden.

zwischen G80 Q und HQ ja, da es außer der tri-optimierung keine weiteren mehr gibt.

beim G70 und auch bei ATI sind die qualitätsunterschiede zwischen Q und HQ (respektive AI-standard und off) schon deutlich größer, da bei beiden auch zusätzliche optimierungen zum tragen kommen.

Mr. Lolman
2007-07-05, 16:29:11
zwischen G80 Q und HQ ja, da es außer der tri-optimierung keine weiteren mehr gibt.

Das weisst du ja nicht. Richtig ist, dass HQ quasi flimmerfrei ist. Aber auch richtig ist, dass G80 Q, AIlow und G70 HQ ähnlich flimmerfrei sind.
Tatsächlich wird immer optimiert und Optimierungen sind ja insgesamt nix schlechtes, solang mans nicht übertreibt. (Ist genau wie mit der JPG-Komprimierung ;))


beim G70 und auch bei ATI sind die qualitätsunterschiede zwischen Q und HQ (respektive AI-standard und off) schon deutlich größer, da bei beiden auch zusätzliche optimierungen zum tragen kommen.

Das weisst du wohl auch nicht. Falls doch lass uns an deinen (hoffentlich fundierten) Insiderinformationen teilhaben. :up:

Blaire
2007-07-05, 16:45:19
Es ist ja bloß nicht so, dass es keine Möglichkeiten gäbe um einem zu lauten Lüfter beizukommen. Dementsprechend spricht das Argument nicht unbedingt gegen eine günstige Radeon.

Besser wäre es allerdings ,wenn sowas nicht notwendig wird. Zudem bringt Undervolting keine Stabilität sondern Grafikfehler oder Freezes (jaja ich weiss bei dir läufts...aber eben nicht überall und bei jedem.) Der Lüfter ist und bleibt Schrott.

Mr. Lolman
2007-07-05, 16:47:24
Besser wäre es allerdings ,wenn sowas nicht notwendig wird. Zudem bringt Undervolting keine Stabilität sondern Grafikfehler oder Freezes (jaja ich weiss bei dir läufts...aber eben nicht überall und bei jedem.) Der Lüfter ist und bleibt Schrott.

Besser wärs allerdings. Aber Grafikfehler und Freezes haben die meisten hier wohl nicht: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=370426

Blaire
2007-07-05, 16:56:26
Besser wärs allerdings. Aber Grafikfehler und Freezes haben die hier wohl alle nicht: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=370426

Klar haben ja auch einige schon andere Lüfter verbaut. :biggrin:
Letztendlich ist das Undervolten nur ne Verzweiflungslösung und keine Alternative. Der Normalo User baut die Karte ein und will Zocken ohne abartige Nebengeräusche und will nicht in den Foren nach Notlösungen suchen.

Mr. Lolman
2007-07-05, 17:04:41
Klar haben ja auch einige schon andere Lüfter verbaut. :biggrin:
Letztendlich ist das Undervolten nur ne Verzweiflungslösung und keine Alternative. Der Normalo User baut die Karte ein und will Zocken ohne abartige Nebengeräusche und will nicht in den Foren nach Notlösungen suchen.

Bei nem gut durchlüfteten Gehäuse braucht man garnicht undervolten. Aber deine Radeons im CF-Mode mit 100% Lüfterspeed rannten ist deine extreme Meinung nicht weiter verwunderlich.

Gast
2007-07-05, 17:17:45
Das weisst du wohl auch nicht. Falls doch lass uns an deinen (hoffentlich fundierten) Insiderinformationen teilhaben. :up:

mit ziemlicher sicherheit schon (100%ig könnten das natürlich höchstens die treiberprogrammierer sagen). beim G80 sind alle performancestufen bitidentisch, sofern man die tri-optimierung deaktiviert.

da kann man sich schon ziemlich sicher sein dass keine weitere optimierung aktiv sind.

Blaire
2007-07-05, 17:26:09
Bei nem gut durchlüfteten Gehäuse braucht man garnicht undervolten. Aber deine Radeons im CF-Mode mit 100% Lüfterspeed rannten ist deine extreme Meinung nicht weiter verwunderlich.

Wenn man was an den Ohren hat vieleicht nicht... ;D Brauchst nicht wieder versuchen alles zurechtzudrehen der Lüfter ist und bleibt ne Fehlkonstruktion.
Mit 100% Lüfterspeed liefen die Crossfire Karten nie , aber selbst 70% reichten schon aus um alle "Vögel" von den Bäumen zu verjagen. ;D ;)

Mr. Lolman
2007-07-05, 17:47:26
Wenn man was an den Ohren hat vieleicht nicht... ;D Brauchst nicht wieder versuchen alles zurechtzudrehen der Lüfter ist und bleibt ne Fehlkonstruktion.
Mit 100% Lüfterspeed liefen die Crossfire Karten nie , aber selbst 70% reichten schon aus um alle "Vögel" von den Bäumen zu verjagen. ;D ;)

Und selbst 70% ist mehr als das, was hier die meisten zu hören bekommen. 36% (~2500rpm) ist absolut ok 50% (~3200rpm) ist auch gerade noch tragbar. Erst in der übernächsten Stufe (59% ~3700rpm ab 94°C) hört man die Radeon auch beim Zocken raus (sofern man seine Shooter nicht auf Realworld Lautstärke spielt).

Wobei sie interessanterweise mit 68% sogar weniger schlimm klingt wie mit 59%. Zwar gut hörbar aber in ner angenehmeren Tonlage.

Außerdem hör ich die mistige Northbridge vom A8N-E auch noch locker bei 68% raus ;D

Crazy_Chris
2007-07-05, 23:47:18
Durch die aktuelle D3D10 Grafikkartengeneration bin ich auch so verunsichert, dass ich mir erstmal noch eine X1950Pro geholt habe.

Die HD2600 Karten sind zu lahm , die Geforce 8800GTS und HD 2900 sind mir zu teuer und zu stromhungrig.:eek: Da warte ich lieber noch ein Jahr und kaufe mir dann eine Karte der zweiten Generation! :P:tongue:

Das Auge
2007-07-06, 00:05:04
Und selbst 70% ist mehr als das, was hier die meisten zu hören bekommen. 36% (~2500rpm) ist absolut ok 50% (~3200rpm) ist auch gerade noch tragbar. Erst in der übernächsten Stufe (59% ~3700rpm ab 94°C) hört man die Radeon auch beim Zocken raus (sofern man seine Shooter nicht auf Realworld Lautstärke spielt).

Wobei sie interessanterweise mit 68% sogar weniger schlimm klingt wie mit 59%. Zwar gut hörbar aber in ner angenehmeren Tonlage.

Außerdem hör ich die mistige Northbridge vom A8N-E auch noch locker bei 68% raus ;D

Dein Lautstärkeempfinden möchte ich haben. Ich hatte eine X1900XTX und selbst mit gedrosseltem Lüfter übers Ati-Tool war das Ding eine Zumutung, der Lüfter ist einfach scheiße, weil stets aufdringlich, egal bei welcher Drehzahl.
Und wenn ich dann was von 68% lese, kommt mir das Kotzen. Da macht die Karte ja schon meinem Staubsauger Konkurrenz. Mir ist schon klar, warum du die Karte stets mit der 5800 Ultra vergleichst, dies war nämlich die einzige Karte welche jemals schlimmer war.

Und irgendwas von von NB-Lüftern zu labern disqualifiziert dich dann völlig. Das du bei einem ungeregelten NB-Quirl deine Ati dann als leise empfindest wundert mich nicht.

Abschließend bleibt mir nur zu sagen, daß ich deine Beiträge eigentlich sehr schätze und du dir oftmals viel Mühe gibst, aber dein Lautstärkempfinden ist schon mehr als eigenartig. So als ob man jemand ein Fernglas in die Hand drückt und sagt "guck mal in die Sonne, ist doch gar nicht so hell".

Mr. Lolman
2007-07-06, 08:43:36
Und irgendwas von von NB-Lüftern zu labern disqualifiziert dich dann völlig. Das du bei einem ungeregelten NB-Quirl deine Ati dann als leise empfindest wundert mich nicht.

Ich hab weder behauptet, dass ich ein Silentsys hab, noch dass die ATI leise ist. Ich sag nur, dass sie für den Ottonormalverbraucher wohl tragbar ist, genauso wie MB mit NB Quirln tragbar sind (sonst hätte man die Dinger nicht verbaut).

Armaq
2007-07-06, 09:03:34
Ich hab die NB massiv runtergeregelt. Dieses Geräusch ist einfach nur pervers.

Das Auge
2007-07-06, 09:49:34
Ich hab weder behauptet, dass ich ein Silentsys hab, noch dass die ATI leise ist. Ich sag nur, dass sie für den Ottonormalverbraucher wohl tragbar ist, genauso wie MB mit NB Quirln tragbar sind (sonst hätte man die Dinger nicht verbaut).

Also ich seh das eher so, daß dem Otto Normalverbraucher hier was auf Das Auge(tm) gedrückt wird, nach dem Motto "friss oder stirb". Laute NB-Quirle oder der Ati-wirmacheneinemstartendemflugzeugkonkurrenz-Gedächtniskühler sind aus meiner Sicht eine Zumutung, ja sogar Frechheit.

Aber gut, lassen wir das Thema. Lautstärkewahrnehmung ist nunmal stark subjektiv, von daher werden wir da eher nicht auf einen Nenner kommen ;)

Nazar
2007-07-08, 05:48:46
@Mr. Lolman + Blaire

Was die relativ dämliche Diskussion über die Lautstärke und BQ von ATI und NV D3D 9.X Karten hier wieder?
Haltet mal den Thread sauber!
Euer saublödes Gelaber nervt nur noch und hat NICHTS mit dem Thema zu tun!
Haltet Euch an das Thema, ansonsten nutzt die PM Funktion.

@Thema
Es ist schon 1000 mal durchgekaut worden, dass noch nie die ersten Modelle für irgend eine Schnittstelle optimal für diese waren.
Trotz Allem ist die Leistungsteigerung beachtlich und lässt für die nächsten Modelle viel erhoffen.

=Floi=
2007-07-08, 08:46:38
ich fand die diskussion darüber ganz interesannt
und mäßige dich im ton

KEFFER
2007-07-08, 10:00:17
Naja irgendwie fehlt aber der Inhalt in dieser Diskussion.
Die letzten 2,5 Seiten voller Argumente aber ohne wirkliche Aussage.

Zurück zur dx10 Verunsicherung!

Eigentlich is da kaum Abweichung zu den "9" vorhergegangenen Verunsicherungen.

Oder besser gesagt braucht man da eigentlich nicht verunsichert sein.
Auch wenn heutige Tests den Karten gute dx10 Werte bescheinigen würden, wären sie bald zu langsam.

Is halt so...

mapel110
2007-07-08, 10:18:32
Fast jedes Jahr kommen Grafikkarten raus, die fast doppelt so schnell sind, wie ihre Vorgänger. Irgendwie bescheuert, daraus abzuleiten, dass die aktuellen Grafikkarten zu lahm für irgendwas wären.

Wenn der Zeitpunkt kommt, wo Grafikkarten nurnoch kleckerweise schneller werden wie das bei CPUs der Fall ist, heißts dann genau wie bei CPUs "reicht noch locker für alles aus"...

Eazy
2007-07-08, 13:22:50
Zu DX9 Zeiten war das aber wirklich noch einfacher. Damals habe ich mir ohne Bedenken den Preis-/Leistungskracher 9500 Pro für ca. 220 EUR geholt und es war für die nächsten Jahre Ruhe (zumindest für meine Ansprüche).

Für die aktuelle Generation kann ich mich jedoch irgendwie nicht so richtig entscheiden, auch nicht für die 8800 GTS 640MB. Das Budget ist zwar da, aber vielleich warte ich erstmal doch noch bis sich der Nebel gelichtet hat, und hole mir jetzt übergangsweise erst mal ne X1950 Pro für 140 EUR.

Gast
2007-07-08, 15:02:21
ich hab mir die x1950gt mit 512mb speicher geholt und fahre ganz gut! 4x af und 4x aa und eine auflösung von 1024xxx reicht mir. und ich kann jedes aktuelle spiel mit höchsten deteils flüssig spielen. wenn crysis kommt übertakte ich sie einfach und dann ist auch ruhe. glaube die karte reicht noch sicher mehr als ein halbes jahr und bis dahin kommen die next gen karten von nv und hol mir dann wieder eine mittelklasse karte von denen. auch wirden dann die spiele besser für dx10 optimiert sein. so viel dazu.

Gast
2007-07-10, 12:54:17
ich hab mir die x1950gt mit 512mb speicher geholt und fahre ganz gut! 4x af und 4x aa und eine auflösung von 1024xxx reicht mir. und ich kann jedes aktuelle spiel mit höchsten deteils flüssig spielen. wenn crysis kommt übertakte ich sie einfach und dann ist auch ruhe. glaube die karte reicht noch sicher mehr als ein halbes jahr und bis dahin kommen die next gen karten von nv und hol mir dann wieder eine mittelklasse karte von denen. auch wirden dann die spiele besser für dx10 optimiert sein. so viel dazu.

Glaube nicht das du mit Übertakten, Crysis auf Spielbare-FPS bringst, mit deiner Grafikkarte. (HQ bzw. 4AA wohlgemerkt). Übertakten bringt meist 2-3 FPS bzw. 5-10%. Bei, sagen wir mal 20 FPS hast du dann mit viel Glück 22 FPS.

Gast
2007-07-15, 01:38:15
Glaube nicht das du mit Übertakten, Crysis auf Spielbare-FPS bringst, mit deiner Grafikkarte. (HQ bzw. 4AA wohlgemerkt). Übertakten bringt meist 2-3 FPS bzw. 5-10%. Bei, sagen wir mal 20 FPS hast du dann mit viel Glück 22 FPS.

das wollen wir doch mal sehen:D, auf medium 4af und 2 aa wird aber bestimmt flüßig laufen. aber bis dahin kaufe ich mir eh eine neue grafikkarte glaube ich.... siehe systemanforderungen:

Minimale Systemkonfiguration:
CPU: Athlon 64 3000+/Intel 2.8 GHz CPU
Grafikkarte: nVidia 6600/X800GTO (SM 2.0)
RAM: 768 MB/1 GB unter Windows Vista
Festplattenspeicher: 6 GB
Internet: 256k+
Laufwerk: DVD-Laufwerk
Software: DirectX 9.0c mit Windows XP

Empfohlene Systemkonfiguration:
CPU: Dual-Core CPU (Athlon X2/Pentium D)
Grafikkarte: nVidia 7800GTX/ATI X1800XT (SM 3.0) bzw. entsprechende DirectX 10-Grafikkarte
RAM: 1,5 GB
Festplattenspeicher: 6 GB
Internet: 512k+ (128k+ Upload)
Laufwerk: DVD-Laufwerk
Software: DirectX 10 mit Windows Vista

sun-man
2007-07-17, 11:11:51
Auch über die aktuelle DX10-Hardware gab der Gearbox-CEO deutliches zu Protokoll. Heute aktuelle, DX10-fähige Hardware hätte wohl ziemliche Schwierigkeiten mit einem "echten" DX10-Titel - sowohl Treiber als auch die Software im Allgemeinen müssten noch weiteren Feinschliff erhalten. Zudem würden nur wenige Entwickler bereits heute viel Zeit in Direct X 10 investieren einfach weil die Hard- und Software-Verbreitung und damit die Zielgruppe noch zu klein sei. Darum sehe man auch bei Titeln, die bereits DX10 nutzen kaum drastische optische Verbesserungen.

http://www.pcgameshardware.de/?article_id=606831

so..und nun bitte ne Preissenkung für die DX9 Karten aka 8800GTS 320/640....wie schon gesagt, für reine DX9 Karten sind die zu teuer auch wenn die Leistung stimmt.

MFG

Mr. Lolman
2007-07-17, 11:14:52
http://www.pcgameshardware.de/?article_id=606831

so..und nun bitte ne Preissenkung für die DX9 Karten aka 8800GTS 320/640....wie schon gesagt, für reine DX9 Karten sind die zu teuer auch wenn die Leistung stimmt.

MFG

Was haben die Screenshots auf PCGH eigentlich mit dem Text zu tun? Nix oder?

dargo
2007-07-17, 11:30:39
http://www.pcgameshardware.de/?article_id=606831

so..und nun bitte ne Preissenkung für die DX9 Karten aka 8800GTS 320/640....wie schon gesagt, für reine DX9 Karten sind die zu teuer auch wenn die Leistung stimmt.

Was ist das denn wieder für eine Argumentation? :|
Seit wann hat die DX Version was mit dem Preis zu tun?

Nach deiner Auffassung müßte eine G8500GT teurer sein als eine X1950XTX weil sie ja DX10 Features bietet. :tongue:

sun-man
2007-07-17, 11:44:07
Was ist das denn wieder für eine Argumentation? :|
Seit wann hat die DX Version was mit dem Preis zu tun?

Nach deiner Auffassung müßte eine G8500GT teurer sein als einen X1950XTX weil sie ja DX10 Features bietet. :tongue:

Hast Du mal auf die Nvidia oder ATI Seiten geschaut? Dort wird (natürlich) massiv mit den DX10 Features geworben. Die Karte unter reinem DX9 Featureset zu verkaufen würde nicht funktionieren weil dann nicht ganz so viel kaufen würden. Das hat weniger damit zu tun das nun ja angeblich jeder weiß das die Karte zu alt ist und man ja nicht wegen DX10 so etwas kauft...dem ist nämlich nicht so, auch wenn hier gerne damit argumentiert wird.

Seit wann hat Shader X was mit dem Preis zu tun? Muß ich Dir doch wirklich nicht erklären das da jeder Cent und jedes Feature in Geld umgesetzt wird.

Wieviele kaufen die Karte wohl unter reinen DX9 Gesichtspunkten? Diese Frage in der Computer Bild (*macht seine Tastatur sauber weil er es getippt hat*) würde wohl Klarheit schaffen...hier ist das selbstredend etwas anderes.

Außerdem ist es sicherlich nicht diese eine Meldung. Es reiht sich nur eins schön ans andere....je nach Argumentation muß man das nur sehen wollen oder sich eben einreden ;).

MFG

deekey777
2007-07-17, 11:49:15
Hast Du mal auf die Nvidia oder ATI Seiten geschaut? Dort wird (natürlich) massiv mit den DX10 Features geworben. Die Karte unter reinem DX9 Featureset zu verkaufen würde nicht funktionieren weil dann nicht ganz so viel kaufen würden. Das hat weniger damit zu tun das nun ja angeblich jeder weiß das die Karte zu alt ist und man ja nicht wegen DX10 so etwas kauft...dem ist nämlich nicht so, auch wenn hier gerne damit argumentiert wird.

Seit wann hat Shader X was mit dem Preis zu tun? Muß ich Dir doch wirklich nicht erklären das da jeder Cent und jedes Feature in Geld umgesetzt wird.

Wieviele kaufen die Karte wohl unter reinen DX9 Gesichtspunkten? Diese Frage in der Computer Bild (*macht seine Tastatur sauber weil er es getippt hat*) würde wohl Klarheit schaffen...hier ist das selbstredend etwas anderes.

MFG

G80 ist doch auch allen früheren D3D9-Chips haushoch überlegen. Was ist das Problem?

Die Tesselationseinheit der R600 wird nicht mal in den ATI-Demos verwendet, kann man also getrost ignorieren, zumal sie in D3D10 nichtmal ansprechbar ist.

Falls ein Spiel die gleichen Features in D3D9 und D3D10 anbietet wird D3D10 auf jeden Fall gleich mindestens schnell sein, wenn der Treiber gleich gut optimiert ist. Es gibt also keine generelle "D3D10-Schwäche".

In UT3 wird man z.B. nur mit D3D10 Anti-Aliasing sehen, ist doch auch schon was.

Bei den aktuellen D3D10-Titeln haben die Entwickler entweder gezeigt, dass sie zwei linke Hände haben, oder maßlos übertreiben.
Auch sollte die PCGH-News richtig gelesen werden:

Auch über die aktuelle DX10-Hardware gab der Gearbox-CEO deutliches zu Protokoll. Heute aktuelle, DX10-fähige Hardware hätte wohl ziemliche Schwierigkeiten mit einem "echten" DX10-Titel - sowohl Treiber als auch die Software im Allgemeinen müssten noch weiteren Feinschliff erhalten. Zudem würden nur wenige Entwickler bereits heute viel Zeit in Direct X 10 investieren einfach weil die Hard- und Software-Verbreitung und damit die Zielgruppe noch zu klein sei. Darum sehe man auch bei Titeln, die bereits DX10 nutzen kaum drastische optische Verbesserungen.
Die unterstrichene Stelle gibt ab, warum es eine "Schwäche" gibt.

dargo
2007-07-17, 11:49:59
Hast Du mal auf die Nvidia oder ATI Seiten geschaut? Dort wird (natürlich) massiv mit den DX10 Features geworben.

Das mag schon sein, hat mich aber nie interessiert. Wenn ich Informationen brauche begebe ich mich auf die Suche von diversen Tests oder schaue in Foren nach.


Die Karte unter reinem DX9 Featureset zu verkaufen würde nicht funktionieren weil dann nicht ganz so viel kaufen würden.

Das glaube ich weniger. Wer sich einen G80/R600 geleistet hat, hat dies aus Performancegründen getan und nicht weil da DX10 "drüber" steht.


Wieviele kaufen die Karte wohl unter reinen DX9 Gesichtspunkten?
Ich, wie viele andere auch. :)
Bis die echten DX10 Games erscheinen haben wir mindestens 2009. Und was ein G80/R600 dann noch leistet kannst du dir selbst denken. :wink:
Und ich möchte nochmal betonen, dass dies weniger mit DX10 zu tun hat sondern viel mehr mit der ganz normalen höheren Hardwareanforderung nach einer Zeit X.

sun-man
2007-07-17, 11:53:12
Dargo....

ICH finde das unsere Server mit 1.5 Mio noch viel zu billig sind. Ich denke aber nicht das ICH damit für die Allgemeinheit spreche.

Das glaube ich weniger. Wer sich einen G80/R600 geleistet hat, hat dies aus Performancegründen getan und nicht weil da DX10 "drüber" steht.
Du kannst für alle sprechen? OK, dann nehme ich alles zurück. Entschuldige.

MFG

dargo
2007-07-17, 11:59:52
Du kannst für alle sprechen? OK, dann nehme ich alles zurück. Entschuldige.

Das kann ich sicherlich nicht. Aber, wer sich einen G80/R600 geleistet hat wegen DX10 und dies nicht tun würde wenn beide Chips "nur" DX9 beherrschen würden obwohl sein Spiel nicht flüßig läuft, der hat die Computerbranche nicht verstanden.

sun-man
2007-07-17, 12:07:01
Das kann ich sicherlich nicht. Aber, wer sich einen G80/R600 geleistet hat wegen DX10 und dies nicht tun würde wenn beide Chips "nur" DX9 beherrschen würden obwohl sein Spiel nicht flüßig läuft, der hat die Computerbranche nicht verstanden.
Du sprichst schon wieder für alle. Selbst Dir sollte klar sein das Beratung in den Läden oft ein Fremdwort ist und aufhört sobald man dem User etwas teures andrehen kann. Außerdem habe ich nicht ausschließlich von DX10 geredet.
Vista + Karte ist bei vielen einfach DX10 und wieviele sich Vista wegen DX10 angeschafft haben ist ja nun auch offen....und ein Teil wird sich dann extra noch eine DX10 Karte angeschafft haben um Vista auch voll ntzen zu können.

Und sorry.....seit wann muß ich wissen wie man Zuckerrüben anbaut wenn ich Zucker mag? Das 3DC ist ein repräsentatives Forum, fast jeder der hier her findet ist teilweise über dem ComputerDAU von nebenan der kaum AGP schreiben kann.

MFG

dargo
2007-07-17, 12:14:52
Selbst Dir sollte klar sein das Beratung in den Läden oft ein Fremdwort ist und aufhört sobald man dem User etwas teures andrehen kann.

Und was hat eine miese Beratung in DE jetzt mit DX10 zu tun?
So ist das Leben nun mal. Wer sich nicht auskennt wird gemolken.

sun-man
2007-07-17, 12:16:57
Und was hat eine miese Beratung in DE jetzt mit DX10 zu tun?
So ist das Leben nun mal. Wer sich nicht auskennt wird gemolken.
Entschuldige das ich mir nicht herausnehme für die ganze Welt zu sprechen.

dargo
2007-07-17, 12:21:37
Und sorry.....seit wann muß ich wissen wie man Zuckerrüben anbaut wenn ich Zucker mag?
Wieder ein unpassender Vergleich. Keiner verlangt von dir, dass du einen Grafikchip baust. ;)

James Ryan
2007-07-17, 12:45:52
Verstehe die Diskussion nicht.
Wer sich einen G80/R600 wegen DX10 gekauft hat, hat vieles nicht verstanden!
Beide Karten sind für die aktuelle Spielegeneration gebaut worden, und nicht für die nächsten 5 Jahre.
Dieses Jahr wird es einen G80 Refresh geben, und dessen Refresh wird eventuell gute DX10 Leistung bringen.

MfG :cool:

sun-man
2007-07-17, 12:58:24
Verstehe die Diskussion nicht.
Wer sich einen G80/R600 wegen DX10 gekauft hat, hat vieles nicht verstanden!
Beide Karten sind für die aktuelle Spielegeneration gebaut worden, und nicht für die nächsten 5 Jahre.
Dieses Jahr wird es einen G80 Refresh geben, und dessen Refresh wird eventuell gute DX10 Leistung bringen.

MfG :cool:

Tja, das ist dann wohl auch der Grund weswegenauch im Center im Fazit solche Sachen stehen.
Letztendlich hat nVidia damit bei der GeForce 8800 GTX alles richtig gemacht: Direct3D10-Featureset, verbesserte Bildqualitäts-Features und überall ausreichende Performance mit Reserven für die Zukunft ergeben ein sehr rundes Paket

Es gibt auch hier im Test keinen Hinweis das man DX10 getrost zu vergessen hat- zumindest hab ich keinen gefunden.

Was hat den der nicht verstanden der eine Karte kauft die mit DX10 beworben wird? Hat er, wie immer, nicht verstanden das die Werbung falsch ist? Hat er nicht verstanden das es zwar DX10 gibt, Vista auch, aber keine vernünftigen Spiele da sind? Das die mit kommenden DX10 Spielen extrem abhängig davon sind wie die Programmierer DX10 umsetzen? Siehe Call of Juarez....mit ner Ultra gerade 30fps. Hat er nicht verstanden das DX10 prinzipiell ja nun grafisch eigentlich nix bringt, dafür aber für die Programierer einfacherer Umsetzungen erlaubt?

Ach ja.....er muß ja den Chip weder herstellen noch bauen können, aber ein Studium der Features/Mglichkeiten/HowTo's sollte man schon haben?

MFG

Gast
2007-07-17, 13:25:03
Ach ja.....er muß ja den Chip weder herstellen noch bauen können, aber ein Studium der Features/Mglichkeiten/HowTo's sollte man schon haben?
MFG

Wenn er nicht weiß, was diese Bezeichnungen bedeutet, wie kann er dann enttäuscht werden?

sun-man
2007-07-17, 13:26:43
Wenn er nicht weiß, was diese Bezeichnungen bedeutet, wie kann er dann enttäuscht werden?
Indem er DX10 versprochen bekommt weil der Verkäufer den DAU sieht?
"Alles doll, alles neu..hier sehen Sie, DX10. Gibts nur unter Vista und ist der oberhammer"....macht 400€

James Ryan
2007-07-17, 13:33:19
Wer sagt eigentlich, dass die aktuellen DX10-Betaspiele ala CoJ den wirklichen Stand bezüglich DX10-Spiele repräsentieren?

MfG :cool:

LovesuckZ
2007-07-17, 13:39:13
Indem er DX10 versprochen bekommt weil der Verkäufer den DAU sieht?
"Alles doll, alles neu..hier sehen Sie, DX10. Gibts nur unter Vista und ist der oberhammer"....macht 400€

Wenn ich keine Ahnung über etwas habe, dann muss ich den Verkäufer kritisieren, dass er mich nicht aufgeklärt hat. Nicht der Grafikkartenhersteller ist schuld, dass der Kunde sich im Laden nach einem Gespräch mit dem Verkäufer eine D3D10 Karte gekauft hat.

Gaestle
2007-07-17, 13:52:30
Was hat den der nicht verstanden der eine Karte kauft die mit DX10 beworben wird?

Für den Fall, dass es sich im Beispiel um eine 8800GTX handelt, hat er IMHO gar nix falsch verstanden. Er hat die schnellste DX9 Karte, die es aktuell gibt und darüber hinaus die grundsätzliche Möglichkeit, kommende DX10 Titel zumindest zu starten (und bei reduzierter Qualität auch spielen zu können).

Ein ähnlicher Vergleich ist's IMHO mit der 6800er Serie. Auch wenn aktuelle Spiele nur langsam laufen und man die Ingame-Regler nicht auf MAX stellen kann, grundsätzlich können alle Games zumindest angezpockt werden. Auch wenn der Vedrgleich ein bißchen hinkt, weil im Fall von DX10 die zusätzliche Komponente "Vista" mit reinspielt. Evtl. sehen wir ja in Zukunft etwas häufiger einen intergrierten OpenGL-Renderer, weil der eben nicht von Vista abhängig ist.

Gast
2007-07-17, 13:55:46
Indem er DX10 versprochen bekommt weil der Verkäufer den DAU sieht?
"Alles doll, alles neu..hier sehen Sie, DX10. Gibts nur unter Vista und ist der oberhammer"....macht 400€

... und nochmal 330 € für die Grafikkarte. ;)

Gaestle
2007-07-17, 13:56:46
Bei den aktuellen D3D10-Titeln haben die Entwickler entweder gezeigt, dass sie zwei linke Hände haben, oder maßlos übertreiben.


Sie haben in die DX10 Versionen Effekte eingebaut, die es unter DX9 nicht zu sehen gibt. Deswegen ist das, was hinten rauskommt nicht identisch. Es wäre für mich (und sicher viele andere hier auch) wirklich mal interessant zu sehen, wenn der gleiche Content mal in DX9 und mal in DX10 realisiert werden würde, und wie dann die Balkenlängen aussehen. Möglichst auch noch so geproggt, dass keiner der beidene GraKa-Hersteller bevorzugt wird (oder indem auf beide Chipfamilien gleichermaßen optimiert wird).

Denn bislang sind beide AUssagen hochgradig hypothetisch:
a) dass die aktuellen GraKas für DX10 "zu schwach" wären bzw. die Treiber etc. schlecht sind
b) dass durch DX10 im Vergleich zu DX9 die Balken tatsächlich ein Stückchen länger werden

Aber wer hat schon soviel überschüssige Zeit, um sowas mal zu realisieren...

Coda
2007-07-17, 14:03:31
Bei Lost Planet geht das doch, und es ist tatsächlich etwas schneller unter D3D10.

Neomi
2007-07-17, 14:23:47
Aber, wer sich einen G80/R600 geleistet hat wegen DX10 und dies nicht tun würde wenn beide Chips "nur" DX9 beherrschen würden obwohl sein Spiel nicht flüßig läuft, der hat die Computerbranche nicht verstanden.

Wer sich einen G80/R600 wegen DX10 gekauft hat, hat vieles nicht verstanden!

Euch ist aber schon bewußt, daß gerade Entwickler in eure "hat nicht verstanden"-Kategorie fallen?

Gaestle
2007-07-17, 14:28:19
Bei Lost Planet geht das doch, und es ist tatsächlich etwas schneller unter D3D10.

Echt? Oha. Hättest Du da vielleicht zufällig irgendwo einen Link rumliegen? :redface:

Gast
2007-07-17, 14:37:12
Echt? Oha. Hättest Du da vielleicht zufällig irgendwo einen Link rumliegen? :redface:

http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=601203&entity_id=-1&image_id=654134&page=3

Am Ende der Bilderstrecke:

8800Ultra: 56FPS DX9 vs 62 FPS DX10

deekey777
2007-07-17, 14:47:37
Sie haben in die DX10 Versionen Effekte eingebaut, die es unter DX9 nicht zu sehen gibt. Deswegen ist das, was hinten rauskommt nicht identisch. Es wäre für mich (und sicher viele andere hier auch) wirklich mal interessant zu sehen, wenn der gleiche Content mal in DX9 und mal in DX10 realisiert werden würde, und wie dann die Balkenlängen aussehen. Möglichst auch noch so geproggt, dass keiner der beidene GraKa-Hersteller bevorzugt wird (oder indem auf beide Chipfamilien gleichermaßen optimiert wird).

Denn bislang sind beide Aussagen hochgradig hypothetisch:
a) dass die aktuellen GraKas für DX10 "zu schwach" wären bzw. die Treiber etc. schlecht sind
b) dass durch DX10 im Vergleich zu DX9 die Balken tatsächlich ein Stückchen länger werden

Aber wer hat schon soviel überschüssige Zeit, um sowas mal zu realisieren...
In einem Interview meinte ein GSC-Verantwortlicher, dass eine einfache von D3D9 zu D3D10 "Übersetzung" von Stalker etwa 15 % mehr Performance bringt, ohne dass überhaupt die neuen Fähigkeiten der neuen API benutzt werden.

Dass weitere Effekte Leistung kosten, sollte jedem klar sein, aber bitte nicht um jeden Preis.

sun-man
2007-07-17, 14:50:48
Echt? Oha. Hättest Du da vielleicht zufällig irgendwo einen Link rumliegen? :redface:
Da hat er recht, Anadtech hat das auch gemessen.

http://anandtech.com/video/showdoc.aspx?i=3029&p=5

http://images.anandtech.com/graphs/first%20dx10%20games_07050720716/15003.png

http://images.anandtech.com/graphs/first%20dx10%20games_07050720716/15001.png

In einem Interview meinte ein GSC-Verantwortlicher, dass eine einfache von D3D9 zu D3D10 "Übersetzung" von Stalker etwa 15 % mehr Performance bringt, ohne dass überhaupt die neuen Fähigkeiten der neuen API benutzt werden.

Es hieß auch mal das unter Vista die Leistung besser wird und so Kram. Letztendich scheint aber auch kaum einem daran gelegen DX10 zu unterstützen bzw etwas umzusetzen. Klar, sowas kostet Geld.

Coda
2007-07-17, 14:55:15
In einem Interview meinte ein GSC-Verantwortlicher, dass eine einfache von D3D9 zu D3D10 "Übersetzung" von Stalker etwa 15 % mehr Performance bringt, ohne dass überhaupt die neuen Fähigkeiten der neuen API benutzt werden.
Vor allem würde es Multisampling ermöglichen. Das ist imho das derzeitige Killerfeature für D3D10. Das wird auch bei der UE3 so sein.

AnarchX
2007-07-17, 14:56:56
Vor allem würde es Multisampling ermöglichen. Das ist imho das derzeitige Killerfeature für D3D10. Das wird auch bei der UE3 so sein.

Wobei bei letzterer dies doch auch über den Umweg OGL (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=372207) möglich wäre? ;)

Silverbuster
2007-07-17, 15:16:11
Ich versteh die ganze Aufregung nicht.. bisher habe ich noch nirgends ein "reines" DX10 Spiel gesehen. Also kein Spiel das 100%ig nur mit DX10 läuft. Alles bisherige ist nachträglich implentiert. Wie soll man also so bisherige Benchmarks für Voll nehmen?
Immerhin müsste man die ganze Engine umschreiben für DX10, so wird aber bisher lediglich DX9 genommen, DX10 ready gemacht und als DX10 verkauft... wo ist da der Sinn sich drüber zu streiten?

Call of Juarez wurde auch nur "aufgemotzt", Lost Planet ist ein Witz. Hier gibt es eigentlich nur ein paar winzige verbesserte Effekte und alles schreit "das ist DX10" dabei läuft eigentlich alles mit DX9!

Kann über diese Diskussion nur den Kopf schütteln.

Coda
2007-07-17, 15:28:48
Wobei bei letzterer dies doch auch über den Umweg OGL (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=372207) möglich wäre? ;)
Ist doch bums egal, dann halt "D3D10-Hardware". Mit D3D9-Hardware geht's auch mit OpenGL nicht.

Immerhin müsste man die ganze Engine umschreiben für DX10
So ist's dann auch wieder nicht.

deekey777
2007-07-17, 15:35:03
Wobei bei letzterer dies doch auch über den Umweg OGL (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=372207) möglich wäre? ;)
Man installiert Bootcamp und nutzt Vista. X-D

Zu LP und bessere Leistung unter D3D10: Könnte dies daran liegen, dass die CPU weniger gefordert wird?

Coda
2007-07-17, 15:52:47
Jain. Das ist ja mit D3D9 unter Vista auch schon so.

Gast
2007-07-17, 15:59:33
Vor allem würde es Multisampling ermöglichen. Das ist imho das derzeitige Killerfeature für D3D10. Das wird auch bei der UE3 so sein.

für mich ist dieses "killerfeature" nicht weniger als ne bewusste politische entscheidung DX10 von DX9 abzugrenzen.
faktisch ist es ist doch eher nen technischer rückschritt als fortschritt...ok die engines arbeiten effizienter und man kann mehr details darstellen aber das geht im pixelbrei unter....ODER man kauft eben VISTA samt DX10 hardware :)

könnte man da in D3D9 nicht einfach SSAA ermöglichen? soweit ich mich in das thema deferred shading reinfuchsen konnte wäre ne MSAA implementierung technisch betrachtet auch über D3D10 eh mehr mit SS vergleichbar als das "klassische" MS in nicht deferred renderern!?!

MSAA rechnet das bild ja x-mal mit leicht verschobener sample-position aus...bei deferred shading ist das soweit ich verstanden halt deshalb nicht mehr möglich weil das verwerfen gewisser informationen ja damit zusammenhängt in welchem winkel das bild berechnet wird und es unerwünschte ergebnisse erzeugt weil jedes der samples deutlich andere informationen(vektoren) enthält...oder sehe ich das falsch?! :???:

Coda
2007-07-17, 16:00:51
für mich ist dieses "killerfeature" nicht weniger als ne bewusste politische entscheidung DX10 von DX9 abzugrenzen.
Ist es nicht. D3D9-Hardware kann es schlicht und einfach nicht.

könnte man da in D3D9 nicht einfach SSAA ermöglichen?
Das ist nicht ernst gemeint oder? Die Performance ist miserabel und OGSSAA ist sowieso total ineffizent.

soweit ich mich in das thema deferred shading reinfuchsen konnte wäre ne MSAA implementierung technisch betrachtet auch über D3D10 eh mehr mit SS vergleichbar als das "klassische" MS in nicht deferred renderern!?!
Nope. Es geht darum, dass man bei deferred shading auch das Downsampling verzögern muss, sonst hat man an Polykanten Fehler. Das geht nur wenn man die Samples getrennt aus dem Multisamplebuffer lesen kann. Geht nicht bei D3D9.

Zudem kann man nicht mit Multisampling in MRTs rendern, was die Performance erheblich verschlechtert würde.

Silverbuster
2007-07-17, 16:01:07
Ich bin kein Engine Fachmann, richtig, aber wen man von Anfang an auf DX10 optimiert, wird es Performancemäßig sicherlich anders aussehen wie derzeit bei Juarez oder Lost Planet.
Denke damit liege ich nicht verkehrt, oder?

deekey777
2007-07-17, 16:06:38
für mich ist dieses "killerfeature" nicht weniger als ne bewusste politische entscheidung DX10 von DX9 abzugrenzen.
faktisch ist es ist doch eher nen technischer rückschritt als fortschritt...ok die engines arbeiten effizienter und man kann mehr details darstellen aber das geht im pixelbrei unter....ODER man kauft eben VISTA samt DX10 hardware :)

könnte man da in D3D9 nicht einfach SSAA ermöglichen? soweit ich mich in das thema deferred shading reinfuchsen konnte wäre ne MSAA implementierung technisch betrachtet auch über D3D10 eh mehr mit SS vergleichbar als das "klassische" MS in nicht deferred renderern!?!

MSAA rechnet das bild ja x-mal mit leicht verschobener sample-position aus...bei deferred shading ist das soweit ich verstanden halt deshalb nicht mehr möglich weil das verwerfen gewisser informationen ja damit zusammenhängt in welchem winkel das bild berechnet wird und es unerwünschte ergebnisse erzeugt weil jedes der samples deutlich andere informationen(vektoren) enthält...oder sehe ich das falsch?! :???:
Das SSAA muss in die Engine eingebaut werden, damit es richtig funktioniert (by Demirug).
Die Nutzung des MSAA iVm einem Deferred Renderer ist (auch) nicht möglich, wenn MRTs benutzt werden, was zB in STALKER der Fall ist.

Coda
2007-07-17, 16:06:59
Ich bin kein Engine Fachmann, richtig, aber wen man von Anfang an auf DX10 optimiert, wird es Performancemäßig sicherlich anders aussehen wie derzeit bei Juarez oder Lost Planet.
Denke damit liege ich nicht verkehrt, oder?
Ja klar, man kann mit einer nicht überarbeiteten D3D9-Engine gewisse Features von D3D10 von der Verwaltung her nicht richtig ausnützen.

Das SSAA muss in die Engine eingebaut werden, damit es richtig funktioniert (by Demirug).
Das wäre aber kein großer Akt. Nur ist es halt total Banane, weil unter 2x2 eh nix brauchbar ist und das schon die Leistung auf 25% einbrechen lassen würde.

Gast
2007-07-17, 16:14:09
Das ist nicht ernst gemeint oder? Die Performance ist miserabel und OGSSAA ist sowieso total ineffizent.

gut DX9 hardware kann kein MS...trotzdem wäre ich über irgendeine wie auch immer geartete option sehr froh die das pixelflimmer eingrenzt...ich hasse das...noch mehr als textur aliasing... -.-

ergo 2x SSAA ist mir lieber als GARKEINS...oder stattdessen 150 fürs OS und nochmal mindestens 3mal soviel für die passende hardware ausgeben zu müssen ist ja nun auch keine alternative

also option will ich es wenigstens haben ;)


Nope. Es geht darum, dass man bei deferred shading auch das Downsampling verzögern muss, sonst hat man an Polykanten Fehler. Das geht nur wenn man die Samples getrennt aus dem Multisamplebuffer lesen kann. Geht nicht bei D3D9.

gut ja das hatte ich ja weiter unten im anderen absatz schon erwähnt...wegen verschobener sample position und da beim deferred shading ja informationen verworfen werden die verdeckt sind.
das heißt man muss quasi die pixel auslesen bevor sie verworfen werden um sie im multisamplingbuffer dennoch verrechnen zu können!?

ich wäre auch schon zufrieden wenn man einfach die parts in den spielen ausschalten können die auf deferred shading beruhen (bei UT3 ist es nach den infos die ich habe ja nur für die dynamischen schatten...wie bei stalker auch. da gehts ja nur mit der höchsten schatteneinstellung nicht) abschalten kann um MSAA wenigstens so rum zu ermöglichen...

Coda
2007-07-17, 16:15:13
gut DX9 hardware kann kein MS...trotzdem wäre ich über irgendeine wie auch immer geartete option sehr froh die das pixelflimmer eingrenzt...ich hasse das...noch mehr als textur aliasing... -.-

ergo 2x SSAA ist mir lieber als GARKEINS...oder stattdessen 150 fürs OS und nochmal mindestens 3mal soviel für die passende hardware ausgeben zu müssen ist ja nun auch keine alternative

also option will ich es wenigstens haben ;)
Und was hat das mit meiner Ausführung zu tun, dass ich MSAA bei deferred shading gerade für ein Killerfeature von D3D10-Hardware halte?

Nichts.

gut ja das hatte ich ja weiter unten im anderen absatz schon erwähnt...wegen verschobener sample position und da beim deferred shading ja informationen verworfen werden die verdeckt sind.
das heißt man muss quasi die pixel auslesen bevor sie verworfen werden um sie im multisamplingbuffer dennoch verrechnen zu können!?
Es wird nichts "verworfen". Man muss nur die endgültige Farbberechnung des Bildes machen bevor das Downsampling stattfindet, weil man sonst an den Kanten falsche Daten hat.

ich wäre auch schon zufrieden wenn man einfach die parts in den spielen ausschalten können die auf deferred shading beruhen (bei UT3 ist es nach den infos die ich habe ja nur für die dynamischen schatten...wie bei stalker auch. da gehts ja nur mit der höchsten schatteneinstellung nicht) abschalten kann um MSAA wenigstens so rum zu ermöglichen...
Das das nur die Schatten sind sind kompletter Käse. Bei Stalker wird einfach nur ein komplett anderer Renderpfad aktiviert (vergleichbar mit Vertex-Lighting in Quake 3), ich glaube kaum dass EPIC sowas anbietet.

Außerdem würd's komplett scheiße aussehen. Dann lieber kein AA - das sehe ich auch bei Stalker so.

dargo
2007-07-17, 22:38:44
Das die mit kommenden DX10 Spielen extrem abhängig davon sind wie die Programmierer DX10 umsetzen? Siehe Call of Juarez....mit ner Ultra gerade 30fps.
Wieder ein unsinniger Vergleich! :)
Für CoJ ist selbst eine Ultra im DX9 Modus zu langsam. Stelle in CoJ alle Details (inkl. Schatten) auf max. dann wirst du sehen wie klein ein G80 zu kriegen ist.

Gaestle
2007-07-18, 14:12:20
Call of Juarez wurde auch nur "aufgemotzt", Lost Planet ist ein Witz. Hier gibt es eigentlich nur ein paar winzige verbesserte Effekte und alles schreit "das ist DX10" dabei läuft eigentlich alles mit DX9!

Das wird IMHO auch noch lange so bleiben, weil sich AFAIK DX10 im wesentlichen nicht über neue Effekte definiert, sondern vor allem durch Änderungen UNTER der Oberfläche.

@Alle anderen:

Vielen Dank für die Benches ! :up:

Allerdings zeigen PCGH +5% für die Ultra unter DX10, während bei Anand der DX10-Vorteil bei +3% liegt. Die GTX bleibt bei Anand in etwa konstant, die GTS verliert leicht. Die GTS verliert auch bei der PCGH (-16%).
Überzeugt bin ich noch nicht so recht. Kann das jemand erklären? Messungenauigkeiten?

sun-man
2007-07-19, 08:53:54
ein Blitz, ein Blitz....so sieht ein Blitz in D10D aus....WUAHHH...geil

http://www.pcgameshardware.de/?article_id=607081


Anstatt man sich mal hinsetzt und etwas für die Gamer macht kommt ein Bild...na wundervoll
Wie bescheuert ist es denn ein BILD eines Blitzes zu zeigen? Die Auswirkungen, die Beleuchtung und die Belastung für die Hardware sollten doch hier überzeugen und nicht ein BILD eines Blitzes (der auch noch scheiße aussieht).
Hat Nvidia den Marketingtypen von AMD bekommen? Scheint so denn das war jha wohl ne Flitzpipenidee

Gast
2007-07-19, 09:01:09
ein Blitz, ein Blitz....so sieht ein Blitz in D10D aus....WUAHHH...geil

http://www.pcgameshardware.de/?article_id=607081


Anstatt man sich mal hinsetzt und etwas für die Gamer macht kommt ein Bild...na wundervoll
Wie bescheuert ist es denn ein BILD eines Blitzes zu zeigen? Die Auswirkungen, die Beleuchtung und die Belastung für die Hardware sollten doch hier überzeugen und nicht ein BILD eines Blitzes (der auch noch scheiße aussieht).
Hat Nvidia den Marketingtypen von AMD bekommen? Scheint so denn das war jha wohl ne Flitzpipenidee


Frage dich: Ist es besser, einem Hungernden ein Stück Brot zu geben oder ist es besser, ihm zu zeigen, wie selbst Brot backen kann?


Q

sun-man
2007-07-19, 09:04:11
Frage dich: Ist es besser, einem Hungernden ein Stück Brot zu geben oder ist es besser, ihm zu zeigen, wie selbst Brot backen kann?


Q
1:0 ;) Hast ja recht :D:biggrin::redface:

Com1
2007-07-22, 23:32:42
Erinnert ihr euch noch an die erste Doom 3 Präsentation, die ja angeblich so butterweich auf der Ur-Geforce 3 lief?

Jahre Später konnte keiner mit dem DirectX 8 "Techsample" Geforce 3 Doom 3 halbwegs flüssig mit der angepriesenen Detailfülle spielen. Da war schon eine 2 Generationen (GF6/Radeon-X-Serie) neuere Karte vonnöten.

So ähnlich könnte die Situation dieses mal wieder sein, es werden noch Jahre bis zu den ersten "reinrassigen" DX10 Titeln ins Land gehen.

deekey777
2007-07-22, 23:50:50
Hier ist das Video: http://www.fileplanet.com/56348/50000/fileinfo/GeForce3/Doom-3-Presentation
Da lief kein Doom 3.

Coda
2007-07-22, 23:55:08
Doom 3 hängt auch vor allem an der Füllrate wie Sau. Das ist kein gutes Beispiel.

Spiele wie Splinter Cell die genauso gut aussehen (meiner Meinung nach) waren viel gnädiger mit einer GeForce 3.

Gast
2007-07-23, 17:46:19
für mich ist dieses "killerfeature" nicht weniger als ne bewusste politische entscheidung DX10 von DX9 abzugrenzen.
faktisch ist es ist doch eher nen technischer rückschritt als fortschritt...ok die engines arbeiten effizienter und man kann mehr details darstellen aber das geht im pixelbrei unter....ODER man kauft eben VISTA samt DX10 hardware :)
Nur komisch, das Konsolen es sogar mit DX9 GPU können.

Coda
2007-07-23, 17:53:33
Können sie nicht. Und selbst wenn es so wäre dann ginge das über das Featureset hinaus was Desktop-D3D9-Chips bieten und wäre in dieser Diskussion deshalb wieder genauso irrelevant.