PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : GeForce 6800 Ultra - genug Leistung für Half-Life 2?


Gast
2004-08-06, 14:22:29
Ich will mir gerade eine neue Grafikkarte kaufen und kann mich nicht zwischen einer Radeon X800 XT und einer Geforce 6800 Ultra entscheiden. Welche ist für die Zukunft sicherer und werde ich mit der Geforce bei HL2 alles auf "high details" spielen können?

BlackArchon
2004-08-06, 14:30:03
Da es noch kein HL2 gibt, ab da mit ins Spekulationsforum oder in den Trash. Gab ja schon genügend solche Threads.

Halema
2004-08-06, 14:30:07
Also das ist schon eine seltsame Frage. Beide Karten sind top-Karten. Auch mit der älteren Generation wirst du HL2 mit allen Details spielen können. Die 6800Ultra ist bei Doom3 schneller als die X800XT. Bei HL2 könnte das evtl. andersrum aussehen. Allgemein bei spielen, die nicht auf die Grafikkarten optimiert worden sind, ist die 6800Ultra schneller. HL2 wird auf ATI Karten optimiert. Such dir eine aus, die dir mehr gefällt. Ich würde mich für eine 6800Ultra entscheiden, wenn ich das Geld hätte. :-)

MGH HALEMA

Dr.Dirt
2004-08-06, 15:59:23
Vielleicht hilft Dir das hier ja weiter:
http://www.ixbt.com/video2/images/nv40-3/hl-a.png
http://www.ixbt.com/video2/images/nv40-3/hl-aaa.png

kmf
2004-08-06, 16:03:51
* Ab ins Speku-Forum. *

deekey777
2004-08-06, 16:34:15
Original geschrieben von kmf
* Ab ins Speku-Forum. *

..Oder gleich lieber schliessen?

-> http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=157772

Die 6800 Ultra hat bestimmt mehr als genug Power für HL2.

Thanatos
2004-08-06, 19:19:30
HL2 MUSS auf einer 6800ultra einfach laufen.

Denn die Spielefirmen wollen ja schließlich auch an ihren spielen verdienen,und das können sie sicher nicht wenn das nur Leute spielen können die einen 2x6800ultra Grafikkartenim SLI verbund haben, denn das wäre wahrscheinlich nur ein sehr sehr kleiner Teil.Und so verdient man kein Geld.

r00t
2004-08-07, 08:20:37
hl² wird auf ner 9700 gut laufen ;)

also die beta lief bei mit 45fps ^^

StefanV
2004-08-07, 09:49:11
@Topic

NEIN, die 6800 ULTRA ist zu langsam, um HL2 in Full Details spielen zu können, dazu brauchts mindestens eine R600 oder NV60, um das flüssig spielen zu können, das wird nichts mit aktueller Hardware!!

@r00t

Ich will ja nicht viel sagen, aber möchtest du unbedingt, daß die Grünen bei dir an der TÜr bimmeln und mal deine Bude nach Raubkopien durchsuchen??

Denn in deinem Posting hast du genug Gründe geliefert ;)

Thanatos
2004-08-07, 11:46:47
Vielleicht hat er sich ja bei Valva zu einem inoffiziellen beta Test beworben, oder er ist selber spieletester bei Valva..................was ist??Kann doch sein :schlag::D

dildo4u
2004-08-07, 11:52:48
http://www.xbitlabs.com/articles/video/display/graphics-cards-2004_26.html

Hier wurde die Beta getestet kein plan welche version genau

Coda
2004-08-07, 11:58:17
NEIN, die 6800 ULTRA ist zu langsam, um HL2 in Full Details spielen zu können, dazu brauchts mindestens eine R600 oder NV60, um das flüssig spielen zu können, das wird nichts mit aktueller Hardware!!
Das meinst du jetzt aber nicht ernst? Nach dem ATi Techpaper dürfte das ewig auf ner NV40 laufen...

Strayed
2004-08-07, 12:09:19
Das meinst du jetzt aber nicht ernst? Nach dem ATi Techpaper dürfte das ewig auf ner NV40 laufen...
Mal abwarten, ob das auch wirklich stimmt. Valve ist unter Zeitdruck und darunter wird auch die Programmierung leiden. Trotzdem würde ich jetzt einfach mal behaupten, dass HL2 mit max.Details auf der 6800Ultra läuft.

ice cool69
2004-08-07, 12:13:47
Das meinst du jetzt aber nicht ernst? Nach dem ATi Techpaper dürfte das ewig auf ner NV40 laufen...

Ich glaube SP hat das leicht sarkastisch gemeint ;)

deekey777
2004-08-07, 12:25:42
Ich glaube SP hat das leicht sarkastisch gemeint ;)
Stimmt genau, denn es gibt so viele Threads dazu.

StefanV
2004-08-07, 12:55:42
Das meinst du jetzt aber nicht ernst?

Doch, eigentlich schon, nur halt nicht so, wie es da steht ;)

VooDoo7mx
2004-08-07, 13:34:39
Also das ist schon eine seltsame Frage. Beide Karten sind top-Karten. Auch mit der älteren Generation wirst du HL2 mit allen Details spielen können. Die 6800Ultra ist bei Doom3 schneller als die X800XT. Bei HL2 könnte das evtl. andersrum aussehen. Allgemein bei spielen, die nicht auf die Grafikkarten optimiert worden sind, ist die 6800Ultra schneller. HL2 wird auf ATI Karten optimiert. Such dir eine aus, die dir mehr gefällt. Ich würde mich für eine 6800Ultra entscheiden, wenn ich das Geld hätte. :-)

MGH HALEMA

Hmm ich Frag mich, wann die Leute endlich die Doom³ Geschichte verstehen.
Bei Doom³ wurde das Spiel nicht in Richtung irgendeiner Grafikkarte optimiert. das ist absoluter Nonsens!

Doom³ verwendet ein Renderingverfahren was abseits vieler anderer Spieleengines und recht außergewöhnlich ist. Der R420 kommt damit einfach nicht klar, da es sich hierbei nicht um eine Standardsituation handelt.

Carmack seine Engine ist schon länger in Entwicklung und er hat sichj sowhl mit ATi und nVidida auseinandergesetzt. Beiden Firmen hat er mitgeteilt, wie sein Engine aussieht und was in der nächsten Hardware des jeweiligen Herstellers gerne haben möchte.
Hier hat eben nVidia ein offeneres Ohr als ATi gehabt und dieser IHV ist auf seine Wünsche eingegangen.

Nun zu HL2:

Bei dem Performance Preview im letzen Jahr, sa nVidia so alt aus, weil das Spiel massiv auf 2.0 PixelShader setzt. Und genau das war die allergrößte Schwäche der nVidia Generation. Anders als bei Doom³ kommt bei der Source Engine kein spezielles Renderingverfahren zu tragen.

Der neue NV40 hat eine Shaderpower die sogar der des R420 überlegen sein kann.

Somit dürfte bei Half-Life2, mindestens ein Gleichstand oder ein leichtes Vorteil für ATi entstehen, da die XTPE einfach einen zu großen Mehrtakt hat. Allerdings wird der ATi Vorsprung nicht annähernd so groß sein, wie der von nVidia bei Doom³.

Und Valve ist auch keinesfalls von ATi gekauft. Schließlich lies man bei Valve verlauten, dass man einen Shader Model 3.0 Patch nachreichen wird. ;)

ice cool69
2004-08-07, 13:54:44
Ich glaube auch dass HL2 auf beiden Karten sehr gut laufen wird, auf ner radeon in hoher auflösung vielleicht ein bischen besser wegen des höhere Taktes.
Trotzdem denke ich dass man was HL2 angeht auch mit einer geforce nicht viel falsch machen kann :).

Edit: Dazu muss ich allerdings sagen dass JC wenn er gewollt hätte die Engine auch so hätte programmieren können dass sie eben nicht eine Ausnahmesituation darstellt.
Leider weiß ich nichts über die Hintergründe, möchte deshalb kein Urteil abgeben.

Thanatos
2004-08-07, 14:28:02
das ist schon mal sehr gut das Valve einen Shader 3.0 patch nachreichen, denn shader 3.0 macht zwar im moment noch kein spiel schöner, aber dafür ohne qualitätsverlust um einiges schneller. :)

StefanV
2004-08-07, 14:35:09
Theoretisch...

Obs Praktisch auch so ist, bleibt abzuwarten...

ice cool69
2004-08-07, 14:42:04
Theoretisch...

Obs Praktisch auch so ist, bleibt abzuwarten...

Vorteile wirds geben, sonst würden sie den Patch nicht entwickeln. Wie groß der Vorteil sein wird bleibt abzuwarten.

CrazyIvan
2004-08-07, 16:40:31
Einige scheinen zu vergessen, dass Valve zwar einen PS3 Patch bringen wird, sie aber nie sagten wann. Auch wenn ich hier keine Verschwörungstheorie in die Welt setzen will - aber 6 Mio US-$ sollten doch Motivation genug sein, sich mit dem Patch soooo viel Mühe zu geben, dass er erst mit dem Release der ersten ATi PS3 GPU verfügbar sein wird ;)

deekey777
2004-08-07, 19:33:34
das ist schon mal sehr gut das Valve einen Shader 3.0 patch nachreichen, denn shader 3.0 macht zwar im moment noch kein spiel schöner, aber dafür ohne qualitätsverlust um einiges schneller. :)


Im Moment macht "SM3.0" (genau wie "SM2.0b") nur Far Cry schneller. VALVe wird SM 3.0 nachliefern, aber wann und in welchem Umfang? Vielleicht werden wir "HL2 meets SM 3.0" erst mit den Refreshs der Fudo bzw. NV50 sehen - VALVe ist ja auch nicht gerade schnell.
Ob man ihn wirklich braucht....

@CrazyIvan:
Du sollest aber auch nicht vergessen, dass ATi nVidia überboten hat.

PS: Ein Paar Zeilen tiefer ist schon ein Thread zum Thema. Vielleicht finden sich da einige Antworten.

reunion
2004-08-07, 20:31:42
Hmm ich Frag mich, wann die Leute endlich die Doom³ Somit dürfte bei Half-Life2, mindestens ein Gleichstand oder ein leichtes Vorteil für ATi entstehen, da die XTPE einfach einen zu großen Mehrtakt hat. Allerdings wird der ATi Vorsprung nicht annähernd so groß sein, wie der von nVidia bei Doom³.


Laut der Aussage eines Valve Fuzzis soll HL2 auf dem R420 30% schneller laufen als "das beste was NV zu bieten hat".



Und Valve ist auch keinesfalls von ATi gekauft. Schließlich lies man bei Valve verlauten, dass man einen Shader Model 3.0 Patch nachreichen wird. ;)

Ja, wenn ATI SM3.0 fähige Hardware verkauft, vorher brauchst du nicht damit rechnen. ;)

Gast
2004-08-07, 22:42:29
Laut der Aussage eines Valve Fuzzis soll HL2 auf dem R420 30% schneller laufen als "das beste was NV zu bieten hat".
Das ist doch nur ein schlechter Witz!
HL2 wird auf dem NV40 genauso schnell sein wie R420.
Wer etwas anderes glaubt, der wird enttäuscht werden.
Es ist nur möglich, wenn man 1600x1200 mit 4xAA und 16xAF in Betracht zieht. Das reicht aber nicht für 30%, dafür müsste Valve auch die pp_hints weglassen, was eigentlich im Sinne der "Optimierung" eine Frechheit wäre.

Ja, wenn ATI SM3.0 fähige Hardware verkauft, vorher brauchst du nicht damit rechnen. ;)
Das wäre auch eine Schweinerei.

tombman
2004-08-07, 22:49:01
Bei HL2 könnte das evtl. andersrum aussehen. Allgemein bei spielen, die nicht auf die Grafikkarten optimiert worden sind, ist die 6800Ultra schneller. HL2 wird auf ATI Karten optimiert.

Falsch. Wenn nichts optimiert wurde ist ATI schneller. Sie ist die "einfachere" Karte, dafür aber sauschnell durch den hohen Takt. Daher ist sie bei "normal" programmierten Spielen (Doom3 ist eben "speziell" programmiert, deshalb is das Nvidia 6800u schneller) wie zb far cry teilweise deutlich der 6800u überlegen.

Winter[Raven]
2004-08-07, 23:10:41
Aber natürlich tombman ... JC ganz "speziell" auf NV40 programmiert ... *lach*, und von "deutlich" sehe ich da nichts bei Farcry, find ich aber echt einfach lächerlich von dir zubehaupen alles wäre von Nvidia mit Geld geschmiert und auf NV optimiert nur weil sie schneller sind.

ATI schneller = ATI macht tolle Arbeit
Nvidia schneller = Spiel scheiß programmiert, oder von Nvidia geschmiert

Blaire
2004-08-07, 23:15:14
Falsch. Wenn nichts optimiert wurde ist ATI schneller. Sie ist die "einfachere" Karte, dafür aber sauschnell durch den hohen Takt. Daher ist sie bei "normal" programmierten Spielen (Doom3 ist eben "speziell" programmiert, deshalb is das Nvidia 6800u schneller) wie zb far cry teilweise deutlich der 6800u überlegen.

Farcry ist nicht optimiert?
Zumindest sind die Farcry Benchmarks auf keinen Fall die Regel eher die Ausnahme.

MfG

MikBach
2004-08-07, 23:37:46
']Aber natürlich tombman ... JC ganz "speziell" auf NV40 programmiert ... *lach*, und von "deutlich" sehe ich da nichts bei Farcry, find ich aber echt einfach lächerlich von dir zubehaupen alles wäre von Nvidia mit Geld geschmiert und auf NV optimiert nur weil sie schneller sind.

Bevor du hier loslachst, überleg mal. :)

JC hat hier das Optimum aus der Geforce rausgeholt(reduzirte Rechegenaugkeit, spezielle Extensions für NV40- das hat JC für ATI nicht gemacht- warum auch immer)
Ausserdem ist es möglich eine Engine so zu designen, dass sie auf dem NV40 perfekt läuft(dafür müssen halt Opfer bei ATI gebracht werden. ;)
Würde JC die Engine "neutral" proggen, würde der Vorsprung gering sein.

Dass JC seit Jahren mit Nvidia zusammen arbeitet weisst du aber?
Nach seinen Vorschlägen hat Nvidia den Geforce 256 designed.

Jetzt alles klar?

MikBach
2004-08-07, 23:48:12
Farcry ist nicht optimiert?
Zumindest sind die Farcry Benchmarks auf keinen Fall die Regel eher die Ausnahme.

MfG

Nein, FC hält sich strickt an DX9, da wurde wenig an einen IHV optimiert. Erst mit den Patches hat sich das geändert. Nicht zu vergessen der Patch1.1, welcher bei der FX "gemogelt" hat.

ironMonkey
2004-08-08, 00:00:43
Schade, jetzt wird das wieder so ein NV vs. ATI gemetzel.........


Ich verstehe garnicht wie man sich kann ob die 6800Ultra genug Leistung hat um HL² spielen zu können, sicher wird sie das, eine X800XT reicht ja auch ohne Probleme für Doom², eher sollte man sich fragen wie es mit den FX Karten bei HL² ausschaut.


Gruß

deekey777
2004-08-08, 00:11:24
Schade, jetzt wird das wieder so ein NV vs. ATI gemetzel.........


Ich verstehe garnicht wie man sich kann ob die 6800Ultra genug Leistung hat um HL² spielen zu können, sicher wird sie das, eine X800XT reicht ja auch ohne Probleme für Doom², eher sollte man sich fragen wie es mit den FX Karten bei HL² ausschaut.


Gruß

Um dieFXen würde ich mir keine Sorgen machen, da für sie doppelt optimiert wurde: Der Mixed Mode + ForceWare (bzw. der "unified compiler" im Treiber selbst). ;D
Aber der Flamewar soll, verstehe ich nicht. Klar ist, dass die NV40 uU mit kurzen Shadern durch den geringeren Takt gegenüber der R420 im Nachteil sein kann. Und? Die nVidia Leibeigene aka Treiberprogrammierer haben schon mehrmals bewiesen, dass sie gute Treiber programmieren können -> siehe die Performancesteigerungen NV35/38+Deto ab 50 aufwärtszB in TR:AoD. Da sollte man sich keine grossen Sorgen machen.

Blaire
2004-08-08, 00:11:50
Nein, FC hält sich strickt an DX9, da wurde wenig an einen IHV optimiert. Erst mit den Patches hat sich das geändert. Nicht zu vergessen der Patch1.1, welcher bei der FX "gemogelt" hat.

Gemogelt? Wenn dann hat sich wohl eher die Unfähigkeit der Programmierer von Crytek erwiesen, wenn selbst ein Hobbyprogger wie tb von tommti-systems.de ein passenden R300 Wrapper gebastelt hat.
Das Spiel wurde von vornherein auf der R300/350/360 optimiert und Nvidia komplett außen vor gelassen bzw. mehr schlecht als recht "unterstützt" (obwohl man davon eigentlich garnicht sprechen darf wenn mans genau nimmt...) Sei es drum

deekey777
2004-08-08, 00:13:45
Gemogelt? Wenn dann hat sich wohl eher die Unfähigkeit der Programmierer erwiesen, wenn selbst ein Hobbyprogger wie tb von tommti-systems.de ein passenden R300 Wrapper gebastelt hat.
Das Spiel wurde von vornherein auf der R300/350/360 optimiert und Nvidia komplett außen vor gelassen bzw. mehr schlecht als recht "unterstützt" (obwohl man davon eigentlich garnicht sprechen darf wenn mans genau nimmt...) Sei es drum

Jetzt übertreibst du richtig: Wann hat den Crytek Far Cry auf ATi optimiert?
Beispiel?

Blaire
2004-08-08, 00:14:58
Jetzt übertreibst du richtig: Wann hat den Crytek Far Cry auf ATi optimiert?
Beispiel?

Siehe die Licht/Schattenfehler bzw. Blöckchenbildungen die mit alle Geforce FX Karten auftraten. Erst mit dem wieder rückgezogenen Patch 1.2 wurde dies weitestgehend behoben.

deekey777
2004-08-08, 00:17:58
Siehe die Licht/Schattenfehler bzw. Blöckchenbildungen

Du meinst den Patch 1.1.
Was hat das denn mit der Optimierung für die DX9 Radeons zu tun? Gar nichts.

Blaire
2004-08-08, 00:18:57
Du meinst den Patch 1.1.
Was hat das denn mit der Optimierung für die DX9 Radeons zu tun? Gar nichts.

Wieso? Das beweisst nur das man nur halbherzig die Geforce FX unterstützt hat.

Winter[Raven]
2004-08-08, 00:24:05
Bevor du hier loslachst, überleg mal. :)

JC hat hier das Optimum aus der Geforce rausgeholt(reduzirte Rechegenaugkeit, spezielle Extensions für NV40- das hat JC für ATI nicht gemacht- warum auch immer)
Ausserdem ist es möglich eine Engine so zu designen, dass sie auf dem NV40 perfekt läuft(dafür müssen halt Opfer bei ATI gebracht werden. ;)
Würde JC die Engine "neutral" proggen, würde der Vorsprung gering sein.

Dass JC seit Jahren mit Nvidia zusammen arbeitet weisst du aber?
Nach seinen Vorschlägen hat Nvidia den Geforce 256 designed.

Jetzt alles klar?


Zum wievieltem Male noch?

1. Reduzierte Genaugkeit?, soweit ich verstanden habe braucht DOOM III nicht mehr als FP16, wenn ATI alles mit FP24 rechnet, weil sie bei Transistoren gespaart haben und deswegen ihre HW nicht Flexibel genung ist, muss es JC jucken?

2. Muss es JC jucken, wenn ATI seit R200 keine eigenen OpenGL -Extensions einbaut?

3. Das JC angeblich alle 3 Monate zum Ingeneuersmeeting bei Nvidia ist, ist bekannt aber ist es schlecht wenn Nvidia den Wünschen von JC bzw. anderen DEV's nachkommt? :bonk: Wo wären wir wenn Nvidia oder ATI das einbauen würden was SIE für richtig halten?

4. Beweiß, eine Quellen angabe hast du nicht zufällig oder?, zum Thema GF und JC...

JC hat doch gesagt er habe das letze aus der R3xx dazu zählt der R420 herausgeholt, also hat er sich nicht zuschulden kommen lassen. Wenn die HW nichts mehr hergibt ist aber natürlich der DEV schuld...

deekey777
2004-08-08, 00:27:47
Wieso? Das beweist nur das man nur halbherzig die Geforce FX unterstützt hat.

Das beweist gar nichts! Far Cry ist ein TWIMTBP Spiel - eine halbherzige Unterstützung würde dieses Logo nicht rechtfertigen.
Aber ich wollte was anderes wissen: Was ist mit der Optimierung für die ATi? Bisher gibt es keine Optmierung für R300, was auch für die FX Serie gilt.

MikBach
2004-08-08, 00:31:03
']Zum wievieltem Male noch?

1. Reduzierte Genaugkeit?, soweit ich verstanden habe braucht DOOM III nicht mehr als FP16, wenn ATI alles mit FP24 rechnet, weil sie bei Transistoren gespaart haben und deswegen ihre HW nicht Flexibel genung ist, muss es JC jucken?

2. Muss es JC jucken, wenn ATI seit R200 keine eigenen OpenGL -Extensions einbaut?

3. Das JC angeblich alle 3 Monate zum Ingeneuersmeeting bei Nvidia ist, ist bekannt aber ist es schlecht wenn Nvidia den Wünschen von JC bzw. anderen DEV's nachkommt? :bonk: Wo wären wir wenn Nvidia oder ATI das einbauen würden was SIE für richtig halten?

4. Beweiß, eine Quellen angabe hast du nicht zufällig oder?, zum Thema GF und JC...

Zu 1-3 nc(no comment)

zu 4 Willst du dich lächerlich machen?
Das weisst doch jedes Kind, dass JC schon seit Jahren mit NV arbeitet.
Kannst/willst du es abstreiten?
Ich glaube nicht!

Blaire
2004-08-08, 00:33:29
Das beweist gar nichts! Far Cry ist ein TWIMTBP Spiel - eine halbherzige Unterstützung würde dieses Logo nicht rechtfertigen.
Aber ich wollte was anderes wissen: Was ist mit der Optimierung für die ATi? Bisher gibt es keine Optmierung für R300, was auch für die FX Serie gilt.

Ich weiss nicht, was es daran nicht zu verstehen gibt?? Sing ich?

deekey777
2004-08-08, 00:44:48
Ich weiss nicht, was es daran nicht zu verstehen gibt?? Sing ich?

Ist das von dir:

Gemogelt? Wenn dann hat sich wohl eher die Unfähigkeit der Programmierer von Crytek erwiesen, wenn selbst ein Hobbyprogger wie tb von tommti-systems.de ein passenden R300 Wrapper gebastelt hat.
Das Spiel wurde von vornherein auf der R300/350/360 optimiert und Nvidia komplett außen vor gelassen bzw. mehr schlecht als recht "unterstützt" (obwohl man davon eigentlich garnicht sprechen darf wenn mans genau nimmt...) Sei es drum


Darum berechnet die R300 nur eine Lichtquelle in einem Pass, obwohl es zwei möglich sind. Gut zu wissen. Thema erledigt.

Winter[Raven]
2004-08-08, 00:49:22
Das weisst doch jedes Kind, dass JC schon seit Jahren mit NV arbeitet.
Kannst/willst du es abstreiten?

Ich weiß nicht ob du durch deine Rosa-Pro-ATI Brille richtig gelesen hat... aber nochmal für dich:

Das JC angeblich alle 3 Monate zum Ingeneuersmeeting bei Nvidia ist, ist bekannt aber ist es schlecht wenn Nvidia den Wünschen von JC bzw. anderen DEV's nachkommt? Wo wären wir wenn Nvidia oder ATI das einbauen würden was SIE für richtig halten?

Ob es ein kleines Kind weiß oder nicht, ich will eine Quelle oder ein Beweis sehn, den Behauptungen kann ich dir auch gerne aufstellen. JC hatte so richtig Interesse an den GF bekommen, als damals die GF2 rauskamm mit dem NVIDIA Shading Rasterizer (NSR)...

MikBach
2004-08-08, 00:50:03
Wozu informieren wenn ich selber getestet habe? Die Blöckchenbildung war auch mit der Verkaufsversion ohne Patch! vorhanden.
Das ist halt DP(doppelts Pech).
Bei einer ATI hat es ohne Problem funktioniert. Und das ohne irgendwelche Hacks. Das ist der Vorteil, wenn die Hardware nahe an DX9 spezifizeirt ist, und man nicht sein eigenes Süppchen kocht(Nvidia-2.x)

tokugawa
2004-08-08, 00:51:09
']Zum wievieltem Male noch?

1. Reduzierte Genaugkeit?, soweit ich verstanden habe braucht DOOM III nicht mehr als FP16, wenn ATI alles mit FP24 rechnet, weil sie bei Transistoren gespaart haben und deswegen ihre HW nicht Flexibel genung ist, muss es JC jucken?

2. Muss es JC jucken, wenn ATI seit R200 keine eigenen OpenGL -Extensions einbaut?

3. Das JC angeblich alle 3 Monate zum Ingeneuersmeeting bei Nvidia ist, ist bekannt aber ist es schlecht wenn Nvidia den Wünschen von JC bzw. anderen DEV's nachkommt? :bonk: Wo wären wir wenn Nvidia oder ATI das einbauen würden was SIE für richtig halten?

4. Beweiß, eine Quellen angabe hast du nicht zufällig oder?, zum Thema GF und JC...

JC hat doch gesagt er habe das letze aus der R3xx dazu zählt der R420 herausgeholt, also hat er sich nicht zuschulden kommen lassen. Wenn die HW nichts mehr hergibt ist aber natürlich der DEV schuld...

ATI "erlaubt" schon eigene Extensions. Haben's ja.

Nur hat ATI eben nicht so viele Extensions, die Doom 3 nützlich sein könnten wie die NV40. Bzw unterstützt die NV40 sogar ziemlich viele ATI-spezifische Extensions.

tokugawa
2004-08-08, 00:55:02
Nein, FC hält sich strickt an DX9, da wurde wenig an einen IHV optimiert. Erst mit den Patches hat sich das geändert. Nicht zu vergessen der Patch1.1, welcher bei der FX "gemogelt" hat.

Man kann sich nicht "strikt an eine OpenGL" Version halten, das verstehen viele nicht.

OpenGL exponiert die Features, die die Hardware kann. Wenn es keine Standard-Extension (ARB oder EXT) gibt für ein neues Feature, wird dieses Feature erst einmal in Form einer vendor-specific-Extension eingeführt (mit Präfix ATI_, NV_, SGI_, IBM_, usw.). Doom 3 nutzt einige NV_ Extensions, folglich nutzt es einige Features des NV40, die eben ATI nicht bietet. Da kann man nicht von "Bevorzugung" sprechen.

In einer Render-Pfad-Softwarearchitektur wie es Doom 3 vorweist, ist es nur ratsam und gut, Extensions zu nutzen (selbst herstellerspezifische), die einen Performance-Vorteil versprechen. So geschehen bei Doom 3. Bei ATI _gibt_ es halt keine zusätzlichen Extensions mehr (abseits von jenen, die bereits genutzt werden), die noch für bessere Performance sorgen könnten.

Und etwas, was nicht da ist, kann auch JC nicht nutzen.

MikBach
2004-08-08, 00:55:53
']Ob es ein kleines Kind weiß oder nicht, ich will eine Quelle oder ein Beweis sehn, den Behauptungen kann ich dir auch gerne aufstellen. JC hatte so richtig Interesse an den GF bekommen, als damals die GF2 rauskamm mit dem NVIDIA Shading Rasterizer (NSR)...
Liesst du auch die Posts, die ich geschrieben habe?

Nach JC´s Vorschlägen wurde die Geforce 256 designed. Das ist FAKT. Wenn du es nicht weisst, solltest du dich mal bisschen weiterbilden, denn das ist schon Geschichte.

Winter[Raven]
2004-08-08, 00:56:12
ATI "erlaubt" schon eigene Extensions. Haben's ja.

Nur hat ATI eben nicht so viele Extensions, die Doom 3 nützlich sein könnten wie die NV40. Bzw unterstützt die NV40 sogar ziemlich viele ATI-spezifische Extensions.

Habe ich garnicht gesagt ATI würde keine erlauben.. ;) Ich meinte ehe das es nicht das Problem von JC ist, wenn ATI seit R200 nichts mehr zur Steigerung des Speeds bringt.

tokugawa
2004-08-08, 01:03:00
Bevor du hier loslachst, überleg mal. :)

JC hat hier das Optimum aus der Geforce rausgeholt(reduzirte Rechegenaugkeit, spezielle Extensions für NV40- das hat JC für ATI nicht gemacht- warum auch immer)


Ganz einfach: weil die ATI diese Extensions eben nicht hat. Die, die sie hat, und die Doom 3 was nutzen, hat JC sowieso genutzt. Aber NVIDIA hat eben einige nette Dinge (= Features!), die der NV40 unterstützt, und die man über OpenGL direkt nutzen kann (was genau der Vorteil des Extension-Mechanismus ist: Features sind immer sofort nutzbar, über Vendor-Specific Extensions).

Hier zeigt sich auch, dass "Features" eben nicht nur Shader-Model 3.0 bedeutet, sondern gerade unter OpenGL eben auch diverse Performance-verbessernde Dinge wie eben spezielle Extensions, genauso zu "Features" zählen, die etwas bringen. Vor allem natürlich einem Entwickler etwas bringen. Aber dadurch auch, wie man bei JC sieht, im Endeffekt auch dem Enduser.



Ausserdem ist es möglich eine Engine so zu designen, dass sie auf dem NV40 perfekt läuft(dafür müssen halt Opfer bei ATI gebracht werden. ;)
Würde JC die Engine "neutral" proggen, würde der Vorsprung gering sein.


"Neutral" proggen würde wirklich sehr sehr dämlich sein, wenn man sowieso eine Renderpfad-Architektur hat, also leicht Teile der Rendering-Pipeline modular auswechseln kann mit Modulen, die bestimmte eigene Extensions nutzen.

Das Problem unter OpenGL ist auch, dass trotz "neutraler" Programmierung trotzdem verschiedene Arten verschieden schnell ist. Es gab eine Zeit wo im ATI Treiber ein glDrawElements() Aufruf genauso langsam war wie ein Immediate-Mode Aufruf (also für jeden Vertex glVertex(), glNormal(), glTexCoord() aufzurufen, anstatt die Vertexdaten in einem an die Graka zu schicken), weil die eben die glDrawElements() mittels Immediate-Mode aufgelöst haben.

Unter OpenGL wird nicht garantiert, dass eine bestimmte Art "schneller" ist, und es gibt keine "richtige" Art. Aber es gibt Empfehlungen, und die besagen, dass man Extensions auch nutzen soll, wenn sie etwas bringen. Das hat JC gemacht. Warum nicht noch mehr ATI Extensions genutzt wurden? Weil es keine mehr gibt, die etwas genutzt hätten!




Dass JC seit Jahren mit Nvidia zusammen arbeitet weisst du aber?
Nach seinen Vorschlägen hat Nvidia den Geforce 256 designed.

Jetzt alles klar?

Was JC "wollte", also welche Algorithmen er verwendete, war absolut offen. Jeder wusste, dass JC den ZFail-Mechanismus benutzt. Warum ATI dann einen Chip designt, der eher für ZPass ausgelegt ist, weiß wohl nur ATI.

Vielleicht hat auch NVIDIA besser bei den Entwicklern zugehört, oder die Grafikkonferenzen besucht, und die wissenschaftlichen Papers gelesen?

MikBach
2004-08-08, 01:04:20
Man kann sich nicht "strikt an eine OpenGL" Version halten, das verstehen viele nicht.

OpenGL exponiert die Features, die die Hardware kann. Wenn es keine Standard-Extension (ARB oder EXT) gibt für ein neues Feature, wird dieses Feature erst einmal in Form einer vendor-specific-Extension eingeführt (mit Präfix ATI_, NV_, SGI_, IBM_, usw.). Doom 3 nutzt einige NV_ Extensions, folglich nutzt es einige Features des NV40, die eben ATI nicht bietet. Da kann man nicht von "Bevorzugung" sprechen.

In einer Render-Pfad-Softwarearchitektur wie es Doom 3 vorweist, ist es nur ratsam und gut, Extensions zu nutzen (selbst herstellerspezifische), die einen Performance-Vorteil versprechen. So geschehen bei Doom 3. Bei ATI _gibt_ es halt keine zusätzlichen Extensions mehr (abseits von jenen, die bereits genutzt werden), die noch für bessere Performance sorgen könnten.

Und etwas, was nicht da ist, kann auch JC nicht nutzen.

Sorry Tokugawa, aber du hast mein Post zu FC gequotet, da spielt OGL keine Rolle.

deekey777
2004-08-08, 01:04:43
']Habe ich garnicht gesagt ATI würde keine erlauben.. ;) Ich meinte ehe das es nicht das Problem von JC ist, wenn ATI seit R200 nichts mehr zur Steigerung des Speeds bringt.

Wie kommst du darauf, dass ATI seit R200 nichts mehr zur Steigerung des Speeds bringt?


Das ist ein Gerücht.

tokugawa
2004-08-08, 01:06:14
Liesst du auch die Posts, die ich geschrieben habe?

Nach JC´s Vorschlägen wurde die Geforce 256 designed. Das ist FAKT. Wenn du es nicht weisst, solltest du dich mal bisschen weiterbilden, denn das ist schon Geschichte.

Falsch formuliert.

JC hat gesagt, was er macht und will. Er hat ALgorithmen entwickelt.

NVIDIA hat ihm zugehört. Und anderen Entwicklern zugehört. Sich die Algorithmen angeschaut und analysiert.

NVIDIA hat den Wissenschaftlern auf der SIGGRAPH und anderen Konferenzen zugehört.

NVIDIA hat Papers gelesen.

Und dann hat sich NVIDIA hingesetzt, und ein Teil designt, das möglichst dem aktuellen State-of-the-Art, was Entwickler wollen, was für Algorithmen gerade "Hot Topics" sind, entspricht.

So sollte es sein. "Hardware-Designers, Listen to us developers!"

So sollte Developer-Support sein. Nicht nur Richtung Hardware-Designer -> Entwickler, sondern auch umgekehrt.

tokugawa
2004-08-08, 01:08:11
Wie kommst du darauf, dass ATI seit R200 nichts mehr zur Steigerung des Speeds bringt?


Das ist ein Gerücht.

Er meinte in Bezug auf OpenGL-Extensions.

Also, dass kaum neue OpenGL-Extensions hinzugekommen sind, die die Performance an kritischen Punkten verbessern, wie etwa Ultra Shadow mit seinen Extensions, oder beispielsweise damals die ARB_shadow Extension.

Ich persönlich würde allerdings eher sagen, "seit dem R300". Was logisch ist, da der R420 nicht sooo viel an neuen Sachen mitbringt, folglich auch nicht wirklich sehr viel mehr OpenGL-Extensions mitbringt, schon gar nicht welche zur Performance-steigerung.

VooDoo7mx
2004-08-08, 01:08:48
Gemogelt? Wenn dann hat sich wohl eher die Unfähigkeit der Programmierer von Crytek erwiesen, wenn selbst ein Hobbyprogger wie tb von tommti-systems.de ein passenden R300 Wrapper gebastelt hat.
Das Spiel wurde von vornherein auf der R300/350/360 optimiert und Nvidia komplett außen vor gelassen bzw. mehr schlecht als recht "unterstützt" (obwohl man davon eigentlich garnicht sprechen darf wenn mans genau nimmt...) Sei es drum

Das hallte ich für sehr weit hergeholt.

Selbst auf aktueller ATi Hardware produziert Far Cry Grafikfehler!

Ich würde es toll finden, wenn sich hier alle um Far Cry streitenden darauf einigen würden, dass die Programmierung dieses Spiels besserer Dreck ist.
Mit dem letzten Patch hat Crytek wieder aufs neue bewiesen wie extrem unfähig sie sind.

Zum Release, hätten 2 DX9 Renderpfade ausgereicht.
1. Einen für ATi mit fp24 und dem Erkenntnissen und Speedverbesserungen aus dem 2.b Pfad für alle Karten ab R300.
2. Einen für NV, mit teilweise partitieller Präzison fp16, wo es keine sichtbaren Unterschiede gibt (was ziemlich viele Shader sein dürften) der Rest in fp32 + den Erkenntnissen und Speedverbesserungen aus dem angeblichen Shader 3.0 Pfad.

So eine clevere Programmierung, hätte von Anfang an, für alle mehr gebracht. Moderne ATi Hardware hätte von Anfang an eine bessere Performance und NV Hardware eine deutlich bessere.
Am Gesamtbild der letzten Generation hätte dies aber nichts geändert. (ATi schneller als NV)

Jeder wäre wirklich zufrieden gewesen. Aber da bringt Crytek in wirklich kundenunfreundlichen Abständen Patches raus, die alles nur noch schlimmer machen.

Ich bin ehrlich gesagt froh, nicht Farcry gekauft zu haben. Und nein, ich hab es auch nicht gesaugt!

MikBach
2004-08-08, 01:13:07
Das ändert nichts daran, daß Crytek rein garnichts für eine passable Unterstützung für die Geforce/FX Serie getan hat.
Der Umgangston hier gefällt mir überhaupt nicht sind wir hier im Krieg oder was?
Was für Unterstützung?

CryTech hat nach DX9 geproggt!!! Wer näher am Standard ist, der hat halt gewonnen. So einfach ist das.
Nvidia wollte unbedingt 2.X, jetzt müssen sie die Konsequenzen tragen, was gibt es da nicht zu verstehen?
Nvidia hat halt mit ihren(eigenem Standard verloren, und gut is).

Amen.

tokugawa
2004-08-08, 01:21:09
Was für Unterstützung?

CryTech hat nach DX9 geproggt!!! Wer näher am Standard ist, der hat halt gewonnen. So einfach ist das.
Nvidia wollte unbedingt 2.X, jetzt müssen sie die Konsequenzen tragen, was gibt es da nicht zu verstehen?
Nvidia hat halt mit ihren(eigenem Standard verloren, und gut is).

Amen.

Ich glaub du solltest vielleicht selbst einmal DirectX 9 programmieren, dann führt sich deine Aussage selbst ad-absurdum.

Shader Modell 2.X ist eine Obermenge von SM 2.0.

NVIDIA ist ebenfalls "am Standard". Microsoft gibt ja nicht vor, wie man die Recheneinheiten verdrahtet, sondern nur, was schnittstellenmäßig unterstützt werden muß (also sogar nur auf Treiberebene - ein DX9-Treiber, der alles in SOftware berechnet, wäre z.B. auch "DirectX9-konform").

Und dass jetzt FX Chips mit besonderer Sorgfalt shader-programmiert gehören, um das Optimum rauszuholen, hat jetzt nichts konkret mit DirectX-Standards zu tun, sondern halt mit der Architektur.

Weder ist deswegen einer "näher am Standard" noch sonst irgendwas.

Hier kann man wieder ähnlich OpenGL sagen:

- es gibt keinen "Standard-Weg", etwas zu implementieren. Es gibt meistens immer mehrere Wege zum Ziel.

- Erstens programmiert der Programmierer und nicht die API.

- DirectX garantiert wie OpenGL auch nicht, dass jetzt eine bestimmte Methode etwas zu tun schneller ist als die andere, das ergibt sich aus Erfahrungswerten bzw. durch Analyse und Logik.

- Aus dem obigen folgt daher, dass es sehr wohl standardkonform auftreten kann, dass eine Hardware etwas anders programmiert werden will - innerhalb der DX9-Konformität - um optimal genutzt zu werden.

Das einzige, was stimmt ist, dass R3xx Chips in Bezug auf DirectX 9 weniger pingelig sind in Bezug auf die Programmierung und die resultierende Performance. FXen wollen behutsamer programmiert werden, damit die Performance nicht einbricht. Aber beides DX9-konform.