Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia hält nichts vom neuen 3dmark
askibo
2003-02-12, 01:04:25
Von gamespot.com (http://gamespot.com/gamespot/stories/news/0,10870,2910707,00.html)
On a related note, Nvidia has contacted us to say that it doesn't support the use of 3DMark 2003 as a primary benchmark in the evaluation of graphics cards, as the company believes the benchmark doesn't represent how current games are being designed. Specifically, Nvidia contends that the first test is an unrealistically simple scene that's primarily single-textured, that the stencil shadows in the second and third tests are rendered using an inefficient method that's extremely bottlenecked at the vertex engine, and that many of the pixel shaders use specific elements of DX8 that are promoted by ATI but aren't common in current games.
In response to Nvidia's statements, Futuremark's Aki Jarvilehto said, "We've been working for the last 18 months to make 3DMark 2003 an accurate and objective benchmark. Nvidia was one of our beta members until December, and it's not our place to comment on why they've decided to withdraw from the program. After working on the project for almost two years with all the leading manufacturers, we do strongly believe that 3DMark 2003 is an accurate representation of game performance for modern 3D accelerators."
Ist die Vertex Engine des NV30 wirklich soooo schlecht ??? :D
Unregistered
2003-02-12, 01:14:26
HI
Also nVIDIA muss wirklich verzweifelt sein.
:lol:
Ich kann nicht mehr.
Zuerst das Kühlmonster FX.
Dann der "Produktionsstop"
Ansagen wie das die Mitbewerber was rauchen wenn die glauben das die schneller sind als nVIDIA.
Jetzt diese Ansage....
Hoffentlich stimmt das alles nicht, den das wäre mehr als lächerlich was in letzter Zeit abläuft.
Gruss Labberlippe
nggalai
2003-02-12, 01:15:16
NV hat sich ebenfalls aus der Betatester- und Supporter-Liste auf futuremark.com austragen lassen . . .
ta,
-Sascha.rb
askibo
2003-02-12, 01:18:25
Originally posted by nggalai
NV hat sich ebenfalls aus der Betatester- und Supporter-Liste auf futuremark.com austragen lassen . . .
ta,
-Sascha.rb
Kein Wunder wenn man sich die Pixelshader Leistung der FX im neuen 3dmark anschaut.
41fps zu 15fps für die 9700 Pro, und das mit den neuen Treibern. *autsch*
BlackBirdSR
2003-02-12, 01:24:35
Originally posted by nggalai
NV hat sich ebenfalls aus der Betatester- und Supporter-Liste auf futuremark.com austragen lassen . . .
ta,
-Sascha.rb
ehrlich gesagt..
der 3dmark2003 hat nicht viel mit jetzigen games zu tun..
aber das war noch nie so :)
Ich kann Nvidia verstehen wenn sie sich deswegen aufregen, stehen doch die eigenen GF4 Produkte die momentan die kompletten Trägerprodukte sind ziemlich schlecht da gegen die R300.
Sich aus dem Programm austragen zu lassen ist eigentlich ein gute Weg Protest zu führen.
Wenn Nvidia jetzt die Propagandamaschinerie laufen lässt ist mir das eigentlich egal.
Wenn die Reviewer beginnen in den tests den Gesamtwert links liegen zu lassen und für gezielte Betrachtung von speziellen Situationen nur noch die einzeltests betrachten, dann kann ich sehr gut damit leben.
Das ist dann nicht mehr als jeder andere Bench auch.
Eine Aussage zu einer bestimmten Situation mit einer bestimmten Engine, welche keine karte zum Supersieger schlechthin kürt.
Ntürlich sehen dass die User etwas anders, und man darf sich auf ne Welle der R300 benutzer gefasstmachen die sich über die 1800 Punkte der Ti4600 auslassen.
Das Verhalten ist doch nur noch kindisch.
lächerlich!
Da zeigt sich eindeutig das nvidia nicht mit druck umgehen kann. Kaum sind sie mal im hintertreffen , fangen sie an zu weinen .
böser böser 3dmark03 , benutzt tatsächlich p1.4 , und unsere karten können das nicht :...(
Unregistered
2003-02-12, 02:02:02
Originally posted by BlackBirdSR
Ntürlich sehen dass die User etwas anders, und man darf sich auf ne Welle der R300 benutzer gefasstmachen die sich über die 1800 Punkte der Ti4600 auslassen.
Das Bewertungsystem des 3DMark fand ich schon immer bescheuert. Nur jetzt wo es nicht mehr so Doll für NV aussieht isses auf einmal schlecht.
Bei der Bewertung der Punkte hätte man schon immer zwischen DX-Kategorien unterscheiden sollen.
z.b. DX7-Tests=7XXX Punkte DX8-Tests=3XXX Punkte, ingesamt 10XXX und so weiter.
3DMark hatt doch schon immer IMO nen verzerrtes Bild abgegeben. Z.B 14000 bei ner DX8 karte zu 7000 bei ner DX7 Karte --> das suggeriert doch ne Verdopplung und ich möchte nicht wissen wieviele DAU´s denken das sie deshalb Doppelt soviel FPS haben.
Jetzt schmollt NV, weil sie auf einmal schlecht dastehen.lol.
Klar spiegelt der 3DMArk nicht unbedingt das wieder, was in Spielen momentan eingesetzt wird (DOF-effekte usw) aber er soll ja auch irgendwo zeigen was mit einer KArte möglich ist.
MadManniMan
2003-02-12, 02:03:42
mich wundert aber, warum der neue deto dennoch derart performance rausholt... (-> hardocp.com)
betasilie
2003-02-12, 02:26:32
NVidia hat wohl echt Probleme. :D Ich meine ja auch, dass die MadOnion-Tests immer realitätsfern waren, aber das NVidia jetzt so eine Show abzieht hat wohl nix damit zutun, sondern eher mit der starken Kontrastierung von ATIs Karten zu den NVidias Karten zu tun. NVidia ist schon ein wirklich schlechter verlierer. :bäh:
MadManniMan
2003-02-12, 02:34:43
sehe ich genauso.
als quark und quark² einst NV karten immer ins beste licht rückten, war NV immer auf seiten madonions. aber diese zeit ist wohl nun vorbei...
macht aus der info, was ihr wollt. ich für meinen teil hab mir da mein urteil schon gefällt
betasilie
2003-02-12, 02:39:38
... und dazu kommt, dass diese Aussage von einer Firma kommt, die den Endkunden mit ihren Demos (e.g. 100 Jurassicparkdinosaurs) immer Sachen zeigen, die in Games völlig unmöglich sind. Das sind schon ein paar Pappnasen bei NVidia. :embara: ;)
Mr. Lolman
2003-02-12, 02:47:51
*gesamtenthreadunterschreib*
Unregistered
2003-02-12, 08:56:50
Ich kann mir schon denken, woran das liegt. Sicher werden Nvidias normale FX, dann der NV31 und NV34 ziemlich abgeledert vom jeweiligen Konkurrenzprodukt.
Und normaler Weise stand Nvidia immer ein neuer verkaufsfoerdernder Benchmark zur Seite, bei der GF4 wars der Codecreature. Da haben die sich auch nicht aufgeregt, dass der ein verzerrtes Bild wiedergibt. War ja praktisch ihr eigener Benchmark.
Ausserdem, die R8500 hat PS 1.4 und ist auch nicht der Bringer in dem Bench, liegt gleichauf mit ihren direkten Konkurrenten. Daran kanns ja wohl dann nicht liegen.
egdusp
2003-02-12, 09:04:42
Originally posted by MadManniMan
mich wundert aber, warum der neue deto dennoch derart performance rausholt... (-> hardocp.com)
Ich seh da auf der Seite nichts von einem neuen Deto, genauer Link bitte.
mfg
egdusp
egdusp
2003-02-12, 09:06:03
Wenn der NV30 beim VertexShader wirklich so schlecht ist, warum zieht die QuadroFx dann die FireGl so ab? Ich dachte bei profesionellen Karten ist die VertexShader Leistung besonders wichtig.
mfg
egdusp
Ich denke, nVidia hat weitgehend recht: Der 3DMark ist als "Gamers' Benchmark" kaum brauchbar.
JTHawK
2003-02-12, 09:24:36
achja
bei den benchmarks und screenshots und was auch immer des futuremark teams sind ausschließlich
ATI grakas und AMD cpu's
zu sehen :D
auf der ganzen apge und in jedem whitepaper - nirgens ein nvidia graka oder eine intel cpu :D
Mehrpack
2003-02-12, 09:31:33
Originally posted by aths
Ich denke, nVidia hat weitgehend recht: Der 3DMark ist als "Gamers' Benchmark" kaum brauchbar.
hi,
klar, aber alle 3dmarks sind mehr oder weniger praxisfremd, bloss bis jetzt hat es nvidia nicht gestört.
das beste an den 3dmarks war eigentlich immer die demo, bis auf die aus dem 3dmark 2001, hoffe die jetztige ist besser.
Mehrpack
Unregistered
2003-02-12, 09:35:14
Originally posted by aths
Ich denke, nVidia hat weitgehend recht: Der 3DMark ist als "Gamers' Benchmark" kaum brauchbar.
Das war so oder so nie ein 3DMark.
Aber nVIDIA sagt quasi das hier auf ATi optimiert wurde und die PixelShader Funktionen spezielle DX8 Elemente nicht in Games verwendet werden.
Sorry aber so wie es aussieht hat nVIDIA Probleme und zeigt wiedereinmal wie "serious" das Unternehmen ist.
Aber die Helden jedes 18jährigen verhalten sich auch wie 18 jährige.
(Wobei 18jährige nicht so rumjammern)
Gruss Labberlippe
LL,
ganz unabhängig davon, was nVidia früher gesagt oder gemacht hat, und ob es auch auf die Vorgänger-3DMarks zutrifft: Sie haben recht, dass der 03-er nicht repräsentativ ist.
Die Gründe ihrer Ablehnung mögen darin begründet sein, dass ihre FX nicht sooo prall abschneidet und sind wohl nicht aus einem aufklärerischen Impuls heraus entstanden. Trotzdem stimme ich ihnen in der Sache weitgehend zu.
Mehrpack
2003-02-12, 09:40:44
hi,
aber geht es eigentlich hier in dem thread nicht eher über den plotzlichen gesinnungswechsel als eher das ding praxisfern ist?
Mehrpack
Ich halte es nach meinem bisherigen Wissensstand für gerechtfertigt, diesen Bench abzulehnen und stattdessen auf Benches von Spielen zu pochen, so wie nVidia das tut.
Es ist richtig, dass das Bild damit insofern verzerrt wird, dass kaum gezeigt werden kann wozu die guten PS.1.4 fähig sind. Das ist eigentlich traurig, dass diese praktisch nicht in Spielen benutzt werden. Doch ein Benchmark für Gamers sollte schon die aktuelle Realität im Auge behalten.
Unregistered
2003-02-12, 09:49:34
Originally posted by aths
LL,
ganz unabhängig davon, was nVidia früher gesagt oder gemacht hat, und ob es auch auf die Vorgänger-3DMarks zutrifft: Sie haben recht, dass der 03-er nicht repräsentativ ist.
Die Gründe ihrer Ablehnung mögen darin begründet sein, dass ihre FX nicht sooo prall abschneidet und sind wohl nicht aus einem aufklärerischen Impuls heraus entstanden. Trotzdem stimme ich ihnen in der Sache weitgehend zu.
Keine Frage aths aber die Art und Weise wie nVIDIA es jetzt begründet ist einfach lächerlich.
Komischerweise hat nVIDIA aber auch den PS1.4 mit der GeForce3/4 supportet.
PS 2.0 wird ja auch genutzt.
Gruss Labberlippe
Hi LL, wieso schreibst du nicht als Reg??
Originally posted by Unregistered
Keine Frage aths aber die Art und Weise wie nVIDIA es jetzt begründet ist einfach lächerlich.Wieso? Die Gründe die sie anführen, sind aus meiner Sicht überwiegend stichhaltig.
Originally posted by Unregistered
Komischerweise hat nVIDIA aber auch den PS1.4 mit der GeForce3/4 supportet.
PS 2.0 wird ja auch genutzt.PS 1.4-Support hat nur Radeon ab 8500 und GeForce FX. GeForce hat PS 1.1, GeForce4 Ti hat PS 1.3.
nVidia sagt, richtigerweise, dass 1.1 in der Realität durchaus benutzt wird, 1.4 praktisch gar nicht.
BlackBirdSR
2003-02-12, 10:00:37
Das Problem ist, dass sich dieser Benchmark extrem auf VS 1.1 stüzt und damit die CPU eigentlich fast unwichtig macht.
Es fällt also knapp 50% der bestimmenden Komponente der Systemleistung flach.
Momentan bin ich mir nichtmal sicher dass Speicherbandbreite, Latenzen und CPU Klasse überhaupt einen Unterschied machen.
Damit verliert man nicht nur komplett den Bezug auf die Spielerealität (es sei denn die Realität besteht aus Aquanox) sondern killt auch jegliche Möglichkeit Systeme untereinander zu vergleichen.
Es reicht ab jetzt die Grafikkarte anzugeben und einen ungefähren Takt, dann sag ich dir deine 3dmarks.
Also großen Mega bench der ne gesamtaussage über die Geschw der Grafikchips macht taugt er nichts..
aber ist trotzdem ein guter Indikator über die leitungsfähigkeit eines Chips mit einer speziellen Engine.. wie jeder bench
Unregistered
2003-02-12, 10:04:59
Hi LL, wieso schreibst du nicht als Reg??
Habe gestern mein OS neu aufgesetzt, muss erst einige Daten zurückspielen.
Wieso? Die Gründe die sie anführen, sind aus meiner Sicht überwiegend stichhaltig.
PS 1.4-Support hat nur Radeon ab 8500 und GeForce FX. GeForce hat PS 1.1, GeForce4 Ti hat PS 1.3.
Stimmt, GeForce3 hat nur 1.1.
GeForce4 1.3
Habe mich mit support ein bischen blöd ausgedrückt.
nVidia sagt, richtigerweise, dass 1.1 in der Realität durchaus benutzt wird, 1.4 praktisch gar nicht.
Sicher bringt 1.4 in der Realität nichts.
Genausowenig wie 1.3
Ich frage mich halt warum nVIDIA nur 1.3 bei der GeForce4 genutzt hat und nicht gleich 1.4.
Ideen die nicht von nVIDIA kommen werden mal gleich ignoriert war schon bei EMBM so.
Wenn ein Hersteller nicht nach deren Pfeife tanzt dann gibt es gleich herbe Kritik und Lieferungsstop.
nVIDIA war mir schon immer unsympatisch.
Nicht wegen die GPUs ab der GeForce3 waren die eine Alternative für mich.
Nur das Auftreten und Statement was diese Firma hat ist einfach nicht mein Ding.
Sorry aber für ein Weltunternehmen sind die Aktionen in letzter Zeit mehr als Heavy und zeigt die unreife von nVIDIA deutlich.
Mehr seriouses selbstvertrauen hätte ich dennen eigentlich schon zugetraut.
Gruss Labberlippe
wrdaniel
2003-02-12, 10:12:12
alle 3d marks waren wenig geeignet um die leistung in aktuellen spielen zu zeigen. vom 2k3 wendet sich nvidia jetzt ab und gibt diese gruende an. warum hat man das nicht beim 2k1 gesagt? wuerde mich nicht wundern wenn 2k5 wieder ganz auf der linie von nvidia liegt und sehr zu empfehlen ist.
Originally posted by Unregistered
Ich frage mich halt warum nVIDIA nur 1.3 bei der GeForce4 genutzt hat und nicht gleich 1.4. Weil es verdammt große Unterschiede zwischen 1.3 und 1.4 gibt.
1.3 ist 1.2 mit Z-korrektem Bump Mapping, und 1.2 ist eine gerinfügig verbesserte 1.1-Version, welche wiederum nur eine recht zaghafte Erweiterung zu 1.0 darstellt.
1.4 setzt auf völlig anderen Prinzipien auf, nVidia hätte nur für diese eine Karte die Pipelines neu entwerfen müssen.
Originally posted by Unregistered
Sorry aber für ein Weltunternehmen sind die Aktionen in letzter Zeit mehr als Heavy und zeigt die unreife von nVIDIA deutlich. Die Kritik von nV am 3DMark ist zwar verwirrend plötzlich, bleibt imo dennoch berechtigt.
Andre
2003-02-12, 10:27:23
Ich stimme aths mal vollkommen zu, das erspart mir Schreibarbeit.
Ein Wort noch wrdaniel:
"warum hat man das nicht beim 2k1 gesagt?"
Ich kann zwar net für NV sprechen, aber ich sags mal so:
Jetzt mal von den Marktingeffekten des 2001er 3DMark mal abgesehen, ist doch eins wohl deutlich geworden:
Die Punktezusammensetzung und Gewichtung der Benchmarks im 03er ist ein Witz.
Ich zitiere:
"Mit einem P4 2,4 GHz, Geforce4 Ti-4600 und 512 MB DDR-RAM gemacht wurden. Übrigens erzielten wir mit diesem System rund 1200 Punkte. Mit einem zweiten Testsystem, einem Athlon 1400 und einer Geforce4 Ti-4200 erreichten wir mit 1100 Punkten fast genau so viel, was zeigt, dass der 3DMark03 doch insgesamt wenig aussagekräftig ist."
Und genau da liegt IMHO das Problem - die CPU, und sind wir mal ehrlich, welches Game in letzter Zeit ist nicht CPU-abhängig?, spielt kaum oder nur eine geringe Rolle.
Das war beim 02er ganz anders.
Manche Scenes waren CPU-, manche Graka-abhängig.
Will mir einer erzählen, dass ein P4 mit 2,6 GHZ und ner 9700 Pro VIER- FÜNFMAL so schnell ist, wie der gleiche Prozessor mit ner TI 4600?
Das will mir nicht einleuchten und diese derart unverständlichen Abweichungen gabs beim 02er nicht.
BlackBirdSR
2003-02-12, 10:32:02
Originally posted by aths .
Die Kritik von nV am 3DMark ist zwar verwirrend plötzlich, bleibt imo dennoch berechtigt.
stimmt.
dennoch sollte man Nvidia nicht erlauben den ganzen Bench als sinnlos abzuschreiben.
Ich hab nichts dagegen wenn er als Volksbench, der alleine über den Kauf einer Grafikkarte entscheidet, nichts zu sagen hat.
Aber er sollte nicht einfach verschwinden weil es keine Engines dazu gibt, die gleicher Ergebnisse bringen würden.
Es bleibt ein Benchmark wie jeder Andere auch, er gewichtet jetzt nur sehr viel weniger.
Ansonsten kippt ja auch keiner Aquanox aus dem Programm ,nur weil es unter all den Engines, die Vertex Shader bisher am effektivsten genutzt hat.
Insgesamt bin ich eigentlich zufrieden; wie es aussieht könnte die Flut von 3dmark threads langsam versiegen, kann sich eh jeder am Grafikchip seine Punkte ausmalen..
könnte man eigentlich gleich wie bei Intel damals der IComp Index, auf die Karte kleben *g*
Unregistered
2003-02-12, 10:35:42
Originally posted by aths
Weil es verdammt große Unterschiede zwischen 1.3 und 1.4 gibt.
1.3 ist 1.2 mit Z-korrektem Bump Mapping, und 1.2 ist eine gerinfügig verbesserte 1.1-Version, welche wiederum nur eine recht zaghafte Erweiterung zu 1.0 darstellt.
1.4 setzt auf völlig anderen Prinzipien auf, nVidia hätte nur für diese eine Karte die Pipelines neu entwerfen müssen.
Die Kritik von nV am 3DMark ist zwar verwirrend plötzlich, bleibt imo dennoch berechtigt.
Keine Frage habe gerade den Thread im Technologie Forum gelesen aber von reife sehe ich dennoch leider nichts.
Aber nagglai hat ja erwähnt das sich nVIDIA als Beta Tester hat streichen lassen.
Wegen was?
Weil das Ergebniss nicht mehr Repräsentativ ist, weil PS 1.4 genutzt wird.
Komm sei ehrlich aths, jetzt Futuremark deswegen einen Korb geben zeigt eher von einer beleidigten Leberwurst als plötzlich auf Gamernähe zu plädieren.
Wenn das Unternehmen Stil hätte würden die den 3DMark kommentarlos schlucken und sehen das die Performance im PS 1.4 gesteigert wird.
(freilich kann man nicht von heute auf morgen die Pipelines ändern.)
Ist auch nicht notwendig da die nVIDIA Treiberentwickler eigentlich immer fette Leistungsteigerung gebracht haben.
Wie es der neue Deto 42.63 ??? zeigt ist die Performance beim 3DMark angestiegen und hat die 9700 leicht überholt.
Hinweisen das der Bench nichts taugt ist ok aber nicht gleich auf FutureMark und ATi rumhacken weil PS1.4 verwendet wird.
Am besten finde ich die Ansage das die Lösung von FutureMark ineffizient ist, da Doom3 anders aufgebaut ist.
Stimmt Doom3 ist anders und zwar von der Schnittstelle die nennt sich OpenGL.
Erwähnt wird aber nicht das die FX mit einen eigenen Renderpfad besser performt was eine niedriger FP hat. :D
Genauso kann man sagen das dann hier die Ergebnisse nicht repräsentativ sind da Unterschiedliche Pfade verwendet werden.
Gruss Labberlippe
Unregistered
2003-02-12, 10:38:42
Originally posted by Andre
Ich stimme aths mal vollkommen zu, das erspart mir Schreibarbeit.
Ein Wort noch wrdaniel:
"warum hat man das nicht beim 2k1 gesagt?"
Ich kann zwar net für NV sprechen, aber ich sags mal so:
Jetzt mal von den Marktingeffekten des 2001er 3DMark mal abgesehen, ist doch eins wohl deutlich geworden:
Die Punktezusammensetzung und Gewichtung der Benchmarks im 03er ist ein Witz.
Ich zitiere:
"Mit einem P4 2,4 GHz, Geforce4 Ti-4600 und 512 MB DDR-RAM gemacht wurden. Übrigens erzielten wir mit diesem System rund 1200 Punkte. Mit einem zweiten Testsystem, einem Athlon 1400 und einer Geforce4 Ti-4200 erreichten wir mit 1100 Punkten fast genau so viel, was zeigt, dass der 3DMark03 doch insgesamt wenig aussagekräftig ist."
Und genau da liegt IMHO das Problem - die CPU, und sind wir mal ehrlich, welches Game in letzter Zeit ist nicht CPU-abhängig?, spielt kaum oder nur eine geringe Rolle.
Das war beim 02er ganz anders.
Manche Scenes waren CPU-, manche Graka-abhängig.
Will mir einer erzählen, dass ein P4 mit 2,6 GHZ und ner 9700 Pro VIER- FÜNFMAL so schnell ist, wie der gleiche Prozessor mit ner TI 4600?
Das will mir nicht einleuchten und diese derart unverständlichen Abweichungen gabs beim 02er nicht.
Unverhältnismäßige Abweichungen zwischen dx7 und dx8 Karten gabs schon, wenn auch vielleicht nicht so extrem.
Unregistered
2003-02-12, 10:41:37
Originally posted by Andre
Ich stimme aths mal vollkommen zu, das erspart mir Schreibarbeit.
Ein Wort noch wrdaniel:
"warum hat man das nicht beim 2k1 gesagt?"
Ich kann zwar net für NV sprechen, aber ich sags mal so:
Jetzt mal von den Marktingeffekten des 2001er 3DMark mal abgesehen, ist doch eins wohl deutlich geworden:
Die Punktezusammensetzung und Gewichtung der Benchmarks im 03er ist ein Witz.
Ich zitiere:
"Mit einem P4 2,4 GHz, Geforce4 Ti-4600 und 512 MB DDR-RAM gemacht wurden. Übrigens erzielten wir mit diesem System rund 1200 Punkte. Mit einem zweiten Testsystem, einem Athlon 1400 und einer Geforce4 Ti-4200 erreichten wir mit 1100 Punkten fast genau so viel, was zeigt, dass der 3DMark03 doch insgesamt wenig aussagekräftig ist."
Und genau da liegt IMHO das Problem - die CPU, und sind wir mal ehrlich, welches Game in letzter Zeit ist nicht CPU-abhängig?, spielt kaum oder nur eine geringe Rolle.
Das war beim 02er ganz anders.
Manche Scenes waren CPU-, manche Graka-abhängig.
Will mir einer erzählen, dass ein P4 mit 2,6 GHZ und ner 9700 Pro VIER- FÜNFMAL so schnell ist, wie der gleiche Prozessor mit ner TI 4600?
Das will mir nicht einleuchten und diese derart unverständlichen Abweichungen gabs beim 02er nicht.
Hier geht die Diskussion ja darum wieso nVIDIA plötzlich nichts mehr von FutureMark hält.
Das die Ergebnisse von allen 3DMarks bis jetzt fürn A war ist eh bekannt.
Futuremark hat hier eindeutig zu Graka lastig geproggt.
(was aufs kommende Doom3 vielleicht aber doch nicht so blöd ist.)
Du sagst jetzt selbst das Du nicht verstehst wieso eine R9700 schneller ist.
Da muss ich aber sagen das damals beim 3DMark2000 auch nichts anderes war.
Da sind die T&L Karten auch mächtig abgezogen der Rest war Punktemässig weit abgeschlagen.
(V5 zum Bleistift.)
Gruss Labberlippe
GloomY
2003-02-12, 10:49:00
Originally posted by wrdaniel
alle 3d marks waren wenig geeignet um die leistung in aktuellen spielen zu zeigen. vom 2k3 wendet sich nvidia jetzt ab und gibt diese gruende an. warum hat man das nicht beim 2k1 gesagt?Ganz einfach: Weil es ihnen damals in den Kram gepasst hat. Damals warf der 3DMark ein positives Licht auf die nV-Karten, während andere Konkurrenzprodukte einknickten.
Jetzt ist das eben nicht mehr der Fall und schwupps distanziert man sich davon, in dem man die Argumente der früheren Gegner einfach selbst verwendet.
So etwas ist imho nicht sehr überzeugend und zeigt einfach, dass es nVidia nur darum geht, wie gut ihre Produkte in der Öffentlichkeit darstehen.
Es geht also schlichtweg ums Geld, und da scheint nVidia jedes Mittel Recht zu sein.
btw: Hab' ich schon erwähnt, dass ich solche Art von Kapitalismus nicht gutheissen kann?
Originally posted by wrdaniel
wuerde mich nicht wundern wenn 2k5 wieder ganz auf der linie von nvidia liegt und sehr zu empfehlen ist. Genau.
Radeonator
2003-02-12, 10:50:02
Komisch das die Besitzer sowie die Firmen, die in einem solchen Bench Sh1c3 abschneiden Meckern...;)
Das gleiche geseier gabs seit dem 99er Benchmark von der VerrücktenZwiebel . Ihr sucht doch förmlich nach Gründen zum Meckern, egal um welche Benches es geht. Immer wenn die Lieblingsfirma Sh1c3 abschneidet "wurde dies und jenes nicht richtig" gemacht. HINT : Machts doch selber besser und liefert den perfekten Bench überhaupt...könnt ihr nicht??? Gibts nicht !!!
IMO wird 3dMurks 2003 sich dursetzen, egal wer hier rumweint. Das NV allen Grund zum heulen hat, haben die sich wohl selbst zuzu schreiben, da können die VerrücktenZwiebeln nichts für. Die Kritik ist IMO unberechtigt und gleicht eher dem verzweifelten Griff nach dem Strohalm. Der 3dMurks war schon immer dazu da, um GRAKAS zu testen und der neue ist darin besser als all seine Vorgänger...
Exxtreme
2003-02-12, 10:50:48
Schliesse mich LL an (was einige wohl gar nicht wundern wird ;)).
3DMurks war schon immer für'n Arsch als Benchmark nur warum kommt jetzt plötzlich bei NV diese Einsicht? Vielleicht weil man sich von der Konkurrenz nicht absetzen kann?
Als damals beim 3DMurks2k die GF1/2-Karten mächtig abgezogen sind ggü. der Voodoo5 war anscheinend alles in Ordnung, da 3DMurks2k von der T&L-Engine überstark profitierte. Als 3DMurks2k1 rauskam, gab es keine Spiele, die vom PS1.1 profitierten, also zieht diese Ausrede IMHO nicht.
Andre
2003-02-12, 10:58:29
Hi LL,
"Hier geht die Diskussion ja darum wieso nVIDIA plötzlich nichts mehr von FutureMark hält.
Das die Ergebnisse von allen 3DMarks bis jetzt fürn A war ist eh bekannt."
Ja, aber nichts anderes habe ich - zumindest versucht :) - auszudrücken.
"Futuremark hat hier eindeutig zu Graka lastig geproggt.
(was aufs kommende Doom3 vielleicht aber doch nicht so blöd ist.)"
OK.
"Du sagst jetzt selbst das Du nicht verstehst wieso eine R9700 schneller ist."
Na klar verstehe ich das.
Die R9700 ist das Topprodukt im Moment, ist doch klar. Dann soll sie auch in dem 3DMark gewinnen, keine Frage.
Aber doch bitte nicht um den Faktor 5, denn der ist weit weg jeglicher Realität.
"Da muss ich aber sagen das damals beim 3DMark2000 auch nichts anderes war.
Da sind die T&L Karten auch mächtig abgezogen der Rest war Punktemässig weit abgeschlagen.
(V5 zum Bleistift.)"
Da gebe ich dir eingeschränkt Recht.
Dennoch waren die Unterschiede nicht derart krass, du konntest mit ner starken CPU gut punkten.
Die Kritkpunkte von NV (egal aus welchen Gründen sie jetzt kommen mögen) sind stichaltig IMHO.
Nochmal, bevor ich wieder wieder zugeflamed werde (...was ja in Mode kommt, wenn man irgendwas pro-NV sagen könnte):
Mir gehts nicht darum, NV bis auf biegen und brechen zu verteidigen.
Ich sehe es nur so:
Wenn NV die Vergleichbarkeit und Aussagekraft als großer Grakahersteller ENDLICH mal offiziell in Frage stellt, habe ich Hoffung, dass solche Bananen-Benchmarks weniger in den Reviews auftauchen und die Reviews wieder stichhaltiger werden.
Demirug
2003-02-12, 10:58:41
Originally posted by Unregistered
Keine Frage habe gerade den Thread im Technologie Forum gelesen aber von reife sehe ich dennoch leider nichts.
Aber nagglai hat ja erwähnt das sich nVIDIA als Beta Tester hat streichen lassen.
Wegen was?
Weil das Ergebniss nicht mehr Repräsentativ ist, weil PS 1.4 genutzt wird.
Komm sei ehrlich aths, jetzt Futuremark deswegen einen Korb geben zeigt eher von einer beleidigten Leberwurst als plötzlich auf Gamernähe zu plädieren.
Wenn das Unternehmen Stil hätte würden die den 3DMark kommentarlos schlucken und sehen das die Performance im PS 1.4 gesteigert wird.
(freilich kann man nicht von heute auf morgen die Pipelines ändern.)
Ist auch nicht notwendig da die nVIDIA Treiberentwickler eigentlich immer fette Leistungsteigerung gebracht haben.
Wie es der neue Deto 42.63 ??? zeigt ist die Performance beim 3DMark angestiegen und hat die 9700 leicht überholt.
Hinweisen das der Bench nichts taugt ist ok aber nicht gleich auf FutureMark und ATi rumhacken weil PS1.4 verwendet wird.
Am besten finde ich die Ansage das die Lösung von FutureMark ineffizient ist, da Doom3 anders aufgebaut ist.
Stimmt Doom3 ist anders und zwar von der Schnittstelle die nennt sich OpenGL.
Erwähnt wird aber nicht das die FX mit einen eigenen Renderpfad besser performt was eine niedriger FP hat. :D
Genauso kann man sagen das dann hier die Ergebnisse nicht repräsentativ sind da Unterschiedliche Pfade verwendet werden.
Gruss Labberlippe
Was hat man den als Beta Tester? Arbeit. Und wenn NVIDIA jetzt eben der Meinung ist das sie sich nicht mehr die Arbeit machen wollen dann ist das doch ein legetimes Recht. Der neue 3dmark hat nun mal jeden bezug zur Realität verloren. Beim alten wurde zumindestens noch eine "normale" Gameengine als Basis benutzt. Beim neuen wurde direkt auf DX aufgesetzt. Das ganze erinnert mich dadurch eher an eine Ansammlung von Demos welche am Schluss ein Ergebniss produzieren.
Das NVIDIA das mit den PS 1.4 nicht schmeckt kann ich verstehen. Währe sicher mal interesant zu sehen was passiert wenn man die FX auf die PS 1.1 zwingt. Das Problem bei den PS 1.4 für die FX ist das man sie über die FP Einheiten laufen lassen muss und sie zudem nicht besonders gut zur Architektur der FX passen. Mit den neuen Detos hat man wohl den PS-Compiler für 1.4 etwas verbessert. Möglicherweise ist da noch ein bischen was zu holen. Aber in wie weit sich das nur für den 3dmark lohnt?
Bei der DOOM III Kritik ging es wohl eher darum das Futuremark das Schattenverfahren von DOOM III nachbauen wollte sich aber dabei auf einen von der DOOM III Technik abweichenden Weg begeben hat der nach Ansicht von NVIDIA ineffektiv ist. Ob das Verfahren nun mit OpenGL oder D3D umgesetzt wird spielt dabei keine Rolle. Zudem sollte es beim Schatten zwischen R300 und NV30 keinen unterschied geben da sie beide die gleiche Extension bezüglich Two-Side Stencil unterstützen.
Andre
2003-02-12, 11:02:28
Radeonator,
"Komisch das die Besitzer sowie die Firmen, die in einem solchen Bench Sh1c3 abschneiden Meckern...;)"
Ich glaube, du hast (mal wieder) die Posts weder gelesen noch verstanden.
"Immer wenn die Lieblingsfirma Sh1c3 abschneidet "wurde dies und jenes nicht richtig" gemacht. HINT : Machts doch selber besser und liefert den perfekten Bench überhaupt...könnt ihr nicht??? Gibts nicht !!!"
Ich schalge da jetzt einfach mal die Benchfunktionen der meisten Games vor - die sind verdammt realitätsnah.
"IMO wird 3dMurks 2003 sich dursetzen, egal wer hier rumweint."
Das würde ich so nicht sehen.
"Das NV allen Grund zum heulen hat, haben die sich wohl selbst zuzu schreiben, da können die VerrücktenZwiebeln nichts für."
Wer hat 3DMark entwickelt?
NV oder Madonion?
"Die Kritik ist IMO unberechtigt und gleicht eher dem verzweifelten Griff nach dem Strohalm. Der 3dMurks war schon immer dazu da, um GRAKAS zu testen und der neue ist darin besser als all seine Vorgänger..."
Ahhhh, ja.
Nur seltsam, dass Futuremark bisher eine ganz andere Strategie gefaharen hat, aber seis drum.
Unregistered
2003-02-12, 11:02:44
Der 3dMark ist insofern unrealistisch, als das er nicht die überwiegend Nvida-optimierte Gamerwelt wiederspiegelt sondern die wirkliche Leistungsfähigkeit einer Grafikkarte zeigt.
Dass da Nividia nicht schmeckt kann ich verstehen, ob es gerecht ist ist schwer zu sagen. IMHO hat der Zwiebelmurks mitgeholfen, Nvidia gross zu machen, dass sie jetzt die beleidigte Leberwurst spielen, bäähhh.
Labberlippe
2003-02-12, 11:03:15
Originally posted by Andre
Hi LL,
"Hier geht die Diskussion ja darum wieso nVIDIA plötzlich nichts mehr von FutureMark hält.
Das die Ergebnisse von allen 3DMarks bis jetzt fürn A war ist eh bekannt."
Ja, aber nichts anderes habe ich - zumindest versucht :) - auszudrücken.
"Futuremark hat hier eindeutig zu Graka lastig geproggt.
(was aufs kommende Doom3 vielleicht aber doch nicht so blöd ist.)"
OK.
"Du sagst jetzt selbst das Du nicht verstehst wieso eine R9700 schneller ist."
Na klar verstehe ich das.
Die R9700 ist das Topprodukt im Moment, ist doch klar. Dann soll sie auch in dem 3DMark gewinnen, keine Frage.
Aber doch bitte nicht um den Faktor 5, denn der ist weit weg jeglicher Realität.
"Da muss ich aber sagen das damals beim 3DMark2000 auch nichts anderes war.
Da sind die T&L Karten auch mächtig abgezogen der Rest war Punktemässig weit abgeschlagen.
(V5 zum Bleistift.)"
Da gebe ich dir eingeschränkt Recht.
Dennoch waren die Unterschiede nicht derart krass, du konntest mit ner starken CPU gut punkten.
Die Kritkpunkte von NV (egal aus welchen Gründen sie jetzt kommen mögen) sind stichaltig IMHO.
Nochmal, bevor ich wieder wieder zugeflamed werde (...was ja in Mode kommt, wenn man irgendwas pro-NV sagen könnte):
Mir gehts nicht darum, NV bis auf biegen und brechen zu verteidigen.
Ich sehe es nur so:
Wenn NV die Vergleichbarkeit und Aussagekraft als großer Grakahersteller ENDLICH mal offiziell in Frage stellt, habe ich Hoffung, dass solche Bananen-Benchmarks weniger in den Reviews auftauchen und die Reviews wieder stichhaltiger werden.
Der grosse Punkteabstand ergibt sich wiedereinmal aus der behämmerten Punkte errechnung von FutureMark.
Das gehört auch Kritisiert.
Die Argumente sind schon ok für mich.
Nur wie gesagt so wie nVIDIA es wiedereinmal deutlich zeigt können die Burschen nicht verlieren.
Vorallem wie versucht wird zu Argumentieren.
Jahrelang wurde dennen die Stange gehalten und wenn es plötzlich nicht mehr passt wird kritisiert und auf die anderen gepfiffen.
Um mehr geht es mir nicht.
Gruss Labberlippe
Andre
2003-02-12, 11:05:03
Originally posted by Exxtreme
3DMurks war schon immer für'n Arsch als Benchmark nur warum kommt jetzt plötzlich bei NV diese Einsicht? Vielleicht weil man sich von der Konkurrenz nicht absetzen kann?
Als damals beim 3DMurks2k die GF1/2-Karten mächtig abgezogen sind ggü. der Voodoo5 war anscheinend alles in Ordnung, da 3DMurks2k von der T&L-Engine überstark profitierte. Als 3DMurks2k1 rauskam, gab es keine Spiele, die vom PS1.1 profitierten, also zieht diese Ausrede IMHO nicht.
Ja, du hast ja nicht Unrecht.
Nur trotzdem bleibt es dabei:
Die Aussage von NV kann ich nur unterstützen als Gamer, ist mir doch latte, was bei denen der Hintergrund ist (um es platt zu formulieren).
Andre
2003-02-12, 11:07:05
Originally posted by Labberlippe
Der grosse Punkteabstand ergibt sich wiedereinmal aus der behämmerten Punkte errechnung von FutureMark.
Das gehört auch Kritisiert.
Die Argumente sind schon ok für mich.
Nur wie gesagt so wie nVIDIA es wiedereinmal deutlich zeigt können die Burschen nicht verlieren.
Vorallem wie versucht wird zu Argumentieren.
Jahrelang wurde dennen die Stange gehalten und wenn es plötzlich nicht mehr passt wird kritisiert und auf die anderen gepfiffen.
Um mehr geht es mir nicht.
Gruss Labberlippe
OK, wir können uns sicher darauf einigen, dass NVs Statement nicht nur aus Liebe zu den Gamern entstanden ist =)
Unregistered
2003-02-12, 11:09:22
Originally posted by Unregistered
Der 3dMark ist insofern unrealistisch, als das er nicht die überwiegend Nvida-optimierte Gamerwelt wiederspiegelt sondern die wirkliche Leistungsfähigkeit einer Grafikkarte zeigt.
Dass da Nividia nicht schmeckt kann ich verstehen, ob es gerecht ist ist schwer zu sagen. IMHO hat der Zwiebelmurks mitgeholfen, Nvidia gross zu machen, dass sie jetzt die beleidigte Leberwurst spielen, bäähhh.
Ebenso glaub ich die Mähr vom bösen PS 1.4 nicht. Jemand hat mit dem 2.5 Cat gebencht und dadurch ca. 1000 Punkte weniger gehabt, weil die Nature-Szene fehlt.
Das sind dann ca. 3600 Punkte der R9700 nonpro zu 1800 der Ti4600/4800.
Das spiegelt doch auch in etwa den reelen Leistungsunterschied wieder, der sich bisher natürlich nur bei erhöhten Anforderungen (AA/AF) widergespiegelt hat, da der alte 3dMark zum Schluss CPU-limitiert war.
Labberlippe
2003-02-12, 11:12:00
Originally posted by Demirug
Was hat man den als Beta Tester? Arbeit. Und wenn NVIDIA jetzt eben der Meinung ist das sie sich nicht mehr die Arbeit machen wollen dann ist das doch ein legetimes Recht. Der neue 3dmark hat nun mal jeden bezug zur Realität verloren. Beim alten wurde zumindestens noch eine "normale" Gameengine als Basis benutzt. Beim neuen wurde direkt auf DX aufgesetzt. Das ganze erinnert mich dadurch eher an eine Ansammlung von Demos welche am Schluss ein Ergebniss produzieren.
Das NVIDIA das mit den PS 1.4 nicht schmeckt kann ich verstehen. Währe sicher mal interesant zu sehen was passiert wenn man die FX auf die PS 1.1 zwingt. Das Problem bei den PS 1.4 für die FX ist das man sie über die FP Einheiten laufen lassen muss und sie zudem nicht besonders gut zur Architektur der FX passen. Mit den neuen Detos hat man wohl den PS-Compiler für 1.4 etwas verbessert. Möglicherweise ist da noch ein bischen was zu holen. Aber in wie weit sich das nur für den 3dmark lohnt?
Bei der DOOM III Kritik ging es wohl eher darum das Futuremark das Schattenverfahren von DOOM III nachbauen wollte sich aber dabei auf einen von der DOOM III Technik abweichenden Weg begeben hat der nach Ansicht von NVIDIA ineffektiv ist. Ob das Verfahren nun mit OpenGL oder D3D umgesetzt wird spielt dabei keine Rolle. Zudem sollte es beim Schatten zwischen R300 und NV30 keinen unterschied geben da sie beide die gleiche Extension bezüglich Two-Side Stencil unterstützen.
Keine Frage wenn man nicht mehr die Arbeit haben will und deswegen den Beta Tester aufgibt dann ist es legitm.
Mich wundert nur mal wieder der Zeitpunkt wo nVIDIA dieses quasi verkündet.
Das PS1.4 nVIDIA nicht passt ist mir schon klar nur denke ich mir halt meinen Teil.
Mit "PS2.0+" hat nVIDIA wieder versucht ein eigenes Süppchen zu kochen ohne Rücksicht auf Verluste.
Von der Entwicklung her sicher flexibel keine Frage aber mir drängt sich der Verdacht auf das nVIDIA nicht schnell genug war genauere Daten über den FX FutureMark zu geben.
Dadurch wurde leider nicht PS2.0+ integriert.
Kurz ich glaube das der Zeitplan einfach nicht gepasst hat und jetzt wird gemeckert.
Die Frage ist wie ineffektiv ist die Schattenberechnung wirklich, das werden wir aber bald sehen wenn Doom3 da ist.
Ich bin gespannt was da jetzt noch rauskommen wird.
wrdaniel
2003-02-12, 11:12:09
fuer mich auch eine frage warum nvidia im dezember ausgestiegen ist. also 2-3 monate vor fertigstellung. mit welchem produkt hat man da womoeglich getestet?
die gf4 hat sich sehr gut verkauft und ist durchaus eine leistungsfaehige karte, aber wie will man denen den dann die neuen karten andrehen? richtig, in dem man eine noch viel bessere karte hat die im 2k3 alles schlaegt und die man jetzt unbedingt braucht weil man das bald in den neuen spielen sehen wird.
als man dann merkte das man sich vielleicht doch zu sehr auf den staubsaugermarkt konzentriert hatte und die FX vielleicht doch nicht so performed wie man sich das gedacht hat, wird eben mal schnell kurz vorher die beziehung abgebrochen und der 2k3 gebranntmarkt.
sicherlich ist der 2k3 nicht ideal, das heisst aber nicht das er "bescheiden" ist, sondern sich die frage stellt wie man ihn einsetzt.
wenn das gute stueck wieder 2 jahre auf dem markt bleibt, wie sieht es dann aus? dann haben vielleicht alle wieder 10k+ punkte und die welt ist ok.
Unregistered
2003-02-12, 11:15:44
Originally posted by Andre
Ja, du hast ja nicht Unrecht.
Nur trotzdem bleibt es dabei:
Die Aussage von NV kann ich nur unterstützen als Gamer, ist mir doch latte, was bei denen der Hintergrund ist (um es platt zu formulieren).
Wenn das so weiter geht sind die Games bald auch ein wenig besser auf ATi zugeschnitten als bisher, und dann gibt der 3d-Mark superrealistische Vergleiche aus. Ist ja schliesslich auch ein wenig für die Zukunft gemacht.:D
Ausserdem macht die Futuremark-Crew gerade Nvidias 4 Jahre altes Versprechen wahr, dass die fixed T&L/Vertex-Shader die CPU deutlich entlasten.
Warum sich das die Game-Progger nicht trauen, sieht man ja deutlich an den Ergebnissen der Basis. Nvidias Versprechen diesbezüglich war also mal wieder wenig mehr als heisse Luft.
Unregistered
2003-02-12, 11:19:25
Originally posted by Demirug
Was hat man den als Beta Tester? Arbeit. Und wenn NVIDIA jetzt eben der Meinung ist das sie sich nicht mehr die Arbeit machen wollen dann ist das doch ein legetimes Recht. Der neue 3dmark hat nun mal jeden bezug zur Realität verloren. Beim alten wurde zumindestens noch eine "normale" Gameengine als Basis benutzt. Beim neuen wurde direkt auf DX aufgesetzt. Das ganze erinnert mich dadurch eher an eine Ansammlung von Demos welche am Schluss ein Ergebniss produzieren.
Das NVIDIA das mit den PS 1.4 nicht schmeckt kann ich verstehen. Währe sicher mal interesant zu sehen was passiert wenn man die FX auf die PS 1.1 zwingt. Das Problem bei den PS 1.4 für die FX ist das man sie über die FP Einheiten laufen lassen muss und sie zudem nicht besonders gut zur Architektur der FX passen. Mit den neuen Detos hat man wohl den PS-Compiler für 1.4 etwas verbessert. Möglicherweise ist da noch ein bischen was zu holen. Aber in wie weit sich das nur für den 3dmark lohnt?
Bei der DOOM III Kritik ging es wohl eher darum das Futuremark das Schattenverfahren von DOOM III nachbauen wollte sich aber dabei auf einen von der DOOM III Technik abweichenden Weg begeben hat der nach Ansicht von NVIDIA ineffektiv ist. Ob das Verfahren nun mit OpenGL oder D3D umgesetzt wird spielt dabei keine Rolle. Zudem sollte es beim Schatten zwischen R300 und NV30 keinen unterschied geben da sie beide die gleiche Extension bezüglich Two-Side Stencil unterstützen.
Warum muss eigentlich immer alles so geproggt werden, dass es Nvidias (eingeschränkter) Architektur genau in den Kram passt?! Weil die GameProgger das auch so machen?
Schöne Welt. Dann war ATi ja bisher ein wahrer Allround-Meister, und keiner hats gewürdigt.
Labberlippe
2003-02-12, 11:20:27
Originally posted by Unregistered
Wenn das so weiter geht sind die Games bald auch ein wenig besser auf ATi zugeschnitten als bisher, und dann gibt der 3d-Mark superrealistische Vergleiche aus. Ist ja schliesslich auch ein wenig für die Zukunft gemacht.:D
Ausserdem macht die Futuremark-Crew gerade Nvidias 4 Jahre altes Versprechen wahr, dass die fixed T&L/Vertex-Shader die CPU deutlich entlasten.
Warum sich das die Game-Progger nicht trauen, sieht man ja deutlich an den Ergebnissen der Basis. Nvidias Versprechen diesbezüglich war also mal wieder wenig mehr als heisse Luft.
Heisse Luft würde ich nicht gerade sagen.
Die Entwickler wollen Ihre Produkte auch verkaufen und da ist man gezwungen Rücksicht auf die User zu nehmen welche ältere HW Besitzen.
Gruss Labberlippe
Unregistered
2003-02-12, 11:21:12
Originally posted by Labberlippe
Mit "PS2.0+" hat nVIDIA wieder versucht ein eigenes Süppchen zu kochen ohne Rücksicht auf Verluste.
Full Ack.
nggalai
2003-02-12, 11:23:29
Hi there,
Originally posted by egdusp
Wenn der NV30 beim VertexShader wirklich so schlecht ist, warum zieht die QuadroFx dann die FireGl so ab? Ich dachte bei profesionellen Karten ist die VertexShader Leistung besonders wichtig.Nein, professionelle Karten profitieren vorwiegend von hoher TnL-Leistung nach DX7. Und da ist die NV30 sehr schnell.
Zum Topic:
Ich kann NV sehr gut verstehen, da ich vom 3DMark als "Benchmark" (i.e. die Gametests als Aussage zur Spieleleistung) nie was hielt. Kyro-II vs/ GF2MX beim 3DMark2001 nur mal als Beispiel erwähnt. Und der 3DMark03 ist in Sachen Aussagekraft nochmals deutlich schlechter als die vorhergehenden 3DMarks. Andererseits wirkt's schon ein wenig komisch, dass NV sich erst "jetzt" (Dezember), als abzusehen war wie die GFFX performen wird (mit den Original-Treibern), von Futuremark abzuwenden scheint.
Eines sollte man aber noch sagen: nur weil NV sich aus der publizierten Betatester-Liste austragen liess, heisst noch lange nicht, dass sie Futuremark endgültig den Rücken zukehren. Die Leute wissen auch, dass in Zukunft viele, viele Graka-Reviews den 3DMark03 verwenden werden. Und als Grafikkarten-Test taugt das Ding ja auch was.
ta,
-Sascha.rb
Salvee
2003-02-12, 11:26:11
Es sind Millionen von Karten im Umlauf, die PS1.4 beherrschen, dass keine einzige nV Karte dabei ist,
haben sie sich doch wohl nur selbst zuzuschreiben.
Was mich allerdings verwundert, ist die Tatsache, dass kein PS2.0+ Test dabei ist.
Welche Gründe könnt Futuremark gehabt haben, dieses Feature aussen vor zu lassen?
Exxtreme
2003-02-12, 11:28:16
Originally posted by Salvee
Was mich allerdings verwundert, ist die Tatsache, dass kein PS2.0+ Test dabei ist.
Welche Gründe könnt Futuremark gehabt haben, dieses Feature aussen vor zu lassen?
PS2.0+ ist AFAIR ein "NV-Standard" und kein DX-Standard wie der PS1.4.
Unregistered
2003-02-12, 11:32:33
Originally posted by Exxtreme
PS2.0+ ist AFAIR ein "NV-Standard" und kein DX-Standard wie der PS1.4.
Schonmal ne Karte mit dem Feature gesehen?;)
x-dragon
2003-02-12, 11:37:11
Originally posted by Unregistered
Schonmal ne Karte mit dem Feature gesehen?;) Auf ein ein paar Bildern im Internet und in Zeitschriften, ja :).
Demirug
2003-02-12, 11:37:43
Originally posted by Exxtreme
PS2.0+ ist AFAIR ein "NV-Standard" und kein DX-Standard wie der PS1.4.
Klar sind PS 2.0+ ein DX-Standard. Ganz offiziel nennen sie sich zwar PS 2.0 Extended aber das ist schon das gleiche. Natürlich wurden sie auf Wunsch von NVIDIA eingebaut aber ATI hat ja damals auch die PS 1.4 bekommen.
Unregistered
2003-02-12, 11:39:49
Originally posted by Demirug
Klar sind PS 2.0+ ein DX-Standard. Ganz offiziel nennen sie sich zwar PS 2.0 Extended aber das ist schon das gleiche. Natürlich wurden sie auf Wunsch von NVIDIA eingebaut aber ATI hat ja damals auch die PS 1.4 bekommen.
Ja und? Hätrte die Jungs von Madonion letztes Jahr dann mal bei Nvidia am Simulator platznehmen sollen?
wrdaniel
2003-02-12, 11:40:16
die unabhaengigkeit vom restlichen system find ich erstmal klasse, wenn sie denn auch wirklich so unabhaengig ist wie sie momentan auch aussieht.
vielleicht kann ich dann auch mal ein review ein karte x auf 2000+ fsb150 mit einem review der karte y auf 2100+ fsb133 einigermassen vergleichen.
wenn ich mir ne grafikkarte holen will interessiert mich nicht das system dahinter, sondern nur die grafikkarte.
Mehrpack
2003-02-12, 11:40:37
hi,
mhh kann diese exhanded einfach erreicht werden wenn bestimmte feature über 2.0 hinausgehn oder kann da jeder einfach mal nen bischen 2.0 bei einem feature übererfüllen und darf das dann exhanded nennen??
Mehrpack
Demirug
2003-02-12, 11:46:01
Originally posted by Unregistered
Ja und? Hätrte die Jungs von Madonion letztes Jahr dann mal bei Nvidia am Simulator platznehmen sollen?
Nein warum? Im DX-SDK ist doch ein entsprechender "Simulator" dabei. Aber um ehrlich zu sein ist mir es auch vollkommen egal ob da nun ein PS 2.0+ Test dabei ist oder nicht. Solange es dann sowieso nur einen Chip geben würde mit der man den Test laufen lassen könnte macht das sowieso keinen Sinn.
x-dragon
2003-02-12, 11:46:36
Originally posted by Mehrpack
hi,
mhh kann diese exhanded einfach erreicht werden wenn bestimmte feature über 2.0 hinausgehn oder kann da jeder einfach mal nen bischen 2.0 bei einem feature übererfüllen und darf das dann exhanded nennen??
Mehrpack Richtig, prinzipiell recht es 2.0 zu erfüllen und dann noch ein klein wenig besser zu sein. Eine darüberhinausgehende Spezifikation gibts es ja noch nicht(z.B. 3.0).
Demirug
2003-02-12, 11:49:57
Originally posted by Mehrpack
hi,
mhh kann diese exhanded einfach erreicht werden wenn bestimmte feature über 2.0 hinausgehn oder kann da jeder einfach mal nen bischen 2.0 bei einem feature übererfüllen und darf das dann exhanded nennen??
Mehrpack
Es gibt einen Satz von Optionen. Wenn man eine davon zusätzlich beherscht darf man sich als Extended fähig schimpfen. Berherscht man alle hat man im Prinzip einen 3.0 Shader. Wenn man aber noch was kann was nicht als Option vorgsehen ist hat man Pech. Sowohl ATI und NVIDIA können in den PS noch ein paar Sachen die nicht durch DX abdeckt werden aber diese zählen für das "Extended" nicht.
Demirug
2003-02-12, 11:50:51
Originally posted by X-Dragon
Richtig, prinzipiell recht es 2.0 zu erfüllen und dann noch ein klein wenig besser zu sein. Eine darüberhinausgehende Spezifikation gibts es ja noch nicht(z.B. 3.0).
Doch 3.0 gibt es. Sowohl für die PS wie auch die VS.
Fragman
2003-02-12, 11:52:45
mal ne frage, schliesst ps 2 nicht automatisch ps 1.4 mit ein?
nv hatte das marketing fuer die fx voll auf photorealistische graphik ausgerichtet und die karte kann nicht ps1.4? verwirrt mich doch ein wenig, sollte die karte doch mehr koennen als die von ati, dass die shader weiter gehen ist mir klar, aber da scheint man doch dann die 1.4 shader vergessen zu haben, auch wenn sie nie offiziell aufgenommen wurden.
ps: war nv nicht immer so stolz auf die hohen 3dmark werte ihrer g4 reihe?
x-dragon
2003-02-12, 11:52:49
Originally posted by Demirug
Doch 3.0 gibt es. Sowohl für die PS wie auch die VS. Achso, die gibts doch schon? Ok, dannn nehme ich den Teil mal zurück :).
Demirug
2003-02-12, 12:03:36
Originally posted by Fragman
mal ne frage, schliesst ps 2 nicht automatisch ps 1.4 mit ein?
nv hatte das marketing fuer die fx voll auf photorealistische graphik ausgerichtet und die karte kann nicht ps1.4? verwirrt mich doch ein wenig, sollte die karte doch mehr koennen als die von ati, dass die shader weiter gehen ist mir klar, aber da scheint man doch dann die 1.4 shader vergessen zu haben, auch wenn sie nie offiziell aufgenommen wurden.
ps: war nv nicht immer so stolz auf die hohen 3dmark werte ihrer g4 reihe?
Die Spezifikation sagt das eine Karte alle Shaderversionen bis zu der höchsten die sie meldet beherschen muss. Wenn die FX also 2.0+ meldet muss sie auch 1.1,1.2,1.3,1.4 und 2.0 Shader ausführen können. Das kann sie auch.
Nun sind die PS 1.4 aber irgendwie ganz anders als der Rest. Sie sind viel weiter von den 1.1-1.3 Shader entfernt als die Nummer (1.4) es vermuten läst. Die 2.0(+) Shader stellen aber keine logische weiterentwicklung der 1.4 Shader da sondern bringen wiederum einen eigenen Satz regeln mit. Für den Kartenhersteller bedeutet das nun das man im Treiber extra Code braucht um die PS 1.4 auf die internen Strukturen des Chips zu übersetzten. Und an dieser Stelle hat sich NVIDIA wohl keine besondere mühe beim optimieren gemacht weil es ja sowieso kaum eine Anwendung gibt die PS 1.4 benutzt.
Mehrpack
2003-02-12, 12:05:40
Originally posted by Demirug
Es gibt einen Satz von Optionen. Wenn man eine davon zusätzlich beherscht darf man sich als Extended fähig schimpfen. Berherscht man alle hat man im Prinzip einen 3.0 Shader. Wenn man aber noch was kann was nicht als Option vorgsehen ist hat man Pech. Sowohl ATI und NVIDIA können in den PS noch ein paar Sachen die nicht durch DX abdeckt werden aber diese zählen für das "Extended" nicht.
hi,
aber am ende ist dieser standart doch realtiv schwammig.
da es ja dadurch viele unterschiedliche extended unterstützungen geben kann, durch die hersteller.
Mehrpack
Oli_Immerschoen
2003-02-12, 12:08:53
Also, mein persönliches Wissen reicht gar nicht aus um die Unterschiede zwischen ps 1.3 und ps 1.4 etc. zu begreifen, eines jedoch möchte auch ich zum Thema beitragen: wenn ich mich recht erinnere war 3dMark 2000 DAS Sprungbrett NVidias an die Spitze und 3DFX´s Sargnagel...der damalige Benchmark hat IMHO entscheidend dazu beigetragen T&L zu hypen und Voodoo-Karten als schlechter darzustellen als sie waren, obwohl hier wohl jeder weiss dass Voodoo-Karten durchaus auch Vorteile gegegnüber GeForce 256 besaßen.
Was ich sagen will: NVidia heult hier ganz klar mit den Wölfen, dient ein Benchmark zu ihrer Profilierung, so wird er bedingungslos gehyped, zeigt er aber Defizite der NVidia-Karten auf, so ist er plötzlich unbrauchbar. Ich habe das Gefühl dass bei NVidia derzeit DRINGEND mal eine Kursfestlegung fällig ist, seit sie Gegenwind bekommen schlingern sie von einer Aussage zur nächsten und verlieren dabei IMHO mehr und mehr an Glaubwürdigkeit.
MfG Olli
Originally posted by Unregistered
Weil das Ergebniss nicht mehr Repräsentativ ist, weil PS 1.4 genutzt wird.
Komm sei ehrlich aths, jetzt Futuremark deswegen einen Korb geben zeigt eher von einer beleidigten Leberwurst als plötzlich auf Gamernähe zu plädieren.
Wenn das Unternehmen Stil hätte würden die den 3DMark kommentarlos schlucken und sehen das die Performance im PS 1.4 gesteigert wird.Ich wäre froh, wenn PS 1.4 mal in Spielen unterstützt würde. Ihn vs. einen Dual-Pass-1.1-er zu benchen, halte ich anbetracht der Situation auf dem Spiele-Markt für sinnlos und Ergebnis verzerrend.
Originally posted by Unregistered
Wie es der neue Deto 42.63 ??? zeigt ist die Performance beim 3DMark angestiegen und hat die 9700 leicht überholt.Vom 41.09 zum 42.82 brachte es bei mir ein wenig mehr Punkte. Da mich diese Punkte allerdings nicht wirklich interessieren (außer, dass ich irgendwann mal die 2000 knacken will, hehe) habe ich jetzt nicht geguckt, wieviel "schneller" der neue Treiber nun ist.
Originally posted by Unregistered
Hinweisen das der Bench nichts taugt ist ok aber nicht gleich auf FutureMark und ATi rumhacken weil PS1.4 verwendet wird. Also, deswegen hackt wohl keiner auf ATI rum. Das wäre auch ziemlich blöde, denn der PixelShader 1.4 ist gezwungenermaßen 1.1 und 1.3 kompatibel, aber letztlich leistungsfähiger. Der 1.4-er Shader ist nicht nur einfach technologisch deutlich weiter als der 1.3-er, er bietet dem Programmierer auch mehr Freiheit, schon alleine durch die 6 Texturen. Hinzu kommt, dass alle Hardware die 1.4 unterstützt, (mindestens) 12 Bit interne Rechengenauigkeit pro Farbkanal hat (PS 1.1 - 1.3: Nur 9 Bit.)
"Futuremark" kann aber nicht behaupten, dass ein Ergebnis aussagekräftig sei, wenn eklatant an der (traurigen!) Wirklichkeit vorbei gebencht wird.
x-dragon
2003-02-12, 12:16:21
Originally posted by Mehrpack
hi,
aber am ende ist dieser standart doch realtiv schwammig.
da es ja dadurch viele unterschiedliche extended unterstützungen geben kann, durch die hersteller.
Mehrpack Als Standard kann man das eigentlich auch nicht bezeichnen und dürfte hauptsächlich für das Marketing interessant sein :).
Hmm... zu dem Spiel mit der Zukunft gehört immer ein bisschen Poker ;)
Futuremark hat extra den alten Name für diese Bench wieder ausgegraben - und das finde ich, ist nicht unbedingt schlecht gemacht. Man wollt hier wohl ein Zeichen setzen. Und war, dass die Zeiten der extremen CPU Belastung der Spielegrafik sich dem Ende nähern.
Jetzt müssen sich plötzlich einge Spielehersteller Fragen stellen lassen, warum das Spiel derart auf die CPU geht und warum die 3DMark03 mit all den Features und 700k+ Polygonen auf einem 1000er mit entsprechender Grafikhardware sehr gut läuft.
Ich finde nicht, dass dies besonders abwegig oder schlecht ist. Es wird einfach Zeit, dass unsere CPUs was anderes machen als Transformationen und Lichtberechnungen, die die Grafikkarten selber machen können. Man zeigt hier wie ich finde ganz deutlich vor allem in Scene 2 und 3, was man aus dem "alten" Vertexshader 1.1 rausholen kann und was bisher eigentlich nirgendwo genutzt wird.
Aquanox mag war nicht das Top Spiel sein, aber man hat sich auf technischer Seite Sehr viel mehr Mühe gegeben als bei anderen Herstellern. Ich denke, auch DoomIII wird den Vertexshader gut auslasten und die CPU gut entlasten.
Wir sehen hier einfach nur den nächsten Schritt, der endlich vollzogen werden muss, nämlich, dass die Grafikberechnungen weiter von der CPU auf die Grafikhardware übergehen.
NV ist in dieser Hinsicht sehr häuchlerisch wie ich finde, sie können nämlich garnicht beurteilen, ob die 3DMark spielerelevant ist, oder nicht. Niemand kann das, aber es ist meiner Meinung nach wahrscheinlich dass die Zwiebeljungs hier goldrichtig liegen. Lange werden sich die Spielehersteller nicht mehr um den Vertexshader herumdrücken können.
Sicher, für momentane Produkte auf dem Markt, hat die neue 3DMark 0 Aussagekraft, aber dafür ist sie auch schliesslich überhaupt nicht gemacht! Sie soll lediglich die ukunftstauglichkeit der Grafikkarten widerspiegeln. Wer der Aussagekraft heutiger Belastender Spiele haben möchte, kann ja auf die 2001SE zurückgreifen - extreme CPU Belastung (Game1 und 3), geteilte Belastung (Game2) und Grafikbelastung bei herkömmlicher Technik (Game4).
Obligatorisch ist, dass die Gesamtpunktahl keine sonderliche Rolle spielt (ausser um prüfen ob das Sys im Rahmen liegt oder für Schwanzvergleiche :D), dass weiss aber jeder anständige Reviewer und auch jeder halbwegs versierte User.
Originally posted by Salvee
Es sind Millionen von Karten im Umlauf, die PS1.4 beherrschen, dass keine einzige nV Karte dabei ist,
haben sie sich doch wohl nur selbst zuzuschreiben.nVidia möchte unter'm Geld verdienen. Aus dieser Sicht heraus ist es verständlich, dass sie 1.4 übersprungen haben. Ob das nun gut oder schlecht ist, jedenfalls war es markttechnisch sinnvoll, an der GF4 Ti nicht so viel zu ändern (was teuer geworden wäre) und den PS 1.4 damals nicht zu unterstützen.
Originally posted by HOT
Lange werden sich die Spielehersteller nicht mehr um den Vertexshader herumdrücken können. Schön wärs.
Es gibt noch sooo viele Grakas, die keinen VS haben. OK, der lässt sich ja nun zum Glück mit der CPU emulieren. Dann allerdings kann der VS kaum zur Entlastung eingesetzt werden, wenn ohnehin nur das getan wird, was auch so mit der CPU möglich wäre.
Demirug
2003-02-12, 12:27:51
Originally posted by Mehrpack
hi,
aber am ende ist dieser standart doch realtiv schwammig.
da es ja dadurch viele unterschiedliche extended unterstützungen geben kann, durch die hersteller.
Mehrpack
Ja die 2.0+ Shader können durchaus noch recht intteresant werden weil bei jedem Hersteller das + was anderes bedeutet. Deswegen sage ich ja immer das die PS 2.0+ primär wohl erst mal nur in Verbindnung mit einer Shader-Hochsprache als Möglichkeit für eine bessere Performances genutzt werden.
Originally posted by Oli_Immerschoen
Ich habe das Gefühl dass bei NVidia derzeit DRINGEND mal eine Kursfestlegung fällig ist, seit sie Gegenwind bekommen schlingern sie von einer Aussage zur nächsten und verlieren dabei IMHO mehr und mehr an Glaubwürdigkeit.Glaubwürdig fand ich nVidias Aussagen noch nie :D
Die hatten z.B. irgendwann mal empfohlen, in 1600x1200 mit 4x AA zu benchen. Das heißt, nVidia möchte dass man sich jetzt eine 9700 Pro kauft oder was? :D
Salvee
2003-02-12, 12:28:23
Originally posted by aths
nVidia möchte unter'm Geld verdienen. Aus dieser Sicht heraus ist es verständlich, dass sie 1.4 übersprungen haben. Ob das nun gut oder schlecht ist, jedenfalls war es markttechnisch sinnvoll, an der GF4 Ti nicht so viel zu ändern (was teuer geworden wäre) und den PS 1.4 damals nicht zu unterstützen.
Die späte Rache der billigen Refreshs, würde ich mal sagen.
Fragman
2003-02-12, 12:28:48
@ hot:
genau diese cpu entlastung war ja damals das nv argument nr. 1, welches beim marketing zum geforce1 angefuehrt wurde. in den letzten jahren hat man davon leider nicht viel gemerkt, jetzt, wo es losgeht, wird seitens nv darueber geschimpft?
vielleicht muss man nv auch etwas mehr zeit fuer die trieber geben...
Originally posted by Andre
Und genau da liegt IMHO das Problem - die CPU, und sind wir mal ehrlich, welches Game in letzter Zeit ist nicht CPU-abhängig?, spielt kaum oder nur eine geringe Rolle.Das sehe ich nicht als Problem, sondern eher als positiv. Endlich wird mal wieder die Grafikkarte getestet!
Früher oder später verkommt das Teil dann wieder zum CPU-Test. Beim 2001-er ist es jedenfalls uneinsichtig, dass eine Ti 4600 auf normalen CPUs ähnlich stark wie eine 9700 performt.
Originally posted by Andre
Das will mir nicht einleuchten und diese derart unverständlichen Abweichungen gabs beim 02er nicht. Stimmt, denn einen 02-er gab es nie.
Mehrpack
2003-02-12, 12:32:19
Originally posted by Demirug
Ja die 2.0+ Shader können durchaus noch recht intteresant werden weil bei jedem Hersteller das + was anderes bedeutet. Deswegen sage ich ja immer das die PS 2.0+ primär wohl erst mal nur in Verbindnung mit einer Shader-Hochsprache als Möglichkeit für eine bessere Performances genutzt werden.
hi,
aber für dich als programmierer ist doch diese situation doch nicht gerade ideal, anstatt genau zu wissen auf was man sich da einlässt kann es ein heilloses durcheinander werden, und wäre es da dann aus der sicht nicht besser nur 2.0 und 3.0 zu verwenden, als eine 2.0+ unterstützung mal angenommen in angriff zunehmen????
Mehrpack
Originally posted by Fragman
@ hot:
genau diese cpu entlastung war ja damals das nv argument nr. 1, welches beim marketing zum geforce1 angefuehrt wurde. in den letzten jahren hat man davon leider nicht viel gemerkt, jetzt, wo es losgeht, wird seitens nv darueber geschimpft?
vielleicht muss man nv auch etwas mehr zeit fuer die trieber geben...
Ich glauber ehrlichgesagt nicht, dass NV da am Treiber noch sonderlich viel drehen kann. Man hat ja schon einen 3DMark Optimierten Treiber gebracht, der einiges bringt. Trotdem führt kein Weg an der schlechten Performance der Pixelshader vorbeit. Der NV30 kann viel, aber das sehr unausgewogen.
Originally posted by aths
Schön wärs.
Es gibt noch sooo viele Grakas, die keinen VS haben. OK, der lässt sich ja nun zum Glück mit der CPU emulieren. Dann allerdings kann der VS kaum zur Entlastung eingesetzt werden, wenn ohnehin nur das getan wird, was auch so mit der CPU möglich wäre.
So langsam wird es eit, dass der ganze alte Schrott vom Markt verschwindet. Doom3, die 3DMark, Aquanox2 und U2 tragen gan gut dazu bei. Ausserdem werden noch einge folgen (.B. Quake4). Wer diese Spiele benutzen will, muss notgedrungen eine Neuanschaffung tätigen und das ist gut so.
Und du wirst es nicht glauben, aber die 3DMark führt u erhöhten Absatahlen des R300. Schau mal in den 3DMark 2003 Thread vom Gamestarforum. Ich nehme das jett mal repräsentativ für alle möglichen anderen Spieleforen.
Originally posted by Salvee
Die späte Rache der billigen Refreshs, würde ich mal sagen. Nee.
Ich wäre sehr froh, wenn die GF4 den PS 1.4 hätte, aber dass sie ihn nicht hat, ist angesichts der Architektur verständlich. ATI hatte den R200 ja (fast) völlig neu entworfen, da gabs dann auch viel mehr Spielraum.
Siehe auch das AA beim R300: Weil das R200-FSAA grottenschlecht ist, haben sie es völlig weggeschmissen und von Grund auf neu überlegt. Heraus gekommen ist so ziemlich das Optimum.
Wenn nVidia die GeForce4 Ti zu einem erträglichen Preis anbieten möchte, darf der Chip auch in der Entwicklung nicht zu viel kosten. Also nahm man GeForce3 als Grundlage. Und sind wir ehrlich: Selbst mit einer PS.1.4-fähigen GF4 Ti würde dieser Shader praktisch nie Chancen auf wirkliches Durchdringung haben. Dem 1.3-er von GF4 und Parhelia ist trotz großer Nähe zum 1.1-er praktisch das gleiche Schicksaal beschieden.
GF4 Ti bietet (nicht nur im 3DMark03 :)) deutlich mehr Power als jede GeForce3, und darauf kommt es dem User doch am meisten an. Die Entwicklung des NV25 war durchaus marktorientiert.
Originally posted by HOT
So langsam wird es eit, dass der ganze alte Schrott vom Markt verschwindet. Doom3, die 3DMark, Aquanox2 und U2 tragen gan gut dazu bei. Zumindest UT2003, was sicherlich öfter als U2 gespielt wird, wird von so manchem noch mit einer GeForce2 MX betrieben.
Originally posted by aths
Nee.
Ich wäre sehr froh, wenn die GF4 den PS 1.4 hätte, aber dass sie ihn nicht hat, ist angesichts der Architektur verständlich. ATI hatte den R200 ja (fast) völlig neu entworfen, da gabs dann auch viel mehr Spielraum.
Siehe auch das AA beim R300: Weil das R200-FSAA grottenschlecht ist, haben sie es völlig weggeschmissen und von Grund auf neu überlegt. Heraus gekommen ist so ziemlich das Optimum.
Wenn nVidia die GeForce4 Ti zu einem erträglichen Preis anbieten möchte, darf der Chip auch in der Entwicklung nicht zu viel kosten. Also nahm man GeForce3 als Grundlage. Und sind wir ehrlich: Selbst mit einer PS.1.4-fähigen GF4 Ti würde dieser Shader praktisch nie Chancen auf wirkliches Durchdringung haben. Dem 1.3-er von GF4 und Parhelia ist trotz großer Nähe zum 1.1-er praktisch das gleiche Schicksaal beschieden.
Mit dem PS1.4 hat ATI damnel einen ähnlichen Fehler begangen wie NV mit dem NV30 :D
Und die Optimierungen in der 3DMark auf 1.4 bringt dem R200 NICHTS.
Originally posted by aths
Zumindest UT2003, was sicherlich öfter als U2 gespielt wird, wird von so manchem noch mit einer GeForce2 MX betrieben.
Da isses ja auch noch halbwegs möglich ;) aber niemand spielt das Game Monatelang auf ner MX, wenn er dies öfter spielt, oder?
(ok Gaskranke gibts immer :D)
x-dragon
2003-02-12, 12:40:02
Originally posted by aths
Zumindest UT2003, was sicherlich öfter als U2 gespielt wird, wird von so manchem noch mit einer GeForce2 MX betrieben. Stimmt und läuft gut :D
[edit]
aber auch nur die Demo, ab und zu mal :)
Salvee
2003-02-12, 12:41:15
Originally posted by HOT
Und die Optimierungen in der 3DMark auf 1.4 bringt dem R200 NICHTS.
Doch, die Polygonzahl ist bei Benutzung von PS1.4 reduziert, wenn ich mich nicht irre.
Andre
2003-02-12, 12:44:38
aths,
"Das sehe ich nicht als Problem, sondern eher als positiv. Endlich wird mal wieder die Grafikkarte getestet!"
Nö.
Sag das mal UT2003, Unreal 2, etc.
Futuremark bezeichnet den 3DMark als Sytembenchmark, der die Spieletauglichkeit messen soll - und das tut er jetzt noch weniger als beim 01er.
"Stimmt, denn einen 02-er gab es nie."
Jajajaaaaa.
Demirug
2003-02-12, 12:45:21
Originally posted by HOT
Hmm... zu dem Spiel mit der Zukunft gehört immer ein bisschen Poker ;)
Futuremark hat extra den alten Name für diese Bench wieder ausgegraben - und das finde ich, ist nicht unbedingt schlecht gemacht. Man wollt hier wohl ein Zeichen setzen. Und war, dass die Zeiten der extremen CPU Belastung der Spielegrafik sich dem Ende nähern.
Die CPU Belastung direkt durch die Grafik wird sicherlich etwas weniger werden, es gibt aber nach wie vor Dinge die man nicht auf den GPU bekommt weil sie höher angeordnet sind. In wie weit diese Dinge in einer selbstablaufenden Demo berücksichtigt sind kann man natürlich nicht sagen.
Jetzt müssen sich plötzlich einge Spielehersteller Fragen stellen lassen, warum das Spiel derart auf die CPU geht und warum die 3DMark03 mit all den Features und 700k+ Polygonen auf einem 1000er mit entsprechender Grafikhardware sehr gut läuft.
Ja Polys wurde IMHO in letzer Zeit zu wenige eingesetzt. Die Designer wollten sich wohl nicht die Mühe machen mehrer Models mit unterschiedlichen vielen Polys zu bauen.
Ich finde nicht, dass dies besonders abwegig oder schlecht ist. Es wird einfach Zeit, dass unsere CPUs was anderes machen als Transformationen und Lichtberechnungen, die die Grafikkarten selber machen können. Man zeigt hier wie ich finde ganz deutlich vor allem in Scene 2 und 3, was man aus dem "alten" Vertexshader 1.1 rausholen kann und was bisher eigentlich nirgendwo genutzt wird.
Aquanox mag war nicht das Top Spiel sein, aber man hat sich auf technischer Seite Sehr viel mehr Mühe gegeben als bei anderen Herstellern. Ich denke, auch DoomIII wird den Vertexshader gut auslasten und die CPU gut entlasten.
Wir sehen hier einfach nur den nächsten Schritt, der endlich vollzogen werden muss, nämlich, dass die Grafikberechnungen weiter von der CPU auf die Grafikhardware übergehen.
Wobei man Vertexshader oft erst in verbindung mit PS braucht. Das HT&L ist oft mächtiger als man glaubt.
NV ist in dieser Hinsicht sehr häuchlerisch wie ich finde, sie können nämlich garnicht beurteilen, ob die 3DMark spielerelevant ist, oder nicht. Niemand kann das, aber es ist meiner Meinung nach wahrscheinlich dass die Zwiebeljungs hier goldrichtig liegen. Lange werden sich die Spielehersteller nicht mehr um den Vertexshader herumdrücken können.
Wenn NVIDIA auch vieles nicht kann das können sie durchaus. NVIDIA bekommt in der Regel recht früh Informationen was die Studios gerade so treiben. Und dann wird auch schon mal eine Beta der Engine durch ein Analyse Programm laufen lassen um so sehen was den da so alles gemacht wird.
Zudem bearbeitet NVIDIA ja schon lange die Spieleentwickler doch wenigstens mal voll auf HT&L zu setzten wenn sie schon nichts von den VS wissen wollen. Aber dann kommt der böse Publischer (der hat das geld) und sagt: "wenn das Spiel nicht auch auf Karten ohne HT&L läuft gibt es aber kein Geld vom mir". Das mit dem HT&L hört zwar gerade langsam auf aber der Spruch ist im Prinzip noch der gleiche nur das HT&L jetzt durch VertexShader ersetzt wurde.
Demirug
2003-02-12, 12:47:20
Originally posted by Mehrpack
hi,
aber für dich als programmierer ist doch diese situation doch nicht gerade ideal, anstatt genau zu wissen auf was man sich da einlässt kann es ein heilloses durcheinander werden, und wäre es da dann aus der sicht nicht besser nur 2.0 und 3.0 zu verwenden, als eine 2.0+ unterstützung mal angenommen in angriff zunehmen????
Mehrpack
Wie gesagt wenn man seine Shader in einer Hochsprache schreibt und dann von einem Compiler in DX9 Assembler übersetzten läst hat man damit wenig Ärger. Der Compiler muss aber dann auch gut sein und die zusätzlichen Möglichkeiten ausnutzen.
Andre
2003-02-12, 12:47:35
Ich hätte da mal ne Frage an Euch:
Warum in aller Welt habe ich beim normalen Game-Benchmark bei 3DMark 03 mehr Frames, als beim CPU-Test, der ja auf 640x480 läuft. Irgendwie stellt sich mein Hirn quer, das zu verstehen?!
Mehrpack
2003-02-12, 12:50:47
Originally posted by Demirug
Wie gesagt wenn man seine Shader in einer Hochsprache schreibt und dann von einem Compiler in DX9 Assembler übersetzten läst hat man damit wenig Ärger. Der Compiler muss aber dann auch gut sein und die zusätzlichen Möglichkeiten ausnutzen.
hi,
aha, verstehe.
Originally posted by Andre
Ich hätte da mal ne Frage an Euch:
Warum in aller Welt habe ich beim normalen Game-Benchmark bei 3DMark 03 mehr Frames, als beim CPU-Test, der ja auf 640x480 läuft. Irgendwie stellt sich mein Hirn quer, das zu verstehen?!
weil vielleicht die cpu ineffektiver die polygone berechnen kann als der VS?
am ende ist es für eine cpu doch realtiv schnuppe ob sie die polygone für 640x480 oder für 1600x1200 berechnen muss, am ende ist doch nur die anzahl entscheidet, imho.
Mehrpack
Salvee
2003-02-12, 12:50:55
Originally posted by Andre
Ich hätte da mal ne Frage an Euch:
Warum in aller Welt habe ich beim normalen Game-Benchmark bei 3DMark 03 mehr Frames, als beim CPU-Test, der ja auf 640x480 läuft. Irgendwie stellt sich mein Hirn quer, das zu verstehen?!
Grundsätzlich wohl erstmal, weil statt den VS die CPU die Polygonberechnung übernimmt.
Originally posted by Andre
Ich hätte da mal ne Frage an Euch:
Warum in aller Welt habe ich beim normalen Game-Benchmark bei 3DMark 03 mehr Frames, als beim CPU-Test, der ja auf 640x480 läuft. Irgendwie stellt sich mein Hirn quer, das zu verstehen?! Augen auf im Straßenverkehr :) Im CPU-Benchmark fliegen mehr Teile durch die Luft. (Zumindest meine ich mich daran so zu erinnern. Hab echt kein Bock, noch mal den ganzen langweiligen Bench durchlauf0rn zu lassen.)
Originally posted by HOT
Da isses ja auch noch halbwegs möglich ;) aber niemand spielt das Game Monatelang auf ner MX, wenn er dies öfter spielt, oder?
(ok Gaskranke gibts immer :D) Die rüsten dann vielleicht auf GF4 MX auf. DX PixelShader haben sie damit noch immer nicht :)
Und die MX-T&L ist auch nicht gerade ein Spitzen-Performer.
Originally posted by Andre
Sag das mal UT2003, Unreal 2, etc.
Futuremark bezeichnet den 3DMark als Sytembenchmark,Und nVidia bezeichnet die 128-Bit-Renderfähigkeit der FX als notwendig...
Originally posted by Andre
der die Spieletauglichkeit messen soll - und das tut er jetzt noch weniger als beim 01er.Ja, dafür ist dieser ach so tolle Bench von den ach so coolen Jungs untauglich, weshalb ich ihn als "legitimen" Bench ablehne.
Zumindest im Moment. Denn früher oder später wird er auch besser mit der CPU skalieren.
BlackBirdSR
2003-02-12, 13:10:38
Originally posted by HOT
So langsam wird es eit, dass der ganze alte Schrott vom Markt verschwindet. Doom3, die 3DMark, Aquanox2 und U2 tragen gan gut dazu bei. Ausserdem werden noch einge folgen (.B. Quake4). Wer diese Spiele benutzen will, muss notgedrungen eine Neuanschaffung tätigen und das ist gut so.
Und du wirst es nicht glauben, aber die 3DMark führt u erhöhten Absatahlen des R300. Schau mal in den 3DMark 2003 Thread vom Gamestarforum. Ich nehme das jett mal repräsentativ für alle möglichen anderen Spieleforen.
U2 ist mir viel zu CPU-abhängig..
das ist schon geradezu extrem vergleichen mit UT2003
wenn die Spiele in Zukunft so werden; dan dann gute Nacht.
Virtual
2003-02-12, 13:23:08
Leute,
nach der hitzigen Diskussion um die Technik, die nur dann wirklich Sinn macht, wenn man ernsthaft daran glaubt, NVidia sorge sich um den Kunden aus anderen Gründen als sein Geld, folgt nun ein kurze Begründung zum eigentlichen Thread-Topic:
GPU-Hersteller sind Wirtschaftsunternehmen. Aus GPU-Hersteller Sicht war der 3DMurks bis einschließlich der 03 Version ein Werkzeug zur Manipulation der Käufermeinung. Wer das Prinzip der Marktwirtschaft verstanden hat, sollte nun erkennen, daß es beim 3DMurks aus Sicht des GPU-Herstellers darum geht, Nachfrage nach einem Produkt zu schaffen. NVidia, wie auch ATI in einem umgekehrten Fall, interessieren sich nicht die Bohne dafür, ob der Benchmark als respräsentativ für aktuelle oder zukünftige Spiele angesehen werden kann oder nicht.
NVidia hatte ausreichend Zeit, die Entwicklung der '03-Manipulation der Käufermeinung zu beeinflussen. NV's jetzige Bekanntmachung ist nur Schadensbegrenzung und zeigt, daß die Herren von NV wieder einmal geschlafen haben. -> TROTTEL!
G.
V.
DrFreaK666
2003-02-12, 13:29:56
Hm, ich hoffe nix überlesen zu haben.
hier wird immer von den PS1.4 geredet und das die GF FX deswegen schlecht abschneidet.
Das müsste ja bedeuten, dass der R300 PS 2.0 UND PS 1.4 in der hardware integriert hat (ich schätze mal ihr wisst was ich sagen will... :) ).
ich glaube aber kaum, dass ATI das so gemacht hat (ausser sie wussten schon vor x Monaten, dass der 3D-Mark2003 so programmiert wird).
Daher muss der R300 also die selbe compilierarbeit (anderes Wort ist mir jetzt nicht so auf die schnelle eingefallen) wie der NV30 machen, oder??
Das kann also schon kein Grund für das schlechte Abschneiden des NV30 sein. Schließlich ist er beim Shadermark auch nicht unbedingt der schnellste.
UND: Der 3D-mark (egal welcher) wurde schon immer als sysnthetischen benchmark gehandelt!!!!!
So
Demirug
2003-02-12, 13:50:53
Originally posted by DrFreaK666
Hm, ich hoffe nix überlesen zu haben.
hier wird immer von den PS1.4 geredet und das die GF FX deswegen schlecht abschneidet.
Das müsste ja bedeuten, dass der R300 PS 2.0 UND PS 1.4 in der hardware integriert hat (ich schätze mal ihr wisst was ich sagen will... :) ).
ich glaube aber kaum, dass ATI das so gemacht hat (ausser sie wussten schon vor x Monaten, dass der 3D-Mark2003 so programmiert wird).
Daher muss der R300 also die selbe compilierarbeit (anderes Wort ist mir jetzt nicht so auf die wschnelle eingefallen) wie der NV30 machen, oder??
Das kann also schon kein Grund für das schlechte Abschneiden des NV3ß sein. Schließlich ist er beim Shadermark auch nicht unbedingt der schnellste.
UND: Der 3D-mark 8egal welcher) wurde schon immer als sysnthetischen benchmark gehandelt!!!!!
So
Überlesen hast du nichts. Das ganze ist ledier auch etwas komplizierter. Der R300 hat im Prinzip die R200 Pixelpipline welche auf fp24 erweitert wurde sowie mehr Phasen und Register hat. Darum passen die PS 1.4 nach wie vor recht gut zu dem Chip. Daraus ergibt sich kaum Arbeit für den Treiber.
NVIDIA hat nun eine vollkommen andere Pipeline gebaut. Aus diesem Grund muss der Treiber hier viel mehr arbeit leisten um die Shader jeweils optimal laufen zu lassen.
Unregistered
2003-02-12, 14:01:10
Originally posted by Demirug
Überlesen hast du nichts. Das ganze ist ledier auch etwas komplizierter. Der R300 hat im Prinzip die R200 Pixelpipline welche auf fp24 erweitert wurde sowie mehr Phasen und Register hat. Darum passen die PS 1.4 nach wie vor recht gut zu dem Chip. Daraus ergibt sich kaum Arbeit für den Treiber.
NVIDIA hat nun eine vollkommen andere Pipeline gebaut. Aus diesem Grund muss der Treiber hier viel mehr arbeit leisten um die Shader jeweils optimal laufen zu lassen.
Ja, Nvidia hat eine völlig andere Pipeline-Struktur entwickelt, weil sie dachten, Optimierungen darauf mit ihrer Marktmacht problemlos durchsetzen zu können. Daraus schliesse ich aber auch, dass ATi für die selben Ergebnisse bisher mehr leisten musste.
Die ganze Sache kann für Nvidia schwer nach hinten losgehen. Zumindest mit der integrierten GF4-Pipeline weiss ich ja jetzt, wo das Mehr an Transistoren reingesteckt wurde.
Originally posted by Unregistered
Die ganze Sache kann für Nvidia schwer nach hinten losgehen.Wieso? Wofür ist die Geschwindigkeit der 1.4-er PixelShader denn in der Praxis wichtig?
askibo
2003-02-12, 14:17:53
Originally posted by aths
Augen auf im Straßenverkehr :) Im CPU-Benchmark fliegen mehr Teile durch die Luft. (Zumindest meine ich mich daran so zu erinnern. Hab echt kein Bock, noch mal den ganzen langweiligen Bench durchlauf0rn zu lassen.)
Meinst du damit mehr Flugzeuge oder mehr Effekte?
Ich glaube nicht das im Cpu-Test mehr , hab jetzt aber auch keine Lust den ganzen Schrott nochmal durchlaufen zu lassen.
Falls du beim Cputest mehr Effekte siehst als beim Gametest liegst am Detonator. Bei mir wurden mit dem 42.01 und dem 42.86 die Explosieonen und andere Details nicht angezeigt. Mit dem 41.09 läufts fehlerfrei.
nggalai
2003-02-12, 14:18:21
Hola,
Originally posted by Salvee
Doch, die Polygonzahl ist bei Benutzung von PS1.4 reduziert, wenn ich mich nicht irre. Ja--bei Gametest 2 und 3 verdreifacht sich die Polygonzahl praktisch, wenn man PS1.1 einsetzen muss. Die Benches werden bei GF3 und grösser also zu Polygonschleudern, während PS1.4-Hardware vorwiegend Füllrate liefern muss.
Zum Thema hab' ich im Benchmark-Forum noch was gepostet:Grundsätzlich stimme ich in der Hinsicht aths auch bei, aber--das Ding nennt sich "Gamers' Benchmark" [danke aths ;)] und behauptet von sich damit, Aussagen über die Spielefähigkeiten eines Systems zu geben. Fakt ist aber, dass ein 650MHz PIII mit Radon9700 einen doppelt so hohen Score erhält wie ein 3GHz P4 mit Ti4600. Ich würd' jetzt gerne mal ein Spiel sehen, wo das so ebenfalls zutrifft. ;)
Dazu sind die Gametest-Ergebnisse mitm 3DMark03 noch weniger unter verschiedenen GPU-Architekturen vergleichbar als noch mitm 3DMark2001. Gametest 2 und 3 sind auf PS1.4-Hardware Füllratenlimitiert, auf PS1.1/3-Hardware Vertexshader-Limitiert (dreifache Polygonload).ta,
-Sascha.rb
Demirug
2003-02-12, 14:36:54
Originally posted by Unregistered
Ja, Nvidia hat eine völlig andere Pipeline-Struktur entwickelt, weil sie dachten, Optimierungen darauf mit ihrer Marktmacht problemlos durchsetzen zu können. Daraus schliesse ich aber auch, dass ATi für die selben Ergebnisse bisher mehr leisten musste.
Die ganze Sache kann für Nvidia schwer nach hinten losgehen. Zumindest mit der integrierten GF4-Pipeline weiss ich ja jetzt, wo das Mehr an Transistoren reingesteckt wurde.
Die Optimierungen auf der Ebene (umsetzung von Shaderops in microops)muss sowieso der Treiber machen. Da ist mit einer möglichen Ausnutzung von Marktmacht nichts zu erreichen.
In wie fern die Treiberbauer von ATI für die PS 1.1-1.3 nun wirklich Mehrarbeit leisten mussten ist schwer zu sagen. Solange die erweiterten Texturops des 1.1-1-3 Shader nicht benutzt werden passen die Shader noch genau in die Architektur von ATI. Bei den zusätzlichen Textureops welche die 1.1-1.3 Shader haben aber die 1.4 nicht mehr hat müssen die Treiber natürlich etwas Übersetzungsarbeit leisten. Da es aber für jede dieser Textureops eine genaue Vorgabe gibt wie und was zu tun ist läst sich das recht einfach machen.
nggalai
2003-02-12, 14:40:34
Korrektur betreffend des Polygon-Loads: auf PS1.1 verdoppelt sich in etwa die durchschnittliche Anzahl gerenderter Polygone pro Frame, nicht verdreifacht.
Zum Thema "Game Test 1 verwendet nur Single-Texturing und ist daher ein unrealistischer Gametest," wie's NV sagt:
A color map is used for the airplane color and insignia. A gloss map is used to dictate which parts of the airplane are more reflective. Together these maps form the quad-textured material of the airplanes.
[...]
The overall goal of game test 1 is to complete the collection of the four game tests as a test that can run on DirectX 7 hardware and one that requires a lower fill-rate. To fully evaluate DirectX 7 performance, the previous version of the benchmark, 3DMark2001 SE, is more appropriate.(Ausm Whitepaper.)
ta,
-Sascha.rb
Unregistered
2003-02-12, 14:59:27
Originally posted by nggalai
Korrektur betreffend des Polygon-Loads: auf PS1.1 verdoppelt sich in etwa die durchschnittliche Anzahl gerenderter Polygone pro Frame, nicht verdreifacht.
Zum Thema "Game Test 1 verwendet nur Single-Texturing und ist daher ein unrealistischer Gametest," wie's NV sagt:
(Ausm Whitepaper.)
ta,
-Sascha.rb
Ist ja auch nicht schlecht. Warum sagt Nvidia dann sowas?
BlackBirdSR
2003-02-12, 15:11:24
Originally posted by nggalai
Korrektur betreffend des Polygon-Loads: auf PS1.1 verdoppelt sich in etwa die durchschnittliche Anzahl gerenderter Polygone pro Frame, nicht verdreifacht.
Zum Thema "Game Test 1 verwendet nur Single-Texturing und ist daher ein unrealistischer Gametest," wie's NV sagt:
(Ausm Whitepaper.)
ta,
-Sascha.rb
hast du natürlich recht:
die Aussage von Nvidia bezieht sich allerdings auf den Boden der mit nur einem Texturlayer überzogen ist.
Da Nvidia keine näheren Angaben macht, ist deren Aussage somit korrekt wenn auch völliger Schwachsinn.
Erinnert mich an so ein Kyro Dokument von Nvidia
egdusp
2003-02-12, 15:27:18
Warum benutzt den der 3DMark bei PS 1.3 doppelt so viele Polygone wie bei PS 1.4?
mfg
egdusp
Demirug
2003-02-12, 15:37:33
Originally posted by egdusp
Warum benutzt den der 3DMark bei PS 1.3 doppelt so viele Polygone wie bei PS 1.4?
mfg
egdusp
Weil man mit den PS < 1.4 wohl zwei Passes braucht weil erst ab den PS 1.4 6 Texturen pro Pass möglich sind. Die PS 1.1 - 1.3 können nur maximal 4 Texturen pro Pass.
Unregistered
2003-02-12, 15:39:56
Originally posted by Demirug
Weil man mit den PS < 1.4 wohl zwei Passes braucht weil erst ab den PS 1.4 6 Texturen pro Pass möglich sind. Die PS 1.1 - 1.3 können nur maximal 4 Texturen pro Pass.
Deshalb muss die Geometrie 2x durchs Dreieckssetup?
Unregistered
2003-02-12, 15:40:54
So wurde aus dem Nvidiamark 2001 der Atimark 2003. Das ist ja wohl mehr als gerecht.:)
Demirug
2003-02-12, 15:41:08
Originally posted by Unregistered
Deshalb muss die Geometrie 2x durchs Dreieckssetup?
und auch durch die Vertexshader. Wenn man mehr als 4 texturen auf die Geometrie auftragen möchte.
Unregistered
2003-02-12, 15:47:08
Originally posted by Demirug
und auch durch die Vertexshader. Wenn man mehr als 4 texturen auf die Geometrie auftragen möchte.
Sollte doch aber kein Problem sein, wenn man eh nochmal durch die Pipeline muss.
spacewolf2000
2003-02-12, 15:51:44
NV hat die 3dmarks immer zu ihrem vorteil genutzt und die tests waren immer lange für die NV architektur ausgelegt bzw. die treiber sogar drauf optimiert um besser dazustehen
der 2003er hat sich im vergleich zum 98er,2000er und 2001er ordentlich verändert z.b. ist es kein benchmark mehr der was über die 3d leistung des systems was aussagt sondern nur über die graka und da sind die werte auch höchst fraglich
wer früher von den 3dmarks auf game leistung geschlossen hat mußte auch schon einen an der backe haben schließlich waren es nie richtige game engines nochdazu wird beim 3dmark kein K.I. oder sonstiges mit berrechnet
auch wenn man mit einem system mit schwacher graka und schnellem cpu mit extremen fsb usw. die werte eines systems mit guter graka und durchschnittlicher cpu erreichte sagte das noch lange ned aus das irgend ein aktuelles game gut läuft da gute werte in einem einzeltest die marks ganz schön hochjagen konnte
und man sollte den 3dmark sehen wie er ist als syntehtischer benchmark der nichts mit games zu tun hat sondern eher als technilogie demo dient
ein sinnvoller gamer benchmark müßte aus verschiedenen gamescenen existierender game engines bestehen
bei office benchmarks ist sowas ja auch üblich und es weden normale anwendungen zum benchen genutzt
die methode der 3dmarks ist sowieseo fragwürdig ,gleich sinnlos währe es bei sisoft sandra ne gesamt wertung einzuführen damit würden die ergebnisse noch unbrauchbarer durch z.b. hohe werte bei den speicher tests
mfg
Salvee
2003-02-12, 16:06:23
Ich denke nicht, dass bisherige 3DMarks auf nV-hardware ausgelegt waren.
Sie waren halt bisher technisch auf der Höhe der Zeit, bis auf den Advanced PS Test beim 3DM2k1
(der weder in die Wertung einfloss noch genug Geometrie bot, um die Schwächen der PS1.1 bis 1.3 gegenüber 1.4 aufzudecken).
Der 3DMark03 allerdings beeinhaltet alle DX-Versionen bis einschliesslich DX9 und behandelt diese gleichberechtigt
(PS1.4 ist nunmal wesentlich effizienter als PS1.3, ob es in Games benutzt wird oder nicht)
ohne Rücksichtnahme auf die Features am Markt momentan befindlicher Karten/Spiele.
Es ist also ein DX-benchmark und kein Heutige-Spiele-Benchmark.
Alles IMO natürlich...
Originally posted by Unregistered
Ist ja auch nicht schlecht. Warum sagt Nvidia dann sowas? nVidia sagt IIRC, dass normale Flugsimulationen nur Single Texturing etc. verwenden.
egdusp
2003-02-12, 16:23:40
IIRC??? weißt heißt das schon wieder?
betasilie
2003-02-12, 16:50:09
Originally posted by egdusp
IIRC??? weißt heißt das schon wieder?
wenn er es noch richtig weiß (if i remember corretly)
... Also ich muss ja mitlerweile zugeben, dass mich Aths überzeugt hat bzgl. NVidias Aussage. Trotzdem ist es wurscht, denn wenn NVidia auch den PS1.4 hätte und er schneller wäre hätten sie dazu garnix gesagt oder mal ne Randbemerkung gemacht. Ein Boykott, wie es gerade passiert, wäre in einem solchem Szenario wohl ausgeschlossen gewesen.
Für mich ist der 3DM sowieso nur eine Grafikdemo, die Zahlen auspuckt und nebenher finde ich es sogar super mal den PS1.4 in Betrieb zu sehen. =)
Piffan
2003-02-12, 17:17:07
Ich habe mir den Mark noch nicht angesehen, habe auch keinen Bock auf den Download.....
Nachdem was ich hier lese, scheint er aber gar nicht so übel zu sein :)
Seien wir doch mal ehrlich: Die Systemleistung braucht fast keinen Bench; sag mir welchen Proz, welchen Chipsatz und wieviel Speicher du hat, dann sage ich Dir, mit welchem anderen System Du dich messen kannst. Dieses gilt natürlich nur für BESTIMMTE Anwendungen.
Die Graka hingegen braucht durchaus einen Bench: Hier ist es eben nicht so, dass man anhand des Chips auf der Graka zuverlässig beurteilen kann, wie gut die Graka bei hohen Auflösungen, FSAA und AF performt.....Genauso kann man nicht am Chiptak/Füllrate/Speicherbandbreite zuverlässig erkennen, wie effektiv Pixel- und Vertexshaders arbeiten...
Wenn ich die Leistung eines Athlons mit der eines Pentiums vergleiche, weiß ich, dass es je nach Code mal hier und mal dort Stärken gibt...Bei den Grakas hieße das sinngemäß, dass es je nach VS oder PS- Version, je nach Rechengenauigkeit und vielen anderen Dingen, von denen ich keinen Dunst habe, immer mal wieder Verschiebungen im Kräftemessen gibt...
Wie schon früher, taugt der Mark also nur für die Betrachtung der Einzelwerte, die Gesamtzahl ist reines Marketing bzw. Schwanzvergleich.....
Ich finde den Mark klasse! (Auch wenn ich ihn nicht kenne) :D
Wer hat eigentlich gesagt, dass der Mark praxisrelevant sein müsse? Er taugt in erster Linie hervorragend, um die Effektivität einzelner Graka- Features zu zeigen. Er macht auch deutlich, dass man bei entsprechenden Programmen durchaus eine Menge von der CPU zu GPU verlagern kann....
Praxisrelevant wird das Teil, wenn überhaupt, dann mal in sehr ferner Zukunft....Futuremark eben...
Piffan
2003-02-12, 17:26:59
Nvidia gibt mit der Kritik am Mark eine Bankrotterklärung ab. Denn es ist nicht die Kritik an sich, die verlogen ist, sondern der Zeitpunkt!
Es war schon immer so, dass das Ding bestenfalls als Analyse- Werkzeug taugte. Dafür ist er bisher allerdings hervorragend gewesen. Ich erinnere nur mal an die Analysen von aths: Er hat anhand dieses starken Tools den AF- Bug untersucht, hat herausgefunden, dass man sich bei der Gf4 durchaus Tri- Af ohne Nachteile gegenüber dem Bi- Af leisten kann usw....
Nun muss NV bei diesem Test die Hosen runterlassen und es werden gewisse Schwächen der FX eklatant sichtbar, schon ist der Mark scheiße....
Wenn Nv früher auch schon so "verständig" gewesen wäre, dann würde man die heutige Kritik am Mark gutheißen können, sie ist ja schließlich auch irgendwo stichhaltig... Aber so ist es ein weiterer Sargnagel für NVs Image....
Piffan
2003-02-12, 17:37:23
Warum ich mir den 3dMark gerne spare: Ich bin von der Spieleleistung meiner Gf4 sehr angetan; kann meist mit AF und FSAA bei bester Performance zocken....Nun will ich mir die Zufriedenheit nicht kaputt machen lassen von einem Marktetinginstrument.... Mir reicht meine Graka noch, und es gibt nicht ein einziges Spiel am Horizont, für dass die Anschaffung eines DX9- Boliden lohnt....
Mir tun die Leute leid, die wegen des neuen Marks plötzlich glauben, dass ihre Hardware von nun auf gleich Schrott ist....;)
Was sagte ich vor dem Release von UT2: Erst müssen die tollen Spiele da sein, dann überlege ich mir eine Neuanschaffung.....
So, Schluss mit dem Monolog, jetzt zocke ich Vampire weiter, dass ist mit einer Gf4 mit höchsten Einstellungen bestens zockbar und sieht schnuckelig aus.......
MadManniMan
2003-02-12, 17:44:09
oi, piffan! absolut recht hast du.
wirklich antun würde ich ihn mir an deiner stelle allerdings wirklich, wenn dich deine soundperformance interessiert. nebenbei hat der soundtest die eindrucksvollste klangkulisse, die ich bisher in einem spiel beobachten durfte...
NVIDIA hat mit ihrer Aussage recht.
Nur, und nur das ist das was stört, hätte NVIDIA nie diese Aussage getroffen,wenn die FX 1000 Punkte vor der ATI Karte wäre.
Geforce2 gegen Kyro2, da wurde immer schön die Geforce2 hochgelobt wie viel schneller sie im 3dMark war, in der Praxis waren beide Karten gleichschnell (japp, habe beide Karten), laut 3dmark war die Geforce aber 50% schneller.
Damals kam natürlich nicht der Spruch, da sman liebr Games verwenden sollte(ausser Quake 3, der ja in jedem Deto schneller wurde, ausser meistens in allen anderen Games :D)
Konne
2003-02-12, 18:00:09
stimmt, die kyro oder voodoo karten wurden schlecht gemacht, weil sie weniger 3dmarks hatten. nun sieht es mal anders rum aus ... da haben sie angst? und loben ihren 'lieblingsbenchmakr' nicht mehr?!!
Aquaschaf
2003-02-12, 19:04:46
Ein benchmark in dem eine 9500 non-Pro mehr Punkte einheimst als eine Ti4600 halte ich nicht unbedingt für sehr aussagekräftig , NVidias ablehnende haltung gegenüber 3dmark 2003 ist verständlich , allerdings
werden die ihre meinung ganz schnell wieder ändern wenn sie mit einer karte mehr punkte als die karten von ATI erzielen ... in meiner meinung nur eine nett anzuschauende grafikdemo , und für ein bischen rumprollen gut ;)
Mr. Lolman
2003-02-12, 19:06:08
aths
Zumindest im Moment. Denn früher oder später wird er auch besser mit der CPU skalieren.
...wenn es dann die passende NV Karte dazu gibt ;)
Piffan/Lolman
Warum ich mir den 3dMark gerne spare: Ich bin von der Spieleleistung meiner Voodoo5 sehr angetan; mit FSAA bei bester Performance zocken....Nun will ich mir die Zufriedenheit nicht kaputt machen lassen von einem Marktetinginstrument.... Mir reicht meine Graka noch, und es gibt nicht ein einziges Spiel am Horizont, für dass die Anschaffung eines DX8- Boliden lohnt....
Mir tun die Leute leid, die wegen des neuen Marks plötzlich glauben, dass ihre Hardware von nun auf gleich Schrott ist....
...So, Schluss mit dem Monolog, jetzt zocke ich RTCW weiter, dass ist mit einer Voodoo5 mit höchsten Einstellungen bestens zockbar und sieht schnuckelig aus.......
Damit hatten schon damals Voodoo5 Besitzer recht :)
ein bisschen ärgerlich waren die meisten damals trotzdem
In ~1-1.5 Jahren kann ich mit einer R300 sicher noch besser zocken, (wenn nicht gar doppelt so gut) wie mit einer GF4, die jetzt noch überschüssige Leistung kommt der besseren BQ zugute. Ob ich die Karte dann noch verwende, ist eine andere Sache. Ob der Bench dann noch verwendet wird, liegt sicher auch am Grat der Verbreitung der Keygens, ....weul - des is jo a Kraumpf mit dem verflixten Zwiefemark...
MadManniMan
2003-02-12, 19:22:42
Originally posted by Aquaschaf
Ein benchmark in dem eine 9500 non-Pro mehr Punkte einheimst als eine Ti4600 halte ich nicht unbedingt für sehr aussagekräftig
der neue 3dquark ist zum teil ein dx9-bench, daher ist das wohl gerechtfertigt
Unregistered
2003-02-12, 20:31:12
Originally posted by MadManniMan
der neue 3dquark ist zum teil ein dx9-bench, daher ist das wohl gerechtfertigt
Jo, denk ich auch. Um so mehr Texture-Layer z.B., umso mehr lassen die neuen Karten die Ti4600 stehen.
firewars
2003-02-12, 20:42:24
Sorry, falls das schon gepostet wurde, aber es gibt offensichtlich einen ersten GeForce FX-Eintrag in der Futuremark-Datenbank.
Sucht einfach mal danach.
Hat schlappe 1868 Punkte mit einem P4 1600.
askibo
2003-02-12, 20:49:05
Originally posted by firewars
Sorry, falls das schon gepostet wurde, aber es gibt offensichtlich einen ersten GeForce FX-Eintrag in der Futuremark-Datenbank.
Sucht einfach mal danach.
Hat schlappe 1868 Punkte mit einem P4 1600.
Mit einem Barton @ 2,5 Ghz und neuen 'optimierten' Treibern erreicht die FX Ultra über 5100 Punkte.
http://www.hardocp.com/article.html?art=NDI4LDQ=
firewars
2003-02-12, 20:56:08
Originally posted by askibo
Mit einem Barton @ 2,5 Ghz und neuen 'optimierten' Treibern erreicht die FX Ultra über 5100 Punkte.
http://www.hardocp.com/article.html?art=NDI4LDQ=
Interessant, kannte den Test noch nicht. Danke.
AlfredENeumann
2003-02-12, 21:39:00
auchsenfdazugeb
Also als "Gamers-Benchmark" war das wohl nix.
Als reiner Benchmark ist er OK, finde ich, aber nur innerhalb Grafikkarten mit gleicher Spezifikation. Sprich DX7, DX8 und DX9 Karten untereinander.
Ob jetzt ne Karte Pixelshader 1.4 nicht unterstützt? Na und. Pech gehabt. Wenn es die Karte etwas in HW nicht kann, isse halt langsamer, na und?
Und wenn die FX bisher PS1.4 schlampig emuliert/ausführt ist doch egal. Wird eh so gut wie nicht benutzt, obwohl man jetzt mal den nutzen von PS1.4 sieht. Man erinnere an die ewig langen Diskusionen PS1.3 / PS1.4
Dort wurde ja immer seitens der NV-Fraktion, die absolute nutzlosigkeit von PS1.4 propagiert. Jetzt wo mal ein Extrembeispiel da ist gucken sie blöd aus der Wäsche.
Man sollte nur die Einzeltests gegeneinander vergleichen. Und auch leider nur dort wo PS1.4 nicht benutzt wird, da dort die Radeon-Karten fast immer im Vorteil sind.
Von der Optik her finde ich das ding fürn Arsch. Man hätte es Grafisch erheblich besser aufpeppen können.
Aus kann ich die enorme Größe nicht nachvollziehen. Es gibt schönere Spiele die mit weniger Platz auskommen als dieser Benchmark.
Desti
2003-02-12, 23:29:03
Originally posted by aths
Wieso? Wofür ist die Geschwindigkeit der 1.4-er PixelShader denn in der Praxis wichtig?
Wofür war die Geschwindigkeit der T&L unit der GeForce1 in der Praxis wichtig?
Trotzdem hat der T&L si l337 Hype 3DFx aus dem Rennen gekickt.
Paulus2
2003-02-13, 00:01:16
Originally posted by Unregistered
Jo, denk ich auch. Um so mehr Texture-Layer z.B., umso mehr lassen die neuen Karten die Ti4600 stehen.
Tatsächlich? Und was wäre wenn man statt 6 texturelayers wie beim 3dmark03 8 verwenden würde? Da müßten sowohl der PS 1.1/1.3 als auch der PS 1.4 2 passes machen.
Ich meine wenn man schon den PS 1.4 verwenden will wäre die einzige gerechte Variante 12 layers -> 3 passes mit PS1.1/1.3 und 2 passes mit PS 1.4
Ob 12 texturelayers überhaupt Sinn machen würde muß allerdings jemand der sich besser auskennt als ich, beantworten.
[-Leo-]
2003-02-13, 00:09:15
Mich wundert das nicht, dass die den Bench net so toll finden, finde es auch nicht toll, wenn jemand meine Leistung runtersaut, aber das ganze wird sich ja eh schnell wieder legen ;-)) Außerdem hat NV ja noch den 3d Mark 2001 oda
x-dragon
2003-02-13, 00:20:58
Originally posted by leo2k
Mich wundert das nicht, dass die den Bench net so toll finden, finde es auch nicht toll, wenn jemand meine Leistung runtersaut, aber das ganze wird sich ja eh schnell wieder legen ;-)) Außerdem hat NV ja noch den 3d Mark 2001 oda Der dürfte jetzt kaum noch von Wert sein (=für "professionelle" Benchs genutzt werden) ... naja ok noch ein paar Wochen wahrscheinlich :).
Unregistered
2003-02-13, 07:18:26
Originally posted by Paulus2
Tatsächlich? Und was wäre wenn man statt 6 texturelayers wie beim 3dmark03 8 verwenden würde? Da müßten sowohl der PS 1.1/1.3 als auch der PS 1.4 2 passes machen.
Ich meine wenn man schon den PS 1.4 verwenden will wäre die einzige gerechte Variante 12 layers -> 3 passes mit PS1.1/1.3 und 2 passes mit PS 1.4
Ob 12 texturelayers überhaupt Sinn machen würde muß allerdings jemand der sich besser auskennt als ich, beantworten.
Die ganzen Specs heissen doch nicht, dass die GF4 in der Praxis immer 4Layer/Pass schafft.
Also kann man sich diese einfache Rechnung sparen.:(
Originally posted by Unregistered
Die ganzen Specs heissen doch nicht, dass die GF4 in der Praxis immer 4Layer/Pass schafft.
?? was denn sonst?
der release von 3d mark 2003 ist für nvidia ein schlag ins gesicht weil dieses benchmarkprogramm, wie sein "renomierter" vorgänger schon, in allen magazinen/hardwareseiten zum leistungsvergleich herangezogen werden wird. wie sieht das nun aus, wenn eine geforce4 4600 gegen die erheblich günstigere radeon 9500/pro antritt und dort nur die hälfte der punkte einfährt. dazu gesellen sich dann aussagen wie "3d mark 2003 ist ein blick in die zukunft der spiele wie sie in 1-2 jahren aussehen werden" was wird sich wohl der gewöhnliche user bei so einer aussage denken? laufen die kommenden spiele die "moderne effekte" und "dx 9.0 features" nutzen auf einer radeon 9x00 etwa doppelt so schnell wie auf einer geforce 4? und wieviel käufer wissen schon, dass die karte schon veraltet sein wird sobald die ersten spiele rauskommen die die neuen features auch nur ansatzweise nutzen... wer würde sich also angesichts solcher "tatsachen" überhaupt noch eine geforce 4 karte kaufen?
hinzu kommt, dass nvidia ja offensichtlich keine preislich kompetitive dx 9.0 karte im programm hat um gegen die 9500 anzutreten. ich habe die preise nicht genau im kopf aber soweit ich mich erinnern kann, soll die günstigste geforce fx ja knapp unter 400€ kosten. man kann nun spekulieren wie nvidia im weiteren verfahren wird und evtl schon verfrüht abgespeckte fx modelle auf den markt wirft, aber eines ist klar - diese runde hat nvidia eindeutig an ati verloren.
wir als kunden dürfen uns jeden fall schonmal auf 3d mark-optimierungen seitens nvidia und ati freuen die total an der realität vorbeilaufen...
zwar wünschen viele wünschen nvidia die pest an den hals, aber eines sollte man nicht vergessen... ohne nvidia wäre ati längst nicht da wo sie heute sind. genauso wird nvidia nun mehr denn je durch das sehr starke engagement von ati gefordet.
wenn nvidia jetzt vom 3d-kartenhorizont verschwinden sollte (sehr unwahrscheinlich), hätte ati den graka-markt fest in der hand und würde quasi die rolle von nvidia übernehmen. alles weitere kann man sich ja denken da ati ja auch kein wohlfahrtsunternehmen ist...
Originally posted by Desti
Wofür war die Geschwindigkeit der T&L unit der GeForce1 in der Praxis wichtig?
Trotzdem hat der T&L si l337 Hype 3DFx aus dem Rennen gekickt. Stimmt, ist aber nicht die ganze Wahrheit. Auf einem PIII mit 500 MHz holt eine TNT2 Pro im 3DMark2001 mehr Punkte als eine Voodoo5. T&L haben sie beide nicht, aber einer der beiden Treiber ist offensichtlich gut "optimiert".
Will sagen, z.B. GF2 MX, die jawohl deutlich unter der Voodoo5 anzusiedeln ist, hätte diese im 3DMark auch ohne T&L geschlagen. T&L hat den Bench verzerrt, aber es war nicht T&L allein...
Ob GF256 die T&L "gebraucht" hat oder nicht, kann man diskutieren. Jedenfalls ist ein Chip mit T&L natürlich besser als ein ansonsten genau gleicher Chip ohne T&L.
LovesuckZ
2003-02-13, 18:05:49
Originally posted by MadManniMan
der neue 3dquark ist zum teil ein dx9-bench, daher ist das wohl gerechtfertigt
Nur weil er 'teilweise' ein DX9 Bench sei, darf auch ne 9500 kein besseres Ergebnis liefern als ne TI4600.
betasilie
2003-02-13, 18:10:03
Originally posted by LovesuckZ
Nur weil er 'teilweise' ein DX9 Bench sei, darf auch ne 9500 kein besseres Ergebnis liefern als ne TI4600.
Falsch! Eine 9500er muss ein besseres Ergebniss haben, da ihre Shader wesentlich leistungsfähiger sind, als die der Ti4600.
Anonym_001
2003-02-13, 18:15:16
Originally posted by LovesuckZ
Nur weil er 'teilweise' ein DX9 Bench sei, darf auch ne 9500 kein besseres Ergebnis liefern als ne TI4600.
Die 9500 kann alle Tests, die TI4600 nicht.
Dennoch soll eine Karte die nicht alle Tests kann mit mehr Punkten belohnt werden.
Da der Test mit der Realität nichts zu tun hat und nur die Fähigkeiten der GK zählen ist der Unteschied gerechtfertigt.
LovesuckZ
2003-02-13, 18:16:11
Originally posted by betareverse
Falsch! Eine 9500er muss ein besseres Ergebniss haben, da ihre Shader wesentlich leistungsfähiger sind, als die der Ti4600.
Und wie willst du dies in Spielen umsetzen? Zur Zeit haben wir nicht mal richtige DX8 Spiele und in den paar, wo hier und dort DX8 Feature verwenden werden, ist eine 9500 auch langsamer als eine TI4600.
LovesuckZ
2003-02-13, 18:17:49
Originally posted by Anonym_001
Da der Test mit der Realität nichts zu tun hat und nur die Fähigkeiten der GK zählen ist der Unteschied gerechtfertigt.
Die 'Fähigkeiten der GK' anhand eines benches zu messen ist also richtig? Sollten dafuer nicht Spiele herhalten, in dem man bessere Vergleiche ziehen kann...
MadManniMan
2003-02-13, 18:18:27
ist einfach deine ansicht. ich akzeptiere sie ebenso wie die meine eigenen, denn die aussagekraft des 3dquark³ ist reine interpretationssache
betasilie
2003-02-13, 18:55:59
Originally posted by LovesuckZ
Und wie willst du dies in Spielen umsetzen? Zur Zeit haben wir nicht mal richtige DX8 Spiele und in den paar, wo hier und dort DX8 Feature verwenden werden, ist eine 9500 auch langsamer als eine TI4600.
Spiele die auf DX9 basieren werden erst in ein paar Jahren auf den Markt kommen und dann wäre eine 9500 schneller, wie eine Ti4600. Wo ist das Problem?
Die 'Fähigkeiten der GK' anhand eines benches zu messen ist also richtig? Sollten dafuer nicht Spiele herhalten, in dem man bessere Vergleiche ziehen kann...
Solange es keine DX9-Spiel gibt müssen wir wohl mit synthetischen Benchmarks vorlieb nehmen oder es ganz sein lassen DX9-Funktionen zu benchen. Wie oft soll das Thema eigentlich noch durchgekaut werden? :zzz: :jedifire: ... bench doch nicht, wenn es dir nicht passt.
LovesuckZ
2003-02-13, 19:04:37
Originally posted by betareverse
Spiele die auf DX9 basieren werden erst in ein paar Jahren auf den Markt kommen und dann wäre eine 9500 schneller, wie eine Ti4600. Wo ist das Problem?
Darf ich dich dadran noch mal errinern?
Machen wir es einfach: Warum sollte eine 9500 in DX9 Spielen besser sein, wenn sie es nicht mal in Aquanox schafft, eine 8500 zu besiegen?
Die Karte muesste auch in DX8 games (egal wieviel gebrauch gemacht wird) schneller sein als ne TI4600. Ist sie nicht, somit wird sie auch nicht in DX9 Spielen besser darstehen.
/edit: doch sie wird in DX9 Spielen besser darstehen, man kann mit ihr die Spiele starten oder bekommt schoenere, Effekte. Vom Speed wird sie aber kein Licht sehen.
Originally posted by LovesuckZ
Warum sollte eine 9500 in DX9 Spielen besser sein, wenn sie es nicht mal in Aquanox schafft, eine 8500 zu besiegen?
Schon allein für diese Aussage solltest du die Rote-Karte bekommen.
Weisst du überhaupt von was du da redest?
Exxtreme
2003-02-13, 20:09:42
LOL, Hellbinder at it's best:
http://www.rage3d.com/board/showthread.php?s=&threadid=33665999
:lol:
LovesuckZ
2003-02-13, 20:19:54
Originally posted by ToBi
Schon allein für diese Aussage solltest du die Rote-Karte bekommen.
Weisst du überhaupt von was du da redest?
Es ist bewiesen, dass eine 8500 schneller ist als eine 9500. Und das auch in DX8 Games. Wenn die 9500 schon in diesen Games kaum mehr Power hat, wie soll sie dann noch DX9 Spiele bewaeltigen?
betasilie
2003-02-13, 20:23:29
Originally posted by LovesuckZ
Es ist bewiesen, dass eine 8500 schneller ist als eine 9500. Und das auch in DX8 Games. Wenn die 9500 schon in diesen Games kaum mehr Power hat, wie soll sie dann noch DX9 Spiele bewaeltigen?
Vieleicht weil die DX9-Shader brach liegen! :zzz:
LovesuckZ
2003-02-13, 20:28:27
Originally posted by betareverse
Vieleicht weil die DX9-Shader brach liegen! :zzz:
Ach und die Karte deswegen in DX8 Games langsamer ist? Schlechte Ausrede.
Aquaschaf
2003-02-13, 20:44:52
vielleicht benutzt die geforce fx mit den neuen treibern kein fp32 mehr , ist es möglich das durch die treiber zu steuern ?
Originally posted by betareverse
Vieleicht weil die DX9-Shader brach liegen! :zzz:
???
Was hat das mit der Leistung unter DX8 zu tun?
DX9-Shader laufen eh nur auf Karten, die diese unterstützen. Also wird man sowas vor 2005 kaum in Spielen sehen.
LovesuckZ
2003-02-13, 21:05:43
Originally posted by ow
DX9-Shader laufen eh nur auf Karten, die diese unterstützen. Also wird man sowas vor 2005 kaum in Spielen sehen.
Und bis dahin ist die 9500 wieder in der Versenkung erschwunden.
Virtual
2003-02-13, 21:17:08
Originally posted by ow
???
Was hat das mit der Leistung unter DX8 zu tun?
DX9-Shader laufen eh nur auf Karten, die diese unterstützen. Also wird man sowas vor 2005 kaum in Spielen sehen.
Klingt ziemlich richtig! - Und wann bekomme ich NVidia's 100 Jurassic-Park Dinos zu sehen? - In Games etwa dieses Jahr? - Naja, vermutlich nur in Spielen, die auf'ner FX laufen! - Dann werde ich mir mal schnell eine kaufen gehen ... :lol:
LovesuckZ
2003-02-13, 21:25:14
Originally posted by Virtual
Klingt ziemlich richtig! - Und wann bekomme ich NVidia's 100 Jurassic-Park Dinos zu sehen? - In Games etwa dieses Jahr? - Naja, vermutlich nur in Spielen, die auf'ner FX laufen! - Dann werde ich mir mal schnell eine kaufen gehen ... :lol:
Welchen Sinn soll das jetzt ergeben?
Hier ging es um die zu hohe Einstufung einer Karte, die eine Rohpower hat, welche eine fast schon 2jahre alte Grafikarte hatte.
Die FX Ultra ist schneller als als ne 9700pro (insgesamt). Dagegen gibt es nix zu ruetteln.
Virtual
2003-02-13, 22:15:59
Originally posted by LovesuckZ
Welchen Sinn soll das jetzt ergeben?
Hier ging es um die zu hohe Einstufung einer Karte, die eine Rohpower hat, welche eine fast schon 2jahre alte Grafikarte hatte.
Die FX Ultra ist schneller als als ne 9700pro (insgesamt). Dagegen gibt es nix zu ruetteln.
Nein, im dem Thread geht es darum, dem 3DMurks03 einen Anspruch abzuerkennen, den er eigentlich gar nicht haben kann. Nämlich ein Spiele Benchmark für 2003 oder gar überhaupt einer zu sein. Er ist grundsätzlicher kein Spiele-Benchmark, weil er kein Spiel ist! So einfach ist das! Aber auch der 3DMurks 2001 war nicht spielbar. Der einzige Unterschied zum 3DMurks03, Max Payne, hatte wenig mit dem Benchmark, was die FPS betrifft, gemein und ist erst weit nach dem Benchmark erschienen. Das hat NVidia damals nicht davon abgehalten, den 3DMurks01 als Maßstab für die GF3 anzuerkennen! Nennenswertes Spiele-Futter speziell für die Shader der GF3 wird es erst in 2003 geben. Darin stimmen wir vermutlich überein. DX9 nicht vor 2005. Hier stimme ich mit OW überein. Die Mehrzahl der Games-Neuerscheinungen werden erst im Jahre 2005 eine Ähnlichkeit mit der Grafik (und in Teilen Technik) des 3dMurks03 aufweisen.
So sehr NVidia (und auch einige andere im Forum) den 3DMurks zur Tech-Demo disqualifiziert, um plain den R300 den 3DMurks03-Wind aus den Segeln zu nehmen, so sehr sollte man die 100 Jurassic-Park Dinos im NV Marketing disqualifizieren. Die haben 0,0 Relevanz 2003,04,05,...
8500 im Verhältnis zu 9500 in Bezug auf DX8:
Die gleiche Verhältnis wird der NV31 (4 Pipe-, 300 MHz Derivat des NV30) in Bezug auf die GF4 aufweisen. Dazu muß man kein Hellseher sein.
LovesuckZ
2003-02-13, 22:24:55
Originally posted by Virtual
8500 im Verhältnis zu 9500 in Bezug auf DX8:
Die gleiche Verhältnis wird der NV31 (4 Pipe-, 300 MHz Derivat des NV30) in Bezug auf die GF4 aufweisen. Dazu muß man kein Hellseher sein.
Nein, denn wenn der NV31 mit 4*1 Trilinear Pipes komme sollte (so hab ich es verstanden), ist er dank Color Compression und 'LMA3' schneller als eine TI4600 mit dem selben Takt.
Zu den anderen Sachen: Da, wo du dich bei OW 'eingemischt' hast, ging es um die Aussage des 3DMark's 2003 zur 9500. Und die Karte kann wohl und wird es nie werden, zur relation der heutigen zeit, die 4. beste Karte werden. Ausserdem wurde noch die Abhaengigkeit der Shader von DX8->DX9 angesprochen und das die karte grundaetzlich in DX8 langsamer seien muesse, da sie aud DX9 abgestimmt sei und erst bei DX9 Effekte/Spiele ihre Staerke zeigen wuerde.
betasilie
2003-02-13, 22:28:46
Originally posted by ow
???
Was hat das mit der Leistung unter DX8 zu tun?
DX9-Shader laufen eh nur auf Karten, die diese unterstützen. Also wird man sowas vor 2005 kaum in Spielen sehen.
Genau, dem würde ich auch nicht widersprechen.
betasilie
2003-02-13, 22:29:23
Originally posted by LovesuckZ
Und bis dahin ist die 9500 wieder in der Versenkung erschwunden.
Stimmt auch. ;) ... als ob ich was anderes behauptet hätte.
betasilie
2003-02-13, 22:30:19
Originally posted by Virtual
Nein, im dem Thread geht es darum, dem 3DMurks03 einen Anspruch abzuerkennen, den er eigentlich gar nicht haben kann. Nämlich ein Spiele Benchmark für 2003 oder gar überhaupt einer zu sein. Er ist grundsätzlicher kein Spiele-Benchmark, weil er kein Spiel ist! So einfach ist das! Aber auch der 3DMurks 2001 war nicht spielbar. Der einzige Unterschied zum 3DMurks03, Max Payne, hatte wenig mit dem Benchmark, was die FPS betrifft, gemein und ist erst weit nach dem Benchmark erschienen. Das hat NVidia damals nicht davon abgehalten, den 3DMurks01 als Maßstab für die GF3 anzuerkennen! Nennenswertes Spiele-Futter speziell für die Shader der GF3 wird es erst in 2003 geben. Darin stimmen wir vermutlich überein. DX9 nicht vor 2005. Hier stimme ich mit OW überein. Die Mehrzahl der Games-Neuerscheinungen werden erst im Jahre 2005 eine Ähnlichkeit mit der Grafik (und in Teilen Technik) des 3dMurks03 aufweisen.
So sehr NVidia (und auch einige andere im Forum) den 3DMurks zur Tech-Demo disqualifiziert, um plain den R300 den 3DMurks03-Wind aus den Segeln zu nehmen, so sehr sollte man die 100 Jurassic-Park Dinos im NV Marketing disqualifizieren. Die haben 0,0 Relevanz 2003,04,05,...
8500 im Verhältnis zu 9500 in Bezug auf DX8:
Die gleiche Verhältnis wird der NV31 (4 Pipe-, 300 MHz Derivat des NV30) in Bezug auf die GF4 aufweisen. Dazu muß man kein Hellseher sein.
Genau so sieht es aus. ;) ... Der 3dm-2003 ist sicherlich völlig irrelevant für das ernsthafte Benchen, aber wenn man schon DX9-Tests mit in einen Benchmark nimmt, sollte dieser auch als Futurebenchmark verstanden werden und die DX9-Tests dementsprechend in die Gesamtwertung einfließen. Wo ist das Problem?
@lovesucks
Dass alle aktuellen Karten nicht wirklich den zukünftigen DX9-Spielen gewachsen sein werden, ist uns doch allen klar, oder nicht!? ???
Unregistered
2003-02-13, 22:33:38
Der neue 3DMark hat aber auch was Positives. Die Akzeptanz und die Nachfrage nach schneller DX9-Hardware wird steigen, und es wird sich nach langer Zeit erstmals für Entwickler lohnen, auch bei ihren Game-Engines darauf zu setzen. Die schon lange versprochene, schoen Shader-Zukunft wird nun schneller wahr.:)
MadManniMan
2003-02-13, 22:34:52
Originally posted by LovesuckZ
Die FX Ultra ist schneller als als ne 9700pro (insgesamt). Dagegen gibt es nix zu ruetteln.
achso? was genau?
Labberlippe
2003-02-13, 22:40:36
Originally posted by LovesuckZ
Es ist bewiesen, dass eine 8500 schneller ist als eine 9500. Und das auch in DX8 Games. Wenn die 9500 schon in diesen Games kaum mehr Power hat, wie soll sie dann noch DX9 Spiele bewaeltigen?
Links bitte wo die 9500er mit einer 8500er verglichen wird.
Thx
Gruss Labberlippe
LovesuckZ
2003-02-13, 22:43:27
Originally posted by Labberlippe
Links bitte wo die 9500er mit einer 8500er verglichen wird.
Thx
Gruss Labberlippe
ATI-News (http://www.ati-news.de)
LovesuckZ
2003-02-13, 22:44:01
Originally posted by MadManniMan
achso? was genau?
Anandtech und der supi französichsen Seite.
Virtual
2003-02-13, 22:51:38
Originally posted by LovesuckZ
Nein, denn wenn der NV31 mit 4*1 Trilinear Pipes komme sollte (so hab ich es verstanden), ist er dank Color Compression und 'LMA3' schneller als eine TI4600 mit dem selben Takt.
Zu den anderen Sachen: Da, wo du dich bei OW 'eingemischt' hast, ging es um die Aussage des 3DMark's 2003 zur 9500. Und die Karte kann wohl und wird es nie werden, zur relation der heutigen zeit, die 4. beste Karte werden. Ausserdem wurde noch die Abhaengigkeit der Shader von DX8->DX9 angesprochen und das die karte grundaetzlich in DX8 langsamer seien muesse, da sie aud DX9 abgestimmt sei und erst bei DX9 Effekte/Spiele ihre Staerke zeigen wuerde.
Ich bitte um Entschuldigung, daß ich mich einfach 'eingemischt' habe. Mir war nicht die private Natur des Gesprächs bewußt.Ich dachte, es sei ein 'offenes' Gespräch in einem öffentlichen Forum und mit dem Kommentar habe ich mich über den naheliegenden Motivationsgrund der Diskussion etwas sakastisch ausgelassen - Siehe meine Erklärung zuvor und lies bitte auch nochmals meine Aussage zum 3DMurks. Dann rücken DX8 und DX9 in richtige Verhältnis.
Einfache Rechnung für NV31 im Verhältnis zur GFFX-Ultra:
- 3/5 Takt * 1/2 Pipes ergibt 3/10 Pixelfüllrate.
- Multitexturing: Hier kommt der GF4 die zweite TMU zur Hilfe, um bei FPS in DX8 Games vorne zu liegen.
- Colour-Compression: Wirklich nutzbringend nur bei AA und hier ist der Vergleich 8500/9500 wohl eindeutig bzw. darum ging es in der Diskussion nicht.
- LMA3 ist weitgehend Colour-Compression
betasilie
2003-02-13, 22:58:17
Originally posted by Virtual
Ich bitte um Entschuldigung, daß ich mich einfach 'eingemischt' habe. Mir war nicht die private Natur des Gesprächs bewußt.
http://www.handykult.de/plaudersmilies.de/flash.gif Das war spitze! http://www.handykult.de/plaudersmilies.de/happy/xyxthumbs.gif :embara:
Labberlippe
2003-02-13, 23:08:25
Originally posted by LovesuckZ
ATI-News (http://www.ati-news.de)
So und jetzt sage mir wo die normale 9500 schlecht abschneidet.
Ich frage mich nur worüber Du Dich aufregst ???
Da wird das LowEnd Produkt gekauft und dann wundert man sich.
Da müssten alle die damals eine MX oder MX 200 gekauft haben nie mehr eine nVIDIA Karte anrühren.
Gucke mal die Technischen Details zwischen der R8500 und R9500 an.
Pixel Pipelines z.B.
Übrigens hat ATi die 9500 beim AF mit Qualitäts Modus gegen die R8500 antreten lassen.
Übrigens beim FSAA sieht die R8500 überhaupt kein Licht zur R9500.
Sorry aber jeder der sich nicht vorher über die Karten informiert und dann jammert ist selbst schuld.
Meine Meinung über die R9500.
Preis/Leistung ist bei der Karte Top.
Eine nVIDIA 4200 sieht übrigens im Direkt Vergleich auch hässlich alt aus.
Von der Technologie mal abgesehen.
Übrigens, wenn der NV31 mit 4*1 daherkommt, dann wird die Karte auch keine Wunder vollbringen.
http://www.zdnet.de/techexpert/artikel/tests/grafikkarten/200212/radeon9500_club3d_02-wc.html
Dann ist die TI 4200 aber auch nicht der Renner. :D
Gruss Labberlippe
Andre
2003-02-13, 23:37:07
Originally posted by betareverse
Spiele die auf DX9 basieren werden erst in ein paar Jahren auf den Markt kommen und dann wäre eine 9500 schneller, wie eine Ti4600. Wo ist das Problem?
Du bist also wirklich in dem Glauben, dass die Performance einer Graka sich allein aus deren technologischen Fähigkeiten ergibt?
Woha, dass istn hartes Brot.
betasilie
2003-02-13, 23:46:16
Originally posted by Andre
Du bist also wirklich in dem Glauben, dass die Performance einer Graka sich allein aus deren technologischen Fähigkeiten ergibt?
Woha, dass istn hartes Brot.
Nein das age ich nicht, aber lass doch die Shader der 9500 bei DX9-Anwendungen einfach mal von der CPU emulieren bzw. die Shader der Ti4600, da wirst Du sehen, dass eine 9500er schneller ist, da sie die entsprechenden Shaderfunktion in Hardware beherrscht.
... Der ganze Vergleich den Lovesucks hier anzettelt ist doch Mist. Ein Benchmark der auch DX9 miteinbezieht muss diese auch bewerten und eine Karte, die kein DX9 kann, wird halt dementsprechend abgewertet. Ob sich so ein Resultat jemals in Spielen niederschalgenm wird ist zweifelhaft, genauso wie die Praxistauglichkeit des ganzen 3DMark-2003. :)
Salvee
2003-02-14, 00:49:45
Auch eine Art der 'subtilen Treiberoptimierung' ;D
http://discuss.futuremark.com/forum/showflat.pl?Cat=&Board=mo3dmark03&Number=1837817&page=0&view=collapsed&sb=5&o=0&fpart=1&vc=1
Edit: Das sind allerdings nicht die Treiber, mit denen die GFFX auf [H]ard|OCP gebencht wurden.
Crushinator
2003-02-14, 01:31:57
Originally posted by Salvee Auch eine Art der 'subtilen Treiberoptimierung' ;D Traurig....traurig, wenn es schon wieder mit (möglichen) Cheatereien losginge. :kotz:
LovesuckZ
2003-02-14, 08:51:22
Originally posted by Labberlippe
So und jetzt sage mir wo die normale 9500 schlecht abschneidet.
Das dir die Rohpower von einer fast 2 Jahren alten Karte reicht, kann ich nicht verstehen.
Die schafft es nicht, bis auf Commanche 4, was wohl eher nen treiberproblem bei der 8500 ist, die 8500 in DX7/8 Spielen zu schlagen. Sie liegt sogar teilweise (deutlich) hinter der Karte.
Das man die 8500 fuer 100€ bekommt, dafuer aber minimal den selben Speed bekommt, ist fuer die 9500 kein gutes Zeichen. Und da helfen ihr auch nicht die supi dollen DX9 Shader.
Zur TI4200:
Die Karte hat aber deutlich mehr Rohpower als ne 9500 und haelt sich somit um einiges laenger.
ZU AA/AF: Wo hab ich das angesprochen? Mir geht es nur um die Rohpower und da versagt die 9500 (im gegensatz zum 3dMark2003...).
StefanV
2003-02-14, 08:53:22
Originally posted by LovesuckZ
Ach und die Karte deswegen in DX8 Games langsamer ist? Schlechte Ausrede.
Hast du schonmal was davon gehört, daß die Radeon 9500 und besser 'nur' noch Floatpoint Shader haben ??
StefanV
2003-02-14, 09:00:02
Originally posted by LovesuckZ
Das dir die Rohpower von einer fast 2 Jahren alten Karte reicht, kann ich nicht verstehen.
Die schafft es nicht, bis auf Commanche 4, was wohl eher nen treiberproblem bei der 8500 ist, die 8500 in DX7/8 Spielen zu schlagen. Sie liegt sogar teilweise (deutlich) hinter der Karte.
Das man die 8500 fuer 100€ bekommt, dafuer aber minimal den selben Speed bekommt, ist fuer die 9500 kein gutes Zeichen. Und da helfen ihr auch nicht die supi dollen DX9 Shader.
Zur TI4200:
Die Karte hat aber deutlich mehr Rohpower als ne 9500 und haelt sich somit um einiges laenger.
ZU AA/AF: Wo hab ich das angesprochen? Mir geht es nur um die Rohpower und da versagt die 9500 (im gegensatz zum 3dMark2003...).
Dir ist aber auch bekannt, daß eine Radeon 9000 PRO unter bestimmten Umständen in der Lage ist, eine Radeon 8500 zu schlagen, oder ??
LovesuckZ
2003-02-14, 09:11:02
Originally posted by Stefan Payne
Dir ist aber auch bekannt, daß eine Radeon 9000 PRO unter bestimmten Umständen in der Lage ist, eine Radeon 8500 zu schlagen, oder ??
Das schafft ne TI4600 gegen ne 9700pro auch.
LovesuckZ
2003-02-14, 09:12:00
Originally posted by Stefan Payne
Hast du schonmal was davon gehört, daß die Radeon 9500 und besser 'nur' noch Floatpoint Shader haben ??
Dann duerfte ja ATI einen Flopp mit der 9500 gemacht haben, wenn diese Karte deswegen in seiner Lebenszeit in DX8 Spielen immer langsamer sein sollte als ne 8500...
Unregistered
2003-02-14, 09:30:14
Werden wir uns mal bewusst was der 3Dmark 03 ist !!?? Ja genau ein DIRECTX 9 Benchmark. Und jede Graka die halt Directx 9 nicht kann wird dementsprechend abgewertet.
Ich denke man sollte hier nicht über ti4600 und r9500 streiten weil uns allen wohl klar sein wird wer der Sieger ist.
Wenn dann müsst ihr euch um das Gewcihtugnsverfahren des 3DMark03 streiten und um nichts anderes.
Und dann kommt es auf die sicht an. Was der 3DMark03 denn sein will. Ich denke in erster Linie ist er wie alle seine Vorgänger ein ausblick in die Zukunft was mal möglich sein kann. Im Vergleich zu den Testdemos von Ati und NVidia allerdings eher in naher Zukunft. (was mit dem 3dmark03 wohl auch eher abgenommen hat). Dann ist er ein Directx9 Benchmark denn das bewertungssystem zielt ganz klar auf diesen Fakt. Dennw enn es nicht so wäre würde der game Test 4 nicht mit ins Ergebnis einbezogen werden.
Und nochwas zur 9500 wir können jetzt nicht wissen wie diese Graka später mal im Vergleich zur ti4600 performen wird. Bisher war es immer so dass eine Graka der nächsten Generation den vorsprung je neuer die spiele wurdeb ausgebaut hat. Wer weiss ob das bei der r9500 nicht auch so sein wird. (Halte ich aber auch eher für unwahtscheinlich *g)
Andre
2003-02-14, 11:26:29
betareverse,
"Nein das age ich nicht, aber lass doch die Shader der 9500 bei DX9-Anwendungen einfach mal von der CPU emulieren bzw. die Shader der Ti4600, da wirst Du sehen, dass eine 9500er schneller ist, da sie die entsprechenden Shaderfunktion in Hardware beherrscht."
Mag sein, ein Game besteht aber nicht nur aus Shadern und somit mag die 9500 bei der reinen Shaderfunktion schneller sein, aber nicht in der Overall-Performance eines Games.
"ist zweifelhaft, genauso wie die Praxistauglichkeit des ganzen 3DMark-2003. :)"
Die ist nicht nur zweifelhaft, die ist gar net vorhanden.
skampi
2003-02-14, 11:35:35
Originally posted by LovesuckZ
Dann duerfte ja ATI einen Flopp mit der 9500 gemacht haben, wenn diese Karte deswegen in seiner Lebenszeit in DX8 Spielen immer langsamer sein sollte als ne 8500...
Deine Umkehrschlüsse. :bonk:
Sir Integral Wingate Hellsing
2003-02-14, 12:07:33
Originally posted by LovesuckZ
Das dir die Rohpower von einer fast 2 Jahren alten Karte reicht, kann ich nicht verstehen.
Die schafft es nicht, bis auf Commanche 4, was wohl eher nen treiberproblem bei der 8500 ist, die 8500 in DX7/8 Spielen zu schlagen. Sie liegt sogar teilweise (deutlich) hinter der Karte.
Das man die 8500 fuer 100€ bekommt, dafuer aber minimal den selben Speed bekommt, ist fuer die 9500 kein gutes Zeichen. Und da helfen ihr auch nicht die supi dollen DX9 Shader.
Zur TI4200:
Die Karte hat aber deutlich mehr Rohpower als ne 9500 und haelt sich somit um einiges laenger.
ZU AA/AF: Wo hab ich das angesprochen? Mir geht es nur um die Rohpower und da versagt die 9500 (im gegensatz zum 3dMark2003...).
man man...
LovesuckZ wir wissen das du eine R9500 besitzt/besessen hast,
dich aber aufzuregen, weild er Mod vielleicht net funzte oder du doch ne R9500 PRO hättest nehmen sollen... echt übel...
Jedenfalls flamst Du noch vs ATi und steigst schon wie Razor in jedem thread ein => NERV
naja, es soll auch in harten Zeiten Leute geben die zu NV gehen ^^ ;)
Labberlippe
2003-02-14, 12:21:48
Originally posted by LovesuckZ
Das dir die Rohpower von einer fast 2 Jahren alten Karte reicht, kann ich nicht verstehen.
Die schafft es nicht, bis auf Commanche 4, was wohl eher nen treiberproblem bei der 8500 ist, die 8500 in DX7/8 Spielen zu schlagen. Sie liegt sogar teilweise (deutlich) hinter der Karte.
Das man die 8500 fuer 100€ bekommt, dafuer aber minimal den selben Speed bekommt, ist fuer die 9500 kein gutes Zeichen. Und da helfen ihr auch nicht die supi dollen DX9 Shader.
Zur TI4200:
Die Karte hat aber deutlich mehr Rohpower als ne 9500 und haelt sich somit um einiges laenger.
ZU AA/AF: Wo hab ich das angesprochen? Mir geht es nur um die Rohpower und da versagt die 9500 (im gegensatz zum 3dMark2003...).
Hi
LovesuckZ bei kommenden Games ala Doom3 und so wie bei UT ist die R9500 definitv schneller als eine R8500.
Diese Games (UT zwar nicht ganz) nutzen die Shader stärker als bis jetzt, da hat die R9500 einen Vorteil.
Du erwähnst gleichzeitig eine Rohpower die auf den Stand von 2 Jahren ist, vergisst aber im gleichen Atemzug das die FSAA Leistungsmässig als andere Als 2 Jahre alt ist.
AF ist mittlerweile Trilinear.
Die R9500 mehr als zeitgerecht.
Ich Frage mich immer warum Du Dich über die R9500 von der Leistung beschwerst, diese Karte ist ein Low End Produkt.
Du müsstest Dich dann aber bitte schleunigst bei einer MX460 aufregen, welche eine DX7 Karte ist ohne Shader ohne brauchbares AF und "FSAA".
Der einugie Konnkurent zur normalen 9500 ist eine Ti 4200 und die sieht mit FSAA und AF kein Licht zur normalen 9500er.
Low End = LowEnd und wenn jemand knausert weil er 20-40€ nicht für die Pro ausgibt dann kann man nichts machen.
Gruss Labberlippe
Radeonator
2003-02-14, 12:54:41
Lovezucks hat seine 9500er via OCing geschrottet und jetzt ist ATi böse, böse ;D (das er da selbst Schuld dran hat, da kommt er anscheinend nicht drauf ... )
Im quatsch : Die 9500er bringt genug Leistung und auch mehr als die 8500/9100er und wie schon angemerkt unter Quality settings zersägt sie auch ne GF4 ohne Probleme.
Quasar
2003-02-14, 13:05:00
Low-End?
Das besetzt AFAIK immer noch die R9000, nicht die 9500. Low-End sollte ja auch für weniger als 350DM (180€) zu haben sein, oder?
Die R9500 ohne Pro hat einfach keine Daseinsberechtigung (aus Endkundensicht), sie dient nur dazu, dass ATi ihre kaputten Chips mit 4 Pipes und ohne HierZ noch mit ein bissel Gewinn losschlägt, anstatt sie wegzuwerfen.
Seht doch einfach mal ein, dass nicht alles Gold ist, was von ATi kommt. R9700(p) und R9500p sind ohne Zweifel prima Grafikkarten für einen mehr als fairen Preis, aber die R9500 steht völlig ausserhalb der Hierarchie da, der Preis ist unangemessen (120€ wären vielleicht ok) und die Leistung ist schwach (in Relation zum Preis und besonders zur P/L-Relation der 9500pro).
Da könnt ihr noch so viel auf Lovesuckz persönlich rumhacken (was ich sowieso für einen ungemein niveauvollen Zug halte :kotz: ), davon wird die R9500 auch nicht besser.
Exxtreme
2003-02-14, 13:10:38
Ack @ Quasar
Ich denke, viele haben sich das Teil geholt mit der Aussicht auf einen erfolgreichen Mod.
Quasar
2003-02-14, 13:14:01
Originally posted by Labberlippe
So und jetzt sage mir wo die normale 9500 schlecht abschneidet.
Ich frage mich nur worüber Du Dich aufregst ???
Da wird das LowEnd Produkt gekauft und dann wundert man sich.
Da müssten alle die damals eine MX oder MX 200 gekauft haben nie mehr eine nVIDIA Karte anrühren.
Gucke mal die Technischen Details zwischen der R8500 und R9500 an.
Pixel Pipelines z.B.
Übrigens hat ATi die 9500 beim AF mit Qualitäts Modus gegen die R8500 antreten lassen.
Übrigens beim FSAA sieht die R8500 überhaupt kein Licht zur R9500.
Sorry aber jeder der sich nicht vorher über die Karten informiert und dann jammert ist selbst schuld.
Meine Meinung über die R9500.
Preis/Leistung ist bei der Karte Top.
Eine nVIDIA 4200 sieht übrigens im Direkt Vergleich auch hässlich alt aus.
Von der Technologie mal abgesehen.
Übrigens, wenn der NV31 mit 4*1 daherkommt, dann wird die Karte auch keine Wunder vollbringen.
http://www.zdnet.de/techexpert/artikel/tests/grafikkarten/200212/radeon9500_club3d_02-wc.html
Dann ist die TI 4200 aber auch nicht der Renner. :D
Gruss Labberlippe
http://www.ati-news.de/HTML/Berichte/Sapphire/Radeon-9500-128/Sapphire-9500-128-Seite4.shtml
In diesem Test sieht sie eigentlich überall, ausser beim FSAA (schwerlich direkt vergleichbar, weil Supersampling ja jedes Multisampling IQ-technisch in Grund und Boden stampft [hier vor ca. einem Jahr noch oftmals zu lesen...]) und bei Comanche4 ziemlich schlecht da, oder?
skampi
2003-02-14, 14:29:33
Originally posted by Quasar
....weil Supersampling ja jedes Multisampling IQ-technisch in Grund und Boden stampft ...
Das war jetzt der Witz, oder?
PS: Bist du zu Hause eigentlich auch so "frech"?
Quasar
2003-02-14, 14:34:36
Zuhause bin ich so frech, wie's mir beliebt, da ich mich nicht mehr von Mutti durchfüttern lassen muss, skampi. Das nur zu deinem billigen Versuch, persönlich zu werden.
Wenn du mir nicht glaubst, dann lies' mal auch mein ganzes Posting von vorhin, nicht nur den Teil, den du gequotet hast.
skampi
2003-02-14, 14:45:23
Originally posted by Quasar
Zuhause bin ich so frech, wie's mir beliebt, da ich mich nicht mehr von Mutti durchfüttern lassen muss, skampi. Das nur zu deinem billigen Versuch, persönlich zu werden.
Wenn du mir nicht glaubst, dann lies' mal auch mein ganzes Posting von vorhin, nicht nur den Teil, den du gequotet hast.
Das hatte nichts mit "persönlich werden" zu tun. Deine Postings sind voll von unterschwelligen Provokationen und subtilen Unterstellungen.
Das verträgt sich halt nicht so mit deiner "Empfindlichkeit" dir gegenüber. Faß dir lieber mal öfters an die eigene Nase; nur so am Rande.
Quasar
2003-02-14, 15:00:28
Ist's jetzt genug skampi? Wo habe ich denn hier unterschwellig provoziert? Ich habe nur die Argumentation R8500 vs. GF3 wiederholt, die dir bestimmt noch im Gedächtnis ist.
Von mir aus können wir jetzt gern zum Thema zurückkehren. Für solche Schlammschlachten ist die Spielwiese oder zur Not die PM-Funktion da.
Exxtreme
2003-02-14, 15:12:05
@ Quasar
Kannste mal bitte Xmas' AF-Tester nehmen und ein Paar Tests machen? Das dürfte für Klarheit sorgen. Ich würde es selber gerne tun aber meine R9700 ist über'n Jordan...
Iceman346
2003-02-14, 15:18:46
Ich würds auch tun aber ich hab den AF Tester gelöscht und weiß net mehr wo ich ihn finden kann :/
Quasar
2003-02-14, 15:20:15
Originally posted by Exxtreme
@ Quasar
Kannste mal bitte Xmas' AF-Tester nehmen und ein Paar Tests machen? Das dürfte für Klarheit sorgen. Ich würde es selber gerne tun aber meine R9700 ist über'n Jordan...
Ich fürchte, das würde nicht helfen. Viele sagen ja, dass unter OpenGL alles wie immer ist, nur D3D soll ja Mip-Banding aufweisen.
Exxtreme
2003-02-14, 15:23:00
Originally posted by Quasar
Ich fürchte, das würde nicht helfen. Viele sagen ja, dass unter OpenGL alles wie immer ist, nur D3D soll ja Mip-Banding aufweisen.
Achso...
Demi, kannste mal sowas schnell für D3D coden? *liebguck*
Quasar
2003-02-14, 15:25:33
Sowas gibt's im 3DMark2003..... :D
Ficus
2003-02-14, 15:34:36
Originally posted by Exxtreme
...meine R9700 ist über'n Jordan...
Ohhh...hast du mal nen Link wo du das Missgeschick beschrieben hast? (hab das noch nicht mitbekommen)
thx
quality AF funktioniert in(d3d):
serious sam
ut2003
half-life
MP
Labberlippe
2003-02-14, 17:57:46
Originally posted by Quasar
Low-End?
Das besetzt AFAIK immer noch die R9000, nicht die 9500. Low-End sollte ja auch für weniger als 350DM (180€) zu haben sein, oder?
Die R9500 ohne Pro hat einfach keine Daseinsberechtigung (aus Endkundensicht), sie dient nur dazu, dass ATi ihre kaputten Chips mit 4 Pipes und ohne HierZ noch mit ein bissel Gewinn losschlägt, anstatt sie wegzuwerfen.
Seht doch einfach mal ein, dass nicht alles Gold ist, was von ATi kommt. R9700(p) und R9500p sind ohne Zweifel prima Grafikkarten für einen mehr als fairen Preis, aber die R9500 steht völlig ausserhalb der Hierarchie da, der Preis ist unangemessen (120€ wären vielleicht ok) und die Leistung ist schwach (in Relation zum Preis und besonders zur P/L-Relation der 9500pro).
Da könnt ihr noch so viel auf Lovesuckz persönlich rumhacken (was ich sowieso für einen ungemein niveauvollen Zug halte :kotz: ), davon wird die R9500 auch nicht besser.
Hi
Quasar alles schön und Recht, dann hatte nie eine R9000,R7200
GeForce4 MX, TNT2M64, TnT2MX,MX400,MX200 eine Daseins Berechtigung.
Leistungsmässig ist die R9500 gar nichtmal so schlecht wie LovesuckZ gerade hier jeden weismachen will.
Ich sehe die R9500 sehr wohl als LowEnd an.
Aber zumindest ist das einmal eine LowEnd die auch die aktuelle DX9 Berneration unterstützt.
Im Gegensatz zu den Mitbewerbern die eine LowEnd Karte bringen welche eine Generation zurück ist.
Wie gesagt, wenn man um ein paar Euro knausert dann ist denjenigen nicht mehr zuhelfen.
Laut div. Benches die ich gesehen habe, finde ich das der R9500 preismässig nicht gerade die schlechtestet wahl ist.
Die bekommt man jetzt schon um 160€.
(Dafür aber eine R8500 um ca. 80-90€ hat halt dann leider kein DX9)
Wenn jemand FSAA haben will und sparen will kommt er um die R9500 auch nicht rum.
Für ein bisserl mehr dann halt schon eine Pro.
Ich hacke nicht auf LovesuckZ rum ich sage nur meine Meinung und greife Ihn auch nicht persönlich an.
Aber wegen einen Fehlkauf nur zu lästern und das mittlerweile bei fast jeden Thread ist einfach auf Dauer zuviel.
Nur weil er sich anscheinend mehr erwartet hat und entäuscht ist, heisst das noch lange nicht das deshalb die R9500 für den A ist.
Gruss Labberlippe
Quasar
2003-02-14, 18:10:14
Hi Labberlippe,
Originally posted by Labberlippe
Hi Quasar alles schön und Recht, dann hatte nie eine R9000,R7200
GeForce4 MX, TNT2M64, TnT2MX,MX400,MX200 eine Daseins Berechtigung.
Ich denke doch (auch wenn ich eine "TnT2MX" nicht kenne). Die R9000 sollte im unteren Gamersegment ursprünglich die R8500 ersetzen, da sie bei grob vergleichbarer Leistung deutlich günstiger herzustellen war und mit "neuen" Features massiv gehyped wurde. Die R7200 war die Fortsetzung der letzen verbliebenen echten Low-Cost Karte. GF4MX ist die Office/MultiMedia-Lösung für Gamer mit geringen Ansprüchen, TNT2M64 eine Office Karte, MX400 wurde zur Unterscheidung von der MX200 aus der ur-MX geschaffen (und leicht höher getaktet).
Der Prinzipielle Unterschied ist, dass all diese Lösungen nicht das gehobene Gamer-Segment bedienen sollten, wie es die R9500 angesichts des Preises versucht.
Originally posted by Labberlippe
Leistungsmässig ist die R9500 gar nichtmal so schlecht wie LovesuckZ gerade hier jeden weismachen will.
Sorry, aber da bin ich absolut anderer Meinung. Die R9500 hat Leistungsmäßig nichts mit den "echten" Performance-Lösungen von ATi zu tun, sondern ist ein Resteverkauf.
Originally posted by Labberlippe
Ich sehe die R9500 sehr wohl als LowEnd an. Aber zumindest ist das einmal eine LowEnd die auch die aktuelle DX9 Berneration unterstützt.
Im Gegensatz zu den Mitbewerbern die eine LowEnd Karte bringen welche eine Generation zurück ist. Wie gesagt, wenn man um ein paar Euro knausert dann ist denjenigen nicht mehr zuhelfen. Laut div. Benches die ich gesehen habe, finde ich das der R9500 preismässig nicht gerade die schlechtestet wahl ist.Die bekommt man jetzt schon um 160€.
(Dafür aber eine R8500 um ca. 80-90€ hat halt dann leider kein DX9)
Wenn jemand FSAA haben will und sparen will kommt er um die R9500 auch nicht rum. Für ein bisserl mehr dann halt schon eine Pro. Ich hacke nicht auf LovesuckZ rum ich sage nur meine Meinung und greife Ihn auch nicht persönlich an. Aber wegen einen Fehlkauf nur zu lästern und das mittlerweile bei fast jeden Thread ist einfach auf Dauer zuviel.
Nur weil er sich anscheinend mehr erwartet hat und entäuscht ist, heisst das noch lange nicht das deshalb die R9500 für den A ist.
Gruss Labberlippe
Low-End DX9, ja, ok. Aber wie ich schon sagte, sie steht ausserhalb jeder Relation zum restlichen Portfolio von ATi. Und laut den Benches, die ich bisher auf der R9500 gemacht habe, lohnt sich kein einziger Euro, den sie mehr kostet, als eine GF4Ti. Wenn einem 'ne GF4Ti nicht reicht, kaufe man doch bitte die R9500p, aber die "np" ist's einfach nicht wert (in Forumsmaßstäben gesprochen, für Otto DAU würd's wohl reichen, auch weil er keine Vergleichsmöglichkeit hätte).
Mit dem Rumhacken meinte ich auch nicht wirklich "jeden" hier....
Labberlippe
2003-02-14, 18:11:09
Originally posted by Quasar
http://www.ati-news.de/HTML/Berichte/Sapphire/Radeon-9500-128/Sapphire-9500-128-Seite4.shtml
In diesem Test sieht sie eigentlich überall, ausser beim FSAA (schwerlich direkt vergleichbar, weil Supersampling ja jedes Multisampling IQ-technisch in Grund und Boden stampft [hier vor ca. einem Jahr noch oftmals zu lesen...]) und bei Comanche4 ziemlich schlecht da, oder?
Bitte wo schlecht. ?
http://www.ati-news.de/HTML/Berichte/Sapphire/Radeon-9500-128/Sapphire-9500-128-Seite7.shtml
Ok war link von mir. :)
Nur im Ernst jetzt, nVIDIA war um einiges Ärger als ATi bei den Produkten.
Ich habe heute mal im Vergleich die Produkte verglichen.
Die MX Kärtchen von nVIDIA kosten teilweise 100€.
Hängt aber 2 Generationen zurück.
Erst die 4200er ist im Direkt Vergleich tauglich und die liegen auch noch um die 170 - 200€
Nachtrag
Die 9500er hat einfach.
A: Meherer Shader.
B: Multisampling FSAA
C: Trilineares AF
Funktionen die eine R8500 z.B. nicht hat.( R9100 Abverkauf)
und eine R9000 die Leistungsmässig weit unter einer R9500/R8500/Ti4200 liegt.
Die R9000 stufe ich Leistungsmässig knapp bei einer MX440/460 ein.
Dafür aber hat die wenigsten Pixel und Vertex Shader.
Ergo sehe ich kein Problem mit der R9500 da diese genau in der Mitte ist.
Ok wir können uns einigen das der Preis/Abstand zwischen einer Pro und Non Pro nicht optimal ist aber mittlerweile kann man ja sich genau informieren.
Es hängt auch hier viel von den Testern ab das diese auch wirklich klar und deutlich die Stärken der Karte aufzeigen.
P/L mässig sind eigentlich alle ATi Produkte ok im Gegensatz zu den Mitbewerbern.
Nachtrag:
Ja ich finde die R9500 um eine Spur zu teuer.
Mir wäre lieber gewesen die R9500 bei 140€-150€ anzusiedeln.
Übrigens eine Marken R8500 kostet teilweise noch immer bei die 120-130€
Die günstigsten sind die R9000 bei div. Grosshändler um 99€.
Freilich gibt es einige Angebote wie eine R9100 um 90-100€
aber die sind abverkauf.
Man darf nicht vergessen das die R8500/9000er Serie ausläuft.
Die nächsten Karten basierent auf den R300 stehen ja schon vor der Tür.
Wenn die kommen dann wird die R9500 sicher auch vom Preis gesenkt und dann wird die Rang Ordnung wieder passen und das schöne alles mit DX9 Support.
ATi wird sicher nicht eine neue Generation entwickeln und dann die Chips wegwerfen.
Ausselektieren und ab in den Handel.
Preismässig wird sicher noch einiges auf uns zu komen.
Wenn jeder unbedingt sofort die neuste Version haben will und dann mecker weil geknausert wurde kann ich einfach nicht nachvollziehen.
Hätte man halt ein bischen abgewartet und dann gleich auf die Pro gegriffen und fertig.
Alles hat halt sein für und wieder.....
Gruss Labberlippe
Andre
2003-02-14, 19:10:22
Originally posted by Radeonator
Lovezucks hat seine 9500er via OCing geschrottet und jetzt ist ATi böse, böse ;D (das er da selbst Schuld dran hat, da kommt er anscheinend nicht drauf ... )
Im quatsch : Die 9500er bringt genug Leistung und auch mehr als die 8500/9100er und wie schon angemerkt unter Quality settings zersägt sie auch ne GF4 ohne Probleme.
Was mir immer noch nicht erklärt, warum sie einer TI 4600 im 3DMark so überlegen sein soll.
Wegen den Shadern?
Also bitte.
MadManniMan
2003-02-14, 19:16:31
Originally posted by Andre
Was mir immer noch nicht erklärt, warum sie einer TI 4600 im 3DMark so überlegen sein soll.
Wegen den Shadern?
Also bitte.
weil die leute von futuremark es so festgelegt haben. der multiplikator wurde von ihnen festgelegt, genau wie sie sich zu einer intensiven nutzung des PS 1.4 entschlossen haben.
sie werden schon gründe für diese einstufung haben.
ich meine, sie wollten einfach einen bench basteln, der dx9-karten hervorhebt, indem deren dx9-fähigkeiten genutzt werden.
thats it
Quasar
2003-02-14, 19:45:18
Remedys/Futuremarks/MadOnions/Futuremarks Entscheidung in allen Ehren. DX9 ist und bleibt DX9, nur frage ich mich, wie repräsentativ ein Fallback auf Pixelshader 1.4 sein wird.
Im 3DMark03 müsste auch eine R8500BBA gute Chancen gegen eine Ti4600 haben, immerhin wird in zwei der drei Tests, die abgespult werden, die Anzahl der Rendering Passes halbiert.
askibo
2003-02-14, 19:55:17
Originally posted by Quasar
Im 3DMark03 müsste auch eine R8500BBA gute Chancen gegen eine Ti4600 haben, immerhin wird in zwei der drei Tests, die abgespult werden, die Anzahl der Rendering Passes halbiert.
hat mich auch schon gewundert warum die 8500er Karten so schwach sind.
Eigentlich sollten sie durch die PS1.4 Shader doch schneller sein.
Aquaschaf
2003-02-14, 21:22:11
hab das mistviech jetzt mal laufen lassen , und ich frag mich wie dies hinkriegen solche teils bals hässlichen demos so voll von polys zu packen das das dann noch so langsam läuft .
nggalai
2003-02-14, 23:50:55
Hi Quasar,
Originally posted by Quasar
Remedys/Futuremarks/MadOnions/Futuremarks Entscheidung in allen Ehren. DX9 ist und bleibt DX9, nur frage ich mich, wie repräsentativ ein Fallback auf Pixelshader 1.4 sein wird.Ack, aber eine gaaanz kleine Korrektur:
Remedy hat heutzutage nur noch sehr, sehr wenig mit Futuremark zu schaffen. Mal abgesehen davon, dass ihre Büros nicht sehr weit auseinanderliegen. ;)
ta,
-Sascha.rb
Quasar
2003-02-15, 00:03:14
Remedy hat mit VNU zusammen Final Reality entwickelt, den Vorläufer von 3DMark99. AFAIK wurde aus denen dann Futuremark etc.pp. =)
askibo
2003-02-15, 00:05:30
Apropos 1.4 Shader
Die werden doch in Doom3 verwendet werden, oder?
Quasar
2003-02-15, 00:08:50
So der .plan, ja.
Unregistered
2003-02-15, 00:14:27
Öhm, ich dachte PS1.4 ist eine D3D Spezifikation, Doom 3 aber benutzt doch OpenGL als API und dort gibt es nur arb_fragment_programm, was aber nur auf R300 und Gf FX zur Zeit verfügbar ist.
Damit bleiben für kleinere Chips nur die jeweiligen herstellerspezifischen OpenGL Erweiterungen für Fragmentprogramme.
Wie gesagt, wäre nicht böse, wenn jemand das ganze mal etwas entwirren könnte.
Desti
2003-02-15, 00:15:22
Originally posted by askibo
Apropos 1.4 Shader
Die werden doch in Doom3 verwendet werden, oder?
..und damit wahrscheinlich auch bei allen Shootern die in den nächsten 3 Jahren auf DooM3 Engine basieren werden.... :)
nggalai
2003-02-15, 00:31:41
Hola,Originally posted by Unregistered
Öhm, ich dachte PS1.4 ist eine D3D Spezifikation, Doom 3 aber benutzt doch OpenGL als API und dort gibt es nur arb_fragment_programm, was aber nur auf R300 und Gf FX zur Zeit verfügbar ist.Jein. PS1.4 ist zwar eine D3D-Spezifikation, aber die Features davon stehen auch unter OpenGL zu Verfügung (dependent texture reads, aus 6 texturen sampeln etc.). Man kann also mit etwas Fantasie von PS1.4-Unterstuetzung im R200-Path sprechen.
ta,
-Sascha.rb
MadManniMan
2003-02-15, 00:32:40
Originally posted by Unregistered
Öhm, ich dachte PS1.4 ist eine D3D Spezifikation, Doom 3 aber benutzt doch OpenGL als API und dort gibt es nur arb_fragment_programm, was aber nur auf R300 und Gf FX zur Zeit verfügbar ist.
Damit bleiben für kleinere Chips nur die jeweiligen herstellerspezifischen OpenGL Erweiterungen für Fragmentprogramme.
Wie gesagt, wäre nicht böse, wenn jemand das ganze mal etwas entwirren könnte.
nun, doom3 verwendet für alles ab der radeon 8500 den path r200(die radeons 9500/9700 sollten aber den arb2 nehmen, da FP-rendering) und der ist auf die eigenschaften dieser karte direkt zugeschnitten. soll heißen, die 6 texturen pro pass zB stellen einen durchaus nicht zu unterschätzenden vorteil dar. dieses ist im grunde das wichtigste feature des PS 1.4
soll heißen: es wird zwar nicht direkt der PS 1.4 verwendet, aber doch die entsprechenden features
/edit: ach sascha... DU ARSCH :D einfach schneller sein als ich :madman:
...ohjee. bin ich wieder unausgeglichen. ich müßte meine freundin mal wieder sehen. aber die is inner türkei *heul* :...(
achja: gar nicht mal so dumm von futuremark, für die games 2 und 3 PS 1.4 zu verwenden. wenn man schon doom3-effekte kopiert, kanns ruhig auch doom3-mäßig implementiert sein ... *grübel*
nggalai
2003-02-15, 01:08:58
Hola,
Originally posted by MadManniMan
/edit: ach sascha... DU ARSCH :D einfach schneller sein als ich :madman:Hehe. Dazu bin ich ja da. :D
Betreffend "Doom3-Kopieren": ich hab' mit zwei Mützen von Futuremark die letzten paar Tage deswegen diskutiert. Die waren beide (nach aussen?) hin erstaunt, dass wer von Gametest 2 auf DooM3 schliessen könnte. Ja, ich habe die Reaktion auch ziemlich lustig gefunden. ;) Die technologischen Unterschiede zwischen der DooM3-Engine und 3DMark03 (i.e. nur Silhouette extruieren / alle Polygone extruieren) sind ihnen bekannt, aber ohne grossen CPU-Einsatz sahen sie keine vernünftige Möglichkeit, nur die Silhouette zu verwenden, ergo haben's immer das ganze Model durch die Schatten-Algorithmen gejagt. Das Teil soll ja Grafikkarten-limitierend sein, und möglichst wenig CPU-Leistung fressen . . .
ta,
-Sascha.rb
MadManniMan
2003-02-15, 01:42:42
Originally posted by nggalai
Hola,
Hehe. Dazu bin ich ja da. :D
Betreffend "Doom3-Kopieren": ich hab' mit zwei Mützen von Futuremark die letzten paar Tage deswegen diskutiert. Die waren beide (nach aussen?) hin erstaunt, dass wer von Gametest 2 auf DooM3 schliessen könnte. Ja, ich habe die Reaktion auch ziemlich lustig gefunden. ;) Die technologischen Unterschiede zwischen der DooM3-Engine und 3DMark03 (i.e. nur Silhouette extruieren / alle Polygone extruieren) sind ihnen bekannt, aber ohne grossen CPU-Einsatz sahen sie keine vernünftige Möglichkeit, nur die Silhouette zu verwenden, ergo haben's immer das ganze Model durch die Schatten-Algorithmen gejagt. Das Teil soll ja Grafikkarten-limitierend sein, und möglichst wenig CPU-Leistung fressen . . .
ta,
-Sascha.rb
ROFL ;D
das is jetz nich dein ernst, ne? au!
nggalai
2003-02-15, 09:30:31
Ja, ich hab's auch lustig gefunden. Moment . . .
"I don't think GT2 is that same as DOOM III. The only thing they actually have in common (besides they are shooters) is the shadows & lights 'idea'. Still, that's the way games will head in the future. At least I think so."
Naja. Im Hinterkopf werden's wohl auch DooM3 gehabt haben. ;)
ta,
-Sascha.rb
Originally posted by Unregistered
Öhm, ich dachte PS1.4 ist eine D3D Spezifikation, Doom 3 aber benutzt doch OpenGL als API und dort gibt es nur arb_fragment_programm, was aber nur auf R300 und Gf FX zur Zeit verfügbar ist.
Damit bleiben für kleinere Chips nur die jeweiligen herstellerspezifischen OpenGL Erweiterungen für Fragmentprogramme.
Wie gesagt, wäre nicht böse, wenn jemand das ganze mal etwas entwirren könnte.
Jein, Doom 3 verwendet wohl für den R200 path die GL_ATI_fragment_shader, die gehen auch auf der 8500/9000, ob diese Karten auch die ARB_fragment_program unterstützen können/werden weiss ich nicht.
Auszug aus dem D3 logfile (R8500):
...using GL_ATI_separate_stencil
...using GL_ATI_fragment_shader
...using GL_EXT_vertex_shader
...using GL_ATI_vertex_array_object
X..GL_GL2_geometry_shader not found
---------- R_NV20_Init ----------
Not available.
---------- R_NV30_Init ----------
Not available.
----- R200_Init -----
GL_NUM_FRAGMENT_REGISTERS_ATI: 6
GL_NUM_FRAGMENT_CONSTANTS_ATI: 8
GL_NUM_PASSES_ATI: 2
GL_NUM_INSTRUCTIONS_PER_PASS_ATI: 8
GL_NUM_INSTRUCTIONS_TOTAL_ATI: 16
GL_COLOR_ALPHA_PAIRING_ATI: 1
GL_NUM_LOOPBACK_COMPONENTS_ATI: 3
GL_NUM_INPUT_INTERPOLATOR_COMPONENTS_ATI: 3
Quasar
2003-02-15, 09:58:54
Die Demos von Humus z.B., die diese Extension voraussetzen, laufen mit den "kleinen" ATis nicht. Momentan unterstützen die Treiber es also wohl nur auf den R300-Chips. Ob sich das noch ändert halte ich für zweifelhaft.
Demirug
2003-02-15, 10:05:18
Originally posted by ow
Jein, Doom 3 verwendet wohl für den R200 path die GL_ATI_fragment_shader, die gehen auch auf der 8500/9000, ob diese Karten auch die ARB_fragment_program unterstützen können/werden weiss ich nicht.
Auszug aus dem D3 logfile (R8500):
...using GL_ATI_separate_stencil
...using GL_ATI_fragment_shader
...using GL_EXT_vertex_shader
...using GL_ATI_vertex_array_object
X..GL_GL2_geometry_shader not found
---------- R_NV20_Init ----------
Not available.
---------- R_NV30_Init ----------
Not available.
----- R200_Init -----
GL_NUM_FRAGMENT_REGISTERS_ATI: 6
GL_NUM_FRAGMENT_CONSTANTS_ATI: 8
GL_NUM_PASSES_ATI: 2
GL_NUM_INSTRUCTIONS_PER_PASS_ATI: 8
GL_NUM_INSTRUCTIONS_TOTAL_ATI: 16
GL_COLOR_ALPHA_PAIRING_ATI: 1
GL_NUM_LOOPBACK_COMPONENTS_ATI: 3
GL_NUM_INPUT_INTERPOLATOR_COMPONENTS_ATI: 3
ARB_fragment_program setzte AFAIK Fliesspunkt Fähigkeit vorraus. Unter R300 oder NV30 wäre dann also nichts zu machen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.