PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread für GeForce FX Benchmarks


Seiten : 1 [2] 3

tEd
2003-01-28, 07:44:03
Originally posted by ow



NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.

radeon9700pro kann auch schöne pixel machen.

Sir Integral Wingate Hellsing
2003-01-28, 07:44:51
Originally posted by ow



NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.

Also das mit den schönen Pixeln is ja nen Eigentor...
Du siehst ja was der NV30 bei "schnellem" AF oder AA für ne BQ erzeugt.
Und der NV15 sowie der NV25 sind faktisch nur MHz/FPS-Protzer ihrer jeweilligen Vorgänger.

Ich will net alles gutheißen was ATi macht, aber diesmal haben sie die Nase vorn und werden sie auch mit dem R350 vorn behalten.
Mal schaun wie schnell nu NV mit dem NV35 kommt...

La Junta
2003-01-28, 07:47:44
Originally posted by ow



NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.

Sogar Richofen hats eingesehen , das die Karte nicht der bringer ist , aber du kannst es nicht zugeben . Auf einmal wenn NVidia nichts echt schnelleres rausbringen konnte spielt die Geschwindigkeit keine Rolle ??? Lass es sein OW .
Die FX wird wohl auch ihre stärken haben (Laustärke :D ) , aber für soviel geld sowas ?
Ich hatte Richtofen als extrmen Fanboy angesehen , aber du bist nicht zu übertreffen .Im übrigen bin ich von Richtofens gelasenheit überrascht :D
Vielleicht is die normale FX leiser stromsparender und vorallem billiger , dann wäre sie eine gute Alternative .
Ausserdem war diese "fps-Protzereie" das mehr oder weniger einzige , was NVidia vorzuweissen hatte , bis jetzt . es war ja auch bis jetzt das wichtigste , aber Meinungen ändern sich schnell , nicht wahr OW ?
Ausserdem solltest auch die bessere BQ der Radeon sehen können und es ist sowieso geschmackssache .

ShadowXX
2003-01-28, 08:11:54
@ow & @crushinator

Hi,

genau die Frage die Crushinator gestellt hat, wollte ich auch gerade fragen.
Welche Test habt ihr gelesen???
Bei den Tests die ich mir zu gemüte geführt habe (4 Stück), hat die r300 den fx bei 4xAA/8xAF immer zersägt.
Also, wo habt Ihr die Werte her das die fx den r300 bei AA/AF (fast) immer schlägt? (Und ich meine jetzt nicht die 2xAA / 4(bzw. 8)xAF Werte. Bei den Einstellungen kann die fx von mir aus gewinnen da die wohl kaum jemand nutzen will der eine 500Euro Grafikkarte gekauft hat!!!!).

Die einzigen Test die (meiner Meinung nach) Zählen sind Tests mit mindestens 4xAA/8xAF. Darunter kann ich ja auch eine GF4x00 oder eine Radeon 9500Pro nehmen.

MfG
J.S.Shadow

LovesuckZ
2003-01-28, 08:30:30
Originally posted by ShadowXX
genau die Frage die Crushinator gestellt hat, wollte ich auch gerade fragen.
Welche Test habt ihr gelesen???

Anandtech.

Immortal
2003-01-28, 08:51:19
Originally posted by ow


Das ist einfach: Du hast bislang nur die Benches auf Pro-ATi-Seiten gesehen und keine wirklich unvoreingenommenen. Ich hab auch ne ganze Reihe Benches gesehen, in denen die GFFX eine R9700 mit AA&AF versägt. Schau dir einfach mal ein paar Reviews mehr an.
Ich bin ja kein Profi, aber galt Anandtech nicht immer als pro-nVidia? Das meine ich sogar hier (Forum oder Mainpage?) gelesen zu haben. :?
Gruß, Immortal

ShadowXX
2003-01-28, 10:00:18
@LovesuckZ

bei AnandTech also.....hmmm....bist du den auch bis zu den AA/AF Tests gekommen???
Bei den 4xAA/8xAF Tests bei Anandtech wird die fx aber von der r300 geschlagen (mal mehr mal weniger....)(siehe http://www.anandtech.com/video/showdoc.html?i=1779&p=14)
Also durch die Anandtech Benches kann die Festellung von Leo(Startseite von 3dcenter -> fx bei AA/AF schneller) nicht gekommen sein...

MfG
J.S.Shadow

perforierer
2003-01-28, 10:01:09
@ow:

Der GeForce FX ist sicher kein schlechter Chip. Würde s die 9700er nicht geben, wären alle zufrieden. nVidia hat aber in der Vergangenheit wie kein zweiter Hersteller Erwartungen geweckt, um Kunden davon abzuhalten zu einem anderen Produkt zu wechseln. An den Erwartungen müssen sie sich nunmal messen lassen.
Letztlich geht es doch um 3 Dinge, die niemand übersehen kann:

1. Der FX ist sicher in bestimmten Szenarien besser als der 9700er. Aber ist das das, was man von einem neuen nVidia Chip erwartet, nachdem so lange nichts neues kam?

2. Die Leistung wird durch eine sehr hohe Taktung erkauft. Es wirkt einfach so, als sei der core schon jetzt am Ende und ausgemolken.
Wer kauft sich bitte eine Graka mit solch einer Lüftung? Würdest Du Dir sowas unter den Rechner stellen?

3. Warum um alles in der Welt sollte ich für diese geringe Mehrleistung über 200€ = 400 DM mehr ausgeben?

Thowe
2003-01-28, 10:04:16
Originally posted by Immortal

Ich bin ja kein Profi, aber galt Anandtech nicht immer als pro-nVidia? Das meine ich sogar hier (Forum oder Mainpage?) gelesen zu haben. :?
Gruß, Immortal

Eigentlich schon, also bisland sind mir keine Tests auf ATi-Fanseiten untergekommen.

Man muss es einfach mal aus den 2 echten Perspektiven betrachten. "ATi Fans" flamen wohl hauptsächlich weil der "Schrecken" jetzt gelüftet ist und der Bär sich mehr als Maus entpuppt hat. nVidia Fans sind wohl eher enttäuscht, da sie einfach ein klare Disqualifikation erwartet haben. nVidias "Fehler" ist aber einfach die Ultra-Version der Karte in das Rennen geschickt zu haben, da wären sie mit der 400Mhz Version am Start besser weggekommen.

Letztendlich wäre es für mich persönlich entscheident, wie die Karte beim echten max. AA/AF und 1280x1024 performt.

Labberlippe
2003-01-28, 10:07:26
Originally posted by Thowe


Eigentlich schon, also bisland sind mir keine Tests auf ATi-Fanseiten untergekommen.

Man muss es einfach mal aus den 2 echten Perspektiven betrachten. "ATi Fans" flamen wohl hauptsächlich weil der "Schrecken" jetzt gelüftet ist und der Bär sich mehr als Maus entpuppt hat. nVidia Fans sind wohl eher enttäuscht, da sie einfach ein klare Disqualifikation erwartet haben. nVidias "Fehler" ist aber einfach die Ultra-Version der Karte in das Rennen geschickt zu haben, da wären sie mit der 400Mhz Version am Start besser weggekommen.

Letztendlich wäre es für mich persönlich entscheident, wie die Karte beim echten max. AA/AF und 1280x1024 performt.

Andandtech ist keine Fanseite, ich glaube nicht das die sich nur auf nVIDIA beschränken.

Gruss Labberlippe

Thowe
2003-01-28, 10:12:05
Originally posted by Labberlippe


Andandtech ist keine Fanseite, ich glaube nicht das die sich nur auf nVIDIA beschränken.

Gruss Labberlippe

Die Frage war ob Pro-nVidia, also tendenziell immer die Artikel nVidia-freundlicher gestalltet sind und das waren sie i.d.R. schon.

nagus
2003-01-28, 10:20:49
Originally posted by ow


Das ist einfach: Du hast bislang nur die Benches auf Pro-ATi-Seiten gesehen und keine wirklich unvoreingenommenen. Ich hab auch ne ganze Reihe Benches gesehen, in denen die GFFX eine R9700 mit AA&AF versägt. Schau dir einfach mal ein paar Reviews mehr an.


mit 2xfssaa gebe ich dir recht. aber was ist bei 4xfsaa oder gar 6xfsaa?! da liegt die GFFX deutlich hinter der Radeon 9700PRO.

außerdem ist die bildqualität der GFFX bei 6xfsaa und 8xfsaa der reinste WITZ. 4xAA von ati shieht da bedeutend besser aus und ist auch schneller. also wozu dann dieses gebläse kaufen? .... *update* wenn sogar die 9500PRO teilweise schon schneller ist

Experte
2003-01-28, 10:30:02
spam gelöscht.rb

nggalai
2003-01-28, 10:34:00
Hi there,
Originally posted by ShadowXX
bei AnandTech also.....hmmm....bist du den auch bis zu den AA/AF Tests gekommen???
Bei den 4xAA/8xAF Tests bei Anandtech wird die fx aber von der r300 geschlagen (mal mehr mal weniger....)(siehe http://www.anandtech.com/video/showdoc.html?i=1779&p=14)
Also durch die Anandtech Benches kann die Festellung von Leo(Startseite von 3dcenter -> fx bei AA/AF schneller) nicht gekommen sein...Ich hab' mit Anands Quality-Benches so meine Probleme. Einerseits bencht er den Performance-Modus der Radeon9700 nachm Motto "Unterschiede zwischen Performance und Quality sieht man nicht", andererseits vergleicht er dann doch wieder das 4xMSAA der Radeon mitm 4xMSAA der GFFX, wo qualitätsmässig Welten dazwischenliegen. Kurz gesagt widerspricht sich Anand in dem Test selbst: einerseits AF "weil's gleich aussieht", andererseits zwei qualitativ völlig unterschiedliche FSAA-Stufen.

Entweder soll er technisch vergleichbare Settings nehmen--z.B. Quality-AF bei der Radeon da trilinear gefiltert, oder bei der GFFX das AF mitnem Tuner auf bilinear umschalten--oder auf vergleichbare Qualität pochen. So jedoch hat er's fertiggebracht, einen ziemlich sinnlosen Vergleich zu posten: sowohl technisch nicht vergleichbar, als auch von der Bildqualität her nicht vergleichbar. Da wären Benches mit 2xMSAA (technische Vergleichbarkeit) oder mit 4xMSAA bei der Radeon9700 und z.B. 8xS FSAA bei der GFFX (optische Vergleichbarkeit) besser gewesen.

ta,
-Sascha.rb

Unregistered
2003-01-28, 11:11:46
Originally posted by ow

NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.

ow, Du bist echt nicht lernfähig. Wie kann man nur mit solchen Scheuklappen durchs Leben laufen?

Muh-sagt-die-Kuh
2003-01-28, 11:17:07
Originally posted by ow



NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip. Ein ziemlich billiger Versuch, doch recht schwache Leistung zu rechtfertigen.....von den DX 9 Fähigkeiten wird man in Real-World Anwendungen nicht viel zu sehen bekommen, bis das intensiv genutzt wird ist die Karte schon wieder out-of-Date.

HOT
2003-01-28, 11:19:06
Originally posted by nggalai
Hi there,
Ich hab' mit Anands Quality-Benches so meine Probleme. Einerseits bencht er den Performance-Modus der Radeon9700 nachm Motto "Unterschiede zwischen Performance und Quality sieht man nicht", andererseits vergleicht er dann doch wieder das 4xMSAA der Radeon mitm 4xMSAA der GFFX, wo qualitätsmässig Welten dazwischenliegen. Kurz gesagt widerspricht sich Anand in dem Test selbst: einerseits AF "weil's gleich aussieht", andererseits zwei qualitativ völlig unterschiedliche FSAA-Stufen.

Entweder soll er technisch vergleichbare Settings nehmen--z.B. Quality-AF bei der Radeon da trilinear gefiltert, oder bei der GFFX das AF mitnem Tuner auf bilinear umschalten--oder auf vergleichbare Qualität pochen. So jedoch hat er's fertiggebracht, einen ziemlich sinnlosen Vergleich zu posten: sowohl technisch nicht vergleichbar, als auch von der Bildqualität her nicht vergleichbar. Da wären Benches mit 2xMSAA (technische Vergleichbarkeit) oder mit 4xMSAA bei der Radeon9700 und z.B. 8xS FSAA bei der GFFX (optische Vergleichbarkeit) besser gewesen.

ta,
-Sascha.rb

hmm... das kann man wohl aus politischen Gründen nicht bringen. Stell dir mal vor, wie der R300 die NV30 bei TriAF und 8xS selbst mit 6xAA zersägt hätte ;)
Da wär Anand der Buhmann der Nation gewesen.

nggalai
2003-01-28, 11:23:26
Originally posted by HOT


hmm... das kann man wohl aus politischen Gründen nicht bringen. Stell dir mal vor, wie der R300 die NV30 bei TriAF und 8xS selbst mit 6xAA zersägt hätte ;)
Da wär Anand der Buhmann der Nation gewesen. Das macht die Benches aber auch nicht brauchbarer. Dann hat Anand auch nicht gemerkt, dass die GFFX bei 2xMSAA die beiden Multisample-Buffer nicht im Framebuffer kombiniert und daher der 2x "Qualitätsvergleich" wie präsentiert sinnlos ist, und ey presto--ein ziemlich nutzloses Review.

ta,
-Sascha.rb

Unregistered
2003-01-28, 11:27:56
Originally posted by Muh-sagt-die-Kuh
Ein ziemlich billiger Versuch, doch recht schwache Leistung zu rechtfertigen.....von den DX 9 Fähigkeiten wird man in Real-World Anwendungen nicht viel zu sehen bekommen, bis das intensiv genutzt wird ist die Karte schon wieder out-of-Date.

'schwache leistung'? Die FX scheint in den baldigen DX8 Spielen einen guten Vorteil gegenueber der 9700pro zu haben.

http://www.hardware.fr/medias/photos_news/00/05/IMG0005773.gif

Muh-sagt-die-Kuh
2003-01-28, 11:29:02
Originally posted by nggalai
Das macht die Benches aber auch nicht brauchbarer. Dann hat Anand auch nicht gemerkt, dass die GFFX bei 2xMSAA die beiden Multisample-Buffer nicht im Framebuffer kombiniert und daher der 2x "Qualitätsvergleich" wie präsentiert sinnlos ist, und ey presto--ein ziemlich nutzloses Review.

ta,
-Sascha.rb So drastisch würde ich das nicht formulieren.

Man sieht an dem Review sehr schön, wie die AF-Modi der Karten sich leistungsmässig gegenüberstehen (der Verlust mit 4xAA ist bei beiden Karten ziemlich ähnlich) und wieviel Prozent Leistung AA und AF im Durchschnitt kosten. Das ist meiner Meinung nach schon einiges Wert.

La Junta
2003-01-28, 11:31:24
Ich find den Anand Test gut , von den bisherigen am besten .
Es ist Ansichtssache und einen absolut fairen Rewiev wirds nie geben .
Insofern find ichs gut (Meine Ansicht).

Immortal
2003-01-28, 11:32:41
Originally posted by Thowe Die Frage war ob Pro-nVidia, also tendenziell immer die Artikel nVidia-freundlicher gestalltet sind und das waren sie i.d.R. schon.
Danke, genau das meinte ich.
Gruß, Immortal

Muh-sagt-die-Kuh
2003-01-28, 11:34:06
Originally posted by Unregistered


'schwache leistung'? Die FX scheint in den baldigen DX8 Spielen einen guten Vorteil gegenueber der 9700pro zu haben.

http://www.hardware.fr/medias/photos_news/00/05/IMG0005773.gif Der Aquamark entspricht in keinster Weise einem realen Spiel, er ist ein synthetischer Benchmark unter vielen.

Weisst du etwa schon im Vorraus, wie künftige DX 8 Spiele aussehen werden?

Unregistered
2003-01-28, 11:34:27
Originally posted by nggalai
Das macht die Benches aber auch nicht brauchbarer. Dann hat Anand auch nicht gemerkt, dass die GFFX bei 2xMSAA die beiden Multisample-Buffer nicht im Framebuffer kombiniert und daher der 2x "Qualitätsvergleich" wie präsentiert sinnlos ist, und ey presto--ein ziemlich nutzloses Review.

ta,
-Sascha.rb

1. Tust du gerade so, als sei dass schon erwiesen.

und noch viel wichtiger 2.

Ist das für die Benchmarks völlig irrelevant, die liefen alle bei 4xAntialiasing. Deshalb das Review als nutzlos abzustempeln,:lol: schöner Versuch. Kann ich echt bei klarem Verstand nicht nachvollziehen.

Imo eines der besten Reviews, weil auch hingeschaut wurde, was bei rauskommt. Vielleicht berufst du dich ja bald auf die Gamestar. Btw, time will tell.

ShadowXX
2003-01-28, 11:38:10
@nggalai

Natürlich hast du Recht was die IQ-Einstellungen betrifft.
Allerdings haben Sie die r300 auch mit Quality-Settings getestet und auch dann war Sie schneller (wenn auch nur noch minimal, ok können einfach Messungenauigkeiten sein, aber dann Sind Sie bei diesen Quality-Settings (4xAA/8xAF) eben ca. gleichschnell.)

Allerdings sagts du auch das man das 4xRGMSAA der r300 nicht mit dem 4xOGMSAA der fx vergleichen kann und bei der fx deshalb lieber das 8xS (bzw. wie der Modus auch immer heissen mag) als Vergleich herranziehen sollte. Dann würde die fx allerdings Definitiv langsamer als die r300 werden.

Und dann ist Sie Ihr Geld (zumindest jetzt) nicht wert.
Selbst wenn Sie nach Treiberupdates 10% schneller werden sollte ist Sie den Mehrpreis gegenüber einer r300 nicht wert.

Ich bin weissgott kein Ati-Fan (auch kein nv-Fan), aber wir alle haben wohl wesentlich mehr von nv erwartet. (Über den Lüfter läster...ähhh rede ich jetzt nicht, dafür gibts einen anderen Thread.....)

MfG
J.S.Shadow

Unregistered
2003-01-28, 11:40:52
Originally posted by Unregistered


1. Tust du gerade so, als sei dass schon erwiesen.

und noch viel wichtiger 2.

Ist das für die Benchmarks völlig irrelevant, die liefen alle bei 4xAntialiasing. Deshalb das Review als nutzlos abzustempeln,:lol: schöner Versuch. Kann ich echt bei klarem Verstand nicht nachvollziehen.

Imo eines der besten Reviews, weil auch hingeschaut wurde, was bei rauskommt. Vielleicht berufst du dich ja bald auf die Gamestar. Btw, time will tell.


Imo beschei*** nVidia bei den Aniso-Benchmarks, aber keinen interessierts, warum sie dort keine Leistung verliert. Wozu auch die Augen aufmachen, am Ende stehen ja immer so schöne Zahlen da. Viel Spaß damit. wenigsten hat man dan den Längsten, wobei er dann auch schön hässlich ist.

Kopf-in-den-Sand oder doch lieber Hans-guck-in-die Luft.

nggalai
2003-01-28, 11:52:21
Hi there,

uii. ok. zur Klärung: mir geht's nicht drum, ob die GFFX "schlechter" dargestellt wurde oder nicht. Mir geht's ums Prinzip. Ich bin grundsätzlich eh gegen jegliche Form von Vergleichs"reviews", aber wenn man's schon versucht, dann sollte man wenigstens konsequent bleiben:

a) Vergleichbare technische Voraussetzungen vergleichen (die ähnlichsten Filteringmethoden, die ähnlichsten FSAA-Methoden)

ODER

b) Vergleichbare Bildqualität vergleichen.

Das hat Anand leider komplett versäumt, in seinen Quality-Benchmarks. Interessant sind diese Benchmarks höchstens, um die Einbrüche nur bei der GFFX isoliert zu betrachten, aber dann braucht man auch keine Radeon9700-Werte zum Vergleich.

Zur Sache mitm Framebuffer/Screenshot-Problem bei 2xMSAA: bisher deuten alle Indizien, insbesondere Thilos Aussagen zur Problematik, darauf hin, dass genau das passiert ist. Da hätte Anand sich zumindest wundern sollen, dass es aufm Monitor (wie von Thilo und Brent mitlerweilen bestätigt) anders aussieht als in seinen Screenshots.

ta,
-Sascha.rb

Unregistered
2003-01-28, 11:53:01
Originally posted by Muh-sagt-die-Kuh
Der Aquamark entspricht in keinster Weise einem realen Spiel, er ist ein synthetischer Benchmark unter vielen.


Der Flyby von UT2003 auch nicht. Trotzdem sind fast 45% mehr Leistung in einen DX8 Bench nicht schlecht und schmaelert bestimmt nicht Leistung.

Unregistered
2003-01-28, 12:00:56
Originally posted by nggalai


a) Vergleichbare technische Voraussetzungen vergleichen (die ähnlichsten Filteringmethoden, die ähnlichsten FSAA-Methoden)

ODER

b) Vergleichbare Bildqualität vergleichen.

Das hat Anand leider komplett versäumt, in seinen Quality-Benchmarks. Interessant sind diese Benchmarks höchstens, um die Einbrüche nur bei der GFFX isoliert zu betrachten, aber dann braucht man auch keine Radeon9700-Werte zum Vergleich.



ta,
-Sascha.rb


a) Wenn interessieren vergleichbare Namen? Genau das ist doch der größte Schwachsinn. Wenn nVidia jetzt mit seinen 8xAntiA nur noch 4x liefert wird 8mal gebencht??? Kaufts du immer die Packung mit den grösseren Zahlen?

b)genau das hat anandtech gemacht. Mit Vorteil (IQ-Nachteil-AA) für nVidia.

Unregistered
2003-01-28, 12:03:01
@nggalai

PS: Da kannst du deine guten Kontakte spielen lassen, was falsch ist wird dadurch auch nicht richtig.

Gerhard
2003-01-28, 12:54:09
Das mit dem Screenshots und dem Framebuffer ist so einfach nicht. Zum einen wird seit der GF4 ein Filter im Ramdac benutzt, der natürlich nicht mit Framebuffer abgebildet ist. Nur bewirkt diese aber nur eine Glättung durch gezielte Unschärfe, nicht zusätzliche Informationen. Es kann daher durchaus das Bild anderst aussehen (nämlich glatter), ohne aber wirklich Antialiasing zu verwenden. Wird dies geschickt bei höheren Auflösungen gemacht, fällt dies eventuell erst bei genauerer Samplepattern Analyse auf.

Zum anderen sollte nach dem Rendering und anschliesendem FB-Lock (und dort wird das Bild ja "geschossen", sonst würde es auch bei 4x AA nicht funktionieren) das kombinierte Bild im Speicher vorliegen, sonst wird es immer Probleme geben mit Applikationen die das Bild zur Weiterverarbeitung "abgreifen" wollen, sei es für Rendering to Texture (Grafikkartenintern) oder auch z.B. Renderingzwecke und anschliesendes Speichern auf Disk oder änliches. Zum anderen funktioniert es ja interessanterweise bei der GF4 (wie man an älteren Tests bei Anandtech und HardOcp sehr schön nachsehen kann).

Das sollte auf jeden Fall näher untersucht werden.

nggalai
2003-01-28, 13:21:31
Hi Unreg,
Originally posted by Unregistered
a) Wenn interessieren vergleichbare Namen? Genau das ist doch der größte Schwachsinn. Wenn nVidia jetzt mit seinen 8xAntiA nur noch 4x liefert wird 8mal gebencht??? Kaufts du immer die Packung mit den grösseren Zahlen?

b)genau das hat anandtech gemacht. Mit Vorteil (IQ-Nachteil-AA) für nVidia. Zu a): nein. Aber wie wär's, wenn man wirklich Settings vergleicht, die auch annähernd gleich aussehen? Die Radeon9700 macht bei 4xMSAA rotated grid und glättet deutlich besser als die GFFX mit 4xMSAA. Daher auch mein b)-Vorschlag: Wenn man Bildqualität vergleichen will, sollte man ähnliche Settings nehmen. Und das ist bei 4xMSAA zwischen Radeon9700 und GFFX nicht gegeben.

Vielleicht ist's so klarer, worauf ich hinaus möchte.

Hi Gerhard,

stimmt, so einfach ist's nicht--aber der RAMDAC wird nicht nur beim Quincunx verwendet, sondern auch zum Runtermischen der 2x-Multisamples. Ob genau 2 Multisample-Buffer verwendet werden, oder "nur" ein grosser welcher beide Werte beinhaltet ist da nicht gross relevant; erst der RAMDAC mischt bei der GF4--und nach den Screenshots zu beurteilen auch die GFFX--die verschiedenen Samples zum "fertig-geantialiasten" Bild zusammen. Wenn man vom Framebuffer einen screenshot mittels Print-Screen o.ä. macht, erhält man automatisch nur einen der beiden Buffer. Das ergibt dann schön den Effekt, welchen bei vielen 2x-Screenshots zur GFFX zu sehen ist: sieht mehr nach 1.5x MSAA als 2x MSAA aus. Diese Technik ist eines der Dinge, welche von 3dfx übernommen wurden. Um vernünftige Screenshots zu machen, braucht man ein Tool, welches nicht einfach den Framebuffer ausliest.

Es gibt ein Auflösungslimit, wo das ganze offenbar so nicht mehr funktioniert und wie bei der Radeon9700 oder GF3 das Mischen im Framebuffer selbst geschieht (und dann auch "normale" Screenshots funktionieren). Quasar hat das auch mal angedeutet, waren glaub' bei der GF4 1280x1024 oder 1600x1200.

ta,
-Sascha.rb

DrFreaK666
2003-01-28, 13:22:27
Originally posted by Unregistered


Der Flyby von UT2003 auch nicht. Trotzdem sind fast 45% mehr Leistung in einen DX8 Bench nicht schlecht und schmaelert bestimmt nicht Leistung.

Der Nature-benchmark ist auch ein DX8-bench.
Aber wo sind da 45% Vorsprung???

nggalai
2003-01-28, 13:23:38
OK, FSAA-Diskussion geht hier weiter:

http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&threadid=51600

ta,
-Sascha.rb

Unregistered
2003-01-28, 13:24:59
Originally posted by nggalai
Hi Unreg,
Zu a): nein. Aber wie wär's, wenn man wirklich Settings vergleicht, die auch annähernd gleich aussehen? Die Radeon9700 macht bei 4xMSAA rotated grid und glättet deutlich besser als die GFFX mit 4xMSAA. Daher auch mein b)-Vorschlag: Wenn man Bildqualität vergleichen will, sollte man ähnliche Settings nehmen. Und das ist bei 4xMSAA zwischen Radeon9700 und GFFX nicht gegeben.

hm, wie würdest du denn dann unter open-gl vergleichen? NV hatt dort nich mehr als 4*OG zu bieten, richtig?

Exxtreme
2003-01-28, 13:27:51
LOL

Hellbinder, die zweite:

http://66.224.5.66/board/showthread.php?s=&threadid=33662696

Unregistered
2003-01-28, 13:29:04
Originally posted by nggalai
Hi Unreg,
Zu a): nein. Aber wie wär's, wenn man wirklich Settings vergleicht, die auch annähernd gleich aussehen? Die Radeon9700 macht bei 4xMSAA rotated grid und glättet deutlich besser als die GFFX mit 4xMSAA. Daher auch mein b)-Vorschlag: Wenn man Bildqualität vergleichen will, sollte man ähnliche Settings nehmen. Und das ist bei 4xMSAA zwischen Radeon9700 und GFFX nicht gegeben.

Vielleicht ist's so klarer, worauf ich hinaus möchte.


Diese Argumentation ist einfach Quatsch, es den du behauptest, dass Anand die FX bevorteilt hat (da sie eine geringere Bildqualität liefert). Darunter versteh ich aber nicht, das Review als Unsinn hinzustellen. Es ist eines der wenigen, das die positiven Ansätze zeigt, die bei den meisten zu vermissen sind.

Jetzt hätte ich gern dein Urteil zu all den anderen Reviews, die in keinster Weise darauf eingegangen sind. Es müsste vernichtend sein.

ShadowXX
2003-01-28, 13:32:55
@Unregistered

genau deiner Meinung.
Es scheint also würden sich die meisten nicht "trauen" mit höherem AA als 2x bei der fx zu testen (haue von nv???)

Und ich schätze das sich die meisten mit der Ausrede der Nichtvergleichbarkeit der Modi (4xRGAA gegen 4xOGAA) herrausreden werden. Aber warum testen sie dann nicht gegen 8xS oder 6xS (bzw. wie die Modi denn bei nv heissen)? -> Vielleicht weil die fx dann meistens klar verlieren würde??? (->nochmal haue von nv??? , vielleicht gibt es noch einen anderen Grund als die geringe Verfügbarkeit der fx'se warum nur bestimmte Seiten eine Karte zum Testen bekommen haben...)

MfG
J.S.Shadow

nggalai
2003-01-28, 13:46:41
Hi there,
Originally posted by Unregistered
Diese Argumentation ist einfach Quatsch, es den du behauptest, dass Anand die FX bevorteilt hat (da sie eine geringere Bildqualität liefert). Darunter versteh ich aber nicht, das Review als Unsinn hinzustellen. Es ist eines der wenigen, das die positiven Ansätze zeigt, die bei den meisten zu vermissen sind.

Jetzt hätte ich gern dein Urteil zu all den anderen Reviews, die in keinster Weise darauf eingegangen sind. Es müsste vernichtend sein. Bis jetzt finde ich alle Reviews massiv ungenügend. Keines geht auf Signalqualität ein, keine Erwähnung z.B. der DVD-Qualität, und alle scheinen zum Ziel zu haben, einfach einen Vergleich zur Radeon9700 zu führen. Und wie bereits weiter vorn gesagt, kann ich Vergleiche mit Hardware anderer Hersteller in einem Review eh nicht ausstehen. ;) Aber das wird jetzt zu OT.

Ich hab' Anand einfach genommen, weil mich da der Apfel-Birnen-Vergleich am meisten gestört hat. Das ist alles.

ta,
-Sascha.rb

Crushinator
2003-01-28, 14:12:25
Originally posted by ow Das ist einfach: Du hast bislang nur die Benches auf Pro-ATi-Seiten gesehen und keine wirklich unvoreingenommenen. Ich hab auch ne ganze Reihe Benches gesehen, in denen die GFFX eine R9700 mit AA&AF versägt. Schau dir einfach mal ein paar Reviews mehr an. Lieber ow, da ich immer noch nicht glauben will, daß Du wirklich so NV-geblendet bist, habe ich mir gerade die Reviews von THG, Extremetech, HardCOP und Technchannel gründlich durchgelesen. Dabei konnte ich keine graviernd abweichenden Werte finden und mein Eindruck hat sich noch mehr verhärtet, daß die Radeon ab 1280+ und "vergleichbaren" AA+AF davon zieht.

Und das gerade Du von "unvoreingenommen" sprichst, gibt mir sehr zu bedenken. ;)

Aber viel ärgerlicher ist eigentlich, daß Leo auf der Startseite immer noch einen IMHO nicht haltberen Satz stehen hat, obwohl er es AFAIR nicht mal selbst gebenched hat. :(

Crushinator
2003-01-28, 14:16:21
Originally posted by ow NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.
L;DL!!!1

Natürlich, denn es gibt ja auch schon (nach 2 Jahren) sooooooooo viele Spiele, die eine NV20 voraussetzen weil sie damit sooooo viel schöner aussehen. ;)

Unregistered
2003-01-28, 14:18:19
Originally posted by crushinator
Lieber ow, da ich immer noch nicht glauben will, daß Du wirklich so NV-geblendet bist, habe ich mir gerade die Reviews von THG, Extremetech, HardCOP und Technchannel gründlich durchgelesen. Dabei konnte ich keine graviernd abweichenden Werte finden und mein Eindruck hat sich noch mehr verhärtet, daß die Radeon ab 1280+ und "vergleichbaren" AA+AF davon zieht.


Dann schau dir bitte nicht nur die Review's an, wo die Unterschiede kleiner scheinen. Anand und der französische Test sollten dir auch einen Blick wert sein.

Crushinator
2003-01-28, 14:27:40
Originally posted by nagus mit 2xfssaa gebe ich dir recht. aber was ist bei 4xfsaa oder gar 6xfsaa?! da liegt die GFFX deutlich hinter der Radeon 9700PRO. Genau meine Meinung. Ich "respektiere" den Vorsprung der FX bei 2xFSAA - ohne genau zu wissen, ob 2x überhaupt richtig funktioniert - Ich störe mich wie gesagt nur an der Verallgemeinerung: "bei AA+AF sei die FX auch schneller" nur weil sie sehr vereinzelt bis 4x AA+ 8x AF und das auch nur bis 1280 mithalten kann, jedoch die meisten Benches mit der Einstellung (und höher) deutlich verliert.

Crushinator
2003-01-28, 14:30:04
Originally posted by Unregistered Dann schau dir bitte nicht nur die Review's an, wo die Unterschiede kleiner scheinen. Anand und der französische Test sollten dir auch einen Blick wert sein. Ja, aber Anand habe ich ja als erstes schon gehabt. Deswegen habe die Startseiten-Meldung überhaupt bemekert. ;)

Anonym_001
2003-01-28, 14:36:02
Bei giga.de haben sie heute eine GF FX bekommen und wollen morgen im Helpbereich einen FX Tag einlegen.

Katrin
2003-01-28, 14:39:25
Originally posted by Anonym_001
Bei giga.de haben sie heute eine GF FX bekommen und wollen morgen im Helpbereich einen FX Tag einlegen.

ja und guckt euch mal den Lüfter an, was da drauf steht. Also wird es wohl keine andere Kühlung geben, von den Drittherstellern

http://gamesfiles.giga.de/fotostories/bilderpool/52087_1043757875.jpg

Dr. Greenthumb
2003-01-28, 14:46:39
Originally posted by Katrin


ja und guckt euch mal den Lüfter an, was da drauf steht. Also wird es wohl keine andere Kühlung geben, von den Drittherstellern

http://gamesfiles.giga.de/fotostories/bilderpool/52087_1043757875.jpg

Das war doch wohl auch nicht zu erwarten. Wenn die karte mit der Kühlung schon 68 grad heiss wird, wie soll man leise kühlen wenn der Radaubruder schon nicht mehr schafft.

Der Witz überhaupt ist aber das Terratec mit der "flüterleisen" Kühlung wirbt. Die haben wohl nen Rad am Wandern. Ich will nicht die antehende Anzahl von Reklamationen sehen.

Katrin
2003-01-28, 14:48:14
Originally posted by Dr. Greenthumb


Das war doch wohl auch nicht zu erwarten. Wenn die karte mit der Kühlung schon 68 grad heiss wird, wie soll man leise kühlen wenn der Radaubruder schon nicht mehr schafft.

Der Witz überhaupt ist aber das Terratec mit der "flüterleisen" Kühlung wirbt. Die haben wohl nen Rad am Wandern. Ich will nicht die antehende Anzahl von Reklamationen sehen.

steht eigentlich irgendwo der db Wert, den der Lüfter verursacht ?

nggalai
2003-01-28, 14:53:54
Hi Katrin,
Originally posted by Katrin


ja und guckt euch mal den Lüfter an, was da drauf steht. Also wird es wohl keine andere Kühlung geben, von den Drittherstellern

http://gamesfiles.giga.de/fotostories/bilderpool/52087_1043757875.jpg Es gibt Europa-Weit gerade mal eine Handvoll Review-Karten, welche wie wild umhergereicht werden. Ist gut möglich, dass das Ding da genau die Karte ist, die Thilo am Samstag/Sonntag noch hatte--er musste "seine" Karte am Sonntag Abend in einem Hotel bei Terratec-Mützen abgeben, damit das Teil möglichst flott zum nächsten Reviewer kann. ;)

ta,
-Sascha.rb

seahawk
2003-01-28, 14:54:18
Originally posted by Katrin


ja und guckt euch mal den Lüfter an, was da drauf steht. Also wird es wohl keine andere Kühlung geben, von den Drittherstellern

http://gamesfiles.giga.de/fotostories/bilderpool/52087_1043757875.jpg

Vielleicht haben die einen anderen Lüfter verbaut. Glaube ich aber eigentlich nicht.

seahawk
2003-01-28, 14:55:30
Originally posted by nggalai
Hi Katrin,
Es gibt Europa-Weit gerade mal eine Handvoll Review-Karten, welche wie wild umhergereicht werden. Ist gut möglich, dass das Ding da genau die Karte ist, die Thilo am Samstag/Sonntag noch hatte--er musste "seine" Karte am Sonntag Abend in einem Hotel bei Terratec-Mützen abgeben, damit das Teil möglichst flott zum nächsten Reviewer kann. ;)

ta,
-Sascha.rb

Dann wird er Handel wohl noch länger warten, wenn nicht mal genug Testkarten zur Verfügung stehen.

Dr. Greenthumb
2003-01-28, 14:55:33
Originally posted by Katrin


steht eigentlich irgendwo der db Wert, den der Lüfter verursacht ?

Naja DIN Messungen gibts nicht aber Verlgeichswerte. Der Lüfter ist ca 8-10 Db lauter. Das bedeutet mehr als doppelt so laut. Interessant wird die Messung der c`t die messen nämlich in Sone, der subjektiv empfundenen Luatstärke. Das gibt einen einsamen Spitzen wert ;-)

kmf
2003-01-28, 14:58:01
Hat zwar hier nix zu suchen, gefällt mir aber -

die Ausführung für die Frauen:

Dr. Greenthumb
2003-01-28, 15:00:23
Originally posted by kmf
Hat zwar hier nix zu suchen, gefällt mir aber -

die Ausführung für die Frauen:

Das wird Katrin aber garnicht gerne hören.

gez. Dr. Greenthumb der Passwortvergesser

Katrin
2003-01-28, 15:02:31
Originally posted by kmf
Hat zwar hier nix zu suchen, gefällt mir aber -

die Ausführung für die Frauen:

Dann lass ich mir besser ne Glatze schneiden. So ein Föhn kommt mir nicht ins Haus:bäh:

nggalai
2003-01-28, 15:12:20
Originally posted by Katrin


steht eigentlich irgendwo der db Wert, den der Lüfter verursacht ? Bin mir nicht mehr ganz sicher, glaube aber wo was von "60dB(A) bei 3 Fuss Abstand" gelesen zu haben. War glaub' bei [H]. Anand hat was von 77dB(A) gesagt, gleich direkt neben der Karte.

60dB(A) entspricht etwa einem Gespräch zwischen zwei Leuten, die nicht gerade flüstern aber noch nicht rumschreien.

ta,
-Sascha.rb

nagus
2003-01-28, 15:20:37
Originally posted by Katrin


Dann lass ich mir besser ne Glatze schneiden. So ein Föhn kommt mir nicht ins Haus:bäh:

besonders du könntest sowas doch gut gebrauchen :bäh: ;D

Katrin
2003-01-28, 15:21:58
Originally posted by nagus


besonders du könntest sowas doch gut gebrauchen :bäh: ;D

ja, wenn Ati mir so ein Ding baut und es net als GK verkauft ;D

RiESENHiRNi
2003-01-28, 15:32:07
es waren abgeblich nur testsamples, in der
verkausversion soll sie leiser sein hört man.

ich denke erst wenn der neue futuremark da ist,
wird man mit ner ati9700pro sehr an punkten verlieren!
da gibts dann tests für die sonderfunktionen und
schon hat die kleine fx mehr futuremurks als die 9700pro! ;)

war doch schon damals so mit tnt2 und 32bit,
obwohls nicht nutzbar (ruckelruckel) war
hatte man mehr punkte!

und da der futuremark ein dx9 test wird, also quasi
"der" neue standardbenchmark.

deshalb wird man die fx dann auch verkaufen können! ;)

aths
2003-01-28, 15:43:18
Originally posted by ow
NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage.Schönere Pixel mit dem standardmäßig verschlechtertem AF und dem technisch überholtem FSAA? (Und schon beim NV20 schönere Pixel? Mit dem unterlegenem PixelShader, mit der geringeren Bit-Präzision im Vergleich zum R200?)
Originally posted by ow
Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip. Geht es nicht in erster Linie um Leistung? Sind ATIs AF- und AA-Mechanismen nicht effizienter (=mehr Qualtät pro erforderliche Leistung) implementiert?

Unregistered
2003-01-28, 15:52:50
Originally posted by RiESENHiRNi
es waren abgeblich nur testsamples, in der
verkausversion soll sie leiser sein hört man.

ich denke erst wenn der neue futuremark da ist,
wird man mit ner ati9700pro sehr an punkten verlieren!
da gibts dann tests für die sonderfunktionen und
schon hat die kleine fx mehr futuremurks als die 9700pro! ;)

war doch schon damals so mit tnt2 und 32bit,
obwohls nicht nutzbar (ruckelruckel) war
hatte man mehr punkte!

und da der futuremark ein dx9 test wird, also quasi
"der" neue standardbenchmark.

deshalb wird man die fx dann auch verkaufen können! ;)

Na klar, weil sie dann ihre langen shader ausspielen kann. Bist du so naiv oder tust du nur so? Die waschen sich doch gegenseitig die Hände. Schau dir mal die DX8-Tests (Nature, Pixelshader, Adv-PS) im normalen 3dmark an. Da gibt es keinen großen Unterschied, eher einen Nachteil für die FX. Von wegen schneller DX9 Fähigkeit. Das hat mit der Geschwindigkeit kaum was zu tun.

Aber mit dem neuen Benchmark wird jeder mal merken, wie abgekartet das Spiel ist. Die Fanboys werden bestimmt jubeln, aber irgendwann merken die auch, dass sie nur Marionetten waren.

Leonidas
2003-01-28, 15:57:34
Originally posted by crushinator
Mädelz, mir ist aufgefallen, daß auf der Startseite von 3dcenter davon gesprochen wird, daß die FX bei aktiviertem AA+AF rein performance-technisch die Radeon(s) schlägt. Bin ich nur zu blöd oder warum finde ich nur bessere AA Werte, die auch nicht besonders berauschend sind? Ich habe mir gerade den Artikel von Anand noch mal angeschaut und festgestellt, daß die FX nur bis 1280 und da auch nur bis 4x nur AA mithalten kann bzw. schneller ist. Wenn AA+AF ins Spiel kommen zieht die Radeon wieder weg, wie kann man daraus behaupten die FX sei dabei in der Mehrzahl der Tests bei AA+AF schneller? :|



Die Darstellung der Benchmarks bei Anand ist meiner Meinung nach höchst unglücklich. Er hat dort ATi Performance mit eingemischt, was die meisten wohl überlesen haben werden. Lässt man die beiden ATi Performance Zahlen weg und vergleicht nur ATi Quality gegen nVidia Balanced, gewinnt nVidia.

Leonidas
2003-01-28, 15:59:41
Originally posted by ShadowXX
@LovesuckZ

bei AnandTech also.....hmmm....bist du den auch bis zu den AA/AF Tests gekommen???
Bei den 4xAA/8xAF Tests bei Anandtech wird die fx aber von der r300 geschlagen (mal mehr mal weniger....)(siehe http://www.anandtech.com/video/showdoc.html?i=1779&p=14)
Also durch die Anandtech Benches kann die Festellung von Leo(Startseite von 3dcenter -> fx bei AA/AF schneller) nicht gekommen sein...

MfG
J.S.Shadow

Ich hab mir alle durchgelesen.

Leonidas
2003-01-28, 16:01:18
Originally posted by nggalai
Hi there,
Ich hab' mit Anands Quality-Benches so meine Probleme. Einerseits bencht er den Performance-Modus der Radeon9700 nachm Motto "Unterschiede zwischen Performance und Quality sieht man nicht",


Und macht hier den Fehler, daß man den Unterschied zwischen bilinear und trilinear eh nicht auf Screenshots sehen kann ...

Unregistered
2003-01-28, 16:01:57
Originally posted by Leonidas



Die Darstellung der Benchmarks bei Anand ist meiner Meinung nach höchst unglücklich. Er hat dort ATi Performance mit eingemischt, was die meisten wohl überlesen haben werden. Lässt man die beiden ATi Performance Zahlen weg und vergleicht nur ATi Quality gegen nVidia Balanced, gewinnt nVidia.


Genau, dann Vergleich doch mal das Perf-AF mit dem Balaced von Nvidia qualitätsmassig. Was gibt es da auszusetzen?

Unregistered
2003-01-28, 16:04:34
Originally posted by Leonidas



Und macht hier den Fehler, daß man den Unterschied zwischen bilinear und trilinear eh nicht auf Screenshots sehen kann ...

Nein, du machst den Fehler, dich auf alte Fakten zu verlassen. Das PerfAF hat an qualität zugelegt, sieht nicht nach bilinear aus. Das BalancedAF ist auch nicht mehr die althergebrachte Methode.

Leonidas
2003-01-28, 16:04:45
Originally posted by nggalai

Es gibt ein Auflösungslimit, wo das ganze offenbar so nicht mehr funktioniert und wie bei der Radeon9700 oder GF3 das Mischen im Framebuffer selbst geschieht (und dann auch "normale" Screenshots funktionieren). Quasar hat das auch mal angedeutet, waren glaub' bei der GF4 1280x1024 oder 1600x1200.




Womit man sagen kann, man sollte GF4 und GFFX AA-Screenies am besten unter 1600x1200 anfertigen?

aths
2003-01-28, 16:04:56
Originally posted by Leonidas
Lässt man die beiden ATi Performance Zahlen weg und vergleicht nur ATi Quality gegen nVidia Balanced, gewinnt nVidia. Wobei "Balanced" bereits (teilweise recht kräftige) "Optimierungen" zuungunsten der BQ mit einschließt. (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=51764)

Anonym_001
2003-01-28, 16:06:36
Originally posted by Unregistered


Na klar, weil sie dann ihre langen shader ausspielen kann. Bist du so naiv oder tust du nur so? Die waschen sich doch gegenseitig die Hände. Schau dir mal die DX8-Tests (Nature, Pixelshader, Adv-PS) im normalen 3dmark an. Da gibt es keinen großen Unterschied, eher einen Nachteil für die FX. Von wegen schneller DX9 Fähigkeit. Das hat mit der Geschwindigkeit kaum was zu tun.

Aber mit dem neuen Benchmark wird jeder mal merken, wie abgekartet das Spiel ist. Die Fanboys werden bestimmt jubeln, aber irgendwann merken die auch, dass sie nur Marionetten waren.

Die langen Shader der FX haben aber nichts mehr mit DirectX9 zu tun.
Bei DirectX ist festgelegt wie lang die Shader sein sollen.
Wenn es also ein DirectX9 Bench ist sollte dies keine Rolle spielen.

Leonidas
2003-01-28, 16:07:35
Originally posted by crushinator

Aber viel ärgerlicher ist eigentlich, daß Leo auf der Startseite immer noch einen IMHO nicht haltberen Satz stehen hat, obwohl er es AFAIR nicht mal selbst gebenched hat. :(


Lies AnandTech, denke Dir die Perf-Benches weg und dann gewinnt die GFFX.

Unregistered
2003-01-28, 16:09:41
Originally posted by Leonidas



Lies AnandTech, denke Dir die Perf-Benches weg und dann gewinnt die GFFX.

Warum ignorierst du das? Mit quinuxx gewinnt die auch jeden Benchmark gegen 4xRGAA.

BlackBirdSR
2003-01-28, 16:12:22
Originally posted by Leonidas



Lies AnandTech, denke Dir die Perf-Benches weg und dann gewinnt die GFFX.

warum pochst du noch immer darauf?

Ich hab mal nachgebohrt, und nach der Aussage eniger leute, ist das Perf AF in sehr vielen Situationen gar nicht vom HQ AF unterscheidbar.
Gerade bei den dunklen Kieselartigen texturenbei Quake3 (steg zur Quad bei q3dm7) ist es noch ersichtlich (sonst nicht)
Bei sonstigen Gelegenheiten (Ghost Recon, MW4, IL2, Aquanox) ist es nicht ersichtlich.

Dagegen haben wir KEINERLEI Beweise sondern nur Ahnungen wie das AF der FX in Bewegung aussieht..
also was soll das?,

denk dir die Perf AF Werte nicht weg, weil die meistens völlig gerechtfertigt da zu stehen scheinen.
Manchmal gehts echt ab was dieses Qualitätsvergleichszeugs angeht.. gerade da haben wir zu wenig Infos um Aussagen zu treffen.

BlackBirdSR
2003-01-28, 16:12:58
nix

Katrin
2003-01-28, 16:12:59
ist den da so ein grosser unterschied. zwischen Atis Performance und NVs Balanced Mode ?

Leonidas
2003-01-28, 16:13:01
Originally posted by Unregistered



Genau, dann Vergleich doch mal das Perf-AF mit dem Balaced von Nvidia qualitätsmassig. Was gibt es da auszusetzen?



Das Balanced eine vernünftige hochwertige trilineare Variante ist und Performance eine Speed-optimierte bilineare Variante. In meinen Augen nicht vergleichbar.

Leonidas
2003-01-28, 16:14:52
Originally posted by BlackBirdSR
denk dir die Perf AF Werte nicht weg, weil die meistens völlig gerechtfertigt da zu stehen scheinen.
Manchmal gehts echt ab was dieses Qualitätsvergleichszeugs angeht.. gerade da haben wir zu wenig Infos um Aussagen zu treffen.


Wir haben bei der R8500 angemängelt, daß sie nur bilineares AF beherrscht.

Wieso soll ich nun beim PowerChip R300 ausgerechnet dieses alte bilineare AF wieder einsetzen, wenn ich die Möglichkeit zu trilinearem AF habe?

StefanV
2003-01-28, 16:16:17
Originally posted by ow


Das ist einfach: Du hast bislang nur die Benches auf Pro-ATi-Seiten gesehen und keine wirklich unvoreingenommenen. Ich hab auch ne ganze Reihe Benches gesehen, in denen die GFFX eine R9700 mit AA&AF versägt. Schau dir einfach mal ein paar Reviews mehr an.

Bei welchen Settings??
Bei welchen Games ??

hab auch einige Tests gelesen, bisher war die Leistung der GF FX fürs Gebotene uaS...


Wenn man dann noch bedenkt, daß die FX ~ das doppelte von einer ATI kosten wird...

Ach ja, 'dank' der Kühler hat ATI mehr Luft nach unten im Preiskampf, oder was glaubst du, wieviel der FX FLow kosten wird ??

BlackBirdSR
2003-01-28, 16:16:30
Originally posted by Leonidas



Wir haben bei der R8500 angemängelt, daß sie nur bilineares AF beherrscht.

Wieso soll ich nun beim PowerChip R300 ausgerechnet dieses alte bilineare AF wieder einsetzen, wenn ich die Möglichkeit zu trilinearem AF habe?

weil es vielleicht nicht mehr so aussieht?
ich habe eine R200 und ich kenne diese Linien sehr genau..

aber ich habe eben auch nachgefragt wie es denn bei der 300 aussieht und die leute konnten mir diese Linien nicht bestätigen.

Jetzt läge es an DIR dieser Sache mal anchzugehen als Stur an deiner meinung festzuhalten dass dieses Perf AF aus den Charts rausgehört.

StefanV
2003-01-28, 16:16:49
Originally posted by ow
NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.

Aber klar doch, deswegen bietet NV ja auch einen 4x RGMSAA Modus an...

[edit]

Achja, die 4 AA Samples der GF 4 TI gegen den 6 AA Samples der R300 sprechen ja auch 'für' deine Aussage...

Leonidas
2003-01-28, 16:17:06
Originally posted by Unregistered


Warum ignorierst du das? Mit quinuxx gewinnt die auch jeden Benchmark gegen 4xRGAA.


Q-Dingsbums ist 2x und außerdem mehr oder weniger nur ein Blurfilter, unrelevant.

aths
2003-01-28, 16:17:23
Imo sollte man unterschiedliche Verfahren nicht gegeneinander benchen. Also ein Diagramm mit FX-Benches mit 2x, 4x und 8x AF (immer schön mit Screenshots) und ein weiteres mit 9700-Benches mit 2x, 4x, 8x und 16x AF (ebenfalls mit Screenshots.) Vorher kann man ja sinnvolle Settings raussuchen, also ATI nur mit Quality-AF und nV nur mit Application-Controlled-AF benchen.

Oder man nimmt immer den Treiber-Default und kreidet dem einen oder anderen die schlechtere Bildqualität an.

Unregistered
2003-01-28, 16:19:17
Originally posted by BlackBirdSR


warum pochst du noch immer darauf?

Ich hab mal nachgebohrt, und nach der Aussage eniger leute, ist das Perf AF in sehr vielen Situationen gar nicht vom HQ AF unterscheidbar.
Gerade bei den dunklen Kieselartigen texturenbei Quake3 (steg zur Quad bei q3dm7) ist es noch ersichtlich (sonst nicht)
Bei sonstigen Gelegenheiten (Ghost Recon, MW4, IL2, Aquanox) ist es nicht ersichtlich.

Dagegen haben wir KEINERLEI Beweise sondern nur Ahnungen wie das AF der FX in Bewegung aussieht..
also was soll das?,

denk dir die Perf AF Werte nicht weg, weil die meistens völlig gerechtfertigt da zu stehen scheinen.
Manchmal gehts echt ab was dieses Qualitätsvergleichszeugs angeht.. gerade da haben wir zu wenig Infos um Aussagen zu treffen.

Gerade wenn das bei den Testern einreisst, das die nur noch im Treiber einstellen und nicht schauen, ob sich die BQ vergleichen läßt, werden werden nVidia und ATi schritt für schritt die Qualität zugunsten der Performance senken und immer noch das selbe draufschreiben..

Wenn das das Ziel ist?

Deshalb, immer wieder hinschauen und sich nicht auf alten Erkenntnissen ausruhen. Gab zb. auch schon nV-Treiber, wo-Pixelshaderflaechen nicht mehr mitgefilter wurden.

aths
2003-01-28, 16:20:26
Originally posted by Unregistered
Deshalb, immer wieder hinschauen und sich nicht auf alten Erkenntnissen ausruhen. Gab zb. auch schon nV-Treiber, wo-Pixelshaderflaechen nicht mehr mitgefilter wurden. Afaik werden PixelShader-Flächen grundsätzlich nicht gefiltert, höchstens die Input-Texturen werden gefiltert.

[DH]Avenger
2003-01-28, 16:21:24
Ähem Leo, bist nicht gerade du derjenige, der seit Jahr und Tag runterpredigt man solle vergleichbare Qualität prüfen, also das Ergebnis und nicht nur die puren Settings? Solange bei ATI beim AF höhere Settings nötig waren war dir diese Ansicht wohl recht und billig, nun wo sich das Blatt gewendet hat kommts dir plötzlich darauf an, dass die Settings identisch sind? Ziemlich lächerlich.....

Unregistered
2003-01-28, 16:22:38
Originally posted by Leonidas



Wir haben bei der R8500 angemängelt, daß sie nur bilineares AF beherrscht.

Wieso soll ich nun beim PowerChip R300 ausgerechnet dieses alte bilineare AF wieder einsetzen, wenn ich die Möglichkeit zu trilinearem AF habe?

Weil das eine nicht mehr so aussieht wie das andere.

Leonidas
2003-01-28, 16:24:33
Originally posted by Unregistered


Gerade wenn das bei den Testern einreisst, das die nur noch im Treiber einstellen und nicht schauen, ob sich die BQ vergleichen läßt, werden werden nVidia und ATi schritt für schritt die Qualität zugunsten der Performance senken und immer noch das selbe draufschreiben..

Wenn das das Ziel ist?

Deshalb, immer wieder hinschauen und sich nicht auf alten Erkenntnissen ausruhen. Gab zb. auch schon nV-Treiber, wo-Pixelshaderflaechen nicht mehr mitgefilter wurden.


Das war doch aber schon immer so, das blind gebencht wurde. Oder hat jemals ein Tester das 2xAA der V5 gegen das 4xAA der GeForce2 angesetzt?

Exxtreme
2003-01-28, 16:25:38
Leonidas,
Originally posted by Leonidas



Wir haben bei der R8500 angemängelt, daß sie nur bilineares AF beherrscht.

Wieso soll ich nun beim PowerChip R300 ausgerechnet dieses alte bilineare AF wieder einsetzen, wenn ich die Möglichkeit zu trilinearem AF habe?
das bi-AF der R200 ist nicht... ich wiederhole, nicht mit dem bi-AF der R300 vergleichbar. Ich habe beide Karten und kann es gut vergleichen. Das bi-AF war in Q3A und Serious Sam ein Alptraum. Das bi-AF der R300 sieht deutlich besser aus.

Unregistered
2003-01-28, 16:25:42
Originally posted by Leonidas



Das war doch aber schon immer so, das blind gebencht wurde. Oder hat jemals ein Tester das 2xAA der V5 gegen das 4xAA der GeForce2 angesetzt?

Ist es deswegen richtig?

Leonidas
2003-01-28, 16:27:12
Originally posted by [DH]Avenger
Ähem Leo, bist nicht gerade du derjenige, der seit Jahr und Tag runterpredigt man solle vergleichbare Qualität prüfen, also das Ergebnis und nicht nur die puren Settings? Solange bei ATI beim AF höhere Settings nötig waren war dir diese Ansicht wohl recht und billig, nun wo sich das Blatt gewendet hat kommts dir plötzlich darauf an, dass die Settings identisch sind? Ziemlich lächerlich.....


Nein. Ich sehe es nur so, daß ich Balanced vs. Quality als die beste Vergleichsmöglichkeit ansehe. Dies bisherigen Screenshots sagen mir, daß dies der bestmögliche Vergleich ist, wenn er auch nicht vollkommen gleich ist. Was gibt es daran auszusetzen? Wenn andere Screenshots kommen, welche dies umwerfen, werde ich meine Meinung ändern.

aths
2003-01-28, 16:28:09
Originally posted by Leonidas
Nein. Ich sehe es nur so, daß ich Balanced vs. Quality als die beste Vergleichsmöglichkeit ansehe. Dies bisherigen Screenshots sagen mir, daß dies der bestmögliche Vergleich ist, wenn er auch nicht vollkommen gleich ist. Was gibt es daran auszusetzen? Wenn andere Screenshots kommen, welche dies umwerfen, werde ich meine Meinung ändern. Auch ein bestmöglicher Vergleich kann noch schlecht sein :)

Leonidas
2003-01-28, 16:28:28
Originally posted by Unregistered


Ist es deswegen richtig?


Nein, auf keinen Fall. Ich wollte nur dezent andeuten, daß schon immer sich nur sehr wenige Tester um die wirklich erreichte Bildqualität gekümmert haben und "blinde" Vergleiche nach wie vor in der Mehrheit sind.

Leonidas
2003-01-28, 16:28:57
Originally posted by aths
Auch ein bestmöglicher Vergleich kann noch schlecht sein :)

Deine Meinung, nicht meine.

Unregistered
2003-01-28, 16:28:58
Originally posted by Leonidas



Nein. Ich sehe es nur so, daß ich Balanced vs. Quality als die beste Vergleichsmöglichkeit ansehe. Dies bisherigen Screenshots sagen mir, daß dies der bestmögliche Vergleich ist, wenn er auch nicht vollkommen gleich ist. Was gibt es daran auszusetzen? Wenn andere Screenshots kommen, welche dies umwerfen, werde ich meine Meinung ändern.

Wo liegt dein Problem, du hast doch eine R300Karte. Oder willst du nur abschreiben?

Leonidas
2003-01-28, 16:29:20
Originally posted by Unregistered


Wo liegt dein Problem, du hast doch eine R300Karte. Oder willst du nur abschreiben?


Nicht kapiert, was Du meinst.

Unregistered
2003-01-28, 16:30:03
Originally posted by Leonidas



Nein, auf keinen Fall. Ich wollte nur dezent andeuten, daß schon immer sich nur sehr wenige Tester um die wirklich erreichte Bildqualität gekümmert haben und "blinde" Vergleiche nach wie vor in der Mehrheit sind.

Deswegen brauchst du es doch nicht genau so machen. Gerade das wurde doch an 3d-center bisher geschätzt.

Unregistered
2003-01-28, 16:33:27
Originally posted by Leonidas



Nein, auf keinen Fall. Ich wollte nur dezent andeuten, daß schon immer sich nur sehr wenige Tester um die wirklich erreichte Bildqualität gekümmert haben und "blinde" Vergleiche nach wie vor in der Mehrheit sind.

Die Folgen davon hab ich hier schon beschrieben


"

Gerade wenn das bei den Testern einreisst, das die nur noch im Treiber einstellen und nicht schauen, ob sich die BQ vergleichen läßt, werden werden nVidia und ATi schritt für schritt die Qualität zugunsten der Performance senken und immer noch das selbe draufschreiben..

Wenn das das Ziel ist?

Deshalb, immer wieder hinschauen und sich nicht auf alten Erkenntnissen ausruhen. Gab zb. auch schon nV-Treiber, wo-Pixelshaderflaechen nicht mehr mitgefilter wurden.
"

aths
2003-01-28, 16:38:57
Originally posted by Unregistered
Deshalb, immer wieder hinschauen und sich nicht auf alten Erkenntnissen ausruhen. Gab zb. auch schon nV-Treiber, wo-Pixelshaderflaechen nicht mehr mitgefilter wurden.Nochmal: Afaik werden PixelShader-Flächen grundsätzlich nicht gefiltert, höchstens die Input-Texturen werden gefiltert.

Crushinator
2003-01-28, 16:43:14
Originally posted by Leonidas Lies AnandTech, denke Dir die Perf-Benches weg und dann gewinnt die GFFX. Gerade nochmal getan....

Jedi Knight 2 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 99,9 FPS
9700 Pro (4X AA/8X Qual Aniso) -> 111,6

UT2K3 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 41,7
9700 Pro (4X AA/8X Qual Aniso) -> 40,1

SS2 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 41
9700 Pro (4X AA/8X Qual Aniso) -> 44,2

Q3A 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 102,2
9700 Pro (4X AA/8X Qual Aniso) -> 104,8

....Rest lasse ich mal weg.

Ich möchte es nicht mal wissen, wie es ausgehen würde, wenn die FX annähernd dieselbe BQ ausgeben müßte. ;)

Nochmal: Wie kann man anhand dieser Werte allgemein behaupten, die FX wäre in der "Mehrheit" der Reviews bei AA+AF schneller?

Mit finalen Worten: Sollte ich mich nicht irgendwie doch irren, hat 3dcenter mit dieser Aussage (in meinen Augen) alles an bisher da gewesene "Objektivität" verloren, und das macht mich ziemlich traurig. :-(

BlackBirdSR
2003-01-28, 16:49:54
Originally posted by Leonidas



Nein. Ich sehe es nur so, daß ich Balanced vs. Quality als die beste Vergleichsmöglichkeit ansehe. Dies bisherigen Screenshots sagen mir, daß dies der bestmögliche Vergleich ist, wenn er auch nicht vollkommen gleich ist. Was gibt es daran auszusetzen? Wenn andere Screenshots kommen, welche dies umwerfen, werde ich meine Meinung ändern.

welche Screenshots?
Ich dachte dort sieht man den Unterschied nicht?

oder meinst du diese von Anand?

LovesuckZ
2003-01-28, 16:52:54
Ey Crush, los bringe auch den Commanche 4 Bench Plz. Oder Ut2003 in niedrigen Aufloesungen. Sei nicht so einseitig...

LovesuckZ
2003-01-28, 16:54:32
Originally posted by crushinator
Nochmal: Wie kann man anhand dieser Werte allgemein behaupten, die FX wäre in der "Mehrheit" der Reviews bei AA+AF schneller?


Weil in Q3 nur mit 1600*1200 gebencht wurde. In niedrigen Aufloesungen sollte sich das Bild wenden.

Exxtreme
2003-01-28, 16:56:03
Originally posted by LovesuckZ


Weil in Q3 nur mit 1600*1200 gebencht wurde. In niedrigen Aufloesungen sollte sich das Bild wenden.
Ähhhm, um in niedrigen Auflösungen zu spielen braucht man sicherlich keine NV30.

nggalai
2003-01-28, 16:58:33
Hi Leo,
Originally posted by Leonidas
Womit man sagen kann, man sollte GF4 und GFFX AA-Screenies am besten unter 1600x1200 anfertigen? Jein. Wie aths schon im anderen Thread andeutete, könnte das Problem auch an Treiberrevisionen liegen. Ich hab' mich mit dem Abschnitt meines Postings auf Quasars Beobachtung und meine Probleme, 2xMSAA-Screenshots bei 1024x768 zu machen, bezogen, i.e. ist Spekulation.

ta,
-Sascha.rb

Unregistered
2003-01-28, 16:59:49
Originally posted by LovesuckZ


Weil in Q3 nur mit 1600*1200 gebencht wurde. In niedrigen Aufloesungen sollte sich das Bild wenden.

du versuchst wirklich, aber auch wirklich jeden Kritikpunkt, ausser den Lüfter und den Preis, abzuweisen. irgendwie lustig :D

Crushinator
2003-01-28, 17:03:06
Originally posted by LovesuckZ Ey Crush, los bringe auch den Commanche 4 Bench Plz. Oder Ut2003 in niedrigen Aufloesungen. Sei nicht so einseitig... Mein lieber LoveSuckZ. Wenn Du vorher gelesen hättest, daß ich schrieb, daß "ich den FX-Vorsprung bei 2xAA und bis 1280 gern' respektiere", hättest Du das hier jetzt nicht geschrieben. ;)

LovesuckZ
2003-01-28, 17:04:11
Originally posted by Exxtreme
Ähhhm, um in niedrigen Auflösungen zu spielen braucht man sicherlich keine NV30.

Um vernuenfitg in dieser Aufloesung zoggen zu koennen, brauche ich auch noch mal nen neuen teuren Monitor. Warum sollte man diese Aufloesun als referenz nehmen? In niedrigen Aufloesung kann der FX Boden gut machen. Doch da sinteressiert ja niemanden...

Demirug
2003-01-28, 17:06:39
Originally posted by aths
Afaik werden PixelShader-Flächen grundsätzlich nicht gefiltert, höchstens die Input-Texturen werden gefiltert.

Genau.

Der Pixelshader läuft grundsätzlich nur einmal pro Pixel für alle AA-Sampels. Die Texturen werden dabei laut den Einstellungen gefiltert.

Das gilt natürlich nur für MS. Beim SS läuft der Pixelshader für jedes Sampel.

LovesuckZ
2003-01-28, 17:07:22
Originally posted by crushinator
Mein lieber LoveSuckZ. Wenn Du vorher gelesen hättest, daß ich schrieb, daß "ich den FX-Vorsprung bei 2xAA und bis 1280 gern' respektiere", hättest Du das hier jetzt nicht geschrieben. ;)

Ich merke mir nicht jeden Satz von deinen Postings.
Ausserdem bezug ich mich hierauf
Nochmal: Wie kann man anhand dieser Werte allgemein behaupten, die FX wäre in der "Mehrheit" der Reviews bei AA+AF schneller?

Crushinator
2003-01-28, 17:08:49
@LoveSuckZ
Aber weil Du es bist ;)

Comanche 4 1024x768x32
Radeon 9700 Pro (4X AA/8X Perf Aniso) -> 50,1
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 49,5
9700 Pro (4X AA/8X Qual Aniso) -> 40

"Finally, we end our real-world gaming tests with Comanche 4 - a very CPU bound flight simulator. The performance delta between the Radeon 9700 Pro and the GeForce FX is virtually nonexistent here, one of the very few cases we've seen."

*eg*

mapel110
2003-01-28, 17:10:21
Originally posted by LovesuckZ


Um vernuenfitg in dieser Aufloesung zoggen zu koennen, brauche ich auch noch mal nen neuen teuren Monitor. Warum sollte man diese Aufloesun als referenz nehmen? In niedrigen Aufloesung kann der FX Boden gut machen. Doch da sinteressiert ja niemanden...

ich bin irgendwie auf benches bei 1024 4xAA und 8xAF gespannt. =) ich werd dich bei gelegenheit dran errinnern ;)

mittlerweile halte ich von den ersten reviews auch nicht mehr allzuviel. wenn es denn wirklich nur 5 karten waren, die da getestet wurden, ist das alles ein bisschen.... hm .......sagen wir mal undeutlich.

LovesuckZ
2003-01-28, 17:11:09
Originally posted by crushinator
"Finally, we end our real-world gaming tests with Comanche 4 - a very CPU bound flight simulator. The performance delta between the Radeon 9700 Pro and the GeForce FX is virtually nonexistent here, one of the very few cases we've seen."

*eg*

Und? Ist jedoch schoen, dass wir nun wieder das alte Verfahren von ATI wollen...

Katrin
2003-01-28, 17:11:25
Originally posted by crushinator
@LoveSuckZ
Aber weil Du es bist ;)

Comanche 4 1024x768x32
Radeon 9700 Pro (4X AA/8X Perf Aniso) -> 50,1
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 49,5
9700 Pro (4X AA/8X Qual Aniso) -> 40

"Finally, we end our real-world gaming tests with Comanche 4 - a very CPU bound flight simulator. The performance delta between the Radeon 9700 Pro and the GeForce FX is virtually nonexistent here, one of the very few cases we've seen."

*eg*

sieht denn das ATI Perf AF soviel schlechter aus, als der NV Qual ?

Katrin
2003-01-28, 17:11:58
Originally posted by Katrin


sieht denn das ATI Perf AF soviel schlechter aus, als das NV Qual ?

mapel110
2003-01-28, 17:18:51
Originally posted by Katrin


sieht denn das ATI Perf AF soviel schlechter aus, als der NV Qual ?

nix genaues weiss man nicht ;)

aber ich bin da auch leonidas meinung, man sollte trilinear gegen trilinear benchen. allein fairnesshalber. und da scheint die FX wirklich performanter zu sein !
20% schneller eben !

früher haben nv änhänger auf den bi AF der r200 rumgehakt, jetzt sollten wir nicht versuchen, dass tri-AF der FX auf das niveau des bi-AF des r300 runterzureden.

womit ich übrigens nicht gesagt haben will, dass ich ati anhänger bin :D

HOT
2003-01-28, 17:20:58
Das Prob ist, dass weder AA noch AF des NV30 mit dem des R300 vergleichbar sind. Man kann hier zwar FSAA auf dem NV30 mit 8x benchen, um der Qualität des R300 4x nahezukommen, aber das es OG ist, ist es immernoch nicht so hochwertig.
Für AF gilt ähnliches. Man könnte hier das Quali AF des R300 mit dem Optimized AF des NV30 vergleichen. Hier gilt ähnliches wie für AA, das R300 AF ist sinnvoller und sieht besser aus. Mein Fazit bei dieser Geschichte: Die Chips sind nicht mehr direkt vergleichbar. Das Einzige, was man benchen kann, ist ohne AA und AF.
Schaltet man AA und AF hinzu gewinnt der NV30 von der Performance her (aber sehr geringfügig) und der R300 von der Qualität (auch eher geringfügig). So ergibt sich eine Pattsituation dieser beiden. Jetzt kommt es nurnoch darauf an, wie schnell beide wirklich komplexe Shaderscenen nach der Grund-DX9-Spezifikation rendern können. Da es hierfür aber kleine entsprechende Vergleichsmöglichkeit wegen mangelnder Anwendungen gibt, ist die Leistung der Grafikchips schlichtweg unbekannt.
Zur Frage: was kaufe ich besser? kann man bisher nur Erfahrungswerte und Äusserlichkeiten, sowie den persönlichen Geschmack heranziehen:

Was mag ich lieber? Bessere BQ? -> R300
Leisere Karte? -> R300
weniger Geld ausgeben? -> R300
Stabilität und Kompatibilität? -> kann man nicht sagen, aber für den R300 spricht, dass er schon seit geraumer Zeit auf dem Markt ist und gut läuft.

Das ist jetzt subjektiv, aber so würde ich mich entscheiden.

NV hat zwar die Performancekrone knapp zurückerobert, aber eben doch nicht wirklich. Man stellt bei der neuesten Grafikgeneration wesentlich mehr Fragen, als bei den Vorgängergenerationen und genau das bricht dem NV30 das Genick. Wäre der Abstand nicht so gering, würde man diese technischen Seiten des NV30 garnicht so sehr beleuchten. Doch so stellt sich vor allem eben die Frage nach der geringen Leistungseffizienz des Produktes.

Crushinator
2003-01-28, 17:24:19
Originally posted by LovesuckZ Und? Ist jedoch schoen, dass wir nun wieder das alte Verfahren von ATI wollen... Das wird ja langweilig mit Dir zu diskutieren. Weißt Du wie Du Dich anhörst? Genau: Wie jemand, der mit allen Mitteln versucht, selbst den kleinsten positiven/negativen Aspekt so groß zu verpacken wie möglich. Sieh's doch mal einwenig lockerer. ;)

Außerdem wollte ich Dir einen Gefallen tun, und einen Bench posten, wo die Radeon VERLIERT!!! (Deshalb auch "Qual" fett markiert)

Katrin
2003-01-28, 17:26:23
Originally posted by crushinator
Das wird ja langweilig mit Dir zu diskutieren. Weißt Du wie Du Dich anhörst? Genau: Wie jemand, der mit allen Mitteln versucht, selbst den kleinsten positiven/negativen Aspekt so groß zu verpacken wie möglich. Sieh's doch mal einwenig lockerer. ;)

Außerdem wollte ich Dir einen Gefallen tun, und einen Bench posten, wo die Radeon VERLIERT!!! (Deshalb auch "Qual" fett markiert)

schon wieder einer, der versucht alles zu retten, was zu retten ist. Aber ich find es klasse wie treu du bist.. besser als heute NV und morgen ATI =)

Leonidas
2003-01-28, 17:51:28
Originally posted by Unregistered


Deswegen brauchst du es doch nicht genau so machen. Gerade das wurde doch an 3d-center bisher geschätzt.


Hab ich doch auch nicht vor. Ich schätze nur das Quality = Balanced ein.

Leonidas
2003-01-28, 17:52:43
Originally posted by Unregistered
Deshalb, immer wieder hinschauen und sich nicht auf alten Erkenntnissen ausruhen. Gab zb. auch schon nV-Treiber, wo-Pixelshaderflaechen nicht mehr mitgefilter wurden.
"


Das ist richtig. Möglicherweise habe ich mich unklar ausgedrückt: Mir passt das bilineare AF der R300 nicht deswegen nicht, weil es bei der R8500 nicht gut aussah (alte Erkenntnis), sondern weil es nach wie vor bilinear ist - und diese Erkenntnis bleibt auch bei der R300 bestehen.

Leonidas
2003-01-28, 17:54:18
Originally posted by crushinator
Gerade nochmal getan....

Jedi Knight 2 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 99,9 FPS
9700 Pro (4X AA/8X Qual Aniso) -> 111,6

UT2K3 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 41,7
9700 Pro (4X AA/8X Qual Aniso) -> 40,1

SS2 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 41
9700 Pro (4X AA/8X Qual Aniso) -> 44,2

Q3A 1600x1200x32:
FX 5800 Ultra (4X AA/8X Bal Aniso) -> 102,2
9700 Pro (4X AA/8X Qual Aniso) -> 104,8

....Rest lasse ich mal weg.

Ich möchte es nicht mal wissen, wie es ausgehen würde, wenn die FX annähernd dieselbe BQ ausgeben müßte. ;)

Nochmal: Wie kann man anhand dieser Werte allgemein behaupten, die FX wäre in der "Mehrheit" der Reviews bei AA+AF schneller?

Mit finalen Worten: Sollte ich mich nicht irgendwie doch irren, hat 3dcenter mit dieser Aussage (in meinen Augen) alles an bisher da gewesene "Objektivität" verloren, und das macht mich ziemlich traurig. :-(


Sorry, aber ich konzentriere mich bei meinen Aussagen nicht zu 100% auf 1600x1200. Sondern auf 1024x768 und 1280x1024. Was Du da an Zahlen vorgibst, ist schlicht und ergreifend biased - Du hast Dir allein diese Zahlen rausgesucht, die Deine These untermauern. Komplette Benches (GFFX zu R9700, balanced zu quality):

UT2003
10x7 .... 108 - 90
12x9 .... 74 - 63
16x12 ... 41 - 40

SS2
10x7 .... 96 - 86
12x9 .... 66 - 62
16x12 ... 41 - 44

Q3A
16x12 ... 102 - 104

JK2
16x12 ... 99 - 111

C4
10x7 .... 49 - 40

CodeCreatures
10x7 .... 30 - 20
12x10 ... 18 - 10
16x12 ... 14 - 7


Geht IMO knapp an nVidia.

Leonidas
2003-01-28, 17:56:43
Originally posted by HOT
Schaltet man AA und AF hinzu gewinnt der NV30 von der Performance her (aber sehr geringfügig) und der R300 von der Qualität (auch eher geringfügig). So ergibt sich eine Pattsituation dieser beiden.


Ich denke, genau dieses steht doch in meiner News.

Crushinator
2003-01-28, 18:04:58
Originally posted by Leonidas Sorry, aber ich konzentriere mich bei meinen Aussagen nicht zu 100% auf 1600x1200. Sondern auf 1024x768 und 1280x1024. Was Du da an Zahlen vorgibst, ist schlicht und ergreifend biased - Du hast Dir allein diese Zahlen rausgesucht, die Deine These untermauern. Sorry, aber dann hätte der Hinweis da (in die Meldung) "reingemusst", daß Du nur 1024 bis 1280 bewertest und Dich alles andere eigentlich nicht interessiert.

Naja, Du kannst tun und lassen, was Du möchtest, was Dein gutes Recht ist. Meine Meinung ist eben so klar: Die Radeon ist der wahre Sieger, wenn man vergleichbare BQ gegeneinander antreten läßt, die FX ist bei "niedrigen" Auflösungen auf alle Fälle schneller, und 3dcenter hat ziemlich viel an Objektivität verloren.

Ich wünsche allen zukünftigen FX-Besitzern jedenfalls viel Spaß damit und vor allem das nötige Geld dazu. ;)

Crushinator
2003-01-28, 18:07:04
Originally posted by Leonidas
Komplette Benches (GFFX zu R9700, balanced zu quality):
...
Geht IMO eindeutig an nVidia. Das sind also komplette Benches? ???

/edit: Ich sehe, Du hast es noch geändert, sah noch zu dem Zeitpunkt noch komisch aus.

Leonidas
2003-01-28, 18:10:24
Originally posted by crushinator
Sorry, aber dann hätte der Hinweis da (in die Meldung) "reingemusst", daß Du nur 1024 bis 1280 bewertest und Dich alles andere eigentlich nicht interessiert.



Sorry, derjenige, der hier nur eine Auflösung bewertet und den Rest hinter runter fallen lässt, bist eindeutig Du! Ich hab beispielsweise in meinen obigen Zahlen auch 1600x1200 mit aufgenommen, während Du ausschließlich 1600x1200-Zahlen gepostet hast.


Und wenn in meinen Aussagen keine Kennzeichnung kommt, um welche Auflösung es sich handelt (und es aus dem begleitendem Text nicht absolut klar ist), dann handelt es sich um eine Mischaussage, die die Wertigkeit der einzelnen Auflösungen als Maßstab nimmt, und zwar danach, wie oft diese eingesetzt werden. Ergo 1024x768 zu 50%, 1280x1024 zu 30% und 1600x1200 allerhöchstens zu 10%.

Leonidas
2003-01-28, 18:12:52
Originally posted by crushinator
Naja, Du kannst tun und lassen, was Du möchtest, was Dein gutes Recht ist. Meine Meinung ist eben so klar: Die Radeon ist der wahre Sieger, wenn man vergleichbare BQ gegeneinander antreten läßt, die FX ist bei "niedrigen" Auflösungen auf alle Fälle schneller, und 3dcenter hat ziemlich viel an Objektivität verloren.



Lerne zwischen den Zeilen zu lesen, denn so steht es auch in der News: Auch für mich ist die R300 der Sieger, da mehr Bang 4 the Bucks. Aber genauso wie dieses klar ist, ist auch klar, das die Leistungskrone der GFFX gehört.

Muh-sagt-die-Kuh
2003-01-28, 18:15:09
Was mich noch interessieren würde:

Haben die TMUs der GF-FX die gleiche Schwäche wie die der GF4Ti, dass sie mit bilinearem AF nicht mehr Samples ausspucken können als mit trilinearem?

Crushinator
2003-01-28, 18:16:48
Originally posted by Leonidas Lerne zwischen den Zeilen zu lesen, denn so steht es auch in der News: Auch für mich ist die R300 der Sieger, da mehr Bang 4 the Bucks. Aber genauso wie dieses klar ist, ist auch klar, das die Leistungskrone der GFFX gehört. OK, damit gebe ich mich zufrieden und werde in Zukunft öfters mal das Extrem-Zwischen-den-Zeilen-Lesing (tm) üben. ;)

Unregistered
2003-01-28, 18:27:49
Originally posted by Leonidas



Das ist richtig. Möglicherweise habe ich mich unklar ausgedrückt: Mir passt das bilineare AF der R300 nicht deswegen nicht, weil es bei der R8500 nicht gut aussah (alte Erkenntnis), sondern weil es nach wie vor bilinear ist - und diese Erkenntnis bleibt auch bei der R300 bestehen.

Sorry Leo, aber das ist Quatsch. wenn man mit weniger Einsatz, dafür einen komplizierteren Weg wählt, das selbe Ergebnis erreicht, was soll daran falsch sein? Diese Ergebnis dieser Aniso-Methode wird nicht durch die Nachteile des bilinearen filterns gekennzeichnet. Warum soll man sie nicht genau so nutzen?

Ich wollte es ja auch nicht glauben, aber das Ergebnis spricht einfach für einen Vergleich von Perf.AF gegen Balanced.AF. (Alternativ Quality.AF-Application.AF). Es ist ja nicht so, das die Bugwelle noch da wäre und man es nur in UT nicht sieht. Nein, es ist in allen Spielen verschwunden.

Es gibt nunmal nicht mehr nur Schwarz oder Weiss. Das macht deinen Job zwar schwerer, aber auch besser.

Unregistered
2003-01-28, 18:29:29
Ich meine, wozu schaltet man den Aniso ein, um die groesstmögliche Leistung zu verbrennen, oder eine bestimmte Verbesserung zu sehen?

mapel110
2003-01-28, 18:33:54
Originally posted by Unregistered


Sorry Leo, aber das ist Quatsch. wenn man mit weniger Einsatz, dafür einen komplizierteren Weg wählt, das selbe Ergebnis erreicht, was soll daran falsch sein? Diese Ergebnis dieser Aniso-Methode wird nicht durch die Nachteile des bilinearen filterns gekennzeichnet. Warum soll man sie nicht genau so nutzen?

Ich wollte es ja auch nicht glauben, aber das Ergebnis spricht einfach für einen Vergleich von Perf.AF gegen Balanced.AF. (Alternativ Quality.AF-Application.AF). Es ist ja nicht so, das die Bugwelle noch da wäre und man es nur in UT nicht sieht. Nein, es ist in allen Spielen verschwunden.

Es gibt nunmal nicht mehr nur Schwarz oder Weiss. Das macht deinen Job zwar schwerer, aber auch besser.

ehm, hab ich bei den tests eigentlich was überlesen, oder wurde da wirklich nicht die schnellere methode der FX gebencht ?
ich meine nirgens zahlen von der schnelleren version des filtern der FX gesehen zu haben. fairerweise sollte man diese auch angeben.

Leonidas
2003-01-28, 18:34:26
Originally posted by Unregistered


Sorry Leo, aber das ist Quatsch. wenn man mit weniger Einsatz, dafür einen komplizierteren Weg wählt, das selbe Ergebnis erreicht, was soll daran falsch sein? Diese Ergebnis dieser Aniso-Methode wird nicht durch die Nachteile des bilinearen filterns gekennzeichnet. Warum soll man sie nicht genau so nutzen?

Ich wollte es ja auch nicht glauben, aber das Ergebnis spricht einfach für einen Vergleich von Perf.AF gegen Balanced.AF. (Alternativ Quality.AF-Application.AF). Es ist ja nicht so, das die Bugwelle noch da wäre und man es nur in UT nicht sieht. Nein, es ist in allen Spielen verschwunden.

Es gibt nunmal nicht mehr nur Schwarz oder Weiss. Das macht deinen Job zwar schwerer, aber auch besser.


Doppeltes Ja zur letzten Zeile.

Zum vorherigen Text: Wenn ich mir diesen Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=51764) ansehe, dann denke ich nicht, daß ich Application mit Quality vergleichen will. Quality ist ein optimierter Modus, während Application die hohe Schule der perfekten Qualität ist. Ein Vergleich Quality gegen Application wäre total unfair für nVidia, weil ATi schlicht keinen wirkliche 1a Modus hat, sondern nur optimierte Modi.

Unregistered
2003-01-28, 18:34:38
PS: Was soll daran schlimm sein, die User in den News darauf hinzuweisen? Dann sich doch jeder R300-Besitzer sein Bild machen. Ich zb. haette es vor dem Anandtech-Review gar nicht ausprobiert, da war ich genau so voreingenommen wie du.

Unregistered
2003-01-28, 18:35:33
Originally posted by Leonidas
... während Application die hohe Schule der perfekten Qualität ist.

Leider nein. Es geht besser.

Leonidas
2003-01-28, 18:37:43
Originally posted by Unregistered


Leider nein. Es geht besser.


Ja, meintwegen, es geht möglicherweise *theoretisch* noch besser. Aber ich denke, daß der NV Application Mode der mit weitem Abstand beste *verfügbare* ist. Diesen gegen ATi Quality zu setzen, ist einfach nicht fair, der Abstand ist mir zu gross.

Unregistered
2003-01-28, 18:38:21
Originally posted by Unregistered


Leider nein. Es geht besser.

Sorry, der musste nicht sein.

Einen Vergleich dort verlange ich eigentlich genau so wenig wie 4xRGAA vs. 8xOGAA, deshalb auch in Klammern.

seahawk
2003-01-28, 18:47:36
Hmm ich glaube wir könnten uns in der FX getäuscht haben. In vielen Foren zeigen sich die Entwickler mehr oder wenig begeistert von der Karte.
Weiterhin hat Beyond 3D rausgefunden, dass die getesteten Treiber 42.63 noch gar kein DX 9 unterstützen. Wenn noch nicht mal diese Funktionalität gegeben ist, dann ist es auch denkbar, dass andere leistungsrelevante Features noch nicht vollständig genutzt werden.

Wir sollten auf jeden Fall die ersten Serienmodelle abwarten und die nächste Treibergeneration. Vielleicht hat NV die kArte nur zu früh zum testen rausgegeben.

hart aber fair
2003-01-28, 18:49:22
Originally posted by Leonidas



Lerne zwischen den Zeilen zu lesen, denn so steht es auch in der News: Auch für mich ist die R300 der Sieger, da mehr Bang 4 the Bucks. Aber genauso wie dieses klar ist, ist auch klar, das die Leistungskrone der GFFX gehört.


Nichts gegen 3DCenter, da hier IMMER ausgewogen berichtet wird!

Aber meinst Du nicht, daß die Leistungkrone der GFFX erst genau dann verliehen werden sollte, wenn sie in nennenswerter Verfügbarkeit kaubar ist! Es sieht also danach aus, daß die FX die Leistungskrone ERST ab März beanspruchen könnte. Gegenwärtig ist die FX nicht mehr als ein (nach THG) "Anwärter auf den Tron"! (so dort gesehen für die R9700Pro)
Überleg mal: Würdest du die Leistungskrone an den R350 bereits jetzt vergeben, weil ATI dir ein Sample zum benchen geschickt hätte? (Natürlich vorausgesetzt der R350 kehrt die Lage wieder um!) Vermutlich könnte ATI dies bereits tun, jedoch begibt man sich nicht auf NV-Marketing Niveau herunter: Sämtliche NV-"Esel" mit vorgehaltener Karotte zum Verkaufstart zu führen.

Fazit:
Die Leistungskrone bereits für eine nicht kaufbare Karte zu vergeben, heißt NV eine Dienst zu erweisen, den sie nicht für eine ab Werk übertaktete Karte verdient haben. Der Ziel der Übertaktung war wohl eindeutig die Leistungskrone, nicht der Versuch des Nachbar's Staubsauger im Betrieb unhörbar zu machen. ;)

Unregistered
2003-01-28, 18:50:54
Originally posted by mapel110


ehm, hab ich bei den tests eigentlich was überlesen, oder wurde da wirklich nicht die schnellere methode der FX gebencht ?
ich meine nirgens zahlen von der schnelleren version des filtern der FX gesehen zu haben. fairerweise sollte man diese auch angeben.

Viele haben mit dem schnelleren balancedAF gebencht, manche sogar mit Aggressiv.AF, welches den Namen AF nun wirklich nicht verdient. Dort kam auch die Aussage her, die FX würde nur ganz wenig Leistung beim AF verlieren.

LovesuckZ
2003-01-28, 18:55:56
Originally posted by Unregistered
Viele haben mit dem schnelleren balancedAF gebencht, manche sogar mit Aggressiv.AF, welches den Namen AF nun wirklich nicht verdient. Dort kam auch die Aussage her, die FX würde nur ganz wenig Leistung beim AF verlieren.

Wer hat mit aggressiv gebencht?

balanced gegen ATI's Qualitaet zu setzen ist aus meiner Sicht eigentlich passend. Beide liefern ungefaehr gleich Qualitaet.

Unregistered
2003-01-28, 18:57:47
Originally posted by LovesuckZ


Wer hat mit aggressiv gebencht?

balanced gegen ATI's Qualitaet zu setzen ist aus meiner Sicht eigentlich passend. Beide liefern ungefaehr gleich Qualitaet.

Das bestreitet ja auch keiner. Das Ding ist das Per.AF auch vergleichbare Qualität liefert, nur auf einem anderen Verfahren basiert und ungleich schneller ist. imho genau so vergleichbar.

BlackBirdSR
2003-01-28, 18:58:29
Originally posted by LovesuckZ


Wer hat mit aggressiv gebencht?

balanced gegen ATI's Qualitaet zu setzen ist aus meiner Sicht eigentlich passend. Beide liefern ungefaehr gleich Qualitaet.

nach welchen Screenshots?
ich würd mich das nicht sagen trauen... ohne dass ich was gesehen habe dass dies Beweisen kann.

Die screens die ich gesehen habe zeigen dass auch ATi's Perf AF gleich ist..

Unregistered
2003-01-28, 19:00:00
Originally posted by Unregistered


Das bestreitet ja auch keiner. Das Ding ist das Per.AF auch vergleichbare Qualität liefert, nur auf einem anderen Verfahren basiert und ungleich schneller ist. imho genau so vergleichbar.

Die voodoo5 wurde doch auch mit der Geforce verglichen, obwohl ein anderes Verfahren genutzt wurde. Hätte man dann alle auf supersampling setzen sollen?

Leonidas
2003-01-28, 19:02:53
Ich möchte mal grundsätzlich sagen, daß die in der News geäußerte Meinung eben meine Meinung ist - und keine nVidia-Freundlichkeit, wie hier von einigen unterstellt. Ich bewerte die vorliegenden Fakten schlicht so wie ich das gesagt habe - und mir ist es völlig egal, ob da dann was positives für ATi oder nVidia rauskommt.

Jegliche Postings, in welchen mir weiterhin eine Freundlichkeit zu einer Hersteller-Firma unterstellt wird, werde ich in Zukunft nicht mehr beantworten.

Leonidas
2003-01-28, 19:04:48
Originally posted by hart aber fair
Aber meinst Du nicht, daß die Leistungkrone der GFFX erst genau dann verliehen werden sollte, wenn sie in nennenswerter Verfügbarkeit kaubar ist!


In gewissem Sinne ja. Aber das geht jetzt vom Hunderstens ins Tausendste. Ich bin nicht gewillt, jeden einzelnen Buchstaben einer News eine einzelnen Tages verteidigen zu müssen.

Adlerauge
2003-01-28, 19:05:40
Originally posted by LovesuckZ


Wer hat mit aggressiv gebencht?

balanced gegen ATI's Qualitaet zu setzen ist aus meiner Sicht eigentlich passend. Beide liefern ungefaehr gleich Qualitaet.

Falsch! Ich hab 'ne 9700Pro und es macht praktisch keinen Unterschied. Zum gleichen Ergebnis ist man bei 3DCenter auch in den Antialiasing-Arktikeln gekommen. Eine Frechheit scheint mir eher NV Aggressiv Einstellung zu sein. Naja, NV hat ja eine Lange Tradition im Verar***en von Kunden, wenn es für Marketing gut ist. Warum macht man nicht einfach bei ATI eine Aggressive-Einstellung, mit NV-Bildqualität und maximaler Performance. Dann hätten's die Tester wieder einfacher mit den passenden Einstellungen in ihren Reviews!!! Ob das allerdings noch den Namen Anisotrophen Filter vom Ergebnis her verdient?

Leonidas
2003-01-28, 19:05:57
Originally posted by Unregistered


Viele haben mit dem schnelleren balancedAF gebencht, manche sogar mit Aggressiv.AF, welches den Namen AF nun wirklich nicht verdient. Dort kam auch die Aussage her, die FX würde nur ganz wenig Leistung beim AF verlieren.



Herr Unreg! Bitte bleiben wir bei den Fakten !!!

Es gibt keinen Hinweis darauf, daß ein Test mit "aggr" lief.

LovesuckZ
2003-01-28, 19:06:19
Originally posted by BlackBirdSR
nach welchen Screenshots?
ich würd mich das nicht sagen trauen... ohne dass ich was gesehen habe dass dies Beweisen kann.


Ich denke die Pics von HardOCP sind bei Nvidia mit Balanced gemacht worden. Da der Schreiber nix geschrieben hat, dass er irgendwas verandert habe.

Unregistered
2003-01-28, 19:12:54
Originally posted by LovesuckZ


Ich denke die Pics von HardOCP sind bei Nvidia mit Balanced gemacht worden. Da der Schreiber nix geschrieben hat, dass er irgendwas verandert habe.

(auch an Leo)
Ja, was sich ja auch in den Ergebnissen wiederspiegelt.

mapel110
2003-01-28, 19:13:54
Originally posted by Leonidas




Herr Unreg! Bitte bleiben wir bei den Fakten !!!

Es gibt keinen Hinweis darauf, daß ein Test mit "aggr" lief.

thx, das wollte ich wissen :)

Alphafleet
2003-01-28, 19:27:42
Originally posted by Axel


Genau! Allerdings ein schlechter Witz.
Nvidia scheint wirklich das letzte aus der FX herausgeholt zu haben, um mit der 9700pro mitzuhalten. Dafür haben sie eine unakzeptable Lüftung verbaut und scheinbar die Qualität von AA und AF reduziert.
Man kann nur hoffen, das wenigstens die lowcost-Varianten brauchbar sind.

Amen.

Unregistered
2003-01-28, 19:32:05
Hallo,
fact ist aber, daß man weiterhin auf eine mit 444/352 getaktete 97 Pro welche NULL geräusche macht, stolz bleiben darf (nach viel reingestsckter Arbeit).

Nur mal so am Rande

Unregistered
2003-01-28, 19:48:32
Originally posted by Unregistered
Hallo,
fact ist aber, daß man weiterhin auf eine mit 444/352 getaktete 97 Pro welche NULL geräusche macht, stolz bleiben darf (nach viel reingestsckter Arbeit).

Nur mal so am Rande

Man kann sich auch kaum vorstellen das die Hardcore overclocker zu der FX umsteigen werden da aus dieser kaum eine Mehrleistung auszuquetschen wäre.
Jemand der 20-22K mit einer übertakteten R 9700 pro beim 3Dmurks hat ,wird wohl kaum 5-6K weniger in kauf nehmen um sich nur als neuer FX Besitzer zu nennen!

Unreg

Unregistered
2003-01-28, 19:53:53
Originally posted by Unregistered


Man kann sich auch kaum vorstellen das die Hardcore overclocker zu der FX umsteigen werden da aus dieser kaum eine Mehrleistung auszuquetschen wäre.
Jemand der 20-22K mit einer übertakteten R 9700 pro beim 3Dmurks hat ,wird wohl kaum 5-6K weniger in kauf nehmen um sich nur als neuer FX Besitzer zu nennen!

Unreg

also wenn ich nur ca 150€ draufzahlen muss und die Kühlung verbessert wird, dann glaube ich, hole ich mir die GFX, trotz jetziger 9700pro. Denn ich glaube, dass das nicht alles war, was Nvidia da gezeigt hat. Die Karten waren bestimmt nur Test Sampels mit Beta Treibern. Ich schätze, das Kühlung bei den fertigen karten wirklich leise ist und die Karte auch ca 30% schneller ist als ne 9700pro.

Crushinator
2003-01-28, 20:01:44
Originally posted by Unregistered also wenn ich nur ca 150€ draufzahlen muss und die Kühlung verbessert wird, dann glaube ich, hole ich mir die GFX, trotz jetziger 9700pro. Was macht man eigentlich, wenn die R350 so in März antritt und ohne Fön nur 500,- EUR kostet? ;) Denn ich glaube, dass das nicht alles war, was Nvidia da gezeigt hat. Die Karten waren bestimmt nur Test Sampels mit Beta Treibern. Ich schätze, das Kühlung bei den fertigen karten wirklich leise ist und die Karte auch ca 30% schneller ist als ne 9700pro. Das kann natürlich auch sein, obwohl ich persönlich an die 30% nicht glaube.

Unregistered
2003-01-28, 20:03:34
Originally posted by Unregistered


also wenn ich nur ca 150€ draufzahlen muss und die Kühlung verbessert wird, dann glaube ich, hole ich mir die GFX, trotz jetziger 9700pro. Denn ich glaube, dass das nicht alles war, was Nvidia da gezeigt hat. Die Karten waren bestimmt nur Test Sampels mit Beta Treibern. Ich schätze, das Kühlung bei den fertigen karten wirklich leise ist und die Karte auch ca 30% schneller ist als ne 9700pro.

lol das glaubst du doch selbst nicht! Was und wie soll da noch verbessert werden ??!! (ausser den Treibern!)

Unregistered
2003-01-28, 20:07:24
Originally posted by Unregistered


lol das glaubst du doch selbst nicht! Was und wie soll da noch verbessert werden ??!! (ausser den Treibern!)

ne leisere Kühlung.. so können sie die karte nie und nimmer auf den markt werfen. Das macht NV auch nicht.

die karte, die thilo uns so bekommen haben waren noch keine fertigen sampels. weisst doch alles drauf hin

Ficus
2003-01-28, 20:08:33
Originally posted by Unregistered
lol das glaubst du doch selbst nicht! Was und wie soll da noch verbessert werden ??!! (ausser den Treibern!)
...und genau diese Treiber waren wohl gemeint.
Aber 30% :|

Unregistered
2003-01-28, 20:08:48
überlegt mal, vor knapp 2 1/2 monaten sind schon die ersten bilder durchs netzt gezogen von der FX mit der FXBLOW aeh FXFLOW kühlung(von irgendner messe).
Also wäre diese da wirklich noch nicht ausgereift gewesen, wäre noch genug zeit da um für die paar lumpigen testsamples was besseres zu recht zu schustern.
ausserdem fergib man für eine kühlung die noch nicht serienreif ist keinen namen wie FXFLOW und wirbt damit.

Aquaschaf
2003-01-28, 20:09:29
was weist denn bitteschön darauf hin ?

mapel110
2003-01-28, 20:10:34
Originally posted by crushinator
Was macht man eigentlich, wenn die R350 so in März antritt und ohne Fön nur 500,- EUR kostet? ;) Das kann natürlich auch sein, obwohl ich persönlich an die 30% nicht glaube.

die 30% sind doch schon in den benchmarks zu sehen. da is nix mehr rauszuholen. schau dir die theoretischen 3dmark einzelwerte an. da sind 30% ! und mehr geht auch nicht, weil die füllrate eben auch nur 30% mehr ist gegenüber der 9700er.
so wie es aussieht, wird sich das aber erst wirklich zeigen, wenn es dx8 spiele gibt.
imo wird die karte im 3dmark2003 die 9700er richtig derbe anhängen, aber wohl erstmal nur dort.

Exxtreme
2003-01-28, 20:13:35
Originally posted by mapel110

imo wird die karte im 3dmark2003 die 9700er richtig derbe anhängen, aber wohl erstmal nur dort.
Das aber wahrscheinlich auch nur ohne FSEAA & AF...

Unregistered
2003-01-28, 20:13:35
Originally posted by Aquaschaf
was weist denn bitteschön darauf hin ?

ja zB Terratac mit ihrem " flüssterleise"

Da muss also was dran sein, sonst würden sie das nicht schreiben. Weil genau wegem dem Satz können die Kunden ihre karten wieder zurückgeben.

Selbst THG schreibt, dass die karte noch ein prototyp ist

Unregistered
2003-01-28, 20:17:06
Also ich bezweifle sehr das sich bei der hardware noch etwas ändern wird! Die Kühlung ist "fester Bestandteil" der Karte und kann nicht durch etwas leiseres erstetzt werden da es nichts effizienteres gibt!
Ausserdem werben schon die Hersteller genau diese Karte (Terratec , MSI z.B.).
Und die Architektur oder ähnliches zu ändern würde nur die Sache weiter verzögern.
Also nur Treiber...

Rampage 2
2003-01-28, 20:23:33
Ich finde, dass die GFFX einfach zu unausgereift ist und die Treiber
nicht richtig optimiert sind. Die GeForce3 hatte im "A1"-Stepping
eine Menge Bugs - erst beim "A5"-Stepping (AFAIK) wurden alle Bugs
beseitigt und die GF3 konnte sich von der GF2U deutlich absetzen.
Ich bin mir sicher, dass die GFFX 10-30% Mehrleistung bieten wird
als die R9700 Pro. Das einzige Problem ist dann nur noch der über-
dimensionierte Lüfter;D

Erst in 2 Monaten wird sich detailliert herausstellen wie viel
wirklich in der GFFX steckt. Außerdem ist sie bei 1600x1200 von
ihrer Banbreite limitiert.

Katrin
2003-01-28, 20:26:31
Originally posted by Rampage 2
Ich finde, dass die GFFX einfach zu unausgereift ist und die Treiber
nicht richtig optimiert sind. Die GeForce3 hatte im "A1"-Stepping
eine Menge Bugs - erst beim "A5"-Stepping (AFAIK) wurden alle Bugs
beseitigt und die GF3 konnte sich von der GF2U deutlich absetzen.
Ich bin mir sicher, dass die GFFX 10-30% Mehrleistung bieten wird
als die R9700 Pro. Das einzige Problem ist dann nur noch der über-
dimensionierte Lüfter;D

Erst in 2 Monaten wird sich detailliert herausstellen wie viel
wirklich in der GFFX steckt. Außerdem ist sie bei 1600x1200 von
ihrer Banbreite limitiert.


Aber ich glaube dass die FX noch richtig was an Leistung zulegt leider. Kann mir einfach nicht vorstellen, das NV sich das bieten lässt..

Liszca
2003-01-28, 20:32:52
brennt das ding eigentlich auch durch wie ein athlon?

Unregistered
2003-01-28, 20:33:43
Originally posted by Katrin



Aber ich glaube dass die FX noch richtig was an Leistung zulegt leider. Kann mir einfach nicht vorstellen, das NV sich das bieten lässt..





Naja, nvidia hat mit dem nForce2 etwa geschaffen worauf sie stolz sein kann.Das sie beim Grafikkartenmarkt mal die Nummer 2 war/ist soll keine Schande sein!

Liszca
2003-01-28, 20:36:26
Originally posted by Mr. Lolman
Ich finde man sollte trotzdem die FX Karten kaufen. Schliesslich ist das dann im Sinne des Marktes.

Zuerst schluckt nvidia 3dfx und dann sind sie drauf und drann sich selbst zu vernichten. ATi hat dann keinen wirklichen Konkurrenten mehr, und für eine neue Karte 750 Euro verlangen.

irre, nvidia wird durch powervr ersetzt, zumindest war das so heute nacht in meinem traum so!

Waere ja genuegendplatz wenn nvidia weg waehre bei den chipherstellern!

kommt wir bauen auch eine grafikkarte, sie rechnet jede aufloesung auf 320x200x4 bit runter und dazu gibt es noch 16x fsaa das in wirklichkeit 2x aa ist!

mapel110
2003-01-28, 20:40:14
Originally posted by Exxtreme

Das aber wahrscheinlich auch nur ohne FSEAA & AF...

hm, naja, ich seh verdammt selten 3dmark ergebnisse mit AA oder AF aktiviert. sollte sich zwar ändern, aber wenn wir wieder bei 4000-5000 points anfangen, kommt eventuell keiner auf die idee AA und AF zu aktivieren.

btw ich kann mich an kein review erinnern, wo die geforce3 gegen 8500er gebencht worden ist im 3dmark mit aktiviertem AF (lassen wir mal die vergleichbarkeit der qualität aussen vor ;) ).

Liszca
2003-01-28, 20:48:12
Originally posted by mapel110
laalalalaala, mir gehts so gut, wenn ich das hier lese :D
:rofl:

Das geilt einen richtig auf wenn man ne radeon 8500 hat stimmts?

AlfredENeumann
2003-01-28, 20:50:23
Originally posted by mapel110


nix genaues weiss man nicht ;)

aber ich bin da auch leonidas meinung, man sollte trilinear gegen trilinear benchen. allein fairnesshalber. und da scheint die FX wirklich performanter zu sein !
20% schneller eben !

früher haben nv änhänger auf den bi AF der r200 rumgehakt, jetzt sollten wir nicht versuchen, dass tri-AF der FX auf das niveau des bi-AF des r300 runterzureden.

womit ich übrigens nicht gesagt haben will, dass ich ati anhänger bin :D


Ich bin dafür das die settings so gewählt werden das das Endergbniss vergleichbar ist. Egal wie es erreicht wird.

-error-
2003-01-28, 20:54:36
Wo bleibt den das FX-Review von Chip.de und zdnet???

Liszca
2003-01-28, 20:55:54
Originally posted by Labberlippe


Wieso sind ow und Richthofen so ruhig. ???

Gruss Labberlippe

Schon zeitung gelesen, die zwei sind mit einem schlaganfall vor dem pc ins krankenhaus geliefert worden!

mapel110
2003-01-28, 21:04:20
Originally posted by Powerd by ATI
Wo bleibt den das FX-Review von Chip.de und zdnet???

es gibt anscheinend nur ca 5 oder 6 testkarten !
da haben halt nur die wirklich wichtigen sites ein exemplar bekommen.

LRP
2003-01-28, 21:06:34
Gut,
NV wird sicherlich im laufe der Zeit noch an den Treibern feilen, aber und da sind wir uns wohl alle einig, wenn ich etwas neu vorstelle, dann in einer für diesen Zweck optimalen Version und Ausführung (Denn diese Tests sollen ja eine Werbefunktion erfüllen!!).
Ich denke mal sie haben den Mund zu voll genommen.

Gruß
LRP

Liszca
2003-01-28, 21:06:35
Originally posted by LovesuckZ


Hm, dann lass es doch. Oder macht dich sowas an?


mich auch, aber es ist einfach zu offensichtlich.

zu den treibern: vielleich ist da noch ein kleiner trick dahinter, was die bq angeht!

in computerspiele bild interressieren die sich eh nicht fuer die bildqualitaet, genauso in gamestar, pcgames, pcaction, dort wird die gffx als beste karte darstehen, und nvidia hat trotzdem seinen erfolg!

Liszca
2003-01-28, 21:08:06
Originally posted by Dunkeltier


Die sind verstummt, nachdem Tests kamen in welchen die NV30 vom alten R300 in Grund und Boden gestampft worden ist. Ich frage mich, ob der R350 überhaupt noch nötig ist. Vielleicht braucht Ati nur eine Radeon 9700 Ultra rausbringen, um NVidia den Dolch in den Rücken zu stoßen. Die Schmach muß für ow, Richthofen und einige andere unendlich groß sein. Da gibt es nicht mehr schönzureden, Fakt ist das der NV30 eine Katastrophe sondergleichen ist, für den einstigen Marktführer. Wer will schon niedrige Auflösungen und nicht funktionierende AA Modi, ganz zu schweigen von den restlichen Nachteilen.

nein, die machen das anders: die bauen eine radeon 9700 ti500 ihr wisst auf was ich anspiele!

hart aber fair
2003-01-28, 21:09:45
Originally posted by AlfredENeumann



Ic bin dafür das die settings so gewählt werden das das Endergbniss vergleichbar ist. Egal wie es erreicht wird.

Sehr verfünftig! - (Halbwegs) technische spezifierte Ausdrücke werden permanent mit nichtssagenden Worten durch das Marketing gemischt. Letztlich interessiert mich nur, was hinten, oder besser auf dem Bildschirm, rauskommt. Gleiche Qualität wird bei gleicher Auflösung miteinander verglichen. Ab hier zählen dann die FPS. Wie die Einstellungen im Marketing-Jargon tatsächlich heißen, ist gelinde gesagt Sch***egal.

Liszca
2003-01-28, 21:18:27
Originally posted by Monger
....Ich will ja echt nicht gehässig wirken, aber da hat jemand jemanden ziemlich kräftig unterschätzt...
Bin ich da desinfomiert oder war NVidia nicht eigentlich Technologieführer? Wollten die nicht die Ideen von 3DFX von damals in ihr eigenes Design integrieren?
...


Haben sie doch:
1. die verspaetung der voodoo5
2. die groesse der voodoo5 6000
3. die hitze der voodoo3

was will man mehr, alle guten dinge sind drei!

Liszca
2003-01-28, 21:21:44
Originally posted by ow



NVidia hat mehrach gesagt, dass es beim NV20 nicht auf die rohe Leistung ankommt, sondern darauf, schönere Pixel zu berechnen und dazu ist der NV30 mit seinen VS/PS-Fahigkeiten sicher in der Lage. Mal schauen, ob ATi ausser hohler fps-Protzerei dem irgendwas entgegenzusetzen hat mit ihrem nächsten Chip.

das interessiert mich jetzt ein dreck, ich will das jetzt alles besser aussieht, und nicht erst in 5 jahren. p.s.: wir sind ja schliesslich noch nicht mal bei dx8 spielen angelangt, also rede doch bitte nicht von sowas!

Liszca
2003-01-28, 21:24:22
Originally posted by La Junta


Sogar Richofen hats eingesehen , das die Karte nicht der bringer ist , aber du kannst es nicht zugeben . Auf einmal wenn NVidia nichts echt schnelleres rausbringen konnte spielt die Geschwindigkeit keine Rolle ??? Lass es sein OW .
Die FX wird wohl auch ihre stärken haben (Laustärke :D ) , aber für soviel geld sowas ?
Ich hatte Richtofen als extrmen Fanboy angesehen , aber du bist nicht zu übertreffen .Im übrigen bin ich von Richtofens gelasenheit überrascht :D
Vielleicht is die normale FX leiser stromsparender und vorallem billiger , dann wäre sie eine gute Alternative .
Ausserdem war diese "fps-Protzereie" das mehr oder weniger einzige , was NVidia vorzuweissen hatte , bis jetzt . es war ja auch bis jetzt das wichtigste , aber Meinungen ändern sich schnell , nicht wahr OW ?
Ausserdem solltest auch die bessere BQ der Radeon sehen können und es ist sowieso geschmackssache .

stimmt also die ultra version ist uninteressant, aber die kleinere version soll angeblich nicht nennenswert einbrechen, sieht man ja bei ti4200 <-> ti4600 und r9700 und r9700pro!

LRP
2003-01-28, 21:30:34
Sollte NV der Karte etwa einen, nur auf Benches optimierten Treiber mit auf den Weg gegeben haben (Darum die Schlechtere Bq )????

Sollten wir uns auf die neuen Treiber für die Fx freuen, die dann in alle Modi gut arbeiten aber in den Fps absacken????

Nvidia is wie ne Wundertüte, keiner weiß was drinn steckt

Unregistered
2003-01-28, 21:33:29
Originally posted by LRP
Nvidia is wie ne Wundertüte, keiner weiß was drinn steckt

Wieso, das höhrt man doch. ;-)

Salvee
2003-01-28, 21:57:40
Die ganzen Tests sind eigentlich nur eine Andeutung, und somit für den Popo, denn das Produkt (Karte&Treiber) sind einfach noch nicht marktreif.

- Es gibt weltweit nur 5 bis 6 Karten, die mit 500/1000 MHz laufen
- schaut mal auf www.nvidia.com, da wird die GFFX nur als Quadro besonders erwähnt, für die normale FX gibt es nur so einen mickrigen Knopp rechts oben, und das wars.
- die Treiber supporten kein DX9 !
- die nV-DX9 Demos, die sicherlich für einiges Aufsehen und positive Resonanz gesorgt hätten (z.B Bilder auf THG ;) ), sind nicht released

Irgendwie sehe ich überhaupt keinen Sinn in nV's Verhalten.

Bis die den ganzen Kram auf die Reihe gebracht haben, wird es wohl noch einige Zeit dauern.

Ficus
2003-01-28, 21:59:11
Originally posted by hart aber fair
Sehr verfünftig! - (Halbwegs) technische spezifierte Ausdrücke werden permanent mit nichtssagenden Worten durch das Marketing gemischt. Letztlich interessiert mich nur, was hinten, oder besser auf dem Bildschirm, rauskommt. Gleiche Qualität wird bei gleicher Auflösung miteinander verglichen. Ab hier zählen dann die FPS. Wie die Einstellungen im Marketing-Jargon tatsächlich heißen, ist gelinde gesagt Sch***egal.
100% Agree
Da fängt aber das fast unumgängliche Problem der Subjektivität an!

ollix
2003-01-28, 22:07:09
Originally posted by AlfredENeumann Avatar: :lol: :lol: :lol:
Gibts das irgendwo hochauflösend als Wallpaper. So jetzt spiele ich mit meiner 9500er, die schneller ist, als eine FX!
;D

Muh-sagt-die-Kuh
2003-01-28, 22:22:25
Originally posted by Katrin



Aber ich glaube dass die FX noch richtig was an Leistung zulegt leider. Kann mir einfach nicht vorstellen, das NV sich das bieten lässt..
Glaube ich weniger...wenn man eine verspätete Karte liefert und die Konkurrenz bis dahin meilenweit in Führung liegt muss man versuchen, eben diese so weit wie möglich zu übertrumpfen. Alles andere würde einen gehörigen Imageschaden mit sich bringen.

Oder was glaubst du, wieso NVidia so eine Monsterkühlung verbaut? Man will unbedingt die Leistungskrone wiederhaben, auch wenn der Chip selbst dem R300 bei gleichem Takt unterlegen ist.

Katrin
2003-01-28, 22:30:00
Originally posted by Muh-sagt-die-Kuh
Glaube ich weniger...wenn man eine verspätete Karte liefert und die Konkurrenz bis dahin meilenweit in Führung liegt muss man versuchen, eben diese so weit wie möglich zu übertrumpfen. Alles andere würde einen gehörigen Imageschaden mit sich bringen.

Oder was glaubst du, wieso NVidia so eine Monsterkühlung verbaut? Man will unbedingt die Leistungskrone wiederhaben, auch wenn der Chip selbst dem R300 bei gleichem Takt unterlegen ist.

bin der gleichen meinung wie du, bloss kann ich mir einfach nicht vorstellen, das NV sowas verkaufen will. Da muss echt nen Hacken sein

nggalai
2003-01-28, 22:40:00
Originally posted by ollix
Avatar: :lol: :lol: :lol:
Gibts das irgendwo hochauflösend als Wallpaper. So jetzt spiele ich mit meiner 9500er, die schneller ist, als eine FX!
;D *such*

da:

http://www.blarg.net/~jameswj/noisy.JPG

(http://www.blarg.net/~jameswj/noisy.JPG)

ta,
-Sascha.rb

aths
2003-01-28, 22:45:37
Originally posted by Exxtreme
Das aber wahrscheinlich auch nur ohne FSEAA & AF... Kleine OT-Randbemerkung. Wieso FSEAA? Weil Multisampling nur Kanten (Edges) glättet? Für Textur-AA sind andere Verfahren zuständig, daher ist es vom Wortbegriff her durchaus normal, wenn mit FSAA diese (ohnehin vorhandenen) Textur-AA-Verfahren und zusätzlich ein weiteres Verfahren, welches mindestens noch die Kanten glättet, gemeint ist. Die Unterscheidung in Edge AA und Supersampling ist imo sinnlos, da auch Karten die nur MSAA haben, ein komplett "ge-Anti-Aliastes" Bild zeigen können.

AlfredENeumann
2003-01-28, 22:57:44
Originally posted by ollix
Avatar: :lol: :lol: :lol:
Gibts das irgendwo hochauflösend als Wallpaper. So jetzt spiele ich mit meiner 9500er, die schneller ist, als eine FX!
;D

den hab ich bei THG geklaut. Aber wenn man so ein NVida-Logo als Wallpaper hat kann mann es sich mit sicherheit selber machen, ich k önnte eines basteln wenn ich weis wo ich das NV-Logo in der größe herbekomme.

DrFreaK666
2003-01-29, 00:38:53
Müssten die R300-Demos nicht auch auf der GF-FX laufen?? Die wurden doch unter DX9 programmiert...
Naja, aber NV wollte sicherlich keine ATI-Demos auf der FX sehen.
Schade, dass die NV-Demos nicht mitgeliefert wurden. Die sehen ja nun wirklich klasse aus.

Wie schnell wäre ne Radeon9700Pro mit der FXFlow-Kühlung Wie weit wäre sie übertaktbar?)??

AlfredENeumann
2003-01-29, 00:49:02
Originally posted by DrFreaK666
Müssten die R300-Demos nicht auch auf der GF-FX laufen?? Die wurden doch unter DX9 programmiert...
Naja, aber NV wollte sicherlich keine ATI-Demos auf der FX sehen.
Schade, dass die NV-Demos nicht mitgeliefert wurden. Die sehen ja nun wirklich klasse aus.

Wie schnell wäre ne Radeon9700Pro mit der FXFlow-Kühlung Wie weit wäre sie übertaktbar?)??


ATIs DX9 Demos sollten auf der FX laufen, da DX !!!
Andersrum dürften Nvidias Demos nicht auf dem R300 laufen , da OpenGL.

Die R300 wird selbst mit FXFlow keine 500MHz erreichen. Dafür ist das Desing nicht ausgelegt. Das sieht man an den 3D-Mark rekordversuchen. Selbst mit Stickstoffkühlung gings nicht stabil weit über 450MHZ.

DrFreaK666
2003-01-29, 00:54:03
Originally posted by AlfredENeumann



ATIs DX9 Demos sollten auf der FX laufen, da DX !!!
Andersrum dürften Nvidias Demos nicht auf dem R300 laufen , da OpenGL.

Die R300 wird selbst mit FXFlow keine 500MHz erreichen. Dafür ist das Desing nicht ausgelegt. Das sieht man an den 3D-Mark rekordversuchen. Selbst mit Stickstoffkühlung gings nicht stabil weit über 450MHZ.

Tja, die Psychos, die ihre Grakas so stark übertakten, sollten mal benchen, damit wir uns ein Bild von der R350 machen können.
Naja, passt jetzt nicht ganz hier rein...

John Porno
2003-01-29, 03:40:58
Ich denke nicht das NV Probleme hat. Sie werden Ati wohl etwas bei der Stange halten wollen mit der Verzögerung des FX Chips. Wenn Ati
kurz nach dem die FX drausen ist ihren R350 rausbringt, wird NV eine
neue Karte aus dem Ärmel schütteln und Ati überaschen.

DrFreaK666
2003-01-29, 03:45:07
Originally posted by John Porno
Ich denke nicht das NV Probleme hat. Sie werden Ati wohl etwas bei der Stange halten wollen mit der Verzögerung des FX Chips. Wenn Ati
kurz nach dem die FX drausen ist ihren R350 rausbringt, wird NV eine
neue Karte aus dem Ärmel schütteln und Ati überaschen.

Genau, weil NV Bill gates als geldgeber hat...

Wer soll dir das denn bitte abkaufen??

Salvee
2003-01-29, 04:49:26
Originally posted by John Porno
Ich denke nicht das NV Probleme hat. Sie werden Ati wohl etwas bei der Stange halten wollen mit der Verzögerung des FX Chips. Wenn Ati
kurz nach dem die FX drausen ist ihren R350 rausbringt, wird NV eine
neue Karte aus dem Ärmel schütteln und Ati überaschen.

Gaynau.
Wahrscheinlich wird die NV30 erstmals gescheit laufen, wenn R350 draussen ist :stareup:

Salvee
2003-01-29, 07:07:01
Brent von [H]ard|OCP hat im Beyond3D-Forum herausgefunden, dass der 42.63 nVidia-Treiber DirectX9 auf der GFFX ermöglicht. Netterweise hat er auch gleich eine GFFX mit dem Shadermark von www.tommti-systems.de gegen eine R9700Pro gebencht. Scheinbar sind die DX9-Treiber der GFFX erst im embryonalen Stadium, bei der DX8-Performance sieht es eine ganze Ecke besser aus:


9700 Pro 1024x768x32, latest cat 3.0 drivers from the web
ShaderMark v1.6 - DX9 2.0 Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)
video mode / device info
(1024x768), X8R8G8B8 (D24X8)
HAL (pure hw vp): RADEON 9700/9500 SERIES
benchmark info
DX9 mip filter reflections: on
mip filter reflections: on


GFFX 1024x768x32, 42.63 drivers with NoAA and NoAF
ShaderMark v1.6 - DX9 2.0 Pixel Shader Benchmark - ToMMTi-Systems (http://www.tommti-systems.com)
video mode / device info
(1024x768), X8R8G8B8 (D24X8)
HAL (pure hw vp): NVIDIA GeForce FX 5800 Ultra
benchmark info
DX9 mip filter reflections: on
mip filter reflections: on


shaders:
Fixed Function - Gouraud Shading
Fixed Function - Gouraud Shading
446.71 fps / 582.84 fps

shaders:
Fixed Function - Diffuse Texture Mapping
Fixed Function - Diffuse Texture Mapping
433.90 fps / 572.49 fps

shaders:
Fixed Function - Diffuse Bump Mapping
Fixed Function - Diffuse Bump Mapping
238.16 fps / 282.81 fps

shaders:
PS 2.0 - Diffuse Bump Mapping
PS 2.0 - Diffuse Bump Mapping
207.10 fps / 85.65 fps

shaders:
PS 2.0 - Diffuse Bump Mapping
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
193.67 fps / 63.06 fps

shaders:
PS 2.0 - Bumped Diffuse + Specular
PS 2.0 - Diffuse Bump Mapping
228.52 fps / 85.30 fps

shaders:
PS 2.0 - Bumped Diffuse + Specular
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
218.91 fps / 68.67 fps

shaders:
PS 2.0 - Bumped Diffuse and Specular Lighting with per pixel Specular Exponent
PS 2.0 - Diffuse Bump Mapping
242.02 fps / 87.93 fps

shaders:
PS 2.0 - Bumped Diffuse and Specular Lighting with per pixel Specular Exponent
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
231.16 fps / 70.37 fps

shaders:
PS 2.0 - Per Pixel Anisotropic Lighting
PS 2.0 - Diffuse Bump Mapping
272.57 fps / 94.75 fps

shaders:
PS 2.0 - Per Pixel Anisotropic Lighting
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
258.69 fps / 74.59 fps

shaders:
PS 2.0 - Per Pixel Bumped Anisotropic Lighting plus Diffuse
PS 2.0 - Diffuse Bump Mapping
223.32 fps / 79.36 fps

shaders:
PS 2.0 - Per Pixel Bumped Anisotropic Lighting plus Diffuse
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
213.19 fps / 64.62 fps

shaders:
PS 2.0 - Cubic Environment Bumped Reflections
PS 2.0 - Diffuse Bump Mapping
152.17 fps / 83.26 fps
shaders:
PS 2.0 - Cubic Environment Bumped Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
150.52 fps / 67.44 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Diffuse Bump Mapping
134.77 fps / 70.74 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
130.95 fps / 58.72 fps

shaders:
PS 2.0 - Ghost Shader
PS 2.0 - Diffuse Bump Mapping
172.33 fps / 59.77 fps

shaders:
PS 2.0 - Ghost Shader
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
164.08 fps / 49.34 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Tinted Reflections with per pixel Fresnel Term
PS 2.0 - Diffuse Bump Mapping
192.95 fps / 70.73 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Tinted Reflections with per pixel Fresnel Term
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
186.94 fps / 59.08 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Diffuse Bump Mapping
191.03 fps / 71.81 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - Bumped Diffuse Lighting with per pixel intensity falloff
182.80 fps / 59.59 fps

shaders:
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
103.32 fps / 33.54 fps

shaders:
PS 2.0 - 2 Spot Lights
PS 2.0 - 2 Spot Lights
80.05 fps / 28.07 fps

shaders:
PS 2.0 - Cubic Environment Bumped Diffuse and Independently Colored Reflections
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
105.45 fps / 33.57 fps

shaders:
PS 2.0 - Cubic Environment Diffuse Light and Tinted Refractions
PS 2.0 - 4 Lights/Pass Diffuse Bump Mapping
114.50 fps / 35.50 fps

Exxtreme
2003-01-29, 07:52:35
Meine Fresse, die Treiber IMHO eine richtige Katastrophe *edit* ohne flamen zu wollen *edit*...
Also höchstens Alpha-Stadium.

skampi
2003-01-29, 08:59:28
Originally posted by Labberlippe

Wieso sind ow und Richthofen so ruhig.

Gruss Labberlippe



Aus RH's Lieblingsforum. ow ist eigentlich immer mal hier, hält sich aber ein bisschen zurück.

LovesuckZ
2003-01-29, 09:00:25
Dann laeuft die FX ja nur mit angezogene Handbremse?

/spek: Dann koennte, wenn die Treiber mal Final erreichen sollte und Nvidia sich anstrengt, vielleicht den r350 schlagen koennen.

skampi
2003-01-29, 09:02:15
Originally posted by LovesuckZ
Dann laeuft die FX ja nur mit angezogene Handbremse?

/spek: Dann koennte, wenn die Treiber mal Final erreichen sollte und Nvidia sich anstrengt, vielleicht den r350 schlagen koennen.

Ne, mit DX8 hat das wohl weniger zu tun. Eher ist das eine Erklärung, warum es immer noch keinen 3DM2003/ gibt.

Salvee
2003-01-29, 09:06:47
Originally posted by LovesuckZ
Dann laeuft die FX ja nur mit angezogene Handbremse?

/spek: Dann koennte, wenn die Treiber mal Final erreichen sollte und Nvidia sich anstrengt, vielleicht den r350 schlagen koennen.

Naja, die verfügbare Speicherbandbreite wird kein Treiber der Welt erhöhen können, und besonders da wird R350 'ne Schippe drauflegen.

Bei DX9-Shadern wird sich die Performance mit an Sicherheit grenzender Wahrscheinlichkeit noch stark erhöhen, die Frage ist, wann werden die ausserhalb des 3DMark2003 eingesetzt werden ?

seahawk
2003-01-29, 09:12:37
Aber ich kann in den Tests nicht erkennen, dass die Karte Bandbreitenlimitiert ist ....

Salvee
2003-01-29, 09:19:03
Bei einem 'reinen' Shadertest ist die Bandbreite ja auch ziemlich irrelevant.
Vielleicht kommen ja noch ein paar Werte mit FSAA nach...

nagus
2003-01-29, 10:20:00
http://www.xbitlabs.com/news/story.html?id=1043721260

HOT
2003-01-29, 11:27:08
Aber wenn der FX DX9 Shaderprogramme schnell berechnen können sll, dann muss er doch erst recht DX8 Shaderprogramme schnell berechnen. Mit llem hätt ich gerechnet, aber nicht mit dem katastrophalen Abschneiden!

DrFreaK666
2003-01-29, 13:21:56
Für den Shadermark benötigt man ja noch ATIs Treasure Chest Demo.
Könnte es deshalb nicht sein, dass ATI deswegen Vorteile hat??

hart aber fair
2003-01-29, 13:56:51
Originally posted by Salvee


Naja, die verfügbare Speicherbandbreite wird kein Treiber der Welt erhöhen können, und besonders da wird R350 'ne Schippe drauflegen.

Bei DX9-Shadern wird sich die Performance mit an Sicherheit grenzender Wahrscheinlichkeit noch stark erhöhen, die Frage ist, wann werden die ausserhalb des 3DMark2003 eingesetzt werden ?

Die Essenz ist:
Von ATI bekommst du jetzt, was du jetzt gebrauchst kannst. Von NV bekommst du jetzt, was du in der Zukunft gebrauchen kannst, wenn du die Karte lange genug dein Eigenen nennen würderst. LOL ...Tiefer Zweifel breitet sich aus... LOL

BlueRaven
2003-01-29, 14:27:32
die ersten GeForceFX Karten von Terratec sollen ab dem 1 März ausgeliefert werden an die Endkunden. [ Quelle: ALTERNATE ]


Hmm... wieso dauert es so lange für die auslieferung und wieso hat Nvidia diesmal alles vermasselt den Auftritt die Benchmarks u.s.w


mfg
BlueRaven

Dr. Greenthumb
2003-01-29, 14:49:15
Originally posted by BlueRaven
die ersten GeForceFX Karten von Terratec sollen ab dem 1 März ausgeliefert werden an die Endkunden. [ Quelle: ALTERNATE ]


Hmm... wieso dauert es so lange für die auslieferung und wieso hat Nvidia diesmal alles vermasselt den Auftritt die Benchmarks u.s.w


mfg
BlueRaven

Die Antwort ist einfach!! nVdidia hat es nicht gebacken bekommmen den Chip richtig zu designen (zuviel Abwärme durch schlechte Pro-Mhz Leistung), die Treiber richtig zu programmieren und den Chip adäquat leise zu kühlen und auf Abweichungen bei den BQ-Messungen hinzuweisen.

Wenn man die Fakten zusammennimmt siehts ganz nach Panik aus bei der Firma. Die wollten (und mussten anscheinend) unbedingt vor dem R350 die FX präsentieren, damit sich überhaupt noch jemand für ihn interessiert. Das das aber damit endet, das auf Staubsaugern und Föns GeforceFX-Symbole geklebt werden und dies auf I-Net Seiten veröffentlicht wird, hatten sie wohl nicht gerechnet.

Also haben sie im Vergleich zu ATI die Entwicklung verschlafen oder wenn man nicht so hart urteilen will, auf die falschen Dinge wert gelegt (siehe die erweiterten Shader die noch garnicht richtig von den Treibern angesprochen werden und bei aktuellen Spielen sowieso völlig unnütz sind.)

Unregistered
2003-01-29, 15:29:29
Wirklich mysteriös das Ganze. Es kommt mir so vor, als hätte nVidia unter enorm hohem Druck gestanden bei der Freigabe der Testkarten. Als Fazit bleibt der Eindrück einer unfertigen Karte, die mit Biegen und Brechen auf ein paar Prozent mehr Leistung als ihr Konkurrent geprügelt wurde, und das zum Teil auch nur unter günstigen Bedingungen zu nVidias Gunsten. Möglicherweise will nVidia mit diesen frühen Testkarten nur Zeit gewinnen. Es bleibt die Frage, wann die Karte marktreif ist und größere Mengen erhältlich. Ich frage mich ernsthaft, ob diese Karte überhaupt jemals in Stückzahlen zu kaufen sein wird, zumindest die Ultra Variante. Diese Veröffentlichung war die enttäuschendste Vorstellung überhaupt, noch vor der Parhelia.

Unregistered
2003-01-29, 15:42:10
das ganze problem mit der hohen abwärme und dem lüfter kommen doch nur dadurch das sie mit dem low-k prozess auf die schnauze gefallen sind und ihn rauslassen mussten.
low-k hatte nochmal ~30% weniger abwärme gebracht, also um die 50 watt, das hätte man noch gut in den griff bekommen.
low-k viel flach also was tun? takt runterschrauben vom angepeilten ziel oder nen monsterkülher erfinden.

StefanV
2003-01-29, 17:43:20
Originally posted by DrFreaK666
Für den Shadermark benötigt man ja noch ATIs Treasure Chest Demo.
Könnte es deshalb nicht sein, dass ATI deswegen Vorteile hat??

Nicht wirklich, da ATI ja den Quellcode mitliefert :)

Man kann also den Code überprüfen...

StefanV
2003-01-29, 17:45:09
Originally posted by Unregistered
das ganze problem mit der hohen abwärme und dem lüfter kommen doch nur dadurch das sie mit dem low-k prozess auf die schnauze gefallen sind und ihn rauslassen mussten.
low-k hatte nochmal ~30% weniger abwärme gebracht, also um die 50 watt, das hätte man noch gut in den griff bekommen.
low-k viel flach also was tun? takt runterschrauben vom angepeilten ziel oder nen monsterkülher erfinden.

Das ganze Problem mit der Abwärme hat NV schon seit der Riva TNT, ist also anscheinend ein allgemeines Problem von NV...

Könnte z.B. an den Prioritäten beim Chipdesign oder an den Tools selber liegen, denn ATI bekommt seit je her ähnliche Desings hin, die aber deutlich kühler sind...

Unregistered
2003-01-29, 20:54:04
Originally posted by Stefan Payne


Das ganze Problem mit der Abwärme hat NV schon seit der Riva TNT, ist also anscheinend ein allgemeines Problem von NV...

Könnte z.B. an den Prioritäten beim Chipdesign oder an den Tools selber liegen, denn ATI bekommt seit je her ähnliche Desings hin, die aber deutlich kühler sind...


Tja, ATI kommt halt aus dem OEM- und Mobile-Markt und dort gelten andere Gesetze bezüglich Stromaufnahme und Wärmeentwicklung, Kosten und Lautstärke ...

mapel110
2003-01-29, 22:27:39
http://www.chip.de/produkte_tests/produkte_tests_9594740.html

hier das fazit:
Und obwohl die jetzt gezeigte Karte schon „Ultra“ heißt, wird es mit Sicherheit noch schnellere Versionen geben, sobald die Massenproduktion angelaufen ist und die Ausbeute stimmt.

*ohne kommentar*



ach ne, doch ;D

Unregistered
2003-01-29, 22:29:08
Originally posted by Powerd by ATI
Wo bleibt den das FX-Review von Chip.de und zdnet???

www.chip.de

Unregistered
2003-01-29, 22:59:10
der gefiel mir besonders gut im chip test :
"
Ein Null-Ergebnis lieferte schließlich der SPECviewperf 7.0: Dieser Workstation-orientierte OpenGL-Benchmark lief auf dem GeForce FX nicht durch. Im Verlauf des Benchmarks stieg die Temperatur des massiven Speicherkühlers an der Board-Unterseite bis auf 60 Grad Celsius, dann zeigten sich die ersten Darstellungsfehler, und schließlich stürzte das System ab. Die Fehler traten dabei umso schneller auf, je höher die gewählte Auflösung lag.
"

Unregistered
2003-01-29, 23:10:39
WOW, bis jetzt der Test in dem die FX am schlechtesten wegkommt. Der Verdacht, der woanders schon mal geäußert wurde, der Treiber habe absichtlich ein Bremse, weil das schlechte thermische Verhalten des Chips keine Vollast zulasse, scheint sich zu bestätigen.
In zweierlei Hinsicht ist es interessant, dass unsere Testkarte gerade im OpenGL-Bereich patzt: Einerseits kann die Hardware zur Zeit nur unter OpenGL voll genutzt werden – selbst DirectX-9-Titel würden nicht den ganzen Funktionsumfang der GeForce-FX-Shader nutzen. So stellt sich die Frage, ob Nvidias Chip nur unter halber Last stabil läuft.

Rest s.o.

Dr. Greenthumb
2003-01-29, 23:15:07
Originally posted by Unregistered
WOW, bis jetzt der Test in dem die FX am schlechtesten wegkommt. Der Verdacht, der woanders schon mal geäußert wurde, der Treiber habe absichtlich ein Bremse, weil das schlechte thermische Verhalten des Chips keine Vollast zulasse, scheint sich zu bestätigen.


Rest s.o.

Wers witzig liebt sollte sich mal den ersten Kommentar durchlesen:

ich zitiere: wow, die neue fx schafft ganze 15815 Bilder pro Sekunde (Auflösung 1024 x 768) beim 3Dmark 2001 SE Gesamt. Da kann die ATI-Karte mit nur 15569 Bildern pro Sekunden glatt einpacken, bei aktuellen Spielen ruckelt das doch total, von Word mal ganz abgesehen

echte Kompetenz gibts halt nur bei Chip (oder OBI) ;D ;D ;D

Unregistered
2003-01-29, 23:15:49
Originally posted by Unregistered
WOW, bis jetzt der Test in dem die FX am schlechtesten wegkommt. Der Verdacht, der woanders schon mal geäußert wurde, der Treiber habe absichtlich ein Bremse, weil das schlechte thermische Verhalten des Chips keine Vollast zulasse, scheint sich zu bestätigen.


Rest s.o.



habe irgenwo gelesen, dass es am treiber liegen soll (weiss nicht mehr wo) ->lüfter dreht erst hinauf wenn chip schon zu heiss ist. mit neuen treibern soll es nicht mehr passieren.

Unregistered
2003-01-29, 23:17:41
nö,der lüfter dreht sofort hoch sobald was in richtung 3d kommt.

Unregistered
2003-01-29, 23:23:55
entschuldigung, meine aussage war nicht ganz richtig, sie betrifft näämlich maya mit der quadro. glaube, dass das problem aber das selbe ist. hier zum test-> http://www.3dchips.net/main/modules.php?name=Content&pa=showpage&pid=83

mapel110
2003-01-29, 23:31:12
Originally posted by Dr. Greenthumb


Wers witzig liebt sollte sich mal den ersten Kommentar durchlesen:

ich zitiere: wow, die neue fx schafft ganze 15815 Bilder pro Sekunde (Auflösung 1024 x 768) beim 3Dmark 2001 SE Gesamt. Da kann die ATI-Karte mit nur 15569 Bildern pro Sekunden glatt einpacken, bei aktuellen Spielen ruckelt das doch total, von Word mal ganz abgesehen

echte Kompetenz gibts halt nur bei Chip (oder OBI) ;D ;D ;D

der kommentar bei chip war ironisch von dem typen gemeint(sieht man an den smilies, die du hier natürlich weglässt). wenn man über ein anderes forum herzieht, sollte man fair bleiben.

mfg

Dr. Greenthumb
2003-01-29, 23:40:11
Originally posted by mapel110


der kommentar bei chip war ironisch von dem typen gemeint(sieht man an den smilies, die du hier natürlich weglässt). wenn man über ein anderes forum herzieht, sollte man fair bleiben.

mfg

Sorry aber das kann man interpretieren wie man will, wer schreibt denn bitte in dem Kontext "Bilder pro Sekunde" auch wenns ein Witz ist. Die Aussage über den Geschwindigkeits"unterschied" war ironisch nicht aber seine "technische" Aussage.Und über ein Forum im allgemeinen würde ich nie herziehen, wieso auch hab ich nix von. Hier kann doch auch jeder Schwachsinn reinposten wenn er will oder nix sinnvolles zu sagen hat.Ich fand die Aussage als solches einfach lustig!! Ausserdem stimmt die Aussage über die CHip ja trotzdem, auch wenn man den Kommentar wegläßt.

Ich bin zwar noch relativ neu hier im Forum, aber ich hoffe mich nicht als Spammer oder Flamer hier zu präsentieren.

Unregistered
2003-01-29, 23:42:17
Originally posted by Unregistered
entschuldigung, meine aussage war nicht ganz richtig, sie betrifft näämlich maya mit der quadro. glaube, dass das problem aber das selbe ist. hier zum test-> http://www.3dchips.net/main/modules.php?name=Content&pa=showpage&pid=83
Wenn man sich nochmal in Erinnerung ruft, daß die FX schon mal vor Wochen(!), live im Fernsehen, bei einer 3D-Applikation abgestürzt ist, kommt mir der Verdacht, das Chip-Design hat einen grundsetzlichen Fehler.

Unregistered
2003-01-29, 23:45:27
Originally posted by mapel110


der kommentar bei chip war ironisch von dem typen gemeint(sieht man an den smilies, die du hier natürlich weglässt). wenn man über ein anderes forum herzieht, sollte man fair bleiben.

mfg
Du bist hier der Einzige, der die Ironie nicht verstanden hat.

Dr. Greenthumb
2003-01-29, 23:49:10
Originally posted by Unregistered

Wenn man sich nochmal in Erinnerung ruft, daß die FX schon mal vor Wochen(!), live im Fernsehen, bei einer 3D-Applikation abgestürzt ist, kommt mir der Verdacht, das Chip-Design hat einen grundsetzlichen Fehler.

@ mapel110 dann will ich mich mal wieder nützlich machen

Die Karte lief bei allen anderen zwar sehr heiss, hat bei allen die sie getestet haben aber ohne Mucken gelaufen. Die Sites die Den SpecVIEWPerf 7 getestet haben, konnten auch Werte präsentieren. Die hätten bestimmt was darüber gschrieben wenn die mehrere Durchläufe gebruaucht hätten um ihn einmal komplett durchzutesten.

Ich nehme an der TSMC (der Chiphersteller für nV) 0.13er Fertigungsprozess ist noch schlechter als angenommen. Die Chip hatte wohl einen thermisch sehr anfälligen Chip auf der Karte, der mit dem Bench nicht durchlief.
Wenn sich das bewahrheitet, kann es sein einige Karten die in Handel geraten, nicht komplett stabil laufen. Ich denke das nVidia da nachbessern wird. IMHO werden solche karten bei den Qualitest ab jetzt ausgesondert.

Salvee
2003-01-29, 23:49:41
http://www.chip.de/artikelbilder/6709807_e74f8fc16d.jpg

Bitte den Text an der Y-Achse beachten ;)

Dr. Greenthumb
2003-01-29, 23:52:05
Originally posted by Salvee

Bitte den Text an der Y-Achse beachten ;)

Danke für die Unterstützung :D

Unregistered
2003-01-29, 23:52:25
Originally posted by Dr. Greenthumb


Sorry aber das kann man interpretieren wie man will, wer schreibt denn bitte in dem Kontext "Bilder pro Sekunde" auch wenns ein Witz ist. Die Aussage über den Geschwindigkeits"unterschied" war ironisch nicht aber seine "technische" Aussage.Und über ein Forum im allgemeinen würde ich nie herziehen, wieso auch hab ich nix von. Hier kann doch auch jeder Schwachsinn reinposten wenn er will oder nix sinnvolles zu sagen hat.Ich fand die Aussage als solches einfach lustig!! Ausserdem stimmt die Aussage über die CHip ja trotzdem, auch wenn man den Kommentar wegläßt.

Ich bin zwar noch relativ neu hier im Forum, aber ich hoffe mich nicht als Spammer oder Flamer hier zu präsentieren.

Oder Ihr seid doch zu zweit.
Natürlich war auch die technische Seite blanke Ironie.

Unregistered
2003-01-29, 23:54:57
Originally posted by Dr. Greenthumb


@ mapel110 dann will ich mich mal wieder nützlich machen

Die Karte lief bei allen anderen zwar sehr heiss, hat bei allen die sie getestet haben aber ohne Mucken gelaufen. Die Sites die Den SpecVIEWPerf 7 getestet haben, konnten auch Werte präsentieren. Die hätten bestimmt was darüber gschrieben wenn die mehrere Durchläufe gebruaucht hätten um ihn einmal komplett durchzutesten.

Ich nehme an der TSMC (der Chiphersteller für nV) 0.13er Fertigungsprozess ist noch schlechter als angenommen. Die Chip hatte wohl einen thermisch sehr anfälligen Chip auf der Karte, der mit dem Bench nicht durchlief.
Wenn sich das bewahrheitet, kann es sein einige Karten die in Handel geraten, nicht komplett stabil laufen. Ich denke das nVidia da nachbessern wird. IMHO werden solche karten bei den Qualitest ab jetzt ausgesondert.

es gab doch nur ne handvoll testkarten auf der ganzen welt oder? also wird die mit hoher wahrscheinlichkeit auch schon jemand anderes in der hand gehabt haben, brauch ja nur mal nen gehäuse mit schlechterer lüftung zu sein und bums, hängt sie.
und grade in nem Preview was tausende lesen is das extrem peinlich, wenn später mal nen paar leute das ding reklamieren und ne neue bekommen störts kaum einen

Dr. Greenthumb
2003-01-29, 23:58:53
Originally posted by Unregistered


Oder Ihr seid doch zu zweit.
Natürlich war auch die technische Seite blanke Ironie.

Hab den Test nur überflogen. Das mit den Bildern pro Sekunde im Bild hatte ich erst im Post gesehen. Das das einer dann im Kommentar nochmal wiederholt, zeugt ja nicht grade von Fachwissen über Thema Grakas (Weder beim Kommentator noch beim Tester). Das "einige" darauf dann so empfindlich reagieren hätt ich nicht gedacht.
Wenn ich dran denke was hier schon fürn Tinnef gepostet oder polemische Witzchen über andere gerissen wurde, braucht man ja nu nicht so mit dem knigge winken.

mfg
Greenthumb

Dr. Greenthumb
2003-01-30, 00:03:24
Originally posted by Unregistered


es gab doch nur ne handvoll testkarten auf der ganzen welt oder? also wird die mit hoher wahrscheinlichkeit auch schon jemand anderes in der hand gehabt haben, brauch ja nur mal nen gehäuse mit schlechterer lüftung zu sein und bums, hängt sie.
und grade in nem Preview was tausende lesen is das extrem peinlich, wenn später mal nen paar leute das ding reklamieren und ne neue bekommen störts kaum einen

Da bringst du mich auf noch ne Idee!!!

Was ist wenn die jetzigen Chips die Taktung nur für begrenzte Zeit machen. Wenn die bei Chip merken das die Temp so hoch geht hätte man ja wenigstens für die Werte mal das Gehäuse offengelassen und/oder die Kühlung verbessert.
Die Karte wurde in ihrem "kurzen" Leben bisher doch nahezu nur im §D Modus betrieben. Vielleicht hat si das nicht ausgehalten. Nicht auszudenken wenn das der Fall wäre. Damit könnte nVdidia einpacken. Wäre viel schlimmer als zB der 1,13GHZ P3 den musste Intel auch wegen thermischer Probleme und instabilitäten einstellen (zumindest bis zum nächsten fertigungstepping).
Wenn das bei nV dasselbe wäre müssten die nochmal mind. 3 Monate auf die Einführung warten!!

Unregistered
2003-01-30, 00:17:04
Originally posted by Dr. Greenthumb


Hab den Test nur überflogen. Das mit den Bildern pro Sekunde im Bild hatte ich erst im Post gesehen. Das das einer dann im Kommentar nochmal wiederholt, zeugt ja nicht grade von Fachwissen über Thema Grakas (Weder beim Kommentator noch beim Tester). Das "einige" darauf dann so empfindlich reagieren hätt ich nicht gedacht.
Wenn ich dran denke was hier schon fürn Tinnef gepostet oder polemische Witzchen über andere gerissen wurde, braucht man ja nu nicht so mit dem knigge winken.

mfg
Greenthumb

Also, das mit den FPS in der Y-Achse ist nichts weiter als Schlamperei, da wurde halt die Änderung von FPS auf Punkte versäumt.
Der Kommentator auf der Chip-Seite hat in seinem Text ironisch darauf hingewiesen. Leider hast Du nur den letzten Teil der Ironie verstanden.
Allerdings bin ich mir inzwischen selbst nicht mehr sicher.
Mit dem Knigge kannst Du mich nicht meinen.

Gruß

Unregistered
2003-01-30, 00:21:30
Originally posted by Dr. Greenthumb


Da bringst du mich auf noch ne Idee!!!

Was ist wenn die jetzigen Chips die Taktung nur für begrenzte Zeit machen. Wenn die bei Chip merken das die Temp so hoch geht hätte man ja wenigstens für die Werte mal das Gehäuse offengelassen und/oder die Kühlung verbessert.
Die Karte wurde in ihrem "kurzen" Leben bisher doch nahezu nur im §D Modus betrieben. Vielleicht hat si das nicht ausgehalten. Nicht auszudenken wenn das der Fall wäre. Damit könnte nVdidia einpacken. Wäre viel schlimmer als zB der 1,13GHZ P3 den musste Intel auch wegen thermischer Probleme und instabilitäten einstellen (zumindest bis zum nächsten fertigungstepping).
Wenn das bei nV dasselbe wäre müssten die nochmal mind. 3 Monate auf die Einführung warten!!

haste den link von der seite davor gelesen? den von 3dchips? da hatte die Quadro der FX auch nen thermisches problem.... oioi

Dr. Greenthumb
2003-01-30, 00:21:51
Originally posted by Unregistered


Also, das mit den FPS in der Y-Achse ist nichts weiter als Schlamperei, da wurde halt die Änderung von FPS auf Punkte versäumt.
Der Kommentator auf der Chip-Seite hat in seinem Text ironisch darauf hingewiesen. Leider hast Du nur den letzten Teil der Ironie verstanden.
Allerdings bin ich mir inzwischen selbst nicht mehr sicher.
Mit dem Knigge kannst Du mich nicht meinen.

Gruß
ne maple110 der hat doch relativ angefressen reagiert.

OK muss ich dir absolut rechtgeben mit dem Kommentar, bin wohl nicht mehr ganz wach und werd mir jetzt ne mütze(oder mehr) voll schlaf gönnen. :D

War nett mit dir zu posten

MFG

Unregistered
2003-01-30, 00:25:07
Originally posted by Dr. Greenthumb

ne maple110 der hat doch relativ angefressen reagiert.

OK muss ich dir absolut rechtgeben mit dem Kommentar, bin wohl nicht mehr ganz wach und werd mir jetzt ne mütze(oder mehr) voll schlaf gönnen. :D

War nett mit dir zu posten

MFG
Gute Nacht ;)

Dr. Greenthumb
2003-01-30, 00:26:09
Originally posted by Unregistered


haste den link von der seite davor gelesen? den von 3dchips? da hatte die Quadro der FX auch nen thermisches problem.... oioi

Ne , gut das du es sagst,hab ich nicht werd ihn mal in die Favoriten knallen und mir morgen ansehen. Gute Nacht!!! (scheinbar auch für nV *eg*)

mapel110
2003-01-30, 00:49:11
Originally posted by Dr. Greenthumb

ne maple110 der hat doch relativ angefressen reagiert.

OK muss ich dir absolut rechtgeben mit dem Kommentar, bin wohl nicht mehr ganz wach und werd mir jetzt ne mütze(oder mehr) voll schlaf gönnen. :D

War nett mit dir zu posten

MFG

relativ angefressen ! jedenfalls konnte man das posting komplett in den falschen hals kriegen.

mag ja sein, dass es deppen im chip-forum gibt, aber ich persönlich muss sagen, dass ich das chip-forum mittlerweile als archive für wissen bei kleinen problemchen sehr schätze. die suchfunktion dort hat mir jedenfalls schon ein paar mal weitergeholfen, wo leute hier im forum ratlos waren.
imo erfüllts auch seinen zweck, auch wenn dort die mods manchmal überfordert sind.

ich hoffe, es muss nicht irgendwann auch geschlossen werden, wie diverse andere foren, weils einfach ausartet.
da kann man sich hier zum beispiel wirklich glücklich schätzen, dass wir fleissige mods haben, die "unnötige" postings entfernen.

in diesem sinne, happy posting ;)

mfg

Salvee
2003-01-30, 02:05:44
Originally posted by Unregistered


Also, das mit den FPS in der Y-Achse ist nichts weiter als Schlamperei, da wurde halt die Änderung von FPS auf Punkte versäumt.


Wo wir gerade bei Schlampereien bei Chip sind: Was haltet ihr von diesem Zitat ;)

'So beschränken wir uns beim Leistungsvergleich in den Auflösungen 1024x768 und 1600x1200 jeweils auf die Einstellungen ohne Antialiasing und Anisotrope Filterung sowie 4xAntialiasing und Anisotrope Filterung mit 4 Pixeln, die beide Karten auf die gleiche Art ausführen.
Nvidias Intellisample und ATIs Smoothvision bleiben unberücksichtigt.'

:lol:

Dr. Greenthumb
2003-01-30, 11:16:40
Originally posted by mapel110


relativ angefressen ! jedenfalls konnte man das posting komplett in den falschen hals kriegen.

mag ja sein, dass es deppen im chip-forum gibt, aber ich persönlich muss sagen, dass ich das chip-forum mittlerweile als archive für wissen bei kleinen problemchen sehr schätze.

in diesem sinne, happy posting ;)

mfg

@mapel110

Der das gepostet hat wusste hundertprozentig wovon er sprach und worüber sich lustig macht. Aufgrund schwerer Übermüdung meinerseits :D und schlampigen Lesens des Tests hatte ich das Posting selbst in den falschen Hals bekommen. Also Fehler meinerseits *schäm*

Ja die Moderatoren kommen mir hiermanchmal schon ein bisschen überirdisch vor, ein kleines bisschen Off-Topic und schon wird der Thread gesplittet innerhalb kürzester Zeit. Also sehr geplegte Diskussionumgebung hier!! ;D

Dr. Greenthumb
2003-01-30, 11:20:00
Originally posted by Salvee


Wo wir gerade bei Schlampereien bei Chip sind: Was haltet ihr von diesem Zitat ;)

'So beschränken wir uns beim Leistungsvergleich in den Auflösungen 1024x768 und 1600x1200 jeweils auf die Einstellungen ohne Antialiasing und Anisotrope Filterung sowie 4xAntialiasing und Anisotrope Filterung mit 4 Pixeln, die beide Karten auf die gleiche Art ausführen.
Nvidias Intellisample und ATIs Smoothvision bleiben unberücksichtigt.'

:lol:

Wer nicht weiss er schreibt bzw schreiben soll, knallt halt einfach ein paar für Laien nichtsagende Marketing-Namen in den Raum. Das die Chip kein Geld für Hardwaretester hat, die sich das Wissen aneignen oder schon besitzen ist mir ein Rätsel. Sone geringe Auflage hat die Zeitung nun mal auch nicht.

Dr. Greenthumb
2003-01-30, 11:34:29
Hat eigentlich jemand gestern den Live-Bericht über die FX bei Giga gesehen und könnte mal in kurzen Worten posten was da so abgelaufen ist? Wäre doch mal interessant zu wissen. Vor allem wie sich das mit der Lautstärke der Karte beim Test angehört hat. Subjektiv könnte man da doch schon mal ein bisschen auf den "Nervfaktor" der Karte bei geschlossem Gehäuse schliessen!

Unregistered
2003-01-30, 11:35:59
Hallo,

bei GIGA.de gibt's ein Review:

allerdings scheinen die eine andere Karte zum Test gehabt zu haben (oder so), jedenfalls sind die Worte "Lüfter" oder "Kühlsystem" im Text nicht zu finden....
Auch bei der Vergleichstabelle der Daten der Chips weiss GIGA mit neutraler Berichterstattung zu überzeugen (man achte auf die Preisangaben)...

Grüße
Gaestle
---
Rock and Roll aint noise pollution....

Katrin
2003-01-30, 11:41:32
Originally posted by Unregistered
Hallo,

bei GIGA.de gibt's ein Review:

allerdings scheinen die eine andere Karte zum Test gehabt zu haben (oder so), jedenfalls sind die Worte "Lüfter" oder "Kühlsystem" im Text nicht zu finden....
Auch bei der Vergleichstabelle der Daten der Chips weiss GIGA mit neutraler Berichterstattung zu überzeugen (man achte auf die Preisangaben)...

Grüße
Gaestle
---
Rock and Roll aint noise pollution....


die von giga haben ja auch die terratec karte. Also vielleicht ne bessere, als die andern bekommen haben

Dr. Greenthumb
2003-01-30, 11:50:31
Originally posted by Katrin



die von giga haben ja auch die terratec karte. Also vielleicht ne bessere, als die andern bekommen haben

Die haben doch vorgestern voller Stolz von der Karte die sie bekommen haben ein paar Screenshots auf ihre Seite gestellt.
Der einzige Unterschied zu den Referenzkarten was ein Aufkleber von Terratec im Zentrum des Lüfters :(

IMHO haben sie die Lautstärke also nur unter den Tisch fallen lassen. Hat denn keiner Gestern GIGA gesehen??? Dann könnete doch einer mal erzählen wie laut die Karte übers TVs rüberkam.

Unregistered
2003-01-30, 12:00:20
Originally posted by Dr. Greenthumb


Die haben doch vorgestern voller Stolz von der Karte die sie bekommen haben ein paar Screenshots auf ihre Seite gestellt.
Der einzige Unterschied zu den Referenzkarten was ein Aufkleber von Terratec im Zentrum des Lüfters :(

IMHO haben sie die Lautstärke also nur unter den Tisch fallen lassen. Hat denn keiner Gestern GIGA gesehen??? Dann könnete doch einer mal erzählen wie laut die Karte übers TVs rüberkam.

jo habs gesehen. Ich konnte keinen grossen Unterschied zwischen 9700 und FX hören.


Also doch ne leise FX. :-) 9700 bye bye

Dr. Greenthumb
2003-01-30, 12:08:14
Originally posted by Unregistered


jo habs gesehen. Ich konnte keinen grossen Unterschied zwischen 9700 und FX hören.


Also doch ne leise FX. :-) 9700 bye bye

Haben sie die Karte (so wie immer) ganz dezent in die Kamera gehalten? Sah sie so aus wie die anderen Referenzkarten? Dann wär ich aber baff erstaunt. Gute Nachricht für alle nV Freunde, wenns so ist.