PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Sammelthread für GeForce FX Benchmarks


Seiten : 1 2 [3]

Unregistered
2003-01-30, 12:12:18
Originally posted by Dr. Greenthumb


Haben sie die Karte (so wie immer) ganz dezent in die Kamera gehalten? Sah sie so aus wie die anderen Referenzkarten? Dann wär ich aber baff erstaunt. Gute Nachricht für alle nV Freunde, wenns so ist.

sah genauso aus, wie die anderen. Nur die Terratec Aufkleber waren drauf.

Man konnte keinen Unterschied zur 9700Pro hören. Würde eher sagen, dass sie noch leiser war.

Unregistered
2003-01-30, 12:18:01
Ich habe es gesehen. Zu hören war Garnichts. Erstens tragen die Moderatoren dort eine Sprechgarnitur und zweitens ist dort der Hintergrundlärm garantiert lauter als zwei FX.
Von der Karte hat man nur einige Demos gesehen, die aber gut aussahen.
Übrigens gab es diesmal keinen live Absturz, die einzelnen Sequenzen liefen allerdings auch nur einige Sekunden.
Außer Marketing gab es keine Informationen.

alex
2003-01-30, 12:20:52
Originally posted by Unregistered


sah genauso aus, wie die anderen. Nur die Terratec Aufkleber waren drauf.

Man konnte keinen Unterschied zur 9700Pro hören. Würde eher sagen, dass sie noch leiser war.

also doch ne leise FX. Jetzt muss nur noch der Preis fallen und NV ist wieder vorne. Und ich hatte schon Angst, ATI würde es schaffen, nach oben zu kommen.

Danke NV

Unregistered
2003-01-30, 12:21:24
Originally posted by Unregistered


sah genauso aus, wie die anderen. Nur die Terratec Aufkleber waren drauf.

Man konnte keinen Unterschied zur 9700Pro hören. Würde eher sagen, dass sie noch leiser war.
HAHA, kleiner Scherzkeks!
Die Benchmarks wurden nicht live gemacht!
Laß Dich nicht auf den Arm nehmen, Dr..

Dr. Greenthumb
2003-01-30, 12:25:10
Originally posted by Unregistered

HAHA, kleiner Scherzkeks!
Die Benchmarks wurden nicht live gemacht!
Laß Dich nicht auf den Arm nehmen, Dr..

Bisher hat sich jeder Tester über den Lärm aufgeregt, auch John Carmack (siehe anderen Thread). Also hab ichs auch nicht wirklich geglaubt, das die leise ist. Und als gepostet wurde die wäre sogar leiser als die 9700, war das Thema für mich erledigt. :)

Unregistered
2003-01-30, 12:30:26
ok, das sie leiser als ne 9700 ist war vielleicht etwas übertrieben :-)

Aber man konnte wirklich nichts hören. Habe extra drauf geachtet.

Das da Benches liefen, habe ich ja auch net behauptet. Es waren nur kurze Demo-Sequenzen.

Aber die Karte war echt net so hören. War selber baff

Hui!
2003-01-30, 12:37:10
Das sind die ersten guten Nachrichten zu dem Thema seit es die ersten Tests der FX gibt, kann man sich das irgendwo anschauen? Per Stream oder sowas?

Katrin
2003-01-30, 12:39:23
ich kann mir das nicht vorstellen.

Wie doof ist NV denn dann ?

entweder der unreg. labert Müll oder die von Giga haben haben das Mirco enfach weit weggehalten;D

Dr. Greenthumb
2003-01-30, 12:43:24
Originally posted by Unregistered
ok, das sie leiser als ne 9700 ist war vielleicht etwas übertrieben :-)

Aber man konnte wirklich nichts hören. Habe extra drauf geachtet.

Das da Benches liefen, habe ich ja auch net behauptet. Es waren nur kurze Demo-Sequenzen.

Aber die Karte war echt net so hören. War selber baff

Sorry aber nix hören heisst für das garnix zu hören war!! Also irgendwas muss man bei 3D Betreib von der FX hören, zumindest eine Änderung des Lüftertons/Frequenz??

IMHO sehr unwahrscheinlich (wenn nicht unmöglich)

Labberlippe
2003-01-30, 12:45:08
Hi

Die Terratec hatte auch die Chip und die schreiben deutlich das die Karte laut ist.

Ich bezweifele das die Karte leiser wird.
Das einzige was sein kann, das der neue Lüfter nicht mehr schritt.
(Sieht mir nach einen billig teil aus.
Kurz nicht leiser, das pfeifen wird vermutlich geringer.

Gruss Labberlippe

Unregistered
2003-01-30, 13:06:17
Eine "etwas" seriösere Quelle (http://www.shacknews.com/docs/press/012903_carmackplan.x).
John Carmack

The current NV30 cards do have some other disadvantages: They take up two slots, and when the cooling fan fires up they are VERY LOUD. I'm not usually one to care about fan noise, but the NV30 does annoy me.

Hui!

Das sind die ersten guten Nachrichten zu dem Thema seit es die ersten Tests der FX gibt, kann man sich das irgendwo anschauen? Per Stream oder sowas?
Diese Nachricht ist leider nichts wert. Wie schon oben erwähnt, tragen die Moderatoren in dem Studio, man stelle sich einen großen Raum mit ca. 20 Menschen darin vor, die sich unterhalten, tippen usw., Sprechgarnituren (Headsets), die nur Geräusche in unmittelbarer Nähe wiedergeben.
Keine Chance, nichtmal zwei FX unter Vollast könnte man unter diesen Bedingungen hören, sorry.

Unregistered
2003-01-30, 13:11:37
Originally posted by Unregistered
Eine "etwas" seriösere Quelle (http://www.shacknews.com/docs/press/012903_carmackplan.x).


Diese Nachricht ist leider nichts wert. Wie schon oben erwähnt, tragen die Moderatoren in dem Studio, man stelle sich einen großen Raum mit ca. 20 Menschen darin vor, die sich unterhalten, tippen usw., Sprechgarnituren (Headsets), die nur Geräusche in unmittelbarer Nähe wiedergeben.
Keine Chance, nichtmal zwei FX unter Vollast könnte man unter diesen Bedingungen hören, sorry.

Du bist wohl schlecht informiert, das Ding macht 11 Sone. Ich hab einen Brenner von AOPEN, der ist annähernd so laut,und wenn der anläuft, dann drehen sich auf der Lanparty alle um (nebenbei vibriert auch der Tisch:)).

Unregistered
2003-01-30, 13:22:33
Originally posted by Unregistered

Du bist wohl schlecht informiert, das Ding macht 11 Sone. Ich hab einen Brenner von AOPEN, der ist annähernd so laut,und wenn der anläuft, dann drehen sich auf der Lanparty alle um (nebenbei vibriert auch der Tisch:)).
Mag ja sein, aber der Schalldruck ist einfach nicht hoch genug, um das Mikrofon anzusprechen.
Vergleich es mit einem Mikrofon, daß sich ein Sänger bei einem Live Konzert vor den Mund hält.
Über dieses Mikrofon wirst Du auch nicht viel von dem Pupblikum hören, und das ist bestimmt noch etwas lauter als Dein Brenner, oder gar eine FX.

Anonym_001
2003-01-30, 14:28:12
Habt ihr schon das Ergebnis gesehen.
Ist doch sehr interesseant.

http://gamesfiles.giga.de/fotostories/bilderpool/52169_1043854393.jpg

Dr. Greenthumb
2003-01-30, 14:31:19
Hier mal ein Bild von der QuadroFx 2000 von www.Rivastation.com (soll diesselben Taktraten aufweisen wie die FX 5800Ultra).
Wenn das mit den gleichen Taktraten tatsächlich korrekt ist, was ich einfach nicht glauben, wer ist dann auf die schwachsinnige Fönkühlung bei der Gamerkarte gekommen.
Oder nVidia schreibt für die Quadrokarten bessere Gehäusekühlung vor. Mein Gott was ein Wirrwar :kotz:

nggalai
2003-01-30, 14:36:00
Originally posted by Dr. Greenthumb
Hier mal ein Bild von der QuadroFx 2000 von www.Rivastation.com (soll diesselben Taktraten aufweisen wie die FX 5800Ultra).Die Quadro FX 2000 läuft mit 400/400, die 5800 Ultra mit 500/500.

ta,
-Sascha.rb

Quasar
2003-01-30, 14:37:57
Originally posted by Anonym_001
Habt ihr schon das Ergebnis gesehen.
Ist doch sehr interesseant.

http://gamesfiles.giga.de/fotostories/bilderpool/52169_1043854393.jpg

Na, ob die da auch schlau genug waren, für die Radeon den einzigen Treiber zu benutzen, der unter 16Bit AA überhaupt erst ermöglicht oder ob das wieder ein Fall von "Bench_angeschaltet_und_Ergebnis_kritiklos_aufschreib" ist....???

Dr. Greenthumb
2003-01-30, 14:40:25
Originally posted by nggalai
Die Quadro FX 2000 läuft mit 400/400, die 5800 Ultra mit 500/500.

ta,
-Sascha.rb

Borsti: Der Meister der korrekten Informationen scheint er ja nicht zu sein. ;D

Sieh Doom3 Zitat: D3 wird ein Mix aus DX8 u 9 sein (so ähnlich jedenfalls)

Unregistered
2003-01-30, 14:53:57
Originally posted by Quasar


Na, ob die da auch schlau genug waren, für die Radeon den einzigen Treiber zu benutzen, der unter 16Bit AA überhaupt erst ermöglicht oder ob das wieder ein Fall von "Bench_angeschaltet_und_Ergebnis_kritiklos_aufschreib" ist....???

Keine Ahnung ob die das überhaupt wissen.
Aber das Ergebnis der FX bei 32Bit gibt einem doch zu denken.

nggalai
2003-01-30, 14:56:35
Originally posted by Dr. Greenthumb


Borsti: Der Meister der korrekten Informationen scheint er ja nicht zu sein. ;D

Sieh Doom3 Zitat: D3 wird ein Mix aus DX8 u 9 sein (so ähnlich jedenfalls) Hehehe. Jaja, der war gut--hat Quasar ja noch in seiner Sig. ;) Auch toll waren die ganzen AF-Diskussionen nachm Radeon8500-Launch . . . ich hab' glaub irgendwo noch Borstis E-Mail rumliegen . . . *such*

ta,
-Sascha.rb

Unregistered
2003-01-30, 15:36:34
Originally posted by Quasar


Na, ob die da auch schlau genug waren, für die Radeon den einzigen Treiber zu benutzen, der unter 16Bit AA überhaupt erst ermöglicht oder ob das wieder ein Fall von "Bench_angeschaltet_und_Ergebnis_kritiklos_aufschreib" ist....???
Vielleicht hat sich die FX beim benchen wieder in den Idle Modus geschaltet, wegen Überhitzung, wie das schon bei einem Test einer Quadro geschah?

dildo4u
2003-01-30, 15:45:22
http://www.chip.de/produkte_tests/produkte_tests_9594740.html jaja ich weis der chip test aber wen hier schon der giga test besprochen wird geht das ja whol schon lange ;-)

Dr. Greenthumb
2003-01-30, 16:04:38
Originally posted by dildo4u
http://www.chip.de/produkte_tests/produkte_tests_9594740.html jaja ich weis der chip test aber wen hier schon der giga test besprochen wird geht das ja whol schon lange ;-)

Den Giga-Test hatte ich mal in den Thread geschmissen, weils IMHO der einzige "Live"-Test der karte war, wo man halt zugucken konnte. Die Kompetenz der beiden "Redakteure" ;) lass ich mal aussen vor.

Es ging mir nur um die Lautstärke der FX beim deren Test. Aber da is ja auch nix draus geworden. Studios sind wohl zu laut und die Mikroanordnung liess es auch nicht zu.

Lorien
2003-01-30, 16:47:33
Ja das liegt eindeutig an deren Mikros die sind nur für die eigene Stimme gedacht alles was weiter weg ist kommt nicht mehr an.
Man hört da ned mal das klingelnde Telefon das auf dem Tisch steht.

Also nur keine Angst die GeforceFX wird schon mit nem lauten Lüfter rauskommen das kann ich euch zu 100% versprechen.

Grüsse Lorien

Unregistered
2003-01-30, 17:15:08
In meinen Augen ist diese grandiose Fehlgeburt von nVidia gradezu ein Segen für den Grafikkarten Markt. Jetzt haben kommende Chips die Chance in dieses Loch zu stoßen, das nVidia reißen wird. Kleinere und neue Anbieter bekommen wieder eine Möglichkeit ihre Produkte zu plazieren.
Das wird sich positiv auf die Entwicklung, und letzten Endes auf den Markt, also Endkunden, auswirken. Monokultur ist weder in der Natur, noch auf dem freien Markt wünschenswert. Vielfalt fördert Evolution.
Der Markt krankte an Einfalt, jetzt können wieder frische Kräfte frei wirken. Der Markt hat sich seiner Agonie entledigt.

Metzler
2003-01-30, 17:51:02
Bei Chip.de ist jetzt ebenfalls ein Test online.
Interessant finde ich folgenden Absatz :

"Ein Null-Ergebnis lieferte schließlich der SPECviewperf 7.0: Dieser Workstation-orientierte OpenGL-Benchmark lief auf dem GeForce FX nicht durch. Im Verlauf des Benchmarks stieg die Temperatur des massiven Speicherkühlers an der Board-Unterseite bis auf 60 Grad Celsius, dann zeigten sich die ersten Darstellungsfehler, und schließlich stürzte das System ab. Die Fehler traten dabei umso schneller auf, je höher die gewählte Auflösung lag. Ein Null-Ergebnis also ausgerechnet in der Disziplin, in der der GeForce 4 noch recht gut mit dem Radeon 9700 Pro mithalten konnte."

Das ist doch peinlich für die FX...

AlfredENeumann
2003-01-30, 20:20:56
Originally posted by nggalai
Die Quadro FX 2000 läuft mit 400/400, die 5800 Ultra mit 500/500.

ta,
-Sascha.rb


Gaynau. Außerdem ist auch ein Radiallüfter drauf, der trotzdem nicht alzuleise sein dürfte.

mapel110
2003-01-30, 21:05:34
Originally posted by Unregistered
In meinen Augen ist diese grandiose Fehlgeburt von nVidia gradezu ein Segen für den Grafikkarten Markt. Jetzt haben kommende Chips die Chance in dieses Loch zu stoßen, das nVidia reißen wird. Kleinere und neue Anbieter bekommen wieder eine Möglichkeit ihre Produkte zu plazieren.
Das wird sich positiv auf die Entwicklung, und letzten Endes auf den Markt, also Endkunden, auswirken. Monokultur ist weder in der Natur, noch auf dem freien Markt wünschenswert. Vielfalt fördert Evolution.
Der Markt krankte an Einfalt, jetzt können wieder frische Kräfte frei wirken. Der Markt hat sich seiner Agonie entledigt.

tja, wer soll in dieses loch stossen ?
das kann imo nur powervr und ob die als ausrichtung den high end markt bekommen werden, muss sich zeigen. möglich sollte es mit einem tiler sein.

der rest spart leider an transistoren (sis/trident) oder ist viel zu schwer einzuschätzen (via/s3).

achja, matrox :) pitou(parhelia2) soll nur auch schon versagt haben. mal wieder ne bürokarte mehr :D

Salvee
2003-01-30, 21:41:00
Hier die offiziellen nVidia-Benchmarks.
Vielleicht werden sie AA per Treiber auf 2x limitieren ? :stareup:

http://www.iebeta.net/images/fxofficialbench.gif

Metzler
2003-01-30, 21:54:07
Schon komisch, dass sie AA immer auf 2X oder 0X gelassen haben *eg*

TommyBirk
2003-01-30, 22:16:56
zitat:
"Gainward wird seine beiden GeForce FX Platinen (PowerPack! Model Ultra/1000 Plus und PowerPack! Model Ultra/800 Plus) mit einer neuartigen Kühlung aussatten, die sich grundlegend von der des Referenz-Modells von Nvidia unterscheiden wird. Der bekannte FX-Flow von Nvidia bringt es auf satte 70 db Lautstärke, wobei die Gainward Karten nur 7 db verursachen werden. Wie die Kühlung allerdings aussehen wird, bleibt noch fraglich..."


Ultra 649 Euro

Muh-sagt-die-Kuh
2003-01-31, 02:24:05
Originally posted by Salvee
Hier die offiziellen nVidia-Benchmarks.
Vielleicht werden sie AA per Treiber auf 2x limitieren ? :stareup:

http://www.iebeta.net/images/fxofficialbench.gif Kennt jemand hier einen i85E Chipsatz? :D :D :D

Salvee
2003-01-31, 02:38:01
Originally posted by Muh-sagt-die-Kuh
Kennt jemand hier einen i85E Chipsatz? :D :D :D

:| :bonk:
Bin zwar kein Intel Experte, aber scheint wohl ein Fake zu sein.

-error-
2003-01-31, 15:26:39
FX-TEST auf CHIP.de http://www.chip.de/produkte_tests/produkte_tests_9594740.html

http://www.chip.de/artikelbilder/6709726_30106e436f.jpg

http://www.chip.de/artikelbilder/6709780_2f59f6f1aa.jpg

http://www.chip.de/artikelbilder/6709779_2f59f6f1aa.jpg

ZITAT:
Ein Null-Ergebnis lieferte schließlich der SPECviewperf 7.0: Dieser Workstation-orientierte OpenGL-Benchmark lief auf dem GeForce FX nicht durch. Im Verlauf des Benchmarks stieg die Temperatur des massiven Speicherkühlers an der Board-Unterseite bis auf 60 Grad Celsius, dann zeigten sich die ersten Darstellungsfehler, und schließlich stürzte das System ab. Die Fehler traten dabei umso schneller auf, je höher die gewählte Auflösung lag. Ein Null-Ergebnis also ausgerechnet in der Disziplin, in der der GeForce 4 noch recht gut mit dem Radeon 9700 Pro mithalten konnte.

Mystify 5800 Ultra

Fazit: Ernüchterung auf der ganzen Linie

Die Mischung aus Vorschuss-Lorbeeren, imposanten technischen Daten und der martialischen Erscheinung der Test-Karte hatte eine gewisse Erwartungshaltung erzeugt.




Josef Reitberger,
Leiter Testlabor


Wir waren geneigt, den Nvidia-Entwicklern zu glauben, die auf die Frage nach der Speicheranbindung folgende Antwort geben: „Wenn wir einen 256-Bit-Speicherbus brauchen würden, hätten wir ihn eingebaut“. Die Testergebnisse mit hohen Auflösungen und aktivierter Kantenglättung zeigen: Um den Radeon 9700 Pro endgültig zu übertrumpfen, braucht Nvidia 256 Bit – oder noch höhere Speichertaktraten. Letztere werden aber nicht einfach zu realisieren sein, schließlich gibt es kaum Auswahl bei den DDR-II-Chips, und schon die 500-MHz-Ware ist sehr teuer.

In zweierlei Hinsicht ist es interessant, dass unsere Testkarte gerade im OpenGL-Bereich patzt: Einerseits kann die Hardware zur Zeit nur unter OpenGL voll genutzt werden – selbst DirectX-9-Titel würden nicht den ganzen Funktionsumfang der GeForce-FX-Shader nutzen. So stellt sich die Frage, ob Nvidias Chip nur unter halber Last stabil läuft. Andererseits hat Nvidia bereits den Quadro FX angekündigt, und für dieses Produkt zählen gerade die OpenGL-Funktionen. Potenzielle Quadro-Kunden werden sich, im Gegensatz zu Spielern, kaum mit Bildstörungen und Hängern abfinden.

Trotzdem: Was wir hier in Händen halten, ist die erste Variante einer neuen Chip-Generation von Nvidia. Es wird diverse Ableger des Highend-Chips geben, mit denen die Kalifornier auch im unteren Preissegment mit ATI konkurrieren werden. Und obwohl die jetzt gezeigte Karte schon „Ultra“ heißt, wird es mit Sicherheit noch schnellere Versionen geben, sobald die Massenproduktion angelaufen ist und die Ausbeute stimmt.

Byteschlumpf
2003-01-31, 15:34:15
Es ist schon sehr seltsam, dass nur mit 2xAA getestet worden ist, wobei 4xAA bei so einer Karte Pflicht sein sollte!


Byteschlumpf

Dr. Greenthumb
2003-01-31, 15:38:41
Originally posted by Salvee


:| :bonk:
Bin zwar kein Intel Experte, aber scheint wohl ein Fake zu sein.

Das soll wohl ein i850E Chipsatz sein. Logo, das nV den benutzt ist AFAIK immer noch die schnellste Grundlage für den P4.

PS: Auch Leute bei nV können sich verschreiben. Und wie man bei der FX sieht können die auch noch ganz andere Sachen :kotz:

Unregistered
2003-01-31, 18:45:59
Und schon wieder ein Absturz!

Codecreatures: 1024 x 768: Geforce FX: 6875; Radeon 9700 Pro: 6266M; 1600x1200: Geforce FX: Absturz; Radeon 9700 Pro: 4558

Quelle (http://www.pcwelt.de/news/hardware/28721/6.html)

seahawk
2003-01-31, 18:50:30
Das Fazit ist auch bei der PC-Welt wieder sehr schön.

Ich denke NV muss die Preise senken und zwar gewaltig, wenn die die Karten verkaufen wollen.

Raff
2003-01-31, 21:09:47
Ich hätte da mal ne Frage: Wie ich bereits oft gelesen habe ist die Speicherbandbreite bei der FX nicht wirklich das Problem, die Füllrate ja sowieso nicht. Nun, was für ein Problem hat das Teil dann? Kann das alles echt am Treiber liegen?
Und noch etwas wurmt mich: In einem Füllraten-Test fiel der Wert der FX relativ niedrig aus im Vergleich zum theoretischen Limit, ist der Rest durch einen optimierten Treiber herauszuholen? (BTW: Ich glaube das stand bei Anand).

Thx
Raff

StefanV
2003-01-31, 21:28:06
Originally posted by seahawk
Ich denke NV muss die Preise senken und zwar gewaltig, wenn die die Karten verkaufen wollen.

Öhm, wie bitteschön soll NV die Preise senken ?? ;)

das geht bei der Karte nicht wirklich!

DIe Kosten für RAM, Board und Kühler dürften nicht gerade niedrig sein...

Wohingegen ATI 'Standardkomponenten' verwendet...

-X-
2003-01-31, 21:33:00
@byteschlumpf:da steht doch 4xAA

Byteschlumpf
2003-01-31, 22:22:57
Mein Kommentar mit dem 4xAA bezieht sich auf die niVidia Benches und nicht auf die von Giga.
Da gewinnt die 9700Pro ja haushoch.


Gruß,
Byteschlumpf

Kosh
2003-01-31, 22:32:07
Originally posted by Stefan Payne


Öhm, wie bitteschön soll NV die Preise senken ?? ;)

das geht bei der Karte nicht wirklich!

DIe Kosten für RAM, Board und Kühler dürften nicht gerade niedrig sein...

Wohingegen ATI 'Standardkomponenten' verwendet...

Eventuell quersubventonieren durch die anderen Nvidia Produkte. Denke NVIDIA brauch schon alleine fürs Image den Erfolg bei der FX.

Ficus
2003-01-31, 22:42:57
Oha, aber mit solchen "quersubventonieren" muss man glaub ich auch in den Staaten etwas vorsichtig sein.

LovesuckZ
2003-01-31, 23:01:12
Originally posted by Stefan Payne
Öhm, wie bitteschön soll NV die Preise senken ?? ;)
das geht bei der Karte nicht wirklich!
DIe Kosten für RAM, Board und Kühler dürften nicht gerade niedrig sein...
Wohingegen ATI 'Standardkomponenten' verwendet...

ATI's Karten kosten doch fast genauso viel wie eine GF4TI. Nun sag mir bitte nicht, dass ATI im Gegensatz zur 4er Reiher mehr pro karte verdient. So gesehen hat nvidia noch deutlich Luft nach unten.

mapel110
2003-01-31, 23:52:58
Originally posted by LovesuckZ


ATI's Karten kosten doch fast genauso viel wie eine GF4TI. Nun sag mir bitte nicht, dass ATI im Gegensatz zur 4er Reiher mehr pro karte verdient. So gesehen hat nvidia noch deutlich Luft nach unten.

payne bezieht sich auf r300 und nv30 und nicht auf veralteten schrott ;)

LovesuckZ
2003-01-31, 23:59:30
Originally posted by mapel110
payne bezieht sich auf r300 und nv30 und nicht auf veralteten schrott ;)

Hm bis jez is aber die TI4600 noch Nvidia's Flagschiff:D
Doch wenn es nach Payne gehen sollte, dürfte ATI die preise zur TI4 auch nicht senken.

Unregistered
2003-02-01, 01:25:48
Originally posted by Stefan Payne


Öhm, wie bitteschön soll NV die Preise senken ?? ;)

das geht bei der Karte nicht wirklich!

Die Kosten für RAM, Board und Kühler dürften nicht gerade niedrig sein...

Wohingegen ATI 'Standardkomponenten' verwendet...
Die FX wird für Nvidia das, was die X-Box für Microsoft ist, ein riesen Zuschussgeschäft.
Mit dem Unterschied, daß Microsoft das aus der Portokasse zahlt.

-X-
2003-02-01, 02:28:16
@byteschlumpf:bei den chip-benches schlägt sie sich recht gut(4xAA+4xAF)

StefanV
2003-02-01, 11:29:11
Originally posted by LovesuckZ


ATI's Karten kosten doch fast genauso viel wie eine GF4TI. Nun sag mir bitte nicht, dass ATI im Gegensatz zur 4er Reiher mehr pro karte verdient. So gesehen hat nvidia noch deutlich Luft nach unten.

Achja ??

Womit denn ??

NV hat:

- ein sau teures (12 Layer) PCB, das auch riesig ist
- einen sau teuren Kühler mit 3 Heatpipes, der auch noch höllisch laut ist
- teures und (noch) schlecht verfügbares DDR-II RAM


ATI hingegen hat:

- ein reguläres 8 Layer PCB
- ein sehr kleines PCB
- 'Standard' RAM Chips (3,3-2,8ns), die eigentlich recht günstig und verfügbar sein sollten
- eine recht günstige Kühlung


WO hat NV denn noch Luft ??
Allein der FX Flow kostet 'ein Vermögen' wohingegen bei den R300 Karten mehr oder minder 'standardkühler' verwendet werden...

StefanV
2003-02-01, 11:31:41
Originally posted by Kosh


Eventuell quersubventonieren durch die anderen Nvidia Produkte. Denke NVIDIA brauch schon alleine fürs Image den Erfolg bei der FX.

Sorry, aber 'quersubentionieren' ist einfach nur dämlich, außer es sind alte Chips, die man unbedingt loswerden will.

DANN kann es sich lohnen die Chips mit geringem Verlust oder zu Null zu verkaufen.
Und das auch nur um die Lagerkosten zu senken...

Subventionieren kann auch ganz stark nach hinten losgehen, z.B. 'dank' der Kartellbehörden und auch, wenn man sich 'verschätzt'...

Razor
2003-02-01, 11:49:06
Originally posted by Stefan Payne

Sorry, aber 'quersubentionieren' ist einfach nur dämlich, außer es sind alte Chips, die man unbedingt loswerden will.

DANN kann es sich lohnen die Chips mit geringem Verlust oder zu Null zu verkaufen.
Und das auch nur um die Lagerkosten zu senken...

Subventionieren kann auch ganz stark nach hinten losgehen, z.B. 'dank' der Kartellbehörden und auch, wenn man sich 'verschätzt'...
So ein quatsch, Payne...
Die gffx ist nur ein 'Aushängeschild' und soll die technologische Überlegenheit demonstrieren...
Das wird sich nVidia schon ein paar Mark kosten lassen.
(meinetwegen auch Euro ;-)

Den Verlust, der nun mit der gffx eingefahren wird (der aufgrund der hohen Inventitionskosten enorm sein dürfte), holt nVidia mit den 'Kleinen' wohl locker wieder rein. Auch arbeitet die Zeit für nVidia, denn auch ATI wird bald mit komplexen Chips auf die 0.13 Fertigung umsteigen müssen, welches sie ja bisher vortrefflich vermieden haben. Und dann kommen auch für ATI die Kosten und vermutlich die zeitliche Verzögerung.

Insofern dürfen wir heute einen sog. zeitdilatativen Effekt beobachten, der sich irgendwann wieder gerade rücken wird (hoffentlich, denn sonst hat ATI vielleicht bald ein Monopol, obwohl ja heute noch rein gar nichts darauf hin deutet ;-).

Bis denne

Razor

P.S.: Es wird sich zeigen, ob nVidia zu früh oder ATI zu spät sein wird...
:D

Unregistered
2003-02-01, 12:12:51
Originally posted by Razor


Die gffx ist nur ein 'Aushängeschild' und soll die technologische Überlegenheit demonstrieren...


Das war ja gekonnt von nV. Oder in deiner Sprache :D *eg* :D

StefanV
2003-02-01, 12:22:25
Originally posted by Razor

So ein quatsch, Payne...
Die gffx ist nur ein 'Aushängeschild' und soll die technologische Überlegenheit demonstrieren...
Das wird sich nVidia schon ein paar Mark kosten lassen.
(meinetwegen auch Euro ;-)


Sag mal, wen willst du eigentlich verarschen ??

Uns alle oder nur dich selber ??

Bis auf den Shadern ist die GF FX alles andere als 'Technologisch überlegen'.

Weder Gammakorrektes FSAA, noch ein RG Muster kann das Teil...

Dazu noch eine Verlustleistung, die sich mit einem P4 Willamette messen kann, eine Turbine, die alle Lüfter bis dato in den Schatten stellt...

Sorry, aber Technologische Überlegenheit ist was anderes...

Razor
2003-02-01, 16:08:07
Originally posted by Stefan Payne

Sag mal, wen willst du eigentlich verarschen ??

Uns alle oder nur dich selber ??

Bis auf den Shadern ist die GF FX alles andere als 'Technologisch überlegen'.

Weder Gammakorrektes FSAA, noch ein RG Muster kann das Teil...

Dazu noch eine Verlustleistung, die sich mit einem P4 Willamette messen kann, eine Turbine, die alle Lüfter bis dato in den Schatten stellt...

Sorry, aber Technologische Überlegenheit ist was anderes...
Willst Du nicht erst einmal auf das finale Produkt abwarten, wie auch die finalen Treiber ?

Schließlich hast Du noch vergessen, dass mit diesen BETA-Treibern Texturfehler auftraten und auch das Fogging in Verbindung mit AA nicht funktioniert.

Und ob die gffx tatsächlich mit den Shadern 'überlegen' ist, muss sich auch noch heraus stellen, oder habe ich da was verpasst ?

Das was ich dort oben geschrieben habe, war nVidia's Intention und spiegelt sicher nicht meine derzeitige Meinung wieder. Zuviel ist da noch ungeklärt !

Den Launch hat nVidia genauso in den Sand gesetzt, wie ATI damals mit der R8500...
Geschichte wiederholt sich, gell ?
Nur diesmal mit umgekehrten Vorzeichen...

Abwarten und Bier trinken.

Bald wird's ja wohl finale Produkte geben, die Du dann zerreißen darfst...
;D

Razor

seahawk
2003-02-01, 16:26:01
Also Razor,

wenn die Testkarten nicht dem finalen Produkt entsprechen, dann hätte NV spätestens nach den ersten Reviews ganz laut schreien müssen, dass es nur Protoypen sind - das finale Produkt aber anders.

Stattdessen werden die Karten immer mehr zum Review rummgereicht. Und jedes Review endet mit einer mehr oder weniger negativen Beurteilung. Eigentlich ist das Marketingselbstmord.

Ich denke eher die haben sich mit dem Flopp der NV30 abgefunden. Und versuchen jetzt NV35 so schnell wie möglich rauszubringen.

Und natürlich auch die kleinen Ableger der NV30.

Es wäre hochgradig bescheuert den Ruf des Produktes mit diesen Reviews zu zerstören, wenn die finalen Karten erheblich besser wären.

Ich bin ja eigentlich auch ein Freund von NV, aber ich glaube da ist nicht mer viel Potential in dem NV30.

Katrin
2003-02-01, 16:32:20
Originally posted by seahawk
Also Razor,

wenn die Testkarten nicht dem finalen Produkt entsprechen, dann hätte NV spätestens nach den ersten Reviews ganz laut schreien müssen, dass es nur Protoypen sind - das finale Produkt aber anders.

Stattdessen werden die Karten immer mehr zum Review rummgereicht. Und jedes Review endet mit einer mehr oder weniger negativen Beurteilung. Eigentlich ist das Marketingselbstmord.

Ich denke eher die haben sich mit dem Flopp der NV30 abgefunden. Und versuchen jetzt NV35 so schnell wie möglich rauszubringen.

Und natürlich auch die kleinen Ableger der NV30.

Es wäre hochgradig bescheuert den Ruf des Produktes mit diesen Reviews zu zerstören, wenn die finalen Karten erheblich besser wären.

Ich bin ja eigentlich auch ein Freund von NV, aber ich glaube da ist nicht mer viel Potential in dem NV30.

ganz meine Meinung.

Byteschlumpf
2003-02-01, 17:23:24
Der FX ist technologisch gesehen eine Sackgasse, da er keine
Optimierungsmöglickeiten mehr bietet (außer des "Föhns")!


Die Sparversionen des FX werden dem Vergleich mit einer 9500Pro
9700 kaum standhalten können (der MX kommt ja auch nicht gegen eine
Ti4200 64MB an, die von der 9500Pro zerdrückt wird!).



Byteschlumpf

Hui!
2003-02-01, 17:44:31
Originally posted by Byteschlumpf
Der FX ist technologisch gesehen eine Sackgasse, da er keine
Optimierungsmöglickeiten mehr bietet (außer des "Föhns")!


Die Sparversionen des FX werden dem Vergleich mit einer 9500Pro
9700 kaum standhalten können (der MX kommt ja auch nicht gegen eine
Ti4200 64MB an, die von der 9500Pro zerdrückt wird!).



Byteschlumpf
Da bin ich anderer Meinung, technologisch hat nVidia mit dem NV30 viel gewagt, etliche Neuerungen reingebracht die natürlich noch einiges an Optimierungsarbeit erfordern.
Ich vergleiche die FX gerne mit dem P4 Willamette, der wurde von Intel auch zu schnell auf den Markt geworfen, war heiß und bot nur eine eher schwache Performance. Mit dem Northwood hat man dann aber eindeutig gezeigt wo der Hammer(nicht der von AMD ;)) hängt und keiner kann bestreiten das Intel mit ihrer Architektur im Moment eindeutig besser dastehen und noch Luft nach oben haben.
Das heißt natürlich nicht das ich davon ausgehe das die nächsten Chips von nVidia die absoluten Burner werden und ATI sich auf dem Sackgassen Kurs von AMD befindet, ich wollte nur mal darauf hinweisen das der "Krieg" noch nicht geschlagen ist, auch wenn ATI die "Schlacht" gewonnen hat, um jetzt mal peinlich kitschig zu werden :)

nagus
2003-02-01, 17:56:40
Originally posted by Hui!

Da bin ich anderer Meinung, technologisch hat nVidia mit dem NV30 viel gewagt, etliche Neuerungen reingebracht die natürlich noch einiges an Optimierungsarbeit erfordern.
Ich vergleiche die FX gerne mit dem P4 Willamette, der wurde von Intel auch zu schnell auf den Markt geworfen, war heiß und bot nur eine eher schwache Performance. Mit dem Northwood hat man dann aber eindeutig gezeigt wo der Hammer(nicht der von AMD ;)) hängt und keiner kann bestreiten das Intel mit ihrer Architektur im Moment eindeutig besser dastehen und noch Luft nach oben haben.
Das heißt natürlich nicht das ich davon ausgehe das die nächsten Chips von nVidia die absoluten Burner werden und ATI sich auf dem Sackgassen Kurs von AMD befindet, ich wollte nur mal darauf hinweisen das der "Krieg" noch nicht geschlagen ist, auch wenn ATI die "Schlacht" gewonnen hat, um jetzt mal peinlich kitschig zu werden :)

was ist den an der NV30 sooooo neu? ach ja, die "neuen" FSAA modi und AF, gelle?

außer den absolut sinnlosen PS 2.0+ instructions die in ca. 3 monaten sowieso wieder völlig überholt sind (weil es dann bestimmt schon R400 prototyp-karten gibt)

Hui!
2003-02-01, 18:15:32
Originally posted by nagus


was ist den an der NV30 sooooo neu? ach ja, die "neuen" FSAA modi und AF, gelle?

außer den absolut sinnlosen PS 2.0+ instructions die in ca. 3 monaten sowieso wieder völlig überholt sind (weil es dann bestimmt schon R400 prototyp-karten gibt)
Ich hab nicht einmal von neuen Features gesprochen, oder Neuerungen die den Anwender direkt betreffen, sondern ich sprach von Änderungen bzw. kompletten Neuentwicklungen in der Architektur des Chips selber.
Außerdem glaube ich von dir schon mal was gelesen zu haben über den unglaublichen Technologischen Vorsprung einer Radeon8500, der mieses AF und lahmes AA hatte und nur mit höheren Taktfrequenzen die GF3 schlagen konnte.
Denke jetzt müsstest du begreifen was ich mit meinem Text Aussagen wollte ;)

nagus
2003-04-02, 19:49:59
http://www.digit-life.com/articles2/gffx/asus-v9900u.html

FSAA speed und qualität ist zum :bawling:

StefanV
2003-04-02, 20:03:42
Originally posted by nagus
http://www.digit-life.com/articles2/gffx/asus-v9900u.html

FSAA speed und qualität ist zum :bawling:

Da ist man doch (fast) froh, daß man sich 'ne 9700 'geholt' hat...

Razor
2003-04-02, 20:16:13
Viel interessanter fand ich da den Test auf www.guru3d.com zur neuen R9800pro !
http://content.guru3d.com/article.php?cat=review&id=32

Ab Seite 8 (http://content.guru3d.com/article.php?cat=review&id=32&pagenumber=8) wird's richtig interessant...
Da werden gf4ti4800se, R9700pro, R9800pro und GF FX5800 'ultra' gegenüber gestellt.

Und die Ergebnisse sind mehr als nur überraschend !

Hier mal ein kleines 'highlight':
(aber keine Angst, die R9800 verliert nicht immer ;-)

UT 2003 800x600 1024x768 1280x1024 1600x1200
GeForce4 Ti 4800 SE n/a 154 108 72
Radeon 9700 Pro 193 187 150 109
Radeon 9800 Pro 194 190 162 121
GF FX 5800 Ultra 183 181 165 130

Leider gibt's da keine Vergleiche unter Quality-Settings...
(was ja wohl 'eh schwierig zu vergleichen ist)

Bis denne

Razor

P.S.: Und nicht aufregen... *eg*

nagus
2003-04-02, 20:24:55
Originally posted by Razor
Viel interessanter fand ich da den Test auf www.guru3d.com zur neuen R9800pro !
http://content.guru3d.com/article.php?cat=review&id=32

Ab Seite 8 (http://content.guru3d.com/article.php?cat=review&id=32&pagenumber=8) wird's richtig interessant...
Da werden gf4ti4800se, R9700pro, R9800pro und GF FX5800 'ultra' gegenüber gestellt.

Und die Ergebnisse sind mehr als nur überraschend !

Hier mal ein kleines 'highlight':
(aber keine Angst, die R9800 verliert nicht immer ;-)

UT 2003 800x600 1024x768 1280x1024 1600x1200
GeForce4 Ti 4800 SE n/a 154 108 72
Radeon 9700 Pro 193 187 150 109
Radeon 9800 Pro 194 190 162 121
GF FX 5800 Ultra 183 181 165 130

Leider gibt's da keine Vergleiche unter Quality-Settings...
(was ja wohl 'eh schwierig zu vergleichen ist)

Bis denne

Razor

P.S.: Und nicht aufregen... *eg*


wer sich eine grafikkarte für ~ 600 euro (aktueller preis für lieferbare GFFX) kauft und dann ohne FSAA und AF spielt ist :bonk:

eo ipso ist dieses rieview für die tonne. ( bis auf die EXTREM geilen bildis :)

http://www.guru3d.com/miraserver/backend/imageview.php?image=321

StefanV
2003-04-02, 20:35:18
Originally posted by nagus
wer sich eine grafikkarte für ~ 600 euro (aktueller preis für lieferbare GFFX) kauft und dann ohne FSAA und AF spielt ist :bonk:


dem kann ich nur zustimmen...

Wenn man nicht mit FSAA spielen will, der kann sich auch 'ne 100€ Karte kaufen...

BlueRaven
2003-04-02, 20:39:53
Originally posted by Stefan Payne


dem kann ich nur zustimmen...

Wenn man nicht mit FSAA spielen will, der kann sich auch 'ne 100€ Karte kaufen...


So als Nvidia Fan kann ich auch nur zustimmen eine Grafikkarte und das für 600 € und dann erst recht nicht die ganzen schönen Features benutzen können, das macht einen echt fertig. Das wäre dann wie EI nicht gekochtes ein und man volle es trotzdem essen (geht doch garnet) guten appetit sage ich nur.


MFG
BlueRaven

nagus
2003-04-02, 20:40:02
Originally posted by nagus

wer sich eine grafikkarte für ~ 600 euro (aktueller preis für lieferbare GFFX) kauft und dann ohne FSAA und AF spielt ist :bonk:



korrektur: 530 EURO (laut shop lieferbar) http://www.funcomputer.de/default.php?page=shop&artnr=09102&PHPSESSID=74f0de2f6c92a695776c6b9df8ef3df6


... 9700PRO karten gibts schon für 200 EURO weniger (lieferbar!)

StefanV
2003-04-02, 20:41:57
Originally posted by BlueRaven
Das wäre dann wie ein nicht gekochtes ein und man volle es trotzdem essen (geht doch garnet) guten appetit sage ich nur.


Tjo, da sag ich nur eins:

ZUGGEREI

Naja, ist schon beschissen, wie scheiße die GF FX geworden ist...

nagus
2003-04-02, 20:48:19
Originally posted by Stefan Payne


Tjo, da sag ich nur eins:

ZUGGEREI

Naja, ist schon beschissen, wie scheiße die GF FX geworden ist...

:naughty:

Bis denne ;)

Nagus

Razor
2003-04-02, 20:50:24
Originally posted by nagus

korrektur: 530 EURO (laut shop lieferbar) http://www.funcomputer.de/default.php?page=shop&artnr=09102&PHPSESSID=74f0de2f6c92a695776c6b9df8ef3df6

... 9700PRO karten gibts schon für 200 EURO weniger (lieferbar!)
Korrektur: 499€ und das beim MediaMarkt um die Ecke (verfügbar !)...
Oder eben 360€ für 'ne ASUS non-ultra (bald verfügbar).

Und ich möchte Euch an eines erinnern, liebe Leutz, schaut Euch doch mal den Thread-Titel an...
Naaaaa ? Fällt Euch was auf ?

Somit wäre ich Euch sehr dankbar, wen Ihr aufhören würdet, hier runzutrollen.

Thx

Razor

Tarkin
2003-04-05, 16:27:33
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/

IMO eines der schlechtesten FX Reviews überhaupt!

Nicht nur, dass die fürs 3DMark optimierten 43.45 Treiber verwendet wurden... die behaupten doch glatt, dass das 16xAA der FX mit dem 6xAA der Radeon vergleichbar wäre (Screenshots) ... :LOL:

aber schaut es auch selber an!

PS: sogar Doom III Benchies sind dabei ?-)

Exxtreme
2003-04-05, 16:33:35
Naja, 16x GFFX-AA könnte tatsächlich eine vergleichbare BQ bringen wie ATis 6x AA.

Dafür dürfte es in der Praxis völlig unbrauchbar sein.

Razor
2003-04-05, 16:43:19
Warum soll das ein schlechtes Review sein, Tarkin ?
Nur weil die R9700pro gegen eine 5800 'ultra' mit offiziellen Treibern keinen Blumentopf gewinnen kann ?
Hmmm...

Und ja 16xAA-Performance...
Die Quali wird schon besser sein bei der gffx (wär auch schlimm, wenn nicht ;-).
Aber 67% Performanceverlust ist schon krass... oder eben 74%, wen man noch 8xAF dazu schaltet.

Wie dem auch sei, ich schließe mich da Exxtreme an und bin der Meinung, dass diese Settings bar jeder Praxistauglichkeit sind. Nun ja... obwohl... meine gf3 bekommt auch ohne AA/AF nur 1270 'Punkte', während die gffx mit 16xAA und 8xAF immerhin 1450 'Schnullerchen' erreicht...

Und ja, Exxtreme, ich weiß... ist nur die hlabe Wahrheit !
:D

Bis denne

Razor

nagus
2003-04-05, 16:51:38
NV30 16xFSAA + 8xAF
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/16xAA-8xAF.gif

R300 6xFSAA + 16xAF
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/9700-6xAA16xAF.gif



ATIs 6xFSAA ist trotzdem noch schöner als Nvdias 16xFSAA. wer den unterschied nicht sieht (oder sehen will) ....

a) hat tomaten auf den augen
b) ist ein nvidiot

*nachtrag*

was sich nvidia mit diesem sog. 16xFSAA leistet ist unerhört. da könnte ati seine 6xfsaa modus als 24x deklarieren. vergleichen mit der BQ von nvidias 16xfssa käme das ungefähr hin. qualitätsmäßig kommt dieser modus vielleicht an atis 4xFSAA herann. leistungsmäßig könnte ati 64xfsaa realisieren und wäre immer noch schneller ;)

Mrs. Lolman
2003-04-05, 16:57:06
Mr. Lolman with female cookies:


LOL, die DOOMIII Scores sind ja besser als die von NVs PR-Abteilung.
VR-Zone sollte einmal bei denen anklopfen. Das gibt sicher eine Prämie.

*auchGFFXReviewschreibenwill* ;)

nagus
2003-04-05, 16:58:10
noch ein wort zu den overclocking werten...

meine 400/760 Mhz Radeon erreicht beim 3dmark2003 ~ die gleichen werte wie diese, auf 570/1140Mhz übertaktete Geforcr FX ULTRA mit 3dmark-optimierten treibern!!

Mrs. Lolman
2003-04-05, 17:02:09
die 0 fps die eine GF4 da erreicht sind auch nicht viel.

...ok ich hör schon auf. Tschuldingung. Ich bin mir sicher das die FX viel Potenzial hat, und eine gute Karte ist, an der sich so mancher Entwickler richtig austoben kann.

*keintrollseinwill*

Razor
2003-04-05, 17:12:56
Originally posted by nagus
NV30 16xFSAA + 8xAF
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/9700-6xAA16xAF.gif

R300 6xFSAA + 16xAF
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/16xAA-8xAF.gif

ATIs 6xFSAA ist trotzdem noch schöner als Nvdias 16xFSAA. wer den unterschied nicht sieht (oder sehen will) ....

a) hat tomaten auf den augen
b) ist ein nvidiot

*nachtrag*

was sich nvidia mit diesem sog. 16xFSAA leistet ist unerhört. da könnte ati seine 6xfsaa modus als 24x deklarieren. vergleichen mit der BQ von nvidias 16xfssa käme das ungefähr hin. qualitätsmäßig kommt dieser modus vielleicht an atis 4xFSAA herann. leistungsmäßig könnte ati 64xfsaa realisieren und wäre immer noch schneller ;)
Sag mal nagus...
DAS erkennst Du an den verkleinerten Bildern ?
Ich vermute eher, dass Du hier wieder nur rumtrollst, oder ?

Halt Dich doch einfach raus, wenn Du nichts zum Thema beizutragen hast, OK ?

Razor

Razor
2003-04-05, 17:14:09
Originally posted by nagus
noch ein wort zu den overclocking werten...

meine 40/760 Mhz Radeon erreicht beim 3dmark2003 ~ die gleichen werte wie diese, auf 570/1140Mhz übertaktete Geforcr FX ULTRA mit 3dmark-optimierten treibern!!
Na dann rück mal den Link zu dazu heraus !
*nagusbeimrumtrollenbeobachtentut*
;-)

Razor

nagus
2003-04-05, 17:15:05
Originally posted by Razor
Warum soll das ein schlechtes Review sein, Tarkin ?
Nur weil die R9700pro gegen eine 5800 'ultra' mit offiziellen Treibern keinen Blumentopf gewinnen kann ?
Hmmm...


es ist ein schleschtes reiview, weil

a) die verwendeten settings für eine grafikkarten in dieser preisklasse (400 - 600 euro) absolut lächerlich sind
b) auf fsaa und af vergleiche nur verzichtet wurde, weil die radeon 9700PRO die FX in den boden gestampft hätte
c) die verwendeten treiber beim 3dmark2003 massiv cheaten
d) nvidias 16xfsaa als "besser" als atis 6xfsaa bezeichnet wird, obwohl jeder aus dem screenshots erkennen kann, das dem nicht so ist
e) usw....

reicht dir das , razor? oder soll ich mehr auflisten?

Originally posted by Razor
Und ja 16xAA-Performance...
Die Quali wird schon besser sein bei der gffx (wär auch schlimm, wenn nicht ;-).
Aber 67% Performanceverlust ist schon krass... oder eben 74%, wen man noch 8xAF dazu schaltet.


ES IST SCHLIMM. siehe screehsots

nagus
2003-04-05, 17:16:52
Originally posted by Razor

Sag mal nagus...
DAS erkennst Du an den verkleinerten Bildern ?
Ich vermute eher, dass Du hier wieder nur rumtrollst, oder ?

Halt Dich doch einfach raus, wenn Du nichts zum Thema beizutragen hast, OK ?

Razor

ich wäre dir sehr dankbar, wenn du endlich deine nvidia-brille abnehmen würdest und den tatsachen ins auge siehst.

ich glaube JEDER kann den unterschied sehen, nur du nicht... komisch, oder?

-X-
2003-04-05, 17:16:56
ich erkenn nen unterschied auf den screenshots,bei ati sind die kanten glatter.

Anonym_001
2003-04-05, 17:17:24
Originally posted by nagus
noch ein wort zu den overclocking werten...

meine 40/760 Mhz Radeon erreicht beim 3dmark2003 ~ die gleichen werte wie diese, auf 570/1140Mhz übertaktete Geforcr FX ULTRA mit 3dmark-optimierten treibern!!

Wie schnell wird sie erst sein wenn der Chip nicht so runtergetaktet ist. ;)

Mrs. Lolman
2003-04-05, 17:20:20
Denksnatossgeb:

Irgendwie seltsam, dass alle Reviews bei denen die Karte gut abschneidet, sie sich auch relativ gut übertakten lässt. In den Reviews wo sie schlecht abschneidet ists auch mit der Übertaktung nicht weit her.

Mr. Lolman

Razor
2003-04-05, 17:23:15
Tja nagus, leider sind die 23.45 die letzten offiziellen und nicht mal die Zwiebeljungs haben was dagegen...
Aber das Du Dich hier so dazu äusserst, war auch nicht anders zu erwarten.

Wie wär's mal, wenn Du Deine ATI-Brille absetzt, Deine 'alte' 9700 verscheuerst und Dir die 'neue' 9800 holst ?
Dann kannst Du Dich wieder beruhigt zurück lehnen, und fest daran glauben, dass Du den längesten... ähm... die schnellste hast.

In diesem Sinne

Razor

P.S.: Dein "Mein ist <zensiert> als Deins !" gesabber geht mir tierisch auf den Geist !
(ohne Smilies und ernst gemeint !)

Demirug
2003-04-05, 17:30:28
Also was mir an den Shoot sofort ins Auge fällt ist das entweder bei ATI die Partikel zu gross oder bei NVIDIA zu klein sind.

@nagus&razor: Warum sind die Bilder in dem orginal und dem Quote vertauscht?

Das der NV30 so massiv einbricht ist ja auch nicht verwunderlich.

Bei 16xAA müsste mindestens ein SS Anteil von 4 Sampels pro Pixel enthalten sein. Damit erhöht sich das AF von 8xAF auf 32xAF.

nagus
2003-04-05, 17:33:42
Originally posted by Demirug
Also was mir an den Shoot sofort ins Auge fällt ist das entweder bei ATI die Partikel zu gross oder bei NVIDIA zu klein sind.

@nagus&razor: Warum sind die Bilder in dem orginal und dem Quote vertauscht?

Das der NV30 so massiv einbricht ist ja auch nicht verwunderlich.

Bei 16xAA müsste mindestens ein SS Anteil von 4 Sampels pro Pixel enthalten sein. Damit erhöht sich das AF von 8xAF auf 32xAF.


weil razor dieses A****loch die bilder absichtlich vertauscht hat!!!

nagus
2003-04-05, 17:34:23
Originally posted by Razor

Na dann rück mal den Link zu dazu heraus !
*nagusbeimrumtrollenbeobachtentut*
;-)

Razor


nicht weinen, razor

-X-
2003-04-05, 17:36:05
@nagus:wie laufen die cat 3.3?

nagus
2003-04-05, 17:38:01
Originally posted by Razor
Tja nagus, leider sind die 23.45 die letzten offiziellen und nicht mal die Zwiebeljungs haben was dagegen...
Aber das Du Dich hier so dazu äusserst, war auch nicht anders zu erwarten.

Wie wär's mal, wenn Du Deine ATI-Brille absetzt, Deine 'alte' 9700 verscheuerst und Dir die 'neue' 9800 holst ?
Dann kannst Du Dich wieder beruhigt zurück lehnen, und fest daran glauben, dass Du den längesten... ähm... die schnellste hast.

In diesem Sinne

Razor

P.S.: Dein "Mein ist <zensiert> als Deins !" gesabber geht mir tierisch auf den Geist !
(ohne Smilies und ernst gemeint !)

aber leider, leider cheaten die treiber genauso wie die anderen 3dmark-optimierten geforcr fx treiber.

soll ich den beweis-screenshot extra für die suchen?

StefanV
2003-04-05, 17:38:10
Originally posted by Razor

Sag mal nagus...
DAS erkennst Du an den verkleinerten Bildern ?
Ich vermute eher, dass Du hier wieder nur rumtrollst, oder ?

Halt Dich doch einfach raus, wenn Du nichts zum Thema beizutragen hast, OK ?

Razor

Razor, an den beiden Bildern kann ich auch die Unterschiede zwischen beiden FSAA Stufen sehen !!

Ist eigentlich recht gut sichtbar...

nagus
2003-04-05, 17:38:26
Originally posted by -X-
@nagus:wie laufen die cat 3.3?


bestens, danke der nachfrage

nagus
2003-04-05, 17:41:22
Originally posted by Razor

Sag mal nagus...
DAS erkennst Du an den verkleinerten Bildern ?
Ich vermute eher, dass Du hier wieder nur rumtrollst, oder ?

Halt Dich doch einfach raus, wenn Du nichts zum Thema beizutragen hast, OK ?

Razor


machts dir eigentlich spaß zu betrügen? oder willst du uns jetzt sagen, du hast die bilder "unabsichtlich" vertauscht?

das ist wirklich das aller letzte.

bravo razor, hast dich wieder super ausgezeichnet mit dieser aktion. :grenade:

nagus
2003-04-05, 17:43:43
Originally posted by Razor
Tja nagus, leider sind die 23.45 die letzten offiziellen und nicht mal die Zwiebeljungs haben was dagegen...
Aber das Du Dich hier so dazu äusserst, war auch nicht anders zu erwarten.

Wie wär's mal, wenn Du Deine ATI-Brille absetzt, Deine 'alte' 9700 verscheuerst und Dir die 'neue' 9800 holst ?
Dann kannst Du Dich wieder beruhigt zurück lehnen, und fest daran glauben, dass Du den längesten... ähm... die schnellste hast.

In diesem Sinne

Razor

P.S.: Dein "Mein ist <zensiert> als Deins !" gesabber geht mir tierisch auf den Geist !
(ohne Smilies und ernst gemeint !)

nur für dich, razor. aber vielleicht is es ja unabsichtlich passiert. war sicher keine absicht von nvidia, gelle?

http://www.darkcrow.co.kr/image/tip&tech/4345tech/iq/game4.jpg

http://www.beyond3d.com/forum/viewtopic.php?t=5127

bis denne

nagus

BadFred
2003-04-05, 17:45:34
Gott... das ist ja wie im Kondergarten!

Meine Graphikkarte ist viel besser und wird sie immer sein, weil *ICH* sie ja gekauft habe! Alle Anderen sind doof! Ich hab' sowieso immer das Beste!


Gott - Kinners!! :O

Demirug
2003-04-05, 17:51:18
Originally posted by nagus


nur für dich, razor. aber vielleicht is es ja unabsichtlich passiert. war sicher keine absicht von nvidia, gelle?

http://www.darkcrow.co.kr/image/tip&tech/4345tech/iq/game4.jpg

http://www.beyond3d.com/forum/viewtopic.php?t=5127

bis denne

nagus

Also wenn der 43.03 keine anderen Caps als die mir für NV3X Chips bekannten liefert dann hat der Eindeutig einen Fehler. Der Himmel ist zu hell.

Mrs. Lolman
2003-04-05, 18:04:12
Geh versetzt euch doch mal in nagus Lage. Da hat man eine R300 gekauft. Die will am Anfang nicht vielmehr als 340 MHz mitmachen. Erst durch erfolgreichen Modden kam er auf, die in einigen Tests propagierte Oc-Möglichkeit auf 400MHz. (ja 420 gehen auch)


Dann kommt die FX. Hat genug Eigenschaften die man sich als ATi Fanboy wünscht: laut, teuer, schlechtes und tw. langsames AA kein wirkliches Erringen der Perfomance Krone.

Plötzlich ist er da. Der NV Treiber der im 3dmark 2003 (auf kosten der BQ) 100% Leistungsschub bringt, und die Karte auf den Performance Thron hieft. Wird aber von futuremark gottseidank nicht akzepiert. Bis auf den letzten offiziellen, welcher auch noch offensichtlich und verständlicherweise die optimierung mitsich trägt.

Dann ein nicht besonders objektiver Test auf vr-zone welcher die FX in ein besseres Licht stellt und welcher natürlich bei den NV Fanboys gefallen findet und neue Möglichkeiten bietet den Forenkampf gegen die ATianer doch noch zu gewinnen. Nagus ist natürlich der erste der Paroli bieten muss. (Mit tw. durchausnochvollziehbaren Argumenten).
Schon wird im wieder Fanboygehabe vorgeworfen (was ja auch stimmt) ohne dabei wirklich auf seine Argumente einzugehen. Naja nagus Ton liess die Musik auch oft genug dissonant klingen. Trotzdem, sollte man persönliche Angriffe vermeiden. Fanboy hin Fanboy her.

Auch ich war zeitweise etwas 'stinkig' deswegen entschuldige ich mich jetzt in aller Öffentlichkeit bei ow: Tut mir leid, ow.

Mrs. Lolman
2003-04-05, 18:05:32
Originally posted by Demirug


Also wenn der 43.03 keine anderen Caps als die mir für NV3X Chips bekannten liefert dann hat der Eindeutig einen Fehler. Der Himmel ist zu hell.

Nein, der ist genauso hell wie auf einer ATi. Oder ist er etwa da auch zuhell, und NV machts richtig?

Mr. Lolman

LovesuckZ
2003-04-05, 18:09:58
Koennten wir das Bashen auf beiden Seiten unterlassen? Das ist ja bald nicht mehr zum aushalten...

nagus
2003-04-05, 18:12:15
Originally posted by LovesuckZ
Koennten wir das Bashen auf beiden Seiten unterlassen? Das ist ja bald nicht mehr zum aushalten...

hab kein problem damit. ich habe keine screenshots vertauscht und bewußt die unwahrheit gesagt.

LovesuckZ
2003-04-05, 18:15:50
Originally posted by nagus
aber leider, leider cheaten die treiber genauso wie die anderen 3dmark-optimierten geforcr fx treiber.
soll ich den beweis-screenshot extra für die suchen?

Warte noch nen bissl mit den Vorwuerfen. Denn zur Zeit ist der D3D teil der FX Treiber noch unter aller Sau.
Unter OpenGL zeigt die Karte mit diesen fruehen Treibern, dass sie nicht so langsam ist!

Xmas
2003-04-05, 18:35:00
Originally posted by Demirug
Also was mir an den Shoot sofort ins Auge fällt ist das entweder bei ATI die Partikel zu gross oder bei NVIDIA zu klein sind.

Ja, das sieht mir nach einem Bug im Detonator aus, der die Point Sprite größe nicht mit dem Supersampling-Anteil mitskaliert.


Das der NV30 so massiv einbricht ist ja auch nicht verwunderlich.

Bei 16xAA müsste mindestens ein SS Anteil von 4 Sampels pro Pixel enthalten sein. Damit erhöht sich das AF von 8xAF auf 32xAF.
Genau genommen ist es immer noch nur 8xAF, denn der maximale Grad der Anisotropie bleibt 8. Dennoch ist es qualitätsmäßig >= 16xAF, aber nicht ganz 32xAF.

Xmas
2003-04-05, 18:44:03
Originally posted by nagus
d) nvidias 16xfsaa als "besser" als atis 6xfsaa bezeichnet wird, obwohl jeder aus dem screenshots erkennen kann, das dem nicht so ist
1. Ich weigere mich, anhand von 8-Bit GIFs einen AA Qualitätsvergleich zu machen.

2. Ich denke, dass 4xOGMS kombiniert mit 4xOGSS besser aussieht als das 6xAA des R300.

3. Ich bezweifle, dass diese "16x" Screenshots wirklich 16 Sample AA zeigen.

Mrs. Lolman
2003-04-05, 19:00:09
könnte hinkommen xmas, halt bei der Verwendung von masked Textures (wie lautet der Fachbegriff? ich meine Texturen mit einem 1 bittigem alphawert)


Wann kommt Supersampling endlich für ATi Karten? (2048x1536 -> 1024x768 ist doch 4xSS, stimmts? Und was für einen Unterschied macht RG oder OG beim SuperSamping? Ich dachte dass das doch nur bei MS relevant ist... :|)

Demirug
2003-04-05, 19:05:32
Originally posted by Mrs Lolman


Nein, der ist genauso hell wie auf einer ATi. Oder ist er etwa da auch zuhell, und NV machts richtig?

Mr. Lolman

Sowohl ATi wie auch NVIDIA machen es richtig. Das hängt damit zusammen das der für den Himmel benutzte PS 1.4 den Wertbereich nicht vorschreibt (wie bei allen 1.x PS) sondern es dem Treiber überläst den Bereich zu melden.

Da ATI hier einen grösseren Bereich meldet als NVIDIA muss es auf einer R300 Karte heller sein als auf einem NV30.

Demirug
2003-04-05, 19:06:57
Originally posted by Xmas
Genau genommen ist es immer noch nur 8xAF, denn der maximale Grad der Anisotropie bleibt 8. Dennoch ist es qualitätsmäßig >= 16xAF, aber nicht ganz 32xAF.

Bei Gelegenheit muss ich mal nachmessen.

Demirug
2003-04-05, 19:11:42
Originally posted by Mrs Lolman
Wann kommt Supersampling endlich für ATi Karten? (2048x1536 -> 1024x768 ist doch 4xSS, stimmts? Und was für einen Unterschied macht RG oder OG beim SuperSamping? Ich dachte dass das doch nur bei MS relevant ist... :|)

Wann und ob es kommt kann ich dir auch nicht sagen.

Aber ja Supersampling baut darauf auf das man alles in einer grösseren Auflösung rendert und dann runterskaliert.

Die Auswirkung des Grids auf die Qualität ist unabhängig ob man nun SS oder MS benutzt. Also RGSS ist besser als ein OGSS. OGSS ist aber einfacher zu machen.

AlfredENeumann
2003-04-05, 19:46:24
Originally posted by Razor

Sag mal nagus...
DAS erkennst Du an den verkleinerten Bildern ?
Ich vermute eher, dass Du hier wieder nur rumtrollst, oder ?

Halt Dich doch einfach raus, wenn Du nichts zum Thema beizutragen hast, OK ?

Razor

Sorry Razor. Wenn du das nicht siehst bist du echt blind. Das sticht schon richtig ins Auge.
Auch wenn die AA Qualität gut ist, kann es nicht sein das da was fehlt. Vorrausgestzt die shot sind genau an der gleichen Stelle gemacht.

zeckensack
2003-04-05, 20:16:59
Originally posted by Xmas
2. Ich denke, dass 4xOGMS kombiniert mit 4xOGSS besser aussieht als das 6xAA des R300.

3. Ich bezweifle, dass diese "16x" Screenshots wirklich 16 Sample AA zeigen. Ad 2: Warum das denn?
Von der Kantenauflösung her ist 6x Sparse Grid in jedem Fall überlegen.
4x4OG bringt nur in sehr konstruierten Fällen Vorteile, etwa wenn ein Großteil der Dreiecke wesentlich kleiner als ein sichtbares Pixel ist.

Ad 3: Vom Qualitätsunterschied kommt's IMO hin, trotz schlechtem Material (GIF? :kotz: )

aths
2003-04-05, 20:57:54
Originally posted by zeckensack
Ad 2: Warum das denn?
Von der Kantenauflösung her ist 6x Sparse Grid in jedem Fall überlegen.Auch ich würde 6x sparsed gamma-korrekt lieber haben als 16x OG.

aths
2003-04-05, 21:02:01
Ich möchte noch anmerken, dass die FX in D3D momentan kein 16x AA beherrscht. Es handelt sich bestensfalls um 12x OG.

Xmas
2003-04-05, 21:02:59
Originally posted by zeckensack
Ad 2: Warum das denn?
Von der Kantenauflösung her ist 6x Sparse Grid in jedem Fall überlegen.
4x4OG bringt nur in sehr konstruierten Fällen Vorteile, etwa wenn ein Großteil der Dreiecke wesentlich kleiner als ein sichtbares Pixel ist.

Ad 3: Vom Qualitätsunterschied kommt's IMO hin, trotz schlechtem Material (GIF? :kotz: )
Ja, von der Kantenauflösung ist 6x Sparse Grid überlegen. Allerdings spricht der Supersampling-Anteil für 16x, und auch das Verhalten bei langsamer Bewegung von Kanten ist in den meisten Fällen besser, was von der schieren Anzahl der Samples herrührt.

Von der Qualität kommt es IMO nicht hin, zumal der Screenshot ein eigenartiges Dithering an den Kanten zeigt, das eher an 6xS erinnert.

Demirug
2003-04-05, 21:47:59
So ich habe jetzt mal ein bischen mit meinem NV20 gemessen.

Gemessen wurde die maximale Anzahl Texel die für einen Pixel benutzt werden.


ohne AA:
1x = 8
\
* 1,88
/
2x = 15
\
* 1,80
/
4x = 27
\
* 1,70
/
8x = 46

mit 4xSS:

1x = 23
\
* 1,78
/
2x = 41
\
* 1,78
/
4x = 73
\
* 1,82
/
8x = 133



Wenn man jetzt die Rheie ohne AA fortführt kommt man abhängig vom benutzten multiplikator zu diesen Ergebnissen:



1,80:

8x = 46
\
* 1,80
/
16x = 83
\
* 1,80
/
32x = 149

1,75:

8x = 46
\
* 1,75
/
16x = 81
\
* 1,75
/
32x = 142

1,70:

8x = 46
\
* 1,70
/
16x = 78
\
* 1,70
/
32x = 133

1,65:

8x = 46
\
* 1,65
/
16x = 76
\
* 1,65
/
32x = 125



Denn Schluss daraus kann sich jeder selber ziehen.

aths
2003-04-06, 00:16:39
Originally posted by Xmas
Von der Qualität kommt es IMO nicht hin, zumal der Screenshot ein eigenartiges Dithering an den Kanten zeigt, das eher an 6xS erinnert. Weil es entweder 6xS oder "12xS OG" ist.

Imo ist EER das Hauptkriterium beim AA. Es gibt Dinge die 16x OG besser glättet als 6x Sparsed. Aber die "schwierigen" Stellen glättet 6x Sparsed besser, erst recht dank Gamma-Korrektur bei ATI.

Der Supersampling-Anteil ist bei 16x auf GF FX denkbar ungünstig: 2x2.

Xmas
2003-04-06, 00:36:45
Originally posted by Demirug
Denn Schluss daraus kann sich jeder selber ziehen.
Ja, die Zahl der Textursamples die genommen werden steigt natürlich entsprechend bei Supersampling. Aber der Grad der Anisotropie ist immer noch 8, oder besser gesagt 8:1. Denn das ist nur das maximale Verhältnis von langer Seite zu kurzer Seite des "Texel-Sampling-Fensters"

Razor
2003-04-06, 08:40:04
Originally posted by nagus

hab kein problem damit. ich habe keine screenshots vertauscht und bewußt die unwahrheit gesagt.
Du Kotzbrocken gehst mir langsam wirklich auf die Nerven !
Klar hab' ich die Screenies vertauscht, aber Dir ist ja nicht mal aufgefallen... erst als man Dich mit der Nase drauf gestossen hat.

Und Dein Rumgeschreie hier ist nun wirklich das Letzte.
Kommst Du Dir eigentlich gar nicht lächerlich vor ?

Zu guter Letzt zauberst Du auch noch einen hoch inoffiziellen Treiber aus dem Hut, mit dem Du was 'belegen' willst und niemand ist in der Lage, dieses Ergebnis zu überprüfen. Was, wenn jemand jetzt mit 'nem 50'er nVidia-Treiber kommt, wo die FX dann 7000 Punkte schafft. Fängst Du dann an, an einen Suizid zu denken ?

Und wo wir schon dabei sind... wo habe ich 'absichtlich' die Unwahrheit gesagt ?
???

Sorry@mods, aber langsam reichts wirklich...
Ich halte mich mit solchen Posts, wie diesem hier nun wirklich zurück, aber irgendwann läuft's Faß einfach über.

Razor

Razor
2003-04-06, 08:45:00
Originally posted by AlfredENeumann

Sorry Razor. Wenn du das nicht siehst bist du echt blind. Das sticht schon richtig ins Auge.
Auch wenn die AA Qualität gut ist, kann es nicht sein das da was fehlt. Vorrausgestzt die shot sind genau an der gleichen Stelle gemacht.
Nochmal, diese Screenshot's sind für'n Ar... !
Hoffe, dass auch Du das nun begriffen hast.

Razor

P.S.: Sorry, bin 'etwas' out-of-order...

Razor
2003-04-06, 09:00:16
Ohne Kommentar...

Demirug
2003-04-06, 09:22:18
Originally posted by Xmas

Ja, die Zahl der Textursamples die genommen werden steigt natürlich entsprechend bei Supersampling. Aber der Grad der Anisotropie ist immer noch 8, oder besser gesagt 8:1. Denn das ist nur das maximale Verhältnis von langer Seite zu kurzer Seite des "Texel-Sampling-Fensters"

Ich habe mal einen eigenen Thread zu dem Thema aufgemacht: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=64035

nagus
2003-04-06, 12:38:52
Originally posted by Razor
Ohne Kommentar...

schlechter fake.

... und was btw, ist an meinem screenshot unglaubwürdig? naja, wirst schon sehen. in wenigen wochen sind die 3.3 cat. offiziell (natürlich whql zertifiziert ;)


ADIEU

zeckensack
2003-04-06, 15:33:40
Originally posted by Razor

Du Kotzbrocken gehst mir langsam wirklich auf die Nerven !Ruhig Blut, Razor :)
Klar hab' ich die Screenies vertauscht, aber Dir ist ja nicht mal aufgefallen... erst als man Dich mit der Nase drauf gestossen hat.Aber warum hast du das gemacht? Irgendwie mußt du auch gestehen, daß das 'verdächtig' war. Und nagus' letzter Ausbruch ist dadurch IMO ausreichend begründet :|
Und Dein Rumgeschreie hier ist nun wirklich das Letzte.
Kommst Du Dir eigentlich gar nicht lächerlich vor ?

Zu guter Letzt zauberst Du auch noch einen hoch inoffiziellen Treiber aus dem Hut, mit dem Du was 'belegen' willst und niemand ist in der Lage, dieses Ergebnis zu überprüfen. Was, wenn jemand jetzt mit 'nem 50'er nVidia-Treiber kommt, wo die FX dann 7000 Punkte schafft. Fängst Du dann an, an einen Suizid zu denken ?Wenn dir die Treiberversionen nicht passen, gibt's denke ich genug 'unabhängige' Zahlen abrufbar in diversen Reviews und der FM-Datenbank.
nagus 'prollt' halt ab und an sehr gern, das solltest du mittlerweile wissen. Ernsthaft falsche Zahlen hat er aber AFAIR nie angegeben.

Razor
2003-04-06, 16:22:09
Originally posted by zeckensack
Ruhig Blut, Razor :)
Wir hätten es einfach dabei belassen sollen...
Originally posted by zeckensack
Aber warum hast du das gemacht? Irgendwie mußt du auch gestehen, daß das 'verdächtig' war. Und nagus' letzter Ausbruch ist dadurch IMO ausreichend begründet :|
Ist es nicht.
nagus bricht hier öfters aus und jedes mal kommt er mit seinem Schw... !
Ich kann solche Leute einfach nicht ab.

Und was soll daran verdächtig gewesen sein einfach die Bildchen (unverändert !) zu tauschen ?
Jeder Blinde hätte das merken müssen, aber nagus hat es natürlich nicht.

War halt ein kleiner Scherz und auch nicht mehr...
... was aber keinen Grund für solch einen Ausbruch hergibt.
(viel schlimmer ist, dass er oft ohne 'Grund' ausbricht und dann einfach nur rumtrollt etc.)
Originally posted by zeckensack
Wenn dir die Treiberversionen nicht passen, gibt's denke ich genug 'unabhängige' Zahlen abrufbar in diversen Reviews und der FM-Datenbank.
Huh ?
Cat3.3 und ein 'überhoher Schnuller-Wert ?
Ist ja gar nicht so, dass ich das 'Ergebnis' anzweifle...
... aber was soll dieses rumgeprolle ?

Wie gesagt, ich kann solche Leute nicht ab und da ich auch noch persönlich angegriffen wurde, ist mir halt der Kragen geplatzt... (hab' mich aber schon wieder beruhigt, da es nur 'nen 5min-Effekt hatte ;-)
Originally posted by zeckensack
nagus 'prollt' halt ab und an sehr gern, das solltest du mittlerweile wissen. Ernsthaft falsche Zahlen hat er aber AFAIR nie angegeben.
Keine Ahnung, ob er echte oder falsche Zahlen postete... ist mir eigentlich auch wurscht.
Ich habe die Nicht-Nachvollziehbarkeit seiner Zahlen kritisiert.
Zum einen ist sein System weit über die Schmerzgrenze hinaus übertaktet und zum anderen benutzt er Treiber, die der Öffentlichkeit (nicht mal inoffiziell !) zur Verfügung stehen...

Was soll das ?
Und das in einem FX-Bench-Thread ?
Will er zeigen, wie lang... ähm... seine GraKa ist ?
???

Wie gesagt, ich hätte es ruhen lassen, wenn Du nicht (ernsthaft) nachgefragt hättest...
Und werde dies auch tun.

Bis denne

Razor

-x-
2003-04-06, 17:01:19
die meisten haben auch gemerkt,dass die bilder vertauscht waren,demirug hats halt als erster gepostet->ganz einfach weil auch auf diesen miesen bildern ein unterschied zu sehn ist.woran das jetzt liegt ist ne andere frage.

nagus
2003-04-06, 17:13:07
@razor: entschuldigung, dass ich dir nicht zugetraut hab, die bilderchen absichtlich zu vertauschen.

... auf dein restliches blah, blah will ich nicht eingehen. das führt sowieso zu nichts.

bis denne ;)

nagus

Razor
2003-04-06, 17:30:46
Originally posted by nagus
@razor: entschuldigung, dass ich dir nicht zugetraut hab, die bilderchen absichtlich zu vertauschen.
Ah ja...
Originally posted by nagus

hab kein problem damit. ich habe keine screenshots vertauscht und bewußt die unwahrheit gesagt.
So wie ich das sehe, traust Dir mir sogar noch sehr viel mehr zu...
... und das auch noch unbegründet.

Und schade, das Du auf den Rest nicht eingehen willst...
... aber auch irgendwie verständlich.

Bis denne

Razor

nagus
2003-04-06, 17:44:14
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=814200#post814200

Razor
2003-04-07, 23:00:43
Originally posted by nagus
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=814200#post814200
Und ?
???

Razor

nagus
2003-04-15, 13:16:25
http://www.nordichardware.com/reviews/graphiccard/2003/Gainward_FX_5800_Ultra/index.php?ez=14


Final Mark : 6.3 von 10

Börk
2003-04-15, 13:30:23
Originally posted by nagus
http://www.nordichardware.com/reviews/graphiccard/2003/Gainward_FX_5800_Ultra/index.php?ez=14


Final Mark : 6.3 von 10
Hast du nichts besseres zu tun, als das Web nach schlechten Test-Berichten für die GF-FX abzusuchen.
Mittlerweile weiss auch schon der dümmste, dass die GF-FX nicht der Hammer ist, da hilft uns dein Artikel auch nicht weiter...

-X-
2003-04-15, 13:39:05
der artikel ist auch nicht sonderlich gut,einfach nur gebashe...das geilste is unten im fazit: positiv:die sachen,die der graka beiliegen lol

nagus
2003-04-15, 18:56:12
Originally posted by burk23

Hast du nichts besseres zu tun, als das Web nach schlechten Test-Berichten für die GF-FX abzusuchen.
Mittlerweile weiss auch schon der dümmste, dass die GF-FX nicht der Hammer ist, da hilft uns dein Artikel auch nicht weiter...

~1-2 wochen

BadFred
2003-04-15, 18:57:42
Originally posted by burk23

Hast du nichts besseres zu tun, als das Web nach schlechten Test-Berichten für die GF-FX abzusuchen.
Mittlerweile weiss auch schon der dümmste, dass die GF-FX nicht der Hammer ist, da hilft uns dein Artikel auch nicht weiter...

Das trifft den Nagel auf den Kopf!

Börk
2003-04-15, 19:17:32
Originally posted by nagus


~1-2 wochen
Was soll das jetzt wieder heißen?

Razor
2003-04-15, 20:20:41
Originally posted by burk23

Was soll das jetzt wieder heißen?
Beschreibt wohl den Zeitraum, in welchem er dann völlig überschnappt...
:D

Bis denne

Razor

nagus
2003-04-15, 20:33:17
Originally posted by Razor

Beschreibt wohl den Zeitraum, in welchem er dann völlig überschnappt...
:D

Bis denne

Razor

halt gefälligst deine Fresse!

(Bitte)

:D

bis denne

;D

nagus

Razor
2003-04-15, 20:39:55
Originally posted by nagus

halt gefälligst deine Fresse!
(Bitte)
:D

bis denne
;D

nagus
Oh ha, Deine Kommentare werden auch immer sinnvoller...
Weiter so, nagus, dann braucht's vielleicht nicht mal 'ne Woche !
:D

Razor