PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 ist da! / NDA-Brecher (merged)


Seiten : 1 2 [3]

HOT
2004-04-14, 15:08:07
Das is echt interessant und hat nen gewissen unterhaltungsfaktor...
Jetzt kommt endlich der uber NV40, bewegt sich wirklich exakt in meinen Erwartungen und dann machen die bei NV so nen looolige Müll mit dem AF ;D

Wenn jetzt wirklich der R420 OHNE winkelabhängiges AF kommt lach ich aber laut los :D

Der NV40 hat abgesehen davon wie von einer neuen Generation zu erwarten wirklich gut vorgelegt, das muss von ATI erstmal geschlagen werden.
Ich überlege mir ernsthaft das Ding zuzulegen.

DrumDub
2004-04-14, 15:09:17
Original geschrieben von betareverse
Wichtig ist aber wie schon gesagt zu beachten, dass die Bildqualität der nVidia-karten nicht an die ATI-Karten ran kommt, da sie mit weniger Präzision arbeiten.


das liegt wohl am patch 1.1, welches die geforce auf afaik ps 1.1 beschränkt.

SKYNET
2004-04-14, 15:12:22
loool, di ehauptseite wurde gesprengt.

der server ist tot :D

betasilie
2004-04-14, 15:12:22
Original geschrieben von DrumDub
das liegt wohl am patch 1.1, welches die geforce auf afaik ps 1.1 beschränkt.
Dieser Patch hat aber auch ordentlich Performancevorteile gebracht, durch die niedrigere Präzision! Ich denke mal, dass war von NV auch so gewollt.

Obwohl ich THG nicht sonderlich mag, aber hiermit
"But we have some grievances as well. For one thing, there's the disappointing shader quality in FarCry. NVIDIA should get this problem ironed out as soon as possible, as it leaves a bitter aftertaste in our mouths despite (or because of) the otherwise excellent benchmark results."
haben sie recht.

DrumDub
2004-04-14, 15:16:14
beta

ja, aber es lag nicht an fp32 vs. fp 16 sondern an ps 2.0 vs. ps 1.1.

betasilie
2004-04-14, 15:18:30
Original geschrieben von DrumDub
beta

ja, aber es lag nicht an fp32 vs. fp 16 sondern an ps 2.0 vs. ps 1.1.
Ok, aber das ist doch echt blöd oder nicht? Dadurch kann man die FarCry-benchmarks irgendwie in die Tonne kloppen. :-/

SpecialTrooper
2004-04-14, 15:19:08
Original geschrieben von SKYNET
loool, di ehauptseite wurde gesprengt.

der server ist tot :D


Es wollen wohl ZU VIELE leute den Artikel!

Geht doch alle mal aus dem Internet raus, dann kann ich ihn wenigstens lesen ;D


Ironie aus: Weiß jmd. woran das liegt das 3dcenter Off ist?

LovesuckZ
2004-04-14, 15:20:54
Stromverbrauch des NV40 zum NV38 und 9800XT (http://www.hardware.fr/articles/491/page11.html)

SKYNET
2004-04-14, 15:21:10
Original geschrieben von SpecialTrooper
Es wollen wohl ZU VIELE leute den Artikel!

Geht doch alle mal aus dem Internet raus, dann kann ich ihn wenigstens lesen ;D


Ironie aus: Weiß jmd. woran das liegt das 3dcenter Off ist?

rofl, woran es liegt ist wohl klar ;)

naja, hätten sie den artikel wenigstens um 14:30 draufgepackt hätte ich ihn noch lesen können :P

Kenny1702
2004-04-14, 15:23:26
Ist das eigentlich das erste MAl, daß die Seite wegen eines begehrten Artikels down ist?

Gast
2004-04-14, 15:23:49
Original geschrieben von LovesuckZ
Stromverbrauch des NV40 zum NV38 und 9800XT (http://www.hardware.fr/articles/491/page11.html)

Also doch nicht so schlimm, wie erwartet und propagandiert =)

SpecialTrooper
2004-04-14, 15:24:15
Original geschrieben von LovesuckZ
Stromverbrauch des NV40 zum NV38 und 9800XT (http://www.hardware.fr/articles/491/page11.html)

Also im Vergleich zur 5950 ist der Stromverbrauch ja nicht so extrem gestiegen!

Das geht ja noch ;D

mayo
2004-04-14, 15:24:29
Zitat von tomshardware:

"...bis zu 16x Anisotrope Filterung, auf Wunsch echte Trilineare Filterung - und das sind nur die groben Eckdaten des Chips."

echt toll, jetzt wird schon trilineare Filterung als *supertollesfeature* beworben. :(

DrumDub
2004-04-14, 15:24:49
Original geschrieben von LovesuckZ
Stromverbrauch des NV40 zum NV38 und 9800XT (http://www.hardware.fr/articles/491/page11.html)

ui... nur 111 watt im 3d-betrieb? wofür brauchen die dann den zweiten stromanschluss, wenn die 5950u auch schon 105 watt verbraucht?

Odal
2004-04-14, 15:24:56
http://www20.tomshardware.com/graphic/20040414/feforce_6800-45.html


les/seh ich da was falsch oder is das absoluter schwachsin?

eine 5950 hat doch niemals schlechtere 8x AF qualitaet als eine "optimierte" 6800u bzw. R9800XT


kann mir wer das erklaeren?

SpecialTrooper
2004-04-14, 15:26:34
Gibt es schon erste Test die das Thema Lautstärke berücksichtigen?

Soll ja nicht so werden wie bei der FX 5800Ultra!

Gast
2004-04-14, 15:26:54
Original geschrieben von DrumDub
ui... nur 111 watt im 3d-betrieb? wofür brauchen die dann den zweiten stromanschluss, wenn die 5950u auch schon 105 watt verbraucht?

Also doch keine 480W-PSUs? :???:

aths
2004-04-14, 15:27:27
Original geschrieben von DrumDub
beta

ja, aber es lag nicht an fp32 vs. fp 16 sondern an ps 2.0 vs. ps 1.1. Pixelshader 1.1 nutzt FX12, insofern hängt es dann schon vom Zahlenformat ab.

nggalai
2004-04-14, 15:32:34
Original geschrieben von Gast
Also doch keine 480W-PSUs? :???: Leos 300W-Netzteil hat den Testmarathon problemlos mitgemacht.

93,
-Sascha.rb

Roadkill
2004-04-14, 15:32:56
Original geschrieben von SpecialTrooper
Gibt es schon erste Test die das Thema Lautstärke berücksichtigen?

Soll ja nicht so werden wie bei der FX 5800Ultra!

Wird sich auf 5900 Niveau bewegen

Gast
2004-04-14, 15:33:40
Original geschrieben von nggalai
Leos 300W-Netzteil hat den Testmarathon problemlos mitgemacht.

93,
-Sascha.rb

Danke! =)

LovesuckZ
2004-04-14, 15:35:36
Also Nvidia hat ATi doch ein Pfund vorgelegt. Selbst im Shadermark ist die karte mit FP32 (okay, FP16 ist deutlich schnelelr) fast immer doppelt so schnell wie eine 9800XT mit FP24. Und mit FP16 bewegt es sich fast auf dem Niveau von einer dreifachen Umrundung.
Respekt Nvidia

http://www.techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=13

Radeonator
2004-04-14, 15:37:09
Original geschrieben von betareverse
Wie bitte? Ich würde sagen Du hast was an den Augen. Das 4*AA der beiden Karten ist fast gleichwertig. Wenn überhaupt hat ATI auf den Screenshoots, die ich bis jetzt gesehen, einen kleinen Vorteil.

Und das AF von NV ist nur minimal überlegen.

Also dürfte man da von einem Patt sprechen in Sachen IQ zwischen NV40 und R3xx. Und was der R420 bringt weiß ich jedenfalls noch nicht.

Das ist nicht dein Ernst oder ? So biased kann man doch gar net sein, oder ?

6800 4xaa (http://firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=27)

9800xt 4xaa (http://firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=29)

Wenn du da behaupten willst, nen Vorteil für ATi zu sehen, machst du dich lächerlich. Klick beide Bilder an und schalt zwischen den Fenstern hin und her und schau dabei auf die Flügel, vielleicht geht dir dann ein Lichtlein auf...oh man...

DrumDub
2004-04-14, 15:43:29
Original geschrieben von aths
Pixelshader 1.1 nutzt FX12, insofern hängt es dann schon vom Zahlenformat ab.

das habe ich auch nicht bestritten, nur eben kein fp32 vs. fp16. ;)

den unterschied sieht man ja hier sehr schön, dank dem patch 1.1 für far cry: http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-46.html

die hättens wie quasar machen müssen und ohne patch 1.1 benchen müssen, um die vergleichbarkeit zu waren. aber dafür ist thg dann doch zu blöde, obwohl mich der review positiv überrascht hat, was die benchmarkauswahl und iq-tests angeht. lediglich bei der ansio-quali widersprechen sie ihre eigenen ergebnissen derbe:

Gegenüber der GeForce FX 5950 Ultra hat die GeForce 6800 Ultra eine deutlich bessere Bildqualität zu bieten, sowohl bei FSAA (JA!) als auch bei Anisotroper Filterung (WTF???).
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-47.html

RLZ
2004-04-14, 15:52:00
Original geschrieben von Radeonator
Wenn du da behaupten willst, nen Vorteil für ATi zu sehen, machst du dich lächerlich. Klick beide Bilder an und schalt zwischen den Fenstern hin und her und schau dabei auf die Flügel, vielleicht geht dir dann ein Lichtlein auf...oh man...

Wenn man nen Unterschied sieht kann man das nur als objektiv betrachten.
Ob dieser Unterschied beim Spielen noch zu sehen ist lass ich mal dahingestellt. Aber er ist eindeutig zu sehen. Vielleicht liegts auch dran, ob man geübt drin ist solche "Fehler" zu finden.
Trotzdem wird meine nächste Karte wohl ne NV werden wegen den Linuxtreibern...

Gast
2004-04-14, 16:03:07
habe ein paar fragen an euch

1)Wann kann man die karte kaufen?

2)wieviel wird sie kosten?

3)wann wird ati ihre neue karte vorstellen?

4)auf eure seite kann ich keine benchmark von der 6800 endecken , wo sind sie ?

Odal
2004-04-14, 16:27:39
Original geschrieben von Odal
http://www20.tomshardware.com/graphic/20040414/feforce_6800-45.html


les/seh ich da was falsch oder is das absoluter schwachsin?

eine 5950 hat doch niemals schlechtere 8x AF qualitaet als eine "optimierte" 6800u bzw. R9800XT


kann mir wer das erklaeren?

ich quote mich nochmal selber...

kann mich jemand aufklaeren....

Odal
2004-04-14, 16:29:36
Original geschrieben von Gast
habe ein paar fragen an euch

1)Wann kann man die karte kaufen?

2)wieviel wird sie kosten?

3)wann wird ati ihre neue karte vorstellen?

4)auf eure seite kann ich keine benchmark von der 6800 endecken , wo sind sie ?

1. in nem monat vielleicht

2. ist noch nicht sicher raus..aber so um die 450-500 euros denk ich

3. am in ca. 2 wochen

4. weil der server gerade ueberlastet ist sind die benches nicht onl.

Gast
2004-04-14, 16:32:29
Original geschrieben von betareverse
Vielmehr ist es schade, dass ATI als Technolgiebremse fungiert, was man ihnen ankreiden kann.


ankreiden???????
Dafür muss man sie knallhart abstrafen.
Das erwarte ich von den Reviewern und Zeitschriften und vor allem erwarte ich es von 3DCenter.de.
Es kann nicht sein, dass sich ein IHV auf die faule Haut legt nach dem Motto "Lass doch die anderen Hammel die Drecksarbeit machen" und dann noch dafür belohnt wird.
Wenn alle IHVs so denken, dann können die Entwickler heimgehen und Urlaub machen.

ATI hatte jetzt mehr als 1,5 Jahre Zeit die Shader-Architektur auf ein aktuelles Niveau anzuheben. Achwas rede ich die hatten sogar noch länger Zeit - mindestens 2,5 Jahre - da die Entwickler ja schon weit vor dem Release des R300 begonnen hat.
Es kann nicht sein, dass so etwas noch unter dem Deckmantel besonderer Cleverness belohnt wird. Das muss man deutlich abstrafen.

thop
2004-04-14, 16:43:24
Na also nV ist doch wieder zurück im 3D Boot :) Die Benches von [H] wären auch wirklich traurig gewesen. Leider hält keine Seite dem Ansturm stand :-( Auf b3d dauerts ewig bis was geladen sind, bei anand ist der Server mit den Bildern schon platt. Konnte grad nur sehen dass die nV40 mehr als doppelt so schnell ist wie die anderen bei Halo 1600x1200.

Und bei 3DC, da traut man sich erst gar nicht den Review online zu stellen ;D Das Forum ist auch schon elendslahm.

Argo Zero
2004-04-14, 16:44:13
Vielleicht war oder ist es cleverer den R420 noch nicht mit Pixel Shadern 3.0 auszurüsten?!
Das Resultat werden wir bald sehen.

Demirug
2004-04-14, 16:45:33
Original geschrieben von Argo Zero
Vielleicht war oder ist es cleverer den R420 noch nicht mit Pixel Shadern 3.0 auszurüsten?!
Das Resultat werden wir bald sehen.

Die Wahrscheinlichkeit dafür liegt bei unter einem Prozent

thop
2004-04-14, 16:45:40
Original geschrieben von Argo Zero
Vielleicht war oder ist es cleverer den R420 noch nicht mit Pixel Shadern 3.0 auszurüsten?!
Das Resultat werden wir bald sehen.
Richtig, so lange müssen die Hardcore ATI Fanboys durchhalten ;D Ich denke aber auch dass das letzt Wort noch nicht gesprochen ist.

Gast
2004-04-14, 16:47:16
Könnt ihr euch mal für einen Thread entscheiden,das nervt.

Argo Zero
2004-04-14, 16:51:38
Original geschrieben von Demirug
Die Wahrscheinlichkeit dafür liegt bei unter einem Prozent

So wie ich es jetzt sehe könnten die Shader des NV40 mehr, werden aber von der Bandbreite der Karte limitiert.
ATi wartet wohlmöglich bis genug Bandbreite vorhanden ist um dann die PS 3.0 einzusetzen.

thop
2004-04-14, 16:52:58
Demirug weißt du etwas was wir nicht wissen? :| Meine PM Box steht offen ;)

Demirug
2004-04-14, 16:57:34
Ich bezog mich auf das clever. Die Entwickler werden jetzt wieder primär zu nVidia wechseln.

Argo Zero
2004-04-14, 17:02:22
Ach jetzt versteh ich was du meinst :bonk:
Jup, wirtschaftlich gesehen blöd.

Gast
2004-04-14, 17:03:33
Original geschrieben von Gast
ankreiden???????
Dafür muss man sie knallhart abstrafen.
Das erwarte ich von den Reviewern und Zeitschriften und vor allem erwarte ich es von 3DCenter.de.
Es kann nicht sein, dass sich ein IHV auf die faule Haut legt nach dem Motto "Lass doch die anderen Hammel die Drecksarbeit machen" und dann noch dafür belohnt wird.
Wenn alle IHVs so denken, dann können die Entwickler heimgehen und Urlaub machen.

ATI hatte jetzt mehr als 1,5 Jahre Zeit die Shader-Architektur auf ein aktuelles Niveau anzuheben. Achwas rede ich die hatten sogar noch länger Zeit - mindestens 2,5 Jahre - da die Entwickler ja schon weit vor dem Release des R300 begonnen hat.
Es kann nicht sein, dass so etwas noch unter dem Deckmantel besonderer Cleverness belohnt wird. Das muss man deutlich abstrafen.

Wegen solcher idiotischer haltung ist auch 3dfx den Bach runter gegeangen. Nur weiter überzeuge möglichst viel Leute von deiner Meinung, und bald gibts ein Nvidia Monopol mit Karten um 1000€/Stück :kotz:

Gast
2004-04-14, 17:04:10
Original geschrieben von Demirug
Ich bezog mich auf das clever. Die Entwickler werden jetzt wieder primär zu nVidia wechseln.

Waren die Entwickler nicht immer primär bei NVidia, v.A du Demi?

Gast
2004-04-14, 17:13:29
Stand eigentlich irgendwo, was das Ding im 2D-Betrieb so verbraucht? Und wie laut die im 2D Betrieb ist? Feuert die da auch mit Full Power? -Ich hoffe mal nich!

betasilie
2004-04-14, 17:14:51
Original geschrieben von Gast
ankreiden???????
Dafür muss man sie knallhart abstrafen.
Das erwarte ich von den Reviewern und Zeitschriften und vor allem erwarte ich es von 3DCenter.de.
Es kann nicht sein, dass sich ein IHV auf die faule Haut legt nach dem Motto "Lass doch die anderen Hammel die Drecksarbeit machen" und dann noch dafür belohnt wird.
Wenn alle IHVs so denken, dann können die Entwickler heimgehen und Urlaub machen.

ATI hatte jetzt mehr als 1,5 Jahre Zeit die Shader-Architektur auf ein aktuelles Niveau anzuheben. Achwas rede ich die hatten sogar noch länger Zeit - mindestens 2,5 Jahre - da die Entwickler ja schon weit vor dem Release des R300 begonnen hat.
Es kann nicht sein, dass so etwas noch unter dem Deckmantel besonderer Cleverness belohnt wird. Das muss man deutlich abstrafen.
http://www.3dcenter.org/artikel/nv40_technik/index5.php

thop
2004-04-14, 17:17:35
Es kann nicht sein, dass sich ein IHV auf die faule Haut legt nach dem Motto "Lass doch die anderen Hammel die Drecksarbeit machen" und dann noch dafür belohnt wird.
Man darf ja nicht vergessen wer letztes Jahr auf der faulen Haut lag. Nicht zuletzt der 9700pro ist es zu verdanken dass sich nV nun noch mal ein bisschen mehr ins Zeug gelegt hat. Und nun ist der Spieß umgedreht und ATI wird sich in Zeug legen müssen. Und so geht das hoffentlich immer weiter.

Demirug
2004-04-14, 17:18:24
Original geschrieben von Gast
Waren die Entwickler nicht immer primär bei NVidia, v.A du Demi?

Als nVidia mit dem NV30 nicht in die Hufe gekommen ist sind viele primär zu ATI gewechselt weil sie eben eine 2.0 Karte gebraucht haben.

thop
2004-04-14, 17:22:01
Wurd das hier schon verlinkt? ftp://download.nvidia.com/downloads/nZone/videos/nvidia/nalu_256k.wmv

Also die Dame ist im Vergleich zu Dawn leider urhässlich ;)

DrumDub
2004-04-14, 17:34:13
Original geschrieben von Gast
Stand eigentlich irgendwo, was das Ding im 2D-Betrieb so verbraucht? Und wie laut die im 2D Betrieb ist? Feuert die da auch mit Full Power? -Ich hoffe mal nich!

nein. die karte verbraucht ca. 32w im 2d-betrieb: http://www.hardware.fr/articles/491/page11.html

PH4Real
2004-04-14, 17:36:32
Original geschrieben von DrumDub


Gegenüber der GeForce FX 5950 Ultra hat die GeForce 6800 Ultra eine deutlich bessere Bildqualität zu bieten, sowohl bei FSAA (JA!) als auch bei Anisotroper Filterung (WTF???).

http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-47.html

Hmm... das hat mich auch gewundert. Man kann aber zu den Schluss kommen, wenn man das AF nur aufgrund von Aquamark bewertet. Das macht die Aussage zwar nicht besser, aber die Folgerung wird verständlicher. ;)

siehe auch:
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-45.html


Ach ja... kann mir einer erklären, warum die meisten Benchmarks, die ich bisher gesehen habe im Gegensatz zu den Benchmarks von 3dc doch zum Teil sehr stark von einander abweichen :ratlos: ?

Jedenfalls ist der Abstand zu der 9800XT im 3dc Review zwar sehr deutlich, aber nicht so stark wie bei anderen Seiten... liegt es vielleicht an den speziellen Qualitätsabstufungen, die sich 3dc ausgesucht hat?

dildo4u
2004-04-14, 17:38:52
Original geschrieben von PH4Real
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-47.html

Hmm... das hat mich auch gewundert. Man kann aber zu den Schluss kommen, wenn man das AF nur aufgrund von Aquamark bewertet. Das macht die Aussage zwar nicht besser, aber die Folgerung wird verständlicher. ;)

siehe auch:
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-45.html


Ach ja... kann mir einer erklären, warum die meisten Benchmarks, die ich bisher gesehen habe im Gegensatz zu den Benchmarks von 3dc doch zum Teil sehr stark von einander abweichen :ratlos: ?

Jedenfalls ist der Abstand zu der 9800XT im 3dc Review zwar sehr deutlich, aber nicht so stark wie bei anderen Seiten... liegt es vielleicht an den speziellen Qualitätsabstufungen, die sich 3dc ausgesucht hat? [/SIZE][/QUOTE]
Die cpu ist extrem lahm beim 3d center test da ist slebst mein 2 rechner mit 2200XP schneller deshalb sind die werte nicht so weit auseinander wie bei anderen tests

Börk
2004-04-14, 17:44:56
so jetzt hab ich auch den artikel von leo durch und muss sagen :up:
Was sagt ihr denn dazu, dass der NV40 anscheinend doch nicht so bandbreitenlimitiert ist wie vermutet wurde?
Na hab ichs gesagt :D:D

Gast
2004-04-14, 17:48:14
Ausm Bauch raus habe ich auch den Eindruck, dass der Unterschied auf 3dcenter nicht dem der anderen Reviews entpricht --> völlig wertfrei gemeint

DrumDub
2004-04-14, 17:48:43
Original geschrieben von PH4Real
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-47.html

Hmm... das hat mich auch gewundert. Man kann aber zu den Schluss kommen, wenn man das AF nur aufgrund von Aquamark bewertet. Das macht die Aussage zwar nicht besser, aber die Folgerung wird verständlicher. ;)

siehe auch:
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-45.html

wenn thg nicht mit demis af-tester getestet hätte, dann könnte ich es ja noch verstehen, aber so sind die schlussfolgerungen bezüglich der ansio-quali einfach nur schwachsinn, weil sie den sichtbaren ergebnissen auf in deren eigenem review widersprechen.

siehe: http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-44.html

dildo4u
2004-04-14, 17:50:38
Original geschrieben von Gast
Ausm Bauch raus habe ich auch den Eindruck, dass der Unterschied auf 3dcenter nicht dem der anderen Reviews entpricht --> völlig wertfrei gemeint

Die cpu ist extrem lahm beim 3d center test da ist slebst mein 2 rechner mit 2200XP schneller deshalb sind die werte nicht so weit auseinander wie bei anderen tests

Unter A64FX 53 braucht man die karte nicht zu testen Next GEN GPU ohne NEXT Gen CPU *g*

thop
2004-04-14, 17:50:52
Original geschrieben von Gast
Ausm Bauch raus habe ich auch den Eindruck, dass der Unterschied auf 3dcenter nicht dem der anderen Reviews entpricht --> völlig wertfrei gemeint
Das stimmt auch, das liegt daran dass Leos Rechner nicht mehr der allerschnellste ist.

Börk
2004-04-14, 17:54:14
Original geschrieben von dildo4u
Unter A64FX 53 braucht man die karte nicht zu testen Next GEN GPU ohne NEXT Gen CPU *g*
Falsch!!!
Ich finde es gut, dass es nen Test gibt auf nem langsameren Rechner, denn auch Leute wie ich sind daran interessiert zu wissen was nen NV40 auf ihrem System so leistet und da ich "nur" nen Athlon XP 2600 habe sind Benches auf nem A64 @2.4 Ghz für mich absolut nicht aussagekräftig.
Für die die solche Prozzis haben gibts ja egnug andere Reviews.

P.S.: Ok bei der nächsten Generation wäre vielleicht ne Aufrüstung fällig, aber zur Zeit ist nen 2.5 Ghz Prozzi noch aktuell...

Genervter-Gast
2004-04-14, 17:58:31
Bitte alle weniger P0rn0s vom 3DCenter Server runterladen damit die Artikel gelesen werden können ! Danke.

dildo4u
2004-04-14, 17:58:31
Original geschrieben von burk23
Falsch!!!
Ich finde es gut, dass es nen Test gibt auf nem langsameren Rechner, denn auch Leute wie ich sind daran interessiert zu wissen was nen NV40 auf ihrem System so leistet und da ich "nur" nen Athlon XP 2600 habe sind Benches auf nem A64 @2.4 Ghz für mich absolut nicht aussagekräftig.
Für die die solche Prozzis haben gibts ja egnug andere Reviews.

P.S.: Ok bei der nächsten Generation wäre vielleicht ne Aufrüstung fällig, aber zur Zeit ist nen 2.5 Ghz Prozzi noch aktuell... Sorry das gilt vielicht für die 6800 non ultra wer sich ne 6800Ulta leisten kann hat auch die passende cpu das ist meien meinung

Hellfire-Torrod
2004-04-14, 17:58:37
Mit der momentanen Grafikkarte die er verbaut hat ist er es aber schon :D
Naja......mal sehen, was noch alles so kommt.....bin schon auf die speks der nonUltra gespannt...und auf Reviews davon!

Börk
2004-04-14, 18:03:01
Original geschrieben von dildo4u
Sorry das gilt vielicht für die 6800 non ultra wer sich ne 6800Ulta leisten kann hat auch die passende cpu das ist meien meinung
hmm nö, ich bin schon immer so verfahren, dass ich mir abwechseln nen neue CPU und nen neue GPU gekauft habe.
Also immer erst GPU und wenn dann die CPU zu lahm ist Games flüssig darzustellen dann kommt ne neue rein.
So kam es auch durchaus schon vor, dass ich nen 1 Ghz Prozzi mit ner GF4 4600 hatte.Eiegentlich ein sehr unausgeglichenes Gespann, aber das war gar kein Problem, weil ich dann AA/AF praktisch for free bekam...

PH4Real
2004-04-14, 18:04:38
Original geschrieben von DrumDub
wenn thg nicht mit demis af-tester getestet hätte, dann könnte ich es ja noch verstehen, aber so sind die schlussfolgerungen bezüglich der ansio-quali einfach nur schwachsinn, weil sie den sichtbaren ergebnissen auf in deren eigenem review widersprechen.

siehe: http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-44.html

Ja, natürlich widersprechen sie sich... vielleicht hat die Zusammenfassung in Wirklichkeit jemand anderes geschrieben ;D.

Ist aber wirklich merkwürdig...


Zu den Tests:
Ich hätte auch gern den 6800U mit einen absoluten High-End Prozessor gesehen... na mal abwarten, was noch so für Tests gemacht werden...

thop
2004-04-14, 18:04:45
Aber wenn man aufrüstet, z.B. auf nen Presskotz oder nen A64 dann wird bei vielen aber auch ein neues Netzteil fällig werden. Also eher eine teure Investition nur um den 6800U passable zum laufen zu bekommen. Ich warte dann lieber mal ab was der erheblich günstigere 6800 zu Stande bringt.

Juhuu
2004-04-14, 18:07:08
falls es noch nicht gesagt wurde:

die 6800U geht locker bis 460/1250 Mhz.

thop
2004-04-14, 18:10:31
Woher weißt du das?

robbitop
2004-04-14, 18:10:56
Leos Artikel =)

thop
2004-04-14, 18:14:12
Ah eben ging die OC Seite noch nicht, die hat immer irgendwo anders hingeführt.

dildo4u
2004-04-14, 18:15:33
Damm Wo gibts das Unreal3 Engine video zum saugen

Argo Zero
2004-04-14, 18:19:13
Original geschrieben von dildo4u
Damm Wo gibts das Unreal3 Engine video zum saugen

Nirgens. Normalerweise dürfen garkeine Bilder/Videos gemacht werden bei der Unreal 3 presentation.

Hellfire-Torrod
2004-04-14, 18:19:42
Kleiner wink am rande : nvidia.com is down....

Hir für alle die gerne n bench mit dem A64 sehen möchten (http://www.bit-tech.net/review/313/5)

ironMonkey
2004-04-14, 18:26:51
Ich finde dem Test von hier auf der lahmen Kiste auch sehr gut, da ich auch nur nen XP2500 hab.



Gruß

Gast
2004-04-14, 18:33:08
Original geschrieben von Demirug
Als nVidia mit dem NV30 nicht in die Hufe gekommen ist sind viele primär zu ATI gewechselt weil sie eben eine 2.0 Karte gebraucht haben.

So ein Stuss.ast kein Entwickler hat sich in der Trockenperiode eine ATi geholt*, vor allem die nicht die nicht ubedingt was mit PS2. releasen mussen. CineFX da und dort hiesses. Die geile Dawn lernte man kennen und jeder wartete nur auf den NV30. Der war dann lahm, aber die Treiber solltens fixen. Die konntens nur eingeschränkt, aber da stand ja schon der NV35 in den Startlöchern mit CineFX2. Meinst du nicht dass das gros der Entwickler auf den warteten sich sich darauf austobten?


*und die dies getan haben sind anscheinend dran verreckt, denn so viel tolle ATi PS 2.0 Spiele sehe ich wirklich nicht...

Mr. Lolman
2004-04-14, 18:33:29
*mein Post*

Demirug
2004-04-14, 18:41:09
Original geschrieben von Gast
So ein Stuss.ast kein Entwickler hat sich in der Trockenperiode eine ATi geholt*, vor allem die nicht die nicht ubedingt was mit PS2. releasen mussen. CineFX da und dort hiesses. Die geile Dawn lernte man kennen und jeder wartete nur auf den NV30. Der war dann lahm, aber die Treiber solltens fixen. Die konntens nur eingeschränkt, aber da stand ja schon der NV35 in den Startlöchern mit CineFX2. Meinst du nicht dass das gros der Entwickler auf den warteten sich sich darauf austobten?


*und die dies getan haben sind anscheinend dran verreckt, denn so viel tolle ATi PS 2.0 Spiele sehe ich wirklich nicht...

War das jetzt sarkastisch gemeint?

Viele haben von ATI ja eine Karte bekommen als sie auf einer der Entwicklerveranstaltungen waren. Zudem habe die meisten Entwickler sowieso Karten von ATI und nVidia. Es geht nur darum was primär in den Rechner steckt.

Odal
2004-04-14, 18:43:54
Original geschrieben von Gast
So ein Stuss.ast kein Entwickler hat sich in der Trockenperiode eine ATi geholt*, vor allem die nicht die nicht ubedingt was mit PS2. releasen mussen. CineFX da und dort hiesses. Die geile Dawn lernte man kennen und jeder wartete nur auf den NV30. Der war dann lahm, aber die Treiber solltens fixen. Die konntens nur eingeschränkt, aber da stand ja schon der NV35 in den Startlöchern mit CineFX2. Meinst du nicht dass das gros der Entwickler auf den warteten sich sich darauf austobten?


*und die dies getan haben sind anscheinend dran verreckt, denn so viel tolle ATi PS 2.0 Spiele sehe ich wirklich nicht...

natuerlich...ein entwickler hat geld...und wenn was featuretechnisch neues auf den markt kommt, kauft er sichs..besonders wenn es so einschneidene veraenderungen sind wie damals ps2.0

waere nv zeitgleich/frueher damals auf den markt gekommen haettest du recht...da cinefx mehr leisten kann (allerdings schwieriger zu programmieren ist)

fuer einen entwickler ist das wie fuer dich wenn ein neues game (z.b. farcry) rauskommt...

Demirug
2004-04-14, 18:46:42
Original geschrieben von Odal
ein entwickler hat geld

Falsch. Das Geld haben die Publisher.

Odal
2004-04-14, 18:47:45
bzw. wie demi schon sagte..wenn der entwickler bedeutend genug ist gibts sie auch geschenkt..da jeder moechte das die software eine spezielle anpassung an die eigenen karten bekommt....

Odal
2004-04-14, 18:49:14
Original geschrieben von Demirug
Falsch. Das Geld haben die Publisher.

ja ok nur die gebens den entwicklern :D zumindest teilweise
um das projekt zu finanzieren

Gast
2004-04-14, 18:55:42
Original geschrieben von ironMonkey
Ich finde dem Test von hier auf der lahmen Kiste auch sehr gut, da ich auch nur nen XP2500 hab.



Gruß


Wayne interessiert'`s? Eine HighEnd-GraKa sollte auch auf einem HighEnd-Sys reviewed werden - wie sonst will man erreicehn, daß die TATSÄCHLICHEN Performanceunterschiede zwischen den Karten zur Geltung kommen?

*Daumen runter* dafür...

Gast
2004-04-14, 19:01:41
Original geschrieben von PH4Real
Ja, natürlich widersprechen sie sich... vielleicht hat die Zusammenfassung in Wirklichkeit jemand anderes geschrieben ;D.

Ist aber wirklich merkwürdig...


Zu den Tests:
Ich hätte auch gern den 6800U mit einen absoluten High-End Prozessor gesehen... na mal abwarten, was noch so für Tests gemacht werden...


Hm? Ist doch klar, wie die zu der Schlußfilgerung kommen; schließlich wurde der brilineare Filter wieder abgeschafft und der war ja wohl weitaus schlimmer als die Winkelabhängigkeit des NV40.

Gast
2004-04-14, 19:02:13
Original geschrieben von burk23
P.S.: Ok bei der nächsten Generation wäre vielleicht ne Aufrüstung fällig, aber zur Zeit ist nen 2.5 Ghz Prozzi noch aktuell...

*lol* DER war gut... :D

Odal
2004-04-14, 19:06:22
Original geschrieben von Gast
Hm? Ist doch klar, wie die zu der Schlußfilgerung kommen; schließlich wurde der brilineare Filter wieder abgeschafft und der war ja wohl weitaus schlimmer als die Winkelabhängigkeit des NV40.

also das die schlimmer war das glaub ich nicht tim ;)

thop
2004-04-14, 19:22:44
Vielleicht sollte der Thread auch geschlossen werden? Im Moment läuft die Diskussion wieder in 2 Threads :( Aber bitte nicht mergen!! :)

Börk
2004-04-14, 19:40:53
Original geschrieben von Gast
*lol* DER war gut... :D
Haste nen Problem?
Also es gibt genug Leute, die "nur" 2.5 Ghz respektive 2500+/2600+ haben und trotzdem in Betracht ziehen sich ne neue/schnelle Graka zu kaufen. Und genau für die ist es auch wichtig zu wissen, wie sich der NV40 auf einem Sys ihrer Klasse schlägt.
Was ich viel schlimmer finde, dass manche Tests mit nur 512 MB ram durchgeführt wurde, das kann die Ergebnisse mitunter ziemlich stark verfälschen, zumindest bei Farcry, da hier teilweise ausgelagert werden muss, was die Benchmarkwerte nicht reproduzierbar macht...

Odal
2004-04-14, 19:45:44
Original geschrieben von thop
Vielleicht sollte der Thread auch geschlossen werden? Im Moment läuft die Diskussion wieder in 2 Threads :( Aber bitte nicht mergen!! :)

blos nich schliessen das ergibt keinen sinn...dann hast im alten speku thread nen link auf den hier und in dem thread nen link auf nen anderen...usw. da findet sich dann erst recht keiner mehr durch...

lieber umbenennen in nur "GF6800" oder sowas...

thop
2004-04-14, 19:46:55
Ja aber jetzt haben wir 2 Threads in denen genau dasselbe diskutiert wird! Fast alles doppelt, das ist BW Verschwendung.

BvB123
2004-04-14, 21:24:26
Leute dafür muß man einfach einen eigenen thread machen,wenn ihr das Video gesehn habt,stimmt ihr mir.

einfach Wahnsinn die Grafik



http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv

Das Teil ist Pflicht glaubt mir !

dildo4u
2004-04-14, 21:26:15
Original geschrieben von BvB123
Leute dafür muß man einfach einen eigenen thread machen,wenn ihr das Video gesehn habt,stimmt ihr mir.

einfach Wahnsinn die Grafik



http://sanbjoe.home.online.no/nv40/unreal3_0002.wmv

Das Teil ist Pflicht glaubt mir ! schon passiert ;-) http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=137051

Gast
2004-04-14, 21:37:57
Original geschrieben von LovesuckZ
Hm, 70% schneller mit 4AA, finde ich hervorragend. Kann das heute eine Konkurenzkarte zeigen?



Später kommt immer was. Welchen Sinn hat es also, nicht jetzt den NV40 zu feiern? Wenn der r420 mit 16 Pipelines kommt, kann man genauso argumentieren, dass bald ein NV40 mit 500MHz erscheint.

Oh man.....
natürlich kommt später immer etwas nur
1) war das die Präsentation des NV40 und noch nicht die Verfügbarkeit
2) wollte ATI den R420 doch auch noch im April präsentieren
UND laut deren Aussage sollen die Karten bei Präsentation auch verfügbar sein....

Da keiner der Enduser die eine oder andere Karte vor Mai sein Eigen nennen koennen wird, muß man sehr wohl beide next Gen Produkte miteinander vergleichen.

Würde mich nicht wundern , wenn die ersten 420er vor den NV Karten im Laden stehen...

ice cool69
2004-04-15, 02:38:08
Also ich bin vom NV40 sehr positiv überrascht:

1. endlich sehr gute Shader Leistung
2. endlich ein sehr guter AA-Modus: 4x

Ok, in Sachen AA wird ATI weiterhin leicht die Nase vorne haben (was aber noch abzuwarten ist) und was mit dem AF passierte (Winkelabhängigkeit wie bei ATI) ist absolut beschissen.

Alles in allem aber wieder bei den Key-Features ungefähr auf ATI-Niveau mit dem kleinen Bonus der Shader 3.0.
Falls ATI kein besseres Preis/Leistungsverhältnis bieten kann und/oder ne Ecke schneller ist und/oder der Anisotrope Filter besser sein wird als der von Nvidia, schätze ich mal dass ich es vielleicht wieder mit einer nvidia-Karte versuchen werde.

Jetzt heißt es auf den R420 zu warten und die Preise/Leistung zu vergleichen, dann wird zugeschlagen. :)

Ailuros
2004-04-15, 04:41:05
Hmmmm nun hab ich eine Loesung weniger zum spekulieren *seufz*....aber der NV50....hahahaha ;D

NV40 ist das was ich im guten Ganzen erwartet habe mit Aussnahme der Taktrate; da hatte ich allen Ernstes ein bisschen mehr erwartet.

Die enorme arithmetische Effizienz kann man nur begruessen und dass endlich zumindest ein 4*4 grid fuer MSAA geliefert wurde.

Zur Winkelabhaengigkeit beim AF sag ich gar nichts; toll ist es zwar nicht aber ich kann damit genauso leben wie im vergangenen Jahr mit der R300. Zur Leistung auch noch nichts, da ich in dem Aspekt offiziell nur einen Teil der Geschichte betrachten konnte.

NV40 ist ein exzellenter Versuch und nach dem NV3x endlich eine Produkt-Linie die wuerdig fuer NVIDIA's alten guten Namen steht; jedoch aber trotzdem ein bisschen ein Opfer von zu fruehen Design-Entscheidungen.

Moege der Beste gewinnen; obwohl ich ehrlich gesagt keinen klaren Gewinner momentan sehen kann :P

nggalai
2004-04-15, 07:22:51
Original geschrieben von thop
Ja aber jetzt haben wir 2 Threads in denen genau dasselbe diskutiert wird! Fast alles doppelt, das ist BW Verschwendung. Korrekt. Und der hier ist eh langsam "dicht".

*zumach*

93,
-Sascha.rb