PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia G70?


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15]

Demirug
2005-06-22, 10:36:37
Ubisoft hat doch glatt einen neuen Far Cry patch herausgebracht mit folgender Veränderung:

"Das Spiel erkennt jetzt beim Start nVidia-Hardware und vermeidet so eine Shader-Kompilierung zum falschen Zeitpunkt."

Könnte das die angesprochende "niedrige" performance verbessern?

Ja, das könnte durchaus Auswirkungen haben.

Gast
2005-06-22, 10:37:13
Gerade das die Shaderbenchmarks stark angestiegen sind deutet aber doch eher darauf hin das die Treiber (bzw der Shadercompiler) schon sehr gut mit der Erweiterung der Pixelprozessoren zuerecht kommt. nVidia hat ja in der Vergangenheit erklärt das die Anpassung des Shadercompilers gleichzeitig zur Hardware entwicklung vorgenommen wird. Nachdem man beim NV30 damit viel zu spät angefangen hat.
Diese Vogehensweise ist ja auch gut.
Man sollte parallel entwickeln.
Da in einigen Benchmarks (Shader) die Leistung um mehr als 50% gestiegen ist (vergliechen mit einer 6800Ultra), denke ich, dass ich schon richtg liege, dass da doch Änderungen vorgenommen wurden...

pimpin 3dguru
2005-06-22, 10:38:48
@demirug
ja greif mal durch, denn es nervt ständig zu lesen "r520 hier, r520 da..."

auch, wenn ich nur ein gast bin, aber könnt ihr nicht mal beim thema bleiben?
in 4std. und 20min, werden einige fragen geklärt sein. ich bin mir nämlich mehr als sicher, das es um 15uhr soweit ist ;)

Gast
2005-06-22, 10:40:24
Ich halte es ehrlich gesagt langsam für sinnloss immer wieder die gleiche Platte abzuspielen. Ohne eine öffentlich zugängliche Quelle kann alles was zum R520 gesagt wird stimmen aber genauso gut falsch sein. An diesem Status ändern sich auch nichts wenn man die Aussagen zum Mantra macht.

Merkwürdig ist nur das Newsseiten derzeit eher dazu tendieren die schlechten Gerüchte bezüglich des R520 aufzugreifen. Das könnte allerdings auch nur eine Folge des alten Spruchs das sich schlechte Nachrichten besser verkaufen sein.

In diesem Sinne bitte ich doch darum hier die Gebetsmühlen zum R520 langsam anzuhalten denn neue Aspekte kann ich beim besten Willen leider nicht erkennen.

Wenn die Gerüchte nicht stimmen sollten, warum gibt dann ATI nicht einfach eine offizielle und vor allem eindeutige Erklärung ab?

Schlechte News/Ereignisse bleiben nämlich einfach länger im Gedächtnis wie man am NV30 sieht: Immer und immer wieder wird er wegen seiner schlechten Performance unter DX9 und die wahnsinnige Verspätung aufgewärmt.

r3ptil3
2005-06-22, 10:42:33
']Sagt wer? G70 ist ein Refresh vom NV40, da holt man nicht mehr viel raus.

R420 -> R480 das ist ein Refresh. NV40 -> G70 ist eher ein grösserer Refresh (wobei man es nicht eigentlich nicht Refresh nennt), da am Chip deutlich viel Sachen verändert worden sind. Da ja jede neue Grafikkarten Generation von der alten abstammt und nicht nur wenn ein neues Shader Model kommt, wow eine Neuentwicklung. (Man kann auch "fast" sagen Neuenticklung)

Gast
2005-06-22, 10:45:24
So ist es.
Warum können/wollen einige hier nicht begreifen, dass ATI auf schnelleren Speicher wartet, damit der R520 nicht verhungert...

Auf welchen? 700MHz? 800MHz?

robbitop
2005-06-22, 11:02:32
Nix da. NV3X hat auch nicht mehr Interpolatoren als jede andere 2.X Karte auch. Entsprechend nutz Farcry auch den 2X Pfad für einen NV3X.
Du hast mich damals darüber informiert, dass NV3x dank deinem DXTweaker auf dem SM3 Pfad läuft. Und IIRC hat meine NV36 dies auch fehlerfrei gemacht.

Demirug
2005-06-22, 11:06:49
Du hast mich damals darüber informiert, dass NV3x dank deinem DXTweaker auf dem SM3 Pfad läuft. Und IIRC hat meine NV36 dies auch fehlerfrei gemacht.

Das war zu dem Zeitpunkt als es nur einen SM3 Pfad gab (der wieder zurückgezogene Patch). Der Tweaker hat diesen auf einen 2A Pfad konvertiert. Die SM3 Shader die alle Interpolatoren benutzt haben hätte er allerdings nicht korrekt konvertiert. Dafür wäre wieder Multipass nötigt gewesen. Allerdings habe ich keine Stelle gefunden an der ein solcher Shader überhaupt zum Einsatz gekommen wäre.

robbitop
2005-06-22, 11:12:10
Das war zu dem Zeitpunkt als es nur einen SM3 Pfad gab (der wieder zurückgezogene Patch). Der Tweaker hat diesen auf einen 2A Pfad konvertiert. Die SM3 Shader die alle Interpolatoren benutzt haben hätte er allerdings nicht korrekt konvertiert. Dafür wäre wieder Multipass nötigt gewesen. Allerdings habe ich keine Stelle gefunden an der ein solcher Shader überhaupt zum Einsatz gekommen wäre.
Achso. Danke, jetzt bin ich wieder auf dem neusten Stand.

Zu den schlechten Gerüchten:
Ich sehe sie schon als recht wahrscheinlich an, wenn man bedenkt, wie lange das erste Tapeout her ist. Anscheinend ist der Wurm in der Produktion drin.
Wie schnell G70 verfügbar zu sein scheint bei ähnlichem Tapeoutzeitpunkt (IIRC etwas später als R520), impliziert soetwas ebenfalls.
Was die Architektur angeht, gebe ich dir allerdings recht. Da ist nicht mehr als pure Spekulation ohne Indizien drin.

Johnny Rico
2005-06-22, 11:12:16
hier noch mal ein link zum nv news forum, wo einer schon 2 gtx sien eigen nennt

http://www.nvnews.net/vbulletin/showthread.php?t=52370

der benchmark, den er dort benutzt, fliegt ja förmlich im gegensatz zum ultra gespann

TheGood
2005-06-22, 11:15:48
Was ich glaube ist doch irrelevant.
Na dann sag uns doch deinen Schluss, was du aus deinen Infos gezogen hast ;)

Aber wenn ich das schon recht gesehen habe, ist das bei Ati nicht der Fall.

Winter[Raven]
2005-06-22, 11:18:30
Leute, einige haben doch schon durchsikern lassen das der R520 nicht an die Shaderperformace des G70 kommen wird, wie oft muss man es den euch noch unter die Nase binden.

Demirug
2005-06-22, 11:21:28
Na dann sag uns doch deinen Schluss, was du aus deinen Infos gezogen hast ;)

Aber wenn ich das schon recht gesehen habe, ist das bei Ati nicht der Fall.

Ich habe nichts 100% verlässliches zum R520 und da sich das was ich teilweise auch noch wiederspricht scheint mir da mindestens eine wenn nicht sogar mehrer FUD Kampagnen zu laufen. Entsprechend kann ich keine Schlüsse ziehen.

r3ptil3
2005-06-22, 11:23:37
hier noch mal ein link zum nv news forum, wo einer schon 2 gtx sien eigen nennt

http://www.nvnews.net/vbulletin/showthread.php?t=52370

der benchmark, den er dort benutzt, fliegt ja förmlich im gegensatz zum ultra gespann

Der kommt ja aus Chino :D , California, die Karte ist noch nicht mal offiziell gelauncht worden und der hat sie schon.

Diskutator
2005-06-22, 11:24:55
Wenn die Gerüchte nicht stimmen sollten, warum gibt dann ATI nicht einfach eine offizielle und vor allem eindeutige Erklärung ab?

Schlechte News/Ereignisse bleiben nämlich einfach länger im Gedächtnis wie man am NV30 sieht: Immer und immer wieder wird er wegen seiner schlechten Performance unter DX9 und die wahnsinnige Verspätung aufgewärmt.
Warum sollten Sie??? Ich bin froh das wir das nur von einem bisher so kennen!

RLZ
2005-06-22, 11:32:31
Wahrscheinlich ne dumme Frage die schon beantwortet wurde :)
Welche Modelle der 7800er wirds denn geben?
Ist auch eine leicht abgespeckte dabei, die vielleicht zu vernünftigen Preisen kaufbar ist?

mapel110
2005-06-22, 11:34:08
Wahrscheinlich ne dumme Frage die schon beantwortet wurde :)
Welche Modelle der 7800er wirds denn geben?
Ist auch eine leicht abgespeckte dabei, die vielleicht zu vernünftigen Preisen kaufbar ist?
Vorgestellt wird nur eine Karte/Chip.
Also muss man da noch genaueres abwarten, was nvidia noch plant.

TrigPe
2005-06-22, 11:38:10
Hallo,


was mich am G70 besonders beeindruckt, ist die gute Übertaktbarkeit. Damit hab ich überhaupt nicht gerechnet.


MfG

sth
2005-06-22, 11:39:03
Der kommt ja aus Chino :D , California, die Karte ist noch nicht mal offiziell gelauncht worden und der hat sie schon.
Ein Indiz dafür, dass die Karten wohl wirklich schon bei den Großhändlern liegen. Immerhin sind das (augenscheinlich) keine Samples sondern echte Retail-Karten mit Verpackung und allem Drum und Dran.

Zur Shader-Leistung des G70: :eek: UnrealEngine3 lässt grüßen!
So wie's ausschaut werde ich mir dann wohl doch eine G70 anstatt einem 6800gt-SLI-Setup zulegen nächsten Monat :D

Ich hoffe mal, dass noch mehr Hersteller Karten mit 700mhz Speicher rausbringen. 512mb-Versionen wären auch nicht schlecht, sind aber wohl jetzt zum Launch erstmal nicht zu erwarten :(

[edit]: Letze Frage hat sich gerade erledigt

Gast
2005-06-22, 11:42:02
Ein Indiz dafür, dass die Karten wohl wirklich schon bei den Großhändlern liegen. Immerhin sind das (augenscheinlich) keine Samples sondern echte Retail-Karten mit Verpackung und allem Drum und Dran.

Zur Shader-Leistung des G70: :eek: UnrealEngine3 lässt grüßen!
So wie's ausschaut werde ich mir dann wohl doch eine G70 anstatt einem 6800gt-SLI-Setup zulegen nächsten Monat :D

Ich hoffe mal, dass noch mehr Hersteller Karten mit 700mhz Speicher rausbringen. 512mb-Versionen wären auch nicht schlecht, sind aber wohl jetzt zum Launch erstmal nicht zu erwarten :(

[edit]: Letze Frage hat sich gerade erledigt

Hmm ich dachte, Nvidia würde Chip und Ram nur als Bundle verkaufen? Wenn dem nicht so ist, prima, da kann man dann vielleicht noch was erwarten, allerdigs zu gesalzenen Preisen...

Demirug
2005-06-22, 11:44:21
Hmm ich dachte, Nvidia würde Chip und Ram nur als Bundle verkaufen? Wenn dem nicht so ist, prima, da kann man dann vielleicht noch was erwarten, allerdigs zu gesalzenen Preisen...

Wenn die OEMs schnelleren Speicher direkt vom Hersteller bekommen dürfen sie diesen auch verbauen. Deswegen bei den 7800 GTXen genau hinschauen weil auch bei den Coretakten nVidia den IHVs viel Spielraum lässt.

drmaniac
2005-06-22, 11:59:56
R420 -> R480 das ist ein Refresh. NV40 -> G70 ist eher ein grösserer Refresh (wobei man es nicht eigentlich nicht Refresh nennt), da am Chip deutlich viel Sachen verändert worden sind. Da ja jede neue Grafikkarten Generation von der alten abstammt und nicht nur wenn ein neues Shader Model kommt, wow eine Neuentwicklung. (Man kann auch "fast" sagen Neuenticklung)

Dumme Frage: warum heist das Ding eig. G70 ? Warum nicht NV irgendwas ? also z.b. NV49 oder so... wenn der Nachfolger dann doch wieder NV50 heisen soll ?

:confused: :confused:

Demirug
2005-06-22, 12:00:12
Die Japaner haben es auch eillig:

http://pc.watch.impress.co.jp/docs/2005/0622/kaigai193.htm
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia.htm
http://pc.watch.impress.co.jp/docs/2005/0622/tawada54.htm

deekey777
2005-06-22, 12:01:01
Das funktioniert nur durch Erzwingen mit dem DXTweaker. Selbst auf meinem Delta Chrome und auf dem Volari ging der 2.0b Pfad. 2.0b ist eben bis auf eine größere Instruktionslänge nicht wirklich eine Innovation. Nur eine verkrampfte Reaktion auf 2.0a/3.0.

Und warum hat Cry Tek ein Rad ab? Sie nutzen die geforderten Interpolatoren aus. Ist doch nicht ihre Schuld, dass bereits soziemlich jede SM2 HW darüber verfügt.

Weil es bei meiner 9800Pro nicht funktioniert. ;(
Hast du mit Far Cry 1.2 oder 1.3 getestet?

Du hast mich damals darüber informiert, dass NV3x dank deinem DXTweaker auf dem SM3 Pfad läuft. Und IIRC hat meine NV36 dies auch fehlerfrei gemacht.

Mir ist was eingefallen: Die Jungs von Digit-Life haben den SM3.0 Pfad auch auf einer R420 laufen lassen.

Gaestle
2005-06-22, 12:06:33
Die Japaner haben es auch eillig:

http://pc.watch.impress.co.jp/docs/2005/0622/kaigai193.htm
http://pc.watch.impress.co.jp/docs/2005/0622/nvidia.htm
http://pc.watch.impress.co.jp/docs/2005/0622/tawada54.htm

Offensichtlich sind die folgenden Applikationen sehr shaderlastig...
Age of Empire3 (okay, SM3)
Joint Operations
NFS-U
SW:Battlefront

[edit] SC3 gewinnt nur im Rahmen der Füllratensteigerung (+60%), aber nicht so stark wie die oben genannten (+80-110%)... Bei SC3 bleibt unklar ob mit oder ohne HDR

Grüße

(del676)
2005-06-22, 12:08:32
http://pc.watch.impress.co.jp/docs/2005/0622/graph4.files/PCwatch_GF7800GTX_21202_image001.gif

Doom3, 1600x1200 8xS 16xAF, 60 FPS! :eek: :eek:

ShadowXX
2005-06-22, 12:12:18
Offensichtlich sind die folgenden Applikationen sehr shaderlastig...
Age of Empire3 (okay, SM3)
Joint Operations
NFS-U
SW:Battlefront

[edit] SC3 gewinnt nur im Rahmen der Füllratensteigerung (+60%), aber nicht so stark wie die oben genannten (+80-110%)... Bei SC3 bleibt unklar ob mit oder ohne HDR

Grüße

Das sollte mit HDR sein, da ich woanders schon gelesen hatte, das es mit HDR bei SC3 60%ige performancezuwächse geben soll.

DrumDub
2005-06-22, 12:15:16
die beiden mini-alus sind neu, oder?

http://pc.watch.impress.co.jp/docs/2005/0622/kaigai06l.gif

Demirug
2005-06-22, 12:16:13
die beiden mini-alus sind neu, oder?

Neu in der Zeichnung. ;)

Ronny145
2005-06-22, 12:17:44
HDR und AA zusammen ist noch nicht möglich, oder? Hoffentlich wurde auch der Stromverbrauch getestet von irgendeiner Seite. Das wäre interessant.

DrumDub
2005-06-22, 12:18:49
Neu in der Zeichnung. ;) ahh.. ok. habs auch grad bei b3d bezüglich nv40 gefunden: Each of the ALUs also have what NVIDIA describe as "mini ALU capabilities", which talking to Emmett suggests would be PS1.4 modifiers, so modifier operations could be for free in NV4x's ALUs. http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=10

ShadowXX
2005-06-22, 12:27:00
Neu in der Zeichnung. ;)

Besteht der Unterschied in der Pipe, das nun beide FPUs ADD können und nicht wie vorher nur eine der beiden??

Demirug
2005-06-22, 12:27:35
ahh.. ok.

Beim G70 ordnet nVidia die speziellen Skalarfunktionen (sqrt, ...) diesen MiniAlus zu. Vorher waren die einfach mit in der ALU bzw wurde gar nicht so direkt erwähnt.

SKYNET
2005-06-22, 12:31:45
opps testet G70:
http://www.xtremesystems.org/forums/showpost.php?p=923326&postcount=202

und er hat die dinger bisher nur wassergekühlt... ;D

Demirug
2005-06-22, 12:36:10
Besteht der Unterschied in der Pipe, das nun beide FPUs ADD können und nicht wie vorher nur eine der beiden??

Ja, das ist der primäre Unterschied.

dildo4u
2005-06-22, 12:38:35
opps testet G70:
http://www.xtremesystems.org/forums/showpost.php?p=923326&postcount=202

und er hat die dinger bisher nur wassergekühlt... ;Dhttp://www.forum-3dcenter.org/vbulletin/showthread.php?p=3175420#post3175420

dildo4u
2005-06-22, 12:40:54
Kommt auch nicht Schlecht das 7800SLI hat 200fps bei 1600*1200 8XAA ein 6800GTSLI kommt hier nur auf 107fps


http://pc.watch.impress.co.jp/docs/2005/0622/graph6.files/PCwatch_GF7800GTX_22637_image001.gif

r3ptil3
2005-06-22, 12:52:22
Selbst bei 1600x1200 mit voll aufgedehtem AA und AF über 100fps, und ohne Wundertreiber, das nenn ich mal High-End.

(del676)
2005-06-22, 12:55:32
und ned wirklich mehr ramtakt!

Gast
2005-06-22, 12:56:43
Mit neuen Treibern dürften generell wahrscheinlich noch so 5 bis 10% drin sein, in Einzelfällen sogar noch mehr.

Gast
2005-06-22, 12:59:46
wenn ich das alles so sehe, dann müssen meine beiden 6800U wohl weg.

mapel110
2005-06-22, 13:00:00
Gibts immernoch keine Farcry-HDR-Benchmarks? :(
Das wäre so ziemlich das Erste, was ich testen würde mit der neuen Karte.

r3ptil3
2005-06-22, 13:04:11
Gibts immernoch keine Farcry-HDR-Benchmarks? :(
Das wäre so ziemlich das Erste, was ich testen würde mit der neuen Karte.

Darauf warte ich auch SCCT und F.C. HDR Benchs, da dürfte die 7800 GTX weit vorne liegen mit sehr akzeptablen FPS Werten.

Demirug
2005-06-22, 13:04:58
Gibts immernoch keine Farcry-HDR-Benchmarks? :(
Das wäre so ziemlich das Erste, was ich testen würde mit der neuen Karte.

Farcry scheint wohl wieder mal Probleme zu machen weil es den neuen Chip nicht kennt.

dildo4u
2005-06-22, 13:06:12
Darauf warte ich auch SCCT und F.C. HDR Benchs, da dürfte die 7800 GTX weit vorne liegen mit sehr akzeptablen FPS Werten.

SCCT ist 60% Schneller Laut nvidia

http://pc.watch.impress.co.jp/docs/2005/0622/nvidia_3.jpg

deekey777
2005-06-22, 13:07:42
Farcry scheint wohl wieder mal Probleme zu machen weil es den neuen Chip nicht kennt.

Auch mit dem neusten Patch 1.32?
Wenn dieser Probleme mit ATis neuer SM 3.0 HW beseitigt, wäre es doch möglich, daß Far Cry auch die G70 kennt. Kann man dies bei Far CRy irgendwo nachschauen?

Wobei:
Wenn man im CGPShaders Ordner eine Textdatei mit diesen Worten "This text file was placed here during the cache of CG vertex shaders" findet...
:confused:

r3ptil3
2005-06-22, 13:08:42
Farcry scheint wohl wieder mal Probleme zu machen weil es den neuen Chip nicht kennt.

Patch 1.32 für Far Cry
"-Ein Problem mit Shader Model 3.0 wurde beseitigt, das dazu führte, dass bei neuerer ATI-Hardware Grafikfehler auftraten.
-
Das Spiel erkennt jetzt beim Start nVidia-Hardware und vermeidet so eine Shader-Kompilierung zum falschen Zeitpunkt."

Demirug
2005-06-22, 13:13:26
Auch mit dem neusten Patch 1.32?
Wenn dieser Probleme mit ATis neuer SM 3.0 HW beseitigt, wäre es doch möglich, daß Far Cry auch die G70 kennt. Kann man dies bei Far CRy irgendwo nachschauen?

Wobei:
Wenn man im CGPShaders Ordner eine Textdatei mit diesen Worten "This text file was placed here during the cache of CG vertex shaders" findet...
:confused:

Mit dem neuen Patch wohl schon aber den dürfte kaum einer der Reviewer schon zur Verfügung gehabt haben.

9800ProZwerg
2005-06-22, 13:14:00
opps testet G70:
http://www.xtremesystems.org/forums/showpost.php?p=923326&postcount=202

und er hat die dinger bisher nur wassergekühlt... ;D

Wie kommt der bitte bei 3dmark03 auf 35000 Points :eek: :eek: :eek:


So langsam drehen sich die Benches zum positiven für die 7800GTX! :smile:

Gast
2005-06-22, 13:14:39
Selbst den ergebnissen nVidia's nach zu urteilen (ja, ich weiß, die stammen vom chiphersteller selbst *hust* :), bringt der neue bei Farcry gerade mal um die 35% extra performance, und ich glaube nicht daß nVidia Farcry in die graphik aufgenommen hätte wenn es nicht gut genug (bzw. so gut wie möglich) laufen würde, weil die performancevergleiche von den herstellern selbst ja immer den optimalfall darstellen sollen.

SKYNET
2005-06-22, 13:15:01
Mit dem neuen Patch wohl schon aber den dürfte kaum einer der Reviewer schon zur Verfügung gehabt haben.


du hast noch 1h 45min. das nachzuholen. ;)

dildo4u
2005-06-22, 13:15:17
Wie kommt der bitte bei 3dmark03 auf 35000 Points :eek: :eek: :eek:


:
2X7800 im SLI und ein FX55@3.6Ghz müsten dafür schon reichen ;)

r3ptil3
2005-06-22, 13:19:33
2X7800 im SLI und ein FX55@3.6Ghz müsten dafür schon reichen ;)


:eek: , FX-55 mit 3.6ghz! Und in Aquamark 200k oder wie?

Demirug
2005-06-22, 13:19:39
du hast noch 1h 45min. das nachzuholen. ;)

Ich habe doch überhaupt keine Karte. Ich habe mit dem 3dcenter Review nichts zu tun. Ich bin lediglich beim Technik Teil der PCGH involviert.

mapel110
2005-06-22, 13:19:51
du hast noch 1h 45min. das nachzuholen. ;)
Leonidas bencht, nicht Demirug.

DrumDub
2005-06-22, 13:20:05
2X7800 im SLI und ein FX55@3.6Ghz müsten dafür schon reichen ;) tjo, so langsam ist auch der 3dmark03 cpu limitiert... ;)

deekey777
2005-06-22, 13:20:05
Mit dem neuen Patch wohl schon aber den dürfte kaum einer der Reviewer schon zur Verfügung gehabt haben.

Das klingt zwar hart, aber das 64bit Upgrade installiert alle Patches inkl. 1.32. Dennoch bekommt ubisoft als Publisher malwieder Tadel, denn sie entscheiden, wann ein Patch erscheint, und sie wußten, daß die G70 Vorstellung kurz bevor stand.

dildo4u
2005-06-22, 13:20:42
:eek: , FX-55 mit 3.6ghz! Und in Aquamark 200k oder wie?
Der Bencht nur Futuremark Becnhes :(

r3ptil3
2005-06-22, 13:26:11
Ist irgendwo, irgendwas über die Geforce 7800 GTX AGP bekannt?

Wallman
2005-06-22, 13:29:39
Ist irgendwo, irgendwas über die Geforce 7800 GTX AGP bekannt?

Die will ich auch und meine Ti 4200 endlich in Rente schicken ;)
Ich befürchte, dass die AGP Version allerdings noch etwas auf
sich waren lässt :(

Gast
2005-06-22, 13:30:16
']Leute, einige haben doch schon durchsikern lassen das der R520 nicht an die Shaderperformace des G70 kommen wird, wie oft muss man es den euch noch unter die Nase binden.

Weil ich in diesem Absatz eine Wortwahl traf, die keiner sachlichen Diskussion dienlich war, editiert ihn Crushi zur Abwechslung weg anstatt den ganzen Beitrag ins Nirvana zu befördern.

Zudem sind die G70 Werte zwar ok, aber es ist nun wirklich nichts spezielles mehr, das meiste sickerte lange vor der Präsentation durch.

deekey777
2005-06-22, 13:55:32
']Leute, einige haben doch schon durchsikern lassen das der R520 nicht an die Shaderperformace des G70 kommen wird, wie oft muss man es den euch noch unter die Nase binden.

Ich bin ein Brillenträger, ich finde nix, also wo?

Vielleicht lohnt es sich für mich nicht auf den R520 zu warten...

reunion
2005-06-22, 14:02:03
Ist schon bekannt, ob sich was bei den "BQ-Optimierungen" geändert wurde?
Da hinkt ja nV ATi ein bisschen hinterher.

Gaestle
2005-06-22, 14:07:05
Weil ich in diesem Absatz eine Wortwahl traf, die keiner sachlichen Diskussion dienlich war, editiert ihn Crushi zur Abwechslung weg anstatt den ganzen Beitrag ins Nirvana zu befördern.


Da macht sich aber jemand Mühe ;D :up:

Grüße

9800ProZwerg
2005-06-22, 14:11:45
Sorry, aber 35000Points bei 03 ist einfach SICK ;D !!!
3dmark03 hin oder her!

dildo4u
2005-06-22, 14:20:22
Bei Tbreak wird das 6800GT sli bei jedem game außer doom3 von der 7800 zerstört HL2 Farcry UT2004.

Far Cry HOC Archive (1600x1200: 4x AA/16x AF)
Product Score
Higher is better>>>
Difference
nVidia 7800GTX 67.09
ASUS 6800GT SLI 48.62
HIS x850XT 44.70
nVidia 6800 Ultra 37.41

Half Life 2 Guru3D Demo5 (1600x1200: 4x AA/16x AF)
Product Score
Higher is better>>>
Difference
nVidia 7800GTX 128.30
ASUS 6800GT SLI 113
HIS x850XT 94.20
nVidia 6800 Ultra 74.80

UT 2004 Icetomb (1600x1200: 4x AA/16x AF)
Product Score
Higher is better>>>
Difference
nVidia 7800GTX 169.59 :eek:
HIS x850XT 103
nVidia 6800 Ultra 50.97
ASUS 6800GT 49.05
ASUS 6800GT SLI 46.39

http://www.tbreak.com/reviews/article.php?cat=Mobility&id=384&pagenumber=10

reunion
2005-06-22, 14:22:29
UT 2004 Icetomb (1600x1200: 4x AA/16x AF)
Product Score
Higher is better>>>
Difference
nVidia 7800GTX 169.59 :eek:
HIS x850XT 103
nVidia 6800 Ultra 50.97
ASUS 6800GT 49.05
ASUS 6800GT SLI 46.39

http://www.tbreak.com/reviews/article.php?cat=Mobility&id=384&pagenumber=10

Was ist der Grund für die niedrigen Werte des NV40?

dildo4u
2005-06-22, 14:26:08
Was ist der Grund für die niedrigen Werte des NV40?
Das lvl ist extrem aufwendig und da hat eine 6800U mit dem AF zu Kämpfen zieht extrem Performacne.Ist aber auch die einzige map wo das so extrem ist


http://dx.ampednews.com/images/content/6/content/0054/Icetomb.jpg

CompEx
2005-06-22, 14:26:19
Was ist der Grund für die niedrigen Werte des NV40?

Vielleicht die Treiber: die 7800 wurde mit 77.62, die 6800U mit 71.84 getestet.

DrumDub
2005-06-22, 14:42:00
Was ist der Grund für die niedrigen Werte des NV40? öhmm... funktioniert überhaupt sli bei ut 2004? das sieht mit bei den werten von den beiden 6800gts nämlich nicht danach aus.

reunion
2005-06-22, 14:43:19
öhmm... funktioniert überhaupt sli bei ut 2004? das sieht mit bei den werten von den beiden 6800gts nämlich nicht danach aus.


Sieht nicht so aus - aber auch die Werte einer Karte sind viel zu niedrig.

Blaire
2005-06-22, 14:43:19
Beim Tester sicher nicht. Traurig...

Godmode
2005-06-22, 14:50:00
Beim Tester sicher nicht. Traurig...

Und solche Tester bekommen Karten, zzz

edit: vielleicht gibts ja dann heute auch ein paar Benches zum R520!

mapel110
2005-06-22, 14:51:54
http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html
Also doch 302 Mio Transistoren. Hätt ich nicht gedacht.

deekey777
2005-06-22, 14:52:05
Und solche Tester bekommen Karten, zzz

edit: vielleicht gibts ja dann heute auch ein paar Benches zum R520!

Oder lustige ATi Folien. ;D

reunion
2005-06-22, 14:52:06
Er hat drei unterschiedliche NV40 Konfigurationen - ich denke also nicht, dass die Werte falsch sind. Zumindest sind sie reproduzierbar.

Godmode
2005-06-22, 14:53:56
http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html
Also doch 302 Mio Transistoren. Hätt ich nicht gedacht.


hättest du mehr gedacht?

mapel110
2005-06-22, 14:55:12
hättest du mehr gedacht?
eher doch etwas weniger.

Godmode
2005-06-22, 14:58:24
eher doch etwas weniger.

300 Mio auf 430MHz und dann noch Singleslot Kühlung ist schon beeindruckend!

Ich wette wenn bei Alternate.de der Countdown zu Ende ist geht die Welt unter ;D

Gast
2005-06-22, 14:59:55
http://graphics.tomshardware.com/graphic/20050621/nvidia_7800-01.html
Also doch 302 Mio Transistoren. Hätt ich nicht gedacht.

Core clock/ memory clock: 430 MHz/600 MHz with support for overclocking

Hä? Also werden 'Quasi-Ultras' also doch inoffiziell unterstützt oder wie soll man das verstehen?

Demirug
2005-06-22, 15:00:03
Dort geht es weiter:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=230757

Crushinator
2005-06-22, 15:00:35
eher doch etwas weniger.
Wenn die Marketingabteilung hohe Zahlen für die Werbung braucht, wird alles gezählt was bei drei nicht vom Wafer gehüpft ist.... © by ShadowXX X-D

Ronny145
2005-06-22, 15:02:54
Ich wette wenn bei Alternate.de der Countdown zu Ende ist geht die Welt unter ;D

Karten von Asus, MSI, Gigabyte und XFX sind dort schon auf Lager.

MarcWessels
2005-06-22, 15:19:37
Nutzt F.E.A.R recht viele Shader oder warum ist die GTX dort so überlegen?

Die Frameraten im Allgemeinen bei F.E.A.R. erschrecken mich aber. Wenn ein 6800U-Gespann @1600x1200 4xAA 16xAF nur ein wenig über 20fps durchschnittlich schafft, was schafft dann eine einzelne Karte wohl in 1024x768 1xAA 16xAF - wohl nicht viel mehr als im besten Falle 40fps durchschnittlich, oder? :|

Wie's scheint, "braucht" man bei FEAR also wohl ein 6800GTX-Gespann, wenn man grundsätzlich eine durchschnittliche Framerate von 100fps beansprucht.

Mir war auch überhaupt nicht bewußt, wie lahmarschig eine 6800U bei NFS:U2 ist; oder ist das nur bei gleichzeitig aktiviertem AA der Fall? :|

mapel110
2005-06-22, 15:19:47
Dort geht es weiter:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=230757
Jo, machen wir den Speku-Thread dicht. Den brauchts nicht mehr.