PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12

robbitop
2004-04-25, 20:27:22
aths hat gerade erst berichtet, dass es für 3dc keines geben wird...aber wer weiss vieleicht hat sich das ja geändert.
Man braucht allerdings kein Sample oder ein Review, um ein NDA zu unterschreiben.

Godmode
2004-04-25, 20:38:15
Glaubt ihr eigentlich daran, dass ATI einen 8X RGMSAA-Modi bieten wird?

Und ist sowas aufwendig zu implementieren? 6X haben sie ja schon!

Exxtreme
2004-04-25, 20:40:57
Original geschrieben von bans3i
Glaubt ihr eigentlich daran, dass ATI einen 8X RGMSAA-Modi bieten wird?

Und ist sowas aufwendig zu implementieren? 6X haben sie ja schon!
Ich halte es für unwahrscheinlich. Erstens ist der 6x-Modus der Konkurrenz weit überlegen. Und für 8x AA reicht wohl die Banbreite nicht ganz um schnell zu sein.

deekey777
2004-04-25, 21:36:32
Original geschrieben von Exxtreme
... Erstens ist der 6x-Modus der Konkurrenz weit überlegen. ...

"Benzin ins Feuer du gießt,"- sagt Yoda. ;D

Quasar
2004-04-25, 21:51:13
Original geschrieben von Exxtreme
Ich halte es für unwahrscheinlich. Erstens ist der 6x-Modus der Konkurrenz weit überlegen. Und für 8x AA reicht wohl die Banbreite nicht ganz um schnell zu sein.
Jaaaaaaaa, aber!
Bis vor drei Wochen wußte man nicht mit letzter Sicherheit, ob und was nV am FSAA ändert - "Schätzen Sie, Mr. Spock!" ;)
Wenn ich ATi wäre, hätte ich rein zur Sicherheit ein 8x-Grid aktiviert, denn daß nV ebenfalls ein gutes 6xAA bietet, davon war kaum auszugehen. 8x wäre vermutlich eher "drin" gewesen im Konzept.


Und die Bandbreite reicht schon, man muss nur abwägen. So schnell wie das jetzige 6xAA wird es in niedrigen Auflösungen mit Sicherheit sein können.

betasilie
2004-04-25, 23:40:02
Original geschrieben von Ailuros
R500? Im Herbst? :lolaway:

Viel lustiger war der Folgeteil:
Original geschrieben von Exxtreme
... Und wenn nicht, dann nehme ich das fortschrittlichste Refreshprodukt.
:loaway: :bigl:

Dalai-lamer
2004-04-25, 23:48:15
ATHS logg dich als Gast ein und verbreite es als gerücht, oder ist sowas auch verboten ?
nenn den thread: "Alles nur Gerüchte" :p

Ich hoffe das sich Nvidia und Ati die Waage halten, ist doch alles super gelaufen oder ? Ati verschwindet nicht im Schuldensumpf und Nvidia hat endlich mal Konkurrent und schlummert nciht vor sich hin.

Radeonator
2004-04-25, 23:52:52
Kommt die Kartenvorstellung nu Morgen ???

-error-
2004-04-26, 01:39:16
Original geschrieben von Radeonator
Kommt die Kartenvorstellung nu Morgen ???

Leider nein.

Gast
2004-04-26, 07:51:00
Hi,

ich bin mal gespannt auf:

1. Pixel Fill Rate
2. Shader Processing
3. Vertex Processing

im Vergleich zum NV40!

Sunrise
2004-04-26, 11:01:10
Original geschrieben von Gast
Hi,

ich bin mal gespannt auf:

1. Pixel Fill Rate
2. Shader Processing
3. Vertex Processing

im Vergleich zum NV40!
1. Tie/Win (je nach Modell)
2. Win
3. Win
+
4. 2 neue "nette" Features
5. sehr geringe Verlustleistung (Core+GDDR3)

- alles nur Spekulation.

LovesuckZ
2004-04-26, 11:02:54
Original geschrieben von Sunrise
1. Tie/Win (je nach Modell)
2. Win
3. Win


1. :???:
2. :???:
3. wird wohl so sein.

nagus
2004-04-26, 11:08:28
"Still much faster than nV when running full precision shaders in the vast majority of cases; sometimes by ~100% in synthetic benchmarks (and that's just the X800 Pro, heh). How's that?"

by MuFu (beyond 3d)


:O :O :O

Exxtreme
2004-04-26, 11:09:23
Original geschrieben von nagus
"Still much faster than nV when running full precision shaders in the vast majority of cases; sometimes by ~100% in synthetic benchmarks (and that's just the X800 Pro, heh). How's that?"

by MuFu (beyond 3d)


:O :O :O
Guuut. :D So gefällt mir das. =) Hoffentlich stimmt das auch.

Gast
2004-04-26, 11:13:36
Original geschrieben von nagus
"Still much faster than nV when running full precision shaders in the vast majority of cases; sometimes by ~100% in synthetic benchmarks (and that's just the X800 Pro, heh). How's that?"

by MuFu (beyond 3d)


:O :O :O

Gibt es eine genaue Quelle dazu?!

Sunrise
2004-04-26, 11:18:31
Original geschrieben von Gast
Gibt es eine genaue Quelle dazu?!
Bei MuFu würde ich nicht nach Quellen fragen, er ist einer der Wenigen denen man trauen kann. Er weiß diesmal auch noch deutlich mehr als er postet, zumindest was den R420 betrifft.

seahawk
2004-04-26, 11:19:06
Original geschrieben von Exxtreme
Guuut. :D So gefällt mir das. =) Hoffentlich stimmt das auch.

Bei MuFu hat das schon mehr Glaubwürdigkeit als bei Hellbinder.

Nächste Woche kehrt der König zurück auf den Thron.

LovesuckZ
2004-04-26, 11:20:23
Die frage ist, unterwelchen Bedingungen die werte ermitteln wurden.
Diese polnische Seite gab ja auch an, dass der r420 unter TR6 mit AA+AF 70% schneller waere als der NV40...

deekey777
2004-04-26, 11:26:03
In TR6 ist selbst eine 9800XT unerreichbar... Besonders mit HH, Glow und Depth of Fields (oder so ähnlich). Im Ernst: Abwarten, Tee trinken und sich über die diesjährliche F1 Saison aufregen.

Gast
2004-04-26, 11:26:58
Original geschrieben von LovesuckZ
Die frage ist, unterwelchen Bedingungen die werte ermitteln wurden.
Diese polnische Seite gab ja auch an, dass der r420 unter TR6 mit AA+AF 70% schneller waere als der NV40...

Würde mich auch interessieren.

Vielleicht hat ja ATI das erhoffte 8xAA in den Chip implementiert und dieses wurde gegen das 8xAA des NV40 verglichen?!

seahawk
2004-04-26, 11:28:34
http://www.beyond3d.com/forum/viewtopic.php?t=11836&postdays=0&postorder=asc&start=0

War sowieso eher ein Joke von MuFu. Allerdings erwartet eher wohl eine Verbesserung beim AA.

Ailuros
2004-04-26, 11:33:40
Also ich moechte ja nicht die vorzeitige Freude hier verpatzen, aber wen zum Henker interessiert TR:AoD ueberhaupt?

Still much faster than nV when running full precision shaders in the vast majority of cases; sometimes by ~100% in synthetic benchmarks (and that's just the X800 Pro, heh). How's that?

Nur gibt es keinen Grund um fair zu bleiben den NV40 unter allen Bedingungen volle Praezision zu erzwingen.

Leistungsvergleiche geben dann immer noch fragliche Resultate da es sich wohl auch um hoehere interne Praezision handelt. Nicht schon wieder diese alberne FP24/FP32 Debatte bitte.....

Gast
2004-04-26, 11:33:41
Hier ein paar Infos zur Messe, bei welcher der R420 wohl vorgestellt wird:

http://www.ati.com/companyinfo/events/winhec/index.html

deekey777
2004-04-26, 11:39:18
Original geschrieben von Ailuros
Also ich moechte ja nicht die vorzeitige Freude hier verpatzen, aber wen zum Henker interessiert TR:AoD ueberhaupt?
...

TR:AoD ist immernoch das DX9 Hardcore Game überhaupt. Selbst FC ist da nur eine DX7 Demo. Oder so...
Es gibt keinen einzigen Test mit TR6, wo alle zusätzlichen Effekte beim Testen aktiviert wurden.

deekey777
2004-04-26, 11:41:21
Original geschrieben von Gast
Vielleicht hat ja ATI das erhoffte 8xAA in den Chip implementiert und dieses wurde gegen das 8xAA des NV40 verglichen?!
Passt wie aufs Auge:

Original geschrieben von Exxtreme
Ich halte es für unwahrscheinlich. Erstens ist der 6x-Modus der Konkurrenz weit überlegen. Und für 8x AA reicht wohl die Banbreite nicht ganz um schnell zu sein.

Kleiner Nachtrag: Wenn wir so weiter machen, dann überholt dieser Thread den NV40 Speku Thread noch bevor der R420 vorgestellt wird!!! ;D ;D ;D

Gast
2004-04-26, 11:42:06
Seriously though, R420/R423 sound great - the FSAA, in particular, is intriguing. I suspect nV will need a 16 pipe NV4x at 500MHz+ to remain competetive with the fastest XT variant (in DX9 titles, at least) and even then, people with 15-18" LCDs will have a very easy choice favouring the latter, IMHO.

by MuFu (diesmal kein Scherz)

http://www.beyond3d.com/forum/viewtopic.php?t=11836&postdays=0&postorder=asc&start=20&sid=a110d4c97088c25c03f1100384c152b3

Nach diesem Post könnte man annehmen, dass die 6800Ultra vielleicht auf Niveau der 800Pro liegt und die 800XT noch (etwas) schneller ist (+25% oder mehr).

LovesuckZ
2004-04-26, 11:43:34
Original geschrieben von Gast
Nach diesem Post könnte man annehmen, dass die 6800Ultra vielleicht auf Niveau der 800Pro liegt und die 800XT noch (etwas) schneller ist (+25% oder mehr).

Ich denke, dass die 6800U ca. 10% schneller als die Pro ist und zwischen 10-15% hinter der 800XT zurueckliegen wird.

Ailuros
2004-04-26, 11:44:05
Original geschrieben von deekey777
TR:AoD ist immernoch das DX9 Hardcore Game überhaupt. Selbst FC ist da nur eine DX7 Demo. Oder so...
Es gibt keinen einzigen Test mit TR6, wo alle zusätzlichen Effekte beim Testen aktiviert wurden.

TR:AoD ein dx9 und dazu noch Hardcore (DX9) Spiel? :lolaway:

Also bitte was immer FC oder andere Spiele betrifft, gilt genauso fuer TR:AoD. Dabei ist der Grad der benutzten oder moeglichen dx9.0 Effekte egal, wenn die Basis des Spiels auch nicht wirklich hoeher als dx7.0 geht.

Auf was ich uebrigens hinaus wollte, ist dass mir TR:AoD total schnuppe ist, weil fuer mich das Spiel nichts wert ist und das hat nichts mit ein paar verstreuten Effekten zu tun.

Gast
2004-04-26, 11:45:11
Original geschrieben von Gast
Seriously though, R420/R423 sound great - the FSAA, in particular, is intriguing. I suspect nV will need a 16 pipe NV4x at 500MHz+ to remain competetive with the fastest XT variant (in DX9 titles, at least) and even then, people with 15-18" LCDs will have a very easy choice favouring the latter, IMHO.

by MuFu (diesmal kein Scherz)

http://www.beyond3d.com/forum/viewtopic.php?t=11836&postdays=0&postorder=asc&start=20&sid=a110d4c97088c25c03f1100384c152b3

Nach diesem Post könnte man annehmen, dass die 6800Ultra vielleicht auf Niveau der 800Pro liegt und die 800XT noch (etwas) schneller ist (+25% oder mehr).

Bezüglich des FSAA könnte auch das 8xAA gemeint sein. Auf der Qualitätsseite ist es fantastisch und auf der Performanceseite wohl eher nicht.

Sunrise
2004-04-26, 11:49:09
Original geschrieben von Ailuros
...
Nur gibt es keinen Grund um fair zu bleiben den NV40 unter allen Bedingungen volle Praezision zu erzwingen.

Leistungsvergleiche geben dann immer noch fragliche Resultate da es sich wohl auch um hoehere interne Praezision handelt. Nicht schon wieder diese alberne FP24/FP32 Debatte bitte.....
AiL, er schrieb: "full precision shaders".

This is not connected to FP24/FP32 in this particular case, he probably meant "heavy 2.0 shader usage", which in itself hints to FC, TR and heavily shaderlimited games (if you turn on all the eye-candy).

Die FP24/32-Diskussion ist müßig, und die sollte eigentlich auch längst vom Tisch sein.

Ailuros
2004-04-26, 11:50:20
Original geschrieben von Gast
Bezüglich des FSAA könnte auch das 8xAA gemeint sein. Auf der Qualitätsseite ist es fantastisch und auf der Performanceseite wohl eher nicht.

Leistung waere auf NV40 auch nicht besser gewesen, wenn sie einen 8xRGMS haetten.

Wo MuFu absolut recht hat, ist dass sich LCD User mit mittlerer nativen Aufloesung guten Grund haben werden, sich ueber einen sehr hohen sampling grid zu freuen.

Ailuros
2004-04-26, 11:51:39
Original geschrieben von Sunrise
AiL, er schrieb: "full precision shaders".

This is not connected to FP24/FP32 in this particular case, he probably meant "heavy 2.0 shader usage", which in itself hints to FC, TR and heavily shaderlimited games (if you turn on all the eye-candy).

Die FP24/32-Diskussion ist müßig, und die sollte eigentlich auch längst vom Tisch sein.

Und was heisst bei Dir full precision shaders nun mal jetzt genau?

Sunrise
2004-04-26, 11:55:44
Original geschrieben von Ailuros
Und was heisst bei Dir full precision shaders nun mal jetzt genau?
1.1 -> 2.0
minimum -> full precision

- Präzision ist von MuFu allerdings ungeschickt gewählt, aber es ist der Gedanke der zählt.

Gast
2004-04-26, 12:01:33
Original geschrieben von Ailuros
Leistung waere auf NV40 auch nicht besser gewesen, wenn sie einen 8xRGMS haetten.

Wo MuFu absolut recht hat, ist dass sich LCD User mit mittlerer nativen Aufloesung guten Grund haben werden, sich ueber einen sehr hohen sampling grid zu freuen.

Aber beim 8xAA des NV40 zieht der SS-Anteil enorm Leistung.
Beim 8xAA des R420 (wenn es kommt) kann man wohl von reinem MS ausgehen.

deekey777
2004-04-26, 12:06:06
Original geschrieben von Ailuros
TR:AoD ein dx9 und dazu noch Hardcore (DX9) Spiel? :lolaway:

Also bitte was immer FC oder andere Spiele betrifft, gilt genauso fuer TR:AoD. Dabei ist der Grad der benutzten oder moeglichen dx9.0 Effekte egal, wenn die Basis des Spiels auch nicht wirklich hoeher als dx7.0 geht.

Auf was ich uebrigens hinaus wollte, ist dass mir TR:AoD total schnuppe ist, weil fuer mich das Spiel nichts wert ist und das hat nichts mit ein paar verstreuten Effekten zu tun.

Woran liegt es: Daran, dass TR6 ein sehr schlechtes Spiel ist oder daran, dass TR6 bis auf die 6800 Ultra( vielleicht auch nicht) auf keiner DX9 NV mit allen DX9-"Eye Candies" vernünftig läuft?

Ailuros
2004-04-26, 12:07:09
Original geschrieben von Sunrise
1.1 -> 2.0
minimum -> full precision

- Präzision ist von MuFu allerdings ungeschickt gewählt, aber es ist der Gedanke der zählt.

Praezision hat nichts mit der Anzahl von Anweisungen zu tun.

Der ganze Kommentar ist ungeschickt gewaehlt von MuFu, wenn er nur ein paar posts weiter unten die Perspektive dramatisch aendert und es mit AA Implementationen zu verdecken scheint.

Ich glaube erstmal ueberhaupt nicht dass R420 um 100% schneller ist mit "wasauchimmer" in TR:AoD. Das Prozentual ist mir zu hoch.

Exxtreme
2004-04-26, 12:07:28
Original geschrieben von Gast
Aber beim 8xAA des NV40 zieht der SS-Anteil enorm Leistung.

Ich gehe eher davon aus, daß beim NV40 die Bandbreite ausgeht wenn man 8x AA aktiviert. Dieser ist nämlich kaum schneller als ein NV35 bei 8x AA.

Ailuros
2004-04-26, 12:09:09
Original geschrieben von Gast
Aber beim 8xAA des NV40 zieht der SS-Anteil enorm Leistung.
Beim 8xAA des R420 (wenn es kommt) kann man wohl von reinem MS ausgehen.

Wobei es wuenschenswert waere dass auch R420 entweder hybride MS/SSAA modi oder auch nur einfache OGSS Unterstuetzung haette. Zwar etwas irrelevant zum obrigen, aber ich sehe NV's hybride modi weder als nutzlos noch als Nachteil an.

Ailuros
2004-04-26, 12:12:13
Original geschrieben von deekey777
Woran liegt es: Daran, dass TR6 ein sehr schlechtes Spiel ist oder daran, dass TR6 bis auf die 6800 Ultra( vielleicht auch nicht) auf keiner DX9 NV mit allen DX9-"Eye Candies" vernünftig läuft?

TR:AoD ist fuer mich genauso interessant als Spiel wie DroneZ.

Mich interessieren nur Spiele persoenlich, die ich auch spielen werde und da sprechen mich Spiele wie Half Life 2 als Beispiel besser an.

Marketing Firlefanz und "preference driven agendas" sind mir auch gleichgueltig.

Ailuros
2004-04-26, 12:18:28
Mal was anderes: soll die X800PRO nicht auch einen MSRP von 399$ haben oder hab ich was falsch verstanden?

Wenn ja dann sollte den Verbraucher wohl eher das Preis/Leistungsverhaeltnis jeglicher Loesung interessieren. Was ich hiermit meine ist dass es wohl wichtiger sein sollte was man fuer "X" Preis an Leistung bekommt und nicht mit so und so vielen SIMDs.

Sunrise
2004-04-26, 12:20:45
Original geschrieben von Ailuros
Praezision hat nichts mit der Anzahl von Anweisungen zu tun.

-> eben deshalb ist das Wort Präzision ungeschickt gewählt, steht schon seit dem 1. Post eindeutig lesbar in meinem Text. Etwas nervös heute ? Bist doch sonst nicht so :)

Original geschrieben von Ailuros
Ich glaube erstmal ueberhaupt nicht dass R420 um 100% schneller ist mit "wasauchimmer" in TR:AoD. Das Prozentual ist mir zu hoch.

100% erscheint mir auf den ersten Blick (vs. NV40) auch deutlich zu hoch, das schließt aber Extremsituationen nicht aus.

deekey777
2004-04-26, 12:26:38
Original geschrieben von Ailuros
TR:AoD ist fuer mich genauso interessant als Spiel wie DroneZ.

Mich interessieren nur Spiele persoenlich, die ich auch spielen werde und da sprechen mich Spiele wie Half Life 2 als Beispiel besser an.

Marketing Firlefanz und "preference driven agendas" sind mir auch gleichgueltig.

TR6 als Spiel interessiert mich noch weniger. Dennoch war es gerade TR6 als erstes "Real DX9 Game", welches zeigte, dass die PS 2.0 Leistung der FXen (vor dem 50er) nicht gerade das "Rosa" vom Ei war bzw. die Performance mit zusätzlich aktivierten DX9-Effekten (auch nach dem 50er) immernoch katastrophal ist, was ein sehr schlechtes Omen gerade für HL2 ist. Keine HW-Seite hat die 6800 Ultra auch mit TR6 getestet - unter Einsatz aller PS 2.0 lastigen Effekte.

Demirug
2004-04-26, 12:28:48
Und was hat jetzt die Shaderleistung mit AA zu tun?

Natürlich kann einem bei kurzen Shader oder texturlastigen Shader die Bandbreite ausgehen aber in einem solchen Fall wird vorhandene Shaderleistung eben nur nicht genutzt.

Ailuros
2004-04-26, 12:41:48
Original geschrieben von deekey777
TR6 als Spiel interessiert mich noch weniger. Dennoch war es gerade TR6 als erstes "Real DX9 Game", welches zeigte, dass die PS 2.0 Leistung der FXen (vor dem 50er) nicht gerade das "Rosa" vom Ei war bzw. die Performance mit zusätzlich aktivierten DX9-Effekten (auch nach dem 50er) immernoch katastrophal ist, was ein sehr schlechtes Omen gerade für HL2 ist. Keine HW-Seite hat die 6800 Ultra auch mit TR6 getestet - unter Einsatz aller PS 2.0 lastigen Effekte.

Keine Ahnung was fuer settings um ehrlich zu sein:

http://www.xbitlabs.com/articles/video/display/nv40_34.html

http://www.xbitlabs.com/articles/video/display/nv40_29.html

http://www.xbitlabs.com/articles/video/display/nv40_30.html

Nach xbit-labs:

As usual, we set up the highest graphics quality settings in each game. During our tests, we encountered two cases of incorrect image reproduction, in Far Cry and Command & Conquer: generals, we’ll discuss them in the corresponding sections of the review.

http://www.xbitlabs.com/articles/video/display/nv40_22.html

Beyond3D:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=25

game settings:

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=14

und fuer TR:AoD spezifisch:

http://www.beyond3d.com/downloads/traod/

deekey777
2004-04-26, 12:46:04
Original geschrieben von Demirug
Und was hat jetzt die Shaderleistung mit AA zu tun?

...


Klugscheissermodus (wie immer) an:

Bei dieser offensichtlich rhetorisch gestellten Frage fragt man sich, was Du uns damit sagen willst.

Ailuros
2004-04-26, 12:47:35
Original geschrieben von Sunrise
Etwas nervös heute ? Bist doch sonst nicht so :)


Nein. Manche Reaktionen koennten als "semi-aggressiv" interpretiert werden, aber ist es nicht so.

Und was hat jetzt die Shaderleistung mit AA zu tun?

Natürlich kann einem bei kurzen Shader oder texturlastigen Shader die Bandbreite ausgehen aber in einem solchen Fall wird vorhandene Shaderleistung eben nur nicht genutzt.

Gar nichts. Deshalb sieht MuFu's Geblubber im spezifischen Thread auch so sinnlos aus.

aths
2004-04-26, 13:09:14
Original geschrieben von Quasar
Wenn ich ATi wäre, hätte ich rein zur Sicherheit ein 8x-Grid aktiviert Um 8x "aktivieren" zu können, müsste das Grid entsprechend ausgelegt sein.

ow
2004-04-26, 13:22:26
.

deekey777
2004-04-26, 13:39:50
Original geschrieben von ow
:???:

Wieso sollte man sich das bei einer (wie du wohl richtig erkannt hast) rhetorischen Frage fragen?
Eine rhetorische Frage enthaelt doch bereits implizit die Antwort.

Mit seiner rhetorischen Frage erweckte Demirug den Eindruck, dass hier einiges durcheinander gebracht wurde.

DrumDub
2004-04-26, 13:40:34
Original geschrieben von Exxtreme
Ich gehe eher davon aus, daß beim NV40 die Bandbreite ausgeht wenn man 8x AA aktiviert. Dieser ist nämlich kaum schneller als ein NV35 bei 8x AA.

wieso bandbreite? bei 2xssaa ist doch erstmal die hälfte der fillrate weg.

Ailuros
2004-04-26, 13:44:41
Original geschrieben von DrumDub
wieso bandbreite? bei 2xssaa ist doch erstmal die hälfte der fillrate weg.

8xAA bei NV3x/4x bis jetzt 4x Supersampling ja?

NV35:

450*8= 3600MTexels/sec

NV40:

400*16= 6400MTexels/sec

Mit 4xSSAA:

NV35: 900MTexels/sec
NV40: 1600MTexels/sec

Wieso ist seine Bandbreiten Theorie falsch, wenn beide etwa gleiche Leistung liefern?

LovesuckZ
2004-04-26, 13:47:40
Original geschrieben von DrumDub
wieso bandbreite? bei 2xssaa ist doch erstmal die hälfte der fillrate weg.

Beim jetzigen 8xHybidmodus wird 4xSSAA verwendet und nur 2xRGMS.
Ansonsten hat er auch bei diesem Modus einen Vorsprung von 50-100% gegenüber dem NV38: http://www.xbitlabs.com/articles/video/display/nv40_15.html

Exxtreme
2004-04-26, 13:47:46
Original geschrieben von DrumDub
wieso bandbreite? bei 2xssaa ist doch erstmal die hälfte der fillrate weg.
Der NV40 hat fast die vierfache Pixelfüllrate und die doppelte Texelfüllrate ggü. den NV35. Wenn die Bandbreite nicht limitieren würde, dann müsste der NV40 fast doppelt so schnell sein als der NV35. Ist er aber nicht, siehe das 3DC-Review. Der NV40 ist nur etwas schneller und komischerweise ist der RAM auch nur etwas schneller ggü. einer NV35-GraKa. :)

Gast
2004-04-26, 13:48:11
Original geschrieben von Ailuros
8xAA bei NV3x/4x bis jetzt 4x Supersampling ja?

NV35:

450*8= 3600MTexels/sec

NV40:

400*16= 6400MTexels/sec

Mit 4xSSAA:

NV35: 900MTexels/sec
NV40: 1600MTexels/sec

Wieso ist seine Bandbreiten Theorie falsch, wenn beide etwa gleiche Leistung liefern?

Im 3DCenter-Benchmark-Parcour gibt es aber auch Spiele bei denen der NV40 die 2fache (oder mehr) Leistung des NV35 beim Setting 3 abliefert.

LovesuckZ
2004-04-26, 13:50:09
Original geschrieben von Exxtreme
Der NV40 hat fast die vierfache Pixelfüllrate und die doppelte Texelfüllrate ggü. den NV35. Wenn die Bandbreite nicht limitieren würde, dann müsste der NV40 fast doppelt so schnell sein als der NV35. Ist er aber nicht, siehe das 3DC-Review. Der NV40 ist nur etwas schneller und komischerweise ist der RAM auch nur etwas schneller ggü. einer NV35-GraKa. :)

Vielleicht, weil der Speicher ausgeht?

reunion
2004-04-26, 13:54:03
Original geschrieben von Exxtreme
Der NV40 hat fast die vierfache Pixelfüllrate und die doppelte Texelfüllrate ggü. den NV35. Wenn die Bandbreite nicht limitieren würde, dann müsste der NV40 fast doppelt so schnell sein als der NV35.


Wenn die CPU nicht limitiert ist er das auch.


Ist er aber nicht, siehe das 3DC-Review.


Was wohl eindeutig an einer CPU-limitierung lag, Leo hat ja getestet wodurch der NV40 mehr Leistung gewinnt, durch mehr Speicher -oder mehr Chiptakt, und offensichtlich bringt Füllrate mehr...

//edit: Kommando zurück, hab gerade gelesen das ihr von SSAA geschrieben habt. :D

DrumDub
2004-04-26, 13:57:31
Original geschrieben von Exxtreme
Der NV40 hat fast die vierfache Pixelfüllrate und die doppelte Texelfüllrate ggü. den NV35. Wenn die Bandbreite nicht limitieren würde, dann müsste der NV40 fast doppelt so schnell sein als der NV35. Ist er aber nicht, siehe das 3DC-Review. Der NV40 ist nur etwas schneller und komischerweise ist der RAM auch nur etwas schneller ggü. einer NV35-GraKa. :)

mhh... ja. stimmt natürlich. der fillrate-impact ist natürlich beim nv40 nicht so tragisch, da der chip mehr als genug davon hat, wenn man von "alten" games spricht. nur wie siehts bei massivem shadereinsatz aus?

Exxtreme
2004-04-26, 14:01:01
Original geschrieben von reunion
Wenn die CPU nicht limitiert ist er das auch.



Was wohl eindeutig an einer CPU-limitierung lag, Leo hat ja getestet wodurch der NV40 mehr Leistung gewinnt, durch mehr Speicher -oder mehr Chiptakt, und offensichtlich bringt Füllrate mehr...

//edit: Kommando zurück, hab gerade gelesen das ihr von SSAA geschrieben habt. :D
CPU-limitiert... tatsächlich?

http://www.3dcenter.org/artikel/nv40_benchmarks/index19.php
http://www.3dcenter.org/artikel/nv40_benchmarks/index17.php
http://www.3dcenter.org/artikel/nv40_benchmarks/index29.php

Gast
2004-04-26, 14:03:41
Setting 3:

1. Call of Duty

1024*768
NV40 30,6
NV35 12,8

1280*1024
NV40 16,7
NV35 8,6

1600*1200
NV40 11,9
NV35 6


2. Prince of Persia: The Sands of Time

1024*768
NV40 38,6/68
NV35 21,1

1280*960
NV40 25,5/45,3
NV35 16,6

1600*1200
NV40 16,7/26,5
NV35 10,9

3. Star Trek: Elite Force II

1024*768
NV40 49,3
NV35 24,4

1280*1024
NV40 31,7
NV35 16,8

1600*1200
NV40 20,8
NV35 11,6

Ailuros
2004-04-26, 14:11:42
Original geschrieben von Gast
Im 3DCenter-Benchmark-Parcour gibt es aber auch Spiele bei denen der NV40 die 2fache (oder mehr) Leistung des NV35 beim Setting 3 abliefert.

Wieso ist seine Bandbreiten Theorie falsch, wenn beide etwa gleiche Leistung liefern?

Du kannst es auch auf "wenn und wo immer..." erweitern. Irgend etwas wird bei gleicher Leistung zwischen den Beiden schon limitieren. Wenn es nicht die CPU ist, dann bleiben nicht sehr viel Optionen uebrig.

dildo4u
2004-04-26, 18:46:07
OK take a deep cleansing breath, in and out... Think calming thoughts....

I don't know where this 26th date came from (to be honest it was never the 26th). So, you won't hear anything from anyone under NDA today. But, I don't want you to suffer unnecessarily, so here are a few details to tide you over.

1) The board is red
2) There will be an X in the name (maybe even 2)
3) You won't be disappointed in the performance
4) You will still be able to run it in your shuttle
5) It won't consume as much power the space shuttle (or a competitor's card for that matter)
6) Did I mention that the board is red?

http://69.93.88.162/forum/viewtopic.php?p=68456#68456

LovesuckZ
2004-04-26, 20:19:19
MuFu, auf die Frage, wie das AA des r420 aussehe:
Well, it's based on R3x0, so assuming similar limitations - 12x12 sparse grid (?), 6 sample positions max - how can they get higher FSAA quality? Would be a shame to waste all those excess FPS at low resolutions, huh?

http://www.beyond3d.com/forum/viewtopic.php?p=267131#267131

robbitop
2004-04-26, 20:46:13
naja 6x Sparse ist auch mehr als genug.
ich hoffe, die ROP Schwäche is behoben..

Exxtreme
2004-04-26, 20:55:40
Original geschrieben von robbitop
ich hoffe, die ROP Schwäche is behoben..
ROP-Schwäche?

Quasar
2004-04-26, 21:02:26
Alpha-Blending?
Nur 2MSAA-Einheiten?
...

Demirug
2004-04-26, 21:10:44
Original geschrieben von Quasar
Alpha-Blending?
Nur 2MSAA-Einheiten?
...

Ist beim NV40 aber auch nicht anders.

Exxtreme
2004-04-26, 21:13:41
Original geschrieben von Quasar
Alpha-Blending?

:???: Da habe ich nichts mitgekriegt. :|
Original geschrieben von Quasar
Nur 2MSAA-Einheiten?
...
Naja, ich glaube nicht, daß der R3x0 genug Bandbreite hatte um 6 AA-Samples pro Takt zu erzeugen. Von daher war es IMO eine "sinnvolle" Einsparung von Transistoren.

robbitop
2004-04-26, 21:49:52
da geb ich dir Recht exxtreme

Demirug
2004-04-26, 22:07:20
Original geschrieben von Exxtreme
:???: Da habe ich nichts mitgekriegt. :|


Die R3XX ROPs verursachen beim Alpha-Blending gerne mal 1 Bit Fehler. Liegen nun viele Alpha schichten übereinander (Rauch) kann sich das hochsummieren.

Quasar
2004-04-26, 22:50:29
Jo, so wie hier:

http://home.arcor.de/quasat/3DC-Pics/X%b2-Vergleich%20v1.1.PNG

Quasar
2004-04-26, 22:51:20
Original geschrieben von Demirug
Ist beim NV40 aber auch nicht anders.

Alpha-Blending oder 2 MSAA-Einheiten? ;)

Demirug
2004-04-27, 07:06:39
Original geschrieben von Quasar
Alpha-Blending oder 2 MSAA-Einheiten? ;)

Die 2 MSAA Einheiten.

aths
2004-04-27, 10:52:08
Original geschrieben von Quasar
Jo, so wie hier:

http://home.arcor.de/quasat/3DC-Pics/X%b2-Vergleich%20v1.1.PNG Welches Bild zeigt welche Karte? Wo sieht man die R300-Artefakte durch mehrere halbtransparente Texturschichten?

Quasar
2004-04-27, 11:37:59
Schau mal in der Nähe der jeweils unteren Pfeilspitzen (die ich i. Ü. nachträglich in das Bild eingefügt habe - es sind also keine seltsamen Rendering Artekfakte :freak: ). Zusammen mit Demirugs Aussage könntest du dann eventuell drauf kommen, wo was von wem gerendert wurde.

Gast
2004-04-27, 12:05:58
Original geschrieben von Quasar
Jo, so wie hier:

http://home.arcor.de/quasat/3DC-Pics/X%b2-Vergleich%20v1.1.PNG

So wie hier, obwohl der Shot von einer NV30 ist?

Gast
2004-04-27, 12:06:32
...diese Artefakte sieht man i.Ü. auch bei LockOn auf einer NV40...

aths
2004-04-27, 13:12:56
Original geschrieben von Quasar
Schau mal in der Nähe der jeweils unteren Pfeilspitzen (die ich i. Ü. nachträglich in das Bild eingefügt habe - es sind also keine seltsamen Rendering Artekfakte :freak: ). Zusammen mit Demirugs Aussage könntest du dann eventuell drauf kommen, wo was von wem gerendert wurde. Leider nein.

Wenn ich das richtig sehe, zeigen beide Bilder je ein Artefakt. Wenn deiner Meinung nach die NV-ROPs ein Problem haben, kriege ich das nicht in diese Bilder einsortiert.

DrumDub
2004-04-27, 13:34:37
Original geschrieben von aths
Leider nein.

Wenn ich das richtig sehe, zeigen beide Bilder je ein Artefakt. Wenn deiner Meinung nach die NV-ROPs ein Problem haben, kriege ich das nicht in diese Bilder einsortiert.

soweit ich weiß, zeigt das obere bild den bildauschnitt auf einem r3x0 und das untere auf einem nv3x.

beim r3x0 gibts probleme mit dem alphablending (unterer pfeil), was beim nv3x richtig dargestellt wird.

beim nv3x hingegen gibts probleme mit der präzision (oberer pfeil), während das alphablending korrekt ist.

gleiches sieht man ja auch hier bein nem nv38: http://techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=26

zumindest hat das quasar in nem anderen thread so erläuert, wenn ich jetzt nicht völlig falsch liege.

betasilie
2004-04-27, 13:55:42
Original geschrieben von Gast
...diese Artefakte sieht man i.Ü. auch bei LockOn auf einer NV40...
Ack. Und dort treten diese Artefakte wesentlich stärker auf und nur auf den NV-Karten, nicht aber auf den ATI-Karten.

@Qusar
Welches Pic zeigt denn nun welche Karte?

Quasar
2004-04-27, 14:03:35
DrumDub hat's schon richtig erklärt.

Soo schwierig ist's doch nicht, oder?

aths
2004-04-27, 14:07:31
Original geschrieben von Quasar
DrumDub hat's schon richtig erklärt.

Soo schwierig ist's doch nicht, oder? Schwierig ist, deine ROP-These zu integrieren. Sofern die Oberflächen mit "DX8-Technik" erzeugt wurden, kann die FX ja nur das FX12-Format nutzen, während die Radeon alles mit FP24 rendert. Bei DX9 könnte es sein, dass etwas zu viel auf _PP umgestellt wird.

betasilie
2004-04-27, 14:18:56
Original geschrieben von Quasar
DrumDub hat's schon richtig erklärt.

Soo schwierig ist's doch nicht, oder?
Entschuldige, dass ich DrumDubs Posting überlesen habe, aber eigentlich erwarte ich von demjenigen, der solche Pics postet eine Erklärung was da überhaupt zu sehen ist.

Soo schwierig ist's doch nicht, oder?

ow
2004-04-27, 14:40:42
.

DrumDub
2004-04-27, 14:49:24
Original geschrieben von ow
Zwei aufeinanderfolgende Postings im Kontext zu verstehen ist doch auch nicht sooo schwierig, oder??


Demi:
"Die R3XX ROPs verursachen beim Alpha-Blending gerne mal 1 Bit Fehler. Liegen nun viele Alpha schichten übereinander (Rauch) kann sich das hochsummieren."

Quasar:
"Jo, so wie hier: (pics)"

na ja, aber ohne zu wissen was für fehler nun auf welcher gpu gemeint sind, isses doch etwas schwierig nachzuvollziehen.

aber man hätte ja auch mal nachfragen können, was quasar uns mit den screenshots sagen will. da bin ich dann halt in die bresche gesprungen. X-D

MarcWessels
2004-04-27, 15:10:18
Original geschrieben von DrumDub
soweit ich weiß, zeigt das obere bild den bildauschnitt auf einem r3x0 und das untere auf einem nv3x.

beim r3x0 gibts probleme mit dem alphablending (unterer pfeil), was beim nv3x richtig dargestellt wird.

beim nv3x hingegen gibts probleme mit der präzision (oberer pfeil), während das alphablending korrekt ist.

Die nVidia-Artefakte finde ich auf dem Screenshot wesentlich störender und häßlicher als die ATI-Artefakte...

Quasar
2004-04-27, 15:32:35
Ja, ich auch.

DrumDub
2004-04-27, 15:33:44
Original geschrieben von MarcWessels
Die nVidia-Artefakte finde ich auf dem Screenshot wesentlich störender und häßlicher als die ATI-Artefakte...

dieses problem ist ja auch mit dem nv40 behoben.

siehe die schon genannten techreport-screenshots: http://techreport.com/reviews/2004q2/geforce-6800ultra/index.x?pg=26

wobei die nur den gleichen effekt wie auf quasars screenshot vom nv3x zeigen, der aber dort eine andere ursache hat.

reunion
2004-04-27, 15:56:05
HERE IS A SUMMARY of things we know about forthcoming ATI card. The card hidden under the R420 codename will be introduced on 4th of May but ATI swears blind that it won't have any launch party for it.
The R420PRO slower version will materialise a few weeks before the faster R420XT, X800XT.

The R420PRO should be clocked at a 475MHz core and 900MHz memory and will feature 12 pipelines. The memory it uses is GDDR3 in this version of the card.

The cards will be red and will be physically almost the same as Radeon 9800XT as theoretically we are talking about a chip very similar to R300 shrink from 0.15µ to 0.13µ with some more pipelines and algorithms.

The card will consume much less power then the Geforce 6800 Ultra and will have only one power connector. It will work in the Shuttle XPC and that is something that the ATI PR manager has confirmed. It will also fit into XPC as it's a one slot beast.

Cards won't have pixel shader 3.0 support as they're based on similar marchitecture to R300 core and will stick to PS 2.0 at the time being. 128 bit precision will also be missing as ATI chip can support 24 bit per colour - 96 bit altogether.

There's also the R420 features special 3Dc compression that we mentioned here


We'll tell you more about XT soon but it might end up faster that we were all expecting. µ


http://www.theinquirer.net/?article=15556

mfg
reu

DrumDub
2004-04-27, 16:12:53
die frage ist nur, was "much less" ist.

ne 9800xt verbraucht unter volllast ca. 85w.

Gast
2004-04-27, 16:35:50
Original geschrieben von DrumDub
die frage ist nur, was "much less" ist.

ne 9800xt verbraucht unter volllast ca. 85w.

Und ne 6800Ultra bis zu 110W,das ist schon ein Unterschied.

ShadowXX
2004-04-27, 16:49:54
Wirklich was neues erzählt der INQ da aber nicht....

Naja...so weit ist der 04.05. ja nicht mehr weg...

DrumDub
2004-04-27, 16:54:16
Original geschrieben von Gast
Und ne 6800Ultra bis zu 110W,das ist schon ein Unterschied.

jupp. klar ist das nen unterschied, aber der nv 40 hat ja auch mal eben mehr als die doppelte anzahl an transistoren im vergleich zum r360 (107 vs. 222 mio.). wobei der r360 halt noch in 0,15 µm gefertig ist im gegensatz zum nv40, der in 0,13 µm daher kommt. der r420 hat noch den "low-k-bonus". ich denke aber schon, dass die x800xt um die 80-90w unter volllast verbraucht.

deekey777
2004-04-27, 17:01:09
Original geschrieben von ShadowXX
Wirklich was neues erzählt der INQ da aber nicht....

Naja...so weit ist der 04.05. ja nicht mehr weg...

Und dann kommt auch der cat. 4.5 ;D ;D ;D

Ich freue mich gewaltig darauf, besonders auf den Vergleich zw. den Konkurrenten in Far Cry (oder vielleicht in HL2 Benchmark?).

Gast
2004-04-27, 17:02:49
Weil wir grad beim Verbrauch sind,wie weit wird der Verbrauch noch hochgetrieben ?

Kommt irgendwann eine Technik die viel weniger verbrauchen wird ?

Mr. Lolman
2004-04-27, 17:32:15
Original geschrieben von DrumDub
dieses problem ist ja auch mit dem nv40 behoben.


Ist es nicht:

http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=33
http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=34

DrumDub
2004-04-27, 17:41:04
Original geschrieben von Mr. Lolman
Ist es nicht:

http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=33
http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=34

das hat aber nix mit der präzision zu tun, sondern resultiert wohl aus einem problem mit dem fsaa. ich seh da jedenfalls kein banding, sondern eine andere form von artefakten.

betasilie
2004-04-27, 17:51:11
Original geschrieben von DrumDub
das hat aber nix mit der präzision zu tun, sondern resultiert wohl aus einem problem mit dem fsaa. ich seh da jedenfalls kein banding, sondern eine andere form von artefakten.
Was soll das bitte mit AA zu tun haben? Das ist das gleiche Problem wie in FarCry, imho.

Und wie man hier sehen kann, tritt das Problem auch ohne Kantenglättung auf:
http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=32

Mr. Lolman
2004-04-27, 17:54:53
Original geschrieben von DrumDub
das hat aber nix mit der präzision zu tun, sondern resultiert wohl aus einem problem mit dem fsaa. ich seh da jedenfalls kein banding, sondern eine andere form von artefakten.

Dann änder die letzte Zahl von 33 auf 32, dann siehst du auch, dass es ohne AA genau die gleichen Fehler gibt...

edit: Zu langsam...

DrumDub
2004-04-27, 17:58:39
Original geschrieben von betareverse
Was soll das bitte mit AA zu tun haben? Das ist das gleiche Problem wie in FarCry, imho.

Und wie man hier sehen kann, tritt das Problem auch ohne Kantenglättung auf:
http://www.firingsquad.com/media/article_image.asp?fs_article_id=1465&pic_id=32

stimmt. hast recht.

bei far cry resultiert das problem aber aus der verwendung von pp- oder fx12-shadern.

woher die artefakte bei lockon kommen, ist ne gute frage. dennoch würde ich es noch nicht als generelles problem bezeichnen.

betasilie
2004-04-27, 18:10:19
Original geschrieben von DrumDub
stimmt. hast recht.

bei far cry resultiert das problem aber aus der verwendung von pp- oder fx12-shadern.

woher die artefakte bei lockon kommen, ist ne gute frage. dennoch würde ich es noch nicht als generelles problem bezeichnen.
Es ist wohl kein Problem der Hardware, aber scheinbar wurden bei einigen Games auf die selben "Optimierungen" gesetzt, um die NV3x Karten besser darstehen zu lassen in den Benchmarks. Nun muss man diese "Optmierungen", die ich persönlich gnadenlos als Cheating Bezeichnen würde, für die NV4x-Serie entfernen.

Gast
2004-04-27, 18:50:29
Was einen zu der interessanten OT Frage kommen lässt,
wird NV zukünftige Spiele noch auf die NV3X Linie optimieren
oder diese wie eine heisse Kartoffel fallen lassen?

][immy
2004-04-27, 19:23:59
Original geschrieben von Gast
Was einen zu der interessanten OT Frage kommen lässt,
wird NV zukünftige Spiele noch auf die NV3X Linie optimieren
oder diese wie eine heisse Kartoffel fallen lassen?

nvidia beschränkt sich bei neuen treibern meist nur auf die neuen karten
bestes beispiel sind da wohl die geforce 4 karten, für die sich seit dem 42er treibern nichts mehr geändert hat

bei den vorgängern war es nie anders. mit der nächsten grafikchip-generation wurde der treibersupport quasi eingestellt (soll heißen, es kam für die die älteren chips nichts mehr neues hinzu)

LovesuckZ
2004-04-27, 20:09:54
Original geschrieben von ][immy
bei den vorgängern war es nie anders. mit der nächsten grafikchip-generation wurde der treibersupport quasi eingestellt (soll heißen, es kam für die die älteren chips nichts mehr neues hinzu)

Bitte nicht von ATi auf Nvidia schließen!

[dzp]Viper
2004-04-27, 20:15:39
Original geschrieben von LovesuckZ
Bitte nicht von ATi auf Nvidia schließen!

was soll das schon wieder lovesuck? Willst du wieder nen Flamewar beginnen?

Es stimmt beides von euch nicht...

NV setzt seine Prioritäten dann mehr auf die aktuellen neuen chips aber es kommt ab und zu nochmal was für einen alten Chip! Genauso ist es bei ATI...

LovesuckZ
2004-04-27, 20:17:00
Original geschrieben von [dzp]Viper
was soll das schon wieder lovesuck? Willst du wieder nen Flamewar beginnen?


Ich? Hoe?, Nunja, ich natuerlich...
Natuerlich konzentriert man sich auf die neuen karten, was soll man auch anderes machen, wenn außer Stabilitaet nichts mehr drin is?

Gast
2004-04-27, 20:20:57
Original geschrieben von LovesuckZ
Bitte nicht von ATi auf Nvidia schließen!

Lovesuck, du redest wirres Zeugs! ATI hat einen Treiber für alle Karten und wird den Support für ältere Modelle sicher nicht einstellen.

Immerhin hat ATI alle Treiberupdates (4 Stück dieses Jahr/ Ziel 12 WIN-OS und 6 Linux) alle WHCQL-Zertifiziert und wird auch Ihr Driver-Feedback Programm nicht einstellen!

Thowe
2004-04-27, 20:32:24
Original geschrieben von LovesuckZ
Bitte nicht von ATi auf Nvidia schließen!


Bitte keine dumme Flamerei hier! Bringt doch nichts.

Aquaschaf
2004-04-27, 20:49:37
Original geschrieben von LovesuckZ
Bitte nicht von ATi auf Nvidia schließen!

Da erinnere ich aber an einige Male wo sich noch etwas an der Performance der 7000er und 8500 geändert hat. Passiert natürlich eher selten, bei NVidia hab ich die Treiberentwicklung nicht mitverfolgt - weiß also nicht wie es da ist.

Treibersupport einstellen tut keiner der Hersteller, Bugs werden nach wie vor gefixt. Performance-Verbesserungen älterer Generationen sind aber die Ausnahme.

DrumDub
2004-04-27, 21:06:43
Original geschrieben von Aquaschaf
Treibersupport einstellen tut keiner der Hersteller, Bugs werden nach wie vor gefixt. Performance-Verbesserungen älterer Generationen sind aber die Ausnahme.

jupp. wobei natürlich die neuste generation priorität hat, was das bugfixing angeht. ;)

Gast
2004-04-27, 21:08:49
Original geschrieben von Thowe
Bitte keine dumme Flamerei hier! Bringt doch nichts.

Was kann man auch von jemanden erwarten der sich Lovesuckz nennt.

Thowe
2004-04-27, 21:13:14
Original geschrieben von Gast
Was kann man auch von jemanden erwarten der sich Lovesuckz nennt.

Durchaus gutes, wenn er sich im Zaum hält.

GRiNSER
2004-04-27, 21:52:49
Hui! bei ATi.com (http://www.ati.com/) kann man sich schon zum thema "Xtreme Intense Gaming" für ein newsletter registrieren lassen =) - be ready! | ... R420 is coming ;)

und zum thema, das ATi keine party zum R420 macht:

http://www.ati.com/companyinfo/events/winhec/popups/invitefront.jpghttp://www.ati.com/companyinfo/events/winhec/popups/inviteback.jpg

;D

[sorry falls das schon jemand gepostet hat]

deekey777
2004-04-27, 22:21:49
So ein Mist: Seattle! Und die Party findet um 20.00-23.00 Uhr Ortszeit - also +9 (oder doch 10?) Stunden bei uns, also so ab 5.00(6.00) mitten in der Nacht. Seattle, VALVe ist auch in der Nähe, HL2 Benchmark...

Wie war das in der aktuellen Gamestar: Sinnlos in Seattle?

Neo69
2004-04-27, 22:24:17
Seattle ist GMT -8, D ist +1, also 9 Stunden.

Und wenn die es so machen wie nvidia werden die NDAs bis zum Ende der Party gehen - also erst am 5. Mai wird im Netz das Geheimnis gelüftet.

Gast
2004-04-28, 06:53:18
Original geschrieben von DrumDub
jupp. klar ist das nen unterschied, aber der nv 40 hat ja auch mal eben mehr als die doppelte anzahl an transistoren im vergleich zum r360 (107 vs. 222 mio.). wobei der r360 halt noch in 0,15 µm gefertig ist im gegensatz zum nv40, der in 0,13 µm daher kommt. der r420 hat noch den "low-k-bonus". ich denke aber schon, dass die x800xt um die 80-90w unter volllast verbraucht.

Denke nicht wenn du nichts weisst!

CrazyIvan
2004-04-28, 06:53:54
Wieso, nV hat ihre NDAs vor der offiziellen Vorstellung auslaufen lassen. Während ca. 20.00 Westküstenzeit die Präsentation war, hat man bei uns am gleichen Nachmittag schon Tests lesen können.

ShadowXX
2004-04-28, 07:18:08
Original geschrieben von CrazyIvan
Wieso, nV hat ihre NDAs vor der offiziellen Vorstellung auslaufen lassen. Während ca. 20.00 Westküstenzeit die Präsentation war, hat man bei uns am gleichen Nachmittag schon Tests lesen können.

???
Die Reviews zum nV wurden definitiv erst am 14. bei uns freigegeben (ca. 15.00 Uhr)...die Party war am 13....

seahawk
2004-04-28, 07:43:32
Original geschrieben von betareverse
Es ist wohl kein Problem der Hardware, aber scheinbar wurden bei einigen Games auf die selben "Optimierungen" gesetzt, um die NV3x Karten besser darstehen zu lassen in den Benchmarks. Nun muss man diese "Optmierungen", die ich persönlich gnadenlos als Cheating Bezeichnen würde, für die NV4x-Serie entfernen.

Oder die Games weissen der NV40 noch den NV3X Pfad zu und aktivieren damit automatisch die Cheats. Natürlich wird NV dies nicht ungelegen kommen.

ShadowXX
2004-04-28, 07:59:03
Original geschrieben von seahawk
Oder die Games weissen der NV40 noch den NV3X Pfad zu und aktivieren damit automatisch die Cheats. Natürlich wird NV dies nicht ungelegen kommen.

Was sollen Sie auch anderes tun???

Als die "jetzigen" Games geschrieben wurden (zumindest die mehrzahl) gabs die nv40 noch nicht, also werden diese Games zwangsweise den nv3x Pafd nehmen müssen da Sie den nv40 nicht "erkennen" und somit wohl als nv3x einordnen.(anhand der ausgelesenen CAPS)

Demirug
2004-04-28, 08:01:18
Original geschrieben von seahawk
Oder die Games weissen der NV40 noch den NV3X Pfad zu und aktivieren damit automatisch die Cheats. Natürlich wird NV dies nicht ungelegen kommen.

nVidia (vertreten durch Sim Dietrich) hat wegen dieser DeviceID erkennungs Geschichte ein Statment abgegeben.

Credo: "Lasst diesen Blödsinn bleiben"

Gast
2004-04-28, 08:29:56
Original geschrieben von Demirug
nVidia (vertreten durch Sim Dietrich) hat wegen dieser DeviceID erkennungs Geschichte ein Statment abgegeben.

Credo: "Lasst diesen Blödsinn bleiben"

Das sehe ich anders !

Das ist Eindeutig ein Cheat und wenn ich mir die Historie bezüglich Cheats und Spielereien anschaue, ala PS 1.1 bei Farcrey.

Immerhin ist dieser Text bzw. diese Werbeaussage von nvidia dann nichts anderes als Betrug am Gamer!

Zitat:

[QUOTE]Original geschrieben von nvidia

The Way it's Meant to be Played (TWIMTBP)


Was sollten Sie unbedingt dabeihaben, wenn Sie in die Welt eines coolen neuen Spiels eintauchen? Nein, nicht etwa Ihren Schutzanzug oder ähnliche Wunderwaffen - am wichtigsten ist Ihre NVIDIA-Grafiklösung. Denn mit der Power eines NVIDIA-Grafikprozessors im Rücken können Sie moderne Spiele ganz im Sinne des Erfinders spielen - the way it's meant to be played.

Was ist TWIMTBP?


Das ultimative "Install and Play"-Erlebnis: Installieren und loslegen! Mit NVIDIA®-Grafikpower in Ihrem PC genießen Sie atemberaubende Kinografiken und realistische Spielfiguren in rasanter Geschwindigkeit. Achten Sie beim Spiele- und Hardwarekauf also auf das Logo "NVIDIA®: The way it's meant to be played". Einfach installieren und loslegen - für ultimatives Spielevergnügen!
Coole Spiele werden auf NVIDIA entwickelt und optimiert. Performance, Kompatibilität und Zuverlässigkeit der NVIDIA-Grafikchips sind seit jeher bekannt - auf der ganzen Welt sind sie für PC-Spielefreaks erste Wahl. Daher werden auch die coolsten Neuerscheinungen auf NVIDIA-Plattformen entwickelt - damit sie später im Zusammenspiel mit Ihrer NVIDIA-Grafiklösung das ultimative Grafikerlebnis bieten.
Atemberaubende, turboschnelle Kinoeffekte: Mit NVIDIA-Grafikpower in Ihrem PC genießen Sie atemberaubende Kinografiken in rasanter Geschwindigkeit.
Erste Wahl für PC-Spielefreaks auf der ganzen Welt: Auf der ganzen Welt entscheiden sich Spielefans immer für NVIDIA-Grafikchips, wenn es um ihre Spieleplattform geht. Und Sie?

[/QUOTE

Zitat Ende:

Nein Danke sag ich da NUR !

ShadowXX
2004-04-28, 08:44:48
Original geschrieben von GRiNSER
Hui! bei ATi.com (http://www.ati.com/) kann man sich schon zum thema "Xtreme Intense Gaming" für ein newsletter registrieren lassen =) - be ready! | ... R420 is coming ;)

und zum thema, das ATi keine party zum R420 macht:

http://www.ati.com/companyinfo/events/winhec/popups/invitefront.jpghttp://www.ati.com/companyinfo/events/winhec/popups/inviteback.jpg

;D

[sorry falls das schon jemand gepostet hat]

tja...da lag INQ wohl daneben...(oder Sie wurden nicht eingeladen:D)

Jetzt fehlt nur noch, das das Board gar nicht Rot ist;D ;D

seahawk
2004-04-28, 08:46:10
Original geschrieben von Demirug
nVidia (vertreten durch Sim Dietrich) hat wegen dieser DeviceID erkennungs Geschichte ein Statment abgegeben.

Credo: "Lasst diesen Blödsinn bleiben"

Ich weiss. Es ist imho auch ein grundsätzlich unglückliches Vorgehen.

m Hinblick auf die Benches hingegen, könnte es einen Vorteil für NV bieten, auch wenn ich da nicht vollkommen sicher bin. Vor allem welchen Pfad sollte der NV40 sonst nutzen ??

robbitop
2004-04-28, 09:13:37
ARB2, sieht so aus als hätte Carmark den NV30 Pfad entsorgt.
Die NV31/34 dürfen dann den NV20 Pfad nehmen.

seahawk
2004-04-28, 09:31:04
Original geschrieben von robbitop
ARB2, sieht so aus als hätte Carmark den NV30 Pfad entsorgt.
Die NV31/34 dürfen dann den NV20 Pfad nehmen.

In Doom3, aber in heute schon veröffentlichten Spielen ??

robbitop
2004-04-28, 10:12:33
von Spiel zu Spiel unterschiedlich denke ich mal

[dzp]Viper
2004-04-28, 10:15:35
Ich will Ruby endlich in Bewegung sehen :clown:
Die Zeit bis zum 04.05.04 wird sich elendig lang hinziehen ;(

HOT
2004-04-28, 10:28:48
Original geschrieben von Neo69
Seattle ist GMT -8, D ist +1, also 9 Stunden.

Und wenn die es so machen wie nvidia werden die NDAs bis zum Ende der Party gehen - also erst am 5. Mai wird im Netz das Geheimnis gelüftet.

D ist sogar +2 wegen der scheiss Sommerzeit.

deekey777
2004-04-28, 10:51:40
Original geschrieben von [dzp]Viper
Ich will Ruby endlich in Bewegung sehen :clown:
...



Du kleiner Ferkel ;D

Auch die Amis haben jetzt Sommerzeit, es wird nur eine Woche später umgestellt.

Zum nVidias Statement:
:heuldoch:

Dennoch ist es keine "Entschuldigung" dafür, dass die NV40 nicht alle PS 2.0 nutzt wie die R3x0,obwohl es möglich ist. Cry Tek hat's versaut, aber nVidia hätte es sehen müssen und den Patch zurückpfeifen, wenn sie es wollten.

DrumDub
2004-04-28, 11:05:18
Original geschrieben von Gast
Denke nicht wenn du nichts weisst!

lieber gast, wir sind hier im spekulationsforum, falls es dir noch nicht aufgefallen ist. also lass deine sprüche sein oder gib mir ne zahl. :P

Demirug
2004-04-28, 11:33:44
Original geschrieben von deekey777
Zum nVidias Statement:
:heuldoch:

Dennoch ist es keine "Entschuldigung" dafür, dass die NV40 nicht alle PS 2.0 nutzt wie die R3x0,obwohl es möglich ist. Cry Tek hat's versaut, aber nVidia hätte es sehen müssen und den Patch zurückpfeifen, wenn sie es wollten.

IMHO muss sich nVidia auch nicht dafür entschuldigen wenn ein Spiel auf iheren Karten nicht alle Features einsetzt. Wie du schon sagst hat es Crytek versaut und Sim Dietrich hat sich eben genau darüber beschwert was Crytek gemacht hat. Natürlich ohne Namen zu nennen.

Seit wann kann nVidia bestimmen wer wann welche Patch rausbringt?

Exxtreme
2004-04-28, 11:34:44
Original geschrieben von Demirug
Seit wann kann nVidia bestimmen wer wann welche Patch rausbringt?
Also bei TR:EOD hat's anscheinend funktioniert. ;D

DrumDub
2004-04-28, 11:39:41
Original geschrieben von Exxtreme
Also bei TR:EOD hat's anscheinend funktioniert. ;D

und bei halo... ;D

Gast
2004-04-28, 11:42:52
Original geschrieben von DrumDub
und bei halo... ;D

Bei Halo fehlt jetzt auch die Benchmark-Funktion und ein PS2.0-DoF-Shader?

Komisch, wußte ich noch gar nicht....

;Q

reunion
2004-04-28, 12:44:14
Original geschrieben von DrumDub
und bei halo... ;D

Und bei Far Cry anscheinend auch... ;D

deekey777
2004-04-28, 13:15:55
Original geschrieben von DrumDub
und bei halo... ;D

Bei Halo? Wozu das denn, wenn alle Shader von nVidia selbst geschreiben wurden.

DrumDub
2004-04-28, 13:20:49
Original geschrieben von Gast
Bei Halo fehlt jetzt auch die Benchmark-Funktion und ein PS2.0-DoF-Shader?

Komisch, wußte ich noch gar nicht....

;Q

una broma, mi amigo. ;)

deekey777
2004-04-28, 17:59:33
Falls Linkschutz: Bild (http://www.hardocp.com/image.html?image=MTA4MzE2NzQxNXlpMFA0d1pzbmZfMV8xX2wuanBn)

http://www.hardocp.com/images/news/1083167415yi0P4wZsnf_1_1_l.jpg


Das ist Far Cry auf der R420!!!

(Cold?)

FarCry On R420:
We have a top secret spy photo of FarCry running on ATi’s next-gen hardware, the R420. The level of realism you will see in this screenshot are nothing short of breath taking…it is almost like you are actually there. Thanks to our Agent Lee Millerchip for the spy photo.

Quelle: http://www.hardocp.com/

DrumDub
2004-04-28, 18:03:19
guter witz, aber der 1. april ist doch schon ne weile her...

Neo69
2004-04-28, 18:04:05
LOL cooles foto aber das glaub ich ja nicht dass crytek das ganze spiel für den R420 (mit schlechterer shader-technologie als der NV40) neu gemacht hat.

wenn du den kommentar von [H] dazu liest scheint es wohl eher ein foto mit einer waffe und dem HUD des spiels darübergeshopped zu sein...

Aquaschaf
2004-04-28, 18:05:14
Hm, könnte IMO gut ein Fake sein ;)

deekey777
2004-04-28, 18:06:46
Original geschrieben von Aquaschaf
Hm, könnte IMO gut ein Fake sein ;)

Das sieht einfach zu gut aus.

BodyLove
2004-04-28, 18:28:06
Original geschrieben von deekey777
Falls Linkschutz: Bild (http://www.hardocp.com/image.html?image=MTA4MzE2NzQxNXlpMFA0d1pzbmZfMV8xX2wuanBn)
Das ist Far Cry auf der R420!!!
(Cold?)
FarCry On R420:
We have a top secret spy photo of FarCry running on ATi’s next-gen hardware, the R420. The level of realism you will see in this screenshot are nothing short of breath taking…it is almost like you are actually there. Thanks to our Agent Lee Millerchip for the spy photo.

Quelle: http://www.hardocp.com/

ATI scheint beim AA und AF etwas verbessert zu haben. Keine Unschärfe oder gar Aliasing zu sehen.;)

Schade, dass es nur ein fake ist.:(

robbitop
2004-04-28, 18:28:29
eindeutig fake..sowas kommt weder im Spiel noch in der Engine vor..

WEGA
2004-04-28, 18:34:29
das is ein foto !

MechWOLLIer
2004-04-28, 19:00:05
Jop, ist ein Foto wo man das HUD und die Waffe reinkopiert hat.

Aber schön wärs doch schon....:D

betasilie
2004-04-28, 19:01:02
:lolaway: Die Frage ist, wer braucht da noch einen NV90 oder R900? :freak:

BodyLove
2004-04-28, 19:03:38
Das ist FarCry 2 mit DXNext.:eyes:

][immy
2004-04-28, 19:06:09
Original geschrieben von Demirug
IMHO muss sich nVidia auch nicht dafür entschuldigen wenn ein Spiel auf iheren Karten nicht alle Features einsetzt. Wie du schon sagst hat es Crytek versaut und Sim Dietrich hat sich eben genau darüber beschwert was Crytek gemacht hat. Natürlich ohne Namen zu nennen.

Seit wann kann nVidia bestimmen wer wann welche Patch rausbringt?

@Demirug
hattest du nicht mal vor 40-50 seiten geschrieben, das es dein definitiv letzter post in diesem thread sei? *gg* ;)


nunja.. also das Crytek etwas versaut hätte würd ich so nicht sagen. sicher der NV40 nimmt den NV3x pfad zum rendern, aber.. mhh.. bei wem liegt da die schuld?

wie hat crytek denn die erkennung eingebunden?
einfach abgefragt ob der treiber etwas meldet das >=NV30 ist?.. ok in dem fall wäre es wirklich ihre schuld ;)
aber daran hat wohl damals, als der pfad geschrieben wurde noch niemand gedacht bzw dachten wohl eher, das der nv40 noch ein wenig mit den problemen des nv30 zu kämpfen hätte (so eine meinung könnte ich verstehen).
auf jeden fall sollte es aber nichts sein, was kurz nach erscheinen des nv40 man nicht per mini-patch beheben könnte. einfachste methode wäre wohl einfach eine auswahl ob man opengl oder direct3d nutzen will (der opengl-modus scheint ja auf nv3x spezialisiert worden zu sein)

könnte mir aber auch gut vorstellen, das nvidia das bei der damaligen entwicklung des spiels nicht wollte, da so natürlich unter anderem auch bessere ergebnisse für den NV40 bei farcry rauskommen. ich schätze zwar mal, das sich dies unter direct 3d kaum ändern wird, aber wir kennen ja alle nvidia und wissen ja, was die alles für ein paar zusätzliche frames so alles machen (z.B. 3d-mark)

deekey777
2004-04-28, 19:20:22
nunja.. also das Crytek etwas versaut hätte würd ich so nicht sagen. sicher der NV40 nimmt den NV3x pfad zum rendern, aber.. mhh.. bei wem liegt da die schuld?

Die 6800 Ultra hat ihren eigenen Pfad.

Exxtreme
2004-04-28, 19:21:09
Original geschrieben von deekey777
Falls Linkschutz: Bild (http://www.hardocp.com/image.html?image=MTA4MzE2NzQxNXlpMFA0d1pzbmZfMV8xX2wuanBn)

http://www.hardocp.com/images/news/1083167415yi0P4wZsnf_1_1_l.jpg


Das ist Far Cry auf der R420!!!

(Cold?)

FarCry On R420:
We have a top secret spy photo of FarCry running on ATi’s next-gen hardware, the R420. The level of realism you will see in this screenshot are nothing short of breath taking…it is almost like you are actually there. Thanks to our Agent Lee Millerchip for the spy photo.

Quelle: http://www.hardocp.com/

AAAARRGGH! Das Bild hat einer im R3D-Forum zum Spaß erstellt. :lol:

Guckst du:
http://www.rage3d.com/board/showthread.php?s=&threadid=33754564&perpage=30&pagenumber=27

[dzp]Viper
2004-04-28, 19:32:07
Original geschrieben von Exxtreme
AAAARRGGH! Das Bild hat einer im R3D-Forum zum Spaß erstellt. :lol:

Guckst du:
http://www.rage3d.com/board/showthread.php?s=&threadid=33754564&perpage=30&pagenumber=27

is echt goil wie manche hier drauf reingefallen sind ;D ;D ;D

Gast
2004-04-28, 19:32:43
Original geschrieben von Demirug
IMHO muss sich nVidia auch nicht dafür entschuldigen wenn ein Spiel auf iheren Karten nicht alle Features einsetzt. Wie du schon sagst hat es Crytek versaut und Sim Dietrich hat sich eben genau darüber beschwert was Crytek gemacht hat. Natürlich ohne Namen zu nennen.

Seit wann kann nVidia bestimmen wer wann welche Patch rausbringt?

Diese Aussage ist mehr als FRAGWÜRDIG.

Begründung:

nvidia hat dieses Spiel als gelistetes Spiel in Ihrer TWIMTBP-Kampagne und alle Dausi-Gamer glauben dieser Kampagne. Ergo ist bei NICHT-SUPPORT von allen Effekten die Kampagne mehr als eine Lüge!

Wenn sich dann ein Marketing-Mitarbeiter darüber beschwert ist das mehr als PEINLICH!

Eigentlich müßten sie FARCRY als LOGISCHE Schlussfolgerung dann aus Ihrer TWIMTBP-Kampagne nehmen!

Punkt!

Gast
2004-04-28, 19:36:36
off topic...
setzt doch die unendliche Far Cry Diskussion woanders fort...

deekey777
2004-04-28, 19:46:52
Original geschrieben von Exxtreme
AAAARRGGH! Das Bild hat einer im R3D-Forum zum Spaß erstellt. :lol:

Guckst du:
http://www.rage3d.com/board/showthread.php?s=&threadid=33754564&perpage=30&pagenumber=27

Du zerstörst ja jede Hoffnung!!! :P

PS: Den NV40 Speku-Thread hat dieser schon eingeholt zu haben? ;D

Gast
2004-04-28, 19:53:29
Original geschrieben von Gast
off topic...
setzt doch die unendliche Far Cry Diskussion woanders fort...

Lies du doch einfach andere sachen wie mickey mouse zb!

LovesuckZ
2004-04-28, 20:26:39
http://www.rage3d.com/board/showthread.php?threadid=33755839

Interessant, dass der r420 nur mit einem Patch mit dem 3Dmark2003 funktioniert. Da stellt sich mir die Frage, wie der Treiber "approved" sein kann...

deekey777
2004-04-28, 20:33:48
Original geschrieben von LovesuckZ
http://www.rage3d.com/board/showthread.php?threadid=33755839

Interessant, dass der r420 nur mit einem Patch mit dem 3Dmark2003 funktioniert. Da stellt sich mir die Frage, wie der Treiber "approved" sein kann...

Vielleicht muss die R420 durch 3D2003 gebremst werden, da sie zu schnell ist. :D

dildo4u
2004-04-28, 20:34:02
Original geschrieben von LovesuckZ
http://www.rage3d.com/board/showthread.php?threadid=33755839

Interessant, dass der r420 nur mit einem Patch mit dem 3Dmark2003 funktioniert. Da stellt sich mir die Frage, wie der Treiber "approved" sein kann...
The new .dll file does not affect the benchmark results in any way. The
new .dll file will be included in a future patch for 3DMark03

ow
2004-04-28, 20:34:38
.

LovesuckZ
2004-04-28, 20:35:42
Original geschrieben von ow
Dass der 3DMark03 nicht unbedingt ab Werk in der Lage sein muss, die Taktfrequenzen ihm unbekannter Chips zu ermitteln sollte doch einleuchten.
Also braucht´s eine neue DirecPLL.dll damit das geht.

Wieso klappt es beim XGI-, S3- und beim neuen Nvidiachip?

Demirug
2004-04-28, 20:42:22
Original geschrieben von Gast
Diese Aussage ist mehr als FRAGWÜRDIG.

Begründung:

nvidia hat dieses Spiel als gelistetes Spiel in Ihrer TWIMTBP-Kampagne und alle Dausi-Gamer glauben dieser Kampagne. Ergo ist bei NICHT-SUPPORT von allen Effekten die Kampagne mehr als eine Lüge!

Wenn sich dann ein Marketing-Mitarbeiter darüber beschwert ist das mehr als PEINLICH!

Eigentlich müßten sie FARCRY als LOGISCHE Schlussfolgerung dann aus Ihrer TWIMTBP-Kampagne nehmen!

Punkt!

TWINTBP ist wie GITG eine reine Marketing geschichte. Die Studios verkaufen da einfach Werbefläche an die IHVs.

Sim Dietrich gehört nicht zum Marketing sondern zum Devsupport. Und die Bitte aus DeviceIDs keine Rückschlüsse auf die Performance zu ziehen wurde auch an die Entwickler gerichtet. Weil sowas eben immer wieder dazu führt das Spiele mit neuen Karten nicht richtig laufen. Wenn Crytek diesen Blödsinn aber dennoch macht dann ist daran nur Crytek schuld. Es gibt bessere Wege das Problem zu lösen.

ShadowXX
2004-04-28, 20:45:08
Original geschrieben von LovesuckZ
Wieso klappt es beim XGI-, S3- und beim neuen Nvidiachip?

weil nv und konsorten vielleicht Taktgeber benutzen, die die DLL schon kennt???

Und ich glaube auch nicht das in der genannten DLL optimierungen versteckt werden können...

ow
2004-04-28, 20:49:14
.

ShadowXX
2004-04-28, 20:51:48
Original geschrieben von Demirug
TWINTBP ist wie GITG eine reine Marketing geschichte. Die Studios verkaufen da einfach Werbefläche an die IHVs.

Sim Dietrich gehört nicht zum Marketing sondern zum Devsupport. Und die Bitte aus DeviceIDs keine Rückschlüsse auf die Performance zu ziehen wurde auch an die Entwickler gerichtet. Weil sowas eben immer wieder dazu führt das Spiele mit neuen Karten nicht richtig laufen. Wenn Crytek diesen Blödsinn aber dennoch macht dann ist daran nur Crytek schuld. Es gibt bessere Wege das Problem zu lösen.

Soweit ich weiss, wurde doch aber im Patch1.1 extra hervorgehoben, das der nv40 nun unterstützt wird???

Also müsste FC diesen auch richtig erkennen können....

Und sagte Razor (?) nicht auch, das der nv40 "andere" Shader(zusammenstellungen) als der nv3x benutzt???

Daraus müsste man eigentlich schlussfolgern, das FC dies (erkennen des nv40) auch tut...

Warum CryTek den nv40 nun "schlechtere" BQ als auf den Radeons rendern lässt, steht auf einem anderen (noch leeren) Blatt...

Vielleicht sollten wir DX9.0c abwarten...

ow
2004-04-28, 21:00:49
.

Exxtreme
2004-04-28, 21:04:38
Original geschrieben von ShadowXX
Soweit ich weiss, wurde doch aber im Patch1.1 extra hervorgehoben, das der nv40 nun unterstützt wird???

Also müsste FC diesen auch richtig erkennen können....

Und sagte Razor (?) nicht auch, das der nv40 "andere" Shader(zusammenstellungen) als der nv3x benutzt???

Daraus müsste man eigentlich schlussfolgern, das FC dies (erkennen des nv40) auch tut...

Warum CryTek den nv40 nun "schlechtere" BQ als auf den Radeons rendern lässt, steht auf einem anderen (noch leeren) Blatt...

Vielleicht sollten wir DX9.0c abwarten...
Naja, so wie ich das sehe, benutzt Crytec die Chip-ID um die einzelnen Chips zu erkennen. Und das ist schlicht und ergreifend Murks. Kommt ein neuer SM3.0-fähiger Chip raus, den Farcry noch nicht kennt, dann ist's erstmal Sense mit SM3.0 und das Spiel wird den Chip mit was anderem füttern. Mit DX programmiert man auch nicht für einzelne Chips sondern eher für bestimmte Technologielevel. Und den Technologielevel kann man anhand der DX-CAPS erkennen.

GRiNSER
2004-04-28, 21:09:12
wenn sie bei den kleineren FXen nach techlevel einstufen würden, dann käme es schnell zu einer ruckelorgie :bäh:

ow
2004-04-28, 21:09:40
.

ShadowXX
2004-04-28, 21:09:50
Original geschrieben von ow
Das ist wohl der Punkt.
Ohne DX9.0c keine 3.0er Shader und der Fallback für den NV40 ist dann der normale NV3x Pfad.

darauf wollte ich eigentlich hinaus...ich vermuten nämlich selbiges.

Nach DX9.0c wird man alle FarCry Benches in die Tonne treten können, weil der nv40 wahrscheinlich erst dann bei FC zeigen kann was in ihm steckt (Bezogen auf seine Performance).

Exxtreme
2004-04-28, 21:11:58
Original geschrieben von GRiNSER
wenn sie bei den kleineren FXen nach techlevel einstufen würden, dann käme es schnell zu einer ruckelorgie :bäh:
Du kannst die Details runtersetzen wenn es zu arg ruckelt. Dafür sind Detailregler im Spiel auch da.

GRiNSER
2004-04-28, 21:19:43
Original geschrieben von Exxtreme
Du kannst die Details runtersetzen wenn es zu arg ruckelt. Dafür sind Detailregler im Spiel auch da.
jaja ich weiß eh ;) wollte eh noch editieren aba da hast du schon geschrieben ^^

VoodooJack
2004-04-28, 21:35:58
Original geschrieben von LovesuckZ
http://www.rage3d.com/board/showthread.php?threadid=33755839

Interessant, dass der r420 nur mit einem Patch mit dem 3Dmark2003 funktioniert. Da stellt sich mir die Frage, wie der Treiber "approved" sein kann...

Brauchst dir keine weiteren Fragen zu stellen. Dieser Patch hat was mit der clock-speed Erkennung für den R420 im Tool PowerStrip zu tun.

deekey777
2004-04-28, 21:38:58
Original geschrieben von ow
Das ist wohl der Punkt.
Ohne DX9.0c keine 3.0er Shader und der Fallback für den NV40 ist dann der normale NV3x Pfad.

Der NV40 benutzt seinen eigenen Pfad - hübscher als der von NV3x, aber "hässlicher" als der R300 Pfad.

HardOCP (P)Review (http://www.hardocp.com/article.html?art=NjA2LDU=)

"In the second screenshot(erste "Dreiergruppe") above notice that on the 5950Ultra there is a missing pixel shader effect on the floor which the 6800Ultra and 9800XT are showing."
FC bzw. der NV40 Pfad lässt die Stellen, wo eigentlich PS 3.0 zu sehen sein sollten, durch PS 1.1 ersetzen - da es kein DX9.0c gibt. Warum aber nicht einfach auf die PS 2.0 zurückgegriefen wird, ist eine andere Frage.

PS: Der offizielle NV40 Speku-Thread wurde überholt! Und das noch bevor die X800er vorgestellt wurde.

betasilie
2004-04-28, 23:37:54
Original geschrieben von ShadowXX
Nach DX9.0c wird man alle FarCry Benches in die Tonne treten können, weil der nv40 wahrscheinlich erst dann bei FC zeigen kann was in ihm steckt (Bezogen auf seine Performance).
Ack.

Für NV wirklich ärgerlich, dass M$ auf sich warten lässt. :-/

][immy
2004-04-29, 01:43:48
Original geschrieben von betareverse
Ack.

Für NV wirklich ärgerlich, dass M$ auf sich warten lässt. :-/

FarCry nutzt doch für nvidia-karten OpenGL. warum soll das was mit MS zu tun haben bzw mit DirectX 9.0c?

außerdem würd ich auch allgemein es nicht überbewerten was vielleicht noch kommen könnte seitens des nv40. aber in farcry sollte sich wegen opengl eigendlich doch nichts tun

oder verwechsel ich da jetzt irgendwas?

Quasar
2004-04-29, 01:48:42
Original geschrieben von ][immy
oder verwechsel ich da jetzt irgendwas?

Ja, das:

Original geschrieben von ][immy
FarCry nutzt doch für nvidia-karten OpenGL.

betasilie
2004-04-29, 01:48:49
Original geschrieben von ][immy
FarCry nutzt doch für nvidia-karten OpenGL. warum soll das was mit MS zu tun haben bzw mit DirectX 9.0c?

außerdem würd ich auch allgemein es nicht überbewerten was vielleicht noch kommen könnte seitens des nv40. aber in farcry sollte sich wegen opengl eigendlich doch nichts tun

oder verwechsel ich da jetzt irgendwas?
Das war irgendwann mal im Gespräch, aber in der Final nutzen alle NV-Karten per default DX als API.

ShadowXX
2004-04-29, 07:58:23
Original geschrieben von deekey777
Der NV40 benutzt seinen eigenen Pfad - hübscher als der von NV3x, aber "hässlicher" als der R300 Pfad.

HardOCP (P)Review (http://www.hardocp.com/article.html?art=NjA2LDU=)

"In the second screenshot(erste "Dreiergruppe") above notice that on the 5950Ultra there is a missing pixel shader effect on the floor which the 6800Ultra and 9800XT are showing."
FC bzw. der NV40 Pfad lässt die Stellen, wo eigentlich PS 3.0 zu sehen sein sollten, durch PS 1.1 ersetzen - da es kein DX9.0c gibt. Warum aber nicht einfach auf die PS 2.0 zurückgegriefen wird, ist eine andere Frage.

PS: Der offizielle NV40 Speku-Thread wurde überholt! Und das noch bevor die X800er vorgestellt wurde.

Es könnte sein, dass der nv40 an den stellen, wo er eigentlich PS3.0 einsetzen soll, dies aber "dank" fehlenden DX90c nicht kann, auf den nv3x Pfad zurückfällt (aber eben nur in diesen (PS3.0) Fällen, sonst benutzt er wohl einen eigenen Pfad, der etwas vom nv3x abweicht.)

Zum PS:
wir hatten ja auch mehr Zeit.....und diskutieren zwischendurch auch noch über den nv40 mit...

ShadowXX
2004-04-29, 07:59:28
Original geschrieben von betareverse
Das war irgendwann mal im Gespräch, aber in der Final nutzen alle NV-Karten per default DX als API.

Ohne DX könnte CryTek dem nv40 auch keinen PS3.0 Pfad spendieren, da es PS3.0 in OGl nicht gibt...

Quasar
2004-04-29, 08:17:37
Aber in oGL wäre nV nicht auf das Warten auf ein DX9.0c-Pendant angewiesen. Sie bräuchten nur ihren ICD updaten.

Mich kotzt es i.Ü. an, daß auch auf der 6800U in OpenGL noch immer nur 4 Texturen pro Pass drin sind. Was soll der Sch....?

tokugawa
2004-04-29, 08:48:31
Original geschrieben von Quasar
Aber in oGL wäre nV nicht auf das Warten auf ein DX9.0c-Pendant angewiesen. Sie bräuchten nur ihren ICD updaten.

Mich kotzt es i.Ü. an, daß auch auf der 6800U in OpenGL noch immer nur 4 Texturen pro Pass drin sind. Was soll der Sch....?

Woher weißt du das? Hast du eine NV40? :D

tokugawa
2004-04-29, 08:50:05
Original geschrieben von ShadowXX
Ohne DX könnte CryTek dem nv40 auch keinen PS3.0 Pfad spendieren, da es PS3.0 in OGl nicht gibt...

Über OpenGL werden non-ARB-approved und non-Core Funktionalitäten (also meist neueste Features) über Vendor Extensions eingebunden.

Also hast du nur halb recht, PS3.0 gibt es in Core-OpenGL nicht und es gibt auch noch keine äquivalente ARB-Extension. Aber das heißt nicht dass es nicht nutzbar wäre über eine Vendor-Extension.

ShadowXX
2004-04-29, 09:12:22
Original geschrieben von tokugawa
Über OpenGL werden non-ARB-approved und non-Core Funktionalitäten (also meist neueste Features) über Vendor Extensions eingebunden.

Also hast du nur halb recht, PS3.0 gibt es in Core-OpenGL nicht und es gibt auch noch keine äquivalente ARB-Extension. Aber das heißt nicht dass es nicht nutzbar wäre über eine Vendor-Extension.

I know....es ging mir nur darum, dass nicht dauert DX terminologie für OGl benutzt wird, oder sogar schlimmeres...

Es gibt doch da diesen berühmten Satz von Borsti im zusammenhang mit Doom3...leider fällt mir der genaue Wortlaut momentan nicht ein...

Börk
2004-04-29, 11:16:05
Original geschrieben von ShadowXX
Es gibt doch da diesen berühmten Satz von Borsti im zusammenhang mit Doom3...leider fällt mir der genaue Wortlaut momentan nicht ein...
Doom3 ist ein Mix zwischen DX8 und DX9 :freak:

Gruß,
Börk

deekey777
2004-04-29, 11:22:28
Original geschrieben von Börk
Doom3 ist ein Mix zwischen DX8 und DX9 :freak:

Gruß,
Börk

Der hat aber DX7 vergessen - Doom 3 reizt je die T&L-Technologie bis "zum geht nicht mehr" aus.

(del676)
2004-04-29, 11:43:00
Doom3 ein DX mix?

is Doom3 ned OPENGL?

deekey777
2004-04-29, 11:44:58
Original geschrieben von Ulukay
Doom3 ein DX mix?

is Doom3 ned OPENGL?

Wir sind hier bei "Verstehen Sie Spass?" :D

DrumDub
2004-04-29, 12:24:53
Original geschrieben von Börk
Doom3 ist ein Mix zwischen DX8 und DX9 :freak:

Gruß,
Börk

hehe... dieser satz hat sich auch in mein hirn eingebrannt. man hab ich dmals gelacht, als ich ihn gelesen habe. ;D

zu dx9.0c, nv40 und far cry 1.1:

anscheined läufts noch nicht mit den 3.0er shadern: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1730774#post1730774

könnte das an der eingesetzten beta von dx9.0c liegen?

tokugawa
2004-04-29, 12:50:37
Original geschrieben von ShadowXX
I know....es ging mir nur darum, dass nicht dauert DX terminologie für OGl benutzt wird, oder sogar schlimmeres...

Es gibt doch da diesen berühmten Satz von Borsti im zusammenhang mit Doom3...leider fällt mir der genaue Wortlaut momentan nicht ein...

Jo, ich mag's auch nicht wenn Leute DX Terminologie in OpenGL benutzen.

Ich mag's ja nicht mal wenn von "DX9 Tech Level" gesprochen wird als ob das was komplett anderes als DX7 Tech Level wär... (man muß die immer zusammen betrachten, jede "DX9 Engine" fing mal als DX7-Tech-Level Grundgerüst an, und eine Engine besteht nun mal nicht nur aus Shadern... die größten "Management-Funktionen" einer Engine sind nun mal ziemlich DX-Tech-Level oder gar API unabhängig - ich mein da z.B. den Szenengraph).

Demirug
2004-04-29, 13:38:44
Original geschrieben von tokugawa
Jo, ich mag's auch nicht wenn Leute DX Terminologie in OpenGL benutzen.

Ich mag's ja nicht mal wenn von "DX9 Tech Level" gesprochen wird als ob das was komplett anderes als DX7 Tech Level wär... (man muß die immer zusammen betrachten, jede "DX9 Engine" fing mal als DX7-Tech-Level Grundgerüst an, und eine Engine besteht nun mal nicht nur aus Shadern... die größten "Management-Funktionen" einer Engine sind nun mal ziemlich DX-Tech-Level oder gar API unabhängig - ich mein da z.B. den Szenengraph).

Wenn man überhaupt einen Szenegraph benutzt. IMHO sagt der "Tech Level" auch eher etwas darüber aus welche Technologien einen Engine zur Darstellung nutzen kann bzw bei einem Spiel was eingesetzt wird. Dabei geht es letzte Endes weniger darum wie man das nun erreicht sondern was man am Ende auf dem Bildschirm zu sehen bekommt. Nur weil eine Engine DX9 nutzt müssen die damit erstellten Spiele IMHO nicht als "DX9 Tech Level" Spiele angesehen werden.

Gast
2004-04-29, 15:06:36
Wiedermal FUAD:

http://www.theinquirer.net/?article=15617

800XT:
525MHz core/1120 MHz

und

Knowledgeable friends tell us that Nvidia wins 3dmark 2003 and loses but in most of the other game test ATI wins over Nvidia.


Der Coretakt liegt also 30 Prozent über der NV40 bei etwa gleichem Speichertakt. Mmmhhh.

Quasar
2004-04-29, 15:47:50
Original geschrieben von Gast
Wiedermal FUAD:

http://www.theinquirer.net/?article=15617

800XT:
525MHz core/1120 MHz

und

Knowledgeable friends tell us that Nvidia wins 3dmark 2003 and loses but in most of the other game test ATI wins over Nvidia.


Der Coretakt liegt also 30 Prozent über der NV40 bei etwa gleichem Speichertakt. Mmmhhh.

Hoffentlich sind die „Knowledgeable Friends” zu sehr dem ATi-Marketing auf den Leim gegangen... ;)

robbitop
2004-04-29, 16:21:20
das ist eben der Vorteil, den ATi mit lowk hat. Man kann deutlich höher takten. Sicher geht der XT sofern sie 16 Pipelines hat, die Bandbreite aus, aber dennoch kann man bei PS/Resolutions NV die Zähne zeigen.
Sie haben zwar imo eine geringere Pro MHz Leistung und einen Chip, der technisch von gestern ist, jedoch zählt meist die Gesamtleistung. (Außerdem hat man mit TempAA und 3Dc 2 wirklich nutzbare Features, auch wenn sie nur Softwarefeatures sind).

Ich denke mal, dass NV auf die A2 Respinversion des NV40 wartet und dass der Prozess mit dem NV40 etwas besser wird, um vieleicht im Sommer eine 475Chip >600MHz RAM Variante zu bringen. Alles imo.

reunion
2004-04-29, 16:21:51
Original geschrieben von Gast
Wiedermal FUAD:

http://www.theinquirer.net/?article=15617

800XT:
525MHz core/1120 MHz

und

Knowledgeable friends tell us that Nvidia wins 3dmark 2003 and loses but in most of the other game test ATI wins over Nvidia.


Der Coretakt liegt also 30 Prozent über der NV40 bei etwa gleichem Speichertakt. Mmmhhh.

Den 3dmark hat ja NV bis jetzt auch gewonnen(dank austauschshader), die Frage ist natürlich wie sicher diese meldung ist...

nVIDIA_Outside
2004-04-29, 16:27:53
http://www.3d-visionz.net/onlyfortesters/farcryR420.jpg

Far Cry at his best

reunion
2004-04-29, 16:46:08
Hi Guys,

Well, I've been playing a bit of LOMAC with the new GeForce 6800 Ultra, as I happen to have an engineering sample for testing. I'm running it with an Athlon 64 3400+ and 1GB of DDR400, on a Windows XP system.

I hit the High preset button in the graphics options, and run at 1280 x 1024 with 4X AA. For the most part it is very smooth, and it looks amazing. It really does change the game experience. Occasionally I still get a little slowdown - I can't remember the name of it, but there is a user made campaign that starts off with 4 x Mig29s near Sevastapol, and I still get around 18fps on the runway when looking back at them from the external camera. However, when I play the trk that won the ATI competition, minimum framerate is around 24fps (when the Hornets are on screen), with an average of well over 35fps.

And from what I've been able to gather, ATI's card is even faster than this (don't ask me how I know this!). It looks like LOMAC's graphics engine is about to receive the hardware it was designed to be played upon.

http://ubbxforums.ubi.com/6/ubb.x?a=tpc&s=400102&f=38610606&m=424109183

aths
2004-04-29, 16:53:02
Original geschrieben von Gast
Wiedermal FUAD:

[...]

"Knowledgeable friends tell us that Nvidia wins 3dmark 2003 and loses but in most of the other game test ATI wins over Nvidia." At a given time erzähle ich, woher :cop: FUAD :cop: das vermutlich hat.

aths
2004-04-29, 16:56:17
Original geschrieben von reunion
Den 3dmark hat ja NV bis jetzt auch gewonnen(dank austauschshader), die Frage ist natürlich wie sicher diese meldung ist... Falls der 3DMark in dem Test dort limitierte, wo er limitieren sollte, würde das einen Hinweis auf die R420-Architektur geben.

Gast
2004-04-29, 16:56:29
Original geschrieben von ShadowXX
darauf wollte ich eigentlich hinaus...ich vermuten nämlich selbiges.

Nach DX9.0c wird man alle FarCry Benches in die Tonne treten können, weil der nv40 wahrscheinlich erst dann bei FC zeigen kann was in ihm steckt (Bezogen auf seine Performance).

Wohl kaum, da PS3.0 nichts schneller oder besser kann als Ps2.0, wann wird das endlich verstanden*g* gähn!

reunion
2004-04-29, 16:56:50
Original geschrieben von Gast
Wiedermal FUAD:

http://www.theinquirer.net/?article=15617

800XT:
525MHz core/1120 MHz

und

Knowledgeable friends tell us that Nvidia wins 3dmark 2003 and loses but in most of the other game test ATI wins over Nvidia.


Der Coretakt liegt also 30 Prozent über der NV40 bei etwa gleichem Speichertakt. Mmmhhh.

"Lustig" ist auch das:

"We are sure that ATI cannot go much further than 525MHz as 600MHz is the theoretical limit of 0.13 µm marchitecture."

Würde mich intressieren wie man das wissen will :balla:

reunion
2004-04-29, 16:58:18
Original geschrieben von aths
Falls der 3DMark in dem Test dort limitierte, wo er limitieren sollte, würde das einen Hinweis auf die R420-Architektur geben.

Wo sollte er denn limitieren?

DrumDub
2004-04-29, 16:58:30
Original geschrieben von nVIDIA_Outside
http://www.3d-visionz.net/onlyfortesters/farcryR420.jpg

Far Cry at his best

so langsam wirds albern... aber fanboys brauchen sowas wohl zum zeitvertreib. ;D

Gast
2004-04-29, 16:59:33
Soweit ich weiss waren 600 Mhz die Grenze bei 0.15µ.

reunion
2004-04-29, 17:02:10
Original geschrieben von Gast
Soweit ich weiss waren 600 Mhz die Grenze bei 0.15µ.

AMD erreichte mit 150nm über ein GHZ. :naughty:

Neo69
2004-04-29, 17:04:26
eben...das ist totaler blödsinn einem gewissen fertigungsprozess eine generelle grenze der Taktrate zuzuschreiben, so wie FUAD das nunmal geschrieben hat. Hängt vom chip und tausend anderen sachen ab.

ShadowXX
2004-04-29, 17:05:06
Original geschrieben von Gast
Wohl kaum, da PS3.0 nichts schneller oder besser kann als Ps2.0, wann wird das endlich verstanden*g* gähn!

Kommt darauf an wofür man ihn einsetzt....

reunion
2004-04-29, 17:05:52
Original geschrieben von Neo69
eben...das ist totaler blödsinn einem gewissen fertigungsprozess eine generelle grenze der Taktrate zuzuschreiben, so wie FUAD das nunmal geschrieben hat. Hängt vom chip und tausend anderen sachen ab.

ACK, genau darauf wollte ich hinaus...

Exxtreme
2004-04-29, 17:06:50
Original geschrieben von reunion
"Lustig" ist auch das:

"We are sure that ATI cannot go much further than 525MHz as 600MHz is the theoretical limit of 0.13 µm marchitecture."

Würde mich intressieren wie man das wissen will :balla:
Eben. Ich kann mich noch gut daran erinnern, daß nicht wenige Leute meinten, daß >300 MHz mit 0.15 µm mit 107 Mio. Transistoren völlig unmöglich sind. ATi hat 412 MHz geschafft ... also über 33% mehr als so mancher selbst ernannte Experte meinte.

MechWOLLIer
2004-04-29, 17:15:40
Original geschrieben von aths
Falls der 3DMark in dem Test dort limitierte, wo er limitieren sollte, würde das einen Hinweis auf die R420-Architektur geben.

Und die wäre?

aths
2004-04-29, 17:23:24
Original geschrieben von Gast
Wohl kaum, da PS3.0 nichts schneller oder besser kann als Ps2.0, wann wird das endlich verstanden*g* gähn! Doch, er kann sowohl Dinge schneller, als auch besser als das mit 2.0 möglich ist.

MarcWessels
2004-04-29, 17:26:17
Wenn der NV40 den 3DM2003 gewinnt, ist das aufgrund der erneuten Schummeleien kein Wunder...

aths
2004-04-29, 17:33:53
Original geschrieben von MarcWessels
Wenn der NV40 den 3DM2003 gewinnt, ist das aufgrund der erneuten Schummeleien kein Wunder... Das ist eine Erklärungsmöglichkeit. Ich hätte auch eine andere auf Lager, aber dazu kann ich noch nix sagen ;( Dabei findet sich eigentlich alles im Forum X-D

robbitop
2004-04-29, 17:44:13
die Pixelshader =)

Gast
2004-04-29, 17:45:09
Original geschrieben von aths
Das ist eine Erklärungsmöglichkeit. Ich hätte auch eine andere auf Lager, aber dazu kann ich noch nix sagen ;( Dabei findet sich eigentlich alles im Forum X-D

Die PS3.0 des NV40 bringen einen Vorteil (Speed) gegenüber den 2ern beim R420 eben nur beim 3Dmark03. Bei Spielen hat das aber (noch) keine Auswirkungen?

aths
2004-04-29, 17:51:42
Original geschrieben von Gast
Die PS3.0 des NV40 bringen einen Vorteil (Speed) gegenüber den 2ern beim R420 eben nur beim 3Dmark03.Dort nun ausgerechnet nicht.
Original geschrieben von Gast
Bei Spielen hat das aber (noch) keine Auswirkungen? Noch keine sichtbaren. Auch auf längere Sicht keine sichtbaren Vorteile. Bei mir lag die Betonung auf "kann". Klar kann man mit PS sowohl schöner, als auch schneller rendern, als mit 2.0. Wenn man bereit ist, die Käuferschicht zu opfern, die keine 3.0-fähige Karten hat ...

Gast
2004-04-29, 17:56:44
Original geschrieben von aths
Dort nun ausgerechnet nicht.
Noch keine sichtbaren. Auch auf längere Sicht keine sichtbaren Vorteile. Bei mir lag die Betonung auf "kann". Klar kann man mit PS sowohl schöner, als auch schneller rendern, als mit 2.0. Wenn man bereit ist, die Käuferschicht zu opfern, die keine 3.0-fähige Karten hat ...

Also ist die Pixelshader-Leistung (ob nun durch PS3 oder nicht) nicht der ausschlaggebende Punkt?

Quasar
2004-04-29, 18:06:02
Original geschrieben von aths
At a given time erzähle ich, woher :cop: FUAD :cop: das vermutlich hat.

So wie er das geschrieben hat, ist da IMO kein „vermutlich” mehr nötig...

kami
2004-04-29, 18:06:16
Holt Nvidia die Punkte evtl. in Game 2 ( bin mir gerade nicht sicher, welcher Test der in der Raumstation ist ) auf Grund der relativ starken Stencilperformance des NV40?

dildo4u
2004-04-29, 18:09:29
Original geschrieben von kami
Holt Nvidia die Punkte evtl. in Game 2 ( bin mir gerade nicht sicher, welcher Test der in der Raumstation ist ) auf Grund der relativ starken Stencilperformance des NV40 ? gut möglich gerade hier geht die karte echt ab über 100fps im schnitt

http://www.xtremesystems.org/forums/attachment.php?postid=426472

http://www.xtremesystems.org/forums/attachment.php?postid=426471

GRiNSER
2004-04-29, 20:35:39
FUAD weiß auch nicht was er schreiben soll - einmal is die Radeon um häuser schneller, dann wieder gleichauf oder langsamer... alles schön und gut, aba ich warte auf gescheite previews :asshole:

Godmode
2004-04-29, 20:55:04
Was ich gerne wissen möchte ist folgendes: Warum wird die XT auf anscheinend 525 MHz getaktet sein?

Wollen sie Nvidia in Grund und Boden stampfen, oder haben sie eine sehr viel niedriegere Effizienz?

Von der Füllrate wären wir ja da bei 16 Pipes * 525 MHZ = 8400 MPixel; Ja ok wird man nicht erreichen, da der Speicher limitiert, aber die Zahl an sich ist schon heftig!

Naja in 5 Tagen werden wir ja wissen, wie gut die Karte ist.

Hat man eigentlich schon mal durchgerechnet, welche Effizienz die 6800U gegenüber der 9800XT beim Pixelshading hat?

BodyLove
2004-04-29, 20:55:43
Die Frage ist zwar sehr stark leistungsabhängig, aber gibt es infos bzw. spekus darüber, wie viel der X800XT kosten wird? Möglicherweise jenseits der 600 Euro-Marke?

betasilie
2004-04-29, 20:58:25
Original geschrieben von BodyLove
Die Frage ist zwar sehr stark leistungsabhängig, aber gibt es infos bzw. spekus darüber, wie viel der X800XT kosten wird? Möglicherweise jenseits der 600 Euro-Marke?
Also ich wette drauf, dass er nicht teurer wird als NVs 6800Ultra. Eher günstiger.

Demirug
2004-04-29, 21:12:24
Original geschrieben von bans3i
Hat man eigentlich schon mal durchgerechnet, welche Effizienz die 6800U gegenüber der 9800XT beim Pixelshading hat?

Ja, aber die Daten sind noch unter Verschluss weil da eine Spalte zuviel drin ist.

Gast
2004-04-29, 21:27:39
Original geschrieben von Demirug
Ja, aber die Daten sind noch unter Verschluss weil da eine Spalte zuviel drin ist.

lass mich raten; für den R420, oder?

BodyLove
2004-04-29, 21:28:32
Original geschrieben von betareverse
Also ich wette drauf, dass er nicht teurer wird als NVs 6800Ultra. Eher günstiger.

Meinst du nicht, dass das etwas unrealistisch ist, sofern die Leistung (knapp?) besser ist? Auch bei der Kühlung wird wohl dort nicht gespart werden. Dann der teuerere Speicher, wenn man dazu zu den schnelleren Speichern greift.

Godmode
2004-04-29, 21:33:03
Original geschrieben von Demirug
Ja, aber die Daten sind noch unter Verschluss weil da eine Spalte zuviel drin ist.

Versteh ich jetzt nicht ganz? wo meinst du ist ne Spalte zuviel drinnen?

Gast
2004-04-29, 21:53:04
Original geschrieben von betareverse
Also ich wette drauf, dass er nicht teurer wird als NVs 6800Ultra. Eher günstiger.

Naja kommt doch ganz auf den Speichertakt an, je höher desto teurer...

Demirug
2004-04-29, 21:59:52
Original geschrieben von bans3i
Versteh ich jetzt nicht ganz? wo meinst du ist ne Spalte zuviel drinnen?

In dem Leistungsvergleich der Pixelprozessoren.

MarcWessels
2004-04-29, 22:39:38
Original geschrieben von BodyLove
Die Frage ist zwar sehr stark leistungsabhängig, aber gibt es infos bzw. spekus darüber, wie viel der X800XT kosten wird? Möglicherweise jenseits der 600 Euro-Marke?

Ich denke nicht, daß 550 € überschritten werden, von Hercules und Asus mal abgesehen.

Gast
2004-04-29, 22:44:30
von Hercules wird es keine Grafikkarten geben..

und zum Preis würde ich auch 500-550 sagen

BodyLove
2004-04-29, 22:45:04
Hercules macht AFAIK keine Grafikkarten mehr. Sind davon abgesprungen.

betasilie
2004-04-29, 22:55:26
Original geschrieben von BodyLove
Meinst du nicht, dass das etwas unrealistisch ist, sofern die Leistung (knapp?) besser ist? Auch bei der Kühlung wird wohl dort nicht gespart werden. Dann der teuerere Speicher, wenn man dazu zu den schnelleren Speichern greift.
Original geschrieben von Gast
Naja kommt doch ganz auf den Speichertakt an, je höher desto teurer...
Bei den ATI-Boards ist der Speicher teurer, bei den NV Boards der Chip. Und selbst wenn die ATI-Boards teurer sind, heißt das noch lange nicht, dass sie auch ihre Boards günstiger als NV anbieten wollen/können.

Also ATI muss entweder wirklich schneller sein, damit sie den gleichen Preis wie NV verlangen können oder irgendwas ganz tolles in Sachen AA oder AF anbieten bei gleicher Leistung.

Wenn ATI nicht günstiger oder(und) schneller ist, dann wird NV das Rennen machen, weil sie PS3.0 unterstützen. Die Alltagstauglichkeit von PS3.0, mit Ausnahme zum beschleunigen, geht zwar gegen null, aber wieso sollte man sich eine PS2.0-Karte kaufen, wenn man für´s gleiche Geld eine gleichschnelle PS3.0 bekommt? ... Das weiß ATI und muss dementsprechend das bessere P/L-Verhältniss bieten.

BodyLove
2004-04-29, 23:07:51
Ich ging mal davon aus, dass der X800XT schneller sein wird, als der NV40Ultra. Somit bist du der Meinung, dass der Preis der X800xt auf Niveau des NV-Konkurrenten ist, da dieser PS3.0 untestützt.

Zumindest plausibel. Ich sehe dies eben ein wenig anders. Imho wird der X800xt etwas schneller sein. Wie viel schneller wage ich nicht mal zu spekulieren, da ich keinerlei handfeste Infos über die Karte habe. Sofern die 500/500 - 600Mhz stimmen sollte, so ist die XT-Variante in Spielen generell schneller. Ein Taktunterschied von 25% ist nicht zu vernachlässigen. Da man PS3.0 nicht sehen kann, denke ich, dass ATI kurzfristig den Preis etwas höher ansetzt. Der Unterschied ist hierbei natürlich auch vom Leistungsunterschied abhängig. Ich denke, dass PS3.0-Support in der Feautureliste von NV hochangerechnet wird, aber schlussendlich kommt es auf die Leistung an, was jetzt geboten wird. Deswegen wird bei der Kalkulation die Fähigkeiten des NV40s berücksichtigt, aber nicht überschätzt. Alees IMHO.

betasilie
2004-04-29, 23:11:17
Original geschrieben von BodyLove
Ich ging mal davon aus, dass der X800XT schneller sein wird, als der NV40Ultra. Somit bist du der Meinung, dass der Preis der X800xt auf Niveau des NV-Konkurrenten ist, da dieser PS3.0 untestützt.

Zumindest plausibel. Ich sehe dies eben ein wenig anders. Imho wird der X800xt etwas schneller sein. Wie viel schneller wage ich nicht mal zu spekulieren, da ich keinerlei handfeste Infos über die Karte habe. Sofern die 500/500 - 600Mhz stimmen sollte, so ist die XT-Variante in Spielen generell schneller. Ein Taktunterschied von 25% ist nicht zu vernachlässigen. Da man PS3.0 nicht sehen kann, denke ich, dass ATI kurzfristig den Preis etwas höher ansetzt. Der Unterschied ist hierbei natürlich auch vom Leistungsunterschied abhängig. Ich denke, dass PS3.0-Support in der Feautureliste von NV hochangerechnet wird, aber schlussendlich kommt es auf die Leistung an, was jetzt geboten wird. Deswegen wird bei der Kalkulation die Fähigkeiten des NV40s berücksichtigt, aber nicht überschätzt. Alees IMHO.
Auch deine Überlegungen haben Hand und Fuß. Ich gehe z.Zt. einfach davon aus, dass die x800XT geringfügig schneller sein wird, als die 6800Ultra und in diesem Fall sollte die ATI-Karte nicht teurer werden, als die NV-Lösung, da diese halt noch mit PS3.0 Werbung machen kann.

Letztendlich müssen wir wohl auf die Benchmarks warten oder Leute mit NDA anfunken. ;)

BodyLove
2004-04-29, 23:15:41
Original geschrieben von betareverse
Auch deine Überlegungen haben Hand und Fuß. Ich gehe z.Zt. einfach davon aus, dass die x800XT geringfügig schneller sein wird, als die 6800Ultra und in diesem Fall sollte die ATI-Karte nicht teurer werden, als die NV-Lösung, da diese halt noch mit PS3.0 Werbung machen kann.

Letztendlich müssen wir wohl auf die Benchmarks warten oder Leute mit NDA anfunken. ;)

Naja, ist nicht mehr lange hin. Das Wochenende geht bei mir immer etwas schneller vorbei. Woran es wohl liegen mag?:eyes:

Imho könnte sogar an den Aussagen von FUAD etwas wahres dran sein. 3dmark dahinter. alles andere knapp davor. Wie du sagtest, warten wir halt mal. Lust auf Tee?


PS: bei mir zählt der Freitag auch zum Wochenende.;)

Gast
2004-04-29, 23:22:17
Ich denke das 599€ das höchste sein wird was die super-duper Ausführung der Grafikkarten beider Hersteller kosten wird. Spezielle Sachen wie Wakü oder Karten von Gainward mit eingebautem OC natürlich ausgenommen...

Aber Tee ist ne gute Idee, erstmal müssen die Grakas bei uns auf den Markt kommen, in Massen, damit die Straßenpreise sich festigen. War bis jetzt ja immer so, das bei Einführung die Preise hoch waren und 1Monat später sich alles "normalisierte".

CrazyIvan
2004-04-30, 01:26:34
Original geschrieben von reunion
AMD erreichte mit 150nm über ein GHZ. :naughty:

AFAIR hat AMD niemals 150nm eingesetzt. Der Shrink erfolgte direkt von 0.18 auf 0.13 micron.

Gast
2004-04-30, 01:38:49
Original geschrieben von MarcWessels
Wenn der NV40 den 3DM2003 gewinnt, ist das aufgrund der erneuten Schummeleien kein Wunder...

hä?
Die neuen Treiber für den NV40 sind Futuremark approved. Somit nix Schummelei.

Sphinx
2004-04-30, 01:43:11
http://www.rage3d.com/board/showthread.php?s=&threadid=33756049

deekey777
2004-04-30, 01:54:55
Original geschrieben von Sphinx
http://www.rage3d.com/board/showthread.php?s=&threadid=33756049


Ruby hat einen knackigen Arsch!!!!!!!
Und das mit nur 80.000 Polygonen. :D

Gast
2004-04-30, 02:43:02
Original geschrieben von Sphinx
http://www.rage3d.com/board/showthread.php?s=&threadid=33756049

Ist das nur ein Werbebild oder ist das eine Techdemo ?

Sphinx
2004-04-30, 04:24:25
techdemo...

Gast
2004-04-30, 07:25:12
Original geschrieben von Gast
hä?
Die neuen Treiber für den NV40 sind Futuremark approved. Somit nix Schummelei.

Er gewinntja auch nicht!

tokugawa
2004-04-30, 08:02:55
Original geschrieben von deekey777
Ruby hat einen knackigen Arsch!!!!!!!
Und das mit nur 80.000 Polygonen. :D

Ich find die immer noch häßlich :D - wenn auch nicht mehr SO häßlich wie auf den ersten Bildern die ich gesehen hab.

ShadowXX
2004-04-30, 08:10:56
Original geschrieben von tokugawa
Ich find die immer noch häßlich :D - wenn auch nicht mehr SO häßlich wie auf den ersten Bildern die ich gesehen hab.

Lass mich raten...du magst entweder keine rothaarigen Frauen oder keine mit Kurzen Haaren...oder beides zusammen.

Sei beruhigt...mir gefällt Ruby auch nicht so dolle (bei mir sinds die roten Haare, die mich stören:D )...

Allerdings hat Ruby einen vorteil gegenüber Nalu (oder wie die holde Meerjungfer den heisst)...Sie hat auch einen unteren Teil....*eg*

reunion
2004-04-30, 08:26:40
Original geschrieben von CrazyIvan
AFAIR hat AMD niemals 150nm eingesetzt. Der Shrink erfolgte direkt von 0.18 auf 0.13 micron.

Achja :bonk:
Hast natürlich recht...

DrumDub
2004-04-30, 11:27:25
Original geschrieben von deekey777
Ruby hat einen knackigen Arsch!!!!!!!
Und das mit nur 80.000 Polygonen. :D

jupp... :D

InsaneDruid
2004-04-30, 11:56:50
Also mir gefällts.. symbolisiert n bissl eher "Power" als sone glitschige goldgelockte Meerjungfrau. ;)