Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12

deekey777
2004-04-30, 12:29:11
http://www.theinq.net/?article=15638

THE OTHER day we told you about the dual power supply on the GeForce 6800 series cards, and then I went on to say that ATI will probably do the same. I may have been off here, mainly because I am told the new X800Pro and X800XT will only consume a maximum of 80W. This would put them on the cutting edge of a single molex connector in terms of power usage.
So, how can it pull this trick off? Easy, it will be on a .11µ process rather than the current .13µ, and that should take power down a notch. The only question is what that will do to yield, it seems everyone who ventures under .13µ has the proverbial problems.

Either way, this is really good news for gamers, it means that the things will fit, almost comfortably in a SFF case, and not overtax the power supply. Happy day. The only question remaining is black. µ


Nix mit FUAD...

Ailuros
2004-04-30, 12:41:36
Lass mich raten und diese angebliche Entscheidung wurde vor etwa 3 Wochen getroffen *kopfschuettel*... ;D

Neo69
2004-04-30, 12:46:29
schon verrückt was die bei INQ immer so schreiben...tz

Man kann doch nicht einfach auf 0,11 umsteigen. Es war jetzt wochenlang von 0,13 die Rede (auch bei the inq) und so wird es auch kommen, alles Andere ergibt keinen Sinn.

DrumDub
2004-04-30, 13:05:27
r420 in 0.11µm... das wird ja immer abstruser, was fuad da schreibt. :lolaway:

deekey777
2004-04-30, 13:20:16
Original geschrieben von DrumDub
r420 in 0.11µm... das wird ja immer abstruser, was fuad da schreibt. :lolaway:

Das hat nicht Fuad Abazovic geschrieben, sondern von Charlie Demerjian - also eine sehr, sehr sichere Quelle.
(Oder so)

PS: Muss denn unbedingt ein Smiley dahinter sein, damit die Ironie des Posts noch deutlicher wird? :banghead:

PPS: Ich mag diesen Smiley :banghead:

betasilie
2004-04-30, 13:23:37
Original geschrieben von deekey777
Das hat nicht Fuad Abazovic geschrieben, sondern von Charlie Demerjian - also eine sehr, sehr sichere Quelle.
(Oder so)
Du glaubst also dran?

Gast
2004-04-30, 13:30:22
Egal wer das schreibt, 0,11 ist absolut unrealistisch. Ich wäre mir nicht mal sicher, ob ich das glauben würde, wenn es direkt von ATI käme.

reunion
2004-04-30, 13:31:03
Original geschrieben von deekey777
http://www.theinq.net/?article=15638

THE OTHER day we told you about the dual power supply on the GeForce 6800 series cards, and then I went on to say that ATI will probably do the same. I may have been off here, mainly because I am told the new X800Pro and X800XT will only consume a maximum of 80W. This would put them on the cutting edge of a single molex connector in terms of power usage.
So, how can it pull this trick off? Easy, it will be on a .11µ process rather than the current .13µ, and that should take power down a notch. The only question is what that will do to yield, it seems everyone who ventures under .13µ has the proverbial problems.

Either way, this is really good news for gamers, it means that the things will fit, almost comfortably in a SFF case, and not overtax the power supply. Happy day. The only question remaining is black. µ


Nix mit FUAD...

Schreiben die wirklich jeden Blödsinn ohne auch nur zu Überlegen ob das überhaupt möglich ist einfach ab?

110nm ist für den R420 aufjedenfall absolut unrealistisch.

Gast
2004-04-30, 13:33:35
Wenn das beurteilen könntet,was realistisch und was unrealistisch ist,würdet ihr nicht in diesem Forum sein.

DrumDub
2004-04-30, 13:34:50
Original geschrieben von deekey777
Das hat nicht Fuad Abazovic geschrieben, sondern von Charlie Demerjian - also eine sehr, sehr sichere Quelle.
(Oder so)

ja und? selbst wenn da dave orton als verfasser ständ, ist es absolut unmöglich in der kurzen zeit den fertigunsgprozess zu wechseln.

reunion
2004-04-30, 13:36:38
Original geschrieben von DrumDub
ja und? selbst wenn da dave orton als verfasser ständ, ist es absolut unmöglich in der kurzen zeit den fertigunsgprozess zu wechseln.

Zu wechseln ist AFAIK sowieso ausgeschlossen. Wenn schon dann müsste man von anfang an auf 110nm entwickelt haben..

[dzp]Viper
2004-04-30, 13:37:25
Ich glaube auch nicht an 110nm aber lasse mich auch gern von ATI eines anderen belehren :freak:

nur noch 4 tage :bounce:

InsaneDruid
2004-04-30, 13:40:01
*Tee.rauch.und.Kohle.zusammenkratz* :)

DrumDub
2004-04-30, 13:41:32
Original geschrieben von reunion
Zu wechseln ist AFAIK sowieso ausgeschlossen. Wenn schon dann müsste man von anfang an auf 110nm entwickelt haben..

ja, aber dann wäre die ganze zeit nicht von 0.13 µm und low-k die rede gewesen. eventuell ist die aussage auf den rv370/380 bezogen. das wäre imho möglich, aber den r420 wirds in 0.11 µm nicht geben.

Gandharva
2004-04-30, 14:18:09
Original geschrieben von aths
Das ist eine Erklärungsmöglichkeit. Ich hätte auch eine andere auf Lager, aber dazu kann ich noch nix sagen ;( Dabei findet sich eigentlich alles im Forum X-D 3Dc?

soll das nicht auch bei r3xx-karten funktionieren, oder liege ich da einem irrglauben auf?

Aquaschaf
2004-04-30, 14:36:02
Original geschrieben von DrumDub
ja, aber dann wäre die ganze zeit nicht von 0.13 µm und low-k die rede gewesen.

Es ist auch von vielen anderen Dingen die Rede gewesen, die sich als falsch erwiesen haben; z.B. die ganze Geschichte mit den "Pipeline"-Zahlen.
Dieses Gerücht halte ich aber trotzdem für Unsinn.

DrumDub
2004-04-30, 14:41:12
Original geschrieben von Aquaschaf
Es ist auch von vielen anderen Dingen die Rede gewesen, die sich als falsch erwiesen haben; z.B. die ganze Geschichte mit den "Pipeline"-Zahlen.

ja, aber dies war zu einem weitaus früheren stadium der fall und der hesretlleungsprozess soll jetzt auf einmal ein anderern sein und das noch nicht einmal eine woche vor der offiziellen vorstellung?

Demirug
2004-04-30, 14:43:35
Original geschrieben von reunion
Zu wechseln ist AFAIK sowieso ausgeschlossen. Wenn schon dann müsste man von anfang an auf 110nm entwickelt haben..

Hängt davon ab wie viele Custom Schaltkreise im Design sind. Wurde alles mit einer vorhandenen Bibliothek erstellt und diese Bibliothek ist auch für den neuen Prozess vorhanden kann man sehr schnell wechseln. Aber jeder Custom Schaltkreis muss für jeden neuen Prozess neu entworfen werden.

robbitop
2004-04-30, 14:56:46
klingt wirklich unrealistisch und der 110nm Prozess ist afaik noch gar nicht so weit, dass man gleich die riesen großen VPUs damit in Massen fertigen könnte. Die kleinen RV370 werden allerdings bald damit gefertigt.
Das Erstaunliche dabei ist: weder TSMC noch IBM nutzen lowk bei 110nm. Beide nehmen wieder FSG als Dielektrikum.

btw: 3Dc soll open source sein und sollte damit auf allen VPUs laufen und selbst wenn nicht, sollte es nicht allzuschwer sein, ein ähnliches Verfahen für andere VPUs zu entwickeln. Ist lediglich ein Softwarefeature wie Temp AA. Auch wenn beide sicher äusserst nützlich sein könn(t)en.

Demirug
2004-04-30, 14:59:47
Original geschrieben von robbitop
btw: 3Dc soll open source sein und sollte damit auf allen VPUs laufen und selbst wenn nicht, sollte es nicht allzuschwer sein, ein ähnliches Verfahen für andere VPUs zu entwickeln. Ist lediglich ein Softwarefeature wie Temp AA. Auch wenn beide sicher äusserst nützlich sein könn(t)en.

Texturdekompression erfordert eigentlich immer Hardware. Programmierbare Texturdekompressionseinheiten hat AFAIK noch kein IHV.

LovesuckZ
2004-04-30, 15:00:00
Original geschrieben von robbitop
btw: 3Dc soll open source sein und sollte damit auf allen VPUs laufen und selbst wenn nicht, sollte es nicht allzuschwer sein, ein ähnliches Verfahen für andere VPUs zu entwickeln. Ist lediglich ein Softwarefeature wie Temp AA. Auch wenn beide sicher äusserst nützlich sein könn(t)en.

Echt?
Was bietet eigentlich der r420 neues in hardware?
AA bleibt wohl gleich, 3Dc sei ein Softwarefeature, nur FP24 und eventuell sogar kein SM3.0...

reunion
2004-04-30, 15:01:56
Original geschrieben von LovesuckZ
Echt?
Was bietet eigentlich der r420 neues in hardware?


mehr Speed :naughty:

BodyLove
2004-04-30, 15:03:19
Original geschrieben von reunion
mehr Speed :naughty:

..und besseres AF.:D

Exxtreme
2004-04-30, 15:05:00
Original geschrieben von BodyLove
..und besseres AF.:D
Spekulation! :nono:

Oder weisst du es besser? ;(

LovesuckZ
2004-04-30, 15:05:26
Original geschrieben von BodyLove
..und besseres AF.:D

Wenn man schon am AA nichts aendert, dann auch nichts am AF.
Scheint wohl nen doppelter r360 zu werden...

[dzp]Viper
2004-04-30, 15:06:45
Original geschrieben von LovesuckZ
Wenn man schon am AA nichts aendert, dann auch nichts am AF.
Scheint wohl nen doppelter r360 zu werden...

das würde mir ausreichen X-D

Speed Speed Speed Speed Speed Speed ;D ;D

Nagut - besseres AF wäre schon nicht schlecht...

BodyLove
2004-04-30, 15:07:46
Original geschrieben von Exxtreme
Spekulation! :nono:

Oder weisst du es besser? ;(

Nö, wissen tue ichs leider nicht. Ich hoffe es aber.

Original geschrieben von Lovesuckz
Wenn man schon am AA nichts aendert, dann auch nichts am AF.
Scheint wohl nen doppelter r360 zu werden...

Am AA soll man ja was gemacht haben. Diese theoretische 12xAA-Geschichte. Ich hoffe, es wird die hohe Winkelabhängigkeit etwas entschärft. Ganz weggehen wird es wohl nicht.;(

Quasar
2004-04-30, 15:11:39
Original geschrieben von LovesuckZ
Echt?
Was bietet eigentlich der r420 neues in hardware?

Was bot der R350/360 neues in Hardware?

Aber der R42x ist ja eine "neue Technologie-Generation", da gibt's schon noch was neues in Hardware. =)

Sunrise
2004-04-30, 15:14:34
Original geschrieben von robbitop
...Das Erstaunliche dabei ist: weder TSMC noch IBM nutzen lowk bei 110nm. Beide nehmen wieder FSG als Dielektrikum...
TSMC nutzt 110nm in erster Linie für kostenoptimierte Chips, die im Gegensatz zu den High-End-Chips ein deutlich geringeres Transistorenaufkommen haben. Das schließt sowohl Value, als auch Mid-End-Chips ein (unter Vorbehalt) und wird daher - wie du schon sagtest - auch nicht für High-End-Chips empfohlen. Das Ziel ist "low-value" und "higher output", was laut TSMC mit FSG deutlich schneller und kosteneffektiver zu nutzen ist.

Der nächste Shrink für High-End-Chips (und auch designed für cost&performance) ist ohnehin TSMC´s Nexsys™ (0.90nm).

Exxtreme
2004-04-30, 15:15:17
Original geschrieben von LovesuckZ
Was bietet eigentlich der r420 neues in hardware?
Einen funktionierenden F-Buffer. X-D

LovesuckZ
2004-04-30, 15:16:01
Original geschrieben von Quasar
Was bot der R350/360 neues in Hardware?

F-Buffer X-D

Aber der R42x ist ja eine "neue Technologie-Generation", da gibt's schon noch was neues in Hardware. =)

1: Was denn?
2: OT: Wann gibt's denn auf Computerbase.de das NV40 Review?

Gast
2004-04-30, 15:16:31
Rage3D Thread:
http://www.rage3d.com/board/showthread.php?threadid=33756049&perpage=30&pagenumber=3

PDF-Dateien:
http://www.ati.com/developer/gdc/Mitchell_LightShafts.pdf
http://www.ati.com/developer/gdc/Gosselin_skin.pdf
http://www.ati.com/developer/gdc/Scheuermann_HairRendering.pdf
http://www.ati.com/developer/gdc/Scheuermann_DepthOfField.pdf
http://www.ati.com/developer/gdc/Gosselin_Gem.pdf [/SIZE][/QUOTE]

[dzp]Viper
2004-04-30, 15:19:09
War truform nicht auch wieder hardwaremäßig implemetiert? (oder habe ich das geträumt? :D)

/edit: Rechtschreibfehler - aufmerksam gemacht durch DrumDub X-D

DrumDub
2004-04-30, 15:24:37
Original geschrieben von [dzp]Viper
War trueform nicht auch wieder hardwaremäßig implemetiert? (oder habe ich das geträumt? :D)

1. truform
2. nur wenn m$ es in dx integriert. ;D

ow
2004-04-30, 15:28:08
.

DrumDub
2004-04-30, 15:39:56
Original geschrieben von ow
:???:

war eher nen witz bezogen auf die tasache, dass m$ sicher keine proprietären formate in dx integriert.

Quasar
2004-04-30, 15:49:51
Original geschrieben von LovesuckZ
2: OT: Wann gibt's denn auf Computerbase.de das NV40 Review?

Ich hoffe, am Sonntag.

deekey777
2004-04-30, 15:52:51
Original geschrieben von Exxtreme
Einen funktionierenden F-Buffer. X-D

Wehe... Und der F-Buffer meiner 9800 bleibt weiterhin im tiefsten Winterschlaf!?

Original geschrieben von [dzp]Viper
War truform nicht auch wieder hardwaremäßig implemetiert? (oder habe ich das geträumt? :D)



Bei der R200 schon, bei der R3x0 wird Truform 1 per Software emuliert, Truform 2 gibt es auch - auf dem Papier, da extrem langsam... Wie DM...

robbitop
2004-04-30, 16:10:33
hardwareseitig vermute ich bei dem Chip nichts wirklich Neues.

@Demi
wie soll denn 3Dc funktionieren, wenn _KEIN_ IHV hardwareseitig dekomprimieren kann?

Quasar
2004-04-30, 16:24:43
Original geschrieben von robbitop
@Demi
wie soll denn 3Dc funktionieren, wenn _KEIN_ IHV hardwareseitig dekomprimieren kann?

Wieso? Demirug schrieb doch nur, daß Dekompression i.d.R. nicht ohne entsprechende Hardware auf GPUs läuft und das kein IHV programmierbare Dekompression anbietet.

OpenSource muss nicht Software sein...

MarcWessels
2004-04-30, 16:38:59
Original geschrieben von Gast
hä?
Die neuen Treiber für den NV40 sind Futuremark approved. Somit nix Schummelei.


Schlimm genug, daß die approved sind! Tatsache ist und bleibt, daß der NV40 alle Benches von Game 1 bis Game 4 nicht korrekt rendert.

LovesuckZ
2004-04-30, 16:54:00
Original geschrieben von MarcWessels
Schlimm genug, daß die approved sind! Tatsache ist und bleibt, daß der NV40 alle Benches von Game 1 bis Game 4 nicht korrekt rendert.

Das ist neu. Hast du dafür einen Beweis?

DrumDub
2004-04-30, 16:55:56
Original geschrieben von LovesuckZ
Das ist neu. Hast du dafür einen Beweis?

klar, den hat er: der tolle af-test auf driverheaven. :lolaway:

MarcWessels
2004-04-30, 17:12:05
Original geschrieben von LovesuckZ
Das ist neu. Hast du dafür einen Beweis?

http://www.driverheaven.net/articles/driverIQ/

LovesuckZ
2004-04-30, 17:18:04
Original geschrieben von MarcWessels
http://www.driverheaven.net/articles/driverIQ/

Und was hat das mit einem Cheat zu tun? Erklaere das doch mal bitte unter der Beruecksichtigung, dass Demirug meint, dass der NV40 naeher am Ideal sei.

dildo4u
2004-04-30, 17:19:34
Original geschrieben von LovesuckZ
Und was hat das mit einem Cheat zu tun? Erklaere das doch mal bitte unter der Beruecksichtigung, dass Demirug meint, dass der NV40 naeher am Ideal sei. da wollte ick schon was zu schreiben ist ja toll das der NV40 tehoretsich näher am ideal ist was nützt mir das wenn das bild trotzdem schlechter aussieht zwar nich viel aber erkennbar

LovesuckZ
2004-04-30, 17:24:38
Original geschrieben von dildo4u
da wollte ick schon was zu schreiben ist ja toll das der NV40 tehoretsich näher am ideal ist was nützt mir das wenn das bild trotzdem schlechter aussieht zwar nich viel aber erkennbar

Wenn das Bild naeher am ideal dran sei, wie könnte es dann schlechter aussehen?
Es ist mühsig darüber zu diskutieren, da es für viele sowieso ein Cheat ist, da es von Nvidia kommt. Wenn ATi sowas machen würde, hieße "fantastische Optimierung, die die Bildqualitaet nicht verschlechtert, aber die Möglichkeit für Leistungssteierungen ermöglicht"
...

DrumDub
2004-04-30, 17:32:55
Original geschrieben von MarcWessels
http://www.driverheaven.net/articles/driverIQ/

die ganze schlussfolgerung dieses "tests" ist schwachsinn. ich verstehe nicht, wie man das auch noch ernstahft als beweis für cheating heranziehen kann. aber das ganz wurde ja schon im grafikchips-forum geklärt...

robbitop
2004-04-30, 17:38:13
@Quasar
möchtest du mir damit sagen, dass ATi im R420 eine hardwareseitige dekompression implementiert hat?

MarcWessels
2004-04-30, 17:49:12
Original geschrieben von LovesuckZ
Wenn das Bild naeher am ideal dran sei, wie könnte es dann schlechter aussehen?
Es ist mühsig darüber zu diskutieren, da es für viele sowieso ein Cheat ist, da es von Nvidia kommt. Wenn ATi sowas machen würde, hieße "fantastische Optimierung, die die Bildqualitaet nicht verschlechtert, aber die Möglichkeit für Leistungssteierungen ermöglicht"
...

Wo ist's denn näher am Ideal dran? Das Ideal müßte doch wohl der jeweilige Referenscreen sein und da ist ATI nahezu deckungsgleich und nVidia eben nicht.

LovesuckZ
2004-04-30, 17:50:40
Original geschrieben von MarcWessels
Wo ist's denn näher am Ideal dran? Das Ideal müßte doch wohl der jeweilige Referenscreen sein und da ist ATI nahezu deckungsgleich und nVidia eben nicht.

Der Refrast ist nicht dafür gedacht Qualitaetsvergleiche anzustellen.

Xmas
2004-04-30, 17:52:29
Der RefRast ist sicher nicht das Ideal.

ShadowXX
2004-04-30, 18:00:33
Original geschrieben von robbitop
@Quasar
möchtest du mir damit sagen, dass ATi im R420 eine hardwareseitige dekompression implementiert hat?

ich glaube, das wollte er damit....

Und ATI stellt die Grundlagen, mit denen es andere auch in HW pressen können zur verfügung....

Demirug
2004-04-30, 18:05:26
Original geschrieben von robbitop
@Quasar
möchtest du mir damit sagen, dass ATi im R420 eine hardwareseitige dekompression implementiert hat?

Wenn man nicht in der Hardware dekomprimiert ist es ja Sinnloss.

CrazyIvan
2004-04-30, 19:51:32
Original geschrieben von robbitop
@Quasar
möchtest du mir damit sagen, dass ATi im R420 eine hardwareseitige dekompression implementiert hat?

Wie soll man denn sonst Bandbreite sparen?

@ Demi
Irre ich mich, oder ist das prinzipiell nix neues (DXTC, S3TC), nur eben für alles außer Texturen?

Demirug
2004-04-30, 20:07:27
Original geschrieben von CrazyIvan
@ Demi
Irre ich mich, oder ist das prinzipiell nix neues (DXTC, S3TC), nur eben für alles außer Texturen?

Normal-Maps sind ja auch Texturen. Zu Details darf ich mich noch nicht äussern.

kami
2004-04-30, 20:17:59
In dem ATI-Pdf zum Real Time Skin Rendering steht doch was von Normal Map Compression und das wird als "new texture format in new ATi Chip" angepriesen. :|

Demirug
2004-04-30, 20:30:21
Original geschrieben von kami
In dem ATI-Pdf zum Real Time Skin Rendering steht doch was von Normal Map Compression und das wird als "new texture format in new ATi Chip" angepriesen. :|

Ich kann doch nichts dafür wenn ATI sich nicht an die eigenen NDAs hält.

Gast
2004-04-30, 21:04:48
Original geschrieben von Demirug
Ich kann doch nichts dafür wenn ATI sich nicht an die eigenen NDAs hält. Ach und was machst du jetzt :heilig2:

Demirug
2004-04-30, 21:15:42
Original geschrieben von Gast
Ach und was machst du jetzt :heilig2:

Warten. Mein Job in dem Zusammenhang ist ja sowieso bereits erledigt.

robbitop
2004-04-30, 22:48:15
@Demi
wie kompliziert ist eine Implementierung einer solchen Dekomprimierungshardware?
Ist sowas in einem Refresh machbar?

aths
2004-04-30, 23:17:39
Original geschrieben von LovesuckZ
Und was hat das mit einem Cheat zu tun? Erklaere das doch mal bitte unter der Beruecksichtigung, dass Demirug meint, dass der NV40 naeher am Ideal sei. Das ist nur so eine Idee von Demirug, die Sache ist noch nicht ausdiskutiert.

aths
2004-04-30, 23:18:24
Original geschrieben von robbitop
@Demi
wie kompliziert ist eine Implementierung einer solchen Dekomprimierungshardware?
Ist sowas in einem Refresh machbar? Klar wäre das machbar.

robbitop
2004-04-30, 23:36:21
naja wenn das Feature beit ATi wirkungsvoll ist, könnte NV das ja bereits in den Refresh mit einbringen..

Ailuros
2004-05-01, 00:40:44
Genug mit der Feature "Nachmacherei"; nach dem AF hab ich so langsam die Nase voll davon. :bäh:

CrazyIvan
2004-05-01, 03:28:52
@ Robbi

Wenn ich hier richtig zwischen den Zeilen gelesen habe, dann ist das doch der Sinn der Sache. ATi bietet seine Dekompressionstechnik quasi als Hardware-Open-Source an, damit andere Hersteller - auch nV - dies übernehmen. Damit ist die Technik nicht weiter proprietär und MS nimmt sie in DX auf.

ATi scheint aus TrueForm gelernt zu haben... ;)

Sphinx
2004-05-01, 04:32:29
ATi RADEON X800 PRO 256MB DDR AGP8X TVO/DVI (Retail)
Built by ATi
12 parallel pixel pipelines
256-bit quad-channel GDDR3 memory Interface
8 extreme parallel pixel pipelines
6 parallel vertex processing engines

20 Pixel-Pipelines ? "Anmerk. Sphinx"

The ATI RADEON™ X800 PRO delivers frame rates that surpass any previous graphics processor making it the world’s most powerful VPU. With up to two times the performance of the acclaimed RADEON™ 9800 PRO, the RADEON™ X800 PRO provides an extremely smooth, responsive HD gaming experience, putting capable gamers in complete control of even the most demanding game titles. A radically new architecture based on the latest .13 micron, low-k manufacturing process with ultra fast and efficient GDDR3 memory combine to produce extreme data rates and unbelievable acceleration in a quiet, cool, single-slot solution.

BREAKTHROUGH IMAGE QUALITY
The RADEON™ X800 PRO defines a totally new High-Definition Gaming experience for the avid gamer by maximizing performance and image quality in higher detail and at higher resolutions than ever before. ATI‘s new and revolutionary 3Dc™ image enhancement technology brings characters to life and scenery to greater realism by enabling significant improvements to the image detail of character art with increased performance and lower memory usage. 3Dc™ is slated to become the industry standard to support more complex high-definition visual effects in real time.

ADVANCED 3D ARCHITECTURE
The RADEONTM X800 PRO features SMARTSHADER™ HD, the most advanced pixel
shader engine with 12 parallel pixel pipelines capable of an incredible 6 igapixels/second fill rate in full precision! With six programmable vertex shader pipelines, capable of up to 7000 million vertices per second and an overall capability of over 140 million floating point operations per second(Giga FLOPS), the RADEON™ X800 PRO delivers the most beautifully rendered high-definition 3D animation for the ultimate in intense, interactive game play.

CUTTING EDGE VIDEO TECHNOLOGY
The RADEON™ X800 PRO gives you more than just a great gaming experience. It also has sophisticated video processing, filtering and acceleration features that make multimedia applications more efficient, inspiring and fun. With VIDEOSHADER™ HD, the RADEON™ X800 PRO takes advantage of its advanced shader processing engine for user programmable video effects, video quality enhancement, and encoding and decoding of many video standards, including MPEG1/2/4, Real Media, DivX and WMV9. The RADEON™ X800 PRO also supports the latest high-definition and wide display formats, giving users bigger and more vivid movie, gaming and Internet experiences.

SMARTSHADER™ HD

Support for Microsoft® DirectX® 9.0 programmable vertex and pixel shaders
in hardware

Direct X 9.0 Vertex Shaders

Vertex programs up to 65,280 instructions with flow control

Single cycle trigonometric operations (SIN & COS)


Direct X 9.0 Extended Pixel Shaders

Up to 1,536 instructions and 16 textures per rendering pass

2nd generation F-buffer technology

accelerates multi-pass pixel shader programs with unlimited instructions

32 temporary and constant registers

Facing register for two-sided lighting

128-bit, 64-bit & 32-bit per pixel floating point color formats

Multiple Render Target (MRT) support


Complete feature set also supported in OpenGL® via extensions


SMOOTHVISION™ HD

3Dc™ - Normal map image compression technology resulting in high detail image quality

2x/4x/6x Anti-Aliasing modes

Sparse multi-sample algorithm with gamma correction, programmable sample patterns, and centroid sampling

Lossless Color Compression (up to 6:1)at all resolutions, including widescreen
HDTV resolutions

Temporal Anti-Aliasing

2x/4x/8x/16x Anisotropic Filtering modes

Up to 128-tap texture filtering

Adaptive algorithm with bilinear (performance) and trilinear (quality) option


3DC™

High quality 4:1 Normal Map Compression

Works with any two-channel data format


HYPER Z™ HD

3-level Hierarchical Z-Buffer with Early Z Test

Lossless Z-Buffer Compression (up to 48:1)

Fast Z-Buffer Clear

Z Cache optimized for real-time shadow rendering

Optimized for performance at high display resolutions, including widescreen
HDTV resolutions


VIDEOSHADER™ HD

Seamless integration of pixel shaders with video in real time

FULLSTREAM™ video de-blocking technology for Real, DivX, and WMV9
formats

VIDEOSOAP™ noise removal filtering for captured video

MPEG1/2/4 decode and encode acceleration

DXVA Support

Hardware Motion Compensation, iDCT, DCT and color space conversion


All-format DTV/HDTV decoding

YPrPb component output for direct drive of HDTV displays

Adaptive Per-Pixel De-Interlacing and Frame Rate Conversion (temporal
filtering)

LovesuckZ
2004-05-01, 08:45:59
Original geschrieben von Sphinx
ATi RADEON X800 PRO 256MB DDR AGP8X TVO/DVI (Retail)
Built by ATi
12 parallel pixel pipelines
8 extreme parallel pixel pipelines
20 Pixel-Pipelines ? "Anmerk. Sphinx"


Nein, 12 Pipelines, bestehend aus 8 extreme und 4 normale.
Die XT Version wird dann wohl 12 extreme und ebenfalls 4 normale haben.
Nun bleibt die Frage, was kann man unter die extreme Pipelines verstehen. Wahrscheinlich keine trilineare Filterung. Ich denke mal, jede dieser 8 extrem Pipelines haben eine 2 Shaderunit und können somit 2t-ops und 4a-ops ausführen.

ShadowXX
2004-05-01, 08:56:11
Original geschrieben von Sphinx
ATi RADEON X800 PRO 256MB DDR AGP8X TVO/DVI (Retail)
Built by ATi
12 parallel pixel pipelines
256-bit quad-channel GDDR3 memory Interface
8 extreme parallel pixel pipelines
6 parallel vertex processing engines

20 Pixel-Pipelines ? "Anmerk. Sphinx"


2nd generation F-buffer technology

Facing register for two-sided lighting

128-bit, 64-bit & 32-bit per pixel floating point color formats

3Dc™ - Normal map image compression technology resulting in high detail image quality

2x/4x/6x Anti-Aliasing modes

Temporal Anti-Aliasing

2x/4x/8x/16x Anisotropic Filtering modes

Up to 128-tap texture filtering

Adaptive algorithm with bilinear (performance) and trilinear (quality) option

3DC™

High quality 4:1 Normal Map Compression

Works with any two-channel data format


HYPER Z™ HD

3-level Hierarchical Z-Buffer with Early Z Test

Z Cache optimized for real-time shadow rendering

MPEG1/2/4 decode and encode acceleration


Nette Infos....

Hab nur mal die sachen stehen lassen, die IMHO die interessantesten sind...

Aber erst mal ne frage: wo hast du die "8 extreme parallel pixel pipelines" her...im Text hab ich sie nicht gefunden...

Besonders interesant finde ich dieses hier:
"128-bit, 64-bit & 32-bit per pixel floating point color formats"

Heisst das, da ATI jetzt auch FP32 benutzt??? (auf die 128Bit bezogen...)
Oder meine sie was ganz anderes damit...

Und der F-Buffer scheint jetzt auch zu funktionieren:
"2nd generation F-buffer technology"

Beim AA und AF hat sich scheinbat nix getan (wenn man von dem TempAA mal absieht...)

Soll "Z Cache optimized for real-time shadow rendering" eine Doom3 optimierung Darstellen????
(Sozusagen das "halbe" gegenstück zu nVs 32x0??)

ow
2004-05-01, 09:02:12
.

LovesuckZ
2004-05-01, 09:04:04
Original geschrieben von ShadowXX
Aber erst mal ne frage: wo hast du die "8 extreme parallel pixel pipelines" her...im Text hab ich sie nicht gefunden...


http://www.allstarshop.com/shop/product.asp?pid=8988&sid=QDW3SU88MR308NT1TVC71XN9HSTJ27C2#

Bei den wichtigen Sachen hast du die Vertexshader vergessen.

ShadowXX
2004-05-01, 09:11:42
Original geschrieben von LovesuckZ
http://www.allstarshop.com/shop/product.asp?pid=8988&sid=QDW3SU88MR308NT1TVC71XN9HSTJ27C2#

Bei den wichtigen Sachen hast du die Vertexshader vergessen.

Du meist das hier, oder??


Single cycle trigonometric operations (SIN & COS)


Single Cycle Sin & COS verbrauchen doch ein paar Transis mehr....lohnt sich das im VS???

Bzw. anders gefragt...wie haben sie es vorher gemacht und bringt das jetzige sooooo viel mehr Speed, das sich diese implementation lohnt???

LovesuckZ
2004-05-01, 09:15:06
Original geschrieben von ShadowXX
Du meist das hier, oder??


Nein. :)
Es steht immer noch die Frage aus, ob der r420 VS3.0 haben wird. Denn "Vertex programs up to 65,280 instructions with flow control" bietet schon das Profil VS_2_a, d.H jede FX Karte.

ShadowXX
2004-05-01, 09:21:02
@LovesuckZ
Danke für den LInk...hatte ich eben vergessen..

Ja...jetzt hab ich auch das mit den 8 extreme Pipes gefunden....

Deine Speku ist zwar einleuchtent...aber irgendwie kann ich mir das nicht so zu 100% sinnvoll hinbiegen....

Architekturtechnisch kann ich mir nicht vorstellen, das es für das Timing besonders gut ist, wenn 4 der 12 Pipes "anders" Aufgebaut sind....

Entweder der Shop hat da was in den falschen Hals bekommen oder einer unserer 3DGurus (wenn denn noch welche ohne NDA übrig sind) kann mal erklären, was das bringen soll / bringen kann...

Übrigens würde ich bei der X800XT eher auf 8 Extreme + 8 "Normale" tippen (wenns die extreme denn wirklich gibt..).
Das wiederum könnte dann sogar wieder sinn machen....unter bestimmten Gesichtspunkten...

ShadowXX
2004-05-01, 09:24:56
Original geschrieben von LovesuckZ
Nein. :)
Es steht immer noch die Frage aus, ob der r420 VS3.0 haben wird. Denn "Vertex programs up to 65,280 instructions with flow control" bietet schon das Profil VS_2_a, d.H jede FX Karte.

Ja...das mit dem FlowControl hatte ich auch gelesen...aber ich glaube das konnten schon die alten r3x0 VS...(Flow Control heisst nicht gleich Branching, auch statische SPrünge sind FlowControl)

Bei den VS steht auch kein "extended" wie bei den PS dabei...deshalb gehe ich davcon aus, das die VS die gleichen geblieben sind und nur um 2 aufgestockt wurden...

Aber konnten die r3x0 VS schon Single Cycle Sin&Cos???

ShadowXX
2004-05-01, 09:27:59
Hat übrigens mal jemand auf den Preis geguckt:

499$

....was soll den erst die XT kosten....

ATI muss sich ziemlich sicher sein, wenn SIe für die Pro schon knapp den Preis der 6800U nehmen...


Ach ja...VGA & DVI...nicht DVi & DVI

ow
2004-05-01, 09:29:46
.

ShadowXX
2004-05-01, 09:37:47
Original geschrieben von ow
Nein.
IIRC brauchen die dafür 8 Takte, berechnen dabei aber Sin&Cos simultan.
NV3x braucht 1 Takt, berechnet dabei aber nur entweder Sin oder Cos.

Danke für die prompte Antwort...

Ich gehe allerdings davon aus, das auch die "neuen" ATI VS nur "entweder Sin oder Cos" pro Takt können.

Quasar
2004-05-01, 09:41:09
Original geschrieben von Sphinx
[code]The ATI RADEON™ X800 PRO delivers frame rates that
Up to 1,536 instructions
2nd generation F-buffer technology


Ya!!!!einseinself

1536:3= 512 :freak: Ein Schelm, wer böses dabei denkt. Nuja, so kriegt man's immerhin vierstellig...

F-Buffer in zweiter Generation? Hoffentlich nicht gaynausotoll, wie TruForm in zweiter Generation - ist auf der GPU quasi for free X-D

(Nein, dieses Posting ist kein Spam, es enthält subtile Hinweise!)

Demirug
2004-05-01, 09:44:51
Hersteller angaben sollte man nur soweit trauen wie man sie werfen kann. Ich sagen nur: "6800U mit 600MHz Coretakt"

[x]snaKe
2004-05-01, 09:45:17
so sieht die x800pro also aus:

http://www.allstarshop.com/shop/assets/aux_images/310170x800_1.jpg

Demirug
2004-05-01, 09:50:21
Original geschrieben von LovesuckZ
Nein. :)
Es steht immer noch die Frage aus, ob der r420 VS3.0 haben wird. Denn "Vertex programs up to 65,280 instructions with flow control" bietet schon das Profil VS_2_a, d.H jede FX Karte.

static Flow control gibt es schon bei VS 2.0. Die Leistungsangabe entspricht also einem R3XX.

ShadowXX
2004-05-01, 09:54:16
Original geschrieben von Demirug
static Flow control gibt es schon bei VS 2.0. Die Leistungsangabe entspricht also einem R3XX.

jo..es scheinen die r3x0 VS + single cycle sin&Cos zu sein...

Zu dem extreme PS Zeugs darfts du ja wohl nix sagen...

Demirug
2004-05-01, 09:54:16
Original geschrieben von Quasar
Ya!!!!einseinself

1536:3= 512 :freak: Ein Schelm, wer böses dabei denkt. Nuja, so kriegt man's immerhin vierstellig...

Beim R300 wurde ja wie folgt gezählt.

64 Vec3 + 64 Skalar + 32 Tex = 160 Ops/Shader.

DX macht aber keinen unterschied zwischen Skalar/Vec2/Vec3/Vec4 Operationen. Wenn der Chip eine Anzahl von Slots meldet dann muss man die für alles nutzen können. Daher kann der R300 unter DX normalerweise auch nur Shader mit 64A+32T Ops. Unter OpenGL kann man im Prinzip alle 160 nutzen.

Demirug
2004-05-01, 10:00:53
Original geschrieben von ShadowXX
jo..es scheinen die r3x0 VS + single cycle sin&Cos zu sein...

Zu dem extreme PS Zeugs darfts du ja wohl nix sagen...

Wir wissen ja von Dave Baumann das ATI den AIB mal was von 8 extremen Pipelines erzählt hat. Dann tauchten ja das 12 Pipeline und später das 16 Pipeline Gerücht auf. Produktbeschreibungen kommen von den AIBs und die sind manchmal schwer von Begriff wenn sich etwas äbdert.

Ich kann aber weder bestätigen und verneinen das diese Situation auch beim R420 eingetreten ist.

ShadowXX
2004-05-01, 10:08:01
Original geschrieben von Demirug
Wir wissen ja von Dave Baumann das ATI den AIB mal was von 8 extremen Pipelines erzählt hat. Dann tauchten ja das 12 Pipeline und später das 16 Pipeline Gerücht auf. Produktbeschreibungen kommen von den AIBs und die sind manchmal schwer von Begriff wenn sich etwas äbdert.

Ich kann aber weder bestätigen und verneinen das diese Situation auch beim R420 eingetreten ist.

Danke;)

Zumindest für mich ist damit "etwas" geklärt...

Zu den "128-bit, 64-bit & 32-bit per pixel floating point color formats", darfst du aber wohl nicht mal was verklausuliertes sagen, oder???

//Edit:
Ich kann den Preis immer noch nicht glauben....499$, das ist pari zur 6800U...entweder ist ATI inzwischen Grössenwahnsinnig geworden, oder die X800Pro spielt tatsächlich schon zusammen im Sandkasten mit der 6800U....nur was soll dann bitte die XT version kosten 599$ oder soagr mehr.....
(und diese müsste dann deutlich schneller als die 6800U sein, sonst würde keiner soviel Geld dafür auf den Tisch legen...)

Demirug
2004-05-01, 11:04:57
Original geschrieben von ShadowXX
Danke;)

Zumindest für mich ist damit "etwas" geklärt...

Zu den "128-bit, 64-bit & 32-bit per pixel floating point color formats", darfst du aber wohl nicht mal was verklausuliertes sagen, oder???

Diese "Color Formate" unterstützt bereits der R3XX. Wäre also nichts neues.

LovesuckZ
2004-05-01, 11:11:14
Original geschrieben von Demirug
static Flow control gibt es schon bei VS 2.0. Die Leistungsangabe entspricht also einem R3XX.

ALso keine Verbesserung bezueglich des Shadermodels bei den VS?

ShadowXX
2004-05-01, 11:13:48
Original geschrieben von Demirug
Diese "Color Formate" unterstützt bereits der R3XX. Wäre also nichts neues.

OK...dann habe ich das in den falschen Hals bekommen....

Demirug
2004-05-01, 11:17:50
Original geschrieben von LovesuckZ
ALso keine Verbesserung bezueglich des Shadermodels bei den VS?

Aufgrund dieser Beschreibung wären die VS identisch (bis auf die Sinus/Cosinus Sache) mit den R3XX Einheiten.

ShadowXX
2004-05-01, 11:19:00
Original geschrieben von LovesuckZ
ALso keine Verbesserung bezueglich des Shadermodels bei den VS?

Scheint nicht der Fall zu sein...es bleiben wohl VS2.0 Shader...sogar ohne .b Profil...

Ihr findet den Preis scheinbar ganz normal....hmmmm.

Wenn man sich die Produktbeschreibung durchguckt, bleibt wohl wirklich nur ein 2x9800Pro mit ein paar klitzekleinen Verbesserungen übrig....

Dolle ist das wirklich nicht...ich bin ernsthaft am überlegen auch dann eine nV zu kaufen, wenn der XT schneller als der 6800U sein sollte....

Irgendwie erinnert mich das an EA...Fifa 2001,2002,2003,2004.....

Demirug
2004-05-01, 11:32:39
ShadowXX, Shops schreiben im Vorfeld gerne erst mal hohe Preise hin. Nach unten gehen kann man ja immer noch.

GRiNSER
2004-05-01, 11:45:41
mhm ATi hätte wohl liebend gerne mehr neue Techniken gebracht, wenn es irgendwie gegangen wäre...
Aber wie man schon bei den FXen gesehen hat: Fortschrittlichste Techniken sind nicht alles - der Speed ist auch wichtig...

ShadowXX
2004-05-01, 11:49:31
Original geschrieben von GRiNSER
mhm ATi hätte wohl liebend gerne mehr neue Techniken gebracht, wenn es irgendwie gegangen wäre...
Aber wie man schon bei den FXen gesehen hat: Fortschrittlichste Techniken sind nicht alles - der Speed ist auch wichtig...

Naja...langsam ist die 6800U auch nicht gerade und hat trotzdem neue Technik (und nicht mal wenig).

Es geht also, "wenn man will"....

LovesuckZ
2004-05-01, 11:53:38
Original geschrieben von GRiNSER
mhm ATi hätte wohl liebend gerne mehr neue Techniken gebracht, wenn es irgendwie gegangen wäre...
Aber wie man schon bei den FXen gesehen hat: Fortschrittlichste Techniken sind nicht alles - der Speed ist auch wichtig...

Die Situation vor einem jahr ist mit der jetzt nicht zu vergleichen. ATi bot schon PS/VS2.0 und war unter PS2.0 deutlich schneller. Sie waren also auf einen ähnlichen technologischen Level.
Jetzt sieht es aber so aus, als ob Nvidia auf ein level geht, der deutlich über dem ist, was ATi bietet und man selbst gleichzeitig sehr schnell ist.
Hoffen wir, dass diese "Specs" falsch sind und ATi neben dem 3Dc wenigsten etwas mehr getan hat. Ansonsten muss man aber auch ATi gratulieren, dass sie mit einer fast 2 jahre alten Architektur so lange auskommen...

BodyLove
2004-05-01, 11:57:56
Original geschrieben von ShadowXX

Ihr findet den Preis scheinbar ganz normal....hmmmm.

Wenn man sich die Produktbeschreibung durchguckt, bleibt wohl wirklich nur ein 2x9800Pro mit ein paar klitzekleinen Verbesserungen übrig....

Dolle ist das wirklich nicht...ich bin ernsthaft am überlegen auch dann eine nV zu kaufen, wenn der XT schneller als der 6800U sein sollte....


Naja, ob der Preis lange künstlich so hoch gehalten werden kann, bezweifele ich eher. Natürlich kenne ich die Benchmarkergebnisse nicht, aber sofern man anhand der Speks spekulieren kann, gehe ich davon aus, dass der Preis auf 400 Eu gesenkt wird, wenn der X800XT rauskommt. Es gibt auch für HardcoreGamer / HighEndUser eine schwelle, wo sie sich gedanken machen, ob es Sinn macht, soviel Geld für eine Graka auszugeben. Ich denke 600 Eu ist hierbei die magische Grenze.

Wenn Speedmäßig der NV40 mit den ATI-Karten mithalten kann, so ist es gewiss eine NV-Karte, die zukünftig in meinem Rechner seinen Dienst verrichtet. Natürlich hängt es davon ab, welche BQ-Einstellungen ATI liefert. Imho viel wichtiger endlose FPS.

LovesuckZ
2004-05-01, 12:01:27
X800XT von Theinq.com

http://www.theinquirer.net/images/articles/RX800XT1.jpg

ShadowXX
2004-05-01, 12:01:39
Original geschrieben von LovesuckZ
Die Situation vor einem jahr ist mit der jetzt nicht zu vergleichen. ATi bot schon PS/VS2.0 und war unter PS2.0 deutlich schneller. Sie waren also auf einen ähnlichen technologischen Level.
Jetzt sieht es aber so aus, als ob Nvidia auf ein level geht, der deutlich über dem ist, was ATi bietet und man selbst gleichzeitig sehr schnell ist.
Hoffen wir, dass diese "Specs" falsch sind und ATi neben dem 3Dc wenigsten etwas mehr getan hat. Ansonsten muss man aber auch ATi gratulieren, dass sie mit einer fast 2 jahre alten Architektur so lange auskommen...

Ich weiss nicht, ob Gratulieren das richtige Wort ist.....mir fällt da eher was anderes zu ein...

Ich schätze mal, das diese Specs durchaus der Wahrheit entsprechen....leider...

BodyLove
2004-05-01, 12:03:55
Original geschrieben von LovesuckZ
X800XT von Theinq.com

http://www.theinquirer.net/images/articles/RX800XT1.jpg
Ich weiss nicht, aber irgendwie kann das hier kein Sample des X8000xt sein. Die rams sind hier nicht gekühlt. aber bei der X800pro scheint es gekühlt zu werden.:spock:

ShadowXX
2004-05-01, 12:06:59
Original geschrieben von BodyLove
Naja, ob der Preis lange künstlich so hoch gehalten werden kann, bezweifele ich eher. Natürlich kenne ich die Benchmarkergebnisse nicht, aber sofern man anhand der Speks spekulieren kann, gehe ich davon aus, dass der Preis auf 400 Eu gesenkt wird, wenn der X800XT rauskommt. Es gibt auch für HardcoreGamer / HighEndUser eine schwelle, wo sie sich gedanken machen, ob es Sinn macht, soviel Geld für eine Graka auszugeben. Ich denke 600 Eu ist hierbei die magische Grenze.

Die XT soll ca. 2 Wochen später rauskommen....da wird wohl kaum einer die Pro für 500 kaufen, wenn er weiss das Sie 2 Wochen später 100 taken weniger kostet...


Wenn Speedmäßig der NV40 mit den ATI-Karten mithalten kann, so ist es gewiss eine NV-Karte, die zukünftig in meinem Rechner seinen Dienst verrichtet. Natürlich hängt es davon ab, welche BQ-Einstellungen ATI liefert. Imho viel wichtiger endlose FPS.

Wenn man sich die Specs so anguckt, wird ATI IMHO nix am AF gedreht haben....

Gast
2004-05-01, 12:15:22
3 Tage zu warten und sehen was man wirlich bekommt ist euch wohl unmöglich. Stattdessen zieht ihr euch an etwas hoch, was nicht offizieller ist, als die gefakten Bilder, die es hier letztens zu gab. Speks von irgendeinem Distributor, der sich eine doppelten Spaß macht, nicht nur falsche Speks zu liefern und euch damit an der Nase herumzuführen, sondern die ersten Käufer zu prellen oder zu verarschen!

BodyLove
2004-05-01, 12:21:24
Original geschrieben von ShadowXX
Die XT soll ca. 2 Wochen später rauskommen....da wird wohl kaum einer die Pro für 500 kaufen, wenn er weiss das Sie 2 Wochen später 100 taken weniger kostet...
Du und ich würden es vielleicht nicht kaufen, aber es gibt bestimmt ein Paar, die das tun könnten. Zumal wir ja gar nicht wissen, wie stark der X800pro ist. Ich denke, die kursierten Ergebnisse des X800pro im 3dmark03 waren schon realitätsnah. Wenn das stimmt, so ist der Preis zu hoch gegriffen. An 400 Eu wird sich der Preis wohl ansiedeln.



Wenn man sich die Specs so anguckt, wird ATI IMHO nix am AF gedreht haben.... Welche Specs bezüglich AF? Es ist net mehr lange hin. Wäre imho sogar dumm am AF nichts zu machen. NV hat jetzt den "Vorteil", dass die Trillinear nun einschalten lassen.

CrazyIvan
2004-05-01, 12:38:31
Original geschrieben von ow
1) MS braucht das nicht in DX aufzunehmen, weil die Unterstützung IHV-eigener Formate da schon längst drin ist.

2) Was das mit Truform zu tun hat verstehe ich auch nicht. Auch dies ist in DX drin.

Gut, mit DX haste natürlich recht. Bezog mich auf TruForm hinsichtlich der Marktdurchdringung. War halt ne Totgeburt, die ATi mit dem Bereitstellen der Technik für die Konkurrenz diesmal umgehen will.
Sehe das ähnlich wie HT, dass auch nur ein Erfolg wurde, weil AMD es jedem für lau zur Verfügung gestellt hat.

ShadowXX
2004-05-01, 12:42:29
Original geschrieben von BodyLove

Welche Specs bezüglich AF? Es ist net mehr lange hin. Wäre imho sogar dumm am AF nichts zu machen. NV hat jetzt den "Vorteil", dass die Trillinear nun einschalten lassen. [/SIZE]

Genau das meinte ich damit...die AF Specs sind die gleichen wie beim r3x0...wenn SIe da was gegenüber diesem gedreht hätten, hätten Sie es IMHO herausgehoben...ala "improved adapative AF algos"..

@Gast
dann gib uns doch mal die "echten" specs....

Gast
2004-05-01, 12:49:10
Habe ich jemals behauptet sie zu haben? - ShadowXX, Du läßt dich von einem Fake mit offiziellen Anschein verarschen. Wer die Speks hat, hat auch ein NDA. Weshalb glaubst du dieser Pseudo-Auflistung mehr als manch wirren Spekulationen zuvor? Gibt es dafür einen Grund. Dann nenne ihn mir. Krieg dich mal wieder ein und warte auf Dienstag/Mittwoch.

Gast
2004-05-01, 13:08:41
Noch ein Shop:

http://www.allstarshop.com/shop/product.asp?pid=8988&sid=QDW3SU88MR308NT1TVC71XN9HSTJ27C2#

Auch 499$

Ich finde es allerdings schonmal positiv, dass wie bei NV MPEG1/2/4 Decoding sowie Encoding geboten wird. Also doch ein Fortschritt zu R3xx.

[dzp]Viper
2004-05-01, 13:16:36
Ich finde das sehr interessant:

Pre-Order (ETA:05/07/2004)

ETA heißt doch "Auslieferungstermin" oder?

Gast
2004-05-01, 13:17:30
Es ist aber schon interessant, dass jetzt schon Onlineshops diese GraKa anbieten. Meines Erachtens bieten biher keine dt. Onlineshops eine NV40. Es sieht also wirklich so aus, dass ATI eher liefern wird.

Gast
2004-05-01, 13:19:36
Original geschrieben von Gast
Noch ein Shop:

http://www.allstarshop.com/shop/product.asp?pid=8988&sid=QDW3SU88MR308NT1TVC71XN9HSTJ27C2#

Auch 499$

Ich finde es allerdings schonmal positiv, dass wie bei NV MPEG1/2/4 Decoding sowie Encoding geboten wird. Also doch ein Fortschritt zu R3xx.

Auch interessant, dass auf der selbe Anbieter die R9800XT für 469$ führt.

Demirug
2004-05-01, 13:20:51
Original geschrieben von [dzp]Viper
Ich finde das sehr interessant:

Pre-Order (ETA:05/07/2004)

ETA heißt doch "Auslieferungstermin" oder?

ETA = estimated time of arrival = ca.-Ankunftsdatum

Auslieferung wäre ETS = estimated time of shipment.

ow
2004-05-01, 13:23:35
.

[dzp]Viper
2004-05-01, 13:24:38
Original geschrieben von Demirug
ETA = estimated time of arrival = ca.-Ankunftsdatum

Auslieferung wäre ETS = estimated time of shipment.

hm ok - wenn die karten da sind, dann verschickt er sie ja auch...

Wenn das ATI wirklich schafft, dass die Karten am 07.05. bei den Händlern in den USA eintreffen, dann können wir in Europa wohl ca. eine Woche Später rechnen oder? :D

Demirug
2004-05-01, 13:26:54
Original geschrieben von Gast
Es ist aber schon interessant, dass jetzt schon Onlineshops diese GraKa anbieten. Meines Erachtens bieten biher keine dt. Onlineshops eine NV40. Es sieht also wirklich so aus, dass ATI eher liefern wird.

Gelistet sind sie schon:

http://www8.alternate.de/html/nodes_info/jage10.html

http://www8.alternate.de/html/nodes_info/jagw25.html

http://www8.alternate.de/html/nodes_info/jagw28.html

http://www8.alternate.de/html/nodes_info/jagl20.html

Godmode
2004-05-01, 13:30:07
Mich würde interessieren, warum ATI die Rams nicht mitkühlen muss? Entweder bekommen sie wirklich besseren Speicher oder es ist ein Fake. NV hat ihn IIRC übertaktet, weil sie keinen schnelleren Ram bekommen haben.

edit: NV40 wird anscheinend mit 50 MHz mehr Coretakt ausgeliefert werden. Quelle: http://www.theinquirer.net/?article=15641

Jetzt stellt sich halt die Frage, ob sie damit die Pro schlagen wollen, oder die XT.

deekey777
2004-05-01, 13:31:04
Original geschrieben von [dzp]Viper
hm ok - wenn die karten da sind, dann verschickt er sie ja auch...

Wenn das ATI wirklich schafft, dass die Karten am 07.05. bei den Händlern in den USA eintreffen, dann können wir in Europa wohl ca. eine Woche Später rechnen oder? :D

Aber natürlich....

Letztes Jahr waren die 9800XT Modelle in den USA schon nach wenigen Tagen verfügbar, dagegen kuckte das alte Europa ins Loch.

Wenn ich mich nicht täusche, hatte Alternate auch "Exklusivrechte" als erster die 5950 Ultra zum Verkauf anzubieten.

Gast
2004-05-01, 13:33:07
Original geschrieben von Demirug
Gelistet sind sie schon:

http://www8.alternate.de/html/nodes_info/jage10.html

http://www8.alternate.de/html/nodes_info/jagw25.html

http://www8.alternate.de/html/nodes_info/jagw28.html

http://www8.alternate.de/html/nodes_info/jagl20.html

Danke für die Links, auch an ow.

Lieferzeit ist orange, d.h.:
Lieferzeit nach Herstellerangaben. Also immernoch die offiziellen 45 Tage nach Präsentation.

Gast
2004-05-01, 13:36:35
Und genau da fehlt's. Alternate führt bereits auf, obwohl die wissen, dass NV nicht vor Ende Mail Chips liefern kann. Und Board-Hersteller geben bereits jetzt Termine bekannt, obwohl sie noch nicht einmal wissen, ob sie auch Ende Mai alle die Chips von NV bekommen. Die Angbote von Alternate gehörten eigentlich in deren Speku-Forum, wenn sie denn eins hätten. Hier sind sie schon richtig aufgehoben. Gibt es schon irgendwelche offiziellen Aussagen von ATI zu Liefertermin -> Nein! - Wie auch - Der R420 ist noch nicht einmal vorgestellt. Angaben zum Liefertermin von Boards wäre Megalächerlich!

ShadowXX
2004-05-01, 13:39:57
Original geschrieben von Gast
Habe ich jemals behauptet sie zu haben? - ShadowXX, Du läßt dich von einem Fake mit offiziellen Anschein verarschen. Wer die Speks hat, hat auch ein NDA. Weshalb glaubst du dieser Pseudo-Auflistung mehr als manch wirren Spekulationen zuvor? Gibt es dafür einen Grund. Dann nenne ihn mir. Krieg dich mal wieder ein und warte auf Dienstag/Mittwoch.

Den Grund: gerne...

Die Daten sind relativ realitisch und sehen absolut nicht nach hype bzw. überzogen aus...

Viel mehr haben wir vom r420 doch auch nicht erwartet....

Anders gesagt/gefragt: was erwartest du denn noch an "wesentlichen" veränderungen gegenüber dieser Liste??

Gast
2004-05-01, 13:50:44
ShadowXX,

was ist realistisch und was ist hype?! Wenn die Speks authentisch wären, dann wäre es als NDA-Bruch anzusehen. Wenn sie zufällig mit wirklichen Speks übereinstimmen, dann wäre es Zufall. Eher wahrscheinlich ist es, hier möchte einer schnell Geld per Vorbestellung machen und kopiert alte 9800 Speks zusammen. Und darauf fährst du ab.

Gast
2004-05-01, 13:58:48
Wird die XT auch am Dienstag vorgestellt?

deekey777
2004-05-01, 14:00:53
http://www.theinq.net/images/articles/RX800XT1.jpg

Das ist eine X800XT, meint der
Inquirer (http://www.theinq.net/?article=15640) ...

"Look at this picture below, and note well that the memory banks, even running at 1120MHz are not covered at all while Nvidia cools its memory with passive heatsinks. Nvidia memory is clocked at 1100MHz so is very close to ATI.

Apart from this and a little yellow connector, the card looks identical to the Radeon 9800XT.

You will get some benchmark numbers on Tuesday (?) from us."
Der Inquirer ist doch ein UK-Magazin bzw. eine britische Seite? Falls ja, warum wollen sie die Ergebnisse schon am Dienstag veröffentlichen, wenn die Präsentation(-sparty) so gegen 04.00 Uhr in der Nacht vom 4.5 auf den 5.5 stattfinden soll?

Noch was: http://www.theinq.net/?article=15647

Da war einer wohl etwas zu voreilig. ;)

ShadowXX
2004-05-01, 14:06:46
Original geschrieben von Gast
ShadowXX,

was ist realistisch und was ist hype?! Wenn die Speks authentisch wären, dann wäre es als NDA-Bruch anzusehen. Wenn sie zufällig mit wirklichen Speks übereinstimmen, dann wäre es Zufall.


Selbst wenn sich der Shop diese Liste aus alten r3x0 Specs + (halbwegs gesicherten) I-Net-Spekus zusammengebastelt hat, gibt Sie im Prinzip ganz gut her was wir im Moment zu glauben wissen....

Deshalb halte ich Sie für "relativ" realistisch....



Eher wahrscheinlich ist es, hier möchte einer schnell Geld per Vorbestellung machen und kopiert alte 9800 Speks zusammen. Und darauf fährst du ab.

Wenn der Shop damit Geld machen wollte, wäre die Liste wohl wesentlich "blumiger" und hätte noch ein paar sachen drinne, damit man einen Grund hat die Karte vorzubestellen...

Ehrlich gesagt würde ich aufgrund dieser Liste und des Preises eher keine Karte kaufen, als diese unbedingt bestellen zu wollen...
Wäre also eher Kontraproduktiv für den Shop...

NDA brecher gabs übrigens schon immer....

Und du hast mir auch nicht gesagt, was du denn noch an veränderungen gegenüber dieser Liste erwartest....

Gast
2004-05-01, 14:08:34
XT nächste Woche vorgestellt? Wissen auch nur jene, deren Mund mit NDA versiegelt ist.

deekey777
2004-05-01, 14:12:22
Original geschrieben von Gast
XT nächste Woche vorgestellt? Wissen auch nur jene, deren Mund mit NDA versiegelt ist.

Das ist irgendwie für mich auch seltsam, bisher hieß es, dass die X800XT "erst" in 14 Tagen (bzw. Ende Mai) nach der X800Pro.

LovesuckZ
2004-05-01, 14:13:43
Original geschrieben von deekey777
Das ist irgendwie für mich auch seltsam, bisher hieß es, dass die X800XT "erst" in 14 Tagen (bzw. Ende Mai) nach der X800Pro.

Logische Konsequenz aus dem NV40.
Pro wahrscheinlich langsamer, XT schneller. Somit gibt man beide Karten an die Tester. Einerseits wird gezeigt, dass man schneller als die Konkurenz ist und die Karten, auch wenn es nur die Pro ist, früher erhältlich sein wird.

deekey777
2004-05-01, 14:16:19
Original geschrieben von LovesuckZ
Logische Konsequenz aus dem NV40.
Pro wahrscheinlich langsamer, XT schneller. Somit gibt man beide Karten an die Tester. Einerseits wird gezeigt, dass man schneller als die Konkurenz ist und die Karten, auch wenn es nur die Pro ist, früher erhältlich sein wird.

Anderseits meint Mr. Fuad A., dass nVidia den VPU-Takt auf stolze 450 MHz erhöhen will/wird.

Winter[Raven]
2004-05-01, 14:16:42
Original geschrieben von LovesuckZ
Logische Konsequenz aus dem NV40.
Pro wahrscheinlich langsamer, XT schneller. Somit gibt man beide Karten an die Tester. Einerseits wird gezeigt, dass man schneller als die Konkurenz ist und die Karten, auch wenn es nur die Pro ist, früher erhältlich sein wird.

Blöd nur das Nvidia jetzt den NV40 50 mhz höher getaktet hat durch ein neues Bios. als reaktion auf den R420XT?

dildo4u
2004-05-01, 14:19:03
Original geschrieben von Winter[Raven]
Blöd nur das Nvidia jetzt den NV40 50 mhz höher getaktet hat durch ein neues Bios. als reaktion auf den R420XT? denk mal eher um den 6800U nich zu schlecht gegen den X800pro ausehen zu lassen die top karte kann ja nich nur so schnell wie die midrange karte des konkurenten sein

Gast
2004-05-01, 14:22:19
ShadowXX,

ich habe nichts beizutragen. Warte bis Dienstag. Deine Kaufentscheidung wirst du ohnehin nicht vor Ende Mai treffen.

Was meinst du mit "blumiger"? Lügen bis sich die Balken biegen!? So blöde bzw. kreativ ist der Händler bestimmt nicht. Er 'veröffentlicht' eben einfach, was schon drin ist, in der 9800. Da kann man kaum was falsch machen bzüglich R420, oder?

ShadowXX
2004-05-01, 14:22:26
Original geschrieben von dildo4u
denk mal eher um den 6800U nich zu schlecht gegen den X800pro ausehen zu lassen die top karte kann ja nich nur so schnell wie die midrange karte des konkurenten sein

Ist das nicht etwas zu optimistisch???

Ich würde die X800Pro auch eher als "unteres" High-End, denn als Mid-Range sehen...

Winter[Raven]
2004-05-01, 14:22:28
Original geschrieben von dildo4u
denk mal eher um den 6800U nich zu schlecht gegen den X800pro ausehen zu lassen die top karte kann ja nich nur so schnell wie die midrange karte des konkurenten sein

Ohh bitte ... nimm bitte deine rosarote Brille ab, DANKE!

Oder hast du eine Grasskugel?

Dieses R420 gehype ist echt nicht mehr auszuhalten.

dildo4u
2004-05-01, 14:23:12
Original geschrieben von Winter[Raven]
Ohh bitte ... nimm bitte deine rosarote Brille ab, DANKE!

Oder hast du eine Grasskugel?

Dieses R420 gehype ist echt nicht mehr auszuhalten. ich nehme nur die theoretischen zahlen zur grundlage

GeForce 6800 Ultra 6,4 GT/sec 33,6 GB/sec

Radeon X800 Pro 5,7 GT/sec 29,0 GB/sec

Radeon X800Xt8,0 GT/sec 30,5 GB/sec damit is der 6800u whol deutlich näher am X800pro als am X800XT

quelle 3dcenter: http://www.3dcenter.org/artikel/2004/04-19.php

Winter[Raven]
2004-05-01, 14:23:40
Original geschrieben von dildo4u
ich nehme nur die theoretischen zahlen zur grundlage

diese wären?

deekey777
2004-05-01, 14:25:36
Original geschrieben von ShadowXX
Ist das nicht etwas zu optimistisch???

Ich würde die X800Pro auch eher als "unteres" High-End, denn als Mid-Range sehen...

Eher als "normales" High End Produkt, die 6800Ultra (mit 450 MHz ;) ) und die X800XT als Ultra High End Produkte.

Original geschrieben von Winter[Raven]
Ohh bitte ... nimm bitte deine rosarote Brille ab, DANKE!

Oder hast du eine Grasskugel?

Dieses R420 gehype ist echt nicht mehr auszuhalten.

Das ist kein "Gehype", eher will keiner seine Karten offen legen und lässt alle im Dunklen.

ShadowXX
2004-05-01, 14:25:49
Original geschrieben von Gast
ShadowXX,

ich habe nichts beizutragen. Warte bis Dienstag. Deine Kaufentscheidung wirst du ohnehin nicht vor Ende Mai treffen.

Was meinst du mit "blumiger"? Lügen bis sich die Balken biegen!? So blöde bzw. kreativ ist der Händler bestimmt nicht. Er 'veröffentlicht' eben einfach, was schon drin ist, in der 9800. Da kann man kaum was falsch machen bzüglich R420, oder?

Falsch sicher nicht....aber Kaufanreiz bietet er damit nicht...

Und ja..genau das meinte ich mit blumiger...vielleicht nicht unbedingt lügen, aber extrem unklare, mehrfach auslegbare Dinge reinschreiben...

Aber du hast recht...vor der Vorstellung der XT würde ich sowieso nix bestellen...

ShadowXX
2004-05-01, 14:28:34
Original geschrieben von dildo4u
ich nehme nur die theoretischen zahlen zur grundlage

GeForce 6800 Ultra 6,4 GT/sec 33,6 GB/sec

Radeon X800 Pro 5,7 GT/sec 29,0 GB/sec

Radeon X800Xt8,0 GT/sec 30,5 GB/sec damit is der 6800u whol deutlich näher am X800pro als am X800XT

quelle 3dcenter: http://www.3dcenter.org/artikel/2004/04-19.php

Inzwischen liegt der Ram-Takt der XT bei 1120MHz (also echten 560Mhz)....lt. den letzen Grüchten zumindest..

dildo4u
2004-05-01, 14:31:50
Original geschrieben von ShadowXX
Inzwischen liegt der Ram-Takt der XT bei 1120MHz (also echten 560Mhz)....lt. den letzen Grüchten zumindest.. mir geht nur darum das sich der 6800u deutlich vom X800pro absetzen muss deshalb whol jetzt die erhöhung auf 450 was ick für unglücklich halte da jetzt alles test im netz ungültig sind

Gast
2004-05-01, 14:49:59
Für 450 MHz ist wahrscheinlich eine höhere Spannung nötig. Die Angaben zur Leistungsaufnahme und die 480W Netzteil Empfehlung wären auch hinfällig.

Pitman
2004-05-01, 14:53:14
Schaut doch mal bei Computerbase:
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/radeon_x800_pro/

Hier gibt es alle Spezifikationen zur Radeon
x800Pro. Bin ja mal gespannt wie lange diese
noch online sind.

Vielleicht sollte man den Text mal hier rein
stellen ?

Update:Oh bin wohl doch zu spät schade !!

Pitman

Winter[Raven]
2004-05-01, 15:07:24
Original geschrieben von Gast
Für 450 MHz ist wahrscheinlich eine höhere Spannung nötig. Die Angaben zur Leistungsaufnahme und die 480W Netzteil Empfehlung wären auch hinfällig.

Nö, muss nicht sein. Man weiß dass der NV40 mit ~475 stabil läuft. Also braucht man nichts am vCore zuändern ;)

dildo4u
2004-05-01, 15:09:03
Original geschrieben von Winter[Raven]
Nö, muss nicht sein. Man weiß dass der NV40 mit ~475 stabil läuft. Also braucht man nichts am vCore zuändern ;) jo aber oc spielraum gibts dann kaum noch für viele is auch das oc potential ein kaufgrund

Sunrise
2004-05-01, 15:22:46
Original geschrieben von ShadowXX
Scheint nicht der Fall zu sein...es bleiben wohl VS2.0 Shader...sogar ohne .b Profil...

Ihr findet den Preis scheinbar ganz normal....hmmmm.

Wenn man sich die Produktbeschreibung durchguckt, bleibt wohl wirklich nur ein 2x9800Pro mit ein paar klitzekleinen Verbesserungen übrig....

Dolle ist das wirklich nicht...ich bin ernsthaft am überlegen auch dann eine nV zu kaufen, wenn der XT schneller als der 6800U sein sollte....

Irgendwie erinnert mich das an EA...Fifa 2001,2002,2003,2004.....
ShadowXX, mit Verlaub, aber was hast du denn erwartet ? Der Preis ist angemessen, und NV wird in dieser Runde natürlich alles unternehmen, ATI zu überbieten (Preis und/oder Leistung). ATI verbessert die "alte" R300 soweit, wie es noch möglich ist, und bringt den R500 später (sehr plausible Gründe wurden ja zuhauf genannt).

Mir persönlich gefällt der neue Ansatz des NV40 auch extrem gut - insofern hast du meine Zustimmung - und gerade ich stelle mich aus Prinzip nicht in eine Ecke des Geschehens.

Der Preis ist eine Sache, die sich durch den Markt automatisch regeln wird. Je nachdem wie die Resonanz ist, wird dieser relativ schnell fallen, oder aber auf einem gewissen Niveau bleiben. 499 EUR nur für die Pro sind für mich "natürlich" auch absolut indiskutabel, aber ich bin eigentlich auch kein High-End-Käufer, insofern nur "am Rande" bemerkt :)

Godmode
2004-05-01, 15:37:36
Original geschrieben von Winter[Raven]
Nö, muss nicht sein. Man weiß dass der NV40 mit ~475 stabil läuft. Also braucht man nichts am vCore zuändern ;)

Nggalai meinte mal, das er jemanden kennt(nen Dev) bei dem die Ultra mit 600 MHz läuft.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=137484

Gast
2004-05-01, 15:40:52
Entweder Spannungserhöhung oder sehr schlechte Ausbeute. 450MHz@400MHz Spannung, und es wird kaum Karten geben.

Sphinx
2004-05-01, 15:58:24
Original geschrieben von Sunrise
499 EUR nur für die Pro sind für mich "natürlich" auch absolut indiskutabel, aber ich bin eigentlich auch kein High-End-Käufer, insofern nur "am Rande" bemerkt :)


Wieso induskutabel - wenn sie schneller sein sollte als eine GF6800 ULTRA - wenn...

Ansonsten werden wir es bald ja wissen "in 5 Tagen" können wir uns alle ein Bild machen R420 vs NV40

WEGA
2004-05-01, 16:05:49
wenns die pro im laden zum kaufen gibt, dann kostet die bestimmt keine 500€. mit diesen pre-orders haun die doch nur die leute übers ohr.

Gast
2004-05-01, 16:09:35
Radeon X800 Pro erhältlich!


In einem Shop in Übersee gibt es im Laufe der nächsten Woche eine neue Grafikkarte. Anscheinend gibt es dort kein NDA, oder man hat es übersehen, denn dort wird die ATi Radeon X800 Pro mit allen Spezifikationen - inklusive Bild - zu einem Preis von 499 US-Dollar angeboten. Erhältlich soll das gute Stück ab dem 7. Mai 2004 sein.

ATi RADEON X800 PRO 256MB DDR AGP8X TVO/DVI (Retail)
Built by ATi
12 parallel pixel pipelines
256-bit quad-channel GDDR3 memory Interface
8 extreme parallel pixel pipelines
6 parallel vertex processing engines
Dies sind die Kernpunkte der neuen Grafikkarte, mit denen im Shop kräftig geworben wird. Dazu wird, wie eingangs schon ewähnt, der Preis von 499 US-Dollar genannt und dass sich die Karte im „Pre-Order-Status” befindet und ab dem 7. Mai 2004 erhältlich sein soll. Durch das Produktfoto im Shop wird letztendlich auch das Aussehen der Karte gefestigt, welches vor einiger Zeit schon einmal in den Weiten des Internets zu sehen war.

Die Produktbeschreibung der Grafikkarte sieht dabei fast so aus, als könnte sie aus der offiziellen Pressemitteilung stammen. Die Spezifikationen gibt es am Ende der Produktbeschreibung im besagten Allstarshop. Da durch die ellenlange Produktbeschreibung die Übersicht leicht abhanden geht, haben wir diese in den Klapptext gepackt.

tRpii
2004-05-01, 16:09:54
Wenn man sich alle preise von denen anschaut dann merkt man das sie im durschnitt ca. 100$ über Normal liegen. Ich denke schon dass sie für 399$ über den ladentisch gehen wird (jedenfalls woanders).

Sunrise
2004-05-01, 16:11:58
Original geschrieben von Sphinx
Wieso induskutabel - wenn sie schneller sein sollte als eine GF6800 ULTRA - wenn...

Ansonsten werden wir es bald ja wissen "in 5 Tagen" können wir uns alle ein Bild machen R420 vs NV40
Der Preis ist für mich absolut indiskutabel, da ich mir keine Karten für 1000 DM kaufe. Insofern gilt das nur für mich persönlich. Da kann das Ding noch so schnell sein ...

Übrigens (http://www.theinquirer.net/?article=15641):

Dort steht: "...Geforce 6800 Ultra will end up faster then 450MHz...", also nicht 450MHz - wie von einigen geschrieben -, sondern "...schneller als 450MHz".

tRpii
2004-05-01, 16:30:44
The Inquirer - Bild dir deine Meinung..

time will tell.. im Moment wird soviel Spekuliert dass man alles realistische vergisst..

Iwan
2004-05-01, 16:53:55
Sieht fast so aus, als wartet NV mit der Auslieferung der NV40 noch bis bekannt ist wie schnell der R420 ist, um evtl noch was am takt drehen zu können. Das könnte ein Grund sein wieso die NV40 Karten so lange auf sich warten lassen.

[dzp]Viper
2004-05-01, 16:55:25
Ich finde es aufeinmal extrem verwunderlich wie beide parteien sich auf Inquirer verlassen... Ich vor einer Woche war Inquirer noch der Inbegriff von gerüchten mit nix dran - und jetzt scheinbar Quelle Nr. 1 ;D ;D

Kommt mir so vor, wie als suchen beide Parteien noch einem Strohhalm mit Informationen :freak:

WEGA
2004-05-01, 16:56:36
verstehe nur nicht, warum sie nicht gleich alles aus ihr raushohlen.

tokugawa
2004-05-01, 17:00:39
Original geschrieben von Sunrise
Der Preis ist für mich absolut indiskutabel, da ich mir keine Karten für 1000 DM kaufe. Insofern gilt das nur für mich persönlich. Da kann das Ding noch so schnell sein ...

Übrigens (http://www.theinquirer.net/?article=15641):

Dort steht: "...Geforce 6800 Ultra will end up faster then 450MHz...", also nicht 450MHz - wie von einigen geschrieben -, sondern "...schneller als 450MHz".

Jo, ich warte auch auf die Mainstream-Lösungen...

So um die 200 Euro herum ist mein absolutes Maximum. Wenn's mir gut geht vielleicht sogar bis 250 Euro...

WEGA
2004-05-01, 17:03:25
Original geschrieben von tokugawa
Jo, ich warte auch auf die Mainstream-Lösungen...

So um die 200 Euro herum ist mein absolutes Maximum. Wenn's mir gut geht vielleicht sogar bis 250 Euro...

na dnan viel spaß mit deiner zukünftigen 9600 ;)

Ailuros
2004-05-01, 17:14:51
Original geschrieben von LovesuckZ
Die Situation vor einem jahr ist mit der jetzt nicht zu vergleichen. ATi bot schon PS/VS2.0 und war unter PS2.0 deutlich schneller. Sie waren also auf einen ähnlichen technologischen Level.
Jetzt sieht es aber so aus, als ob Nvidia auf ein level geht, der deutlich über dem ist, was ATi bietet und man selbst gleichzeitig sehr schnell ist.
Hoffen wir, dass diese "Specs" falsch sind und ATi neben dem 3Dc wenigsten etwas mehr getan hat. Ansonsten muss man aber auch ATi gratulieren, dass sie mit einer fast 2 jahre alten Architektur so lange auskommen...


Eine etwas merkwuerdige Perspektive. Ich versuche es mal anders:

ATI machte einen Ansatz mit einfachem PS/VS2.0 und mit der bestimmten Architektur war es gerade noch moeglich unter Verraussetzungen PS/VS2.0+ (oder quasi "+") zu erreichen.

NVIDIA setzte den Pegel schon von Anfang an hoeher mit einer Logik die viel naeher an der einer CPU lag und PS/VS2.0+, wo die Erweiterung auf PS/VS3.0 sehr leicht zu erreichen war.

Der Kommentar dass ATI mit einer 2 Jahre alten Architektur auskommt koennte man leicht falsch verstehen. Sie Dir mal genau die notwendigen Aenderungen die ATI zwischen R300 und R420 vorgenommen hat und wie viele Aenderungen NVIDIA vornehmen musste von NV30 auf NV35 um endlich auf NV40 Leistung zu kommen.

Leistung ist natuerlich nicht alles; Feature von sich selber aber auch nicht immer. Eher eine Kombination von allen.

Ich weiss ihr hoert es nicht gerne aber wenn ich mal SM3.0 zur Seite schiebe, ist NVIDIA derjenige der ATI hinterherrennt im relativen Sinn. Ueber RGMS, Winkel-abhaengiges AF, PS2.0 Leistung, MRTs oder weiss der Henker was noch.

Ich bin zwar persoenlich ueberhaupt nicht mit dem feature-set von der R4xx Linie zufrieden um ehrlich zu sein, aber es ist nicht wiederrum so dass sich ATI die Politik vom seligen 3dfx geborgt hat. Alles IMHO und nur um Missverstaendnissen zu entgehen.

LovesuckZ
2004-05-01, 17:32:47
Original geschrieben von Ailuros
ATI machte einen Ansatz mit einfachem PS/VS2.0 und mit der bestimmten Architektur war es gerade noch moeglich unter Verraussetzungen PS/VS2.0+ (oder quasi "+") zu erreichen.
NVIDIA setzte den Pegel schon von Anfang an hoeher mit einer Logik die viel naeher an der einer CPU lag und PS/VS2.0+, wo die Erweiterung auf PS/VS3.0 sehr leicht zu erreichen war.

Soweit, so gut. Beide Architektuen hatten ihre Vor- und Nachteile, wobei die Vorteile bei ATi überwiegen haben und bei Nvidia man kaum welche sah.

Der Kommentar dass ATI mit einer 2 Jahre alten Architektur auskommt koennte man leicht falsch verstehen.

Aufgrund der Daten des Shops kann man Veränderungen mit der Lupe suchen. Und die sind noch kleiner als bei Nvidia.

Sie Dir mal genau die notwendigen Aenderungen die ATI zwischen R300 und R420 vorgenommen hat und wie viele Aenderungen NVIDIA vornehmen musste von NV30 auf NV35 um endlich auf NV40 Leistung zu kommen.

Du schreibst "notwending". Wäre es bei ATi nicht "notwendig" gewesen, solche Aenderungen vorzunehmen, wodurch sie das SM3.0 unterstuetzen? Nvidia musste bezüglich der Shaderleistung ab 2.0 arbeiten und taten es bezüglich der Effiktivitaet auch. Wird es ATi auch machen oder werden sie einfach nur die Pipelines verdoppeln?


Ich weiss ihr hoert es nicht gerne aber wenn ich mal SM3.0 zur Seite schiebe, ist NVIDIA derjenige der ATI hinterherrennt im relativen Sinn. Ueber RGMS, Winkel-abhaengiges AF, PS2.0 Leistung, MRTs oder weiss der Henker was noch.

Problem von DX9. Viele Sachen sind für das SM3.0 notwendig, aber gleichzeitig auch optional für das SM2.0. Da es, DX9, soviel abdeckt, kann es natuerlich sein, dass einer mehr kann als der andere. Oder es eben zu einem Gleichstand bezueglich der Features kommt.
Du kannst ja mal die Entwicklung vom r200 -> r300 und NV25 -> NV30 vergleichen. Ungefähr läuft es doch auch ab. Nur, dass ATi ein SM unter Nvidia sitzt, welches jedoch seit imo 2 Jahren festgelegt wurde. Daher hätte ATi, wie auch nvidia, genügend Zeit gehabt, dass SM3.0 wenigsten zu unterstuetzen.

deekey777
2004-05-01, 17:55:20
@LS:

Die 9700/pro kam im Herbst vorletzten Jahres, ihre PS 2.0 Leistung ist immernoch sehr gut. Die NV40 wurde vor 2-3 Wochen präsentiert - meinst du ihre PS 3.0 Leistung wird noch ausreichend für PS 3.0 Spiele, die in 12-18 Monaten veröffentlicht werden? Die SM 3.0 Technologie ist Fortschritt, aber erst mit einer NV50 oder R500, da erst diese Generation (mehr als) genug Leistung für richtige Spiele haben wird.

LovesuckZ
2004-05-01, 18:01:54
Original geschrieben von deekey777
@LS:
Die 9700/pro kam im Herbst vorletzten Jahres, ihre PS 2.0 Leistung ist immernoch sehr gut. Die NV40 wurde vor 2-3 Wochen präsentiert - meinst du ihre PS 3.0 Leistung wird noch ausreichend für PS 3.0 Spiele, die in 12-18 Monaten veröffentlicht werden?

Ob die Leistungs ausreiche, wird sich zeigen. Nur, wie sollen wir das wissen, wenn es keine Spiele gäbe und der NV40 kein SM3.0 unterstuetze? Das es solche Spiele in 12 Monaten gaeben koennte, ist jetzt Nvidia's "Schuld". Es ist daher lächerlich zu argumentieren, dass das SM3.0 des NV40 für SM3.0 Spiele in 12 Monate nicht schnell genug und damit nicht wichtig waere, wenn es diese Spiele ohne diese Karte nicht geben wird!
Ausserdem, wenn SM3.0 zu Speedoptimierung eingesetzt wird, dann sollte die Leistung des NV40 reichen
:D

tokugawa
2004-05-01, 19:09:22
Original geschrieben von LovesuckZ
Ob die Leistungs ausreiche, wird sich zeigen. Nur, wie sollen wir das wissen, wenn es keine Spiele gäbe und der NV40 kein SM3.0 unterstuetze? Das es solche Spiele in 12 Monaten gaeben koennte, ist jetzt Nvidia's "Schuld". Es ist daher lächerlich zu argumentieren, dass das SM3.0 des NV40 für SM3.0 Spiele in 12 Monate nicht schnell genug und damit nicht wichtig waere, wenn es diese Spiele ohne diese Karte nicht geben wird!
Ausserdem, wenn SM3.0 zu Speedoptimierung eingesetzt wird, dann sollte die Leistung des NV40 reichen
:D

Deine seltsamen Konjunktive haben jetzt mein Gehirn verknotet, ich geh's mal entwinden...

Godmode
2004-05-01, 19:31:45
Nochmal kurz was zum SM3.0 bezüglich Branching: Ok kann schon sein das SM3.0 beim NV40 für "einen" kürzeren Shader zu langsam ist wenn es neun Takte benötigt, aber man könnte durch Branching ja viele kleine Shader in einen großen stecken und könnte sich dadurch den Shaderwechsel ersparen.

Man müsste jetzt wissen was schneller ist: 9 verlorene Takte durch Shaderwechsel im Shader selber, also durch Branching, oder den Shader im Sourcecode zu wechseln.

Wenn ich mir die Mermaid ansehe würde ich glatt sagen SM3.0 ist schnell, aber das hat man ja bei Dawn auch gemeint :)

Edit: Ich hab gerade keine Zeit, zu messen wie lange das wechseln des Shaders dauert, wenn jemand Zeit hat, versucht es!

ShadowXX
2004-05-01, 19:37:12
Original geschrieben von Sunrise
ShadowXX, mit Verlaub, aber was hast du denn erwartet ? Der Preis ist angemessen, und NV wird in dieser Runde natürlich alles unternehmen, ATI zu überbieten (Preis und/oder Leistung). ATI verbessert die "alte" R300 soweit, wie es noch möglich ist, und bringt den R500 später (sehr plausible Gründe wurden ja zuhauf genannt).



Ich hatte gehofft (nicht erwartet), dass ATI noch irgendwo ein kleines Ass aus dem Ärmel zieht...

Oder zumindest 8xAA bzw. besserer AF (ok..da wissen wir noch nix, aber im moment bin ich lieber pessimistisch).

Aber im Prinzip hast du recht...erwartet habe ich nichts anderes...

Naja...vielleicht ist der Speed der r420 ja höher als wir alle Denken...man wird sehen...

Gast
2004-05-01, 20:02:46
Original geschrieben von LovesuckZ
Ob die Leistungs ausreiche, wird sich zeigen. Nur, wie sollen wir das wissen, wenn es keine Spiele gäbe und der NV40 kein SM3.0 unterstuetze? Das es solche Spiele in 12 Monaten gaeben koennte, ist jetzt Nvidia's "Schuld". Es ist daher lächerlich zu argumentieren, dass das SM3.0 des NV40 für SM3.0 Spiele in 12 Monate nicht schnell genug und damit nicht wichtig waere, wenn es diese Spiele ohne diese Karte nicht geben wird!
Ausserdem, wenn SM3.0 zu Speedoptimierung eingesetzt wird, dann sollte die Leistung des NV40 reichen
:D

SM3.0 kann man sich in den Popo stecken.
Egal wer welches Featureset hat derjenige bei dem die höhere Zahl hinten rauskommt der ist der Sieger und wird von den meißten gekauft.
Nur weil ein paar "Freaks" sich über die Geschwindigkeit irgendwelcher Features unterhalten und sich darüber streiten/diskutieren/flamen wird das nicht den Markt beeinflussen.

Ich behaupte jetzt mal das 80% aller Käufer sich einen dreck drum scheren ob ihre Karte irgendein Feature unterstützt oder nicht. Die meissten wollen sehen wie Benchmarks gewonnen werden und die Karte kaufen sie sich dann.
Und von den 80% wechseln warscheinlich gerade mal 20-30% regelmäßig ihre Grafikkartentreiber.

Normalerweise wird der einmal installiert und wird erst dann gewechselt wenn irgendwas nicht läuft.

Wie gesagt wer bei den Benchmarks die meisten FPS hat der ist der Sieger und nicht derjenige der irgendein Feature unterstützt das man womöglich nichtmal zu gesicht bekommt.

LovesuckZ
2004-05-01, 20:09:01
Original geschrieben von Gast
SM3.0 kann man sich in den Popo stecken.
Egal wer welches Featureset hat derjenige bei dem die höhere Zahl hinten rauskommt der ist der Sieger und wird von den meißten gekauft.
Nur weil ein paar "Freaks" sich über die Geschwindigkeit irgendwelcher Features unterhalten und sich darüber streiten/diskutieren/flamen wird das nicht den Markt beeinflussen.

Marketing. Nvidia brauch nur zeigen, dass das SM3.0 besser ist und schon wollen es die Leute haben. Dabei ist es egal, ob sie es brauchen oder nicht. Wenn dann noch einige Reviews auf dem Zug aufspringen und die Featurelosigkeit des r420 anprangern, dann wird das gefährtlich.

Ich behaupte jetzt mal das 80% aller Käufer sich einen dreck drum scheren ob ihre Karte irgendein Feature unterstützt oder nicht. Die meissten wollen sehen wie Benchmarks gewonnen werden und die Karte kaufen sie sich dann.

Wir reden hier doch noch von den High End Karten? Und ich gehe davon aus, dass jeder, der 500€ investiert, mündig ist und selbst entscheidet, ob er das Feature oder 10% Mehrleistung will. Ich nehme daheran, dass viele entweder wegem dem SM3.0 zu Nvidia oder dem geringeren Stromverbrauch zu ATi greifen, gänzlich davon wer schneller ist.


Wie gesagt wer bei den Benchmarks die meisten FPS hat der ist der Sieger und nicht derjenige der irgendein Feature unterstützt das man womöglich nichtmal zu gesicht bekommt.

5200 vs 9200. Zweite ist zwar schneller, hat jedoch deutlich weniger Features. Und so wie man es von einigen hier hört, verkaufe sich die 5200 Karte anscheinend besser.

Exxtreme
2004-05-01, 20:24:07
Original geschrieben von LovesuckZ
Marketing. Nvidia brauch nur zeigen, dass das SM3.0 besser ist und schon wollen es die Leute haben. Dabei ist es egal, ob sie es brauchen oder nicht. Wenn dann noch einige Reviews auf dem Zug aufspringen und die Featurelosigkeit des r420 anprangern, dann wird das gefährtlich.

Naja, das mit dem Zeigen, daß SM3.0 vieeeel besser ist als SM2.0 dürfte schwierig werden. Denn so viel besser ist SM3.0 nämlich nicht. Nvidia kann praktisch nur noch mit theoretischen Benchmarks kommen. Bildqualitätsunterschiede gibt es zumindest in realen Spielen nicht. Und Tricks wie sie es mit Farcry (Low-Detail vs. High-Detail) gemacht haben, können nach hinten losgehen.

Und wie ich schon vor Wochen meinte, das Shadermodell ist nur ein Feature von vielen. Und so wie es bisher aussieht, ist es das einzige Feature, welches beim NV40 fortschrittlicher ist. MPEG De-/Encoding soll der R420 auch können.

[dzp]Viper
2004-05-01, 20:39:53
Original geschrieben von Exxtreme
Naja, das mit dem Zeigen, daß SM3.0 vieeeel besser ist als SM2.0 dürfte schwierig werden. Denn so viel besser ist SM3.0 nämlich nicht. Nvidia kann praktisch nur noch mit theoretischen Benchmarks kommen. Bildqualitätsunterschiede gibt es zumindest in realen Spielen nicht. Und Tricks wie sie es mit Farcry (Low-Detail vs. High-Detail) gemacht haben, können nach hinten losgehen.

Und wie ich schon vor Wochen meinte, das Shadermodell ist nur ein Feature von vielen. Und so wie es bisher aussieht, ist es das einzige Feature, welches beim NV40 fortschrittlicher ist. MPEG De-/Encoding soll der R420 auch können.

bingo

Und es ist noch lange nicht geklärt, ob der r420 die effekte, die der nv40 unter sm3.0 darstellt, vielleicht unter 2.0 nicht genausoschnell darstellen kann.

(Es ist nichts darüber bekannt, wieviel Geschwindigkeit SM3.0 am ende gegenüber 2.0 beim NV40 bringt...)

Es wäre natürlich der absolute Gau, wenn der R420 in einer Szene mit SM2.0 schneller ist, als der NV40 in der selben szene mit SM3.0 :freak: (Wovon ich aber eigentlich nicht ausgehe....)

Aber das alles wissen wir erst Dienstag abend/Mittwoch vormittag :)
Bis dahin, kann noch weiter fleißig spekuliert werden :D

seahawk
2004-05-01, 21:02:25
Original geschrieben von [dzp]Viper
bingo

Und es ist noch lange nicht geklärt, ob der r420 die effekte, die der nv40 unter sm3.0 darstellt, vielleicht unter 2.0 nicht genausoschnell darstellen kann.

(Es ist nichts darüber bekannt, wieviel Geschwindigkeit SM3.0 am ende gegenüber 2.0 beim NV40 bringt...)

Es wäre natürlich der absolute Gau, wenn der R420 in einer Szene mit SM2.0 schneller ist, als der NV40 in der selben szene mit SM3.0 :freak: (Wovon ich aber eigentlich nicht ausgehe....)


Das ist, mit Verlaub gesagt, Blödsinn. Es ist nicht entscheident, welche Shader die Karten theoretisch darstellen können, sondern welche Shader tatsächlich vom Spiel genutzt werden.

Nutzt das Spiel nur Shader entsprechend der Version 2.0, dann bringt 3.0 nichts. Da die entscheidenden Features von 3.0 von 2.0 nicht unterstüzt werden.

Nutzt ein spiel hingegen originären 3.0 Code, dann kann der selbe Effekt nicht dargestellt werden. Man kann zwar vielleicht einen optisch ähnlichen Effekt durch die Abarbeitung mehrerer Shader der Variante 2.0 erzielen, dies ist aber für die Beurteilung der Leistung nicht vergleichbar.


Unterstüzt der R420 laut deneusten Erkenntnissen jetzt eigentlich 2.X oder nor 2.0 ??

WEGA
2004-05-01, 21:07:02
bei r300 steht doch shcon shader 2.0+

ich dachte immer shader 3.0 is schöner als 2.0. feiner ...

[dzp]Viper
2004-05-01, 21:08:25
Original geschrieben von seahawk
Das ist, mit Verlaub gesagt, Blödsinn. Es ist nicht entscheident, welche Shader die Karten theoretisch darstellen können, sondern welche Shader tatsächlich vom Spiel genutzt werden.

Nutzt das Spiel nur Shader entsprechend der Version 2.0, dann bringt 3.0 nichts. Da die entscheidenden Features von 3.0 von 2.0 nicht unterstüzt werden.

Nutzt ein spiel hingegen originären 3.0 Code, dann kann der selbe Effekt nicht dargestellt werden. Man kann zwar vielleicht einen optisch ähnlichen Effekt durch die Abarbeitung mehrerer Shader der Variante 2.0 erzielen, dies ist aber für die Beurteilung der Leistung nicht vergleichbar.


hm - ich dachte man kann mit dem 3.0er eben keine neuen effekte erzeugen sondern 2.0er effekte einfach nur schneller abarbeiten lassen :|
Verwechsel ich da jetzt was oder wie? (in der Farcrypräsentation der 3.0er effekte von NV sagte der Crytekmitarbeiter doch auch die ganze zeit, dass die effekte mit 2.0er UND 3.0er darstellbar sind...)


:kratz:

WEGA
2004-05-01, 21:10:30
Original geschrieben von [dzp]Viper
hm - ich dachte man kann mit dem 3.0er eben keine neuen effekte erzeugen sondern 2.0er effekte einfach nur schneller abarbeiten lassen :|
Verwechsel ich da jetzt was oder wie? (in der Farcrypräsentation der 3.0er effekte von NV sagte der Crytekmitarbeiter doch auch die ganze zeit, dass die effekte mit 2.0er UND 3.0er darstellbar sind...)


:kratz:

neue effekte nicht, nur schöner glaub ich

seahawk
2004-05-01, 21:13:52
Du kannst 3.0 Shadereffekte durch mehrere 2.0 Shader ersetzen. Ab einer gewissen Shaderlänge wird dies aber performancemäßig unattraktiv.

Diese "kritische" Länge ist in heutigen Anwendunge noch nicht erreicht worden. Nutzt man allerdings mal einen längeren Shadercode zur Erzeugung eines Effektes, dann ist es denkbar, das dieser in 2.0 nicht mehr zu realisieren ist.

Der wesentliche Vorteil bei 3.0 liegt in der effizienteren Abarbeitung langer und verzweigter Shader.

Demirug
2004-05-01, 21:15:30
Original geschrieben von seahawk
Das ist, mit Verlaub gesagt, Blödsinn. Es ist nicht entscheident, welche Shader die Karten theoretisch darstellen können, sondern welche Shader tatsächlich vom Spiel genutzt werden.

Nutzt das Spiel nur Shader entsprechend der Version 2.0, dann bringt 3.0 nichts. Da die entscheidenden Features von 3.0 von 2.0 nicht unterstüzt werden.

Einspruch. Ich habe ja bereits Möglichkeiten aufgezeigt wie eine gute SM 3.0 Implementierung sogar Spiele die auf DX7 Fixed Funktions aufsetzten beschleunigt werden können..

Nutzt ein spiel hingegen originären 3.0 Code, dann kann der selbe Effekt nicht dargestellt werden. Man kann zwar vielleicht einen optisch ähnlichen Effekt durch die Abarbeitung mehrerer Shader der Variante 2.0 erzielen, dies ist aber für die Beurteilung der Leistung nicht vergleichbar.

Ich habe hier einige HLSL Shader die sich sowohl als 2.0 und 3.0 compilieren lassen und dabei unterschiedlichen Code ergeben aber ein identische Endergebniss liefern.

Unterstüzt der R420 laut deneusten Erkenntnissen jetzt eigentlich 2.X oder nor 2.0 ??

Nach den letzten Gerüchten berherscht der R420 eine 2.X Variante die im HLSL als 2.B bezeichnet wird.

deekey777
2004-05-01, 21:17:23
Original geschrieben von Exxtreme
Naja, das mit dem Zeigen, daß SM3.0 vieeeel besser ist als SM2.0 dürfte schwierig werden. Denn so viel besser ist SM3.0 nämlich nicht. Nvidia kann praktisch nur noch mit theoretischen Benchmarks kommen. Bildqualitätsunterschiede gibt es zumindest in realen Spielen nicht. Und Tricks wie sie es mit Farcry (Low-Detail vs. High-Detail) gemacht haben, können nach hinten losgehen.

Und wie ich schon vor Wochen meinte, das Shadermodell ist nur ein Feature von vielen. Und so wie es bisher aussieht, ist es das einzige Feature, welches beim NV40 fortschrittlicher ist. MPEG De-/Encoding soll der R420 auch können.

Sag doch so etwas nicht so dirket!!! ;D
In Genf wurde zw. PS 1.1 und PS 2.0/3.0 vergliechen. Dennoch soll die NV40 aber richtiges Displacement Mapping können, die R3x0er auch kann - nur auf dem Papier.

Godmode
2004-05-01, 21:21:39
"Nochmal kurz was zum SM3.0 bezüglich Branching: Ok kann schon sein das SM3.0 beim NV40 für "einen" kürzeren Shader zu langsam ist wenn es neun Takte benötigt, aber man könnte durch Branching ja viele kleine Shader in einen großen stecken und könnte sich dadurch den Shaderwechsel ersparen.

Man müsste jetzt wissen was schneller ist: 9 verlorene Takte durch Shaderwechsel im Shader selber, also durch Branching, oder den Shader im Sourcecode zu wechseln.

Wenn ich mir die Mermaid ansehe würde ich glatt sagen SM3.0 ist schnell, aber das hat man ja bei Dawn auch gemeint"

Demirug kannst du darauf schnell eingehen?

Quasar
2004-05-01, 21:29:48
Original geschrieben von Exxtreme
Und so wie es bisher aussieht, ist es das einzige Feature, welches beim NV40 fortschrittlicher ist.

Wirklich? Und dafür verballern die satte 60 Millionen Transistoren mehr? Kaum vorstellbar....

Gast
2004-05-01, 21:43:51
... aber wahr!

Demirug
2004-05-01, 21:44:30
Original geschrieben von bans3i
Demirug kannst du darauf schnell eingehen?

Was soll ich dazu jetzt gross sagen.

Man kann den Zusätzlichen Aufwand beim dynamischen Branching nicht mit dem Aufwand bei einem Shaderwechsel in Relation setzten. Ein Shaderwechsel findet ja in der Regel nur alle paar Objekte statt und damit verteilt er sich auf viele Pixel. Zudem lässt sich dynamisches Branching nicht durch Shaderwechsel ersetzten. Die Ersatzlösung für dynamisches Branching ist das man alle Möglichkeiten berechnet und dann die richtige wählt.

Shaderwechsel sind die Ersatztlösung für statisches Branching und dafür gibt es ja noch keine Leistungsangaben. Auch die 9 Takte die fürs dynamische Branching gemessen hat würde ich vorerst noch als vorläufig ansehen bis man mehr Erkenntnisse zu diesem Thema hat. Im vorliegenden Fall wurden ja auch noch ein weiteres PS 3.0 Feature genutzt bei dem man auch noch nicht so recht weiss welchen Overhead es erzeugt.

LovesuckZ
2004-05-01, 21:46:55
Original geschrieben von Exxtreme
Naja, das mit dem Zeigen, daß SM3.0 vieeeel besser ist als SM2.0 dürfte schwierig werden.

Man kann wohl davon ausgehen, dass das SM3.0 in diesem Jahr nur für Speedoptimierung eingesetzt wird. Aber was ist daran schlimm?
Ati wird diesen Vorteil nicht haben und muss sich auch immer noch den Spruch anhoeren, dass sie mit geringerer Genauigkeit antreten.

Und wie ich schon vor Wochen meinte, das Shadermodell ist nur ein Feature von vielen.

Ein Feature, was ATi nicht gebacken bekommt X-D. Und da hilft ihnen auch ihr "3Dc" nicht. Es ist Ironie, dass plötzlich ATi nicht mehr "voll DX9" Konform nach einigen Fanatikern waere, da sie nicht alle features davon unterstuetzen (das wiederum die Frage aufwirft, wie man dem Dau dies erklären wird)...

Und so wie es bisher aussieht, ist es das einzige Feature, welches beim NV40 fortschrittlicher ist. MPEG De-/Encoding soll der R420 auch können.

ATi unterstuetzt doch DM?
Nunja, zwar per CPU emuliert, aber das kann man ja auch mit "MPEG De-/Encoding" machen...

Demirug
2004-05-01, 21:47:39
Original geschrieben von Quasar
Wirklich? Und dafür verballern die satte 60 Millionen Transistoren mehr? Kaum vorstellbar....

Nachdem die R420 Featureliste öffentlich ist darfst du mich darauf nochmal ansprechen.

Quasar
2004-05-01, 21:54:12
Original geschrieben von Demirug
Nachdem die R420 Featureliste öffentlich ist darfst du mich darauf nochmal ansprechen.

X-D (http://www.ati.com/products/radeon9700/radeon9700pro/features.html) <- Klick mich, ich bin ein Link!

dildo4u
2004-05-01, 22:15:27
Original geschrieben von Quasar
X-D (http://www.ati.com/products/radeon9700/radeon9700pro/features.html) <- Klick mich, ich bin ein Link! ah wie gut 2jahre alte ati technik wird Nvidias 222million schlachtschiff wegballern *G*

deekey777
2004-05-01, 22:18:20
Die bisherigen Screenshots von FC bzw. Unreal 3 Engine zeigen nur "virtuelles" DM (was das auch bedeuten mag) - heisst es in einigen Statements ( zB TR Interview (http://techreport.com/etc/2004q2/tamasi/index.x?pg=4) ). Richtiges DM bleibt wohl der nächsten Generation vorbehalten.

Original geschrieben von dildo4u
ah wie gut 2jahre alte ati technik wird Nvidias 222million schlachtschiff wegballern *G*


:D :D :D

Exxtreme
2004-05-01, 22:21:14
Original geschrieben von LovesuckZ
Man kann wohl davon ausgehen, dass das SM3.0 in diesem Jahr nur für Speedoptimierung eingesetzt wird. Aber was ist daran schlimm?
Ati wird diesen Vorteil nicht haben und muss sich auch immer noch den Spruch anhoeren, dass sie mit geringerer Genauigkeit antreten.

Schlimm ist daran gar nichts. Nur wie ich sagte, wenn Nvidia das SM3.0 marketingtechnisch ausschlachten wollen, dann müssen sie was zeigen, was der DAU auch sieht. Und das wird halt schwierig werden. Begriffe woe Branchin etc. sagen dem DAU gar nix. Nvidia wird dann einige Szenarien konstruieren müssen, die die Vorteile von SM3.0 zeigen. Und diese werden wohl sehr "theoretisch" ausfallen. Ein echtes Spiel werden sie wohl kaum in der Hinterhand haben. Und wie gesagt, solche Tricksereien wie bei FC können nach hinten losgehen.
Original geschrieben von LovesuckZ
Ein Feature, was ATi nicht gebacken bekommt X-D. Und da hilft ihnen auch ihr "3Dc" nicht. Es ist Ironie, dass plötzlich ATi nicht mehr "voll DX9" Konform nach einigen Fanatikern waere, da sie nicht alle features davon unterstuetzen (das wiederum die Frage aufwirft, wie man dem Dau dies erklären wird)...

Also was 3Dc betrifft, da bin ich gespannt, was das Feature in der Praxis alles kann. :) Wenn's Bullshit wäre dann hätte es ATi nicht eingebaut.
Original geschrieben von LovesuckZ
ATi unterstuetzt doch DM?
Nunja, zwar per CPU emuliert, aber das kann man ja auch mit "MPEG De-/Encoding" machen...
Also wenn ATi MPEG De-/Encoding tatsächlich anbieten werden, dann glaube ich nicht, daß das per CPU emuliert werden wird. Denn dann könnten sich die Treiberprogrammierer den Aufwand gleich sparen. Es gibt nämlich genug Software-De-/Encoder.

Warum sie es bei DM so gemacht haben? Tja, keine Ahnung.

Godmode
2004-05-01, 22:26:30
Original geschrieben von dildo4u
ah wie gut 2jahre alte ati technik wird Nvidias 222million schlachtschiff wegballern *G*

Wenn die X800 XT wirklich so gut wird, wie hier viele meinen, dann wird Nvidia sicherlich was in der Tasche haben um auch die XT Version zu schlagen und das werden sie mit allen Mitteln versuchen. Ich denk da mal an 550/700 MHz Core/RAM Takt.

Nvidia wartet einfach bis die X800 draußen ist, und antwortet dann darauf. Fudo hat ja gemeint das sie den NV40U auf "MEHR" als 450 MHz drehen, per BIOS update.

Entweder ist die X800Pro sehr nah an der Ultra dran und NV will den Abstand vergrößern oder was weiß ich.

Bei dem Review zum NV40 auf Guru3d schreiben sie übrigens beim Coretakt was von 400-450 MHz und beim RAM geben sie 600 MHz an. http://www.guru3d.com/article/Videocards/128/2/

Naja lassen wir einfach überaschen wie schnell die Final Boards von ATI und Nvidia dann sind.

deekey777
2004-05-01, 22:33:00
Alle Zitate by Exxtreme.


Schlimm ist daran gar nichts. Nur wie ich sagte, wenn Nvidia das SM3.0 marketingtechnisch ausschlachten wollen, dann müssen sie was zeigen, was der DAU auch sieht. Und das wird halt schwierig werden. Begriffe wie Branching etc. sagen dem DAU gar nix. Nvidia wird dann einige Szenarien konstruieren müssen, die die Vorteile von SM3.0 zeigen. Und diese werden wohl sehr "theoretisch" ausfallen. Ein echtes Spiel werden sie wohl kaum in der Hinterhand haben. Und wie gesagt, solche Tricksereien wie bei FC können nach hinten losgehen.

Das scheinen einige nicht verstehen zu wollen. Der Einsatz von SM3 in der NV40 bringt nur eins: Speed, Speed, Speed. Das wird sich auch in 12-18 Monaten nur sehr wenig ändern.

Ich übertreibe: Wenn in 18-24 Monaten richtige SM 3.0 Spiele (PS 3.0 ohne Ende, richtiges DM) kommen, dann mutiert die NV40 mit ihren VS3.0/PS3.0 zu dem, was heute eine 5200 ist.

Wenn's Bullshit wäre dann hätte es ATi nicht eingebaut.

F-Buffer??? Sinnvolles Feature ohne Sinn.

Also wenn ATi MPEG De-/Encoding tatsächlich anbieten werden, dann glaube ich nicht, daß das per CPU emuliert werden wird. Denn dann könnten sich die Treiberprogrammierer den Aufwand gleich sparen. Es gibt nämlich genug Software-De-/Encoder.

Schon die R300 oder die R350 soll dies können, kann sie aber irgendwie nicht. Wann die NV40 MPEG1/2/4 De- und Encoding bzw. die WMV9-Beschleunigung können wird steht auch noch in den Sternen.

LovesuckZ
2004-05-01, 22:36:06
Original geschrieben von Exxtreme
Nur wie ich sagte, wenn Nvidia das SM3.0 marketingtechnisch ausschlachten wollen, dann müssen sie was zeigen, was der DAU auch sieht. Und das wird halt schwierig werden.

SM3.0 = zusaetzliche Leistung = mehr Effekte = bessere Bildqualitaet.
Das wird jeder verstehen :)

Ein echtes Spiel werden sie wohl kaum in der Hinterhand haben. Und wie gesagt, solche Tricksereien wie bei FC können nach hinten losgehen.

Man sollte das SM3.0 vorallem als Speedoptimierer verkaufen, durch welche mehr Effekte realisiert werden können. Dadurch brauch man a) keine Spiele, die nur das SM3.0 unterstuetzen und b) kann man in Zukunft sagen, dass diese Effekte nur durch den zusaetzlichen Speed realisiert werden können.
Gib den Dau eine Zukunftsperspektive. Denn warum sollte der "nur" das SM2.0 kaufen, wenn gleich neben im Regel die Zukunft steht?

Also was 3Dc betrifft, da bin ich gespannt, was das Feature in der Praxis alles kann. :) Wenn's Bullshit wäre dann hätte es ATi nicht eingebaut.


Vielleicht per CPU? D-X

Exxtreme
2004-05-01, 22:41:23
Original geschrieben von deekey777
F-Buffer??? Sinnvolles Feature ohne Sinn.

Beim R350 scheint dieser nicht so recht zu funktionieren. Ich denke aber, daß ATi diesen beim R420 gefixt hat. Der F-Buffer erlaubt längere Shaderprogramme. Wie sinnvoll das ist, muss jeder für sich entscheiden. Und ich glaube nicht, daß der F-Buffer viele Transistoren braucht.
Original geschrieben von deekey777
Schon die R300 oder die R350 soll dies können, kann sie aber irgendwie nicht. Wann die NV40 MPEG1/2/4 De- und Encoding bzw. die WMV9-Beschleunigung können wird steht auch noch in den Sternen.
Hmmm, also ich kann mich nicht daran erinnern, daß ATi jemals MPEG De-/Encoding beim R3x0 beworben hat. :| Ich weiss noch, daß es einen Deblocking-Filter gibt. :|

Godmode
2004-05-01, 22:44:27
Das mit den langen Shader wäre wohl eher fürs Offline-Rendering interessant, aber im Realtime-Rendering eher zu vernachläßigen. Sieht an ja ziemlich gut, dass zu lange Shader zu langsam ablaufen, um sie in ein Game einzubauen.

deekey777
2004-05-01, 22:46:56
Original geschrieben von Exxtreme
...

Hmmm, also ich kann mich nicht daran erinnern, daß ATi jemals MPEG De-/Encoding beim R3x0 beworben hat. :| Ich weiss noch, daß es einen Deblocking-Filter gibt. :|

News vom 6.3.2004 auf
Doom9.org (http://www.doom9.org)

Then I got an email from an ATI PR rep about MPEG encoding and decoding support in GFX card. It appears that ATIs Radeon 9800 contains hardware DCT and iDCT blocks that can be used for MPEG-2/4 encoding and decoding. Furthermore, the chip does also support WMV9 decoding. However, at this point I'm still waiting to get a link to an official documentation on those features as the ATI website only mentions MPEG-2 decoding acceleration in the Radeon 9800 specs.

Exxtreme
2004-05-01, 22:55:23
Original geschrieben von deekey777
News vom 6.3.2004 auf
Doom9.org (http://www.doom9.org)
Naja, ich konnte auf der ATi-Website nichts entdecken, daß die R3xx-Serie diese Features hat. Und die bei Doom9 könnten etwas missinterpretiert haben.

deekey777
2004-05-01, 23:03:27
Original geschrieben von Exxtreme
Naja, ich konnte auf der ATi-Website nichts entdecken, daß die R3xx-Serie diese Features hat. Und die bei Doom9 könnten etwas missinterpretiert haben.

Andererseits steht es auf der ATi Seite auch nicht, dass die R3x0/RV3x0 auch die WMV9 Beschleunigung beherrschen, da es einfach vergeigt wurde (noch besser: Daran ist nur Microsoft schuld, da sie kein Update für den WM Player 9 bzw. WM9 Codec veröffentlicht haben, womit Fullstream/Videoshader auch bei WMV9 benutzt werden kann, was bei DivX und Real klappt).

Edit: Gerade habe ich gelesen, dass ein sog. Highly Anticipated DirectX 9 Game 1 bzw. dessen Engine ua auch parallax mapping (aka virtuelles DM) vorweisen soll.

TheCounter
2004-05-01, 23:21:18
Original geschrieben von deekey777
Die bisherigen Screenshots von FC bzw. Unreal 3 Engine zeigen nur "virtuelles" DM (was das auch bedeuten mag) [...]

Bei echtem DM wird aus der ganzen Textur ein "3D-Model" und bei virtuellem wird das nur simuliert, und zwar immer vom Blickwinkel des Betrachters aus. Das heißt wenn du von links im Spiel draufschaust und gleichzeitig von rechts draufschauen würdest (Aber nicht im Spiel, sondern von außen, was aber nicht geht, also musst du dir das vorstellen *g*), dann würdest du von links aus denken es ist 3D, wobei du von rechts sehen würdest das es nur 2D ist :)

Kompliziert aber ein sehr schöner Effekt IMHO ;)

deekey777
2004-05-01, 23:27:48
Original geschrieben von TheCounter
Bei echtem DM wird aus der ganzen Textur ein "3D-Model" und bei virtuellem wird das nur simuliert, und zwar immer vom Blickwinkel des Betrachters aus. Das heißt wenn du von links im Spiel draufschaust und gleichzeitig von rechts draufschauen würdest (Aber nicht im Spiel, sondern von außen, was aber nicht geht, also musst du dir das vorstellen *g*), dann würdest du von links aus denken es ist 3D, wobei du von rechts sehen würdest das es nur 2D ist :)

Kompliziert aber ein sehr schöner Effekt IMHO ;)

Ich meinte nur das Wort "virtual" aka "parallax" (aka xxx, aber es gibt mindestens noch einen Begriff dafür) mapping bzw. DM. Das war ein Seitenstich gegen die SM3 Unterstützung der NV40, da bisher noch kein richtes bzw. "real" DM gezeigt wurde.

TheCounter
2004-05-01, 23:31:38
Original geschrieben von deekey777
Ich meinte nur das Wort "virtual" aka "parallax" (aka xxx, aber es gibt mindestens noch einen Begriff dafür) mapping bzw. DM. Das war ein Seitenstich gegen die SM3 Unterstützung der NV40, da bisher noch kein richtes bzw. "real" DM gezeigt wurde.

Ahso, aber in der einen NV40 bzw. VS3.0 Techdemo wurde das doch iirc gezeigt:

ftp://download.nvidia.com/developer/Movies/NV40-LowRes-Clips/Displacement_Mapping.avi

Quasar
2004-05-01, 23:41:24
Original geschrieben von dildo4u
ah wie gut 2jahre alte ati technik wird Nvidias 222million schlachtschiff wegballern *G*

Du scheinst mehr zu wissen - immer her damit! X-D

tokugawa
2004-05-02, 00:13:41
Original geschrieben von TheCounter
Bei echtem DM wird aus der ganzen Textur ein "3D-Model" und bei virtuellem wird das nur simuliert, und zwar immer vom Blickwinkel des Betrachters aus. Das heißt wenn du von links im Spiel draufschaust und gleichzeitig von rechts draufschauen würdest (Aber nicht im Spiel, sondern von außen, was aber nicht geht, also musst du dir das vorstellen *g*), dann würdest du von links aus denken es ist 3D, wobei du von rechts sehen würdest das es nur 2D ist :)

Kompliziert aber ein sehr schöner Effekt IMHO ;)

Kompliziert vor allem deine Beschreibung, die verwirrt mich.

Bislang ging ich davon aus, dass "fake" Displacement Mapping (welches ich dann als "virtuell" bezeichnen würde) eben Normal Mapping ist. Auch bekannt unter dem Namen Dot Product 3 Bump Mapping. Weil hier ist innerhalb des gerenderten Objekts ("innerhalb" in Device Koordinaten) die Beleuchtung korrekt (bis auf Self-Shadowing), nur am Rand des Objekts sieht man, dass es ein Textureffekt und kein Geometrieeffekt ist (also keine Tesselation stattfindet).

Echtes DM hätte ich eben als Textur-basierte Tesselation definiert. Und da in zwei Ausführungen: statisch generierte Geometrie, und dynamisch mittels Dynamic-LOD-Algorithmus (was zum Geometry Popping führen kann - normale Gegenmaßnahme ist Geomorphing, was aber auch noch sichtbar sein kann).

Soweit ich weiß funktioniert bei DM in Hardware derzeit sowieso nur ersteres, also das ohne Dynamischem LOD Algorithmus (irgendwer erwähnte dass die Parhelia das DM mit Dyn-LOD beherrscht, aber dann frage ich mich welcher Dyn-LOD Algorithmus eingesetzt wird).

deekey777
2004-05-02, 00:16:06
Lösch mich!

Neo69
2004-05-02, 00:17:53
Ich meinte nur das Wort "virtual" aka "parallax" (aka xxx, aber es gibt mindestens noch einen Begriff dafür) mapping bzw. DM. Das war ein Seitenstich gegen die SM3 Unterstützung der NV40, da bisher noch kein richtes bzw. "real" DM gezeigt wurde.

Es ist so, eines der wichtigsten neuen Features von SM3 ist es, dass der Vertex Shader Texturen lesen kann. Darüber ist echtes Displacement Mapping möglich, weit eben Vertices über eine Textur verändert werden können.

Das "Virtual Displacement Mapping" (Parallax Mapping) ist ein schöner Effekt, der im Unreal Video vorkam, aber nichts an der Geometrie ändert.

Es ist ein weit verbessertes Normal Mapping, in dem nämlich die Koordinaten der Farbtextur auch verändert werden, und es gibt auch möglichkeiten die Siluette zu verändern, sodass man auch von der Seite nur in seltenen Fällen überhaupt einen Unterschied sieht. Geht alles mit SM2.

Quasar
2004-05-02, 00:20:50
Original geschrieben von deekey777
@Mods: Löschen, falls unter NDA, das ich nicht unerzeichnet habe bzw. wenn das gegen die Regeln des Forums verstößt!!!


Auf ati-news.de (www.ati-news.de) steht die komplette Auflistung aller X800 Pro Features, die von einem Shop bzw. dessen "unfähiger" und bald gefeuerter Mitarbeiter veröffentlicht wurden.

Der Shop (http://www.allstarshop.com/shop/product.asp?dept%5Fid=124&pid=8988&sid=T9N6MQDBGR9C8P79Q3SQ7G34G67L8618)

Das wäre heute früh ja noch neu gewesen....
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1769680#post1769680

deekey777
2004-05-02, 00:22:24
Original geschrieben von Quasar
Das wäre heute früh ja noch neu gewesen....
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1769680#post1769680

Genau das habe ich gerade auch gedacht....

Doppelt hält besser! ;D

Ailuros
2004-05-02, 02:21:32
Aufgrund der Daten des Shops kann man Veränderungen mit der Lupe suchen. Und die sind noch kleiner als bei Nvidia.

ATI hatte eben mit der Ausnahme von SM3.0 weniger noetig zum aendern. Sie kamen mit sparse 2,4,6x MSAA, winkelabhaengigem AF, sehr guter PS2.0 Leistung/arithmetischer Effizienz, MRTs, einer TMU pro SIMD, einen 256-bit bus usw usw seit Herbst 2002.

Du schreibst "notwending". Wäre es bei ATi nicht "notwendig" gewesen, solche Aenderungen vorzunehmen, wodurch sie das SM3.0 unterstuetzen? Nvidia musste bezüglich der Shaderleistung ab 2.0 arbeiten und taten es bezüglich der Effiktivitaet auch. Wird es ATi auch machen oder werden sie einfach nur die Pipelines verdoppeln?

Ich hab sehr deutlich SM3.0 in meinem vorigen Post zur Seite geschoben. Die Gruende warum sie noch nicht so weit sind habe ich schon erwaehnt und natuerlich werden sie auch gerechtmaessig dafuer kritisiert. Wie sich die Sache ausspielen wird was generell Leistung betrifft oder sogar Verkaufszahlen bleibt abzuwarten.

Problem von DX9. Viele Sachen sind für das SM3.0 notwendig, aber gleichzeitig auch optional für das SM2.0.

Seit wann hat das API was mit der Feature-Implementierung zu tun und ueberhaupt Sachen wie AA oder AF als Anfang?

Du kannst ja mal die Entwicklung vom r200 -> r300 und NV25 -> NV30 vergleichen. Ungefähr läuft es doch auch ab. Nur, dass ATi ein SM unter Nvidia sitzt, welches jedoch seit imo 2 Jahren festgelegt wurde. Daher hätte ATi, wie auch nvidia, genügend Zeit gehabt, dass SM3.0 wenigsten zu unterstuetzen.


Der R200/NV25 Vergleich was PS betrifft hat wohl gar nichts mit der ganzen Geschichte zu tun (PS1.4 vs PS1.3). NVIDIA ziehlt eindeutig auf CPU Logik schon mit NV30 und ist somit einen Schritt weiter und ATI schafft es nicht zeitig mit groesseren Architektur-Aenderungen zu machen weil sie mit anderen Vertraegen zu viel auf dem Buckel haben.

Der Unterschied ist trotzdem und ich bestehe darauf dass NVIDIA wesentlich mehr an ihren Designs aendern musste oder wollte.

Gast
2004-05-02, 02:43:19
Original geschrieben von Ailuros
Der Unterschied ist trotzdem und ich bestehe darauf dass NVIDIA wesentlich mehr an ihren Designs aendern musste oder wollte.

Ja, denn nun wußten sie, wie DX9 dann nun in Wahrheit aussehen würde.

Hoffentlich erlebt ATi nicht ein ähnliches "Desaster", wenn sie M$ mal nicht mit einer Preissenkung zu willen sind.

Beängstigend, wie so ein Softwarekonzern quasi über wohl und wehe der beiden größten Grafik-IHVs entscheiden kann...

;Q

TheCounter
2004-05-02, 02:51:17
Original geschrieben von tokugawa
Kompliziert vor allem deine Beschreibung, die verwirrt mich.

Bislang ging ich davon aus, dass "fake" Displacement Mapping (welches ich dann als "virtuell" bezeichnen würde) eben Normal Mapping ist.

Naja, nicht ganz, denn egal von welcher Seite man draufguckt, es sieht immer so aus als wäre es 3D. Wenn du nur Normal-Maps verwendet würdest, würdest du aus einem bestimmten Winkel sehen das es eine flache Textur ist, was bei "virtuellem" DM nicht der Fall ist. Die Normal-Maps drehen sich also sozusagen mit dem Spieler mit, ums mal grob zu beschreiben :).

So zumindest wurde es in nem Video erklärt (Weis nur nichtmehr welches das war, glaub entweder das von Farcry (PS3.0) oder das Unreal 3 Engine Video).

Ailuros
2004-05-02, 02:58:27
Quasar,

Nochmal die Aenderungen die NVIDIA in ihren Architekturen von NV30 bis NV40 vorgenommen hat, beziehen sich NICHT ausschliesslich auf Shader und ich bin auch kein Freund von Konspirations-Theorien oder bloeden Entschuldigungen fuer verpatzte Architekturen.

NVIDIA kann gerne die Schuld fuer die gesamte NV3x Linie, auf TSMC, Microsoft, DX9.0 oder der Henker was noch verschieben; die Verantwortung fuer ihre Designs und Entscheidungen traegt nur NVIDIA und NVIDIA alleine. Ich hab schon all moeglichen Irrsinn uebers gesamte Netz was das Thema betrifft gelesen; komischerweise sind alle andere Schuld ausser NVIDIA.

Ich bin mir genauso sicher dass dx9.0, Microsoft und TSMC alle zusammen daran schuld waren, dass NV3x mit dem gleichen AA Algorithmus wie die NV2x Linie ankam. :P

Gast
2004-05-02, 03:06:42
Original geschrieben von Ailuros
Quasar,

Nochmal die Aenderungen die NVIDIA in ihren Architekturen von NV30 bis NV40 vorgenommen hat, beziehen sich NICHT ausschliesslich auf Shader und ich bin auch kein Freund von Konspirations-Theorien oder bloeden Entschuldigungen fuer verpatzte Architekturen.

NVIDIA kann gerne die Schuld fuer die gesamte NV3x Linie, auf TSMC, Microsoft, DX9.0 oder der Henker was noch verschieben; die Verantwortung fuer ihre Designs und Entscheidungen traegt nur NVIDIA und NVIDIA alleine. Ich hab schon all moeglichen Irrsinn uebers gesamte Netz was das Thema betrifft gelesen; komischerweise sind alle andere Schuld ausser NVIDIA.

Ich bin mir genauso sicher dass dx9.0, Microsoft und TSMC alle zusammen daran schuld waren, dass NV3x mit dem gleichen AA Algorithmus wie die NV2x Linie ankam. :P

*hrhr*
Ich bin doch nicht nVidia.... natürlich tragen sie die Verantwortung für ihre Design alleine. Aber was meinst du, auf welcher Basis sie diese Designentscheidungen treffen?

DK: "Ooooch, wir ham son schönes INT12-RC Backend. Das will ich behalten - mir egal ob wir dafür 40 Millionen Transistoren im nV30 verballern und dafür den Rest des Chips ausbremsen."

Ja, FSAA war kritikwürdig, keine Frage, aber die Hauptprügel mussten sie wegen der Shader einstecken.

Wie dem auch sei, wir sprechen uns nochmal wieder, wenn die XBox2 verkauft wird und sie evtl. nicht so gut läuft, wie M$ es gern hätte...
Mal sehen ob ATi sich dann noch erinnert. =)

;Q

Ailuros
2004-05-02, 03:15:16
Wie dem auch sei, wir sprechen uns nochmal wieder, wenn die XBox2 verkauft wird und sie evtl. nicht so gut läuft, wie M$ es gern hätte...
Mal sehen ob ATi sich dann noch erinnert.

Es ist zwar fern von jeder akzeptablen Logik, aber irgendwo waere es mir lieber wenn sich Microsoft nie im Consolen-Markt eingemischt haette.

Gast
2004-05-02, 11:20:10
Original geschrieben von Gast

Wie dem auch sei, wir sprechen uns nochmal wieder, wenn die XBox2 verkauft wird und sie evtl. nicht so gut läuft, wie M$ es gern hätte...
Mal sehen ob ATi sich dann noch erinnert. =)

;Q

Das klingt ja so als wäre nur der verwendete Grafikchip dafür verantwortlich damit sich eine Konsole gut verkauft. Genau das ist ja totaler schwachsinn, was man ja an z.B. der PS2 sieht. Dem "normalen" Enduser ist es so ziemlich egal was fürn Hersteller in der der Konsole die Grafik antreibt. Zum großen Teil ist es einzig die Anzahl an guter Spielen. Und grafisch sieht es bei ATi wenn man es vom PC vergleicht besser aus ;)

Quasar
2004-05-02, 11:32:50
Original geschrieben von Gast
Das klingt ja so als wäre nur der verwendete Grafikchip dafür verantwortlich damit sich eine Konsole gut verkauft. Genau das ist ja totaler schwachsinn, was man ja an z.B. der PS2 sieht. Dem "normalen" Enduser ist es so ziemlich egal was fürn Hersteller in der der Konsole die Grafik antreibt. Zum großen Teil ist es einzig die Anzahl an guter Spielen. Und grafisch sieht es bei ATi wenn man es vom PC vergleicht besser aus ;)

Nein so klingt es nicht, so ist es nicht gemeint und so ist es auch in der Realität nicht.
In der Realität aber war es so, daß sich die XBox schlechter verkaufte, als von M$ erhofft und man daraufhin in Nachverhandlungen mit nV getreten ist, denen man (was sich im Nachhinein offenbar als Fehler oder unvermeidbarer Kuhhandel herausstellte und ab hier beginnt die Spekulation!) einen Festpreis pro GPU/Chipsatz zahlte.
Man einigte sich schließlich irgendwie, aber IMO hat M$ erkannt, daß es nicht gut für sie ist, wenn eine Firma eine zu starke Marktmacht (außer M$ selbst natürlich) hat und diese dann in Verhandlungen ausspielen kann.
Wer M$'s Methoden kennt, der weiß, daß sie ganz schön unangenehm werden können, wenn man ihnen nicht zu Willen ist...

Godmode
2004-05-02, 12:52:48
Original geschrieben von Quasar
Nein so klingt es nicht, so ist es nicht gemeint und so ist es auch in der Realität nicht.
In der Realität aber war es so, daß sich die XBox schlechter verkaufte, als von M$ erhofft und man daraufhin in Nachverhandlungen mit nV getreten ist, denen man (was sich im Nachhinein offenbar als Fehler oder unvermeidbarer Kuhhandel herausstellte und ab hier beginnt die Spekulation!) einen Festpreis pro GPU/Chipsatz zahlte.
Man einigte sich schließlich irgendwie, aber IMO hat M$ erkannt, daß es nicht gut für sie ist, wenn eine Firma eine zu starke Marktmacht (außer M$ selbst natürlich) hat und diese dann in Verhandlungen ausspielen kann.
Wer M$'s Methoden kennt, der weiß, daß sie ganz schön unangenehm werden können, wenn man ihnen nicht zu Willen ist...

Deshalb sollte man DX eigentlich verbieten :) Ist ja wieder eine Branche mehr, über die MS dadurch bestimmen kann!

Ailuros
2004-05-02, 13:05:51
Es gibt aber den kleinen Unterschied dass M$ diesmal einen graphics core lizenziert hat. Ob sich das besser ausspielt fuer beide Seiten sehen wir wohl dann schon.


Man einigte sich schließlich irgendwie, aber IMO hat M$ erkannt, daß es nicht gut für sie ist, wenn eine Firma eine zu starke Marktmacht (außer M$ selbst natürlich) hat und diese dann in Verhandlungen ausspielen kann.

Mit der Logik waere wohl fuer "XBox3" in 2009/10 IMG an der Reihe mit "Serie8" :lolaway:

Was die Geschichte betrifft, war NVIDIA Marktfuehrer schon bevor der XBox und Gigapixel wurde von M$ abgelehnt weil sie nichts operatives zeitig vorzeigen konnten.

NVIDIA war IMHO gar nicht so scharf auf XBox2, erstens weil der XBox deal ihre gesamte roadmap in der Vergangenheit verzoegert hat und zweitens weil sie nicht gerne lizenzieren.

Es wahr wohl eher so dass weder NVIDIA noch Microsoft besonders heiss darauf waren nochmal fuer eine Console zusammenzuarbeiten. Und ich sehe da auch ehrlich nichts komisches dran. Microsoft verhandelte mit mehreren Firmen und ATI war wohl der naechstbeste Kandidat den deal zu gewinnen als grosser IHV.

Was jetzt das API betrifft, XBox2 ist DX-Next und nicht dx9.0; und ehrlich gesagt da dx9.0 mehr als nur SM2.0 betrifft sehe ich keine klaren theoretischen Bevorzugungen am Ende. Wohl eher was hat der eine? SM2.0 bis SM2.0+. Der andere? SM2.0+ bis SM3.0. Ein API fuer beide ueberhaupt das sich das bloede "my extension/your extension" (PS1.1/3/4) nicht nochmal wiederholt.

So wie es aussieht wird sich auch nichts in dem Aspekt bei DX-Next aendern.

tRpii
2004-05-02, 13:09:02
Original geschrieben von Quasar
Nein so klingt es nicht, so ist es nicht gemeint und so ist es auch in der Realität nicht.
In der Realität aber war es so, daß sich die XBox schlechter verkaufte, als von M$ erhofft und man daraufhin in Nachverhandlungen mit nV getreten ist, denen man (was sich im Nachhinein offenbar als Fehler oder unvermeidbarer Kuhhandel herausstellte und ab hier beginnt die Spekulation!) einen Festpreis pro GPU/Chipsatz zahlte.
Man einigte sich schließlich irgendwie, aber IMO hat M$ erkannt, daß es nicht gut für sie ist, wenn eine Firma eine zu starke Marktmacht (außer M$ selbst natürlich) hat und diese dann in Verhandlungen ausspielen kann.
Wer M$'s Methoden kennt, der weiß, daß sie ganz schön unangenehm werden können, wenn man ihnen nicht zu Willen ist...

btw. ich war "Gast".

ich weiss schon wie es damals abgelaufen ist mit MS und nVIDIA.. aber aus dem Post auf dem ich mich bezog war es anders herauszulesen von daher auch so meine Antwort.

AlfredENeumann
2004-05-02, 13:23:48
Original geschrieben von Gast
Hoffentlich erlebt ATi nicht ein ähnliches "Desaster", wenn sie M$ mal nicht mit einer Preissenkung zu willen sind.


Warum sollten sie. schleißlich verkauft ATI denen ja nicht einen überteuerten Chip, sondern nur Lizenzen. Bzgl Preise muß M$ mit TMSC streiten.

ow
2004-05-02, 13:54:45
.

Ailuros
2004-05-02, 14:03:17
Original geschrieben von ow
Überteuerte Lizenzen vielleicht?

Lizenzen sind in der Mehrheit relativ sehr billig. Falls es irgendwelche Probleme geben wuerde, dann mit royalties pro verkaufter Einheit, was aber eher unwahrscheinlich ist. Wenn es irgendwelche Probleme geben koennte dann mit den Herstellungskosten.

Lizenzgebuehren werden bei Abschluss des Vertrags normalerweise abgezahlt und royalties fliessen dann beim Verkaufstart ein.

Gast
2004-05-02, 14:04:53
Original geschrieben von Gast
*hrhr*
Ich bin doch nicht nVidia.... natürlich tragen sie die Verantwortung für ihre Design alleine. Aber was meinst du, auf welcher Basis sie diese Designentscheidungen treffen?

DK: "Ooooch, wir ham son schönes INT12-RC Backend. Das will ich behalten - mir egal ob wir dafür 40 Millionen Transistoren im nV30 verballern und dafür den Rest des Chips ausbremsen."

Ja, FSAA war kritikwürdig, keine Frage, aber die Hauptprügel mussten sie wegen der Shader einstecken.

Wie dem auch sei, wir sprechen uns nochmal wieder, wenn die XBox2 verkauft wird und sie evtl. nicht so gut läuft, wie M$ es gern hätte...
Mal sehen ob ATi sich dann noch erinnert. =)

;Q

Die Xbox2 wird der Knaller werden!

Die Xbox1 war ja gerade wegen Ihrer mangelnden Grafikleistung ein Ladenhüter.

Ailuros
2004-05-02, 14:10:02
Original geschrieben von Gast
Die Xbox2 wird der Knaller werden!

Die Xbox1 war ja gerade wegen Ihrer mangelnden Grafikleistung ein Ladenhüter.

Knaller ist relativ.

Bei Veroeffentlichung wird PC Hardware schon einige Schritte weiter vorne liegen, was aber bei XBox1 auch nicht anders war.

ow
2004-05-02, 14:22:47
.

fizzo
2004-05-02, 14:27:33
Original geschrieben von Ailuros
Knaller ist relativ.

Bei Veroeffentlichung wird PC Hardware schon einige Schritte weiter vorne liegen, was aber bei XBox1 auch nicht anders war.

konsolenhardware sollte man jedoch nicht unbedingt mit pc hardware vergleichen - speziel was das preis/leistungsverhaeltnis angeht!

Ailuros
2004-05-02, 14:47:16
Original geschrieben von ow
Was nimmt den ATi an Lizenzgebühren für die XBox2??

Keine Ahnung. Aber ich hab ernsthafte Zweifel dass es mehr als 2-3Mio $ sein koennten. Von den royalties kommt ja die meiste Kohle; die Norm liegt in dem Fall an die 10% (wenn Du einen chip fuer sagen wir mal 50$ verkaufst, dann royalty = 5$).

Ailuros
2004-05-02, 14:49:19
Original geschrieben von fizzo
konsolenhardware sollte man jedoch nicht unbedingt mit pc hardware vergleichen - speziel was das preis/leistungsverhaeltnis angeht!

Tatsaechlich nicht. Aber sag das dem Gast der XBox1 nicht als "Knaller" empfand. Knaller oder nicht im Vergleich zu was?

ow
2004-05-02, 14:51:48
.

AlfredENeumann
2004-05-02, 14:57:38
Wie die royalties genau aussehen sind nie gesagt worden soweit ich weis. Aber man schätz das man in 2005 ca. 35mio Dollar ernten wird.

http://www.eetimes.com/sys/news/OEG20030815S0012

Ailuros
2004-05-02, 15:02:47
Original geschrieben von ow
Werden die Royalties immer prozentual auf den Chippreis berechnet? Ich könnte mir auch denken, dass hier ein fester Preis pro Chip fällig wird, unabhängig vom Chippreis.

Aber egal wie es auch ist, ATi und MS stehen in einem vertraglichem Verhältnis bei dem es um Geld geht und sowas kann immer Probleme geben. IMO.:D

Prozente sind wohl besser fuer den Lizenznehmer oder? Wenn Du ein Produkt anfangs fuer 400$ und spaeter fuer 200$ als Beispiel verkaufen willst (was auch normalerweise passiert je mehr Zeit vergeht), dann macht ein Prozentual um vieles mehr Sinn; so bloed ist M$ gerade nicht, ganz im Gegenteil.

Die Gefahr fuer Aussernandersetzungen mit ATI ist aber geringer, wenn normale Lizenzierungs-taktiken verwendet werden. ATI macht zwar keinen so grossen Umsatz als wenn sie selber die chips bauen wuerden, aber die Margen sind groesser wenn man Resources/Unkonsten und Umsatz mitberechnet.

Wenn XBox2 ein Flop werden sollte, dann verliert ATI am wenigsten daran. Geringer Verkauf = geringe royalties, aber geringe Resources fuer die Entwicklung.

Ailuros
2004-05-02, 15:06:33
Original geschrieben von AlfredENeumann
Wie die royalties genau aussehen sind nie gesagt worden soweit ich weis. Aber man schätz das man in 2005 ca. 35mio Dollar ernten wird.

http://www.eetimes.com/sys/news/OEG20030815S0012


Hmmmmm...wieviele XBox1 hat M$ im ersten Jahr seiner Erscheinung verkauft?

TheCounter
2004-05-02, 16:00:45
Original geschrieben von Gast
Die Xbox1 war ja gerade wegen Ihrer mangelnden Grafikleistung ein Ladenhüter.

Naja das würd ich ned sagen, die X-Box hat immerhin die beste Grafik unter den Konsolen. Das lag wohl an ein paar anderen Faktoren, am technischen lag es jedenfalls nicht, denn die Konsole ist technisch immernoch Top (siehe Halo 2).

fizzo
2004-05-02, 16:02:05
Original geschrieben von Ailuros
Hmmmmm...wieviele XBox1 hat M$ im ersten Jahr seiner Erscheinung verkauft?

ca. 6 millionen einheiten!

bis jetzt, ca. 2 1/2 jahre nach einfuehrung, wurden ca. 14 millionen xboxen weltweit verkauft!

ein nicht gerade durchschlagender erfolg....

AlfredENeumann
2004-05-02, 16:09:50
Original geschrieben von Ailuros
Hmmmmm...wieviele XBox1 hat M$ im ersten Jahr seiner Erscheinung verkauft?


NV hat ja auch nur am Chip Verdient.
ATI verdient ja nicht nur pro verkauftem Chip/XBox2, sondern bekommt auch einen Anteil an den Gewinneinnahmen Spielelizenzen soweit ich weis, daher diese äußerst optimistische Zahl.

aths
2004-05-02, 17:53:42
Original geschrieben von Winter[Raven]
Nö, muss nicht sein. Man weiß dass der NV40 mit ~475 stabil läuft. Also braucht man nichts am vCore zuändern ;) Wer ist "man"?

robbitop
2004-05-02, 18:13:42
das kommt darauf an, wie reif der Prozess mit dem NV40 ist.
Im Allgemeinen wird ein prozess mit der Zeit durch Optimierungen und Know How Sammlung immer besser und somit ist es möglich bei gleichen Yields höhere Takte zu fahren. An höhere VCore glaube ich kaum, denn allein die 10-20% mehr Takt gehen fast linear in die Verlustleistung ein.
NV muss sehen welcher Takt noch vertretbar wäre...da hat ATi natürlich durch lowk einen nicht zu unterschätzenden Vorteil

Winter[Raven]
2004-05-02, 18:49:20
Original geschrieben von aths
Wer ist "man"?

Hrhrhr ... habe ehe MANN gemeint^^. Und wohl vertippt.

@ robbitop

Sollte es wirklich stimmen dass der NV40 im A2 stepping ~27Watt weniger verbraucht, braucht sich Nvidia nicht viele Sorgen zumachen.

[dzp]Viper
2004-05-02, 19:10:39
Original geschrieben von Winter[Raven]
Sollte es wirklich stimmen dass der NV40 im A2 stepping ~27Watt weniger verbraucht, braucht sich Nvidia nicht viele Sorgen zumachen.

Welches stepping hatten den die Reviewkarten die momentan im umlauf sind? Sind das nicht schon A2 Steppings?

Winter[Raven]
2004-05-02, 19:16:32
Nein, das waren ALLE A1 ;) Es waren ja auch A2 Chips auf der Cebit die mit 475 mhz liefen;)

Re
2004-05-02, 20:13:17
Original geschrieben von Winter[Raven]
Hrhrhr ... habe ehe MANN gemeint^^. Und wohl vertippt.

@ robbitop

Sollte es wirklich stimmen dass der NV40 im A2 stepping ~27Watt weniger verbraucht, braucht sich Nvidia nicht viele Sorgen zumachen.

Lieber Winter,

was bitte schön laberst du da ????

Im A2 Stepping loost die Karte ja sogar gegen eine 9800 Pro ab !

Bitte schön, was solls dann noch bringen????

kami
2004-05-02, 20:16:34
Original geschrieben von Re
Lieber Winter,

was bitte schön laberst du da ????

Im A2 Stepping loost die Karte ja sogar gegen eine 9800 Pro ab !

Bitte schön, was solls dann noch bringen????

Öhm - Sinn? :|

Quasar
2004-05-02, 20:18:33
Original geschrieben von Re
Lieber Winter,

was bitte schön laberst du da ????

Im A2 Stepping loost die Karte ja sogar gegen eine 9800 Pro ab !

Bitte schön, was solls dann noch bringen????

Lieber Re,

Wie meinst du das "Loost gegen eine R9800 Pro ab"? In welcher Hinsicht und von was für einem Chip sprichst du?

deekey777
2004-05-02, 20:21:34
Original geschrieben von Quasar
Lieber Re,

Wie meinst du das "Loost gegen eine R9800 Pro ab"? In welcher Hinsicht und von was für einem Chip sprichst du?

Frag ich mich auch...

OT: Die bei Allstarshop angebotene X800Pro - hat sie eigentlich auch den HL2 Gutschein? :D

Godmode
2004-05-02, 20:35:12
Original geschrieben von Re
Lieber Winter,

was bitte schön laberst du da ????

Im A2 Stepping loost die Karte ja sogar gegen eine 9800 Pro ab !

Bitte schön, was solls dann noch bringen????

Du bist blos ein kleiner verzweifelter Mensch, der NULL Ahnung von der Materie hat. Du weißt wahrscheinlich gar nicht was ATI oder NV ist ;D

Du denkst sicher ATI? Automatisches Tunnel Informationssystem

und zu Nvidia wahrscheinlich: Night Vision Intelligence Development in Australia ;D

betasilie
2004-05-02, 20:38:21
Original geschrieben von bans3i
Du bist blos ein kleiner verzweifelter Mensch, der NULL Ahnung von der Materie hat. Du weißt wahrscheinlich gar nicht was ATI oder NV ist ;D

Du denkst sicher ATI? Automatisches Tunnel Informationssystem

und zu Nvidia wahrscheinlich: Night Vision Intelligence Development in Australia ;D
Don´t feed the Troll! :spock:

Godmode
2004-05-02, 20:43:38
Original geschrieben von betareverse
Don´t feed the Troll! :spock:

sorry das konnte ich mir jetzt einfach nicht verkneifen ;D ;D

löscht es einfach!

Ailuros
2004-05-03, 01:29:47
Original geschrieben von AlfredENeumann
NV hat ja auch nur am Chip Verdient.
ATI verdient ja nicht nur pro verkauftem Chip/XBox2, sondern bekommt auch einen Anteil an den Gewinneinnahmen Spielelizenzen soweit ich weis, daher diese äußerst optimistische Zahl.

Ich verstehe nicht warum ATI einen Anteil von Spiellizenzen bekommen sollte, da M$ praktisch keinen IHV noetig hat um ISVs auf den Ball zu bringen, aber ich hab schon komischere deals gesehen.

Uebertrieben optimistisch wuerde ich sagen.

Ailuros
2004-05-03, 01:32:32
Original geschrieben von Winter[Raven]
Nein, das waren ALLE A1 ;) Es waren ja auch A2 Chips auf der Cebit die mit 475 mhz liefen;)

Es wird wahrscheinlich nur eine sehr begrenzte Anzahl von hoeher getakteten Ultras geben (auf jeden Fall nicht 475MHz); sonst ist und bleibt 6800 Ultra bei 400MHz.

[ncp]EasyChiller
2004-05-03, 03:31:08
Original geschrieben von Re
Lieber Winter,

was bitte schön laberst du da ????

Im A2 Stepping loost die Karte ja sogar gegen eine 9800 Pro ab !

Bitte schön, was solls dann noch bringen????

Herr ... meinen Sie jetzt das ganze rein in Bezug auf die Verlustleistung?! ;D ... dann ja ... aber ma sollte Litschis nicht mit Melonen vergleichen! :bäh:

jambo
2004-05-03, 09:13:04
*bitte woanders rumtrollen lieber Gast*

und dazu vorher neu einwaehlen, deine IP habe ich mir gemerkt.

[dzp]Viper
2004-05-03, 09:35:57
http://www.theinq.net/?article=15662

All is definitely not as it seems in the battle of 3D graphics marchitecture, and the product being analysed by hardware reviewers everywhere is in fact named the Radeon X800XT Platinum.

In contradiction to earlier reports, the ATI reference boards seeded to hardware reviewers, and clocked at 520MHz VPU and 560MHz memory, will be called the XT Platinum range.

Indeed specs of 'vanilla' Radeon X800XT seem as yet unconfirmed, so on Tuesday the line up will run from 12x pipeline Radeon X800PRO to 16x pipeline Radeon X800XT Platinum.

....

Quicker everywhere that is except, we understand, in OpenGL where GeForce 6800 Ultra and Nvidia's superior OpenGL ICD decidedly has its measure.

But it's with Direct3D games like Far Cry - ironically much promoted by Nvidia under it's The Way it's Meant To Be Played programme, and being rolled out as one of the first Pixel Shader 3.0 (PS 3.0) games where PS 2.0 Radeon X800XT Platinum shines the most.

Indeed we understand that at a resolution of 1280x1024 with 4xAA (Anti-Aliasing) and 8xAF (Anisotropic Filtering), with all the eye-candy on max, X800XT Platinum can easily sustain an average of more than 47FPS on a system based around an AMD Athlon 64 FX 51.

47 fps in Farcry in der 1280x1024 mit 4 AA und 8 AF :o

zum vergleich - eine 6800ultra hat da ca 35 fps

kim
2004-05-03, 09:50:39
*lieber Troll*

du wirst unter dieser IP hier kein Posting mehr absetzen, es hat sich hier ausgetrollt fuer dich.

faq
2004-05-03, 09:57:39
Wau das ist beeindruckend,ob das der Refreshchip vom NV 40 auch schafft ?

trom
2004-05-03, 10:02:26
Original geschrieben von [dzp]Viper
http://www.theinq.net/?article=15662

All is definitely not as it seems in the battle of 3D graphics marchitecture, and the product being analysed by hardware reviewers everywhere is in fact named the Radeon X800XT Platinum.

In contradiction to earlier reports, the ATI reference boards seeded to hardware reviewers, and clocked at 520MHz VPU and 560MHz memory, will be called the XT Platinum range.

Indeed specs of 'vanilla' Radeon X800XT seem as yet unconfirmed, so on Tuesday the line up will run from 12x pipeline Radeon X800PRO to 16x pipeline Radeon X800XT Platinum.

....

Quicker everywhere that is except, we understand, in OpenGL where GeForce 6800 Ultra and Nvidia's superior OpenGL ICD decidedly has its measure.

But it's with Direct3D games like Far Cry - ironically much promoted by Nvidia under it's The Way it's Meant To Be Played programme, and being rolled out as one of the first Pixel Shader 3.0 (PS 3.0) games where PS 2.0 Radeon X800XT Platinum shines the most.

Indeed we understand that at a resolution of 1280x1024 with 4xAA (Anti-Aliasing) and 8xAF (Anisotropic Filtering), with all the eye-candy on max, X800XT Platinum can easily sustain an average of more than 47FPS on a system based around an AMD Athlon 64 FX 51.

47 fps in Farcry in der 1280x1024 mit 4 AA und 8 AF :o

zum vergleich - eine 6800ultra hat da ca 35 fps

Aber was für ein FX51 und mit welcher CPU wurden die 35 erreicht ?

Demirug
2004-05-03, 10:03:29
Original geschrieben von [dzp]Viper
Indeed we understand that at a resolution of 1280x1024 with 4xAA (Anti-Aliasing) and 8xAF (Anisotropic Filtering), with all the eye-candy on max, X800XT Platinum can easily sustain an average of more than 47FPS on a system based around an AMD Athlon 64 FX 51.[/i]

47 fps in Farcry in der 1280x1024 mit 4 AA und 8 AF :o

zum vergleich - eine 6800ultra hat da ca 35 fps

Wenn ich bei Farcry inzwischen eines gelernt habe dann das man nur identische Benchmarkdurchläufe vergleichen sollte. Ohne die angabe des Levels ist jeder Leistungswert recht nutzloss.

jopi
2004-05-03, 10:05:25
Original geschrieben von Demirug
Wenn ich bei Farcry inzwischen eines gelernt habe dann das man nur identische Benchmarkdurchläufe vergleichen sollte. Ohne die angabe des Levels ist jeder Leistungswert recht nutzloss.

In UT2003 haben sie eine coolen Benchmark eingebaut,der wäre grad bei Farcry Pflicht gewesen aber nein

[dzp]Viper
2004-05-03, 10:15:15
Original geschrieben von Demirug
Wenn ich bei Farcry inzwischen eines gelernt habe dann das man nur identische Benchmarkdurchläufe vergleichen sollte. Ohne die angabe des Levels ist jeder Leistungswert recht nutzloss.

ja da hast du recht ;(

Hab nochmal alle reviews vom NV40 durchgesehen... da schwanken die werte für 1280x1024 4AA und 8AF zwischen 33 fps und 44fps (je nachdem welches lvl zum benchem verwendet wurde...)