PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R300 (P)review Sammelthread (war: R300 Review bei Anand online)


Seiten : [1] 2 3

askibo
2002-07-18, 11:00:53
http://www.anandtech.com/video/showdoc.html?i=1656


Edit: Titel korrigiert

nggalai
2002-07-18, 11:10:19
Korrektur: ist ein Preview (Paper Launch), Anand hat aber wie bereits angekündigt von ATi einen Besuch erhalten, i.e. hat auch Benches dabei.

ta,
.rb

Panzerchrist
2002-07-18, 11:10:31
Impressive!!

Gerhard
2002-07-18, 11:14:22
Wow 2,5x so schnell wie eine GF4-4600 mit 4x AA ! lechz

Exxtreme
2002-07-18, 11:22:36
Heilandszack!!! 2,5-fache AA-Performance ggü. der GF4Ti4600 bei 4xAA!!! DAS ist garantiert ein Kaufgrund! Leider nur MultiSampling obwohl auch SuperSampling schnell genug wäre bei 8 Renderpipelines. Auch der anisotrope Filter soll jetzt richtig arbyten. :)

Richtig geil das Teil!!!

Gruß
Alex

askibo
2002-07-18, 11:26:32
Originally posted by nggalai
Korrektur: ist ein Preview (Paper Launch), Anand hat aber wie bereits angekündigt von ATi einen Besuch erhalten, i.e. hat auch Benches dabei.

ta,
.rb

Bei mir ist halt alles ein Review was Benches hat ;)

Unregistered
2002-07-18, 11:26:41
Based on the current specs of NV30, believe it or not, it will be faster than the Radeon 9700.

nggalai
2002-07-18, 11:27:47
Die wichtigsten technischen Daten:

• 0.15-micron GPU
• 110+ million transistors
• 8 pixel rendering pipelines, 1 texture unit per pipeline, can do 16 textures per pass
• 4 programmable vect4 vertex shader pipelines
• 256-bit DDR memory bus
• up to 256MB of memory on board, clocked at over 300MHz (resulting in a minimum of 19.2GB/s of memory bandwidth)
• AGP 8X Support
• Full DX9 Pixel and Vertex Shader Support
• Single Full Speed 165MHz integrated TMDS transmitter

Hattest recht mit der einen TMU pro Pipe, Quasar. ;)

ta,
-Sascha.rb

P.S. doppelter theoretischer Polygondurchsatz, verglichen mit Ti4600 . . . woah.rb

Birdman
2002-07-18, 11:28:18
Jep, die FSAA benches sind hammerhart.
Meine nächste Karte wird jedenfalls ne 9700er sein.
Nun müssen Sie nur noch Supersampling ebenfalls freischalten, sonst wird Extreeme nicht so viel freude da dran haben...(die frage ist aber, ob Ati dies auch macht, oder obs aus marketingpolitischen gründen weggelassen wird)

Exxtreme
2002-07-18, 11:29:21
Schaut mal hier rein:
www.tomshardware.com

Und doch ein 256-Bit Bus. *freu*

Gruß
Alex

P.S. Die Whitepapers zu der R9700 gibt's bei www.hardocp.com

Iceman346
2002-07-18, 11:30:06
Originally posted by Unregistered
Based on the current specs of NV30, believe it or not, it will be faster than the Radeon 9700.

Hey, lesen kannst du, wenn du weitergelesen hättest wüsstest du das Anand damit den (wahrscheinlichen) Vorteil in der Taktung meint die durch die 0.13er Fertigung des NV30 kommt.

Sonst bietet die R300 alles was man haben will, deulich über 300 Mhz trotz 0.15 micron, 256bit Speicheranbindung, Multisampling, trilineares AF. Kurz, die Karte kauf ich mir :)

nggalai
2002-07-18, 11:30:21
ATis Beispiel für den FP-Farbraum:

ta,
.rb

nggalai
2002-07-18, 11:33:28
The R300 not only supports trilinear alongside anisotropic but they also fixed the z-rotation issue. Once again, we will have to spend some more time with a card in order to get a better idea if the problem is truly fixed or not, but from what we can tell, they have done a solid job.Damit ist für mich der einzige (theoretisch-technische) Grund, keine ATi zu kaufen, weggefallen. ;)

ta,
-Sascha.rb

Fin
2002-07-18, 11:33:44
also auf http://anandtech.com/video/showdoc.html?i=1656&p=3

steht 8 pixel rendering pipelines, 2 texture units per pipeline, can do 16 textures per pass

;)

ow
2002-07-18, 11:34:54
:rofl:

Fragt sich nur, ob die bei den FSAA Benches genutzte Auflösung überhaupt auf einer der Karten spielbar ist.

250% sind zwar viel, aber ob 5fps oder 12,5fps ist ja echt egal.:D

Hat einer Ahnung, warum keine absoluten fps-Werte angegeben sind???

nggalai
2002-07-18, 11:36:27
Originally posted by Fin
also auf http://anandtech.com/video/showdoc.html?i=1656&p=3

steht

> 8 pixel rendering pipelines, 2 texture units per pipeline, can
> do 16 textures per pass

;) Lustig. Meine Quote ist auch ausm Review. ;)

ta,
-Sascha.rb

Unregistered
2002-07-18, 11:37:08
Steht doch da warum kene benches 1 keine finale Taktung der karte und Treiber sind noch im Alpha stadium

ow
2002-07-18, 11:38:28
Originally posted by Iceman346


Sonst bietet die R300 alles was man haben will, deulich über 300 Mhz trotz 0.15 micron, 256bit Speicheranbindung, Multisampling, trilineares AF. Kurz, die Karte kauf ich mir :)


Deutlich über 300MHz? AFAIK sind die Taktraten des R300 noch gar nicht festgelegt.

AlfredENeumann
2002-07-18, 11:39:27
Originally posted by ow
:rofl:

Fragt sich nur, ob die bei den FSAA Benches genutzte Auflösung überhaupt auf einer der Karten spielbar ist.

250% sind zwar viel, aber ob 5fps oder 12,5fps ist ja echt egal.:D

Hat einer Ahnung, warum keine absoluten fps-Werte angegeben sind???

Kann man bei Tom Nachlesen. Ati hat drum gebeten nochkeine Zahlen rauszugeben, sondern nur die ersten Eindrücke zu schildern. Jeder der Tester hatte auch nur ein paar stunden zeit zum ausprobieren. es sollen auchg noch keine Karten an die Tester gegangen sein.

Birdman
2002-07-18, 11:40:30
Bei OnkelTom steht auch was von einem 8x1 Design.... :(
Schade dass keiner Fillratebenches zum zeigen hat, daran würde man es schnell erkennen.

Iceman346
2002-07-18, 11:40:36
Originally posted by ow
Deutlich über 300MHz? AFAIK sind die Taktraten des R300 noch gar nicht festgelegt.

Das Preview Board lief mit 325 Mhz und das soll mindestens auf den Final Boards laufen laut Anand.

Com1
2002-07-18, 11:41:31
Erste Erkenntnis: Der Termin der c't (18. Juli) war korrekt :D

Zweite Erkenntnis: NV hat diesmal wirklich nichts zum kontern :D

Die Anand Benches gefallen mir sehr gut, da ausschließlich der prozentuale Vorsprung angegeben wird und nicht mit fps geprotzt wird...

Bin mal gespannt auf die Leistungsaufnahme der R9700.

HOT
2002-07-18, 11:42:57
Einfach nur hammerhart.... WOW und das von ATI :D

HADES
2002-07-18, 11:43:03
diese Karte genau das ist, was die Parhelia von Matrox werden sollte???

askibo
2002-07-18, 11:43:31
Originally posted by nggalai
Lustig. Meine Quote ist auch ausm Review. ;)

ta,
-Sascha.rb


:rofl:

War das Absicht? ;D

ow
2002-07-18, 11:43:54
Originally posted by Unregistered
Steht doch da warum kene benches 1 keine finale Taktung der karte und Treiber sind noch im Alpha stadium

Meinst du, da würde es einen Unterschied machen, ob ich das prozentual oder absolut in fps Werten angebe?

Quasar
2002-07-18, 11:43:54
Geiles Teil, soviel schonmal vorab :)

@Sascha:
Leo hat das mit der einen TMU ins Spiel gebracht, ich habe das nur irgendwo mal zitiert....
Und die mit F5 refreshte Version der Seite zeigt tatsächlich 1 TMU an, was ich allerdings nicht glaube.

Pixelfüllrate und Speicherbandbreite sind ja schön und gut, aber wenn die einzige TMU nicht in einem Rutsch anisotrop filtern können sollte dann hat sich der R300 gleich schon wieder erledigt....

Exxtreme
2002-07-18, 11:44:15
Originally posted by Iceman346


Das Preview Board lief mit 325 Mhz und das soll mindestens auf den Final Boards laufen laut Anand.
Jupp. Und da haben einige Leute daran gezweifelt, daß solche Taktraten mit 0,15µ möglich sind (ohne Namen zu nennen). :D
Das Teil ist ein absolutes Bruteforce-Monster und gleichzeitig ziemlich effizient. HyperZ3 hat was dazubekommen und zwar EarlyZ.

Gruß
Alex

Unregistered
2002-07-18, 11:44:53
Originally posted by Com1
Zweite Erkenntnis: NV hat diesmal wirklich nichts zum kontern :D


wie immer:

1. alles eine Frage der Zeit.
2. es bleibt bei einem Katz und Maus-Spiel.

Richthofen
2002-07-18, 11:45:19
Mal ne Frage:

Anand sagt der NV30 wird in jedem Fall schneller sein als ein R300. Gut davon geh ich bei Nvidia ja nunmal auch aus nicht :)
Aber hat nicht David Kirk selber gesagt das er 256 Bit Speicherbus für überdimmensioniert hält????
Anand gibts aber an das der NV30 256 Bit Bus haben wird. Anand ist eigentlich immer gut informiert.

Nun mal eine theorethische Frage:
Wie lange dauert es ein 256 Bit bus zu implementieren wenn man vorher mit einem 128 Bit Bus geplant hat?

Noch was anderes. Der R300 wird geringer getaktet sein als der NV30 das ist klar wegen des Fertigungsprozesses.
Aber kann es sein das der NV30 statt 1 TMU doch 2 auf jeder der 8 Pipes hat?
Käme das mit etwa 10 bis 13 Mio mehr Transistoren hin?

Der NV30 wird auf jeden Fall Multichip tauglich sein aber ich glaub nicht das Nvidia das im Consumer Markt nutzt. Multichip brauchen sie für Quantum nun endlich, da bei Quantum alle Multichip Versionen nach wie vor mit VSA100 Teilen bestückt sind. Die Single Versionen allerdings mit GeForce Teilen.
Da brauch man in jedem Fall Ersatz aber für den COnsumer Markt ist das eher nix von daher wunder ich mich grad bissl über die Aussagen bzgl des 256 Bit Bus.

Ansonsten ist der R300 schon ne schöne Granate allerdings würde ich auch hier mal bissl Treiber Releases abwarten und was mich nun wirklich stört ist der externe Power Supply.
Ein R300 in 0.13 wäre da schon besser. Aber ob ATI den noch in diesem Jahr bringt ist zweifelhaft.

Fin
2002-07-18, 11:47:15
Ja stimmt, jetzt steht da "1 texture unit per pipeline".

ow
2002-07-18, 11:47:55
Originally posted by Iceman346


Das Preview Board lief mit 325 Mhz und das soll mindestens auf den Final Boards laufen laut Anand.

Glaube ich nicht.

Wie wissen ja alle, mit welchen Takten die Radeon1 und Radeon2 laufen sollten und mit welchen sie dann geliefert wurden.

Also ich denke eher weniger als 325MHz werden die Final Boards haben.

Denkbar sind natürlich auch mehrere Versionen mit unterschiedlichem Takt.

Demirug
2002-07-18, 11:48:16
8*1 oder 8*2?

Die Bilder von der Pipeline sagen auch 8*1. Die 8*2 sind eventuel ein Tippfehler. Weil 8*2 gleich 16 die anzahl der Texturezugriffe wäre.

Hat eigentlich irgendjemand eine definitive aussage zu DM und den anderen neuen Tesselationsfeatures von DX9 gesehen? Das einzige was ich gesehen habe war die DX-Featuretabelle.

Iceman346
2002-07-18, 11:50:45
@ow

Dann warten und hoffen wir mal ;)

@Demiurg

Im Anand Artikel stand drin das DM unterstützt wird.

Quasar
2002-07-18, 11:54:20
Originally posted by Demirug
Hat eigentlich irgendjemand eine definitive aussage zu DM und den anderen neuen Tesselationsfeatures von DX9 gesehen? Das einzige was ich gesehen habe war die DX-Featuretabelle.

Ich glaube, das war auch das, was man sehen sollte. Eine definitive Aussage habe ich auch noch nirgends gelesen, aber falls DM in DX9 vorgeschrieben ist, muss der R300 es unterstützen...ansonsten soll man wohl davon ausgehen, daß es unterstützt wird, wenn man sich z.B. bei Anand die Tabelle anschaut.

RadioactiveMan
2002-07-18, 11:54:42
@ Demirug

'Truform 2.0' nennt ATI, das displacement mapped N-patch(kurz DM) Feature

http://www.tomshardware.com/graphic/02q3/020718/radeon9700-05.html

Demirug
2002-07-18, 11:56:53
Originally posted by Richthofen
Mal ne Frage:

Anand sagt der NV30 wird in jedem Fall schneller sein als ein R300. Gut davon geh ich bei Nvidia ja nunmal auch aus nicht :)
Aber hat nicht David Kirk selber gesagt das er 256 Bit Speicherbus für überdimmensioniert hält????
Anand gibts aber an das der NV30 256 Bit Bus haben wird. Anand ist eigentlich immer gut informiert.

Nun mal eine theorethische Frage:
Wie lange dauert es ein 256 Bit bus zu implementieren wenn man vorher mit einem 128 Bit Bus geplant hat?


Das Interface selbst wäre gleich auf 256 bit. Aber man müsste dann ja auch die internen Datenbusse breiter machen und das dauert da man alles neu durchrechnen müsste.


Noch was anderes. Der R300 wird geringer getaktet sein als der NV30 das ist klar wegen des Fertigungsprozesses.
Aber kann es sein das der NV30 statt 1 TMU doch 2 auf jeder der 8 Pipes hat?
Käme das mit etwa 10 bis 13 Mio mehr Transistoren hin?


Neben einer 2. TMU muss auch noch eine 2 SchaderALU dazu sonst bringt das kaum etwas. IMHO müsste das in die 10 Mio reinpassen.


Der NV30 wird auf jeden Fall Multichip tauglich sein aber ich glaub nicht das Nvidia das im Consumer Markt nutzt. Multichip brauchen sie für Quantum nun endlich, da bei Quantum alle Multichip Versionen nach wie vor mit VSA100 Teilen bestückt sind. Die Single Versionen allerdings mit GeForce Teilen.
Da brauch man in jedem Fall Ersatz aber für den COnsumer Markt ist das eher nix von daher wunder ich mich grad bissl über die Aussagen bzgl des 256 Bit Bus.


Das absolute Top-Model wird die Multichip fähigkeit vielleicht nutzen.


Ansonsten ist der R300 schon ne schöne Granate allerdings würde ich auch hier mal bissl Treiber Releases abwarten und was mich nun wirklich stört ist der externe Power Supply.
Ein R300 in 0.13 wäre da schon besser. Aber ob ATI den noch in diesem Jahr bringt ist zweifelhaft.

Eine Granate ist er auf jeden Fall. Das mit der Power Supply war halt nicht zu vermeiden und sollange es kein externes Netzteil ist könnte ich damit ganz gut leben.

Demirug
2002-07-18, 11:59:07
Originally posted by RadioactiveMan
@ Demirug

'Truform 2.0' nennt ATI, das displacement mapped N-patch(kurz DM) Feature

http://www.tomshardware.com/graphic/02q3/020718/radeon9700-05.html

Danke den Abschnitt habe ich übersehen.

ow
2002-07-18, 12:00:23
Originally posted by Iceman346
@ow

Dann warten und hoffen wir mal ;)



Tun wir. Und wie Anand hoffe ich auch, das ATi mal anständige Treiber herausbringt.
Sollen ja komplett neuentwickelt worden sein.

Unregistered
2002-07-18, 12:03:35
Hallo,
Ichhabe mir den Bericht zum Launch der Ati 9700 durchgelesen.
Das sieht ja alles vielversprechend aus.
Die Leistung scheint enorm zu sein, warten wir mal entsprechende Tests ab.
Ich werde dennoch bis ca. Herbst naechsten Jahres warten bis die Karte in 0,13
Standart gefertigt ist, und die Software und Directx eingefuehrt sind um sie dann zu kaufen. Meiner Meinung nach ist es jetzt noch zu frueh ohne diese Standards.
Und was sagt ihr zu der neuen Karte.?

Viper1:D

oliht
2002-07-18, 12:18:24
Les grad das zum Radeon 9000 bei Toms Hardware und es wird kein aktiver Kühler gebraucht selbst bei der Pro Variante. ATI hat es wirklich geschaft mal Nvidia kräftig die Show zu stehlen.

Achja will jemand meine alte G400 haben, brauch noch etwas Geld für die 9700er *gg*

Birdman
2002-07-18, 12:27:04
Huh? was hat die 9000er @passiver Kühler mit der R300 zu tun?

Btw. DAS find ich geil: (me <- FSAA Fetischist)

ATi's new high-end card beats GeForce4 Ti4600 even in terms of quality, at least when it comes to anti aliasing. The spokes wheel demo spoke a clear language. ATi's new gamma correction feature makes a considerable difference.


Ich hoffe mal, dass Nv das auch beim frosch^5 bringt, sonst muss ich wohl länger als mir lieb ist, mit der r300 vorlieb nehmen *eg*

Birdman
2002-07-18, 12:33:52
hmmm, forum iss manchmal sooo lahm, dass es 2 Posts generiert. :bonk:

RadioactiveMan
2002-07-18, 12:33:53
Endlich gibts auch wohl nun Support für Shadow Buffer, wie sonst läßt sich der neuste glATI.h Header deuten:

*
** GL_ARB_shadow
**
** Support:
** Rage 128 based : Not Supported
** Radeon 7xxx based : Not Supported
** Radeon 8xxx based : Not Supported
*/

hier hat man wohl vergessen was zu löschen *g*

/*
** GL_EXT_texture_env_add
**
** Support:
** Rage 128 based : Supported
** Radeon 7xxx based : Supported
** Radeon 8xxx based : Supported
** Radeon 9xxx based : Supported
*/

http://www.ati.com/developer/sdk/RadeonSDK/Html/Info/Extensions/glATI.h


Wird aber sicher interessant zur Siggraph zu sehen mit welche neuen Opengl Extensions ATI für die Radeon 9700 aufwartet, recht wär mir auch nen vollständiger Support für OGL2. Jedenfalls will ich nicht bis zum DX9 Release warten bis irgendwelche SW die neuen Funktionen(DM,Fragment bzw. Vertex Shadererweiterungen) nutzt.

Unregistered
2002-07-18, 12:36:47
Geile Karte wow

aber jetzt muss ATI handeln so schnell wie möglich den chip aufn Markt bringen, also wenns NV30 Previews gibt ists zu spät denn wie ich nVidia kenne wenn der nv30 als single chip zu langsam ist bringen die 100% eine multi Lösung

Unregistered
2002-07-18, 12:37:00
Ein Satz hat mich zumindest wieder auf den Boden zurückgeholt:
"ATI’s drivers have always been their weakness and, unfortunately, it does not look like much has changed with the R300"
Wäre sehr sehr schade das.

ow
2002-07-18, 12:46:04
Originally posted by Unregistered
Ein Satz hat mich zumindest wieder auf den Boden zurückgeholt:
"ATI’s drivers have always been their weakness and, unfortunately, it does not look like much has changed with the R300"
Wäre sehr sehr schade das.


Immer schön, wenn ohne den Kontext zitiert wird;)

da gehört noch dies dazu:


On the positive side, we didn’t encounter any performance, compatibility or image quality issues with the current build of the R300 drivers during our time with it. The card and its drivers ran through our entire benchmark suite just fine; but it is obvious that a significant amount of time has been wasted by redesigning the R300 drivers and we hope that no issues crop up in other games, though it is hard to believe that they will not.





Also hoffen wir mal das beste.

Ich befürchte aber, dass der Radeon8k5 Support ziemlich schnell eingestellt wird.:(

Exxtreme
2002-07-18, 12:46:09
Dann lies mal weiter. ;)

On the positive side, we didn’t encounter any performance, compatibility or image quality issues with the current build of the R300 drivers during our time with it. The card and its drivers ran through our entire benchmark suite just fine; but it is obvious that a significant amount of time has been wasted by redesigning the R300 drivers and we hope that no issues crop up in other games, though it is hard to believe that they will not.

Gruß
Alex

Edit:
Vordrängeln gilt nicht. ;)

nggalai
2002-07-18, 12:46:16
Originally posted by Unregistered
Ein Satz hat mich zumindest wieder auf den Boden zurückgeholt:
"ATI’s drivers have always been their weakness and, unfortunately, it does not look like much has changed with the R300"
Wäre sehr sehr schade das. Das hat mich im Preview (hehe, jetzt hab' ich darauf geachtet :D) gewundert. Einerseits sagt Anand, dass keine Performance-, Kompatibilitäts- und IQ-Probleme auftraten, und dann kommt sowas. Weird guy.

ta,
-Sascha.rb

ow
2002-07-18, 12:52:12
@Exxtreme: diesmal war ich schneller.:D

[edit] klar gilt vordrängeln. bin doch nur armer Modemuser und muss um jedes Byte käpfen, dass mir hier über die Leitung schleicht.:D

nggalai
2002-07-18, 12:55:07
Ich habe mir erlaubt, den Thread umzubenennen--kommen sicher auch noch Kommentare zum THG und weiteren Previews hier rein. ;)

ta,
-Sascha.rb

Exxtreme
2002-07-18, 12:55:54
Ich bin aber gespannt was ATi mit besseren Treibern noch aus der R9700 rausholt. Bei der R8500 waren es insgesamt ca. 20-30%.

Gruß
Alex

@ nggalai
Ich hätte den Thread in "The Imperium strikes back" umbenannt. :D ;)

nagus
2002-07-18, 12:57:51
.... Once 4x FSAA and 8x anisotropic filtering was used, the scores changed quite significantly. GeForce4 Ti4600 was able to get a mere 4500 points, while Radeon 9700 scored 10,000 points and thus more than twice the points of the competitor from NVIDIA.



ZIEHHHHHHMLICH GEIL!!!!

Gohan
2002-07-18, 12:59:20
Quelle?

Unregistered
2002-07-18, 13:01:55
Originally posted by nggalai
Das hat mich im Preview (hehe, jetzt hab' ich darauf geachtet :D) gewundert. Einerseits sagt Anand, dass keine Performance-, Kompatibilitäts- und IQ-Probleme auftraten, und dann kommt sowas. Weird guy.

ta,
-Sascha.rb
hm, könnte sein dass er es allen recht machen will:
Einerseits die GF4-Besitzer beruhigen "jaja die Treiber von ATI..."
und andererseits die ATI-Fans beglücken "Keine Performance- oder Qual.-Probleme..."

Also ernst nehmen kann ich das nicht.
---> d. h. noch rund einen Monat warten :)

nagus
2002-07-18, 13:01:57
http://www.tomshardware.com/graphic/02q3/020718/radeon9700-12.html

Iceman346
2002-07-18, 13:02:12
Das steht in Tomshardware.

@nagus dafür war doch wirklich kein neuer Thread nötig.

skampi
2002-07-18, 13:04:17
Originally posted by nggalai
Damit ist für mich der einzige (theoretisch-technische) Grund, keine ATi zu kaufen, weggefallen. ;)

ta,
-Sascha.rb



Das find ich auch nicht schlecht:

Quelle THG
We had the chance to see a demo of a spokes wheel on Radeon 9700 besides the same wheel on GeForce4, both running at 4x FSAA. It was highly impressive to see how much better this wheel looked on Radeon 9700.

nagus
2002-07-18, 13:05:52
von mir aus ->> bitte schließen


danke

ow
2002-07-18, 13:06:41
Originally posted by Exxtreme
Ich bin aber gespannt was ATi mit besseren Treibern noch aus der R9700 rausholt. Bei der R8500 waren es insgesamt ca. 20-30%.

Gruß
Alex

@ nggalai
Ich hätte den Thread in "The Imperium strikes back" umbenannt. :D ;)


Ich bin vielmehr gespannt, wie sich die ATi ausserhalb dieser ausgewählten Benches präsentiert.
Denn da ja allgemein bekannt ist, womit heutzutage gebencht wird, ist ja auch klar, worauf die Treiber optimiert sind.

Kellwolf
2002-07-18, 13:06:57
Die Daten der Karte sehen gut aus, werde aber trotzdem bis zum Herbst
warten und mal schauen was Nvidia gegenkontert, und lesen was die ersten 9700 besitzer so schreiben und wie gut die ATI Treiber sind im mom tuts die alte GF3 noch...

MFG
Kellwolf

Tarkin
2002-07-18, 13:11:26
von hardocp:

Benchmarks:


"UT2003 - 1600x1200x32; 4XAA; 16XAF – The Radeon 9700 doused the Ti4600 by about 25%. Now get a load of this, that is with the GF4 running without AA or AF. With 4XAA turned on the Ti4600 was crushed by nearly 300%. The Radeon 9700 simply made quick work of the Ti4600 under this UT2003 demo.

3DMark2001 – Using the default benchmark at 10x7 with no AA nor AF turned on, the Radeon 9700 exceeded the Ti4600’s score by approximately 20%. Where most of the score boost came from was the Nature demo as the Radeon 9700 was posting frame rates of right at 200% of the Ti4600 numbers.

Comanche 4 Demo - 1600x1200x32; 4XAA; 16XAF – Again approximately 25% ahead of the Ti4600 with the Ti running no AA or AF compared to the full on settings of the Radeon 9700.

Last, but certainly not least, a benchmark we don’t use as it is made by NVIDIA, tweaked by NVIDIA, and configured for NVIDIA hardware, the Chameleon demo. At 1600x1200 the Radeon 9700 doubled the Ti4600 scores. "

diese Zahlen sind zu schön, um wahr zu sein (nochdazu da es ein BETA Board mit BETA treibern war

ICH WERD VERRÜCKT!


:O :O :O :O :O

ow
2002-07-18, 13:16:04
*closed*

hier geht´s weiter:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=26571

Edit: Ich habe die Threads zusammengelegt. -Sascha.rb

Quasar
2002-07-18, 13:16:24
Originally posted by Exxtreme
@ nggalai
Ich hätte den Thread in "The Imperium strikes back" umbenannt. :D ;)

Tu's doch....aber:

1. stellst du ATi damit auf die dunkle Seite der Macht, und
2. Heisst es "The Empire strikes back" ;)


BTW, was der Unsinn mit den Treibern soll, könnte man eben so erklären, daß "the card and its drivers through our entire benchmark suite just fine ran" (anand; [deutsche Syntax mit engl. Vokabular rockz]), aber die Frage noch ungeklärt ist, "wie sich die ATi ausserhalb dieser ausgewählten Benches präsentiert. Denn da ja allgemein bekannt ist, womit heutzutage gebencht wird, ist ja auch klar, worauf die Treiber optimiert sind." (ow)

StefanV
2002-07-18, 13:20:48
Tja, Ottonormaluser wird sich wohl erstmal ATI Karten kaufen ;D ;D ;D

Unregistered
2002-07-18, 13:21:58
Die grage ist ja auch wie die karte auf ne AMD sys performt nich jeden hat ne P4 2,%GHZ wie wirds whol auf nem 1800XP aussehn was ja whol zur zeit der druchschnitt ist dann sind die zahlen auf einmal bestimmt nicht mher so ebeindruckend

Quasar
2002-07-18, 13:25:39
unreg,

Gerade an den Werten mit "Shmankerl turned on" wird das nicht viel ändern, da diese ziemlich CPU-unabhängig sind.

SP,
Sogar Otto Normaluser wird sich gedulden müssen, bis die im Laden auch erhältlich sind. *eg*

skampi
2002-07-18, 13:48:02
Noch was sehr Feines:


Quelle THG
Last but not least I will only briefly mention our first glimpse at ATi's 3D development tool suite 'Rendermonkey'. This software can seamlessly be used as a plugin with any of the current 3D-development suites, generating vertex and pixel shader code. Rendermonkey is very comfortable to use by developers as well as artists and should make the development of titles that use vertex and pixel shaders a lot easier than it used to be so far. Additionally, ATi includes a compiler for Renderman and told us that another compiler for Maya is in the works. Rendermonkey will be available from ATi's website once it has officially been beta-released at SIGGRAPH next week and it will be free of charge. What we heard is that it is currently regarded much more useful than NVIDIA's pseudo-standard Cg.

ow
2002-07-18, 13:57:48
:rofl:

Vertausch mal ATi mit NV und Randermonkey mit cg.

Astreines Marketing-Geblubber.:D

askibo
2002-07-18, 14:05:36
Originally posted by ow
Meinst du, da würde es einen Unterschied machen, ob ich das prozentual oder absolut in fps Werten angebe?


Für ATI schon, für Leute mit einem Taschenrechner wohl eher nicht. ;D

Because ATI has yet to finalize drivers and clock speeds, we were only allowed to publish percent improvements over a GeForce4 Ti 4600. We have published Ti 4600 numbers in many other articles, so you can get a good idea on what sort of performance levels the R300 will be able to deliver.

skampi
2002-07-18, 14:07:14
Originally posted by ow
:rofl:

Vertausch mal ATi mit NV und Randermonkey mit cg.

Astreines Marketing-Geblubber.:D


Lies erst mal richtig bevor Du "losblubberst".

StefanV
2002-07-18, 14:10:00
Originally posted by Quasar
SP,
Sogar Otto Normaluser wird sich gedulden müssen, bis die im Laden auch erhältlich sind. *eg*

Wenn Benches veröffentlicht werden, dann denkt er:

'Boh, ATI ist ja schnell'

Und geht in den nächsten Laden und kauft sich 'ne 7500 ;D ;D

Quasar
2002-07-18, 14:12:58
Eher die Radeon9000.

Und falls er wirklich merkt, daß das nicht dasselbe ist, kauft er beim nächsten mal sicher keine ATi mehr (so wie der DAU, der eine GF4MX kaufte, ohne sich richtig zu informieren).

nggalai
2002-07-18, 14:13:06
[H] hat auch 2h mit der Radeon9700 rumspielen dürfen:

http://www.hardocp.com/article.html?art=MzMw

Auszug:ATi’s Radeon 9700 delivered the most enjoyable gaming experience we have ever had on a PC. It is undoubtedly the speed king as we have seen it top GeForce4 Ti4600 scores in the last few days from between 25% to 300%. ATi is claiming double the performance of the nearest competition and they can certainly prove that on more than just a couple of benchmarks. It is ATi’s turn to wear the crown and their hard work on the R300 over the last 18 months surely shows as they are bringing a product to market that they should be fully proud of.

ta,
-Sascha.rb

Desti
2002-07-18, 14:18:41
Originally posted by Quasar


Tu's doch....aber:

1. stellst du ATi damit auf die dunkle Seite der Macht, und
2. Heisst es "The Empire strikes back" ;)

[...]

Es müsste eher "Return of the Jedi" heißen, denn ATI gehört zu den "alten" Hasen. Das Empire passt eher auf nVidia.

Quasar
2002-07-18, 14:28:13
Desti,

erzähl' das Exxtreme :D

[fu]121Ah
2002-07-18, 14:35:23
hmm, return of the jedi wäre wenn 3dfx zurück käme ;)

askibo
2002-07-18, 14:42:43
Auf http://www.ati.com/developer/demos/r9000.html gibt Tech-Demos der R9700.

Der Server ist aber momentan kurz vorm abkratzen. Gibts irgendwo Mirrors?

Dave
2002-07-18, 14:46:33
Nun will ich meinen Senf auch dazu geben...
Also die ATI Vorabtestwerte sind in der Tat ziemlich beeindruckend, es scheint als würde ATI die Rohpower auch mal nutzen zu können, was beim R200 IMO nicht der Fall war. Aber wie schon einige richtig bemerkt haben, warten wir erstmal ab wie es in der Realität ausschaut. Und nicht zu vergessen der Preis von 400 USDollar...das bedeutet für uns wohl mehr als 500 Euros!? Wie auch immer ich hab ne Ti4200, da kann ich in Ruhe auf Nvidia´s Antwort warten...und dann schaun mer mal :D

askibo
2002-07-18, 14:58:29
Nagorak aus dem b3d-Forum war so nett und hat aus den Daten von anandtech die FPS errechnet:

Quelle: http://216.180.225.194/~beyond3d/forum/viewtopic.php?t=1661


Unreal Tournament 2003 (DM-Antalus)
1024x768x32 High Detail Settings
Radeon 9700: 130.4
GF4 Ti4600: 94.5
Parhelia: 54.4
Radeon 8500: 57.6

Unreal Tournament 2003 (DM-Antalus)
1280x1024x32 High Detail Settings
Radeon 9700: 87.8
GF4 Ti4600: 59.3
Parhelia: 35.1
Radeon 8500: 37.9

Unreal Tournament 2003 (DM-Antalus)
1600x1200x32 High Detail Settings
Radeon 9700: 63.3
GF4 Ti4600: 41.1
Parhelia: 24.6
Radeon 8500: 25.2

---------------------------------------------------------------

Unreal Tournament 2003 (DM-Asbestos)
1024x768x32 High Detail Settings
Radeon 9700: 210.3
GF4 Ti4600: 178.2
Parhelia: 100.4
Radeon 8500: 91.1

Unreal Tournament 2003 (DM-Asbestos)
1280x1024 High Detail Settings
Radeon 9700: 144.3
GF4 Ti4600: 115.4
Parhelia: 65.5
Radeon 8500: 58.9

Unreal Tournament 2003 (DM-Asbestos)
1600x1200 High Detail Settings
Radeon 9700: 104.1
GF4 Ti4600: 82.0
Parhelia: 46.9
Radeon 8500: 42.0

---------------------------------------------------------------

Jedi Knight 2
'demo jk2ffa' 1024x768x32
Radeon 9700: 122.5
GF4 Ti4600: 125
Parhelia: 90.5
Radeon 8500: 123.5

Jedi Knight 2
'demo jk2ffa' 1280x1024x32
Radeon 9700: 123.2
GF4 Ti4600: 124.4
Parhelia: 74.9
Radeon 8500: 116.9

Jedi Knight 2
'demo jk2ffa' @ 1600x1200
Radeon 9700: 124.3
GF4 Ti4600: 113.0
Parhelia: 65.9
Radeon 8500: 93.2

---------------------------------------------------------------

Serious Sam 2: The Second Encounter
'Little Trouble' 1024x768x32
Radeon 9700: 115.2
GF4 Ti4600: 100.2
Parhelia: 67.4
Radeon 8500: 58.2

Serious Sam 2: The Second Encounter
'Little Trouble' 1280x1024x32
Radeon 9700: 102.6
GF4 Ti4600: 72.9
Parhelia: 49.5
Radeon 8500: 45.3

Serious Sam 2: The Second Encounter
'Little Trouble' 1600x1200x32
Radeon 9700: 77.6
GF4 Ti4600: 51.7
Parhelia: 37.3
Radeon 8500: 32.1

Unregistered
2002-07-18, 15:04:24
SO da sieht die sache doch schon ein bissel klarer aus so und wo jetzt genau ist die R300 doppelt so schnell wie die 4600 hhier siehts immer so nach 20-30% aus naj nich wirklich dolle

Pitchfork
2002-07-18, 15:05:38
Originally posted by ow
:rofl:

Vertausch mal ATi mit NV und Randermonkey mit cg.

Astreines Marketing-Geblubber.:D

Kleiner Unterschied ist zu merken:

- NV hat in nem Interview gesagt, daß es theoretisch möglich ist, RenderMan in Cg umzusetzen und daß es wohl irgendwann jemand machen wird.

So making movies and making video games will be the same?
This is a big step towards convergence -- not films and movies and games being the same, but the way people create them being the same. Artists can use the same skills on both. Cg is almost guaranteed to be efficient in hardware, and any Renderman program can be translated to Cg, by hand or by a tool that someone's developing. Once that happens, all the moviemaking can take place in Cg.


- ATI hat das am Laufen.


Klar wird NV nachziehen und ebenfall Renderman->Cg Converter anbieten, aber vom Marketing Geblubber ist das wohl einiges entfernt bei ATI.

Pitchfork

Exxtreme
2002-07-18, 15:15:32
Originally posted by Unregistered
SO da sieht die sache doch schon ein bissel klarer aus so und wo jetzt genau ist die R300 doppelt so schnell wie die 4600 hhier siehts immer so nach 20-30% aus naj nich wirklich dolle
Ja, ohne FSAA und AF. Wenn du diese Features nicht brauchst dann reicht dir eine GF3Ti200 vollkommen.

Gruß
Alex

Unregistered
2002-07-18, 15:19:05
So jetzt reichts slebst wenn die in Fssa schneller is ich hab und ihr auch noch kein game mit diem AA gesehen whoher wollt ihr wissen was die quali sagt und gerade bei diesen feutures kann viel mit dem treiber geschummelt werden was ATI ja auch schon bei Q3 mit der 8500 gemacht hat nur um 5fps mehr zu haben als die ti500

Doomtrain
2002-07-18, 15:20:44
Originally posted by Unregistered
So jetzt reichts slebst wenn die in Fssa schneller is ich hab und ihr auch noch kein game mit diem AA gesehen whoher wollt ihr wissen was die quali sagt und gerade bei diesen feutures kann viel mit dem treiber geschummelt werden was ATI ja auch schon bei Q3 mit der 8500 gemacht hat nur um 5fps mehr zu haben als die ti500

*flamewarabwend*

Exxtreme
2002-07-18, 15:24:43
Originally posted by Unregistered
So jetzt reichts slebst wenn die in Fssa schneller is ich hab und ihr auch noch kein game mit diem AA gesehen whoher wollt ihr wissen was die quali sagt und gerade bei diesen feutures kann viel mit dem treiber geschummelt werden was ATI ja auch schon bei Q3 mit der 8500 gemacht hat nur um 5fps mehr zu haben als die ti500
Also laut THG ist die FSAA-Quali der R9700 besser als die der GF4Ti4x00.

Gruß
Alex

Doomtrain
2002-07-18, 15:25:42
Originally posted by HADES
diese Karte genau das ist, was die Parhelia von Matrox werden sollte???

Leider leider ist sie das nicht geworden. Die Benchmarks der\des R300 sind in der Tat sehr beeindruckend. Wenn der KyroIII nicht erscheint, oder Matrox ein Wunder vollbringt, werde ich mir (zu ersten mal) eine Karte von ATI kaufen.

Wenn man sich vor 2 Wochen eine GeForce4 Ti4600 gekauft hat, sollte man sich spätestens jetzt ärgern!!!! *eg*

Schnitzl
2002-07-18, 15:26:14
@ Doomtrain:

Unregistered
2002-07-18, 15:30:07
HAH ihr doch nicht ewta denken das sei ausreichend um NVIDIA überhaupt nur zu beunruhigen

Quasar
2002-07-18, 15:35:04
Originally posted by Doomtrain
Wenn man sich vor 2 Wochen eine GeForce4 Ti4600 gekauft hat, sollte man sich spätestens jetzt ärgern!!!! *eg*

Warum? Weil man noch mindestens 30 Tage warten muss, bis ATi die ersten Karten verschickt? Die werden dann in den USA erhältlich sein, in Kanada oder vielleicht in Japan. Bei uns erwarte ich die Teile ehrlich gesagt nicht vor Mitte September (optimistisch geschätzt).

Dann ist da noch die Sache mit dem Preis: 400U$ sind auch bei Dollar-Parität zum Euro nicht gleich 400€ bei uns. 500€-Dollar wird man schon anlegen müssen, imho, besonders bei den Shops, die sie als erstes haben und noch ordentlich Reibach damit machen wollen.

Und wenn Preis und Verfügbarkeit endlich stimmen, gibt's Gerüchte zum nV30 und dann geht das geärgere wieder los, diesesmal bei denen, die sich die R300 gekauft haben.

Man kann eben keine Graka kaufen und erwarten, daß die Investition sich über zwei Jahre im Gegenwert erhält, so läuft das nicht.

Unregistered
2002-07-18, 15:35:07
Ach was ATI rulezzzz :chainsaw:

Doomtrain
2002-07-18, 15:36:41
Originally posted by Schnitzl
@ Doomtrain:



AAAAAAAAAAAAAAAA

Use the Force!! ;)

LovesuckZ
2002-07-18, 15:36:53
Originally posted by askibo
Nagorak aus dem b3d-Forum war so nett und hat aus den Daten von anandtech die FPS errechnet:

Quelle: http://216.180.225.194/~beyond3d/forum/viewtopic.php?t=1661


Unreal Tournament 2003 (DM-Antalus)
1024x768x32 High Detail Settings
Radeon 9700: 130.4
GF4 Ti4600: 94.5
Parhelia: 54.4
Radeon 8500: 57.6

Unreal Tournament 2003 (DM-Antalus)
1280x1024x32 High Detail Settings
Radeon 9700: 87.8
GF4 Ti4600: 59.3
Parhelia: 35.1
Radeon 8500: 37.9

Unreal Tournament 2003 (DM-Antalus)
1600x1200x32 High Detail Settings
Radeon 9700: 63.3
GF4 Ti4600: 41.1
Parhelia: 24.6
Radeon 8500: 25.2

---------------------------------------------------------------

Unreal Tournament 2003 (DM-Asbestos)
1024x768x32 High Detail Settings
Radeon 9700: 210.3
GF4 Ti4600: 178.2
Parhelia: 100.4
Radeon 8500: 91.1

Unreal Tournament 2003 (DM-Asbestos)
1280x1024 High Detail Settings
Radeon 9700: 144.3
GF4 Ti4600: 115.4
Parhelia: 65.5
Radeon 8500: 58.9

Unreal Tournament 2003 (DM-Asbestos)
1600x1200 High Detail Settings
Radeon 9700: 104.1
GF4 Ti4600: 82.0
Parhelia: 46.9
Radeon 8500: 42.0

---------------------------------------------------------------


Die Zahlen sind nix Wert, da man den R300 auf einen Pentium4 mit 2.4B Gig betrieben hat und GF4TI4600 auf einen Athlon XP2100+ System.

Demirug
2002-07-18, 15:39:25
Bezüglich Rendermonkey:

Die paar Tage kann ich jetzt auch noch warten. Und dann werden Programme gegen Programme und nicht (Marketing)aussagen gegen Programme verglichen.

Exxtreme
2002-07-18, 15:40:27
Originally posted by Unregistered
HAH ihr doch nicht ewta denken das sei ausreichend um NVIDIA überhaupt nur zu beunruhigen
Keine Ahnung ob die R300 nVidia beunruhigt. Isch mia au wurscht.
;)

Gruß
Alex

Doomtrain
2002-07-18, 15:41:52
Originally posted by Quasar


Und wenn Preis und Verfügbarkeit endlich stimmen, gibt's Gerüchte zum nV30 und dann geht das geärgere wieder los, diesesmal bei denen, die sich die R300 gekauft haben.

Man kann eben keine Graka kaufen und erwarten, daß die Investition sich über zwei Jahre im Gegenwert erhält, so läuft das nicht.

Du weiß ganz genau was ich meine. Die Technik der GeForce4 ist so alt wie die Ur-GeForce3. Der Radeon 9700 ist brandneu und wird warscheinlich das gleiche kosten wie eine GeForce4 TI4600 (So 500€) und viel schneller sein bei Next-Gen-Spielen und....und.....

Nix für Ungut Quasar *eg*

PS: NV30 und R300 werden wieder Glaubenskriege auslösen. Was man kauft, ist im Endeffekt egal denke ich.

Exxtreme
2002-07-18, 15:41:53
Originally posted by Doomtrain
Use the Force!! ;)
Nee, CRUSH THE FORCE!!!

Gruß
Alex

Doomtrain
2002-07-18, 15:44:41
Originally posted by Exxtreme

Nee, CRUSH THE FORCE!!!



Du weißt auch wie ich das gemeint habe.!

Dann eben so: ATI, use the Force!!!!! (Ohne Geometric!!!!)

PS: Du freust dich im Moment, hab ich recht? *eg*

Quasar
2002-07-18, 15:50:50
@Doomtrain:
Sicher, aber die R300 scheint schon bei heutigen Games schneller zu sein, als die GF4. Ob für DX9 die "First-Round"-Chips ausreichen werden, wage ich zu bezweifeln, schließlich war es bei den vergangenen paar Generationen von DX genauso. Für DX8 wird die R300 dagegen sicherlich ausreichend sein, auch wenn Games à la Doom3 (vergleichbar einem vollwertigen DX8-Game) sicher nicht so flutschig in 1600 mit allen Effekten und Features laufen wird, wie es Quake3 tut.

@Exxtreme:
Dir geht heute richtig einer ab, oder?

skampi
2002-07-18, 15:51:46
Originally posted by Unregistered
HAH ihr doch nicht ewta denken das sei ausreichend um NVIDIA überhaupt nur zu beunruhigen

Hey, die meisten hier wollen nur ne gute Graka und sich nicht Deinem "Feldzug" in den Weg stellen...

Frank
2002-07-18, 15:51:59
so

und jetzt kommen wir mal alle wieder auf den Boden zurück und warten, bis es überhaupt die Karte gibt, die man dann auch anfassen kann.

Exxtreme
2002-07-18, 15:54:14
Originally posted by Doomtrain


Du weißt auch wie ich das gemeint habe.!

Dann eben so: ATI, use the Force!!!!! (Ohne Geometric!!!!)

PS: Du freust dich im Moment, hab ich recht? *eg*
Klor ey!! Andererseits sollten die NV-Fans ATi eigentlich dankbar sein. ATi hat NV jetzt richtig Feuer unter'm Hintern gemacht und wird sich jetzt anstrengen müssen ein besseres Produkt rauszubringen. Ich bin NV auch dankbar, daß sie ATi unter Druck gesetzt haben.

Gruß
Alex

Doomtrain
2002-07-18, 16:00:52
Originally posted by Quasar
@Doomtrain:
Sicher, aber die R300 scheint schon bei heutigen Games schneller zu sein, als die GF4. Ob für DX9 die "First-Round"-Chips ausreichen werden, wage ich zu bezweifeln, schließlich war es bei den vergangenen paar Generationen von DX genauso. Für DX8 wird die R300 dagegen sicherlich ausreichend sein, auch wenn Games à la Doom3 (vergleichbar einem vollwertigen DX8-Game) sicher nicht so flutschig in 1600 mit allen Effekten und Features laufen wird, wie es Quake3 tut.



Ich muß mich schon wieder outen, aber so wie der R9700 ist, habe ich mir den P512 vorgestellt, tja.

Nur einen Chip wollen die Hersteller doch gar nicht. Es wird werden wie gehabt. 2-3 verschiedene Grakas werden für DX9 (Von ATI bzw. NV) kommen. (Wie GeForce3, TI und GeForce4 TI für DX8)

Ich glaube kaum, das Doom3 in 1600x1200!!! und das auch noch mit allen Detail PERFEKT spielbar sein wird. Sagen wir mal 1024x768. Dazu will ich noch 2x FSAA habe, dann bin ich zufrieden.

Quake3 hat nun (endlich) als Standardbenchmark ausgedient!!!

Quasar
2002-07-18, 16:03:49
Originally posted by Doomtrain
Ich muß mich schon wieder outen, aber so wie der R9700 ist, habe ich mir den P512 vorgestellt, tja.

Ich glaub' das haben wir alle, oder?

ow
2002-07-18, 16:05:36
Originally posted by Exxtreme

Also laut THG ist die FSAA-Quali der R9700 besser als die der GF4Ti4x00.

Gruß
Alex


Ich zitiere dich mal aus einem anderen Thread:

Originally posted by Exxtreme
Also ich halte THG, RS und Anandtech für extrem voreingenommen. Ausserdem habe ich bei Borsti und Anand das Gefühl, daß denen irgendwie das Hintergrundwissen fehlt um die Hardware zu testen und einzuschätzen.
Gruß
Alex


Du berufst dich auf eine Seite, die du für voreingenommen (=unglaubwürdig) hältst?

area2000
2002-07-18, 16:08:04
Sieht ja derzeit sehr gut aus was ATI zusammengebastelt hat :)
Und irgendwie iss mir das Sche** egal was irgendwer hier sagt um die Karte hier schlecht zu machen.
Alles was ich bisher gelesen habe ist überaus beindruckend und wiederspricht jeglicher Kritik.

Doomtrain
2002-07-18, 16:08:17
Originally posted by Quasar


Ich glaub' das haben wir alle, oder?

Ich denke mal, aus diesem Flop haben ALLE was gelernt:

Keine Grakas etc. hypen von denen keine bestätigten Benchmarks, Bilder oder Fakten vorliegen.

Simon Moon
2002-07-18, 16:08:57
Originally posted by Doomtrain

Quake3 hat nun (endlich) als Standardbenchmark ausgedient!!!

Hehe, naja irgendwann käme der noch in den 4 stelligen Bereich :)

Ich würd mal tippen, der nächste Standard Benchmark wird UT2003 sein (mindestens bis Doom3...)

Com1
2002-07-18, 16:10:21
Jetzt ist die nächste Runde eröffent...

Hoffentlich verstummen jetzt endlich die Stimmen, die Behaupten "0.15 µ = schlecht, keine hohen Taktraten mit 110 Mio Transistoren" ATI hat es geschafft... wen auch auf nur mit externer Stromversorgung, aufwändigerer Kühlung und CPU ähnlichem Chip-Package. Auch Übertaktung wird wohl nicht drin sein, aber wenn die Karte mit FSAA + AF wirklich so konkurrenzlos schnell ist wie behauptet und mit 300 MHz + getaktet wird...dann wird das auch kaum nötig sein

ein 0.13 µ "refresh" wird einige dieser Mankos aus der Welt schaffen.

man darf gespannt sein was an den NV30 Gerüchten um "FSAA for free" und allgemein um dem Einsatz von 3dfx Technik dran ist.

ow
2002-07-18, 16:11:11
Originally posted by Doomtrain


Du weiß ganz genau was ich meine. Die Technik der GeForce4 ist so alt wie die Ur-GeForce3.

Das hat ATi aber nicht daran gestört, das Konzept des CBMC aus den 'uralten' Gf3/4 in die R9700 zu übernehmen.:D

skampi
2002-07-18, 16:12:49
Originally posted by ow
Du berufst dich auf eine Seite, die du für voreingenommen (=unglaubwürdig) hältst?

In der Sache hast Du schon recht. Trotzdem, voreingenommen heißt nicht unglaubwürdig.

nggalai
2002-07-18, 16:13:06
Originally posted by Demirug
Bezüglich Rendermonkey:

Die paar Tage kann ich jetzt auch noch warten. Und dann werden Programme gegen Programme und nicht (Marketing)aussagen gegen Programme verglichen. *zustimm*

spätestens nach der Siggraph sollte klar sein, welche Software denn von wem wie unterstützt werden wird. Ausserdem sollte dann auch klar sein, was denn die einzelnen Ansätze können, und wie damit schlussendlich gearbeitet wird.

ta,
-Sascha.rb

Doomtrain
2002-07-18, 16:13:54
Originally posted by Com1


Ein 0.13 µ "refresh" wird einige dieser Mankos aus der Welt schaffen.

Man darf gespannt sein was an den NV30 Gerüchten um "FSAA for free" und allgemein um dem Einsatz von 3dfx Technik dran ist.

1) Jap, sehe ich auch so!

2) Das glaube ich schon lange nicht mehr!! Zu oft angekündigt und nie eingehalten.

Demirug
2002-07-18, 16:18:11
Originally posted by Doomtrain
2) Das glaube ich schon lange nicht mehr!! Zu oft angekündigt und nie eingehalten.

*zustimm*

"FSAA for free" gibts nur dann wenn man es gar nicht mehr abschalten kann. Der Chip also immer FSAA macht.

area2000
2002-07-18, 16:19:45
Hat schon einer von euch die Tech Demos getestet (.exe) ?

Das Bear Demo sieht verdammt gut!, bei den anderen Demos bin ich noch am runterladen, dauert wohl noch ein wenig.

Exxtreme
2002-07-18, 16:27:39
Originally posted by ow
Du berufst dich auf eine Seite, die du für voreingenommen (=unglaubwürdig) hältst?
Richtig. Ist ja auch Sinn der Sache.
Ich halte THG für sehr voreingenommen und sehr pro-NV.

Gruß
Alex

Com1
2002-07-18, 16:28:26
Ja hab mir die Demos auch mal geladen... der Bär erinnert doch stark an NVs Wulfman.

Ansonsten... ganz nett aber nichts weltbewegendes.

Ich halte nicht so viel von diesen ganzen Demos...

HiddenGhost
2002-07-18, 16:31:00
Das die 9700 so überragend im FSAA ist liegt doch wohl vor allem an Atis 256bit Quadchannel Konzept (8x1+1,HyperZ III, >325MHz),etc. ...

wäre es für NV theorietisch möglich mit einem 128bit Crossbar 8x2 , LMA 2 bei 400 MHz Singlechip ATI auszuperformen, würde die Füllrate udn Bandbreite durch die Bandbreitenschonmechanismen überhaupt ausreichen ???

ow
2002-07-18, 16:35:17
Originally posted by Exxtreme

Richtig. Ist ja auch Sinn der Sache.
Ich halte THG für sehr voreingenommen und sehr pro-NV.

Gruß
Alex

:rofl:


Und genau deshalb hat ATi die sicher ausgesucht, als eine der ersten die R9700 testen zu dürfen.:rofl:

HiddenGhost
2002-07-18, 16:35:23
Originally posted by area2000
Hat schon einer von euch die Tech Demos getestet (.exe) ?

Das Bear Demo sieht verdammt gut!, bei den anderen Demos bin ich noch am runterladen, dauert wohl noch ein wenig.

Wieso linken die solche Files nicht dezentral im Esel oder anderen clients ???

Silent Hunter
2002-07-18, 16:35:57
die Radeon 9500 eine leicht modifizierte Version der Radeon 9700 soll bald in den handel kommen..


Dieser soll bei der Veröffentlichung im September 400 Euro kosten. Ein abgespecktes Modell mit dem Namen Radeon 9500 soll bereits für 300 Euro zu haben sein.

Exxtreme
2002-07-18, 16:38:42
Originally posted by HiddenGhost
Das die 9700 so überragend im FSAA ist liegt doch wohl vor allem an Atis 256bit Quadchannel Konzept (8x1+1,HyperZ III, >325MHz),etc. ...

wäre es für NV theorietisch möglich mit einem 128bit Crossbar 8x2 , LMA 2 bei 400 MHz Singlechip ATI auszuperformen, würde die Füllrate udn Bandbreite durch die Bandbreitenschonmechanismen überhaupt ausreichen ???
Bei 16 Bit Farbtiefe ja. FSAA frisst sehr viel Bandbreite da ein Mehrfaches an Daten anfällt. Das Bild wird intern in viel höherer Auflösung berechnet (mehrere Bilder auf einmal -> für unsere Haarspalter ;) ) und dann runterskaliert.

Gruß
Alex

Edit:
Ich glaube aber, daß auch der NV30 mit einem 256-Bit Speicherinterface antreten wird.

ow
2002-07-18, 16:38:49
Originally posted by HiddenGhost

wäre es für NV theorietisch möglich mit einem 128bit Crossbar 8x2 , LMA 2 bei 400 MHz Singlechip ATI auszuperformen, würde die Füllrate udn Bandbreite durch die Bandbreitenschonmechanismen überhaupt ausreichen ???


Ausperformen sicher nicht, aber um die Leistung der R9700 zu erreichen braucht es wohl kein 256Bit RAM-Interface.

Ikon
2002-07-18, 16:45:01
Das ArtX-Team hat offensichtlich ganze Arbeit geleistet. Sieht tatsächlich wie ein brauchbares Komplettpaket aus, vorerst ohne erkennbaren Schwächen. Gerade AA und AF scheinen diesmal durchaus geglückt zu sein. Und wenn man den Andeutungen von besserer AA-Qualität gegenüber der GF4 glauben darf, dann könnte ev. sogar mein Traum war geworden sein (4x RG-MSAA).

StefanV
2002-07-18, 16:58:24
Originally posted by Quasar
Eher die Radeon9000.

Und falls er wirklich merkt, daß das nicht dasselbe ist, kauft er beim nächsten mal sicher keine ATi mehr (so wie der DAU, der eine GF4MX kaufte, ohne sich richtig zu informieren).

Das setzt aber vorraus, daß der DAU das merkt *eg*

Bei der MX ist es einfach:

3DM 2k 1 Nature Demo wird nicht angezeigt :)

Richthofen
2002-07-18, 16:59:17
"
Hoffentlich verstummen jetzt endlich die Stimmen, die Behaupten "0.15 µ = schlecht, keine hohen Taktraten mit 110 Mio Transistoren" ATI hat es geschafft... wen auch auf nur mit externer Stromversorgung, aufwändigerer Kühlung und CPU ähnlichem Chip-Package
"

Naja du wirst verstehen wenn ich mich dazu äußer wenn ich

A) Die ersten Berichte von Final Boards auch von Usern gelesen haben bzgl Stabilität, Taktraten und Wärmeentwicklung

und

B) wenn ich die Endpreise und Quartalszahlen von ATI gesehen habe nach dem Richtifen Verkaufslaunch der Karte

Ich glaub die Ausbeute wird richtig beschissen sein, dass dies aber ATI erstmal egal ist, da sie ja schließlich dafür den entsprechenden Preis verlangen können.
Wenn der NV30 allerdings schneller ist und vor Weihnachten im Laden und damit der übliche Preisverfall einsetzt, dann kanns reichlich schnell erforderlich sein einen 0.13er R300 zu haben.


In Jedem Fall werde ich auf den NV30 warten. Ich glaub der wird noch nen Tick besser :)
Aber kaufen werd ich wohl den auch nicht sondern erst die Refreshversionen. Ich hab bei neuen Generationen immer so ein flaues Gefühl im Magen was neue Generationen angeht in Sachen Kinderkrankheiten etc...


Übrigens erwähnte hier einer - ich hab den Post nicht mehr grad zur hand - das sich ein Ti4600 Käufer jetzt ärgert.

Letztlich ärgerte sich ein R8500 Käufer auch als die GF4Tis kamen und genauso würde sich ein R300 Käufer ärgern wenn der NV30 kommt und ein Parhelia Käufer ärgert sich noch viel mehr usw...

Fazit:
Wenn man was kaufen will kaufen und nicht ärgern. Es bringt einfach nix weil man immer was neues und besseres bekommt in gewissem Zeitrahmen.
Nvidia CEO hat bestätigt das sie auch weiterhin an den 4 bis 6 Monaten festhalten und ich glaub ATI wird früher oder später den selben Weg gehen bzw zwangsläufig gehen müssen um die ASP's oben zu halten. Von daher könnte man sich immer ärgern. Kann man bei CPUs ebenfalls. Ist doch überall im PC Bereich so. Wenn man da auf den richtigen Zeitpunkt warten will, wartet man ewig.

smallB
2002-07-18, 17:01:23
sofort gekauft:o

Simon Moon
2002-07-18, 17:03:05
ATi fehlt imho einfach ein Mid Range Produkt. Sie haben nun zwar High End (R300) und Low Price (R200, RV250) aber nix dazwischen. Guckt man sich das mal an, ist da der R200 und dann sind sämtliche GeForce4Tis zwischen dem nächsten Produkt. Dafür liegt der RV250 dann grad noch so vor den GeForce4MX Karten. Sie sollten mindestens noch ne R9500 machen, so ne langsamere R300 eben.

Exxtreme
2002-07-18, 17:05:10
Originally posted by El-Diablo
Sie sollten mindestens noch ne R9500 machen, so ne langsamere R300 eben.
Diese wird kommen. Wahrscheinlich mit nur 4 Renderpipelines.

Gruß
Alex

[DH]Avenger
2002-07-18, 17:06:05
Die ersten Benchmarks der Radeon 9700 bei AnandTech deuten dann auch wieder an, daß ein 256 Bit DDR-RAM Speicherinterface allein keine Seligmacher ist. Zwar liegt die Radeon 9700 unter Unreal Tournament 2003 zwischen 18 und 38 Prozent (1024x768) vor der GeForce4 Ti4600, unter Jedi Knight II, Serious Sam 2 und Quake III Arena sind es jedoch nur noch zwischen 2 und 15 Prozent (1024x768).

Wer hat denn den schwachsinnigen Teil der News zusammengetippt? Vielleicht mal nachdenken bzw. bei Anandtech richtig lesen:

At 1024x768 the benchmark is mostly CPU bound and thus we only see a 4% performance advantage

We've known Jedi Knight 2 to be a very CPU bound benchmark, and thus the Radeon 9700 scores approximately on-par with a GeForce4 Ti 4600. Even the NV30 will perform the same as these two parts here.

etc....oder sind jetzt seit neustem GraKas Schuld wenn die CPU der limitierende Faktor ist?


Und ow, ja gerade weil THG NV und Intel "freundlich" ist schickt man solch einer Seite als eine der ersten sein neuestes Produkt, vor allem wenn man weiß dass es extrem gut ist. Der Effekt beim Kunden: "Wenn selbst auf Seite XY die Karte sehr gut wegkommt, dann muss sie fantastisch sein.".

StefanV
2002-07-18, 17:09:28
Originally posted by ow
Ausperformen sicher nicht, aber um die Leistung der R9700 zu erreichen braucht es wohl kein 256Bit RAM-Interface.

Wie kommst du zu diesem Schluß??

Was braucht man dann??

eDRAM??

Exxtreme
2002-07-18, 17:09:53
Originally posted by [DH]Avenger
Und ow, ja gerade weil THG NV und Intel "freundlich" ist schickt man solch einer Seite als eine der ersten sein neuestes Produkt, vor allem wenn man weiß dass es extrem gut ist. Der Effekt beim Kunden: "Wenn selbst auf Seite XY die Karte sehr gut wegkommt, dann muss sie fantastisch sein.".
Das war auch der Grund warum ich mich auf THG berufen habe.

Gruß
Alex

ow
2002-07-18, 17:11:36
Originally posted by Exxtreme

Diese wird kommen. Wahrscheinlich mit nur 4 Renderpipelines.

Gruß
Alex


Oder mit nur 128Bit DDR oder beidem?

Exxtreme
2002-07-18, 17:13:26
Die ersten Benchmarks der Radeon 9700 bei AnandTech deuten dann auch wieder an, daß ein 256 Bit DDR-RAM Speicherinterface allein keine Seligmacher ist. Zwar liegt die Radeon 9700 unter Unreal Tournament 2003 zwischen 18 und 38 Prozent (1024x768) vor der GeForce4 Ti4600, unter Jedi Knight II, Serious Sam 2 und Quake III Arena sind es jedoch nur noch zwischen 2 und 15 Prozent (1024x768).

Tja, dann aktiviere mal FSAA und AF bei 1600x1200. Dann sieht die Sache schon ganz anders aus.

Gruß
Alex

Unregistered
2002-07-18, 17:13:26
Die FPS-Zahlen von JK2 sind schon etwas merwürdig. Die Karte wird immer schneller (je +1 FPS) mit steigender Auflösung. Also, ich denke mal, dass mit schnelleren CPU's (3GHz+) das Leistungsverhältnis zur 4600er noch größer werden wird.

Persönlich glaube ich nicht, dass der NV30 viel schneller als der R300 wird (sagen wir mal 25%), dafür aber trotz 0.13my auch teuerer, wenn man die Probleme von TSMC mit neuen Fertigungsprozessen miteinrechnet (Ausbeute).

ow
2002-07-18, 17:13:36
Originally posted by Exxtreme

Das war auch der Grund warum ich mich auf THG berufen habe.

Gruß
Alex

:rofl:

Ich finde das einfach nur witzig.

Ich behaupte jetzt einfach mal THG ist pro-ATi.
Dann kann ich die nächsten NV-Benches dort auch ganz anderes betrachten...:rofl:

Unregistered
2002-07-18, 17:14:56
Also ich tipp mal die kleineR300 hat volle fuetures nur so 25% lagnsammer getaktet also allet was bei der grossen R300 produktion durchfällt wird als kleine R300 verkauft

ow
2002-07-18, 17:15:09
Originally posted by Exxtreme

Tja, dann aktiviere mal FSAA und AF bei 1600x1200. Dann sieht die Sache schon ganz anders aus.

Gruß
Alex [/SIZE]


Ich konnte niergendwo Benches entdecken, die das schlüssig belegen. Link bitte.

Exxtreme
2002-07-18, 17:17:03
Originally posted by ow


:rofl:

Ich finde das einfach nur witzig.

Ich behaupte jetzt einfach mal THG ist pro-ATi.
Dann kann ich die nächsten NV-Benches dort auch ganz anderes betrachten...:rofl:
Err, ich hoffe du weisst schon, daß THG bei GraKas -> Borsti. Und der ist pro-NV. Hat man beim Parhelia-Review gesehen.

Gruß
Alex

Simon Moon
2002-07-18, 17:19:47
Originally posted by Exxtreme

Diese wird kommen. Wahrscheinlich mit nur 4 Renderpipelines.

Gruß
Alex

Ich dachte eigentlich an etwas 'LE' artiges. Einfach ne andere Taktung. Sie könnten bspw. auch die Karten die 300/300 (oder was es eben wird) nicht schaffen, 275/275 takten.
So ne radikale Änderung ist meiner Meinung nach überflüssig...

Iceman346
2002-07-18, 17:19:52
Originally posted by LovesuckZ


Die Zahlen sind nix Wert, da man den R300 auf einen Pentium4 mit 2.4B Gig betrieben hat und GF4TI4600 auf einen Athlon XP2100+ System.

Wenn ich das richtig verstanden (und gelesen hab bei Tom) dann stammen die Zahlen von 2 PCs bei ATI die nebeinanderstanden mit der gleichen Ausstattung + R300/GF4 Ti4600. Dementsprechend kann man die relativen Angaben nicht einfach so umrechnen.

Leonidas
2002-07-18, 17:21:17
Originally posted by [DH]Avenger


Wer hat denn den schwachsinnigen Teil der News zusammengetippt? Vielleicht mal nachdenken bzw. bei Anandtech richtig lesen:

etc....oder sind jetzt seit neustem GraKas Schuld wenn die CPU der limitierende Faktor ist?




Ich. Und seit wann muß ich die AnandTech-Aussage einfach so übernehmen? Ich darf doch wohl eine andere Meinung zum Thema haben, oder? JK2 mag reichlich CPU-limitiert sein, SS2 und Q3A sind es hingegen nicht. Außerdem haben die ja auch einen 2.4 GHz P4 genommen. Ich stehe weiterhin dazu: 256 Bit Interface ist kein alleiniger Seligmacher.

ow
2002-07-18, 17:21:30
Originally posted by Stefan Payne


Wie kommst du zu diesem Schluß??

Was braucht man dann??

eDRAM??

Nachdenken, Stefan!

a) siehst du ja was das 256Bit IF der Parhelia bringt

b) skaliert jeder Chip linear mit dem Takt, wenn er nicht durch andere Einflüsse gebremst wird.

Mit 400Mhz Chip und RAM-Takt bei 128Bit DDR wird selbst die GF4 etwa auf den Niveau der R9700 liegen. Vielleicht nicht überall, aber grösstenteils schon.

Exxtreme
2002-07-18, 17:22:21
Originally posted by ow
Ich konnte niergendwo Benches entdecken, die das schlüssig belegen. Link bitte.
http://www.anandtech.com/video/showdoc.html?i=1656&p=23

Du nimmst dann die Werte aus einem anderen Review von Anand und rechnest diese hoch.

Gruß
Alex

[DH]Avenger
2002-07-18, 17:22:43
Sollte man auch nicht umrechnen...hat ATI jetzt extra so festgelegt (war glaub nen Teil des NDAs) dass die ersten Benchmarks nur relative Speedangaben zeigen dürfen, da die Boards/Chips/Taktungen/Treiber noch etwas vom Launchlevel entfernt sind.

ow
2002-07-18, 17:24:42
Originally posted by Leonidas

256 Bit Interface ist kein alleiniger Seligmacher.

Da stimme ich voll zu.


Der grösste Teil der R9700 Leistung dürfte IMO auf den CBMC zurückzuführen sein, nicht auf die 256Bit Anbindung.

Oder andees gesagt: eine abgespeckte R9700 mit 128Bit DDR wird nicht wesentlich weniger leisten als sie das mit 256Bit tut.

ow
2002-07-18, 17:29:24
Originally posted by Exxtreme

Err, ich hoffe du weisst schon, daß THG bei GraKas -> Borsti. Und der ist pro-NV. Hat man beim Parhelia-Review gesehen.

Gruß
Alex


Wieso? Hat Borst geschrieben, dass NV schneller ist als Parhelia?;)

Ich kann weder bei THG noch Anand irgendwelche Tendenzen pro/anti irgendeinen Hersteller entdecken.

Mist schreiben beide bisweilen, herstellerunabhängig.

[DH]Avenger
2002-07-18, 17:31:28
Originally posted by Leonidas




Ich. Und seit wann muß ich die AnandTech-Aussage einfach so übernehmen? Ich darf doch wohl eine andere Meinung zum Thema haben, oder? JK2 mag reichlich CPU-limitiert sein, SS2 und Q3A sind es hingegen nicht. Außerdem haben die ja auch einen 2.4 GHz P4 genommen. Ich stehe weiterhin dazu: 256 Bit Interface ist kein alleiniger Seligmacher.



Ist schon klar, aber du kannst nicht einfach Behauptung X aufstellen und dann mit Scheinbeweisen belegen wollen. Sicherlich ist die These "erlaubt"..aber dann nicht im Zusammenhang mit Benchmarkwerten die klar durch andere Dinge als die GraKa limitert werden. Und das Q3A bei den heutigen Highest-End GraKas in 1024x768 CPU limitiert ist dürfte sich doch wohl selbst zu non quakern rumgesprochen haben ;)

ow
2002-07-18, 17:32:24
Originally posted by El-Diablo


Ich dachte eigentlich an etwas 'LE' artiges. Einfach ne andere Taktung. Sie könnten bspw. auch die Karten die 300/300 (oder was es eben wird) nicht schaffen, 275/275 takten.
So ne radikale Änderung ist meiner Meinung nach überflüssig...


Das kommt ganz drauf an, inwieweit ATi die Produkte differenzieren will.

Nur durch Senken des Taktes wird der Abstand nicht gross genug.

Exxtreme
2002-07-18, 17:33:06
Originally posted by ow
Wieso? Hat Borst geschrieben, dass NV schneller ist als Parhelia?;)

Nö, er hat beim AF-Test die R8500 nicht zugelassen weil sie "Tricks" anwendet. Daß die GF4Ti beim FSAA auch "Tricks" anwendet (RAMDAC-Filterung) hat er aber verschwiegen.

Gruß
Alex

ow
2002-07-18, 17:36:29
Originally posted by Exxtreme

Nö, er hat beim AF-Test die R8500 nicht zugelassen weil sie "Tricks" anwendet. Daß die GF4Ti beim FSAA auch "Tricks" anwendet (RAMDAC-Filterung) hat er aber verschwiegen.

Gruß
Alex

Und? Hat er absolut korrekt gemacht.

NVidia trickst beim FSAA nämlich nicht an der Bild-Qualität, ATi beim AF aber doch sehr.

HiddenGhost
2002-07-18, 17:37:20
"Hoffentlich verstummen jetzt endlich die Stimmen, die Behaupten "0.15 µ = schlecht, keine hohen Taktraten mit 110 Mio Transistoren" ATI hat es geschafft... wen auch auf nur mit externer Stromversorgung, aufwändigerer Kühlung und CPU ähnlichem Chip-Package"


Mich würde mal interessieren wie ArtX dieses "WUnder" vollbracht hat und den bisher stabil auf 325 gebracht hat.
Ich spekulier mal, vieleicht sowas wie SOI von AMD um a schnellere Taktzyklen zu erhalten und b) die Verlustleistung zu reduzieren... ???

Also die exterene Stromversogung betrachte ich als das geringere übel ! Lieber so, als wenn die übern AGP nicht genung liefenr kkann !!!

HOT
2002-07-18, 17:39:33
Meiner Meinung nach sind derartige Leistungen, wie die des R300 wohl kaum ohne ein 256Bit Speicherinterface möglich. NVidia müsste schon sher hoch getateten RAM verwenden, dessen Latenzen aber jenseits von gut und böse wären. ATI hat meiner Meinung nach den effizientesten Weg gewählt wie man einen solchen Chip überhaupt designen kann. Ich finde es lächerlich jetzt schon zu behaupten, dass der NV30 besser wär - das wird sich zeigen. Desweiteren bin ich abolut nicht Leos Meinung und finde auch die News reichlich übertrieben. Alle Benches, in denen der Geforce4 mithalten kann (das ja wohl auch nur in 1024) SIND CPU limitiert (Q3A und JK2 wurden ja nur getestet). Es ist Fakt, dass UPT2003 die Renderintensivste unabhängige Bench darstellt, die es im Moment gibt. Die tests in der 1600er Aüflösung sprechen Meiner Meinung nach eine DEUTLICHE Sprache für zukünftige Titel.
Der R300 wird seine volle Leistungsfähigkeit auch in 1024 schon noch entfalten können, wennn es eine passende neue CPU Generation dazu gibt - der Hammer und der R300 werden sicherlich besser zusammen passen, als ein jetziger P4 oder Athlon XP und der R300.
Desweiteren sehe ich den R300 und insbesondere HyperZ III als einen weiteren Schritt von ATI in Richtung deferred Rendering. Meiner Meinu7ng nach gehen die Ansätze im chip schon sehr stark in diese Richtung; ich finde, dass dieser Trend von ATI die PowerVR Technologie durchaus bestätigt. Auch das design der Renderiungteils weisst ganz offensichtlich in diese Richtung (1TMU mit 16x Loopback).
Ich denke, viele werden mir desweiteren zustimmen, dass FSAA und anisotropisches Filtern (was laut Anand jetzt perfekt funktionieren dürfte) in Zukunft (oder auch schon mit den DX8 grafikchips) eine immer wichtigere Rolle spielen. An dieser Stelle wäre mal FPS angaben von Seiten Anand interessanter gewesen, als die prozentualen Angaben. Aber das durften sie sicherlich noch nicht. Ich bin mal gespannt auf die komplette Review des Chips und wo denn die wirklichen Nachteile liegen (oder ob es überhaupt welche gibt).

ow
2002-07-18, 17:39:56
Originally posted by Exxtreme

http://www.anandtech.com/video/showdoc.html?i=1656&p=23

Du nimmst dann die Werte aus einem anderen Review von Anand und rechnest diese hoch.

Gruß
Alex

???

Könntest du mir erklären, nach welcher Formel du aus EINEM Spezialfall eines nicht existenten Spiels die generelle AA-Performance der R9700 ableiten willst?

Dieser eine Wert dort sagt absolut garnichts aus.

/edit: hab den Q3 Wert nicht gesehen, ändert aber nichts an meine Aussage.

Exxtreme
2002-07-18, 17:40:13
Originally posted by ow
nd? Hat er absolut korrekt gemacht.

NVidia trickst beim FSAA nämlich nicht an der Bild-Qualität, ATi beim AF aber doch sehr.
Dafür "trickst" der Parhelia beim FSAA noch viel mehr da er Schnittkanten nicht glättet. Also hätte er zumindest keinen FSAA-Vergleich machen dürfen.
;)

Gruß
Alex

Exxtreme
2002-07-18, 17:45:35
Originally posted by ow


???

Könntest du mir erklären, nach welcher Formel du aus EINEM Spezialfall eines nicht existenten Spiels die generelle AA-Performance der R9700 ableiten willst?

Dieser eine Wert dort sagt absolut garnichts aus.

/edit: hab den Q3 Wert nicht gesehen, ändert aber nichts an meine Aussage.

Wie hätte Anand denn die Benches machen können wenn das Spiel nicht existieren würde??? UT2003 dürfte so ziemlich der grafikkartenintensivste Benchmark sein und die Ergebnisse sprechen eine deutliche Sprache.

Gruß
Alex

HiddenGhost
2002-07-18, 17:46:54
Originally posted by ow


Da stimme ich voll zu.


Der grösste Teil der R9700 Leistung dürfte IMO auf den CBMC zurückzuführen sein, nicht auf die 256Bit Anbindung.

Oder andees gesagt: eine abgespeckte R9700 mit 128Bit DDR wird nicht wesentlich weniger leisten als sie das mit 256Bit tut.

ATI nennt das Quadchannelmemoryarchitecture... diese ist ein wenig ineffizienter als die NVs, da diese 128bit verwaltet und nicht 64 wie die von der Konkurenz...

Wenn man also das Interface halbieren würde, schieden doch auch 2 Controller aus, oder ???

ow
2002-07-18, 17:47:15
Originally posted by Exxtreme

Dafür "trickst" der Parhelia beim FSAA noch viel mehr da er Schnittkanten nicht glättet. Also hätte er zumindest keinen FSAA-Vergleich machen dürfen.
;)

Gruß
Alex


Sehe ich anders. Beim Parhelia ist das durch dessen Technik bedingt, erglättet nur echte Kanten, da wird nicht getrickst.
Die Radeons können sicherlich aber auch echtes nv-like AF, allerdings hat ATi drauf verzichtet, es dem User in den Treibern anzubieten.

Simon Moon
2002-07-18, 17:48:59
Originally posted by ow



Das kommt ganz drauf an, inwieweit ATi die Produkte differenzieren will.

Nur durch Senken des Taktes wird der Abstand nicht gross genug.

Ok, das mag sein, aber es könnte gut sein, das sie wieder 'LE' machen und diese an 3. Hersteller geben. Eine Karte mit 128Bit DDR SDRAM wäre wohl mit der Zeit auch klug...

Exxtreme
2002-07-18, 17:50:31
Originally posted by ow
Die Radeons können sicherlich aber auch echtes nv-like AF, allerdings hat ATi drauf verzichtet, es dem User in den Treibern anzubieten.
Spekulation und Unterstellung.

Gruß
Alex

ow
2002-07-18, 17:53:35
Originally posted by HiddenGhost


ATI nennt das Quadchannelmemoryarchitecture... diese ist ein wenig ineffizienter als die NVs, da diese 128bit verwaltet und nicht 64 wie die von der Konkurenz...

Wenn man also das Interface halbieren würde, schieden doch auch 2 Controller aus, oder ???



Auch NVs Crossbar ist Quad-Channel, sind halt 4x32DDR anstatt 4x64DDR wie bei der R9700.

Bei einer Halbierung des RAM-IF fallen entweder 2 channels weg oder ATi halbiert die Breite der Channels (->4x32Bit DDR).
Ersteres ist einfacher von Chipdesign her, letzteres effizienter inder Leistung.

Salvee
2002-07-18, 17:57:05
Originally posted by ow



Sehe ich anders. Beim Parhelia ist das durch dessen Technik bedingt, erglättet nur echte Kanten, da wird nicht getrickst.
Die Radeons können sicherlich aber auch echtes nv-like AF, allerdings hat ATi drauf verzichtet, es dem User in den Treibern anzubieten.

Beweise? Die Radeons können (was anderes lässt sich nunmal nicht einstellen) nur bilinear AF. Anstatt überhaupt keine Benches damit zu machen, hätte man die Ergebnisse einfach entsprechend kommentieren sollen. Der Test in dieser Form hätte von nV 'persönlich' kommen können.

HiddenGhost
2002-07-18, 18:01:23
Originally posted by Exxtreme

Bei 16 Bit Farbtiefe ja. FSAA frisst sehr viel Bandbreite da ein Mehrfaches an Daten anfällt.

Edit:
Ich glaube aber, daß auch der NV30 mit einem 256-Bit Speicherinterface antreten wird.

Also reines "Füllratentuning" könnte bei "nur" 128bit doch sehr nahe an ATI rankommen, aber wenn die NV30 wirklcih 8x2 bei 256bit hätte, und nicht 8x1 + 1 Loopback (oder doch mehr ?) wäre doch die NV faktisch wieder deutlich stärker , insebsondere wäre diese dann deutlich flexibler, wenn es um Multitexturing geht, oder sehe ich das falsch...

ich kann noch nicht wirklich mitreden, da ich noch nich ganz so bescheid weis über die begriffe ,aber dies ist doch so korrekt ,oder ??

zeckensack
2002-07-18, 18:01:42
Ich bin beeindruckt ...

Außerdem hatte ich Recht mit dem 256bittigen DDR :P

@ow: Wenn die 'Light' oder was auch immer-Version Sinn machen soll, dann müßte man IMO entweder beides halbieren (Anzahl Pipes und Speicherinterface) oder garnichts, und dann rein über den Takt gehen.

Halbierte Pipe-Anzahl wäre dann dummerweise nicht mehr DX9-Effekte-tauglich. Das Marketing wird wahrscheinlich siegen und einen Chip mit halbem Speicherinterface aber gleicher Pipe-Anzahl durchdrücken.

ow
2002-07-18, 18:03:29
Originally posted by HOT
Auch das design der Renderiungteils weisst ganz offensichtlich in diese Richtung (1TMU mit 16x Loopback).


???

Wo steht denn sowas?

ow
2002-07-18, 18:10:33
Originally posted by zeckensack

@ow: Wenn die 'Light' oder was auch immer-Version Sinn machen soll, dann müßte man IMO entweder beides halbieren (Anzahl Pipes und Speicherinterface) oder garnichts, und dann rein über den Takt gehen.

Halbierte Pipe-Anzahl wäre dann dummerweise nicht mehr DX9-Effekte-tauglich. Das Marketing wird wahrscheinlich siegen und einen Chip mit halbem Speicherinterface aber gleicher Pipe-Anzahl durchdrücken.



Ich glaube auch eher an Reduktion des RAM-Interfaces.
Durch Einsparen einiger der über 1000Pins (ich bin beeindruckt) des R9700 ist sicher die grösste Kosteneinsparung zu erzielen.

Nur interne Pipe-halbierung ändert nichts am Pincount, die Chips werden also immer noch sehr teuer zu fertigen sein. Uninteressant, wenn man damit viel Geld verdienen will.

zeckensack
2002-07-18, 18:16:00
Originally posted by ow
Ich glaube auch eher an Reduktion des RAM-Interfaces.
Durch Einsparen einiger der über 1000Pins (ich bin beeindruckt) des R9700 ist sicher die grösste Kosteneinsparung zu erzielen.

Nur interne Pipe-halbierung ändert nichts am Pincount, die Chips werden also immer noch sehr teuer zu fertigen sein. Uninteressant, wenn man damit viel Geld verdienen will. Nochmal kurz nachgedacht ist es wahrscheinlich am billigsten, überhaupt nur einen Chip zu fertigen, der aber unterschiedliche Speicherbestückung 'verdaut'. Ala Geforce2MX400/200/100.

Dann noch dem Ausschuß (schafft keine 300MHz) einen neuen Namen aufkleben, 128Daten-Pins nicht durchverbinden und voila - das Midrange-Produkt :)

HiddenGhost
2002-07-18, 18:16:29
Originally posted by ow

Auch NVs Crossbar ist Quad-Channel, sind halt 4x32DDR anstatt 4x64DDR wie bei der R9700.

Sag ich doch !

Bei einer Halbierung des RAM-IF fallen entweder 2 channels weg oder ATi halbiert die Breite der Channels (->4x32Bit DDR).
Ersteres ist einfacher von Chipdesign her, letzteres effizienter inder Leistung.

Kann man denn einfach so die Controllerbandbreite halbieren, is das denn nicht ein massiver eingriff in das Chiplayout ?
Aber wieso sollten sie den Effektivsten weg gehen, um ihren HighEnd käufern die entscheidung zu erschweren ?

Wenn ATI tatsächlich vorhat abgespeckte varianten zu bringen, wäre dies doch wohl klar der falsche weg der Marktpositionierung.

Labberlippe
2002-07-18, 18:18:33
Originally posted by ow


Und? Hat er absolut korrekt gemacht.

NVidia trickst beim FSAA nämlich nicht an der Bild-Qualität, ATi beim AF aber doch sehr.

Trick ???

Wo? Ati hat einfach einen anderen Weg für das AF verwendet.
Als Trick würde ich es nicht bezeichnen.
Dafür hast Du bei der ATi eine verdammt hohe Performance wovon nVIDIA User noch immer träumen können.

Hat sich aber mit der R300 erledigt. :D
Wenn die Performance genau so hoch ist, dann bin ich aber gespannt auf eure Antworten.

Gruss Labberlippe

ow
2002-07-18, 18:24:15
Originally posted by Labberlippe


Trick ???

Wo? Ati hat einfach einen anderen Weg für das AF verwendet.
Als Trick würde ich es nicht bezeichnen.
Dafür hast Du bei der ATi eine verdammt hohe Performance wovon nVIDIA User noch immer träumen können.

Gruss Labberlippe

Wo ATi trickst?
Es wird eben nicht alles gefiltert und es gibt hässliche Artefakte.

Du hast bei NV eine verdammt hohe Bildqualität wovon ATi User nur träumen können.:D

Gohan
2002-07-18, 18:27:08
Bevor ich mir die mühe mache den Ganzen Thread durchzulesen, sage ich es einfach:

Die Radeon 9700 wird mit Externen Stromanschluss kommen :) Und zwar wird sie an den Floppy stecker angeschlossen.

Hoffentlich steht das nicht schonmal hier :bäh:

Labberlippe
2002-07-18, 18:30:31
Originally posted by ow


Wo ATi trickst?
Es wird eben nicht alles gefiltert und es gibt hässliche Artefakte.

Du hast bei NV eine verdammt hohe Bildqualität wovon ATi User nur träumen können.:D

Bei nVIDIA wird auch nicht alles gefilitert wie eben "bewiesen" wurde. *eg*

Die Bildqualität der R8500 ist auch verdammt hoch und braucht sich nicht verstecken.

Gruss Labberlippe

ow
2002-07-18, 18:30:44
Originally posted by HiddenGhost


Kann man denn einfach so die Controllerbandbreite halbieren, is das denn nicht ein massiver eingriff in das Chiplayout ?



Das geht recht einfach. Der Memory-Controller kann unabhängig von Grafikcore betrachtet und auch designed werden.

Kennt man u.a ja vom reduzierten CBMC der GF4MXe. Oder vom halbierten Interface der Gf2MX.

Salvee
2002-07-18, 18:32:22
Originally posted by ow


Wo ATi trickst?
Es wird eben nicht alles gefiltert und es gibt hässliche Artefakte.

Du hast bei NV eine verdammt hohe Bildqualität wovon ATi User nur träumen können.:D

Mit NV meinst du sicher GF3/4-Karten bei grafisch nicht allzu aufwändigen Applikationen, bei denen der krasse Performance-Verlust nicht so auffällt.
Oder reden wir hier von MX-Karten :D ?

Unregistered
2002-07-18, 18:34:27
http://www.chip.de/artikelbilder/2668486_c74fce92e3.gif

Hier das erklärt die gute AA benchs die 3fache AA leistung im gegesatz zur Ti4600

area2000
2002-07-18, 18:37:46
-Link gelöscht-

da war wohl wer schneller :D

ow
2002-07-18, 18:39:44
Originally posted by zeckensack
Nochmal kurz nachgedacht ist es wahrscheinlich am billigsten, überhaupt nur einen Chip zu fertigen, der aber unterschiedliche Speicherbestückung 'verdaut'. Ala Geforce2MX400/200/100.

Dann noch dem Ausschuß (schafft keine 300MHz) einen neuen Namen aufkleben, 128Daten-Pins nicht durchverbinden und voila - das Midrange-Produkt :)


Ja, auch das ist denkbar.
Kommt wohl drauf an, was günstiger ist.
Teuere Chipproduktion (grosses DIE, viele Pins) mit geringen Entwicklungskosten oder billigere Chips, die man halt erst noch designen muss (=Entwicklungskosten).


Wir werden sehen, was ATi sich da ausgedacht hat.

HOT
2002-07-18, 18:42:38
Originally posted by ow


???

Wo steht denn sowas?

Mehr kritik haste net auf lager? :D
Mal ernsthaft, es sieht so aus, weil der Kyro ähnlich aufgebaut ist, mehr war mein Gedanke eigentlich nicht.

HiddenGhost
2002-07-18, 18:44:05
http://www.chip.de/artikelbilder/2668486_c74fce92e3.gif

wie kann man das denn errechnen , AA Samples meine ich ???

Doomtrain
2002-07-18, 18:47:31
Originally posted by Richthofen


Übrigens erwähnte hier einer - ich hab den Post nicht mehr grad zur hand - das sich ein Ti4600 Käufer jetzt ärgert.

Letztlich ärgerte sich ein R8500 Käufer auch als die GF4Tis kamen und genauso würde sich ein R300 Käufer ärgern wenn der NV30 kommt und ein Parhelia Käufer ärgert sich noch viel mehr usw...

Fazit:
Wenn man was kaufen will kaufen und nicht ärgern. Es bringt einfach nix weil man immer was neues und besseres bekommt in gewissem Zeitrahmen.


1) Das war ich *eg* (Ich schrieb, ein FRISCHER TI4600er Besitzer SOLLTE sich nun ärgern, muß aber nicht!!)

2)Warum sollte sich ein R8500 User ärgern? Er hat eine schnelle Karte zu einem "moderaten" Preis erhalten und nicht zu einem völlig überzogenen Preis:

a) GeForce4 viel zu teuer im Verhältnis zum Gebotenen.
Das will sagen, das alle GeForce4 Besitzer "alte" GeForce3-Technik gekauft haben. Alle, die in den letzten Wochen bis zu 500€ auf den Tresen gelegt haben, müßten sich angesichts dieser R300 Benchmarks doch in den Bauch beißen!!!!

b) Wenn es nicht gerade eine Revolution verspricht würde ich nie im Leben das neueste und vermeindlich geilste kaufen. Wie gesagt, der R300 ist eine Revolution (nicht Evolution wie GeForce3 = GeForce4)
Dafür wäre auch ich bereit 500€ zu bezahlen.

Ich hoffe, das nun niemand beleidigt ist!! ;)

PS: Wenn man einen Next-Gen Chip kauft, ist dieser min 1,5 - 2 Jahre technisch aktuell.

ow
2002-07-18, 18:48:42
Originally posted by Unregistered
http://www.chip.de/artikelbilder/2668486_c74fce92e3.gif

Hier das erklärt die gute AA benchs die 3fache AA leistung im gegesatz zur Ti4600


Nein, tut es nicht. Das ist nur Zahlenspielerei.


/edit: kann mir mal jemand diese Zahlenspielerei mit den AA-Samples erklären?
Einfach Pixelfillrate mit Samplezahl multiplizieren?

ow
2002-07-18, 18:50:44
Originally posted by HOT


Mehr kritik haste net auf lager? :D
Mal ernsthaft, es sieht so aus, weil der Kyro ähnlich aufgebaut ist, mehr war mein Gedanke eigentlich nicht.


Doch.:D

Ein Chip ist entweder ein IMR oder ein deffered Renderer, Mischtypen gibt es nicht. Ist also Quatsch, was du da geschrieben hast.

Im übrigen hast du meine Frage nicht beantwortet.:D

ow
2002-07-18, 19:01:32
Originally posted by HiddenGhost


wie kann man das denn errechnen , AA Samples meine ich ???


Gute Frage.

So wie´s ausschaut wird bei MSAA einfach die Pixelfillrate mit der Anzahl an AA-Samples multipliziert.

Damit ist der Wert IMO unbrauchbar.
Auch eine GF4 könte ja sicher 6xAA oder 8xAA darstellen, womit die AA-Samples sich auf 7,2 bzw. 9,6 billion erhöhen.

skampi
2002-07-18, 19:07:50
Originally posted by Leonidas

JK2 mag reichlich CPU-limitiert sein, SS2 und Q3A sind es hingegen nicht. Außerdem haben die ja auch einen 2.4 GHz P4 genommen.
Das kommt darauf an und ist nicht allgemeingültig.

Ich stehe weiterhin dazu: 256 Bit Interface ist kein alleiniger Seligmacher.

Sicher Leo, wird Dir wohl keiner widersprechen. Mir sind aber noch andere Neuerungen aufgefallen...

ow
2002-07-18, 19:12:19
Originally posted by Doomtrain


1) Das war ich *eg* (Ich schrieb, ein FRISCHER TI4600er Besitzer SOLLTE sich nun ärgern, muß aber nicht!!)

2)Warum sollte sich ein R8500 User ärgern? Er hat eine schnelle Karte zu einem "moderaten" Preis erhalten und nicht zu einem völlig überzogenen Preis:

a) GeForce4 viel zu teuer im Verhältnis zum Gebotenen.
Das will sagen, das alle GeForce4 Besitzer "alte" GeForce3-Technik gekauft haben. Alle, die in den letzten Wochen bis zu 500€ auf den Tresen gelegt haben, müßten sich angesichts dieser R300 Benchmarks doch in den Bauch beißen!!!!

b) Wenn es nicht gerade eine Revolution verspricht würde ich nie im Leben das neueste und vermeindlich geilste kaufen. Wie gesagt, der R300 ist eine Revolution (nicht Evolution wie GeForce3 = GeForce4)
Dafür wäre auch ich bereit 500€ zu bezahlen.

Ich hoffe, das nun niemand beleidigt ist!! ;)

PS: Wenn man einen Next-Gen Chip kauft, ist dieser min 1,5 - 2 Jahre technisch aktuell.


1) Seh ich keinen Grund dazu

2) Jede Karte ist ihren Preis wert, das bestimmt der Markt so.

a) Wer bietet derzeit denn mehr als eine Gf4? Vaporware;) zählen wir mal nicht.

b) Revolution? Wie wäre es einfach mit normaler Weiterentwicklung der Technik?

Carlo
2002-07-18, 19:15:58
>Warum sollte sich ein R8500 User ärgern? Er hat eine schnelle Karte zu einem "moderaten" Preis erhalten und nicht zu einem völlig überzogenen Preis: <

6-700 DM ein moderater Preis? Wo lebst du denn ??
Die Radeon8500 war meiner Meinung nach viel zu überteuert zur Gebotenen Leistung und man musste lange auf vernünftige Treiber warten.
Die Geforce4 Ti4600 war bei Erscheinen schon sehr schnell und bot mehr FPS und bessere Bildqualität für 8-900DM.
Die neue ATI R300 werd ich mir auch kaufen sollte Nvidia so schnell nichts besseres herausbringen und ATIs Probleme mit den Lieferzeiten sind allseits bekannt und von daher dürfte es Ende September werden ehe erste Modelle nach Deutschland kommen werden.

Simon Moon
2002-07-18, 19:20:13
Originally posted by ow


b) Revolution? Wie wäre es einfach mit normaler Weiterentwicklung der Technik?

Imo wird dieses wort viel zu schnell benutzt. Es gibt ja nichts revolutionäres an dem R300? ok, 8Pixelpipelines und xShader2.0, aber das wird eh bald standard im High End bereich, ist genauso wie wenn man nVidias TnL damals als Revolution angeschaut hätte. Aber übrig bleibt eigentlich nichts wirklich revolutionäres wie bspw. beim Kyro (ok, vorgänger gabs auch da schon) der einen ganz anderen Weg einschlug. Revolution muss jedoch nicht gleich heissen viel besser. Es ist dann eben nur anders. Evolution verbessert und genau das ist bei der R300 eben der Fall. Typisch für Evolution sogar. Es wurden 2. Elemente kombiniert (256Bit & effezientere Speicherverwaltung) und rauskam eine Karte, welche die andern schlägt. Aber naja, es tönt natürlich schöner, wenn man von 'DER REVOLUTION IM GRAFIKMARKT' sprechen kann, als wenn man von einem 'logischen Schritt' spricht.

Schnitzl
2002-07-18, 19:22:35
Originally posted by Richthofen

Letztlich ärgerte sich ein R8500 Käufer auch als die GF4Tis kamen und genauso würde sich ein R300 Käufer ärgern wenn der NV30 kommt und ein Parhelia Käufer ärgert sich noch viel mehr usw...
Was denn was denn :biggrin:
Also ich ärger mich nicht... ich hab ne coole Karte und coole Treiber.
Das hatte ich das letzte halbe Jahr mit der R8500 nicht ;)
Spiele sind nur sekundär :)

skampi
2002-07-18, 19:23:58
Originally posted by Carlo
...von daher dürfte es Ende September werden ehe erste Modelle nach Deutschland kommen werden.

Denke ich auch. Sie würden damit im üblichen Rahmen aller Grafikchiphersteller liegen.

Salvee
2002-07-18, 19:24:36
Originally posted by Carlo
6-700 DM ein moderater Preis? Wo lebst du denn ??
Die Radeon8500 war meiner Meinung nach viel zu überteuert zur Gebotenen Leistung und man musste lange auf vernünftige Treiber warten.
Die Geforce4 Ti4600 war bei Erscheinen schon sehr schnell und bot mehr FPS und bessere Bildqualität für 8-900DM.
Die neue ATI R300 werd ich mir auch kaufen sollte Nvidia so schnell nichts besseres herausbringen und ATIs Probleme mit den Lieferzeiten sind allseits bekannt und von daher dürfte es Ende September werden ehe erste Modelle nach Deutschland kommen werden.

Habe für meine 8500LE Anfang Dezember 516,- DM bezahlt. Hätte zu dieser Zeit (GF4 gabs nicht) kaum eine GF3Ti200 bekommen,
die weder speed- noch featuremässig der ATi ebenbürtig ist.

Carlo
2002-07-18, 19:30:05
Im Dezember gab es aber auch noch keine guten Treiber für die ATI...
Cheatertreiber,Stutterings und der HPB trübten das Bild gewaltig.
Es waren fast nur OEMs zu bekommen wo man fürs selbe Geld ne Gainward Ti200 bekam die man problemlos auf Ti500er Tempo bekam.

area2000
2002-07-18, 19:31:18
Originally posted by Carlo
6-700 DM ein moderater Preis? Wo lebst du denn ??
Die Radeon8500 war meiner Meinung nach viel zu überteuert zur Gebotenen Leistung und man musste lange auf vernünftige Treiber warten.
Die Geforce4 Ti4600 war bei Erscheinen schon sehr schnell und bot mehr FPS und bessere Bildqualität für 8-900DM.
Die neue ATI R300 werd ich mir auch kaufen sollte Nvidia so schnell nichts besseres herausbringen und ATIs Probleme mit den Lieferzeiten sind allseits bekannt und von daher dürfte es Ende September werden ehe erste Modelle nach Deutschland kommen werden.

Ich habe letztes Jahr im November 500DM bezahlt, das war Preis und Leistungsmäßig unschlagbar zu der Zeit.

area2000
2002-07-18, 19:34:04
Originally posted by Carlo
Im Dezember gab es aber auch noch keine guten Treiber für die ATI...
Cheatertreiber,Stutterings und der HPB trübten das Bild gewaltig.
Es waren fast nur OEMs zu bekommen wo man fürs selbe Geld ne Gainward Ti200 bekam die man problemlos auf Ti500er Tempo bekam.

So schlecht waren die treiber am Anfang nicht wie du sie jetzt darstellst! ich hatte eigentlich von Anfang an WENIGE Probleme damit.

Unregistered
2002-07-18, 19:35:54
500DM ok ...
Aber sicher nur ne 250/250er OEM und die war preislich sicher ok.
Die Built by ATI war in den seltensten Fällen günstig ich hatte sogar Shops erlebt die 799DM (PC Spezialist,Vobis etc.) dafür haben wollten.
Daher kann ich die ganze Meckerei auf Nvidia zwecks hohem Preis nicht ganz nachvollziehen denn dort bekam man was fürs Geld auf das man nicht 2-3 Monate warten musste eh alles rund lief.

ow
2002-07-18, 19:41:49
Äh hallo? Ich denke, das ist jetzt offtopic genug.

Wenn ihr euch weiter über Preisleistungsverhältnisse streiten wollt, dann werde ich den Thread splitten. Da kriegt ihr dann einen eigenen, wo ihr euch austoben könnt.

area2000
2002-07-18, 19:42:10
Originally posted by Unregistered
500DM ok ...
Aber sicher nur ne 250/250er OEM und die war preislich sicher ok.
Die Built by ATI war in den seltensten Fällen günstig ich hatte sogar Shops erlebt die 799DM (PC Spezialist,Vobis etc.) dafür haben wollten.
Daher kann ich die ganze Meckerei auf Nvidia zwecks hohem Preis nicht ganz nachvollziehen denn dort bekam man was fürs Geld auf das man nicht 2-3 Monate warten musste eh alles rund lief.

Ich wusste nicht das bei NVidia Heute ALLES rund läuft ??? Ich wundere mich jetzt das NVidia überhaupt noch Treiber rausbringt, so
Perfekt wie die sind ;D

Carlo
2002-07-18, 19:44:26
OW es gibt ja nix zum Streiten ?!?

Salvee
2002-07-18, 20:00:04
Originally posted by Carlo
Im Dezember gab es aber auch noch keine guten Treiber für die ATI...
Cheatertreiber,Stutterings und der HPB trübten das Bild gewaltig.
Es waren fast nur OEMs zu bekommen wo man fürs selbe Geld ne Gainward Ti200 bekam die man problemlos auf Ti500er Tempo bekam.

Wie gesagt, ich hab die Karte seit Dezember.

Stutterings -> Fehlanzeige
Cheattreiber-> Waren exakt 2 Wochen lang aktuell, dann kamen noch schneller Treiber ohne 'Cheats' (bzw. Bugs ;))
HPB -> was juckt mich der GLXS-Mark (oder wie der heisst)?

Ernsthafte Probleme gabs seinerzeit nur mit SoulReaver2 (Patch) und RallyTrophy (wurde durch Treiber gefixt).

Edit: Sorry, Forum ist zu langsam, bin vom Thema abgekommen :D

Leonidas
2002-07-18, 20:03:47
Originally posted by [DH]Avenger




Ist schon klar, aber du kannst nicht einfach Behauptung X aufstellen und dann mit Scheinbeweisen belegen wollen. Sicherlich ist die These "erlaubt"..aber dann nicht im Zusammenhang mit Benchmarkwerten die klar durch andere Dinge als die GraKa limitert werden. Und das Q3A bei den heutigen Highest-End GraKas in 1024x768 CPU limitiert ist dürfte sich doch wohl selbst zu non quakern rumgesprochen haben ;)


Nada. Q3A ist immer noch gfx-limitiert.




Im übrigen liegt die R300 selbst unter 1600x1200 nur zwischen 10 und 54 Prozent vor der GF4Ti4600 - bei *exakt* doppelter Speicherbandbreite. JK2 unter 16x12 noch CPU-Limitiert? Nein! Dort sollten (theoretisch) 40-70% Mehrleistung rauskommen, nicht 10-54%.

Ich sage nicht, ein 256 Bit Interface ist schlecht. Ich trete nur von meiner früheren Meinung zurück, die da war, das ein 256 Bit Interface der absolut Bringer ist. Neue Meinung: Ein solch großes Interface potenziert die Effizienz-Probleme.

Deswegen kann eine niedrigere Speicherbandbreite auf einem 128 Bit Interface genauso schnell sein wie eine hohe auf einem 256 Bit Interface - dies ist die Erkentnis aus Parhelia und R300. Und dabei geht es nicht nur um ein paar Prozente, sondern um 30-40%. Sprich: R300 mit 300 MHz hat 18 GB/sec. Bei einem 128bit Interface würden wohl schon 500 MHz aka 15 GB/sec reichen, um dies zu halten - möglicherweise sogar schon 450 MHz.

Doomtrain
2002-07-18, 20:17:00
Originally posted by Carlo
>Warum sollte sich ein R8500 User ärgern? Er hat eine schnelle Karte zu einem "moderaten" Preis erhalten und nicht zu einem völlig überzogenen Preis: <

6-700 DM ein moderater Preis? Wo lebst du denn ??
Die Radeon8500 war meiner Meinung nach viel zu überteuert zur Gebotenen Leistung und man musste lange auf vernünftige Treiber warten.


Wenn du richtig gelesen hättest, wäre dir aufgefallen das ich von frischen Besitzer sprach, max 4Wochen. Und eine Radeon 8500 von Enmic bekommst du schon sehr billig!!

@ow

Bitte ließ du auch noch mal genau (Zwischen den Zeilen z.B.)

Oder versetze dich in die Lage eines GeForce4 Ti4600 Besitzers. Oder hast du einer?*eg* Ab heute ist der R300 kein "Vaporware" mehr. ----Was für ein scheiß Wort.

Doomtrain
2002-07-18, 20:22:27
Originally posted by ow

Wenn ihr euch weiter über Preisleistungsverhältnisse streiten wollt, dann werde ich den Thread splitten. Da kriegt ihr dann einen eigenen, wo ihr euch austoben könnt.

Wie bitte? Du frontest doch hier alles und jeden!!! :bonk:

Birdman
2002-07-18, 20:27:04
Originally posted by Doomtrain
Ab heute ist der R300 kein "Vaporware" mehr. ----Was für ein scheiß Wort.
huh? ATi selbst nennt das ding doch VPU, und das steht afaik für VaporwareProcessingUnit *eg*

HiddenGhost
2002-07-18, 20:29:41
Und vor allem diese Vapoware (http://www.anandtech.com/video/showdoc.html?i=1656&p=14) die einem ja zeigt, dass die 3d pipe überhaupt nicht anderweitig genutzt werden kann... *g*

HOT
2002-07-18, 20:34:49
Originally posted by Leonidas



Nada. Q3A ist immer noch gfx-limitiert.




Im übrigen liegt die R300 selbst unter 1600x1200 nur zwischen 10 und 54 Prozent vor der GF4Ti4600 - bei *exakt* doppelter Speicherbandbreite. JK2 unter 16x12 noch CPU-Limitiert? Nein! Dort sollten (theoretisch) 40-70% Mehrleistung rauskommen, nicht 10-54%.

Ich sage nicht, ein 256 Bit Interface ist schlecht. Ich trete nur von meiner früheren Meinung zurück, die da war, das ein 256 Bit Interface der absolut Bringer ist. Neue Meinung: Ein solch großes Interface potenziert die Effizienz-Probleme.

Deswegen kann eine niedrigere Speicherbandbreite auf einem 128 Bit Interface genauso schnell sein wie eine hohe auf einem 256 Bit Interface - dies ist die Erkentnis aus Parhelia und R300. Und dabei geht es nicht nur um ein paar Prozente, sondern um 30-40%. Sprich: R300 mit 300 MHz hat 18 GB/sec. Bei einem 128bit Interface würden wohl schon 500 MHz aka 15 GB/sec reichen, um dies zu halten - möglicherweise sogar schon 450 MHz.


Das ein 256Bit Spüeicherinterface, völlig egal welcher bauart nicht die effizienz eines 128Bit Speicherinterface erreichen KANN finde ich ist klar. Nichtsdestotrotz ist diese Lösung meiner Meinung nach besser, als ein 128Bit Speicherinterface extrem hoch zu takten. Eigentlich war es die einzige Lösung, die für einen IMR machbar war um die Effizienz des Chips nicht zu gefährden. Meiner Meinung nach ist immernoch deferred Rendering mit einem 128Bit Speicherinterface die beste Lösung, danach kommt die ATI Lösung.
Desweiteren sind die FPS bei Q3A schon so hoch, dass es doch zu einem gewissen Teil CPU limitiert ist. Mich würden mal die echten FPS interessieren, aber dafür müssen wir wohl noch a bisserl warten ;)
Nicht ausser Acht lassen sollte man ferner, dass ATI die Treiber ja neu entwickelt hat, und da auch garatiert noch einige Optimierungen drin sind. Der Geforce4 Treiber ist IMHO ausgereizt.

ow
2002-07-18, 20:35:43
Originally posted by Doomtrain


Wie bitte? Du frontest doch hier alles und jeden!!! :bonk:

??? Ist nicht dein Ernst. Wo denn?

[DH]Avenger
2002-07-18, 20:39:19
Originally posted by Gohan
Bevor ich mir die mühe mache den Ganzen Thread durchzulesen, sage ich es einfach:

Die Radeon 9700 wird mit Externen Stromanschluss kommen :) Und zwar wird sie an den Floppy stecker angeschlossen.

Hoffentlich steht das nicht schonmal hier :bäh:

:bäh: Nein wird sie nicht! Zwar ist auf der Karte ein Floppystecker, ausgeliefert wird die Karte aber bereits mit einem Floppy->HDD Durchschleifkabel :D Also wird sie an einem normalen HDD Stecker angeschlossen :O

Carlo
2002-07-18, 20:44:29
>Wenn du richtig gelesen hättest, wäre dir aufgefallen das ich von frischen Besitzer sprach, max 4Wochen. Und eine Radeon 8500 von Enmic bekommst du schon sehr billig!! <

Ok sorry stimmt ;)
Trotzdem werden noch locker 2 Monate vergehen ehe erste Modelle der R300 in unseren Breiten auftauchen. Ich hab selber Ti4600 und Radeon8500 und ärger mich herzlichst garnicht.
Ich seh es eher als zeitgemäß an denn eine Grafikkarte pro Jahr fliegt raus und wird ausgewechselt so fahr ich schon seid Jahren ;)
Von daher immer her damit :D

Schnitzl
2002-07-18, 20:45:27
@ Leonidas:

ich denke das 256 Bit Speicherinterface muss auch erst noch optimiert werden.
Das GF4-Interface hat ne lange Optimierungszeit hinter sich und läuft nun optimal,
warte mal ab, die nächsten Revisionen von Grafikkarten mit 256Bit-Speicherint. werden imho besser sein.
Es wird echt nur noch unfertiges Zeug auf den Markt geworfen :(

Birdman
2002-07-18, 20:45:41
Originally posted by [DH]Avenger
:bäh: Nein wird sie nicht! Zwar ist auf der Karte ein Floppystecker, ausgeliefert wird die Karte aber bereits mit einem Floppy->HDD Durchschleifkabel :D Also wird sie an einem normalen HDD Stecker angeschlossen :O
Ahhh, un ich dachte schon dass die 9700er ein PC only Produkt werden sollte, denn MAC's haben mittlerweile ja nimmer allzuviele Floppy Stecker rumhängen ;)

ow
2002-07-18, 20:54:12
Originally posted by HOT



Desweiteren sind die FPS bei Q3A schon so hoch, dass es doch zu einem gewissen Teil CPU limitiert ist. Mich würden mal die echten FPS interessieren, aber dafür müssen wir wohl noch a bisserl warten ;)



??? Was ist denn das für eine Argumentation?

Q3 ist nicht CPU limitiert, es gibt da keine Obergrenze für die fps.

Und welche echten fps meinst du?

vogel
2002-07-18, 22:04:35
Originally posted by Leonidas
Ich. Und seit wann muß ich die AnandTech-Aussage einfach so übernehmen? Ich darf doch wohl eine andere Meinung zum Thema haben, oder? JK2 mag reichlich CPU-limitiert sein, SS2 und Q3A sind es hingegen nicht. Außerdem haben die ja auch einen 2.4 GHz P4 genommen. Ich stehe weiterhin dazu: 256 Bit Interface ist kein alleiniger Seligmacher.
Quake 3 ist komplett CPU limitiert.

-- Daniel, Epic Games Inc.

StefanV
2002-07-18, 22:04:37
Originally posted by ow
Nachdenken, Stefan!

a) siehst du ja was das 256Bit IF der Parhelia bringt

b) skaliert jeder Chip linear mit dem Takt, wenn er nicht durch andere Einflüsse gebremst wird.

Mit 400Mhz Chip und RAM-Takt bei 128Bit DDR wird selbst die GF4 etwa auf den Niveau der R9700 liegen. Vielleicht nicht überall, aber grösstenteils schon.

1. bitte nicht immer von oben herab!!

a) die Parhelia hat ein Brute Force 256bit Interface, dazu kann der Parhelia das 256bit Interface nicht richtig auslasten, da er nur 4 Pipes hat.

Hat die Parhelia ein Hyper Z oder ähnlich??

b) och, welche neuheit...

2. träum weiter...
Diesesmal ist ATI schneller, ob NV es schafft ATI wieder einzuholen steht noch in den Sternen...

vogel
2002-07-18, 22:12:12
Originally posted by vogel
Quake 3 ist komplett CPU limitiert.

Genauso der DM-Asbestos flyby in UT2003 mit 'ner schnellen Grafikkarte (GF4 Ti 4600+).

Quake 3 skaliert nicht mit der Aufloesung aber mit der CPU was meiner Meinung nach ein klares Indiz fuer CPU Limitierung ist.

-- Daniel, Epic Games Inc.

Simon Moon
2002-07-18, 22:12:17
Originally posted by Stefan Payne
2. träum weiter...
Diesesmal ist ATI schneller, ob NV es schafft ATI wieder einzuholen steht noch in den Sternen...

*LoL* sorry, aber das ist lächerlich. Ok, für den Moment ist ATi unbestritten schneller, ganz einfach aus dem Grund, weil sie es so trafen, das nVidia gerade kein Produkt launchen will/kann/sollte. Aber mal ernsthaft, denkst du bloss weil der R300 gegen alte, abgestandene und immer wieder übertaktete und ungemoddete GF3en antritt, ist der NV30 schlecht? Glaub ich nicht... immer dieses naive denken.
Es wird weiterhin mehr oder weniger gleichstand herrschen, diese Runde geht an ATi, die nächste ist noch nicht da...

Demirug
2002-07-18, 22:17:15
Memoryinterface:

Das immer 16 Byte auf einmal geladen werden müssen dürfte keine so dramtische wirkung haben. Da man bei ATi jetzt nicht nur den Z-Buffer komprimiert sondern auch die Farbwerte werden sowieso nur noch größere Blöcke transformiert. Mit nur jeweils 8 Byte liese sich zwar noch mehr rausholen aber ob dir Rechnung von Leonidas (8 Byte Zugriffe mit 15 GB/S entspricht 16 Byte Zugriffe mit 20 GB/s) beim ATi verfahren noch zutrift müsste man genauer prüfen. Interesant ist aber auf jeden Fall das das ATi FSAA nicht mit meheren Backbuffer arbeitet sonder eher auf eine Art Tileverfahren setzt.


Lowcost version:

Da bei solchen riessenchips es immer zu fehlern in der Produktion kommt. Greift man bei ATi eventuel auf einen alten Intel Trick zurück.

Jede der Parrallen einheiten (VS, PS, Memorycontroller) wurde im Design mit Cutoff Dioden versehen. Erkennt man nun das es bei der Produktion zu Fehler in einer dieser Einheiten kam werden diese deaktiviert. Man könnte so aus dem Ausschuss immer noch Chips mit weniger Leistung herausholen (zb. 2 VS 4 PS). Intel hat das mit dem "486 CoPro" ja auch mal gemacht.

StefanV
2002-07-18, 22:18:41
Originally posted by ow
Ein Chip ist entweder ein IMR oder ein deffered Renderer, Mischtypen gibt es nicht. Ist also Quatsch, was du da geschrieben hast.

Im übrigen hast du meine Frage nicht beantwortet.:D

Und was sind dann deiner Meinung nach Chips wie die Radedeons (außer VE!!) und Geforce 3+??

Unregistered
2002-07-18, 22:19:44
ok für hardware tester ist die R300 das schnellste im moment aber für uns ?
da ist IMMERNOCH die GF4 4600 das nonplusultra, warum ?
Sagen wir mal so, GF4600 erhältlich und R300 im moment noch nicht ^^

Mitte-Ende September wirds wohl das schnellste erhältliche Produkt sein, bis dahin aber die GF4 4600...

P.S. Das schnellste angekündigte produkt ist die R300 =)

Unregistered
2002-07-18, 22:21:15
R300 is immo das Schnellste was es gibt!!
Und auf die Ganzen aussagen von diesen Paar Benchmarks auf Anandtech und co. scheiss ich erstma, den wenn die R300 bei AA gut Doppelt so schnell ist wie die GF4 dann ist das für mich ein Indiz das die R300
CPU Limitiert sein Wird!!!!
Und das ATI schon immer ein Prob bei Q3 und Niedrigen auflösung hat,
sind die Q3 Benches auch so nicht gut zu Interpretieren. Da dies nur eine etwas Schlampige Treiberprogrammierung ist

StefanV
2002-07-18, 22:24:26
Originally posted by El-Diablo

*LoL* sorry, aber das ist lächerlich. Ok, für den Moment ist ATi unbestritten schneller, ganz einfach aus dem Grund, weil sie es so trafen, das nVidia gerade kein Produkt launchen will/kann/sollte. Aber mal ernsthaft, denkst du bloss weil der R300 gegen alte, abgestandene und immer wieder übertaktete und ungemoddete GF3en antritt, ist der NV30 schlecht? Glaub ich nicht... immer dieses naive denken.
Es wird weiterhin mehr oder weniger gleichstand herrschen, diese Runde geht an ATi, die nächste ist noch nicht da...

Nein, denke ich nicht, nur ist die R300 angekündigt, der NV30 nicht.

Der NV30 ist auch in 0,13µ gefertigt, R300 momentan in 0,15.

Oder anders gesagt:

Die R300 ist fertigt und wird bald releast, wie weit die NV30 ist wissen wir nicht, im extrem Fall hat sie erst das erste Tape Out hinter sich, was schlecht für NV wäre.

Bisher ist auch unklar, ob der NV30 ein 256bit RAM Interface hat, auch sind noch zuviele andere Faktoren im Argen.

Die Frage lautet also:

Wie weit ist der NV30??
Wie schnell ist der NV30??
Kann der NV30 es mit der R300 aufnehmen??

Exxtreme
2002-07-18, 22:26:18
Originally posted by vogel

Quake 3 ist komplett CPU limitiert.

-- Daniel, Epic Games Inc.
Irgendwannmal wird jedes Game CPU-limitiert. Q3A hat schon einige Jährchen auf'm Buckel. Mit der GraKa allein geht da nicht mehr viel. Und, habt ihr auch eine R300 zum Spielen bekommen?
Und ihr habt die UT2003-Engine voll auf ATi optimiert.
:D ;D ;)

Gruß
Alex

Salvee
2002-07-18, 22:26:50
Laut Review bei HotHardware läuft Q3A mit 6xFSAA(!) und 16xAF(!) bei 1600x1200x32(!) mit >60fps(!).
Noch Fragen ?

StefanV
2002-07-18, 22:29:46
Originally posted by Leonidas

Ich sage nicht, ein 256 Bit Interface ist schlecht. Ich trete nur von meiner früheren Meinung zurück, die da war, das ein 256 Bit Interface der absolut Bringer ist. Neue Meinung: Ein solch großes Interface potenziert die Effizienz-Probleme.

Deswegen kann eine niedrigere Speicherbandbreite auf einem 128 Bit Interface genauso schnell sein wie eine hohe auf einem 256 Bit Interface - dies ist die Erkentnis aus Parhelia und R300. Und dabei geht es nicht nur um ein paar Prozente, sondern um 30-40%. Sprich: R300 mit 300 MHz hat 18 GB/sec. Bei einem 128bit Interface würden wohl schon 500 MHz aka 15 GB/sec reichen, um dies zu halten - möglicherweise sogar schon 450 MHz.

Diese Erkenntnis ist eigentlich uralt.

Um genau zu sein:

TNT2/M64 vs TNT2/TNT1...

Nur sind diese Chips noch reine Brute Force IR, die aktuellen haben intelligendere Designs, z.B. Caches oder CBMC

Simon Moon
2002-07-18, 22:34:01
Originally posted by Stefan Payne
Wie weit ist der NV30??
Wie schnell ist der NV30??
Kann der NV30 es mit der R300 aufnehmen??

Ok, vorhin stelltest du aber die Frage in den Raum, ob nv überhaupt wieder aufholen kann. Zitat: 'Diesesmal ist ATI schneller, ob NV es schafft ATI wieder einzuholen steht noch in den Sternen...'

Und da zweifle ich nicht dran, ob dies mit dem NV30 oder erst mit dem Refresh oder sonst was kommt.

skampi
2002-07-18, 22:36:50
Originally posted by Exxtreme

Irgendwannmal wird jedes Game CPU-limitiert. Q3A hat schon einige Jährchen auf'm Buckel. Mit der GraKa allein geht da nicht mehr viel...

Wo hakts denn jetzt?! Das hängt IMHO von der CPU und der Grafikkarte ab.

Exxtreme
2002-07-18, 22:42:27
Originally posted by skampi


Wo hakts denn jetzt?! Das hängt IMHO von der CPU und der Grafikkarte ab.
Richtig, nur wenn die GraKa so schnell wird, daß die CPU nicht mehr mit den Daten nachkommt, dann _wird_ das Game CPU-limitiert. Und dieser Zustand ist bei Q3A IMHO jetzt erreicht worden.

Gruß
Alex

ow
2002-07-18, 22:57:55
Originally posted by Stefan Payne


Und was sind dann deiner Meinung nach Chips wie die Radedeons (außer VE!!) und Geforce 3+??


IMRs.
Ist ein Fakt und nicht meine Meinung.:P

ow
2002-07-18, 23:04:50
Originally posted by Exxtreme

Richtig, nur wenn die GraKa so schnell wird, daß die CPU nicht mehr mit den Daten nachkommt, dann _wird_ das Game CPU-limitiert. Und dieser Zustand ist bei Q3A IMHO jetzt erreicht worden.

Gruß
Alex


??? Die CPU nicht mehr nachkommt?

Wie soll das aussehen?
Bei Verringern der Auflösung steigen die fps unter Q3, nix mit CPU-Limitierung.

skampi
2002-07-18, 23:09:57
Originally posted by ow



??? Die CPU nicht mehr nachkommt?

Wie soll das aussehen?
Bei Verringern der Auflösung steigen die fps unter Q3, nix mit CPU-Limitierung.

Ich lass es jetzt sein, mir wirds langsam zu blöd.

PS: Gibts einen Smilie der mit dem Kopf immer gegen die Wand schlägt...?

ow
2002-07-18, 23:15:44
Originally posted by skampi


Ich lass es jetzt sein, mir wirds langsam zu blöd.

PS: Gibts einen Smilie der mit dem Kopf immer gegen die Wand schlägt...?


Ist daran irgendwas nicht zu verstehen oder was für ein Problem hast du?

Leonidas
2002-07-18, 23:31:33
Originally posted by vogel

Genauso der DM-Asbestos flyby in UT2003 mit 'ner schnellen Grafikkarte (GF4 Ti 4600+).

Quake 3 skaliert nicht mit der Aufloesung aber mit der CPU was meiner Meinung nach ein klares Indiz fuer CPU Limitierung ist.

-- Daniel, Epic Games Inc.




Also ich hab eine Benchmark-Datenbank mit über 1.000 Q3A-Ergebnissen (und ich hab die alle gelesen!) und gemäß dieser sage ich: gfx-limitiert.

Leonidas
2002-07-18, 23:33:50
Originally posted by Exxtreme

Irgendwannmal wird jedes Game CPU-limitiert. Q3A hat schon einige Jährchen auf'm Buckel. Mit der GraKa allein geht da nicht mehr viel. Und, habt ihr auch eine R300 zum Spielen bekommen?
Und ihr habt die UT2003-Engine voll auf ATi optimiert.
:D ;D ;)

Gruß
Alex



Sehe ich exakt umgedeht. Irgendwann wird jedes Game gfx-limitiert. Siehe UT: War mal 100% CPU-limitiert, heute messen wir Unterschiede von bis zu 30%. Siehe RTCW: Ist CPU-limitiert, wird todsicher mal gfx-limitiert werden. Ich kenne kein Beispiel, daß eine Engine mit stärkerer Hardware irgendwann mal CPU-limitiert wird - dagegen aber einige Beispiele, wo sie gfx-limitiert wurden.

HOT
2002-07-18, 23:38:10
Die Wahrheit liegt wohl irgendwo dazwischen :D

StefanV
2002-07-18, 23:39:07
Originally posted by ow
IMRs.
Ist ein Fakt und nicht meine Meinung.:P

Sehe ich 'geringfügig' anders...

Hast du auch noch anderes auf Lager als irgendwelchen Trotzigen Posts?? *eg*

Aber es ist auch mal gut, daß ATI schneller ist als NV.

Hoffentlich bleibt das so ;D ;D

StefanV
2002-07-18, 23:40:47
Originally posted by Leonidas


Sehe ich exakt umgedeht. Irgendwann wird jedes Game gfx-limitiert. Siehe UT: War mal 100% CPU-limitiert, heute messen wir Unterschiede von bis zu 30%. Siehe RTCW: Ist CPU-limitiert, wird todsicher mal gfx-limitiert werden. Ich kenne kein Beispiel, daß eine Engine mit stärkerer Hardware irgendwann mal CPU-limitiert wird - dagegen aber einige Beispiele, wo sie gfx-limitiert wurden.

Kommt ganz drauf an, welcher Faktor schneller/stärker wächst.

Wächst die CPU Leistung stärker, so ist es wahrscheinlicher, daß es GFX Limitiert wird.

Steigt die GFX Leistung, so ist es CPU Limitiert.


Hm, irgendwie drehe ich mich im Kreis ?-)

ow
2002-07-18, 23:40:54
Originally posted by Leonidas


Also ich hab eine Benchmark-Datenbank mit über 1.000 Q3A-Ergebnissen (und ich hab die alle gelesen!) und gemäß dieser sage ich: gfx-limitiert.


Sehe ich genauso.

ow
2002-07-18, 23:44:00
Originally posted by Leonidas




Sehe ich exakt umgedeht. Irgendwann wird jedes Game gfx-limitiert. Siehe UT: War mal 100% CPU-limitiert, heute messen wir Unterschiede von bis zu 30%. Siehe RTCW: Ist CPU-limitiert, wird todsicher mal gfx-limitiert werden. Ich kenne kein Beispiel, daß eine Engine mit stärkerer Hardware irgendwann mal CPU-limitiert wird - dagegen aber einige Beispiele, wo sie gfx-limitiert wurden.


Yep. Kann auch hier nur ganz zustimmen.

Selbst extrem CPU-limitierte Games wie zB. Unreal werden irgendwann mit der Auflösung skalieren, wenn die CPU nur schnell genug ist.


Als Unreal damals erschien, war bei den Benches sowohl die Graka wie Auflösung egal, absolut CPU-limitiert.

Salvee
2002-07-18, 23:47:52
Ich verstehe den ursprüngliche 'CPU-Limitierungspost' so:
Benchte man Q3A auf einer 5GHz CPU, fiele die Differenz zwischen R300 und GF4Ti4600 wesentlich grösser aus.
Liege ich damit richtig bzw. ist das überhaupt zu beantworten ?

ow
2002-07-18, 23:49:46
Originally posted by Stefan Payne


Sehe ich 'geringfügig' anders...



Deine Meinung interessiert aber mal wieder nicht. Hier geht´s um Fakten. IMR und deferred renderer schliessen sich aus (wie der Name schon sagt).

Also dann erzähl mal: wie siehst du das anders??


Aber es ist auch mal gut, daß ATI schneller ist als NV.


Für den Markt und den User kann´s nur positiv sein.



Hoffentlich bleibt das so ;D ;D

Und dann? Die Situation nur umgedreht. Was soll daran besser sein?

StefanV
2002-07-18, 23:53:03
Originally posted by Salvee
Ich verstehe den ursprüngliche 'CPU-Limitierungspost' so:
Benchte man Q3A auf einer 5GHz CPU, fiele die Differenz zwischen R300 und GF4Ti4600 wesentlich grösser aus.
Liege ich damit richtig bzw. ist das überhaupt zu beantworten ?

Du siehst es in etwa richtig.

Nur 'wirklich' Beantworten kann man das nicht...

Birdman
2002-07-18, 23:53:51
gleich mal 2 nette benches in q3 mit meiner kiste gemacht (ti46/P4 2.4Ghz)

1024x768x32bit HQ++
--------------------
198.7fps MIT sound / 249.2fps OHNE sound
-----------------------------------------
Was sagt uns das? ganz klar, Q3 ist in dieser geringen auflösung komplett CPU limitiert.

1600x1200x32bit HQ++
---------------------
134.5fps MIT Sound / 137.8fps OHNE Sound
-----------------------------------------
Hier liegt ganz klar eine Graka Limitierung vor, R300 wo bist du?

StefanV
2002-07-19, 00:08:49
Originally posted by ow
Deine Meinung interessiert aber mal wieder nicht. Hier geht´s um Fakten. IMR und deferred renderer schliessen sich aus (wie der Name schon sagt).

Also dann erzähl mal: wie siehst du das anders??


1. warum so herablassend??

2. weil man ja auch in einen IMR TBR Technik reinpacken kann.

Und was ist jetzt ein Tiler mit HSR??
IR oder TBR??
Oder sind die Grenzen zwischen IR und TBR fließend, daß man also nur schwer sagen kann, obs ein TBR oder IR ist?


Originally posted by ow
Und dann? Die Situation nur umgedreht. Was soll daran besser sein?

Tja, alles wird besser sein.

Denn ATI sind ja Kanadier, NV Amis...

skampi
2002-07-19, 00:09:49
Originally posted by Salvee
Ich verstehe den ursprüngliche 'CPU-Limitierungspost' so:
Benchte man Q3A auf einer 5GHz CPU, fiele die Differenz zwischen R300 und GF4Ti4600 wesentlich grösser aus.
Liege ich damit richtig bzw. ist das überhaupt zu beantworten ?

Ja. Bei steigender "CPU-Leistung" und gegebener "gfx" nimmt die "fps" im Verhältnis zur "CPU-Leistung" unterproportional zu (die Steigung dieser Funktion nähert sich 0). Das ist nicht absolut zu sehen.

skampi
2002-07-19, 00:15:48
Originally posted by Birdman
gleich mal 2 nette benches in q3 mit meiner kiste gemacht (ti46/P4 2.4Ghz)

1024x768x32bit HQ++
--------------------
198.7fps MIT sound / 249.2fps OHNE sound
-----------------------------------------
Was sagt uns das? ganz klar, Q3 ist in dieser geringen auflösung komplett CPU limitiert.

1600x1200x32bit HQ++
---------------------
134.5fps MIT Sound / 137.8fps OHNE Sound
-----------------------------------------
Hier liegt ganz klar eine Graka Limitierung vor, R300 wo bist du?

So bench doch gleich mal mit den "Anand-Settings" 800'er gegen die 1024'er.

Schnitzl
2002-07-19, 00:23:10
Originally posted by ow
@ Stefan Payne:
Deine Meinung interessiert aber mal wieder nicht.
Ich dachte hier darf jeder seine Meinung sagen... ? ???


(ATI überholt nVidia)
Und dann? Die Situation nur umgedreht. Was soll daran besser sein?
hm, vielleicht fliegt dann endlich der Praktikant bei ATI raus, der bisher die Treiber programmiert hat ? ;)

Ein Wechsel an der Spitze ist meistens positiv.

MfG

ow
2002-07-19, 00:26:10
Originally posted by Stefan Payne
1. warum so herablassend??



Weil du nervst.
Du kannnst ruhig mal einsehen, wenn andere recht haben, un nicht immer "ich sehe das anders" oder " das dst deine Meinung" schreiben.



2. weil man ja auch in einen IMR TBR Technik reinpacken kann.



Inwiefern?



Und was ist jetzt ein Tiler mit HSR??
IR oder TBR??
Oder sind die Grenzen zwischen IR und TBR fließend, daß man also nur schwer sagen kann, obs ein TBR oder IR ist?



??

Stefan, die Rede war von deferred Renderern. Das hat zunächst mal nichts mit TBRs zu tun.

Ein IMR rendert direkt (immediate), ein DR eben nicht (deferred).

Der R300 ist ein IMR.

ow
2002-07-19, 00:30:19
Originally posted by Schnitzl

Ich dachte hier darf jeder seine Meinung sagen... ? ???



Sicher.
In diesem Fall interessiert´s nur nicht, weil es keine Meinungsfrage ist, ob der R300 ein IMR oder ein deferred Renderer ist.


hm, vielleicht fliegt dann endlich der Praktikant bei ATI raus, der bisher die Treiber programmiert hat ? ;)

Ein Wechsel an der Spitze ist meistens positiv.

MfG


:D Wäre schon schön, wenn die ATi Treiber mal konkurrenzfähig würden. Sollen ja brandneu sein für den R300.

beLSar
2002-07-19, 00:35:02
wo ist der unterschied zwischen IMR und DR ?

HiddenGhost
2002-07-19, 00:42:49
Defered Renderer teilen das Bild in viele kleine Kacheln ein und machen vor dem Rendern für jede kachel einzeln Occlusion Culling um nichtsichtbare Pixel auszusortireen und vor dem Render zyklyus zu bewahren. Dies spart sehr viel an Leistung, das dies in jeder der Kacheln nahezu perfekt funktioniert !

Brute Force/Imidiate Renderer machendies erst vor dem Texturing, wodurch bereits vielenichtsichtbare Pixel verrendert wurden !

beLSar
2002-07-19, 00:48:46
ist TBR wie bei der kyro wieder was anderes oder auch Defered Renderer?
was ist in der praxis schneller, DR oder ?

ow
2002-07-19, 00:55:04
Originally posted by HiddenGhost
Defered Renderer teilen das Bild in viele kleine Kacheln ein und machen vor dem Rendern für jede kachel einzeln Occlusion Culling um nichtsichtbare Pixel auszusortireen und vor dem Render zyklyus zu bewahren. Dies spart sehr viel an Leistung, das dies in jeder der Kacheln nahezu perfekt funktioniert !

Brute Force/Imidiate Renderer machendies erst vor dem Texturing, wodurch bereits vielenichtsichtbare Pixel verrendert wurden !


arghhh....NEIN!;)

Ein deferred renderer muss nicht tilen (in Kacheln teilen).
Deferred bedeutet nur, dass das Bild nicht direkt berechenet wird sondern verzögert. Und zwar erst dann, nachdem der Chip alle Infos für das zu rendernde Frame gesammelt hat.

IMRs rendern jedes Dreieck direkt.