PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R300 (P)review Sammelthread (war: R300 Review bei Anand online)


Seiten : 1 [2] 3

ow
2002-07-19, 00:56:27
Originally posted by beLSar
ist TBR wie bei der kyro wieder was anderes oder auch Defered Renderer?
was ist in der praxis schneller, DR oder ?


Der Kyro ist ein deferred renderer, der mit Tiles arbeitet und deshalb als TBR (tile based renderer) bezeichnet wird.

beLSar
2002-07-19, 00:59:43
aha, danke für die infos !

AlfredENeumann
2002-07-19, 01:19:41
btw habt ihr die videos von der 9700er gesehen. Konnte bisher nur das natural light demo video ziehen und *Kinladerunterfall*
Hammer!

beLSar
2002-07-19, 01:23:23
wo gibt es die videos ?
thx

skampi
2002-07-19, 01:25:36
Originally posted by ow
Weil du nervst.
Du kannnst ruhig mal einsehen, wenn andere recht haben, un nicht immer "ich sehe das anders" oder " das dst deine Meinung" schreiben.


Nicht schlecht, ow. IMHO haben andere von Dir das gleiche Bild und ich will auch nicht nachfragen, wen ich so nerve...;).

AlfredENeumann
2002-07-19, 01:26:27
http://www.ati.com/developer/demos/r9000.html

skampi
2002-07-19, 01:34:50
Originally posted by Leonidas
Sehe ich exakt umgedeht. Irgendwann wird jedes Game gfx-limitiert. Siehe UT: War mal 100% CPU-limitiert, heute messen wir Unterschiede von bis zu 30%. Siehe RTCW: Ist CPU-limitiert, wird todsicher mal gfx-limitiert werden. Ich kenne kein Beispiel, daß eine Engine mit stärkerer Hardware irgendwann mal CPU-limitiert wird - dagegen aber einige Beispiele, wo sie gfx-limitiert wurden.

Also ich hab eine Benchmark-Datenbank mit über 1.000 Q3A-Ergebnissen (und ich hab die alle gelesen!) und gemäß dieser sage ich: gfx-limitiert.

Falsch Leo. Du mußt schon differenzieren.

Leonidas
2002-07-19, 02:01:20
Originally posted by Birdman
gleich mal 2 nette benches in q3 mit meiner kiste gemacht (ti46/P4 2.4Ghz)

1024x768x32bit HQ++
--------------------
198.7fps MIT sound / 249.2fps OHNE sound
-----------------------------------------
Was sagt uns das? ganz klar, Q3 ist in dieser geringen auflösung komplett CPU limitiert.





Schwerste Mutmaßung! Möglicherweise ist die Soundkarte auch nicht schnell genug, den Sound im ca. 8fachen der Zeit zu bewältigen ???



Dies ist kein guter Test für diesen Zweck, er ist sogar regelrecht schlecht. Besser: Geh auf 800x600 mit gleichen Settings. Wenn 1024x768 CPU-limitiert sein soll, muß 800x600 das identische (!) Ergebnis bringen.

Leonidas
2002-07-19, 02:04:16
Originally posted by skampi



Falsch Leo. Du mußt schon differenzieren.




Mmh. Erkenne ich aus diesem Posting irgendwas griffiges, was ich beantworten könnte?



PS: Ich meinte mit meiner Original-Aussage nur, daß ich mir - unbescheidenerweise - ziemlich viel Ahnung zutraue bzgl. Q3A-Benchmark-Werte.

OhneZ
2002-07-19, 02:39:03
Originally posted by Stefan Payne

Nein, denke ich nicht, nur ist die R300 angekündigt, der NV30 nicht.
Der NV30 ist auch in 0,13µ gefertigt, R300 momentan in 0,15.

Die R300 ist fertigt und wird bald releast, wie weit die NV30 ist wissen wir nicht, im extrem Fall hat sie erst das erste Tape Out hinter sich, was schlecht für NV wäre.

Kann der NV30 es mit der R300 aufnehmen??

Wenn nVidia jetzt erst ein Tape Out hatte, na dann sag ich mal ups.
Weil Vom Tape out bis zum ersten Prototypen dauert es schon eine ganze !! Weile.
Das der R300 in 0,15 gefertigt wird zeigt doch was noch für ein Potenzial in diesem Chip steckt, weil jetzt schon 300 MHz.
Wenn der NV30 draussen ist wird es bestimmt ein spannendes Kopf an Kopf Rennen zw. Ati und nVidia.

Simon Moon
2002-07-19, 02:50:43
Originally posted by Leonidas





Mmh. Erkenne ich aus diesem Posting irgendwas griffiges, was ich beantworten könnte?



PS: Ich meinte mit meiner Original-Aussage nur, daß ich mir - unbescheidenerweise - ziemlich viel Ahnung zutraue bzgl. Q3A-Benchmark-Werte.

Trotzdem muss man 'differenzieren' (schlecht umschrieben wie ich finde, aber mir fällt auch nix bessres ein). Wenn ich in meinen PC mit Athlon700 ne Radeon9700 einbauen würde, wärs eindeutig CPU limitiert. Deshalb muss man beides auf einen gleichen Nenner bringen und hier ist meiner Meinung nach einfach Highest-End am besten geeignet. (imho kann man sich da am wenigsten streiten was nun dazu gehört und wenn zwei produkte ähnlich schnell sind, ists auch wurscht)

Um rauszufinden ob Q3 nun CPU oder Graka limitiert ist, ermittelt man nun also mit dem schnellsten erhältlichen CPU, wohl P4 2,4?Ghz, und der schnellsten Graka, Ti4600 für den Moment. Theoretisch könnte sich das ganze aber mit der R9700 ja alles wieder ändern, wobei bis dahin durchaus auch schon ne schnellere CPU da sein kann. Ich denke mal das war damit gemeint (ist ne freie und evtl. halt falsche Interpretation, jedoch gleichzeitig meine Sichtweise).


puhh... wieder viel geschrieben für das, dass ich irgendwie seit... ah ja, richtig 5 - 12°° halb gedöst... aber geschlaffen? KA...

[DH]Avenger
2002-07-19, 03:02:51
Sorry Leo aber der Comment zum Interface auf der HP ist wissenschaftlich einfach falsch...es werden Erkenntnisse A falsch interpretiert bzw. die eigene Ansicht hinein interpretiert und damit versucht Argument B zu verteidigen....ein Bärendienst für die Reputation von 3DC.

Brazo
2002-07-19, 03:09:26
das mit der cpu, oder gfx limitierung kann man doch so verallgemeinert gar nicht sagen... nur für bestimmte kombinationen, _und_ bestimmte maximal auflösungen (damit eingeschlossen fsaa und af). ich zb hab mit meinem duron 1000 unf gf3ti200 ziwschen 640 und 1280 nicht einen fps unterschied (ok, sähre vielleicht bei nem xp anders aus...).
imo hat halt die r300 noch einiges an reserven um in einem jahr auf nem p4 3xxx in 1024 kaum bis wenig gfx limitierend zu sein - die gf4 halt leider nicht. das sie jetzt in normaler auflösung "kaum" schneller ist, ist für jemanden der nicht jedes halbe jahr eine neue graka kauft doch vollkommen egal? im moment reicht ja noch meine gf3 für alles... aber was ist in einem jahr? diese frage muss man sich doch stellen... auch wenn wenige 1600 mit fsaa benutzen ist es doch ein schönes indiz was die zukunft bringt, oder liege ich da falsch?

@leonidas
dein benchmark datenbank in ehren -sie ist wirklich ein argument. aber trotzdem muss ich dir da widersprechen befürchte ich. du sagst ja selber das sich von 800 auf 1024 nicht fps ändern draf bei cpu limitierung - da stimme ich dir zu. wie erklärst du dir aber die ergebnisse beim cpu skalierungstest con anandtech? soweit ich mich erinnere skaliert jedes geteste spiel auf einer gf4 von 800 - 1733mhz cpu-takt. bei "deiner" gfx limitierung sollte sich aber garnichts ändern - und dinge wie ki berechnung oder sound-cpu-last wird dort noch garnicht mit einberechnet.

deswegen kann man das imho nicht so verallgemeinern - kommt auf ausstattung, spiel und auflösungs- bzw. featureanspruche (zb fsaa) an...

greets,

brazo

MadManniMan
2002-07-19, 04:17:21
1. beim thema cpu-limitierung wird imho viel zu selten die soundkarte berücksichtigt. was meine sb128 pci heutzutage manchmal ausbremst ist doch schon arg erbärmlich.

2."Im übrigen liegt die R300 selbst unter 1600x1200 nur zwischen 10 und 54 Prozent vor der GF4Ti4600 - bei *exakt* doppelter Speicherbandbreite. "

hm, kein full ack. die reine aussage "speicherbandbreite = anbindung mal takt" gefällt mir so und so nicht. eine verdopplung wäre eher ein 8*64 cbmc. naja, und das 256bit allein kein segen sind, wissen wir ja bereits seit dem parhelia...

...ich verstehe deine aussage daher als warnung vor pr-wunderdingern, allerdings würde ich ein bisschen weniger offensiv der sache gegenübertreten und nicht zwangsläufig veruschen, den euphorischen jungens den wind aus dem segel zu nehmen. so gefiele mir eine beurteilung nach dem motto "gut ding will weile haben" besser. ist aber alles sehr IHMO.

eines darfst du nicht vergessen: gf4ti und r300 sind nicht mehr so zwangsläufig bandbreitenlimitiert! vor allem beim r300 sehe ich da noch viel luft(8*2 beim r350? ;) ), aber in jedem fall sollten die heutigen high-end-karten ohne af und aa ein wesentlich ausgeglicheneres bandbreiten-füllraten-verhältnis haben, als der gute alte effizienzalptraum gf2 gts.

3. ow... bitte nich immer so böse schreiben. gibt nur unnötige grimmigkeitsfalten auf der stirn :)

4."@Exxtreme:
Dir geht heute richtig einer ab, oder?"

nicht nur ihm :D

Unregistered
2002-07-19, 04:30:21
Originally posted by ow
Weil du nervst.
Du kannnst ruhig mal einsehen, wenn andere recht haben, un nicht immer "ich sehe das anders" oder " das dst deine Meinung" schreiben.


Ach, und das entscheidest DU??
du kannst auch mal einsehen, daß andere das anders sehen als DU!
Ich möchte nicht wissen, wen DU mit deinem Standpunkt nervst.

(ab und an ist es von mir beabsichtigt zu nerven *eg*)
Originally posted by ow
Inwiefern?


Ach, z.B. ein vorgezogener Z Test...

Originally posted by ow

??

Stefan, die Rede war von deferred Renderern. Das hat zunächst mal nichts mit TBRs zu tun.

Ein IMR rendert direkt (immediate), ein DR eben nicht (deferred).

Der R300 ist ein IMR.

1. ja, und auch ein 'normaler' IR kann zu einem Deffered Renderer werden!

2. ja und?
Heißt ein Immideate Renderer vielleicht deshalb Immideate Renderer und ein Deffered (=verzögert) Renderer Deffered Renderer??

Fakt ist, daß ich mit Jedem IR auch verzögert rendern könnte, wenn ich es denn wollte...
Auch ist es Fakt, daß ein IR zu einem Deffered Renderer werden kann, das gabs schonmal.

StefanV
2002-07-19, 04:42:52
Originally posted by OhneZ


Wenn nVidia jetzt erst ein Tape Out hatte, na dann sag ich mal ups.
Weil Vom Tape out bis zum ersten Prototypen dauert es schon eine ganze !! Weile.
Das der R300 in 0,15 gefertigt wird zeigt doch was noch für ein Potenzial in diesem Chip steckt, weil jetzt schon 300 MHz.
Wenn der NV30 draussen ist wird es bestimmt ein spannendes Kopf an Kopf Rennen zw. Ati und nVidia.

Richtig, sehe ich auch so :)
Das Problem ist halt der 0,13µ Prozess, den außer Intel und AMD anscheinend niemand wirklich im Griff hat.

Der R300 verwendet aber auch einige 'Tricks', zum Beispiel das Flip Chip Pakage, das beim P2 ja auch schon einiges gebracht hat (AMD verwendet das schon seit Jahr und Tag, genauer:
Alle CPUs seit dem K6 sind Flip Chip, also DIE oben, nur war beim K6 ein Deckel drauf, weshalb es niemandem aufgefallen ist)
Wäre die R300 nicht im FC-BGA Gehäuse gekommen, so wären wohl auch keine 300MHz drin...

Naja, abwarten und Tee rauchen.
Der R300 ist angekündigt, wird in einem bestehenden Prozess gefertigt, der sich bewehrt hat und bei dem kaum Probleme (außer hoher Ausschuß) zu erwarten sind.
Beim NV30 schauts anders aus.
Wir wissen nicht, wie weit NV ist oder ob TMSC in der Lage ist Prototypen zu liefern...
Bisher schafft TMSC nur recht einfache Designs in 0,13µ, z.B. VIA C3.
Der NV30 wäre auch möglich, nur wäre der Ausschuß vermutlich 'etwas' hoch.

Aber wie du schon treffend bemerkt hast: Wenn der NV30 rauskommt...

vogel
2002-07-19, 07:59:28
Originally posted by Leonidas
Sehe ich exakt umgedeht. Irgendwann wird jedes Game gfx-limitiert. Siehe UT: War mal 100% CPU-limitiert, heute messen wir Unterschiede von bis zu 30%. Siehe RTCW: Ist CPU-limitiert, wird todsicher mal gfx-limitiert werden. Ich kenne kein Beispiel, daß eine Engine mit stärkerer Hardware irgendwann mal CPU-limitiert wird - dagegen aber einige Beispiele, wo sie gfx-limitiert wurden.
Im Augenblick werden GPUs werden schneller schneller als CPUs also verstehe ich nicht ganz wie sich das Blatt von CPU limitiert zu GPU limitiert wenden soll :)

Ein klares Indiz fuer CPU Limitierung ist der Vergleich eines "null" render devices mit dem normalen render device. Q3A ist demnach CPU limitiert (zum testen modifiziere man einfach einen OpenGL wrapper).

UT ist meiner Meinung nach auch heute noch CPU limitiert.

-- Daniel, Epic Games Inc.

nggalai
2002-07-19, 08:06:25
Originally posted by Salvee
Laut Review bei HotHardware läuft Q3A mit 6xFSAA(!) und 16xAF(!) bei 1600x1200x32(!) mit >60fps(!).
Noch Fragen ? Ja.

Wer sagt dir, dass der Treiber nicht wie bei anderen Grafikkarten zuvor die FSAA-Stufe bei der Auflösung runterschraubt?

ta,
-Sascha.rb

P.S. (!)

Salvee
2002-07-19, 08:28:40
Originally posted by nggalai
Ja.

Wer sagt dir, dass der Treiber nicht wie bei anderen Grafikkarten zuvor die FSAA-Stufe bei der Auflösung runterschraubt?

ta,
-Sascha.rb

P.S. (!)

Leider sagt mir das niemand, bin zu unbedeutend :...( :D
Ist natürlich im Rahmen des Möglichen, da mit blossem Auge bei dieser Auflösung etwa 4xAA von 6xAA kaum zu unterscheiden sein dürfte.
(ich kann mir diesen Anblick ehrlich gesagt kaum vorstellen)

Greetz (!)

Demirug
2002-07-19, 08:50:43
Originally posted by Salvee
Ist natürlich im Rahmen des Möglichen, da mit blossem Auge bei dieser Auflösung etwa 4xAA von 6xAA kaum zu unterscheiden sein dürfte.
(ich kann mir diesen Anblick ehrlich gesagt kaum vorstellen)

Greetz (!)

Der Unterschied müsste zu sehen sein. Im Zweifelsfall setzt man einen Test an desen Ergebniss bei 4*AA und 6*AA bekannt ist und vergleicht das zu erwartende Bild mit dem tatsächlichen.

Kartoffelsalat
2002-07-19, 08:56:10
Jetzt brauchen wir nur noch ein Spiel, das die Rechenpower der Radeon 9700 auch voll ausnutzt. Derzeit ist ja meine Ti4400 noch komplett unterfordert. (von AA bzw. AF mal abgesehen)

UT2003 wird die 9700er in den Standardauflösungen von 1024 bzw. 1280 nicht vollends fordern; da müssen wir wohl noch auf Doom 3 warten, und bis das erscheint vergeht noch viel Zeit/erscheinen auch noch andere Grakas von ATI/NVidia.

Piffan
2002-07-19, 09:09:26
Originally posted by vogel

Im Augenblick werden GPUs werden schneller schneller als CPUs also verstehe ich nicht ganz wie sich das Blatt von CPU limitiert zu GPU limitiert wenden soll :)

Ein klares Indiz fuer CPU Limitierung ist der Vergleich eines "null" render devices mit dem normalen render device. Q3A ist demnach CPU limitiert (zum testen modifiziere man einfach einen OpenGL wrapper).

UT ist meiner Meinung nach auch heute noch CPU limitiert.

-- Daniel, Epic Games Inc.

Ein ebenso deutliches Indiz ist, ob ich beim Zocken FSAA und einen hohen AF- Level hinzuschalten kann. Wenn dies ohne Einbruch möglich ist, dann liegt auf meinem System Cpu- Limitierung vor.....

Es ist sowieso Quatschkram, wenn man sagt, Spiel A ist Cpu- und Spiel B Grafikkartenlimitiert..... Es gibt mit absoluter Sicherheit Szenen bei jedem Spiel, wo sich die Verhältnisse komplett umkehren....

Beispiele?

Medal of Honor: über weite Strecken sehr CPU- lastig, da kann man prima selbst auf der Gf3 mit FSAA und AF zocken :) Wenn ich aber den Abschnitt "Siegfried Forest" sehe, ist Schluß mit Lustig, da gehts nur noch "ohne" und Veringerung der Auflösung und der Texturenqualität bringt satte FPS- Gewinne...

UT, ist bekanntlich CPU- lastig: Wenn ich mit der Comborifle "arbeite" und andere Spieler auch, dann wird krass Füllrate verpulvert und es ist dezente Zähigkeit bis Ruckeln nicht zu übersehen. Beim UT- Mod "Op Na Pali" gönne ich mir unter OpenGl AF und FSAA, läuft dennoch gut. Aber wehe wenn die Designer in einer Map mit volumetrischem Nebel zu verschwenderisch umgehen, da schwächelt das SYstem gnadenlos.... Bei MoHH genau der selbe Effekt, wenn schwarzer Rauch dargestellt wird... Behaupte mal, dass da selbst die GF4 merklich in die Pflicht genommen wird...

Meine These: Bei den "Klassikern" hat die Graka- limitiertung im Allgemeinen eher nachgelassen, nur bei bestimmten Situationen (Tranzparente Effekte, Rauchdarstellung) liegt sie immer noch vor...

Bei den neuen Spielen könnte es mal so sein, dass ausgiebiger Gebrauch von Pixelshadern die Sache umdreht..... so schätze ich einfach mal, dass DOOM die Graka bis zur Kante reizt und UT 2003 da mit der vorhandenen Hardware besser auskommt und eher vom Proz profitieren wird....

nggalai
2002-07-19, 09:30:43
Hi Salvee,Originally posted by Salvee


Leider sagt mir das niemand, bin zu unbedeutend :...( :D
Ist natürlich im Rahmen des Möglichen, da mit blossem Auge bei dieser Auflösung etwa 4xAA von 6xAA kaum zu unterscheiden sein dürfte.
(ich kann mir diesen Anblick ehrlich gesagt kaum vorstellen)

Greetz (!) Hehe. (!) ;) Nein, was ich mit meiner Post eigentlich sagen wollte war, dass es gute Gründe dafür gibt, dass ATi keine fps-Angaben zum gegenwärtigen Zeitpunkt veröffentlichen lässt. Und solange nicht deutlich mehr Tester mit deutlich mehr verfügbarer Zeit die Karte durchtesten, sollte man eben wegen solchen Möglichkeiten wie sich-runterschaltendes-FSAA u.ä. vorsichtig mitm Posten von exakten Zahlen sein.

Noch ein Nachtrag zu den Prozent -> FPS Umrechnungen von weiter vorn im Thread: Nagorak hat klar gestellt, dass er hier P4-Zahlen mit AthlonXP-Zahlen verglichen hat. Die Zahlen können also höchstens als Indikator gelten, aber nicht als Absolute. Plus/Minus 5% dürft ihr also schon rechnen, oder noch besser: die "genauen" Zahlen vergessen, bis in einem Monat die Reviewer Zeit hatten, die Karte ausgiebig durchzubenchen.

ta,
-Sascha.rb

vogel
2002-07-19, 09:37:39
Originally posted by Piffan
Es ist sowieso Quatschkram, wenn man sagt, Spiel A ist Cpu- und Spiel B Grafikkartenlimitiert..... Es gibt mit absoluter Sicherheit Szenen bei jedem Spiel, wo sich die Verhältnisse komplett umkehren....

Sorry, ich meinte die verwendeten Q3A Benchmarks.

mit volumetrischem Nebel zu verschwenderisch umgehen, da schwächelt

volumetrischer Nebel in UT == CPU bound

-- Daniel, Epic Games Inc.

Birdman
2002-07-19, 10:20:32
Originally posted by Leonidas
Schwerste Mutmaßung! Möglicherweise ist die Soundkarte auch nicht schnell genug, den Sound im ca. 8fachen der Zeit zu bewältigen ???

Dies ist kein guter Test für diesen Zweck, er ist sogar regelrecht schlecht. Besser: Geh auf 800x600 mit gleichen Settings. Wenn 1024x768 CPU-limitiert sein soll, muß 800x600 das identische (!) Ergebnis bringen.
Eigentlich wollte ich nur zeigen, dass Q3 @1024 NICHT gfx limitiert ist, und dazu ist das benchen mit/ohne Sound sehr gut geeignet.

Btw. ich bin sehr sicher dass beim Sound keine Soundkartenlimitierung vorliegt, sondern die Soundengine von Q3 nicht mehr mitmacht, bzw. extrem viel CPU-Power dazu benötigt. hatte schon mehrere soundkarten damit getestet, von onboard ac97 bis hin zum nforce und die zeigten unter q3 alle das selbe bild...trotz an sich SEHR unterschiedlicher CPU belastung.

ow
2002-07-19, 10:35:27
Originally posted by Birdman

Eigentlich wollte ich nur zeigen, dass Q3 @1024 NICHT gfx limitiert ist, und dazu ist das benchen mit/ohne Sound sehr gut geeignet.



Schhau dir mal die Q3 benches hier an:

http://www.anandtech.com/video/showdoc.html?i=1655&p=9

und Jk2 von hier:

http://www.anandtech.com/video/showdoc.html?i=1655&p=7


-> Q3 grafiklimitiert, Jk2 CPU-limitiert.

HOT
2002-07-19, 10:44:16
1.) Q3A kann garnicht rein gfx limitiert sein, ds ist KEINE Anwendung. Zu einer 3D Welt gehören IMMER 2, die CPU (+ Restsys, vor allem Speicheranbindung) und GFX.
Das Q3A timedemo besteht aus verschiedenen Scenen, von denen einige CPU limitiert sind und einige GFX limitiert. Ich gebe zu, dass die Mehrzahl der Scenen Renderintensiv und somit kaum CPU limitiert sind, das spiegelt das Ergebnis wider. aber man sollte sich immer vor Augen halten, dass der R300 schon wieder so schnell ist, dass hier mehr Scenen CPU limitiert sind als bei langsameren Chips. Das kann man deutlich daran sehen, dass der R300 in 1600 wesentlich näher (wir haben ja leider keine FPS Werte sondern nur % Angaben, aber die Relation zur Ti steht ja) an der gleichen Framerate wie in 1024 ist als der Geforce4 Ti. Das belegt meine Aussage.
2.) Der Übergang vom IMR zum DMR ist absolut FLIESSEND.
Wenn Anand schreibt, dass der R300 teilweise wie ein DMR arbeitet, dann ist der R300 mehr eine Mischform denn ein IMR. Nichtsdestotrotz nähert sich ATI immer mehr der HSR Philosophie von deferred Rendering an, das zeigt die Evolution von HyperZ sehr deutlich. @ow, deine Engstirnigkeit ist bemerkenswert ;) (bidde nicht ernst nehmen)
3.) Creative Labs hat anscheinend die Schnauze voll von Geforce :D
Sie wollen den 3D Blaster 5 releasen, eine Radeon9000 Karte :D
www.savagenews.com

Exxtreme
2002-07-19, 10:48:23
Originally posted by HOT

3.) Creative Labs hat anscheinend die Schnauze voll von Geforce :D
Sie wollen den 3D Blaster 5 releasen, eine Radeon9000 Karte :D
www.savagenews.com
Jupp, habe ich gestern auch schon gelesen. Schon wieder ein Hersteller weniger, der NV-Chips verbaut.

Gruß
Alex

Brazo
2002-07-19, 10:49:54
hmm... da versteh ich deine logic irgendwie nicht... wenn das so wäre, dann dürfte die ti4600 nicht ein fps mehr haben als die ti4200 - sie hat aber ~15% mehr. d.h. sie kann ihre 20% mehr core-takt und 45% mehr speichertakt in immerhin 15% umwandeln. das entspricht einem "gemittelten wirkungsgrad" von ~50% bei takt-in-fps-umsetzung. ein bissel viel für cpu-limitierung - laut leonidas definition von limitierung müssste das aber 0% sein :bäh:

greets,


brazo

skampi
2002-07-19, 10:55:59
Originally posted by ow


Schhau dir mal die Q3 benches hier an:

http://www.anandtech.com/video/showdoc.html?i=1655&p=9

und Jk2 von hier:

http://www.anandtech.com/video/showdoc.html?i=1655&p=7


-> Q3 grafiklimitiert, Jk2 CPU-limitiert.


Man man man..., Oliver Wichtig. Auf einem P4 2,4B mit Ti4600 tritt in besagter Demo mit besagten Settings die CPU-Limitierung in den Vordergrund. Das hat überhaupt nichts mit den Ergebnissen einer MX oder Radeon85 zu tun.

Unregistered
2002-07-19, 11:30:31
Originally posted by Leonidas

Mmh. Erkenne ich aus diesem Posting irgendwas griffiges, was ich beantworten könnte?


PS: Ich meinte mit meiner Original-Aussage nur, daß ich mir - unbescheidenerweise - ziemlich viel Ahnung zutraue bzgl. Q3A-Benchmark-Werte. Hier gibts es 2 offizielle, die mal ihre rosarote NVidia Brille und ihre absolute Rechthaberei ablegen sollten...

ow
2002-07-19, 11:33:14
Originally posted by HOT
1.) Q3A kann garnicht rein gfx limitiert sein, ds ist KEINE Anwendung. Zu einer 3D Welt gehören IMMER 2, die CPU (+ Restsys, vor allem Speicheranbindung) und GFX.
Das Q3A timedemo besteht aus verschiedenen Scenen, von denen einige CPU limitiert sind und einige GFX limitiert. Ich gebe zu, dass die Mehrzahl der Scenen Renderintensiv und somit kaum CPU limitiert sind, das spiegelt das Ergebnis wider. aber man sollte sich immer vor Augen halten, dass der R300 schon wieder so schnell ist, dass hier mehr Scenen CPU limitiert sind als bei langsameren Chips. Das kann man deutlich daran sehen, dass der R300 in 1600 wesentlich näher (wir haben ja leider keine FPS Werte sondern nur % Angaben, aber die Relation zur Ti steht ja) an der gleichen Framerate wie in 1024 ist als der Geforce4 Ti. Das belegt meine Aussage.



Dein Aussage ist bereits widerlegt durch obige Benches. Bei 1024 ist Q3 nicht CPU-limitiert (nicht annähernd, wie man an den unterschiedlich getakteten GF-Versionen sieht) also ist es grafiklimitiert. Für JK2 gilt das nicht, das wird erst oberhalb 1280 gfx-limitiert.


2.) Der Übergang vom IMR zum DMR ist absolut FLIESSEND.
Wenn Anand schreibt, dass der R300 teilweise wie ein DMR arbeitet, dann ist der R300 mehr eine Mischform denn ein IMR. Nichtsdestotrotz nähert sich ATI immer mehr der HSR Philosophie von deferred Rendering an, das zeigt die Evolution von HyperZ sehr deutlich. @ow, deine Engstirnigkeit ist bemerkenswert ;) (bidde nicht ernst nehmen)


Nein, es gibt keinen Übergang von IMR zu DR. Dafür ist die Arbeitsweise viel zu unterschiedlich. Der R300 ist ein IMR.
HSR hat auch nichts mit deferred rendering zu tun. HSR kann man (wie man sieht) auch bei IMRs nutzen. Dadurch werden sie aber nicht zu DRs.
Das Kompliment kann ich zurückgeben:
Ich finde eher deine (und SPs) Ignoranz der Fakten bemerkenswert.

Demirug
2002-07-19, 11:51:08
Originally posted by ow
Nein, es gibt keinen Übergang von IMR zu DR. Dafür ist die Arbeitsweise viel zu unterschiedlich. Der R300 ist ein IMR.
HSR hat auch nichts mit deferred rendering zu tun. HSR kann man (wie man sieht) auch bei IMRs nutzen. Dadurch werden sie aber nicht zu DRs.


ow, da stimme ich dir nicht ganz zu.

So müsste ein theoretischer PowerVR Chip mit Vertexshader der dem TileKonzept treu bleibt die VS Einheit ja im IM Mode betreiben um überhaupt Tiles erzeugen zu können. Selbst die heutigen Kyros sind streng genommen keine reinen DR da sie einen Teil iheres Trisetups (das Tileing) im IM Mode durchführen müssen.

Dagegen wird bei allen IMR das AA Blending im DR mode durchgeführt.

Man kann also im Prinzip an jeder Stelle der Renderpipeline von IMR zu DR übergehen und selbst wenn man schon deferred ist kann man durchaus nochmal eine deferred Stuffe hinzufügen. In wie weit das jeweils Sinn macht ist natürlich eine andere Frage.

Brazo
2002-07-19, 11:57:03
Dein Aussage ist bereits widerlegt durch obige Benches. Bei 1024 ist Q3 nicht CPU-limitiert (nicht annähernd, wie man an den unterschiedlich getakteten GF-Versionen sieht) also ist es grafiklimitiert. Für JK2 gilt das nicht, das wird erst oberhalb 1280 gfx-limitiert.

also ow - ich glaube eher das das gegenteil der fall ist. DU bist wiederlegt. ich wiederhole mich zwar ungerne, aber das meine post anscheinend ignoriert werden versuch ichs nochmal. eben grad bei den unterschiedlich gf4 die NUR unterschiedlich getaktet sind, gibbet unterschiede bis zu 15%
ist schon ein bissel komisch das du das nicht siehst obwohl gerade du den link gepostet hast. :bäh:

skampi
2002-07-19, 11:57:45
Originally posted by ow


Dein Aussage ist bereits widerlegt durch obige Benches. Bei 1024 ist Q3 nicht CPU-limitiert (nicht annähernd, wie man an den unterschiedlich getakteten GF-Versionen sieht) also ist es grafiklimitiert. Für JK2 gilt das nicht, das wird erst oberhalb 1280 gfx-limitiert....
...Ich finde eher deine (und SPs) Ignoranz der Fakten bemerkenswert.

Sag mal ow, was ist eigentlich mit Dir los?! Selbst der letzte hats inzwischen gerafft, alle sagen "A", und Du sagst immer "Nein, B stimmt nicht".

ow
2002-07-19, 12:05:14
Originally posted by Demirug


ow, da stimme ich dir nicht ganz zu.

So müsste ein theoretischer PowerVR Chip mit Vertexshader der dem TileKonzept treu bleibt die VS Einheit ja im IM Mode betreiben um überhaupt Tiles erzeugen zu können. Selbst die heutigen Kyros sind streng genommen keine reinen DR da sie einen Teil iheres Trisetups (das Tileing) im IM Mode durchführen müssen.



Wieso denn das? Wieso muss der VS im IM Mode laufen, um Tiles erzeugen zu können? Der Tiler sitzt doch hinter dem VS, zuerst wird doch transformiert und dann getilet, um die Sichtbarkeitsprüfung durchzuführen.



Dagegen wird bei allen IMR das AA Blending im DR mode durchgeführt.


Muss aber nicht zwangsweise so sein, oder doch?


Man kann also im Prinzip an jeder Stelle der Renderpipeline von IMR zu DR übergehen und selbst wenn man schon deferred ist kann man durchaus nochmal eine deferred Stuffe hinzufügen. In wie weit das jeweils Sinn macht ist natürlich eine andere Frage.



Wie soll das aussehen? Kannst du da mal ein Beispiel nennen?


Und btw. was ist denn der R300 nun?

Brazo
2002-07-19, 12:14:17
hilfe ich bin unsichtbar! *grummel* :bäh:

Unregistered
2002-07-19, 12:21:28
Originally posted by Brazo
hilfe ich bin unsichtbar! *grummel* :bäh: Ignorier besser ow, ist einfacher so ;)

ow
2002-07-19, 12:22:32
Originally posted by Brazo


also ow - ich glaube eher das das gegenteil der fall ist. DU bist wiederlegt. ich wiederhole mich zwar ungerne, aber das meine post anscheinend ignoriert werden versuch ichs nochmal. eben grad bei den unterschiedlich gf4 die NUR unterschiedlich getaktet sind, gibbet unterschiede bis zu 15%
ist schon ein bissel komisch das du das nicht siehst obwohl gerade du den link gepostet hast. :bäh:


:lol:

Unterschiedliche Grakatakte - unterschiedliche Performance -> keine CPU-Limitierung sondern Graka-limitierung.

ow
2002-07-19, 12:25:53
Originally posted by skampi


Sag mal ow, was ist eigentlich mit Dir los?! Selbst der letzte hats inzwischen gerafft, alle sagen "A", und Du sagst immer "Nein, B stimmt nicht".


Ich staune nur, wieviel hier nicht zu wissen scheinen, woran man Graka- bzw. CPU-Limitierung erkennt.
Scheinen viele nicht zu raffen.

Brazo
2002-07-19, 12:25:59
oh mein gott bin ich blöd!!!

*ingrundundbodenschäm*

ich nehm alles zurück *g*

ow
2002-07-19, 12:28:08
Originally posted by Unregistered
Ignorier besser ow, ist einfacher so ;)


Hast du vielleicht auch was sinnvolles vorzutragen?

Zb. wie du dir denn Graka- bzw. CPU-Limitierung vorstellst und woran man dies erkennt?

ow
2002-07-19, 12:33:30
Originally posted by Unregistered
Ignorier besser ow, ist einfacher so ;)


Hast du vielleicht auch was sinnvolles vorzutragen?

Zb. wie du dir denn Graka- bzw. CPU-Limitierung vorstellst und woran man dies erkennt?

ow
2002-07-19, 12:35:47
Originally posted by Brazo
oh mein gott bin ich blöd!!!

*ingrundundbodenschäm*

ich nehm alles zurück *g*

Ach was, sieh´s nicht so ernst.:)

Bist immerhin der erste der Zweifler hier, der es verstanden hat.;)

Brazo
2002-07-19, 12:38:06
aeh ich weiss zwar jetzt warum mich keiner beachtet hat aber wenn ich jetzt nicht grad ein bissel blöd im hirn bin hab ich trotzdem was:

http://www.anandtech.com/video/showdoc.html?i=1608&p=14

ok hier gehts zwar nur bis zum xp2100+ , aber dafür auch nur bis zur ti4200. und immerhin skalierts hier - wenn auch nur relaitv wenig - bis zum bitteren ende.

also könnte man sich zumindest bei q3a auf ein patt zwischen cpu und gfx limitierung einigen?!? :D

btw sind imho solche cpu skalierungstests viel zu selten. denn nicht jeder hat immer die aktuelste cpu bzw. gpu im rechner und will aber trotzdem wissen was sich mehr lohnt.

und nochmal: ki und sound werden bei diesen test nicht berücksichtigt. d.h. im spiel gewinnt die cpu nochmal an gewichtigkeit :bäh:

ow
2002-07-19, 12:40:57
Originally posted by Brazo
oh mein gott bin ich blöd!!!

*ingrundundbodenschäm*

ich nehm alles zurück *g*

Ach was, sieh´s nicht so ernst.:)

Bist immerhin der erste der Zweifler hier, der es verstanden hat.;)

StefanV
2002-07-19, 12:43:38
@ow

Mein (unreg) Posting ist noch nicht beantworet.

Da schrieb ich, daß man JEDEN IR auch deffered Rendern lassen könnte, wenn man es denn wollte.

Und, daß es schonmal einen IR Chip gab, der verzögert gerendert hat.

Na, welchen Chip meine ich?

Kleiner Tip: es ist nicht der VSA-100

Demirug
2002-07-19, 12:45:06
Originally posted by ow
Wieso denn das? Wieso muss der VS im IM Mode laufen, um Tiles erzeugen zu können? Der Tiler sitzt doch hinter dem VS, zuerst wird doch transformiert und dann getilet, um die Sichtbarkeitsprüfung durchzuführen.


Du hast dir doch gerade selbst das Argument geliefert warum die VS im IM laufen müssen. Der frühste Zeitpunkt zu dem der Tiler laufen kann ist wenn die Vertexpositionen feststehen. Das ist nachdem die Daten durch den VS durchgelaufen sind. Darum ist die Pipeline bei unserem Theoritischem DTBR auch bis nach dem VS auch absolute gleich.


Muss aber nicht zwangsweise so sein, oder doch?


Muss nicht. Die alternative wäre bei jeder änderung an einem Samplewert sofort den Backbufferwert neu zu bestimmen. Benötigt aber definitive eine kompliziertere Logic. btw. Ich glaube das ich bei FAA irgendwas in der richtung gesehen habe. Beim R9700 könnte ich mir aufgrund des AA Verfahrens sowas auch vorstellen.


Wie soll das aussehen? Kannst du da mal ein Beispiel nennen?


Stell dir einfach vor du trennst die Pipeline an einer belibigen Stell auf und speicherst alles was dort an Daten anfällt. Wenn der Frame komplett ist läst du alles wieder ein und machst weiter. Das kannst du an beliebig vielen stellen in der Pipe machen. Das es an den meisten Stellen keinen Sinn macht dürfte klar sein.


Und btw. was ist denn der R300 nun?

Sollange ich nichts anderes lesse gehe ich von einem IMR mit Aussnahme des AA Blendings aus und selbst dabei bin ich mir nicht wirklich sicher.

Leonidas
2002-07-19, 12:46:09
Originally posted by [DH]Avenger
Sorry Leo aber der Comment zum Interface auf der HP ist wissenschaftlich einfach falsch...es werden Erkenntnisse A falsch interpretiert bzw. die eigene Ansicht hinein interpretiert und damit versucht Argument B zu verteidigen....ein Bärendienst für die Reputation von 3DC.



Bitte bringe mir eine wissenschaftliche Gegenargumentation! Die fehlt Deinerseits.

Leonidas
2002-07-19, 12:47:34
Originally posted by Brazo
wie erklärst du dir aber die ergebnisse beim cpu skalierungstest con anandtech? soweit ich mich erinnere skaliert jedes geteste spiel auf einer gf4 von 800 - 1733mhz cpu-takt. bei "deiner" gfx limitierung sollte sich aber garnichts ändern - und dinge wie ki berechnung oder sound-cpu-last wird dort noch garnicht mit einberechnet.



Der war 800x600, der darf CPU-limitiert sein.

Leonidas
2002-07-19, 12:49:45
Originally posted by vogel

Im Augenblick werden GPUs werden schneller schneller als CPUs also verstehe ich nicht ganz wie sich das Blatt von CPU limitiert zu GPU limitiert wenden soll :)

Ein klares Indiz fuer CPU Limitierung ist der Vergleich eines "null" render devices mit dem normalen render device. Q3A ist demnach CPU limitiert (zum testen modifiziere man einfach einen OpenGL wrapper).

UT ist meiner Meinung nach auch heute noch CPU limitiert.

-- Daniel, Epic Games Inc.



Nur das die Praxis hier dagegenspricht.

ow
2002-07-19, 12:53:14
Originally posted by Stefan Payne
@ow

Mein (unreg) Posting ist noch nicht beantworet.

Da schrieb ich, daß man JEDEN IR auch deffered Rendern lassen könnte, wenn man es denn wollte.

Und, daß es schonmal einen IR Chip gab, der verzögert gerendert hat.

Na, welchen Chip meine ich?

Kleiner Tip: es ist nicht der VSA-100


Wenn du irgendwaszu sagen hast, dann tu das.
Ich veranstalte hier kein Ratespielchen mit dir.

Brazo
2002-07-19, 12:57:34
@leonidas

Der war 800x600, der darf CPU-limitiert sein.

irrtum - nur der neuere sclaing test unter ut2003 war in 800x600. der alte unter diversen spielen ( http://www.anandtech.com/video/showdoc.html?i=1608&p=1 ) war beim scaling-teil unter 1024x768 :)

Obligaron
2002-07-19, 13:00:29
Originally posted by Leonidas

Der war 800x600, der darf CPU-limitiert sein.

Aber ab wann fängt die CPU-Limitierung bei 1024x768 an??

Wenn die CPU sagen wir mal 200 fps schaft, die Geforce4 ti4600 aber nur 190 fps, aber die Radeon 9700 220 fps.

Dann kann die Radeon ja nur 200 fps haben, weil die CPU limitiert oder?

Aber wann ist dieser Punkt erreicht an dem die GraKa schneller ist als die CPU (bei einer bestimmten Auflösung).
Vielleicht haben wir genau diesen Punkt bei Q3A jetzt erreicht?
Da bis jetzt die Geforce4Ti 4600 die schnellst graka ist wissen wir das ja nicht so genau...
Es könnte aber (wie du es gesagt hast) auch sein das die Radeon einfach nur nicht die Leistung bie Q3A herbringt...

Oder liege ich jetzt irgendwo falsch?

P.S: die zahlen habe ich mir schnell einfallen lassen*g* (nur Beispiel)

Unregistered
2002-07-19, 13:00:30
Originally posted by Leonidas

Der war 800x600, der darf CPU-limitiert sein.

Aber ab wann fängt die CPU-Limitierung bei 1024x768 an??

Wenn die CPU sagen wir mal 200 fps schaft, die Geforce4 ti4600 aber nur 190 fps, aber die Radeon 9700 220 fps.

Dann kann die Radeon ja nur 200 fps haben, weil die CPU limitiert oder?

Aber wann ist dieser Punkt erreicht an dem die GraKa schneller ist als die CPU (bei einer bestimmten Auflösung).
Vielleicht haben wir genau diesen Punkt bei Q3A jetzt erreicht?
Da bis jetzt die Geforce4Ti 4600 die schnellst graka ist wissen wir das ja nicht so genau...
Es könnte aber (wie du es gesagt hast) auch sein das die Radeon einfach nur nicht die Leistung bie Q3A herbringt...

Oder liege ich jetzt irgendwo falsch?

P.S: die zahlen habe ich mir schnell einfallen lassen*g* (nur Beispiel)

StefanV
2002-07-19, 13:05:06
Originally posted by ow
Wenn du irgendwaszu sagen hast, dann tu das.
Ich veranstalte hier kein Ratespielchen mit dir.

Och, ich dachte, du weißt alles ;D
Aber warum bist du so gereizt??

zum Thema:

Ich meinte den Rage 128 PRO...

StefanV
2002-07-19, 13:10:13
Originally posted by ow
Wenn du irgendwaszu sagen hast, dann tu das.
Ich veranstalte hier kein Ratespielchen mit dir.

Och, ich dachte, du weißt alles ;D
Aber warum bist du so gereizt??

zum Thema:

Ich meinte den Rage 128 PRO...

ow
2002-07-19, 13:17:10
Originally posted by Stefan Payne


Och, ich dachte, du weißt alles ;D
Aber warum bist du so gereizt??



Na, um dir eine Gefallen zu tun. Das ist es doch was du willst.;)


zum Thema:

Ich meinte den Rage 128 PRO...

??? Was soll der denn (und vorallem wie) deferred rendern?
Und wie sollen IMRs das überhaupt tun? Die sind ja gar nicht auf DR ausgelegt.

Leonidas
2002-07-19, 13:34:37
Originally posted by Brazo

http://www.anandtech.com/video/showdoc.html?i=1608&p=14

ok hier gehts zwar nur bis zum xp2100+ , aber dafür auch nur bis zur ti4200. und immerhin skalierts hier - wenn auch nur relaitv wenig - bis zum bitteren ende.

also könnte man sich zumindest bei q3a auf ein patt zwischen cpu und gfx limitierung einigen?!? :D




Mmh. Ja.

ow
2002-07-19, 13:34:48
Originally posted by Unregistered


Aber ab wann fängt die CPU-Limitierung bei 1024x768 an??

Wenn die CPU sagen wir mal 200 fps schaft, die Geforce4 ti4600 aber nur 190 fps, aber die Radeon 9700 220 fps.

Dann kann die Radeon ja nur 200 fps haben, weil die CPU limitiert oder?

Aber wann ist dieser Punkt erreicht an dem die GraKa schneller ist als die CPU (bei einer bestimmten Auflösung).
Vielleicht haben wir genau diesen Punkt bei Q3A jetzt erreicht?
Da bis jetzt die Geforce4Ti 4600 die schnellst graka ist wissen wir das ja nicht so genau...
Es könnte aber (wie du es gesagt hast) auch sein das die Radeon einfach nur nicht die Leistung bie Q3A herbringt...

Oder liege ich jetzt irgendwo falsch?

P.S: die zahlen habe ich mir schnell einfallen lassen*g* (nur Beispiel)


Wo die Grenze zwischen CPU- und Grakalimitierung leigt hängt ab: vom jeweiligen Spiel, von der CPU und von der Graka.
Lässt sich also nicht generell beantworten.


Die Grenze findet man für ein System, indem man von hoihen AUflösungen ausgehend die Auflösung immer weiter senkt. Irgendwann kommt ein Punkt, wo dis fps bei Senken der Auflösung nicht mehr steigen. Dort ist dann CPU-limitierung erreicht.


http://www.anandtech.com/video/showdoc.html?i=1608&p=13

zeigt, dass Q3 bei Senken der Auflösung von 1024 auf 800 auf der Gf4ti4200 von 227fps auf 249fps steigt.
Für die ti4200 auf benutztem System ist Q3 also bei 1024 nicht CPU-limitiert.
Ein stärkere Graka kann also auch unter 1024 diese 249fps erreichen.

zeckensack
2002-07-19, 13:36:58
Erstens ist diese CPU-Limitierungs/Graka-Limitieruns-Diskussion hier extremst OT, zweitens wart ihr auch schonmal netter zueinander, drittens hier mein Senf dazu:

Das kann man anhand von Timedemos überhaupt nicht sagen!
Es gibt in Q3 Stellen, an denen die Füllrate/Bandbreite extrem wichtig ist. Blutnebel, Rauch, Schmorspuren an den Wänden.

Stellt euch doch spaßeshalber mal in q3dm1 kurz vor 'ne Wand, aktiviert den Zoom und feuert eine einzige Rakete drauf. Na?

Oder noch besser, mal kurz 50 Schuß Plasma auf die Wand gebraten.

Dann gibt's wieder Szenen, wo die Graka sich eher langweilt.

Da ein Timedemo zwischen diesen beiden Bedingungen mischt, kann man eigentlich überhaupt nichts sagen.

CPU/Graka-Limitierung lässt sich korrekt immer nur für ein einziges Bild auf einem einzigen System bestimmen. Wenn wir irgendwann soweit sind, daß alle Frames in einem Timedemo auf einem bestimmten System CPU-Limitiert sind, bitteschön. (Graka-Limitiert sinngemäß genauso).

Aber die Aussage "Q3 ist Graka-limitiert" ist für sich alleine einfach nichts wert. Dann mache ich eben ein paar Benchmarks auf einem P2-350 mit Geforce4Ti4600 bis hinauf in 1600x1200x32, um das zu 'widerlegen'.

Knarz
2002-07-19, 14:18:13
Mal 'ne Frage: Die 9700 soll ja nun offenbar nur eine TMU pro Pipeline haben. Ist denn diese 8x1 Anordnung bei heutigen Spielen von Vorteil gegenüber 4x2? Bei Spielen mit mehr als einer Texturschicht müste das doch aufs gleiche hinauslaufen. Die höheren fps der 9700 gegenüber Ti4600 stammen dann nur von der höheren Bandbreite (wenn man die effizientere AF-Methode außen vor lässt) und eventuell von den zusätzlichen Vertexshadern, oder? Naja, und ein wenig vom etwas höheren Takt.

Demirug
2002-07-19, 14:32:11
@Knarz:

8*1 hätte bei heutigen Spielen auch bei gleicher Taktrate vorteile.

1. Die Pixelfillrate ist doppelt so hoch. Das wirkt sich sehr positive auf Stencilops (z.B. Schatten) aus.

2. 8*1 skaliert viel besser. Die Texelfillrate ist unabhängig von der Texturanzahl sehr konstant. Einschränkung: Die sonstigen Randbedigungen müssen dafür natürlich stimmen.

Piffan
2002-07-19, 14:35:19
Originally posted by vogel

volumetrischer Nebel in UT == CPU bound

-- Daniel, Epic Games Inc.

Danke für die "Nachhilfe" :)

Ungläubig wie ich nun mal bin, hab ichs gleich getestet. - Es stimmt, belastet nur die CPU, nicht die Graka.... Kannst Du eigentlich laiengerecht erklären, was volumetrischer Nebel ist?
Der Rauch/DAmpf, der bei Na Pali mächtig an der Graka suckt, der ist auf Polygonbasis/Texturen, kann man manchmal leider deutlich erkennen.... Bei Jedi Knight sind die wabernden Bodennebel auch nur Texturen, suckt auch gewaltig an der Graka....

StefanV
2002-07-19, 14:46:26
Originally posted by ow
Na, um dir eine Gefallen zu tun. Das ist es doch was du willst.;)


Dann is ja gut :naughty:

Originally posted by ow
??? Was soll der denn (und vorallem wie) deferred rendern?
Und wie sollen IMRs das überhaupt tun? Die sind ja gar nicht auf DR ausgelegt.

AFR

Labberlippe
2002-07-19, 14:55:59
HI

Mein Gedankengang.

Nehmen wir mal eine typische Zeitschrift wie die Gamestar.
Die machen gerne Performance Vergleiche mit Ihren bunten Kästchen.

Beispiel.

800Mhz CPU Auflösung 800x600 - flüssig.
800 Mhz CPU Auflösung 1024x768 - leicht ruckelnd.

Graka ist jedesmal die gleiche z.B eine R8500.

So, wenn 800x600 flüssig ist, dann müste theoretisch auch die 1024x768 Auflösung flüssig sein.
Da laut einigen hier es ja egal ist welche Auflösung man fährt, da diese nur durch die Graka zustande kommt.
Denn dann wäre es egal welche Auflösung man fährt, da die CPU ja immer die gleichen Berechnung vornimmt.

Das glaube ich aber nicht.

Ich schätze das wenn man die Auflösung im Game ändert das auch die CPU angewiesen wird mehr Daten bereitszustellen.

Ergro kann man nicht 100% sagen was limitiert.
Es hängt auch sicher vom Game ab.

Würde nur die Auflösung von der Graka abhängen dann müste man auch wie bei den alten Games folgenden Effekt sehen.
Je höher die Auflösung desto kleiner wurden die Objekte b.z.w auch die Fernsicht.
Aufgefallen ist mir das bei Shadow of the Empire.

Bei den neuen Games passen die Abstände genau wie bei den niedriegen Auflösungen.
Dafür wirken die Objekte aber Detailreicher.
Ergo wird anscheinend auch die Polygonanzahl von den Games bei höheren Auflösungen erhöht und nicht nur die Detailgrade der Gegenstände b.z.w Anzahl der Gegenstände.
Hängt aber immer vom Game ab.

Worauf ich hinauswill.
Nur weil die niedrigere Auflösung schneller ist, heist das noch lange nicht das die CPU bei 1280x1024 nicht limitert, da diese ja bei höheren Auflösungen mehr Berechnung durchführt.

Was haltet Ihr von meiner Theorie? :D

Gruss Labberlippe

ow
2002-07-19, 15:00:36
Originally posted by Stefan Payne


AFR

???
Hat doch nix mit DR zu tun. Beide Chips rendern im IM.

Piffan
2002-07-19, 15:02:31
Originally posted by zeckensack
Erstens ist diese CPU-Limitierungs/Graka-Limitieruns-Diskussion hier extremst OT, zweitens wart ihr auch schonmal netter zueinander, drittens hier mein Senf dazu:

Das kann man anhand von Timedemos überhaupt nicht sagen!
Es gibt in Q3 Stellen, an denen die Füllrate/Bandbreite extrem wichtig ist. Blutnebel, Rauch, Schmorspuren an den Wänden.

Stellt euch doch spaßeshalber mal in q3dm1 kurz vor 'ne Wand, aktiviert den Zoom und feuert eine einzige Rakete drauf. Na?

Oder noch besser, mal kurz 50 Schuß Plasma auf die Wand gebraten.

Dann gibt's wieder Szenen, wo die Graka sich eher langweilt.

Da ein Timedemo zwischen diesen beiden Bedingungen mischt, kann man eigentlich überhaupt nichts sagen.

CPU/Graka-Limitierung lässt sich korrekt immer nur für ein einziges Bild auf einem einzigen System bestimmen. Wenn wir irgendwann soweit sind, daß alle Frames in einem Timedemo auf einem bestimmten System CPU-Limitiert sind, bitteschön. (Graka-Limitiert sinngemäß genauso).

Aber die Aussage "Q3 ist Graka-limitiert" ist für sich alleine einfach nichts wert. Dann mache ich eben ein paar Benchmarks auf einem P2-350 mit Geforce4Ti4600 bis hinauf in 1600x1200x32, um das zu 'widerlegen'.

Haargenau getroffen! Sage doch, dass die Diskussion Quatschkram ist. Man kann leider nicht in den Laden gehen und sagen: Ich will zu meinem Rechner ne möglichst schnelle Graka, damit ich alle Q3- Derivate problemlos zocken kann, weil die nämlich grakalimitiert sind.... Leider hakt es in bestimmten Situationen leider dann an anderer Stelle...

Wenn ich Q3 unbedingt so spielen will, dass die CPU an die Wand fährt, dann schmeiße ich ein Dutzend Bots in die Arena und fertig ;)

Bei Ut gibts Online- Maps, wo allein die Levelgrafik die Frames ins Stottern bringt (dabei gar nicht viel Geometrie, aber Texturen ohne Ende), da machen die Bots oder 23 Mitspieler den Kohl nicht mehr fett. Als UT rauskam, da fingen schon kleinere Maps durch zwei drei Bots mehr an zu ruckeln...Aber auch, wenn man sie gar nicht im Bild hatte, also wohl ein Fall von CPU - limitierung...

Die Frage, ob eine Graka noch reicht, hat mich schon vor Jahren auf die Palme gebracht. Der Test ist doch lächerlich leicht: Wenn die Frames/s in der Wunschauflösung nicht reichen u n d die Verringerung der Auflösung keinen Tempozuwachs bringt, dann wird eine neue Graka nur im Ausnahmefall helfen ( z.B. bei Hardware-TL- Einsatz in der Engine).....
Es ist immer wieder bemitleidendswert, wie Laien beim Pc- Games Forum fluchen, dass durch die tolle Gf4 Ti das Spiel X kein bisschen schneller geworden sei.... Sind dann solche Experten, die von einem Duron 900 mit einer GTS umgestiegen sind.....

Immerhin hat die Aufrüstung einen Vorteil dann doch noch: AF und FSAA for free ;)

Demirug
2002-07-19, 15:09:58
Originally posted by Labberlippe
So, wenn 800x600 flüssig ist, dann müste theoretisch auch die 1024x768 Auflösung flüssig sein.

Da laut einigen hier es ja egal ist welche Auflösung man fährt, da diese nur durch die Graka zustande kommt.
Denn dann wäre es egal welche Auflösung man fährt, da die CPU ja immer die gleichen Berechnung vornimmt.

Das glaube ich aber nicht.

Ich schätze das wenn man die Auflösung im Game ändert das auch die CPU angewiesen wird mehr Daten bereitszustellen.

Ergro kann man nicht 100% sagen was limitiert.
Es hängt auch sicher vom Game ab.

Würde nur die Auflösung von der Graka abhängen dann müste man auch wie bei den alten Games folgenden Effekt sehen.
Je höher die Auflösung desto kleiner wurden die Objekte b.z.w auch die Fernsicht.
Aufgefallen ist mir das bei Shadow of the Empire.

Bei den neuen Games passen die Abstände genau wie bei den niedriegen Auflösungen.
Dafür wirken die Objekte aber Detailreicher.
Ergo wird anscheinend auch die Polygonanzahl von den Games bei höheren Auflösungen erhöht und nicht nur die Detailgrade der Gegenstände b.z.w Anzahl der Gegenstände.
Hängt aber immer vom Game ab.

Worauf ich hinauswill.
Nur weil die niedrigere Auflösung schneller ist, heist das noch lange nicht das die CPU bei 1280x1024 nicht limitert, da diese ja bei höheren Auflösungen mehr Berechnung durchführt.

Was haltet Ihr von meiner Theorie? :D

Gruss Labberlippe

Solange beim ändern der Auflösung nicht auch größere Texturen benutzt werden ändert sich an der Daten Menge CPU nach GPU erst mal nichts.

Verfügt die Engine allerdings über ein Auflösungsadaptives Mesh-LOD erhöht sich mit steigender Auflösung auch die Datenmenge CPU GPU.

Piffan
2002-07-19, 15:13:27
Originally posted by Labberlippe
Was haltet Ihr von meiner Theorie? :D

Gruss Labberlippe

Einen Funken Sinn kann ich da durchaus erkennen. Es gibt sicher Rückkoppelungen von der Grafik auf die Physik, prominentes Beispiel ist die Geschichte bei Q3, dass gewisse Jumps nur mit einer Mindestzahl an FPS klappen... Habe ich zwar für starken Tobak gehalten, aber Haarmann hat mal im Forum von 3dconcept.ch einem Zweifler dermaßen das Maul geputzt, dass ich es wohl lieber glauben würde als zu widersprechen ;)

Mir ist mal aufgefallen, dass ich bei Q3 immer noch höhere Werte gebencht habe, als ich sogar auf 640x480 runtergegangen bin... irgendwie scheint da sowas wie ein Loadbalancing die Grenzen zu verwischen.....

Naja, und die Beobachtung, daß sich durch Verändern der Auflösung die Proportionen in der Geometrie ändern, höre ich das erste Mal... Aber wer weiß, man lernt ja nie aus ;)

Ach übrigens, ich habe die 1000 voll! Vielleicht sollte ich meinen Avatar "Labertasche" nennen....

Labberlippe
2002-07-19, 15:15:32
Originally posted by Demirug


Solange beim ändern der Auflösung nicht auch größere Texturen benutzt werden ändert sich an der Daten Menge CPU nach GPU erst mal nichts.

Verfügt die Engine allerdings über ein Auflösungsadaptives Mesh-LOD erhöht sich mit steigender Auflösung auch die Datenmenge CPU GPU.

Genau darauf wollte ich hinaus.
Wie die Programme dieses handhaben wissen wir nicht, also kann man auch nicht einfach stur behaupten das die CPU limitiert.
Ich glaube schon das die meisten Programme das Mesh-LOD Verfahren benutzen.
Wäre auch logisch, das man ein solches Verfahren verwendet da die Objekte dann bei höheren Auflösungen besser aussehen.
(Gerade bei den Kanten der Objekte, sollte man es sehen. Denke ich mal.)
Dann nur noch den Detailgrad für eventuelle Texturen und Gegenstände und ab geht die Post.

Gruss Labberlippe

Labberlippe
2002-07-19, 15:19:22
Originally posted by Piffan


Einen Funken Sinn kann ich da durchaus erkennen. Es gibt sicher Rückkoppelungen von der Grafik auf die Physik, prominentes Beispiel ist die Geschichte bei Q3, dass gewisse Jumps nur mit einer Mindestzahl an FPS klappen... Habe ich zwar für starken Tobak gehalten, aber Haarmann hat mal im Forum von 3dconcept.ch einem Zweifler dermaßen das Maul geputzt, dass ich es wohl lieber glauben würde als zu widersprechen ;)

Mir ist mal aufgefallen, dass ich bei Q3 immer noch höhere Werte gebencht habe, als ich sogar auf 640x480 runtergegangen bin... irgendwie scheint da sowas wie ein Loadbalancing die Grenzen zu verwischen.....

Naja, und die Beobachtung, daß sich durch Verändern der Auflösung die Proportionen in der Geometrie ändern, höre ich das erste Mal... Aber wer weiß, man lernt ja nie aus ;)

Ach übrigens, ich habe die 1000 voll! Vielleicht sollte ich meinen Avatar "Labertasche" nennen....

Nix da. Labberlippe ist einmalig. *eg*
Hehehe

Aber wieder zum Thema, bei alten Games ist mir dieses Aufgefallen, wie beim Windows Desktop.
Grösser Auflösung = mehr Platz.

Gruss Labberlippe

Demirug
2002-07-19, 15:21:28
Originally posted by Labberlippe


Ich glaube schon das die meisten Programme das Mesh-LOD Verfahren benutzen.
Wäre auch logisch, das man ein solches Verfahren verwendet da die Objekte dann bei höheren Auflösungen besser aussehen.
(Gerade bei den Kanten der Objekte, sollte man es sehen. Denke ich mal.)
Gruss Labberlippe

Logisch wäre das schon aber soweit mir bekannt wird das eher selten gemacht. Der Aufwand in der Art Pipeline ist derzeit dafür noch recht.

Labberlippe
2002-07-19, 15:24:54
Originally posted by Demirug


Logisch wäre das schon aber soweit mir bekannt wird das eher selten gemacht. Der Aufwand in der Art Pipeline ist derzeit dafür noch recht.

Also schätze ich mal das Ihr kein Mesh LOD Verfahren habe.
Was auch wiederum die 215% bei der R300 erklären würde.

Wie gesagt ist aber nur alles Theorie und teilweise meine Beobachtungen.

Gruss Labberlippe

Demirug
2002-07-19, 15:27:04
Originally posted by Labberlippe


Also schätze ich mal das Ihr kein Mesh LOD Verfahren habe.
Was auch wiederum die 215% bei der R300 erklären würde.

Wie gesagt ist aber nur alles Theorie und teilweise meine Beobachtungen.

Gruss Labberlippe

Ihr??? Ich glaube du verwechselt mich da gerade mit jemand anderes.

Piffan
2002-07-19, 15:29:31
[QUOTE][SIZE=1]Originally posted by Demirug


Habs gelöscht, war schiefgelaufen....

Piffan
2002-07-19, 15:30:51
Originally posted by Demirug


Logisch wäre das schon aber soweit mir bekannt wird das eher selten gemacht. Der Aufwand in der Art Pipeline ist derzeit dafür noch recht.

Das Problem ist, dass eine stufenlose Adaptierung nicht so ganz leicht ist (die Shiny- Engine bildet die einzige Ausnahme, sieht aber doof aus) Überhaupt bringen Automatismes nix, da ja keine neuen Details geschaffen, sondern nur Krümmungen runder werden. Die Programmierer haben schon genug damit zu tun, ein entfernungsabhängiges LOD zu schaffen, heißt nämlich alle Modelle ihn mehreren Versionen "vorzuhalten"...

Das neue Displacementmapping könnte dies theoretisch ändern, hier könnte die Geoetrie stufenlos "zoomen", also auch in Abhängigkeit von der Entfernung oder Auflösung die Geometrie komplexer werden....

Theoretisch gehört dem Displacemapping die Zukunft, wenn man einen Weg findet, die Kollisionsabfragen an die zoomende Geometrie anzupassen....

@Laberlippe: Labertasche ist nicht vergeben!

Labberlippe
2002-07-19, 15:34:10
Originally posted by Demirug


Ihr??? Ich glaube du verwechselt mich da gerade mit jemand anderes.

Ups Sorry.

Daniel Vogel ist bei Epic.

*schäm*

Gruss Labberlippe

Labberlippe
2002-07-19, 15:35:15
Originally posted by Piffan


Das Problem ist, dass eine stufenlose Adaptierung nicht so ganz leicht ist (die Shiny- Engine bildet die einzige Ausnahme, sieht aber doof aus) Überhaupt bringen Automatismes nix, da ja keine neuen Details geschaffen, sondern nur Krümmungen runder werden. Die Programmierer haben schon genug damit zu tun, ein entfernungsabhängiges LOD zu schaffen, heißt nämlich alle Modelle ihn mehreren Versionen "vorzuhalten"...

Das neue Displacementmapping könnte dies theoretisch ändern, hier könnte die Geoetrie stufenlos "zoomen", also auch in Abhängigkeit von der Entfernung oder Auflösung die Geometrie komplexer werden....

Theoretisch gehört dem Displacemapping die Zukunft, wenn man einen Weg findet, die Kollisionsabfragen an die zoomende Geometrie anzupassen....

@Laberlippe: Labertasche ist nicht vergeben!

Eh nicht. *ggg*

Wir könnten dann ja eine Labberkompanie gründen. :D

Gruss Labberlippe

Unregistered
2002-07-19, 15:37:49
Hallo Leute
ich lese gerade diesen Thread durch. Also, das mit CPU oder GPU abhängig ist doch nicht sooo kompliziert.

Man nehme einen beliebigen Benchmark und mache einen Test mit CPU auf X Mhz. Nun wiederholt man test mit CPU auf X+irgendwas (am besten über Multiplikator). Wenn der Testwert einigermassen gut skaliert, ist der Benchmark CPU (oder Ram-Bandbreite) limitiert, wenn nicht ist er GPU limitiert.
Schöne Test's hier
http://www.anandtech.com/video/showdoc.html?i=1608&p=14

Natürlich gibt's da feine Variationen.
IMO generell je höher die Auflösung/Details/AA/AF desto eher ist der Benchmark GPU limitiert.
Im Highend interessieren doch nur noch diese Eigenschaften. Ich persönlich warte schon lange auf Spielbarkeit bei 1280x1024 oder höher mit AA/FA. Für mich ist die Karte deshalb 2.5-3 mal schneller als TI4600. ENDLICH

Gruss

Neunmalklug

Demirug
2002-07-19, 15:39:05
@Piffan:

Auflösungsadaptives Mesh-LOD ist eine Speziele Variante des entfernungsabhängiges LOD.

Einfach nur hochrechnen ist natürlich nicht unbedingt Sinn und Zweg. Es geht eher darum von besten Model runterzurechnen.

DM ist schöne Sache leider auch noch in der ArtPipeline etwas problematisch da es noch keine Tools dafür gibt. Die Kollisionsabfragen it dabei weniger ein Problem da für die Grafik und Physik schon länger getrennte Datensätze benutzt werden. Das Verfahren dafür wäre dem Highmap verfahren nicht unähnlich und deshalb kein so großes Problem.

PS: Wenn diese Diskussion noch weitergeführt werden soll sollten wir uns in den Technologiebreich verziehen da wir hier doch eher OT sind.

Piffan
2002-07-19, 15:53:28
Originally posted by Demirug
@Piffan:

.

PS: Wenn diese Diskussion noch weitergeführt werden soll sollten wir uns in den Technologiebreich verziehen da wir hier doch eher OT sind.

Wieso dass denn ??? Ich dachte, der R300 kann DM ( Juhu, die DM lebt weiter :D )

Hast recht, ziemlich off topic......;)

Als Laie ziehe ich die Laberthreads vor....also bitte nicht umziehen

ow
2002-07-19, 17:50:06
Originally posted by Unregistered
Ich persönlich warte schon lange auf Spielbarkeit bei 1280x1024 oder höher mit AA/FA. Für mich ist die Karte deshalb 2.5-3 mal schneller als TI4600. ENDLICH

Gruss

Neunmalklug

???

Ich kann keine Benches entdecken, die für 2.5-3 mal höhere Leistung der R300 sprechen.

HiddenGhost
2002-07-19, 17:59:51
Originally posted by Demirug
@Piffan:

Auflösungsadaptives Mesh-LOD ist eine Speziele Variante des entfernungsabhängiges LOD.

Einfach nur hochrechnen ist natürlich nicht unbedingt Sinn und Zweg. Es geht eher darum von besten Model runterzurechnen.

DM ist schöne Sache leider auch noch in der ArtPipeline etwas problematisch da es noch keine Tools dafür gibt. Die Kollisionsabfragen it dabei weniger ein Problem da für die Grafik und Physik schon länger getrennte Datensätze benutzt werden. Das Verfahren dafür wäre dem Highmap verfahren nicht unähnlich und deshalb kein so großes Problem.

PS: Wenn diese Diskussion noch weitergeführt werden soll sollten wir uns in den Technologiebreich verziehen da wir hier doch eher OT sind.

Kannst du das Mesh-LOD mal etwas Laienverständlicher erläutern... z.B. kann ich mir unter Aufläsungsadativ nix vorstellen !!! Was einLOD ist weis ich, was spielt da aber die AUflösung für eine Rolle ???
Ändern sich mit höhehrerer AUflösung die Stufen wo das LOD eingesetzt wird , verschieben die sich weiter nach hinten ???

Zakzak
2002-07-19, 18:00:04
Warted doch mal bis Sebtemper dann seht ihr wo eure liebe Radeon9700 ist

September = NV30 Chip Massenproduktion

aths
2002-07-19, 18:10:18
Originally posted by Zakzak
September = NV30 Chip Massenproduktion Woher weisst du das?

Simon Moon
2002-07-19, 18:13:06
Originally posted by Zakzak
Warted doch mal bis Sebtemper dann seht ihr wo eure liebe Radeon9700 ist

September = NV30 Chip Massenproduktion

Imgo kann man nun genauso gut argumentieren:
Warted doch mal bis Vepruar (sorry für den Kalauer) dann seht ihr wo euer lieber NV30 ist

Februar = R300 Refresh Chip Massenproduktion

Sorry, aber momentan sinds mal so aus, das die R300 die schnellste Karte sein wird. Ob der NV30 schneller oder nicht ist, ist einfach nur Kaffeesatzleserei und damit uninteressant.

aths
2002-07-19, 18:14:06
Originally posted by ow
Ich kann keine Benches entdecken, die für 2.5-3 mal höhere Leistung der R300 sprechen. Scheint "nur" für 4x Anti-Aliasing zu gelten. Legt man nV-Maßstäbe an, müsste es ausreichen dass die neue Karte mit 2x AA schneller ist als die alte ohne AA.

Demirug
2002-07-19, 18:14:31
@HiddenGhost:

Stell dir um jedes Objekt eine Kugel vor die es komplett umschliest. Bevor nun ein Objekt gerendert wird rechnet man aus wie viele Pixel die Kugel in der Höhe und Breite auf dem Bildschirm einnehmen würde. Aus diesen beiden werten bestimmt man dann die LOD-Stuffe die man benutzt. Diese Verfahren führt dazu das je höher die Auflösung ist desto früher wird auf eine höhrer LOD-Stuffe gewählt wenn ich mich dem Object nähere. Mann kann natürlich auch noch die Art des FSAA mit berücksichtigen.

ow
2002-07-19, 18:22:36
Originally posted by aths
Scheint "nur" für 4x Anti-Aliasing zu gelten.


Die Frage ist doch, ob die frameraten noch spielbar sind.

Der UPT AA-Test auf Anand zeigt zwar 2,5-fache Leistung der R9700, aber:


At 1600x1200 with 4X AA enabled, the Radeon 9700 is 2.51x faster than the GeForce4 Ti 4600. While the frame rates are high enough to be playable, even the almighty Radeon 9700 would need to back down to 1280x1024 with 4X AA enabled to be smooth as silk.



Witzigerweise lese ich hier in vielen Posts hier immer nur:
Die R9700 ist 2,5mal schneller als die GF4. :lol: sag ich da nur.
:D

btw. damit ist wohl auch klar, warum ATi keine absoluten Zahlen der Benches sehen wollte.

Unregistered
2002-07-19, 18:25:12
@ow

hier, 2.5fache Performance
http://www.anandtech.com/video/showdoc.html?i=1656&p=23

Auch der Bericht auf Hardocp deutet darauf hin. Chip.de spricht von bis zu 3facher Performance mit AA+AF.

HiddenGhost
2002-07-19, 18:31:29
Aberwann ist ein Spiel subjecktiv so smooth wie Seide ???
Das minimum liegt IMO ja bei 40 FPS (subjecktiv, wahrnehmung des Auges da der TV Blureffekt fehlt... etc. ), heißt das, das weniger als das sein könnte ???
Wo setzt man so eine Bewertung an ???

Unregistered
2002-07-19, 18:37:51
Ich denke mal, die Leute bei Hardocp sprechen da eher von 55-60 Frames, IMO fängt da smooth wie Seide an :). Wichtig ist, das es keine Situationen gibt, wo das ganze plötzlich auf <30 Frames fällt.

ow
2002-07-19, 18:40:08
Originally posted by Unregistered
@ow

hier, 2.5fache Performance
http://www.anandtech.com/video/showdoc.html?i=1656&p=23

Auch der Bericht auf Hardocp deutet darauf hin. Chip.de spricht von bis zu 3facher Performance mit AA+AF.

???

Genau DEN Anandtech Test (UPT mit AA in 1600x1200x32) hab ich doch oben zitiert.

Was genau der R9700 leistet, wird sich erst zeigen, wenn er auf dem Markt ist und unabhängige Benches existieren.


3x die Leistung einer GF4 nützt nix, wenn´s sich dabei zB. um 5 zu 15fps handelt.

Unregistered
2002-07-19, 18:41:06
@ow
Das mit den "keine absoluten Zahlen" ist doch nur ein Gag ! Anand weisst darauf hin, das man die absoluten Zahlen mittels seines (gelinkten) CPU-Shootouts "ausrechnen" kann.

MadManniMan
2002-07-19, 18:48:35
ow, daß in 1024 und ohne alles auch die r300 nichts wirklich revolutionäres leistet, ist doch sonnenklar. allerdings sollten evolutionäre 20-40% in gängigen auflösungen schon mehr als deutlich richtungsweisend sein.

was du allerdings nicht berücksichtigst, ist daß wer sich denn nun eine solche karte kauft deren vorteile auch ausnutzen möchte, i.e. das aa und af bis zum anschlag treibt und sich über spürbare verschönerungen auch in top-titeln ohne großartige kompromisse bei der performance gönnt. und wenn das der r300 mal in nem spiel nich mehr bringt, dann hat die ti4600 sowieso keinen stich mehr... du verstehst?

der gf3 wurde einst im allgemeinen performancemäßig viel zu sehr unterbewertet, auch ich war unter diesen zweiflern. daß ich diesmal nicht zweifle, liegt nicht daran, daß es ati und nicht nv ist - gott bewahre! - sondern weil einem die erfahrung einiges gelehrt hat.

ow
2002-07-19, 19:01:17
Originally posted by Unregistered
@ow
Das mit den "keine absoluten Zahlen" ist doch nur ein Gag ! Anand weisst darauf hin, das man die absoluten Zahlen mittels seines (gelinkten) CPU-Shootouts "ausrechnen" kann.


Nur wer wird das tun?

Sein Ziel hat ATi doch erreicht: überall heisst es, die R9700 ist 2,5 mal schneller als eine GF4.
Nirgends lese ich, die Radeon mach xxx fps und die GF4 nur xx fps. (Hab die Zahlen jetzt nicht ausgerechnet.:D)

StefanV
2002-07-19, 19:22:44
Originally posted by Zakzak
Warted doch mal bis Sebtemper dann seht ihr wo eure liebe Radeon9700 ist

September = NV30 Chip Massenproduktion

Du weißt sicher, daß ein Chip idR (mindestens) 12 Wochen braucht, bis aus einem Stück Silizium ein funzender Chip geworden ist, oder??

Wenn der NV30 im September in Produktion geht, dann gibt es NV30 Karten nicht vor Januar *eg*

StefanV
2002-07-19, 19:25:56
Originally posted by ow
???
Hat doch nix mit DR zu tun. Beide Chips rendern im IM.

Dann durchsuch mal das Forum :D

Gab hier mal 'ne Diskussion, wie AFR funzt...

ow
2002-07-19, 19:40:19
Originally posted by Unregistered
@ow
Das mit den "keine absoluten Zahlen" ist doch nur ein Gag ! Anand weisst darauf hin, das man die absoluten Zahlen mittels seines (gelinkten) CPU-Shootouts "ausrechnen" kann.


Um nochmals darauf zurückzukommen:

ich habe bei Anand keine UPT-Benches in 1600x1200 mit 4xAA gefunden, nur welche ohne AA (soweit ich das richtig sehe)

http://www.anandtech.com/video/showdoc.html?i=1647&p=10


Wenn ich da jetzt mal 4xAA 'reinrechne' (oder besser reinschätze:D), bleiben vielleicht noch 20fps für die GF4ti4600 übrig.
Da bringt´s auch die 2,5-fache Leistung einer Radeon9700 nicht, um das wirklich flüssig ("smooth as silk") zu spielen (s. oben Zitat Anand).

ow
2002-07-19, 19:43:16
Originally posted by Stefan Payne


Dann durchsuch mal das Forum :D

Gab hier mal 'ne Diskussion, wie AFR funzt...


Bin zu faul zum Suchen.
Erklär mir was du weisst oder lass es sein.

Unregistered
2002-07-19, 19:45:36
Im Artikel von Overclockers.com Boredom Over Whoredom (http://www.overclockers.com/tips061/) heißt es sarkastisch, die ganzen (p)reviewer hätten sich für ATi "prostituiert".
OC meint u. a., die Überlegenheit von ATi bei 16x12 sei für fast alle Nutzer irrelevant. Wozu soll man für die Geschwindigkeitsvorteile einer ATi schwärmen, wenn diese Vorteile eine Auflösung voraussetzen, die in den nächsten Jahren sowieso so gut wie gar nicht benutzt wird.

Also wenn die R300 mit 6xAA und 16xAF bei 10x7x32 schneller ist als eine GF4 bei gleicher Auflösung ohne AA / AF, dann hat sie eine Existenzberechtigung, wenigstens solange, bis die NV30 ausgeliefert wird.
Hercules hat die Prophet 9000 für August und die Prophet 9700 für September angekündigt, d.h. vielleicht schon im Oktober wird es erste R300er zu kaufen geben. NV30 kommt aber spätestens im November.

Simon Moon
2002-07-19, 19:48:40
Originally posted by ow



Nur wer wird das tun?

Sein Ziel hat ATi doch erreicht: überall heisst es, die R9700 ist 2,5 mal schneller als eine GF4.
Nirgends lese ich, die Radeon mach xxx fps und die GF4 nur xx fps. (Hab die Zahlen jetzt nicht ausgerechnet.:D)

Jupp, durchaus etwas fies von ATi... Naja, ein schritt zum Erfolg und ein Schritt in meiner Missgunst...
Alerdings kann man ATi nicht direkt diesen Vorsatz unterstellen, sie können dies durchaus auch gemachthaben, dass man mal ne ungefähre Leistungsvorstellung hat...

zeckensack
2002-07-19, 19:51:10
Also, ich seh das so:
Geforce3 und R200 sind Chips für hohe Auflösungen ohne Kompromisse (1280x und aufwärts). Hohe Auflösung und AA kann man auf beiden wohl vergessen. AF nutze ich auf meiner Radeon nicht, dies sei Geforce3-Besitzern aber herzlich gekönnt.

Die Geforce4Ti ist ein Chip für AA+AF (in 1024x768, Ti4600 wohl auch mehr) ohne Kompromisse. Dies ist IMO die einzige Existenzberechtigung für diesen Chip! Wer eine dermaßene Schleuder an einem typischen 17-Zöller in typischer Auflösung zwischen 1024x und 1280x betreibt, ohne sich für AA und/oder AF zu interessieren, der hat mit Verlaub die falsche Karte gekauft.

Und R300? Wenn man Geforce4Ti als speedmäßig sinnvolle Karte ansieht, dann ist auch R300 legitim. Nach obiger Formel:
Extreme Auflösungen und AA+AF ohne Kompromisse.

Was interessieren mich R300-Benchmarks in 1024x768x32 ohne AA+AF? Wenn der (momentane) direkte Konkurrent (Gf4Ti) sich für diesen Anwendungsfall schon nicht mehr 'lohnt', warum sollte es dann der R300? Nur weil der Sieg dann weniger drastisch ausfallen würde?

Wenn die Karte mein Monitorlimit (1280x960) mit 4xAA+16x(tri-)AF in zufriedenstellenden Frameraten (für mich: Minimum 100 in Q3) schafft, dann würde ich das auch nicht mehr abschalten. Schon garnicht, um auf die Geforce4 Rücksicht zu nehmen.

Simon Moon
2002-07-19, 19:52:50
Originally posted by Unregistered
Im Artikel von Overclockers.com Boredom Over Whoredom (http://www.overclockers.com/tips061/) heißt es sarkastisch, die ganzen (p)reviewer hätten sich für ATi "prostituiert".
OC meint u. a., die Überlegenheit von ATi bei 16x12 sei für fast alle Nutzer irrelevant. Wozu soll man für die Geschwindigkeitsvorteile einer ATi schwärmen, wenn diese Vorteile eine Auflösung voraussetzen, die in den nächsten Jahren sowieso so gut wie gar nicht benutzt wird.


Schwachsinn *LOL* man benutzt eben diese Auflösungen gerade eben darum so selten, weil sie langsam laufen. Wär hätte denn als Q1 rauskam daran gedacht das man irgend wann mal 1024*768 als Standart benutzt. Als dann die V1 rauskam, staunte man über 640*480... ;)

Unregistered
2002-07-19, 19:59:47
@unregistered :)

Mensch, was ist denn das für Lowtech Quatsch. Das mag sein, das eine grosse Masse von Usern noch mit 17" 0.27 Lochmasken Monitoren zockt (die armen). Die werden sich auch keine TI4600 oder Radeon9700 zulegen. Völlig sinnlos.
Highend ist, wenn es sich nur eine gewisse Anzahl von Leuten leisten wollen/können.
Diese Tiefstapelei (ich weiss gar nicht, wie man das nennen soll) nervt manchmal schon. Immer schneller, das wollen wir doch alle, oder ?
Also, ich hab hier nen einigermassen guten 19" Moni der auf 16x12 läuft und kenne viele Kollegen mit noch grösseren Monitoren und Auflösungen. Die Grafikkarten können gar nicht schnell genug sein. 16x12 oder 12x10 mit AA/AF sieht einfach geil aus. 10x7 ist pippifatz, sorry. Das ist wie einlagiges Klopapier hehehe


@ow
da hast du leider recht, hab auch keinen AA Test gefunden. Aber die Karte wird bestimmt schnell :)

Salvee
2002-07-19, 20:00:21
Habe noch nie einen so besch... Artikel gelesen wie bei OC.com
Dagegen sind ja die nV-Papers zum Kyro der Heilige Gral der Objektivität.

ow
2002-07-19, 20:06:34
Originally posted by El-Diablo


Schwachsinn *LOL* man benutzt eben diese Auflösungen gerade eben darum so selten, weil sie langsam laufen. Wär hätte denn als Q1 rauskam daran gedacht das man irgend wann mal 1024*768 als Standart benutzt. Als dann die V1 rauskam, staunte man über 640*480... ;)


Was soll daran Schwachsinn sein? IMO hat Unreg völlig recht.

Es dürften wohl kaum mehr als geschätzte 20% der User einen Monitor haben, der 1600x1200 angemessen darstellen kann.

TFTs mit dieser Auflösung sind ebenfalls selten und noch sehr teuer.

Als Standard-Auflösung kann man IMO 1280x1024 betrachten und was die Karten dort leisten ist interessanter als 20 oder 50 fps, die eine GF4 oder R9700 in 1600x1200 noch leisten.

HiddenGhost
2002-07-19, 20:06:39
Originally posted by ow



Um nochmals darauf zurückzukommen:

ich habe bei Anand keine UPT-Benches in 1600x1200 mit 4xAA gefunden, nur welche ohne AA (soweit ich das richtig sehe)

http://www.anandtech.com/video/showdoc.html?i=1647&p=10


Wenn ich da jetzt mal 4xAA 'reinrechne' (oder besser reinschätze:D), bleiben vielleicht noch 20fps für die GF4ti4600 übrig.
Da bringt´s auch die 2,5-fache Leistung einer Radeon9700 nicht, um das wirklich flüssig ("smooth as silk") zu spielen (s. oben Zitat Anand).

+- 50 FPS mit FSAA für die Radeon reichen Q3 vieleicht nicht um effektiv zu spielen, selbst wenn ATI diese stabil gewährleisten kann, in allen neueren Spielen wedens wohl noch ein paar weniger sein (JK2, DS,etc.) ,aber in allen Spielen die "etwas" gemächlicher sind wärs der Hammer !!!

Was ich mich eigentlich interessiert ,ist ob das mit AF oder ohne ist... das hab ich nirgends rausgefunden...

Bringt 4x FSAA es eigentlich noch in 1600x1200 , gibt es denn starke verbesserungen gegenüber 1280x960(/1024), interessant fänd ich das schon !!!

[dzp]Viper
2002-07-19, 20:15:01
genau lesen
die bench waren mit
4fach aa und 16 x af ....
=)
und auch in der 1600 auflösung bringt 4 fach aa noch was - wenn auch nicht so viel ......
1280x1024 is wohl die beste auflösung für 4 fach aa =)

ow
2002-07-19, 20:17:02
Originally posted by Salvee
Habe noch nie einen so besch... Artikel gelesen wie bei OC.com
Dagegen sind ja die nV-Papers zum Kyro der Heilige Gral der Objektivität.


Ich finde den Artikel recht gut.
Er bestätigt einige meiner Vermutungen (zB. bzgl. des Fehlens absoluter Zahlen).

Findet es niemand interessant, das ATi sich noch nicht auf die Taktraten der final Boards festlegen will?

ow
2002-07-19, 20:19:00
Originally posted by [dzp]Viper
genau lesen
die bench waren mit
4fach aa und 16 x af ....



welche Benches?

zeckensack
2002-07-19, 20:20:24
Originally posted by HiddenGhost
Bringt 4x FSAA es eigentlich noch in 1600x1200 , gibt es denn starke verbesserungen gegenüber 1280x960(/1024), interessant fänd ich das schon !!! Das kommt auf deinen Monitor an :)

Auf meinem 17er stören mich die Treppchen in 1280x960 fast garnicht mehr, sehen kann ich sie aber noch. In 800x600 ist's grausig. 1600x1200 schaffe ich nicht mehr, sollte aber theoretisch ganz ansehnlich sein, weil extrem fein aufgelöst. Mein Moni kann's halt nur nicht :D

Ein 21er hat nun in beide Richtungen 24% mehr Platz, also braucht man auch 24% mehr Auflösung, damit die Pixel die gleiche Größe haben, und dadurch die gleiche Treppchenstärke (TM) entsteht.

ZB wäre meine Graus-Grenze bei ca 1000x750, angenehm bei 1600x1200, jenseits von gut und böse (voraussichtlich) bei 2048x1536.

HiddenGhost
2002-07-19, 20:22:48
Originally posted by ow



Ich finde den Artikel recht gut.
Er bestätigt einige meiner Vermutungen (zB. bzgl. des Fehlens absoluter Zahlen).

Findet es niemand interessant, das ATi sich noch nicht auf die Taktraten der final Boards festlegen will?

Gib deine Verschwörungstheorie schon bekannt ;) *g*

Birdman
2002-07-19, 20:28:45
Originally posted by [dzp]Viper
genau lesen
die bench waren mit
4fach aa und 16 x af ....
=)

Nur steht nirgends ob diese 16x AF mit dem "ui ich bin aber ein ganz hässlicher (TM von ATi) Filter" oder dem konkurenzfähigen trilinear und rotationfixed AF entstanden sind.

@OW, ich weiss gar nicht wieso du immer über die 2.5x so schnell herziehst.
eine ti4600 ist auch nur 2-3x schneller als ne ati8500 in auflösungen wo man aufgrund der langsamkeit nimmer spielen kann. (5-15fps)
Aber was macht das denn aus, mit der r300 kann man vielleicht ned in 1600x1200 mit allen optionen ON spielen, aber zumindest in 1280x1024.
sowas schafft ne ti4600 mal knapp in 800x600 und selbst da isses rucklig.

Simon Moon
2002-07-19, 20:38:17
Originally posted by ow



Was soll daran Schwachsinn sein? IMO hat Unreg völlig recht.

Es dürften wohl kaum mehr als geschätzte 20% der User einen Monitor haben, der 1600x1200 angemessen darstellen kann.

TFTs mit dieser Auflösung sind ebenfalls selten und noch sehr teuer.

Als Standard-Auflösung kann man IMO 1280x1024 betrachten und was die Karten dort leisten ist interessanter als 20 oder 50 fps, die eine GF4 oder R9700 in 1600x1200 noch leisten.

Und wie oben geschrieben: Denkst du jemand mit nem 15" Monitor wird sich ne R9700 kaufen? Nö, der wird sich allerhöchstens ne R9000Pro kaufen. Auf jedenfall versteh ich nicht wieso es beinahe als mies dargestellt wird, das eine Karte sogar 1600*1200*32 + 6xFSaa + 16xAF bei Q3 flüssig darstellen kann. Ist doch gut. Und wenn man auf 1280*1024 zockt ist es sowieso wurst ob sie nun 300 oder 800fps hat.

KA, aber irgendwie tönt es nach Neid, wenn sowas nun 'kritisiert' wird.

Demirug
2002-07-19, 20:40:27
Originally posted by HiddenGhost


Gib deine Verschwörungstheorie schon bekannt ;) *g*



Ich glaube worauf ow raus will ist das ATi wohl selbst noch nicht so genau weis bei welcher Taktrate genügend Chips überleben damit sich die Sache noch lohnt. Die Tatsache das nur sehr wenige eine Karte bekommen haben läst eben den Verdacht aufkommen das man nicht viele Chips mit dieser Taktrate zur verfügung hat.

ow
2002-07-19, 20:42:08
Originally posted by HiddenGhost


Gib deine Verschwörungstheorie schon bekannt ;) *g*

ok *g* (ist aber keine richtig komplette Theorie, vielleicht denk ich mir noch was aus;))


ATi liefert ein ausgesuchtes Testexemplar mit Takten, die über der späteren Serie liegen.
Um nun später nicht auf bereits gemessene fps-Zahlen festgenagelt zu werden ("ey, in den Test bei xxx hat die R300 aber viel mehr fps gebracht als meine radeon9700") bestehen sie darauf, dass nur prozentuale Unterschiede veröffentlich werden.
Und natürlich auf Tests unter extremen Settings.
Dass die Limits der R9700 höher als die der GF4 liegen ist klar.
Nun wird aber kaum ein Gamer seine Graka je an ihrem Limit Treiber, denn Limit heisst: sehr niedrige fps (hier sind dann wieder die prozentualen Werte viel schöner als absolute).


Sein Ziel hat ATi erreicht: überall hört man, die R9700 ist 2.5-3x schneller als die GF4ti. Gut gemacht ATi!

Nicht das ich das verteufeln würde, das machen alle Firmen so. Ich bewerte sowas nicht, ich stelle es nur fest.

btw. kann ich mir dadurch vielleicht auch erklären, warum einige Websites den Ruf haben "pro" oder "anti" bestimmte Hersteller eingestellt zu sein.
Ist IMO meistens Unsinn. Diese Sites liefern für jeden Hersteller das Review, das dieser wünscht.
Der Reviewer sind halt leicht von den Hersteller "erpressbar". Es gibt genügend Sites, die als Ersatz für 'ungehorsame' Reviewer einspringen würden/könnten.

Ich hab´s schonmal irgnedwo geschrieben und wiederhole es nochmal: was der R9700 in der Praxis leistet wird man sehen, wenn´s ihn zu kaufen gibt.

ow
2002-07-19, 20:46:55
Originally posted by Birdman


@OW, ich weiss gar nicht wieso du immer über die 2.5x so schnell herziehst.



Ganz einfach. Weil es überall pauschal heisst, die R9700 wäre 2.5x schneller als die GF4.

Das kann man aber nicht so sagen. Die 2.5x dürfte IMO den oberen Grenzwert darstellen.

Wenn man schriebe: die R9700 ist allerhöchstens 2.5x schneller als die Gf4, dann ist die Aussge auch pauschal richtig.

ow
2002-07-19, 20:52:42
Originally posted by El-Diablo


Und wie oben geschrieben: Denkst du jemand mit nem 15" Monitor wird sich ne R9700 kaufen? Nö, der wird sich allerhöchstens ne R9000Pro kaufen.



Wer wird denn gleich von 15" reden. Auch 17" und 19" sind normal nicht für mehr als 1280x1024 zu gebrauchen.
Und grössere Monitore sind schon selten IMO.


Auf jedenfall versteh ich nicht wieso es beinahe als mies dargestellt wird, das eine Karte sogar 1600*1200*32 + 6xFSaa + 16xAF bei Q3 flüssig darstellen kann. Ist doch gut. Und wenn man auf 1280*1024 zockt ist es sowieso wurst ob sie nun 300 oder 800fps hat.

KA, aber irgendwie tönt es nach Neid, wenn sowas nun 'kritisiert' wird.


Wer stellt die Leistung der R9700 als mies dar?
Die Leistung ist schon beeindruckend, nur nicht immer praxis-relevant ("Und wenn man auf 1280*1024 zockt ist es sowieso wurst ob sie nun 300 oder 800fps hat").
Darauf darf man ruhig hinweisen. Mit Neid hat das IMO nichts zu tun.

HiddenGhost
2002-07-19, 20:55:15
Originally posted by HiddenGhost
Gib deine Verschwörungstheorie schon bekannt ;) *g*

Nagut dann sag ich was ich denke... die testen vieleicht noch, welche taktrate den besten yield/leistungs quotienten hat !!!

ow
2002-07-19, 21:08:10
Originally posted by HiddenGhost


Nagut dann sag ich was ich denke... die testen vieleicht noch, welche taktrate den besten yield/leistungs quotienten hat !!!


Möglich.

Matrox zB. wusste das aber schon beim Parhelia-Launch.
Die Review Boards hatten AFAIK die final Takte der Retail.
Kleiner aber feiner Unterschied. Der Kunde weiss immer gerne, woran er denn ist.:D

Mein Tip: 300MHz die 'built by Ati' und 275MHz und weniger die 'LEs'.

Ich lass mich aber gerne positiv überraschen, wenn die Takte höher liegen sollten.

Birdman
2002-07-19, 21:13:46
Graka/CPU Limitierung bei Q3? Hier kommt (m)ein Nachtrag:
----------------------------------------------------------

Auflösung | Sound | NoSOund
----------------------------
512x384 | 208.9 | 280.8
640x480 | 211.5 | 285.8
800x600 | 207.9 | 275.9
1024x768 | 202.6 | 250.2
1152x864 | 192.5 | 222.7
1280x1024 | 172.7 | 186.0
1600x1200 | 134.5 | 137.6

So, nun kann sich jeder selbst ein Bild machen, ab wann auf einem P4 2.26Ghz @2.38Ghz + ti6400 @280/660Mhz eine CPU bzw. Gfx Limitierung auftritt.
Die erste auflösung bei der eine schnellere Grafikkarte was bringen würde ist 1280x1024, darunter ist die CPU ne bremse, d.h. bis dahin iss Q3 auf dem Sys CPU limitiert....soviel also zu:
Postet by OW
Bei 1024 ist Q3 nicht CPU-limitiert (nicht annähernd, wie man an den unterschiedlich getakteten GF-Versionen sieht) also ist es grafiklimitiert.

Simon Moon
2002-07-19, 21:14:51
Originally posted by ow


Wer wird denn gleich von 15" reden. Auch 17" und 19" sind normal nicht für mehr als 1280x1024 zu gebrauchen.
Und grössere Monitore sind schon selten IMO.

Also 1600*1200 ist auf meinem 19" mit immerhin 75hz möglich, ich gab nur grad 350€ (bzw. 510Fr. ) aus für meinen Monitor. Rechnet man, das die meisten eher mehr für einen solchen ausgeben, ist das also meist mit 85 - 100hz möglich. Also nicht ungeeignet. Ich denke nur, wer sich ne R9700 kauft, wird sich diese sicher nicht kaufen, wenn er sie dann auch nicht ausnutzt. (ok, gibts auch, aber das sind meist irgendwelche Trottel bzw. naive Menschen die an Zukunftssicherheit glauben)



Wer stellt die Leistung der R9700 als mies dar?
Die Leistung ist schon beeindruckend, nur nicht immer praxis-relevant ("Und wenn man auf 1280*1024 zockt ist es sowieso wurst ob sie nun 300 oder 800fps hat").
Darauf darf man ruhig hinweisen. Mit Neid hat das IMO nichts zu tun.

So meinte ich das nicht. Die R9700 wird in der Regel scheinbar von der CPU nicht wirklich ausgenutzt (sonst würde AF und FSAA wohl schon zu nem Einbruch führen). Ich vermute mal, mit nem 3Ghz (nurn Beispiel) Prozessor wär würde sie auch noch skalieren.
Und die Praxisrelevanz einer High End Karte kann man so sowieso in Frage stellen. hmm... ich such gradn bsp. Ok, nemen wir mal die GF4600. Wenn jemand nur in 640*480 spielt, ist die auch sinnlos, da ist man mit einer Ti200 (wenn man denn schon DX8 haben will) besser aufgehoben. Ist etwa ähnlich (natürlich nicht so extrem) bei der R9700 zur Gf4600.

Im endeffekt muss ja jeder selbst für sich entscheiden ob er nun ein System hat, das die R9700 auch ausnutzt oder ob ihm sonst was auch schon reicht.

zeckensack
2002-07-19, 21:16:29
Originally posted by ow
Wenn man schriebe: die R9700 ist allerhöchstens 2.5x schneller als die Gf4, dann ist die Aussge auch pauschal richtig. Hmmm ... 'bis zu' klingt aber irgendwie richtiger, meinst du nicht? ;)

Simon Moon
2002-07-19, 21:17:10
Originally posted by ow



Möglich.

Matrox zB. wusste das aber schon beim Parhelia-Launch.
Die Review Boards hatten AFAIK die final Takte der Retail.
Kleiner aber feiner Unterschied. Der Kunde weiss immer gerne, woran er denn ist.:D

Mein Tip: 300MHz die 'built by Ati' und 275MHz und weniger die 'LEs'.

Ich lass mich aber gerne positiv überraschen, wenn die Takte höher liegen sollten.

Meiner Meinung wohl die realistischste Vermutung in diesem Thread :D .

AlfredENeumann
2002-07-19, 21:24:28
Originally posted by Demirug




Ich glaube worauf ow raus will ist das ATi wohl selbst noch nicht so genau weis bei welcher Taktrate genügend Chips überleben damit sich die Sache noch lohnt. Die Tatsache das nur sehr wenige eine Karte bekommen haben läst eben den Verdacht aufkommen das man nicht viele Chips mit dieser Taktrate zur verfügung hat.



Es hat noch kein Reviewer ne Karte bekommen.
bzgl. der Taktrate hab ich da was von 315MHz leuten hören.

Quasar
2002-07-19, 21:26:32
Originally posted by nggalai
Ja.
Wer sagt dir, dass der Treiber nicht wie bei anderen Grafikkarten zuvor die FSAA-Stufe bei der Auflösung runterschraubt?
ta,
-Sascha.rb
P.S. (!)

(!) ;)

Ich glaube nicht, daß das der Fall ist. Wenn man sich das Eckdatenbildchen von Chip ansieht, und davon ausgeht, daß es korrekt ist, verfügt die R300 über die Hardware, um 6xMultisampling komplett in HW ablaufen zu lassen (GF4 dagegen nur bis 4x). Demnach sollte es keinen Grund geben, das FSAA zurückzuschalten, solange genug Platz für den Frame- und die Multisample-Buffer im lokalen RAM ist. Und das gerade Q3 mit diesen Setting gebencht wurde, wundert mich ehrlich gesagt auch nicht, da es von den modernen Benches noch am wenigsten Platz für Texturen benötigt, der bei diesen Settings natürlich langsam knapp wird.

Demirug
2002-07-19, 21:31:18
Originally posted by AlfredENeumann


Es hat noch kein Reviewer ne Karte bekommen.


anand hatte aber wohl eine. Das Chipfoto hier http://www.anandtech.com/video/showdoc.html?i=1656&p=2 ist bestimmt nicht aus dem Pressematerial

HiddenGhost
2002-07-19, 21:32:19
Mittlerweile würde mich mal interessieren, wie schnell wohl eine AIW Radeon 9700 sein könnte... Multimedialer Overkill wäre se garantiert, selbst wenn sie wieder ein wenig niedriger getacktet wäre...

Unregistered
2002-07-19, 21:33:38
http://www.chip.de/news_stories/news_stories_8781791.html


so hier wird die ganze sache doch schon konkreter Hercules will 400€ dafür ichg würd mmal sagen so 370-380€ strassen preis nich schlecht für gebotene leitung aber warum steht da das die karte die catalysmist treiber benutz ich dachte die treiber sind komplett neu?

Demirug
2002-07-19, 21:34:38
Originally posted by Quasar


(!) ;)

Demnach sollte es keinen Grund geben, das FSAA zurückzuschalten, solange genug Platz für den Frame- und die Multisample-Buffer im lokalen RAM ist.

Vorsicht. Die R300 benutzt keine Multisample-Buffer mehr. Ich würde das Speicherverfahren eher als "Compressed AA-Samples Tileing" bezeichnen. Damit wird viel weniger RAM als bei der GF gebraucht.

HiddenGhost
2002-07-19, 21:44:32
Originally posted by Unregistered
http://www.chip.de/news_stories/news_stories_8781791.html


so hier wird die ganze sache doch schon konkreter Hercules will 400€ dafür ichg würd mmal sagen so 370-380€ strassen preis nich schlecht für gebotene leitung aber warum steht da das die karte die catalysmist treiber benutz ich dachte die treiber sind komplett neu?

AFAIK steht Catalyst nur für ATIs neue Treiberstrategie, regelmäßiger neue offizielle Treiber ruaszubringen, dabei steht die Bezeichnung aber wohl nicht für den Inhalt !!!

Quasar
2002-07-19, 21:48:40
Originally posted by Demirug


Vorsicht. Die R300 benutzt keine Multisample-Buffer mehr. Ich würde das Speicherverfahren eher als "Compressed AA-Samples Tileing" bezeichnen. Damit wird viel weniger RAM als bei der GF gebraucht.

Umso weniger wird wohl zurückgeschaltet worden sein :)

ow
2002-07-19, 21:48:43
Originally posted by Birdman
Graka/CPU Limitierung bei Q3? Hier kommt (m)ein Nachtrag:
----------------------------------------------------------

Auflösung | Sound | NoSOund
----------------------------
512x384 | 208.9 | 280.8
640x480 | 211.5 | 285.8
800x600 | 207.9 | 275.9
1024x768 | 202.6 | 250.2
1152x864 | 192.5 | 222.7
1280x1024 | 172.7 | 186.0
1600x1200 | 134.5 | 137.6

So, nun kann sich jeder selbst ein Bild machen, ab wann auf einem P4 2.26Ghz @2.38Ghz + ti6400 @280/660Mhz eine CPU bzw. Gfx Limitierung auftritt.
Die erste auflösung bei der eine schnellere Grafikkarte was bringen würde ist 1280x1024, darunter ist die CPU ne bremse, d.h. bis dahin iss Q3 auf dem Sys CPU limitiert....soviel also zu:



???
Deine Benches bestätigen doch meine Aussage, bei 1024 keine CPU-Limitierung. Ansonsten würden die fps nicht ansteigen bei Reduktion auf 800x600.

Com1
2002-07-19, 21:51:36
Ja... und Catalyst steht für den Unified-Treiber für alle Radeon Grafikkarten. Eben so wie NVs Detonator, das ist wohl die wichtigste Neuerung.

HiddenGhost
2002-07-19, 21:59:51
Originally posted by Com1
Ja... und Catalyst steht für den Unified-Treiber für alle Radeon Grafikkarten. Eben so wie NVs Detonator, das ist wohl die wichtigste Neuerung.

Ich glaub ,dass bei Anandtec stand, dass die unifiedtreiberarchitektur neu beginnen würde mit dem R300, da das ArtX Design nicht mehr kompatibel zu früheren radeons sei, aber die R300 die Grundlage für eine neue, zukünfitige und bessere Unified Driver Architecture sei , auf die zukünftige chip generationen aufbauen würden!!! Jedenfalls so ähnlich...

Quasar
2002-07-19, 22:01:50
Klingt schonmal gut: Ein Unified für R6/R200, ein Unified für R300, und vielleicht noch einer für R400?

HiddenGhost
2002-07-19, 22:06:50
Vieleicht eine für die Hardware des ursprüngliche Teams und eine für ArtX Designs ... wäre ja auch denkbar...

ow
2002-07-19, 22:08:58
Originally posted by Quasar
Klingt schonmal gut: Ein Unified für R6/R200, ein Unified für R300, und vielleicht noch einer für R400?


War das jetzt ernst gemeint?
Unter unified stelle ich mir was anderes vor.

StefanV
2002-07-19, 22:09:09
Originally posted by ow
???
Deine Benches bestätigen doch meine Aussage, bei 1024 keine CPU-Limitierung. Ansonsten würden die fps nicht ansteigen bei Reduktion auf 800x600.

2,5% weniger Performance sind für dich ein Indiz auf eine CPU Limitierung??

Also irgendwie verstehe ich dich nicht...

BTW: für mich ist 1152x864 auch noch gerade eben so CPU Limitiert, erst 1280x1024 fängt an GFX Limitiert zu sein...

HiddenGhost
2002-07-19, 22:12:10
Originally posted by ow
War das jetzt ernst gemeint?
Unter unified stelle ich mir was anderes vor.

Ich meine das sinngemäß so gelesen zu haben... vieleicht kommen beide Treiberpackete ja zusammen da rein...

dann wärs wieder unified... jedenfalls so ähnlich... zumindest glaub ich nich das die TNTs die gleichen Treiber hatten wie die GF1 ,die Detonatoren wurden aber dennoch als Unified angepriesen...

btw. , du bist wohl ein extremer Zyniker...

ow
2002-07-19, 22:19:54
Originally posted by HiddenGhost


Ich meine das sinngemäß so gelesen zu haben... vieleicht kommen beide Treiberpackete ja zusammen da rein...



Das ist nicht ganz, was ich unter unified verstehe.


dann wärs wieder unified... jedenfalls so ähnlich... zumindest glaub ich nich das die TNTs die gleichen Treiber hatten wie die GF1 ,die Detonatoren wurden aber dennoch als Unified angepriesen...


Doch, meine TNT läuft mit demselben Detonator wie mein Gf2MX und auch alle anderen NV Chips. Derzeit der Deto 30.30.
Keine Probleme.


btw. , du bist wohl ein extremer Zyniker...


??? wieso?

zeckensack
2002-07-19, 22:23:48
Originally posted by HiddenGhost
Ich meine das sinngemäß so gelesen zu haben... vieleicht kommen beide Treiberpackete ja zusammen da rein...

dann wärs wieder unified... jedenfalls so ähnlich... zumindest glaub ich nich das die TNTs die gleichen Treiber hatten wie die GF1 ,die Detonatoren wurden aber dennoch als Unified angepriesen...Sehe ich auch so.

Unified muß nicht heißen "Einer für alles", sondern kann auch heißen "Ein Paket für alles".

Übrigens bezweifle ich auch sehr stark, daß der TNT-Treiber und der Geforce-Treiber überhaupt irgendwelche Gemeinsamkeiten haben können. Das Hardwaredesign ist extrem unterschiedlich.

TNT:
Combinerstages führen Operationen der Form "a*b+c*d" aus. Zwei Stück davon. Fixed function Zeugs für Nebel und Color Sum (für Specular lights) (so wie's in der OpenGL-Spec steht).

Geforce1+:
Register Combiner, MIMD-Maschinchen, die alle möglichen Sachen gleichzeitig machen und an die nächste Stufe weiterreichen. Nebel-Berechnung und Color Sum werden wieder über eine solche, voll parametriesierbare Einheit ausgeführt, die sich netterweise auch für ganz andere Sachen mißbrauchen lässt ...

ow
2002-07-19, 22:24:28
Originally posted by Stefan Payne


2,5% weniger Performance sind für dich ein Indiz auf eine CPU Limitierung??

Also irgendwie verstehe ich dich nicht...

BTW: für mich ist 1152x864 auch noch gerade eben so CPU Limitiert, erst 1280x1024 fängt an GFX Limitiert zu sein...


Haben deine Rechenfähigkeiten nachgelassen?

275fps zu 250 fps (1024, beide gerundet) sind bei mir mehr als 2,5%.

HiddenGhost
2002-07-19, 22:26:12
Originally posted by ow
Das ist nicht ganz, was ich unter unified verstehe.

ich auch nich... jedenfalls wärn dann alle chips abgedeckt...

Doch, meine TNT läuft mit demselben Detonator wie mein Gf2MX und auch alle anderen NV Chips. Derzeit der Deto 30.30.
Keine Probleme.

wer sagt, dass in einem detonator nicht verschieden treibercodes stecken, einen für die tnts... einen füt einschlie0lich gf2 und einen für einschließlich gf4


?wieso?
subjective Meinung zu dem wie du machmal kommentierst ;)

Simon Moon
2002-07-19, 22:31:11
Originally posted by Stefan Payne


2,5% weniger Performance sind für dich ein Indiz auf eine CPU Limitierung??


Meinst du nicht Graka Limitierung? So bricht die Performance bis 1024*768 ja praktisch kaum ein. Also CPU limitiert. Danach bricht sie ein, weil die Grafikkarte nicht mehr genug power hat um die selbe leistung bei 11*8 zu bringen. also ist es bis 10*7 CPU limitiert, bzw. die Graka kann schon nicht mehr 100% leistung, sondern nur noch 97.5% bringen. Also ist hier gerade der beginn der Graka limitierung. Bei 11*8 ists schon spürbar...

ow
2002-07-19, 22:31:15
Originally posted by zeckensack
Sehe ich auch so.

Unified muß nicht heißen "Einer für alles", sondern kann auch heißen "Ein Paket für alles".



Ok, kann man auch so sehen.




Übrigens bezweifle ich auch sehr stark, daß der TNT-Treiber und der Geforce-Treiber überhaupt irgendwelche Gemeinsamkeiten haben können. Das Hardwaredesign ist extrem unterschiedlich.



Widerspruch!;)

Meine TNT und GF2MX zeigen auf identischen Detos exakt dieselben Fehler.

zB. Kyro FilmTV/DragonFly Demo

Auf den Deto 6.31 und 23.11 laufen beide Demos fehlerfrei auf beiden Karten. Auf allen anderen (von mit getestetn) Detos zeigen beide Karten dieselben Fehler.

Sofern möglich untertützt auch der TNT noch neu eingeführte OGL-Extensions. Ab den 12.xx Detos kann er GL_ARB_Imaging (und ein paar andere sind im Laufe der nach-TNT Ära auch noch hinzugekommen).

nggalai
2002-07-19, 22:36:51
Hi Quasar,Originally posted by Quasar


Umso weniger wird wohl zurückgeschaltet worden sein :) Natürlich. :) Wie ich weiter vorne schrieb, mir geht's drum, dass Leute die richtige Distanz zum Preview behalten, ganz einfach, weil noch nicht genug Vergleichswerte und Praxisberichte vorhanden sind. Das mitm Runterschalten der FSAA-Stufe war als Beispiel in Anlehnung ans nicht-funktionierende Smoothvision der R8500 beim Launch gedacht. ;)

ta,
-Sascha.rb

ow
2002-07-19, 22:37:34
Originally posted by HiddenGhost

wer sagt, dass in einem detonator nicht verschieden treibercodes stecken, einen für die tnts... einen füt einschlie0lich gf2 und einen für einschließlich gf4




Sicher gibt´s im Treibercode eine Menge Codepfade für die unterschiedlichen NV Chips. Dennoch dürfte es nur einen Quellcode geben.

S.a was ich Zeckensack geantwortet hab. Auch ich glaube nicht, das die Treiber für den TNT explizit weiterentwickelt werden. Dennoch kann ich jeden Fehler auf der TNT mit der GF2MX nachvollziehen.

Oben beschriebene Fehler in den 2 Kyro 3D-Demos treten exakt so auch auf GF3 und GF4 (aths fragen;)) auf.

Frank
2002-07-19, 22:43:23
bloß dass nV Chips jetzt nicht interessieren. Und schon gar nicht deren Treiber.

Also zurück zum Thema und kein Treiber OT von nV.

LovesuckZ
2002-07-19, 22:45:26
Originally posted by Unregistered
http://www.chip.de/news_stories/news_stories_8781791.html
so hier wird die ganze sache doch schon konkreter Hercules will 400€ dafür ichg würd mmal sagen so 370-380€ strassen preis nich schlecht für gebotene leitung ...

Weis vielleicht ATI schon, was auf sie zukommt in Sachen NV30? Oder warum sonst, bieten sie diesen 'High-End' Chip so billig an.

Demirug
2002-07-19, 22:49:53
Originally posted by LovesuckZ


Weis vielleicht ATI schon, was auf sie zukommt in Sachen NV30? Oder warum sonst, bieten sie diesen 'High-End' Chip so billig an.

Wenn ihr schon zitiert dann aber bitte richtig.


Hercules/Guillemot möchte offensichtlich den Markt erst mal mit der 128-MByte-Version einer Radeon-9700-Karte testen - für eine 256-MByte-Version, technisch durchaus möglich, wäre ein Preis um die 400 Euro (wie von ATI anvisiert) kaum zu halten


Hercules hat für die 9700 also scheinbar noch keinen Preis genannt. Die Aussage ist lediglich das ATI gerne Preise um die 400 Euro sehen würde.

zeckensack
2002-07-19, 22:50:49
Originally posted by ow
Sicher gibt´s im Treibercode eine Menge Codepfade für die unterschiedlichen NV Chips. Dennoch dürfte es nur einen Quellcode geben.Ok, darauf können wir uns gerne einigen :)

Die Combiner müssen definitiv anders angesteuert werden, vom Rest kann man wahrscheinlich so viel weiterverwenden (Speicher-/Textur-Management, 2D-Zeugs), daß sich eine geteilte Codebasis nicht lohnen würde.

Zum Vergleich (*proll*spam*werbungmach*):
Bei mir entfallen 260kB Code auf dieses ganze andere Zeug, und nur 17kB auf die Combinerpipeline für R200-Fragment Shader.

Quasar
2002-07-19, 22:52:55
Originally posted by nggalai
Hi Quasar,Natürlich. :) Wie ich weiter vorne schrieb, mir geht's drum, dass Leute die richtige Distanz zum Preview behalten, ganz einfach, weil noch nicht genug Vergleichswerte und Praxisberichte vorhanden sind. Das mitm Runterschalten der FSAA-Stufe war als Beispiel in Anlehnung ans nicht-funktionierende Smoothvision der R8500 beim Launch gedacht. ;)

ta,
-Sascha.rb

Psssst. Nicht solche bösen alten Miesmacher-Geschichten aufwärmen, du könntest als nVidiot, i.e. a person who regards inferior image quality as a feature abgestempelt werden. ;-)

Was alles wie gut funktioniert und mit welcher Leistung (i.e. Taktraten) werden wir ja noch früh genug sehen, momentan läßt sich nur sagen: she's got potential.


@ow:
Nein, das war natürlich nicht ernst gemeint, ich halte nur nichts davon, meine Posts durch dauerndes Smilie-setzen zu verunstalten. :-)

Quasar
2002-07-19, 22:55:15
Originally posted by Demirug
Wenn ihr schon zitiert dann aber bitte richtig.
Hercules hat für die 9700 also scheinbar noch keinen Preis genannt. Die Aussage ist lediglich das ATI gerne Preise um die 400 Euro sehen würde.

400€ halte ich für Quatsch. Hier hat Chip einfach mal die 399$ genommen, den aktuellen Euro-Kurs angeklickt und gesehen, Hui! Parität.

Normalerweise (und das gilt besonders für ATi-Produkte) werden Europäer ganz gerne etwas extra gemolken.

Demirug
2002-07-19, 23:00:35
Originally posted by Quasar


400€ halte ich für Quatsch. Hier hat Chip einfach mal die 399$ genommen, den aktuellen Euro-Kurs angeklickt und gesehen, Hui! Parität.

Normalerweise (und das gilt besonders für ATi-Produkte) werden Europäer ganz gerne etwas extra gemolken.

IMO sind die 400€ zu niedrig angesetzt. Zudem sollte man noch bedenken das bei den Amis gerne NETTO Preise angegeben werden.

Simon Moon
2002-07-19, 23:05:53
Originally posted by ow



Haben deine Rechenfähigkeiten nachgelassen?

275fps zu 250 fps (1024, beide gerundet) sind bei mir mehr als 2,5%.

Ja, aber das ist der Wert ohne Sound. Er meint den mit sound (von dem ja eigentlich auch ausgeht - ohne sound ist es etwas schwer zu spielen ;D )

Unregistered
2002-07-19, 23:11:13
Ich habe zwar einen 21-Zöller, aber der schafft bei 1600 x 1200 nur noch 72Hz. Das flimmert. Bei 1280 x 960 sind es noch 85 Hz, aber mit VSync an sinds nur noch 43 fps.
Also wäre ich schon zufrieden, wenn der R300 1024x768 mit 6xAA und 16xAF mit mind. 60 fps bei Games wie Q3 / SS2 und dergleichen schafft.
Nur habe ich bislang noch keine Bilder geschweige denn Filme gesehen, in denen die Bildqualität der R300 genau analysiert wird. Meinungen, dass der Reviewer die Qualität gut fand, helfen kaum weiter.
Gibt es da schon etwas?

nggalai
2002-07-19, 23:19:01
Originally posted by Quasar Was alles wie gut funktioniert und mit welcher Leistung (i.e. Taktraten) werden wir ja noch früh genug sehen, momentan läßt sich nur sagen: she's got potential.Genau darum ging's mir. :)

Heisst das, dass ich mich mehr anstrengen muss, um als nVidiot zu gelten? :...(

ta,
-Sascha.rb

HiddenGhost
2002-07-19, 23:22:41
Originally posted by Unregistered
Ich habe zwar einen 21-Zöller, aber der schafft bei 1600 x 1200 nur noch 72Hz. Das flimmert. Bei 1280 x 960 sind es noch 85 Hz, aber mit VSync an sinds nur noch 43 fps.
Also wäre ich schon zufrieden, wenn der R300 1024x768 mit 6xAA und 16xAF mit mind. 60 fps bei Games wie Q3 / SS2 und dergleichen schafft.
Nur habe ich bislang noch keine Bilder geschweige denn Filme gesehen, in denen die Bildqualität der R300 genau analysiert wird. Meinungen, dass der Reviewer die Qualität gut fand, helfen kaum weiter.
Gibt es da schon etwas?

mein 19" macht in 1600x1200 noch 85 Hz
in 1280x960 noch 100 Hz( 1280x1024 noch 90Hz)... is aber ein wenig OT

ow
2002-07-19, 23:23:06
Originally posted by El-Diablo


Ja, aber das ist der Wert ohne Sound. Er meint den mit sound (von dem ja eigentlich auch ausgeht - ohne sound ist es etwas schwer zu spielen ;D )


Der Wert mit Sound ist nutzlos, denn

a) braucht der Sound CPU-Leistung, so dass hierdurch Limitierung eintreten kann (bei manchen Sound-Karten können die fps sich halbieren!)

b) ist die CPU-Last durch den Sound von den fps (und damit der Auflösung) abhängig, weil durch kürzere Laufzeit der Q3 Demo ja mehr Soundsamples/s ausgegeben werden müssen.

Birdman
2002-07-19, 23:23:19
Originally posted by ow
Haben deine Rechenfähigkeiten nachgelassen?
275fps zu 250 fps (1024, beide gerundet) sind bei mir mehr als 2,5%.
na na na, jetz lassen wir mal die NoSOund benches aussen vor, denn bis JETZT wurde auch immer alles auf die benches MIT sound bezogen, und NoSOund wollte (ausser mir) niemand sehen.

ausserdem, wie kann eine bench Grakalimitiert sein, wenn er MIT sound 200fps macht, und OHNE 250fps? die graka rendert ja ned schneller wenn sound deaktiviert wird......bloss die CPU hat weniger zu tun.
Es ist halt eher so, dass in 1024x768 ne Ti4600 noch 250fps rendern könnte, da die CPU aber mit aktiviertem sound eine zu hohe last hat, schafft es diese nicht der grafikkarte die rohdaten für 250 frames zu schicken und es werden nur 200fps. ergo: die CPU ist zu lahm == CPU limitiert. (und sicher nich gfx limited)

bte. Quake3 iss halt nun mal sehr skalar, was auch die benches in 800x600 und 640x480 zeigen. da gewinnt man halt bei heder auflösungsreduktion noch ein paar frames dazu.
macht man das ganze aber z.B. in UT dann hat man hier von 1600x1200 - 640x480 auf meinem system fast gar keinen frame unterschied.

Birdman
2002-07-19, 23:30:39
Originally posted by ow
Der Wert mit Sound ist nutzlos, denn
a) braucht der Sound CPU-Leistung, so dass hierdurch Limitierung eintreten kann (bei manchen Sound-Karten können die fps sich halbieren!)
b) ist die CPU-Last durch den Sound von den fps (und damit der Auflösung) abhängig, weil durch kürzere Laufzeit der Q3 Demo ja mehr Soundsamples/s ausgegeben werden müssen.
wie im obigen Post bereits erwähnt, es geht nicht um NoSound benches...ging es nie und wird es wohl (leider) nie gehen. Zudem bezieht sich diese ganze diskusion auf Leo's Aussage in den News, und afaik ist er einer der das ganze MIT sound betrachtet.

btw. zu Aussage a)
Nach meinen messungen ist dies bei Q3 nicht der fall. egal welche soundkarte, die verlust ist bis auf ganz wenige prozente bei allen (von mir getesteten) sounderzeuger gleich.
habe natürlich keine absoluetn werte parat und akkurat isses eh ned, da ich das ganze auch auf versch. Systemen getestet habe. aber prozentual ausgedrückt gab es immer in etwa den gleichen performancedrop.

---------------bisher von mir getestet--------
onboard sound des Abit ST6-R (k.a. was da drauf iss)
onboard sound von asus p4b533 (auch k.a. was da drauf iss)
soundblaster 128 PCI
Soundblaster Live!
soundblaster Audigy
nforce
-----------------------------------------------

Simon Moon
2002-07-19, 23:46:33
Originally posted by Unregistered
Ich habe zwar einen 21-Zöller, aber der schafft bei 1600 x 1200 nur noch 72Hz. Das flimmert. Bei 1280 x 960 sind es noch 85 Hz, aber mit VSync an sinds nur noch 43 fps.
Also wäre ich schon zufrieden, wenn der R300 1024x768 mit 6xAA und 16xAF mit mind. 60 fps bei Games wie Q3 / SS2 und dergleichen schafft.
Nur habe ich bislang noch keine Bilder geschweige denn Filme gesehen, in denen die Bildqualität der R300 genau analysiert wird. Meinungen, dass der Reviewer die Qualität gut fand, helfen kaum weiter.
Gibt es da schon etwas?

Ok, dann ists aber auch nicht mehr der neuste. So 3 - 5 Jahre wird der wohl schon aufm Buckel haben? Also der Hansol 900P (mein Modell übrigens) kostet jetzt nur noch 370Fr. und schaft wie gesagt 1600*1200@75hz. Davor hatte ich jahre lang nen Philips 15" der 1024*768@60hz schafte¨, das war die Hölle... ok, hat damit aber nichts zu tun. Auf jedenfall würd ich mal schätzen, wer das Geld für ne R9700 hat, kann sich auch einen angemessenen Monitor kaufen.

AlfredENeumann
2002-07-20, 00:06:36
Originally posted by Unregistered
http://www.chip.de/news_stories/news_stories_8781791.html


so hier wird die ganze sache doch schon konkreter Hercules will 400€ dafür ichg würd mmal sagen so 370-380€ strassen preis nich schlecht für gebotene leitung aber warum steht da das die karte die catalysmist treiber benutz ich dachte die treiber sind komplett neu?

da steht nix davon das die 9700er 400€ kostet.
die preise für die 9000er sind ein wenig hochgegriffen. Das finde ich die preisgestalltung von sapphire etwas realistischer.
Die 9700er bekommt komplett neue Treiber.

AlfredENeumann
2002-07-20, 00:13:52
Originally posted by Quasar


400€ halte ich für Quatsch. Hier hat Chip einfach mal die 399$ genommen, den aktuellen Euro-Kurs angeklickt und gesehen, Hui! Parität.

Normalerweise (und das gilt besonders für ATi-Produkte) werden Europäer ganz gerne etwas extra gemolken.

Auf die US-Preise muß man noch TAX + Ship draufrechnen.

Simon Moon
2002-07-20, 00:14:47
Da steht nur:
Ati will das die 256MB Version 400€ kosten soll.
Hercules findet dies aber zu tief.

Viel mehr steht da nicht, das lässt wohl kaum auf den Preis schliessen. Man kanns jedoch soweit eingrenzen, das es wohl zwischen 300(128MB) - 500€(256MB) sein wird. Ok, das ist auch nur sehr grob ;D

Quasar
2002-07-20, 00:16:47
Originally posted by AlfredENeumann
Auf die US-Preise muß man noch TAX + Ship draufrechnen.

Ja, und den Europa-Zuschlag. Wir hatten in Grakas noch nie die Preise, die in NA üblich bzw. möglich sind.

HiddenGhost
2002-07-20, 00:21:30
Ich glaube nicht das ATI so teuer sein wird wie Matrox.. schließlich könnte man ja auch noch von deren Zielgruppe noch ein paar abzwacken... aber läge die 128MB bei 300€ wär das ja wohl schon performancesegment und danngleich so einne Leistung...

wie erklärte sich das phänomen noch, das die R200 von 64MB zur 128er an Performance gewann? SGRAM ? Ineffiziente Speicherverwaltung die mit 128MB besser zurecht kam ???

Könnte dies beim ArtX Design vieleicht auch der Fall sein ???

LovesuckZ
2002-07-20, 01:02:20
Gibt es eigentlich schon Fakten in Sachen Waermeabgabe und Stromhunger?

kaputnik
2002-07-20, 01:04:36
bin ein bischen spät hier eingestiegen, hab mich ersma durch die ganzen posts gewälzt...ächz
kaum ist ein preview draussen (jawoll, preview, denn mangels absoluter benchmarkwerte wg ATI-NDA sinds nunmal alles previesw)gibts schon wieder diese grabenkämpfe nachdem motto "wartet auf den nv30, der wird den r300 smoken"...
hey jungens, relax, is doch immer so, jetzt gönnt halt mal ATI die vorübergehende krone (wohlgemerkt, vorübergehend, wie alles im pc-business). der nv30 sollte alleine schon wg seines späteren release-termins schneller sein, doch dann wird ATI wohl nachlegen, dann NVidia wieder, dann wieder ATI und so weiter und so fort (wie zu zeiten 3Dfx vs NVidia). ev hat noch irgendein anderer hersteller zwischenzeitlich ein hoch oder irgendein anderer segnet das zeitliche, who knowes but to simplify WHO CARES ?!
ich für meinen biased subjektiven teil
finds absolutamente geil
(der dichter kricht eins auf die lichter)
denn nur wettbewerb is das, was uns alle vorwärts bringt (hört hört, ein jünger des KAPITALISMUS)

alla, der r300 sieht für mich ersma so aus.....GENIAL GEIL SUPERSCHNELL

und wenn die das wirklich gefixt haben mit AF und TRILINEAR sowie ihre treiber nu gscheit sind, na dann werd ich mir wohl den 0.13(wo is das sonderzeichen???)m refresh gönnen (preis is mir wurscht, performance & features zählen) oder vielleicht doch NVidia, mal sehn, was die so drauf haben ende des jahres......

denn so isses doch wohl:
momentan is wohl jeder hier angetan von den ersten performance-eindrücken der r300 (MOMENTAN), in nem halben jahr mags ev schon wieder ganz anders aussehen.
allerdings bin auch ich etwas entäuscht vom Parhelia, hätte mir ehrlichgesagt mehr versprochen (soviel zu Leo und seinem statement "256bit sind nicht allein seligmachend")

übrigens,der r300 soll ja der ertse vom ARTX-Team (vor ca. 2 annos von ATI gekauft, oder ?!)entwickelte chip sein. beim kauf von 3dfx durch NVidia in 12/2000 hatte damals Jen-Sung Huan (wie auch immer sich der NV-CEO schreibt) gesagt, dass es noch bis zum NV30 dauern werde, bis 3dfx-Technologie in einen NV-Core implementiert werden würde. dadurch erklärt sich vielleicht die verspätung des NV30 (is eben bei 3dfx so üblich.....hehehehe);D

FLAME: 3Dfx (nich 3dfx) rulez :chainsaw:

Salvee
2002-07-20, 01:20:59
Im Rage3D-Forum gibt es eine Preorder-Adresse für die Amis, wo bis vor kurzem für die R9700 ein Preis inkl. Shipping&Handling von 458,95 $ angegeben war. Der Preis wurde jetzt auf 399 $ + S&H gesenkt. Scheinbar will ATi zumindest im Amiland diese Marke nicht überschritten sehen. Ob VAT dabei war oder nicht, kann ich leider nicht sagen.

Simon Moon
2002-07-20, 01:25:26
Originally posted by kaputnik
übrigens,der r300 soll ja der ertse vom ARTX-Team (vor ca. 2 annos von ATI gekauft, oder ?!)entwickelte chip sein. beim kauf von 3dfx durch NVidia in 12/2000 hatte damals Jen-Sung Huan (wie auch immer sich der NV-CEO schreibt) gesagt, dass es noch bis zum NV30 dauern werde, bis 3dfx-Technologie in einen NV-Core implementiert werden würde. dadurch erklärt sich vielleicht die verspätung des NV30 (is eben bei 3dfx so üblich.....hehehehe);D


Imho hat ArtX schon mit dem Flipper (Gamecube) ganze Arbeit geleistet. Die werden mir irgendwie immer sympathischer. :)

mictasm
2002-07-20, 01:30:22
@Kaputnik: Genau! Schön wäre noch ein guter Europapreis, dann werde ich wohl nach meiner Mach32 wieder eine ATI kaufen ;) Ach so, meintest du das hier: µ

MIC

kaputnik
2002-07-20, 01:33:18
Originally posted by El-Diablo


Imho hat ArtX schon mit dem Flipper (Gamecube) ganze Arbeit geleistet. Die werden mir irgendwie immer sympathischer. :)

jo, El-Diablo, scheinst ja ein Kyro-Anhänger zu sein, das war und is ma wirkliche innovation, ganz anderer renderere-ansatz und nich nur deswegen geil:D

doch leider siehts momentan nich so gut aus, also müssen wir uns auf die brut-force geschichten ala NV30 oder r300 stürzen (da es 3Dfx ja nich mehr gibt:...( )

kaputnik
2002-07-20, 01:38:44
Originally posted by mictasm
@Kaputnik: Genau! Schön wäre noch ein guter Europapreis, dann werde ich wohl nach meiner Mach32 wieder eine ATI kaufen ;) Ach so, meintest du das hier: µ

MIC

genau das µ , nur irgendwie treibt das blöde hydravision gerade seine spässe mit mir und ich hab nur komische mauszeiger mit denen dass "copy n paste" nich hinhaut und ich das verfluchte "sonderzeichen" nich hinkrieg....

soviel zum ATI-Treiber:O schade,c gibt keinen kotzenden smiley, weil danach is mir gerade zumute (eins von den 30 bierchen war wohl schlecht):bier:*eg*

Simon Moon
2002-07-20, 03:19:48
Originally posted by kaputnik


jo, El-Diablo, scheinst ja ein Kyro-Anhänger zu sein, das war und is ma wirkliche innovation, ganz anderer renderere-ansatz und nich nur deswegen geil:D

doch leider siehts momentan nich so gut aus, also müssen wir uns auf die brut-force geschichten ala NV30 oder r300 stürzen (da es 3Dfx ja nich mehr gibt:...( )

Der Flipper ist soviel ich weiss kein Defferend Renderer. Aber ein Tiler und dadurch kann er jeweils ein Tile immer gleich in den eDRAM speichern. Aber ich bin mir da nicht so ganz sicher. (imho ist die ganze Architektur vom GC ziemlich genial...)
Als Kyro anhänger würd ich mich persönlich aber nicht bezeichnen. Ich finds nur sehr interessant und hab ihn deshalb gekauft...

aths
2002-07-20, 03:38:46
Originally posted by Unregistered
Also, ich hab hier nen einigermassen guten 19" Moni der auf 16x12 läuft und kenne viele Kollegen mit noch grösseren Monitoren und Auflösungen. Die Grafikkarten können gar nicht schnell genug sein. 16x12 oder 12x10 mit AA/AF sieht einfach geil aus. 10x7 ist pippifatz, sorry. Das ist wie einlagiges Klopapier heheheIch habe auch einen einigermaßen guten 19-er und zocke oft in 1024x768, manchmal auch 1280x1024. Grund: Mit den "Lowtech"-Auflösungen sind mehr Qualitätsfeatures drin. Um "gleich viele" Features bei 1600x1200 zuzuschalten, reicht die Power nicht aus.

Simon Moon
2002-07-20, 03:45:05
Originally posted by aths
Ich habe auch einen einigermaßen guten 19-er und zocke oft in 1024x768, manchmal auch 1280x1024. Grund: Mit den "Lowtech"-Auflösungen sind mehr Qualitätsfeatures drin. Um "gleich viele" Features bei 1600x1200 zuzuschalten, reicht die Power nicht aus.

Eben - R9700 ;D
Imho spiel ich auch viel in kleinen auflösungen. Mit meiner Kyro2 hab ich JK2 sogar in 640*480 durchgezockt (glaubst du mir, das ich so fand, JK(1) sah besser aus? *g* )

aths
2002-07-20, 03:45:56
Originally posted by ow



Um nochmals darauf zurückzukommen:

ich habe bei Anand keine UPT-Benches in 1600x1200 mit 4xAA gefunden, nur welche ohne AA (soweit ich das richtig sehe)

http://www.anandtech.com/video/showdoc.html?i=1647&p=10


Wenn ich da jetzt mal 4xAA 'reinrechne' (oder besser reinschätze:D), bleiben vielleicht noch 20fps für die GF4ti4600 übrig.
Da bringt´s auch die 2,5-fache Leistung einer Radeon9700 nicht, um das wirklich flüssig ("smooth as silk") zu spielen (s. oben Zitat Anand). 2,5 x 20 fps = 50 fps. Was gibt es da zu meckern?

zeckensack
2002-07-20, 03:55:00
Originally posted by kaputnik
genau das µ , nur irgendwie treibt das blöde hydravision gerade seine spässe mit mir und ich hab nur komische mauszeiger mit denen dass "copy n paste" nich hinhaut und ich das verfluchte "sonderzeichen" nich hinkrieg....Rechte ALT-Taste + m -> µ ;)
soviel zum ATI-Treiber schade,c gibt keinen kotzenden smiley, weil danach is mir gerade zumute (eins von den 30 bierchen war wohl schlecht)Ehrm ... :kotz: :pukeface:

Dunkeltier
2002-07-20, 05:54:14
Sorry, aber das ist ja echt zum http://www.uniquehardware.co.uk/server-smilies/contrib/edoom/throwup.gif http://www.westwoodi.net/~smilies/otn/puke/repuke.gif


http://www.westwoodi.net/~smilies/contrib/xerx/smileybreasts.gif

[DH]Avenger
2002-07-20, 06:23:47
Ja, Daumen hoch für den Newsnachtrag bzw. die neuerliche Stellungname zum Thema "256 Bit Interface", DAS ist die gewohnte 3DC Qualität ;) btw muss ich gar nichts gegenbeweisen ;) Eine "fehlerhafte" Theorie ist schon in sich ein Gegenbeweis seiner selbst (ich verweise hier mal auf "Die Physik und das Jenseits" von der NASA, ESA, Stephen Hawking sowie Günter Ewald......"zwei parallele Geraden schneiden sich im Unendlichen" ;D) ;) Nichts für Ungut, aber in dieser Form sind deine "Zweifel" absolut gerechtfertigt dargelegt ;)

Simon Moon
2002-07-20, 09:09:45
@Dunkeltier:
"Ati soll sich die Ärmel hochkrempeln, die muessen die schnellste
Graka aller Zeiten um einiges verbessern, es laeuft ihnen die Zeit
davon Nvidias Antwort zum R9700 etwas entgegenzustellen."
:rofl: :lol: ;D

MEHR! MEHR! obwohl... wieso tropft der stuhl plötzlich? ups... äh, nein, doch besser nicht mehr ;D

Razor
2002-07-20, 09:23:40
Hmmm...
Also jetzt will ich auch noch mal !
:D

Also ich hab' mir mal den ganzen Thread rein getan (kann das *ächts* nur wiederholen ;-) und auch so einige (nicht alle !) Previews...

Also mein erster Eindruck (nach den Previews ;-) war folgender:

WOW !!!

Aber genau da ist auch das Problem...
Denn wenn mir etwas ein 'WOW' entlockt, dann fange ich an, nachzudenken (bei anderen scheint das Denken auszusetzen ;-) und ich fange ebenfalls an zu differenzieren und mir das Gebotene näher anzuschauen (mach ich immer so, auch wenn es um neue nVidia-Produkte geht - wie damals bei der gf3 oder vorher der gfddr). Und wie ich nun mal so bin, möchte ich Euch, liebe Grafik-Enthusiasten (und das sind ja wohl die meisten hier) daran teilhaben lassen. Ich hoffe, nicht allzuviel zu wiederholen, was hier schon gesagt wurde, möchte hier aber trotzdem meinen kompletten Eindruck wiedergeben:

Also los !

Erst einmal kommt es mir 'spanisch' vor, dass ATI keine Boards versandt hat, sondern die Tester zu sich eingladen hat, damit diese sich so ca. 2h (was IMO viel zu wenig ist, um eine abschließende Beurteilung zu fällen) das Kärtchen in Aktion anzuscheuen (von 'Testen' würde ich nicht reden wollen). Man stellt also 2 Rechner nebeneinander, die wohl das absolut letzte (und beste ?) an 'GraKa-Basis' darstellen (P4 2,533 - PC1066 RDRam) und richtet diese selber ein. In den einen eine gf4ti4600 und in den anderen das neue Flagschiff. Und um das Ganze noch zu toppen, wird den Previewern auch noch verboten, exakte fps-Angaben zu machen. Schon merkürdig und sicher kein PR-Gag, sondern absolute Methode ! Warum ?

- definierete (synthetische) Ausgangsbasis
- Verbot von konkreten Ergebnissen
- nicht genug Zeit

Das dürfte wohl die beste Methode sein, ein Ergebnis zu erzwingen und damit eine einfache Marketing-Aussage 'plastisch' erscheinen zu lassen.

Das an sich, finde ich noch nicht verwerflich, denn ATI hat offensichtlich großen Wert darauf gelegt, daß eine Aussage ala

"ATI ist 2,5 mal schneller, als 'ne gf4ti4600 !!!"

'palstisch' rüber kommt.

Aber mich persönlich macht dies Mistrauisch, was hier aber wohl vielen anderen schlicht egal ist, denn Hauptsache nVidia bekommt eins auf die Mütze. Ist hier allerdings nicht das Thema... oder doch ?

Das ist der nächste Punkt, der mich 'stört' (nich wirklich ;-). Man vergleicht also das absolut letzte Produkt einer 'veralteten' Generation (gf4ti4600, i.e. DX8), mit einer absolut neuen Technologie (R300, i.e. DX9). Das Preview entlockt ein 'WOW' und so ganz nebenbei ändert man die Methodik der Namensgebeung und nennt einen beschnittenen R200 (RV250) dann auch noch 'Radeon9000'.

Wenn ich das also richtig sehe, dann wurde der R300-Launch nur deswegen gemacht, um die RV250 zu verkaufen. Ist nur mein persönlicher Eindruck, aber irgendwie würde das auch zu dem sehr frühen Release einer 'echten' DX9-Karte passen, der Tatsache, das der Preis einer R300 sehr günstig erscheint (399$+) und natürlich schlussendlich man früher dran ist, als die (NV-)Konkurrenz !

Man erreicht also folgendes:

- 'WOW' für die Radeon9700
- Radeon9000 auch Neuentwicklung und evtl. DX9 ?
- sehr günstige Preise für beide Neuerscheinungen

Dies könnte zur Folge haben (und ATI wird wohl damit rechnen), daß sich nun die Käufer wie Wild auf die neuen 9000'er stürzen, damit eine breite User-Schicht für ATI-Karten entsteht und damit endlich (was sie mit dem R200 nicht schafften) die Entwickler gewinnen, ATI Technologie in der Breite (und nicht nur partiell) zu unterstützen. Auch hätte man einen großen Trumpf gegenüber nVidia (so wird sich das zumindest ATI denken), da

a) die Radeon9000 'neuer' erscheint, als eine gf4ti4200 und
b) die Radeon9700 (vermutlich !) früher erscheint als der NV30

-

Was also den Marketinganteil angeht, vermute ich zur Zeit eine reine (!) Meinungsmanipulation (i.e. als Fakt hingestellete WERBUNG), um insbesondere ATI's zukünftige Cash-Cow an den Mann zu bringen.

Und auch wenn das nun schon ein alter Hut ist: Ich finde es ehrlicher, ein produkt 'MX' zu nennen, diesem aber trotzdem fortschrittlichere Technologie zu gönnen, es aber in einem Marketingwirksamen Feature zu beschneiden, als eine höhere Nummer zu vergeben und eine alte Technologie so zu beschneiden, dass zwar alle Features erhalten bleiben, das Ding dann aber in einer ganz anderen Leitungsklasse spielt...

***

Na ja, aber Marketing ist nicht alles, insofern fand diese erste 'Insichtnahme' des R300 schon mehr als interessant. Dies allerdings als 'Review' zu sehen, halte ich doch für hart überzogen, insofern ich dies alles immer noch als Preview sehe, bis 'echte' Hardware-Reviews erscheinen und erste Praxiserfahrungen da sind. Aber schaun wir doch einfach mal, was wir bis jetzt haben...

Eines noch vorweg:

Diese ganze Diskussion um Limitierungen (CPU/GPU) sind zwar an sich ganz interessat und gehören auch irgenwie zu einer neuen Generation (CPU/GPU), sind hier doch aber ziemlich OT. Bei aktuellen Games (explizit Q3 zähle ich eigentlich nicht mehr dazu !) gibt's wohl kein Game, was ausschließlich CPU- oder GPU-limitiert ist. Man sollte hier grundsätzlich Scenen auf Basis von bestimmten Engines betrachten betrachten, nicht aber eine Engine insgesamt, weil es zumeinst von der gerade verfügbaren Technologie anhängt. Das Ganze dann auch noch in Abwesenheit von nicht gfx-spezifischen Aufgaben der CPU zu betrachten, setzt dem Ganzen dann natürlich noch die Krone auf. Zumal ja die CPU selber mittlerer Weile auch Aufgaben der GraKa übernimmt (gf4mx und vermutliches Loadbalancing der gf3/gf4ti-Treiber).

Aber den Nachtrag der heutigen (gestrigen) News zu dem Thema 256Bit-Speicher-Interface und diesbezügliche, mögliche Limitierungen fand ich dann doch schon sehr passen, weil das erste Statement dazu einfach zu pauschal war.

Damit ist diesem Thema dann auch genüge getan...

-

Kommen wir also zu Hardware der R300 an sich:

Die DX9-Fähigkeit habe ich einfach mal voraus gesetzt, was auch einen Großteil der Transistoren erklären dürfte. Dieses aber in der Form an die technischen Grenzen der 0.15µ Fertigungstechnologie zu treiben halte ich wirtschaftlich für absolut unsinnig. Vermutlich war dies aber ATI's einzige Möglichkeit, einen DX9-Chip VOR nVidia zu präsentieren. Auch vermute ich den sehr niedrigen Preis deswegen, weil dies nur ein Vorschritt zur eigentlichen Technologie darstellt. Insofern wird dem R300 vermutlich nur eine sehr kurze Lebenszeit bestimmt sein, damit ATI folgendes erreichen kann:

- Release VOR nVidia's 0.13µ NV30
- Zeitpuffer zur Realisierung der 0.13µ Technologie
- Wirtscaftlichkeit erst mit R300 in 0.13µ
- damit dann auch bessere Ausbeute, i.e. geringere Kosten bei höheren Taktraten

Sehr lobenswert finde ich den AF-Ansatz, nun Mängel im R200-AF auszubügeln, vor allem aber natürlich auch triliniear anisotrop zu filtern. Leider fehlen hier noch extensive Qualitäts-Tests, die darlegen müssen, dass das ATI-AF nun wirklich dem von nVidia ebenbürtig oder gar gar überlegen ist.

Weniger überracht hat mich das Antialiasing und die Cross-Bar-Memory-Architektur, die ja fast 1:1 von nVidia übernommen wurde.

Beim Parhelia hat man ja gesehen, daß ein 256Bit-Speicherinterface allein sicher nicht der Weiheit letzter Schluß ist (Gruß an Leo ;-) und sich sogar in Verbindung mit der eigentlich Speicheranbingung (Memory-Controller) als nachteilig gegenüber kleineren 'intelligenteren' Speicheranbindungen heraus stellen kann. Das ATI sich das nicht leisten wollte, konnte ich mir aufgrund der grossmundigen Ankündigung auch nicht vorstellen.

Meiner Meinung nach sind sie hier allerdings nicht weit genug gegangen, denn um bei älteren und auch aktuellen Games wirklich zu punkten hätten sie den CBMC 8fach auslegen müssen. Dies allerdings hätte vermutlich den Rahmen der verwendeten Fertigungstechnlogoie (015µ) gesprengt, da ich davon ausgehen, dass auch der CBMC des R300 OnChip sitzt.

Das Antialiasing scheint ja nun auch eine Multisample-Variante zu sein und in Verbindung mit der hier zu Verfügung stehenden Speicherbandbreite (20GB) sind die gezeigten Ergebnisse auch nicht mehr wirklich überraschend.

-

Ganz klar, wie sich auch JC schon so vortrefflich ausdrückte, ist der R300 derzeit (bzw. bald ;-) sicher der schnellste Chip für Kandidaten ala Doom3. Aber mich wundert auch hier, dass die Betonung immer auf 'derzeit' liegt und angedenk der Nullinformationen bezüglich des NV30 und einem NDA unterliegenden JC (=John Carmack für die Nicht-Eingeweihten ;-) und ein sehr guter Hinweis auf den temporären Charakter des jetzigen R300 sein könnte.

-

Wie einige hier vielleicht wissen, stand und stehe ich dem 'Refresh' der gf3 (i.e. NV25 oder gf4ti) auch nicht sonderlich positiv gegenüber. Es fehlt mir hier einfach der 'Mehrwert, der mich dazu veranlassen sollte, jetzt wieder Geld für eine Neuanschaffung auszugeben. Und gleiches gilt derzeit (!) auch für den R300, denn noch ist mir nicht ganz klar, was mir eine solche GraKa ausser reinen Speed JETZT bringen soll !

Von einer neuen Generation von GraKa's erwarte ich etwas Revolutionäres, was bei der gf3 eindeutig der Fall war, mir hier aber beim R300 (noch) nicht klar ist.

Die Architektur des Chips an sich weist sogar noch einige Schwächen auf (0.15µ Fertigung und nur 4fach CBMC), insofern mein initiales 'WOW' sich nur noch auf die Geschwindigkeit unter 4xAA und 16AF bezieht (der Quali-Check hier aber noch aussteht !).

Tja, wie hier ja auch schon geschrieben wurde: Abwarten !

Ohne echte Tests und nähere Hintergründe zur Technologie ist der R300 für mich (!) bestenfalls interessant und 'abgehen' tut mir hierbei (noch) überhaupt nichts... ganz im Gegenteil !

Um den derzeitigen Stand bei den 'neuen' Chips zu beschreiben:

Parhelia - enttäuschend...
P10 - schaun' wir mal... iregndwie noch zu schwammig...
R300 - schaut derzeit irgendwie 'gekünstelt' aus...
NV30 - ???

Bin echt mal gespannt, was es sich mit dem NV30 darstellen wird, denn dieser Chip scheint ja das jemals best-gehüteste Geheimnis von nVidia zu sein. Auch liegt jetzt ja nun alles, was die Konkurrenz zu bieten hat, auf dem Tisch (bei ATI zumindest 'fast' ;-). Könnte mir also vorstellen, daß eine offizielle Vorstellung des NV30 nun nicht mehr lange auf sich warten läßt.

Auf jeden Fall scheint nVidia je bereits Microsoft überzeugt zu haben, bei nVidia zu bleiben und nun auch die XBOX2 mit nVidia-Hardware auszustatten.

Also nochmal: Schaun' wir mal...

Der heisse Herbst hat nun also begonnen !
(was im krassen Gegensatz zum Wetter steht ;-)

Und nun is schluss mit meinem Monolog.

In diesem Sinne

Razor

ow
2002-07-20, 09:32:57
Originally posted by Birdman

wie im obigen Post bereits erwähnt, es geht nicht um NoSound benches...ging es nie und wird es wohl (leider) nie gehen. Zudem bezieht sich diese ganze diskusion auf Leo's Aussage in den News, und afaik ist er einer der das ganze MIT sound betrachtet.



Benches ohne Sound sind interessanter, wenn ich die Limitierung durch die Grafik/CPU feststellen will.
Die CPU-Last durch den Sound ist nicht konstant, sondern auflösungsabhängig.


btw. zu Aussage a)
Nach meinen messungen ist dies bei Q3 nicht der fall. egal welche soundkarte, die verlust ist bis auf ganz wenige prozente bei allen (von mir getesteten) sounderzeuger gleich.
habe natürlich keine absoluetn werte parat und akkurat isses eh ned, da ich das ganze auch auf versch. Systemen getestet habe. aber prozentual ausgedrückt gab es immer in etwa den gleichen performancedrop.

---------------bisher von mir getestet--------
onboard sound des Abit ST6-R (k.a. was da drauf iss)
onboard sound von asus p4b533 (auch k.a. was da drauf iss)
soundblaster 128 PCI
Soundblaster Live!
soundblaster Audigy
nforce
-----------------------------------------------

Hab auch mal ein paar Benches gemacht:

Q3, 1.17, demo001, XP1700, GF2MX, 16/16Bit, picmip 3, bilinear, Ac97 Sound (VIA686b)




Aufl. mit/ohne Sound
320 181.1/161.0
512 176.9/158.2
640 164.5/153.2
800 132.7/129.7




Bei gewählten Grafik-Settings ist die Gf2MX bereits bei 640x480 leicht grafiklimitiert, darüber nur noch grafiklimitiert.

ow
2002-07-20, 09:45:01
Originally posted by El-Diablo


Eben - R9700 ;D
Imho spiel ich auch viel in kleinen auflösungen. Mit meiner Kyro2 hab ich JK2 sogar in 640*480 durchgezockt (glaubst du mir, das ich so fand, JK(1) sah besser aus? *g* )


Machvt IMO keine Sinn. Der Kyro skaliert sehr schwach mit abnehmender Auflösung, gewinnt also nicht viel fps dabei.

Auf meiner Kyro1 kann ich JK2 problemlos in min. 800x600 spielen.
In 640x480 kann man es sogar auf einem Riva TNT gut spielen.

Piffan
2002-07-20, 09:48:49
@Razor: Gut gebrüllt, Löwe! ;)

Bin sowieso der Meinung, dass ein "Aufrüstungskauf" von einer G3/Radeon 8500 momentan kappes ist.... Darum halte ich es diesmal auch mit "Abwarten und Teetrinken".....

Durch diese Entwicklungen dürfte sich nun aber die Gf4Ti4600 kaum an den Mann/Spieler bringen lassen.... Diese Klasse ist sowieso ein Hohn, wenn man die Preise der ebenfalls brauchbaren Ti4200 dagegenhält....
Hut ab vor Atis Marketing, die Jungs stehen NV in keiner Weise mehr nach, hehehe

ow
2002-07-20, 09:50:42
Originally posted by aths
2,5 x 20 fps = 50 fps. Was gibt es da zu meckern?

Och, aths.
Es ist nicht flüssig spielbar, insofern der Wert bedeutungslos.
Warum wurde AA denn nicht in 1280x1024 gebencht?

HADES
2002-07-20, 09:56:05
... gerade auf.
Als der V5 vorgestellt wurde,dauerte es auch noch ewig, bis der Chip verfuegbar war.Seinerzeit hatte Nvidia den Geforce Chip und dessen Nachfolger in der Zeit der Verzoegerung des V5 herausgebracht, woraufhin 3Dfx ins hintertreffen kam.Sollte nun Ati etwas aehnliches gelingen.Dann koennte es nicht gerade gut fuer Nvidia aussehen.

Daneben ist auch noch nicht gesagt, ob der NV30 wirklich schneller ist, als ne R300.Schaut man sich die Leistungsspruenge an(ich rede nicht von irgendwelchen 3dmark Scores sondern von Realworld Benchmarks), dann sind die LEistungsspruenge seitens Nvidia seid der GEforce 1 Reihe eigentlich von Chipgeneration zu Chipgeneration nicht sonderlich gross ,waehrend es bei Ati seid dem R100 fast immer eine verdoppelung der Geschwindigkeit gab.

Geht man von einem LEistungsvorsprung des R300 von etwa 40 PRozent gegenueber ner Gf4 aus(mit etwas Treiberoptimierung vielleicht 50-60%)
dann muss der NV30 schon eine Gewaltige Leistungssteigerung nachlegen im Vergleich zum GF4,um dem R300 paroli zu bieten.

Darueberhinaus ist Nvidia jetzt unter Zugzwang, denn als selbsternannter und auch zu recht angesehener Markt,Technologie und Performance Fuehrer muessen sie jetzt mit Hochdruck ihren Highendchip rausbringen.
Ati dagegen kann den Markt beobachten und bei Bedarf vielleicht ne wesentlich hoeher getaktete Version des R300 im 0.13 Prozess nachliefern,denn offenbar haben sie ein sehr ausgekluegeltes und effizientes Chipdesign, dass sehr hohe Taktraten trotz seiner Komplexitaet erlaubt.Daneben ist die Namensgebung Radeon 9700 in meinen Augen etwas seltsam,jedenfalls koennte ich mir gut vorstellen, dass ATI vielleicht eine hoeher getaktete Variante vielleicht Radeon 10000 nennen wuerde, was Marketingtechnisch vielleicht gewisse Vorteile bietet.

Noch etwas zum Schluss:
Jungs lasst die Flamewars ATI gegen Nvidia,beides sind gute Firmen und beide haben fuer jeden das passende Produkt im Sortiment.
Nur bringt es nix, ueber eine Firma herzuziehen, nur weil sie momentan eine leichte Ueberlegenheit gegenueber der anderen hat.
Von seiten der Ati Anhaenger wird Nvidia immer als der grosse Boese Marktfuehrer hingestellt, der die Preise diktiert und keinen Wettbewerb zulaesst,von Ati wird behauptet, dass sie zwar gute Karten herstellen , aber deren Treiber das letzte sind.
Zum Argument der ATI Fraktion sei nur soviel gesagt.Als der Kampf NVIDIA gegen 3DFX hiess, wurden genau dieselben Argumente , die heute gegen Nvidia aufgefuehrt werden, gegen 3DFX benutzt und gleichtzeitig Nvidia in den hoechsten Toenen gelobt.
Zu den Nvidia Anhaengern sei gesagt:
Es mag sein, dass die ATI Treiber teilweise ihre Macken haben, allerdings muss man anmerken, dass von Release zu Release die Qualitaet steigt und auch die Fehler langsam aber sicher weniger werden.
Auch Nvidia schafft es zwischendurch immer wieder Treiber zu entwickeln, die unter aller Kanone sind und Fehler ueber Fehler produzieren(selbst in offiziell veroeffentlichten Treibern)

Insgesamt gesehen, sollte jeder sich die Grafikkarte kaufen, die ihm und seinem Geldbeutel am meisten zusagt.Jedoch sollte man nicht jemand anderen nieder machen, nur weil derjenige nicht das eigene Lieblingsprodukt gekauft hat.Und vor allem sollte man, wenn man die Moeglichkeit dazu hat, mal ueber den Tellerrand hinausschauen und vielleicht auch mal dem Produkt der Konkurrenz ne Chance geben, selbst wenn man nur mal zum Freund geht und sich dessen Graka ausleiht oder dort testet.
Haltet euch eins zum Schluss vor Augen:
Konkurrenz belebt das Geschaeft und haetten wir nicht die momentane Situation, in der sich die Hersteller staendig mit neuen Geschwindigkeitsrekorden, bei gleichzeitig fallenden Preisen zu uebertreffen versuchen, waeren wir in der Technik bei weitem noch nicht soweit und koennten uns nicht an Grafikknallern wie Morrowind,Doom 3 ,UT2k3 oder Unreal 2 ergoetzen.

In diesem Sinne
HADES

Simon Moon
2002-07-20, 10:13:29
Originally posted by Razor

Von einer neuen Generation von GraKa's erwarte ich etwas Revolutionäres, was bei der gf3 eindeutig der Fall war, mir hier aber beim R300 (noch) nicht klar ist.

Razor

ok, ich lass mal den grössten Teil aussen vor, da es ja grösstenteils feststellungen sind (die z.t. schon erwähnt wurden, was jedoch nichts dran ändert das ich eigentlich ähnlicher Meinung bin). Nur gerade hier bin ich eben anderer Meinung.
Afaik ist der Sprung von Pixel&Vertex-Shader 1.3 (ok, ATi hatte 1.4 was ja schon näher am 2.0 denn am 1.3 liegen soll, aber 1.3 ist eben bei DX8.1 das, was eigentlich unterstützt wird) auf 2.0 etwa so gross wie der von DX7 TnL auf DX8 TnL (also Vertex&Pixelshader) ist. Von der Leistung sieht man nun ja noch nichts, aber das war beim GF3 zum launch ja auch nicht so (tech demos lass ich mal aussen vor). Aber mich persönlich interessiert das nicht gross, da DX9 noch nicht da ist. Was mich interessiert ist die Leistung und die ist selbst bei einem niedrigeren Takt wohl noch beträchtlich. Auf alle fälle genug um in den meisten (erhältlichen) spielen bei 1280*1024 mit 4xFSAA und 8xAF zu zocken. Und eben gerade an Leistung für solche dinge bin ich interessiert. An neuen Features (die vom Spiel unterstützt werden) bin ich nicht speziell interessiert, wenn es sie eben 'dazu' gibt, nem ich sie auch, aber ich such mir ne Karte nicht nach eben jenen aus.
Wo ich grad bei Features bin, unterstützt der R9700 eigentlich noch Npatches?

Naja um auf den Kern meiner Aussage zu kommen. Ich seh den R9700 als revolutionärer an als damals die GF3. Ausser Pixel&Vertex Shader hat die ja nichts weltbewegendes gebracht. Leistungsmässig schien es mir auch nie, dass sie soviel darüber liegt. (imho geb ich der R9700 in den relevanten dingen durchaus 20 - 50% mehr leistung, so zuversichtlich bin ich)

Das mit dem künstlichen und dem R9000 inderekt bewerben hat schon einiges. Aber ausser der 'falschen' Namensgebung des RV250 ist da eigentlich nichts verwerflichs dran. Ich finds sogar positiv, das sie wenigstens normalsterbliche die Karte anschauen lassen, so kann man, ob gestellt oder nicht, immerhin davon ausgehen das es am eben auch so hangelenk mal pi stimmen wird. Negativ an dem ganzen ist natürlich das nun überall geschrieben wird: R9700 2.5x so schnell wie Geforce4Ti4600! Aber wenn darauf nicht mehr hingewiesen wird von den 'Testern' (imho ist es ja nicht in allen Benchs so), dann ist es nicht ganz ATis schuld (auch wenns für sie gelegen kommt). Imho sollte jeder der sich die benchs ansieht ja merken, dass sie nicht überall 2.5x so schnell ist. Was hätte ATi schon dagegen tun sollen, damit dies nirgends der fall ist? Das Testmuster tiefer takten, sprich das Marketing nicht ausnutzen? Welche Firma würde das schon machen?

Hmm... scheint einiges länger geworden zu sein als ich wollte. Tja, selber schuld mir soviel zu lesen zu geben ;D

Simon Moon
2002-07-20, 10:17:58
Originally posted by ow



Machvt IMO keine Sinn. Der Kyro skaliert sehr schwach mit abnehmender Auflösung, gewinnt also nicht viel fps dabei.

Auf meiner Kyro1 kann ich JK2 problemlos in min. 800x600 spielen.
In 640x480 kann man es sogar auf einem Riva TNT gut spielen.

Klar, aber es macht sehr wohl einen unterschied ob ich nun 15fps oder 20fps habe. Liegt wohl auch an der schwachen CPU die ich hab (Athlon700). Auf jedenfall, jedes fps zählte ;D

ow
2002-07-20, 10:26:40
Originally posted by El-Diablo


Klar, aber es macht sehr wohl einen unterschied ob ich nun 15fps oder 20fps habe. Liegt wohl auch an der schwachen CPU die ich hab (Athlon700). Auf jedenfall, jedes fps zählte ;D


gerade bei schwacher CPU bist du ja noch eher CPU-limitiert, so dass Senken der Auflösung noch viel weniger bringen sollte.


Ich hab auf Kyro1 über 40fps im jk2ffa Demo bei 1024x768x32Bit, alles max., (AA/AF aus).

Razor
2002-07-20, 10:37:00
Originally posted by Piffan
@Razor: Gut gebrüllt, Löwe! ;)

Bin sowieso der Meinung, dass ein "Aufrüstungskauf" von einer G3/Radeon 8500 momentan kappes ist.... Darum halte ich es diesmal auch mit "Abwarten und Teetrinken".....

Durch diese Entwicklungen dürfte sich nun aber die Gf4Ti4600 kaum an den Mann/Spieler bringen lassen.... Diese Klasse ist sowieso ein Hohn, wenn man die Preise der ebenfalls brauchbaren Ti4200 dagegenhält....
Hut ab vor Atis Marketing, die Jungs stehen NV in keiner Weise mehr nach, hehehe
Brüllen ist gut, Piffan...
War eher 'ne Möglichkeit etwas wach zu werden...
;-)

Aber auch ich werde es damit halten: Abwarten !
Erst wenn alls auf dem Tisch liegt und auch so 'nen Monat verfügbar ist, werde ich zuschlagen... wenn ich nicht gerade urplötzlich verarmen sollte.

Die gf4ti4600 sehe ich (und vermutlich wird es nVidia genauso sehen) eher, wie damals die gf2ultra, als ein Produkt für Leute, die einfach einen an der Marmel haben (sorry aths ;-) - will sagen sehr viel Geld ausgeben, für ein Produkt, welches eigentlich nur das Schlußlicht einer bereits lange verfügbaren Technologie darstellt und auch noch innerhalb kürzester Zeit 'verlatet'...

Und ja, in Sachen Marketing hat ATI wirklich dazu gelernt, auch wenn es die lieben fanATIsten nicht sonderlich freuen wird. Aber offensichtlich haben Sie auch für sich das Instrument Marketing erkannt und versuchen nun auch ein bissel Kohle im Consumer-Markt zu machen (vielleicht auch mal 'nen bissel mehr Gewinn ;-).

Bis denne

Razor

Simon Moon
2002-07-20, 10:52:10
Originally posted by ow



gerade bei schwacher CPU bist du ja noch eher CPU-limitiert, so dass Senken der Auflösung noch viel weniger bringen sollte.


Ich hab auf Kyro1 über 40fps im jk2ffa Demo bei 1024x768x32Bit, alles max., (AA/AF aus).

Hmm... also das ist doch ein ziemlich hoher wert?

Btw. mich verwirrte da wohl dass ich bspw. wenn kaum Gegner da waren und es wenig zu rendern gab, die fps eben doch ziemlich stiegen. (<70fps, aber das war absolute ausnahme)

ow
2002-07-20, 11:07:00
Originally posted by El-Diablo


Hmm... also das ist doch ein ziemlich hoher wert?

Btw. mich verwirrte da wohl dass ich bspw. wenn kaum Gegner da waren und es wenig zu rendern gab, die fps eben doch ziemlich stiegen. (<70fps, aber das war absolute ausnahme)


Mit steigender Gegnerzahl steigt die CPU-Last.
Das macht meinem Xp1700 relativ weniger aus als deinem 700er Athlon.

Ob ein Multiplayer-DM bei den von mir gewählten Settings bei hoher Gegnerzahl spielbar ist, weiss ich nicht. Vermutlich klemmt´s da schon mal. Ist ja auch nur einem Kyro1.
Aber bei 800x600 kann man alles voll aufdrehen, das wird sicher laufen.

Simon Moon
2002-07-20, 11:11:13
Originally posted by ow



Mit steigender Gegnerzahl steigt die CPU-Last.
Das macht meinem Xp1700 relativ weniger aus als deinem 700er Athlon.

Ob ein Multiplayer-DM bei den von mir gewählten Settings bei hoher Gegnerzahl spielbar ist, weiss ich nicht. Vermutlich klemmt´s da schon mal. Ist ja auch nur einem Kyro1.
Aber bei 800x600 kann man alles voll aufdrehen, das wird sicher laufen.

Ich guck mir das Game in 2Wochen nochmal an, wenn mein XP2000 da sein sollte...

askibo
2002-07-20, 11:13:08
Originally posted by ow
Och, aths.
Es ist nicht flüssig spielbar, insofern der Wert bedeutungslos.


Woher willst du das wissen? 50 FPS ist nur der Mittelwert und solange die Karte die 50FPS relativ konstant hält würde ich das als flüssig bezeichen.
Außerdem ist 50FPS UT-Engine was anderes als 50FPS Q3-Engine. Und ich würde wetten das das Maus-smoothing bei UT2003 noch verbessert wurde.

Am besten wir warten einfach auf die Ut2k3 Demo und die Radeon 9700, dann wissen wir mehr.


Edit:

Daniel hat da heute morgen schon was gepostet
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=26669

Originally posted by vogel
In UT2003 gibts jetzt die (per default eingeschaltete) Option "ReduceMouseLag" die den back buffer "lock'ed" um die Grafikkarte zu "stallen" (ziemlich viele Anglizismen ;)) was framerate- spikes die durch das buffern entstehen koennen ausmerzt und das Spiel sehr sehr spielbar mit niedrigen FPS macht. Die Option drueckt die maximale Framerate auf schnellen Maschinen aber macht spielen _sehr_ viel angenehmer.
-- Daniel, Epic Games Inc.

Razor
2002-07-20, 11:13:55
@El-Diablo
Hmm... scheint einiges länger geworden zu sein als ich wollte. Tja, selber schuld mir soviel zu lesen zu geben ;D
Werde versuchen, mich bei der Reaktion auf Deinen Post etwas kürzer zu fassen...
:D

Wolle aber, wie schon gesagt, eine komplette Meinung abgeben und den Leutz nicht zumuten, sich schonmal gesagtes irgendwo zusammen zu suchen...

Wohl denn:
(Revolutionäres ist die R300 nicht)
ok, ich lass mal den grössten Teil aussen vor, da es ja grösstenteils feststellungen sind (die z.t. schon erwähnt wurden, was jedoch nichts dran ändert das ich eigentlich ähnlicher Meinung bin). Nur gerade hier bin ich eben anderer Meinung.
Afaik ist der Sprung von Pixel&Vertex-Shader 1.3 (ok, ATi hatte 1.4 was ja schon näher am 2.0 denn am 1.3 liegen soll, aber 1.3 ist eben bei DX8.1 das, was eigentlich unterstützt wird) auf 2.0 etwa so gross wie der von DX7 TnL auf DX8 TnL (also Vertex&Pixelshader) ist.
Ich muss ganz ehrlich sagen, dass man den Sprung von DX7 auf DX8 zwar auch als technische Neuerung bezeichnen kann, das aber nicht unbedingt Hintergrund meiner Feststellung war (also nicht: "Sprung von DX8 auf DX9 in nicht Revolutionär").

Die Architektur der gf3, im Gegensatz zu allen Vorgängern, hat mir einfach gefallen... Da wäre zum Beispiel der Cross-Bar-Memeory-Controller, der einen effizienten Ansatz darstellte, dem Problem Speicher-Bandbreite zu begenen. Auch konnte man nun endlich so etwas wie Antialiasing einsetzten, ohne mit massiven Performance-Verlusten leben zu müssen (Multisampling-Verfahren). Und nicht zuletzt der anisotrope Filter, der heute noch 'State-of-the-Art' ist... das sie dazu auch noch zukünftige API's unterstützte (hier also DX8) war ein zusätzliches 'Schmankerl', aber eigentlich kaum ein Kaufgrund.

DAS meinte ich mit Revolution !

Bei der R300 gibt's das zwar auch, aber es ist eigentlich kaum was Neues dazu gekommen... ganz im Gegenteil haben sie viel davon von nVidia übernommen.

256Bit-Speicherinterface und DX9-Features setze ich bei den neuen Chips einfach voraus...
Von der Leistung sieht man nun ja noch nichts, aber das war beim GF3 zum launch ja auch nicht so (tech demos lass ich mal aussen vor). Aber mich persönlich interessiert das nicht gross, da DX9 noch nicht da ist. Was mich interessiert ist die Leistung und die ist selbst bei einem niedrigeren Takt wohl noch beträchtlich. Auf alle fälle genug um in den meisten (erhältlichen) spielen bei 1280*1024 mit 4xFSAA und 8xAF zu zocken. Und eben gerade an Leistung für solche dinge bin ich interessiert.
Und da unterscheidet sich unsere Einstellung doch massivst !

Einzig und alleine die Möglichkeiten der gf3 haben für mich den Kaufgrund ausgemacht. Wenn ich damals nach maximaler Leistung gefragt hätte, dann hätte ich die gf2u nehmen müssen, die nicht nur höher getaktet, sonder auch noch schneller war...
An neuen Features (die vom Spiel unterstützt werden) bin ich nicht speziell interessiert, wenn es sie eben 'dazu' gibt, nem ich sie auch, aber ich such mir ne Karte nicht nach eben jenen aus.
Ich bin schon daran interessiert, dass eine Neuanschaffung auch wirklich über einen langen Zeitraum alles mitmachen, was ich von ihr will. Insbesondere Scene-/Tech-Demos haben es mir da angetan. Und wenn ich daran denke, auf was ich alles in den letzten 15 Monaten (!) hätte verzichten müssen, wenn ich mir keine gf3 gezogen hätte, überfällt mich ein regelrechtes grausen... mal ganz zu schweigen von dem Verlust an Bildquali.

Und auf den 'reinen' Leistungszuwachs, denn mehr würde mir die R300 zur Zeit nicht bringen, kann ich getrost noch ein paar Monate verzichten.
Naja um auf den Kern meiner Aussage zu kommen. Ich seh den R9700 als revolutionärer an als damals die GF3. Ausser Pixel&Vertex Shader hat die ja nichts weltbewegendes gebracht. Leistungsmässig schien es mir auch nie, dass sie soviel darüber liegt. (imho geb ich der R9700 in den relevanten dingen durchaus 20 - 50% mehr leistung, so zuversichtlich bin ich)
Vielleicht verstehst Du mich ja jetzt besser...
Rein Leistungsseitig betrachtet ist die gf3 damals genau das gewesen, was der R300 jetzt werden soll.
Nur bietet der R300 technisch kaum Neues...
(und bietet sogar einige Schwächen hinsichtlich der Fertigung und der Speicheranbindung)
Das mit dem künstlichen und dem R9000 inderekt bewerben hat schon einiges. Aber ausser der 'falschen' Namensgebung des RV250 ist da eigentlich nichts verwerflichs dran. Ich finds sogar positiv, das sie wenigstens normalsterbliche die Karte anschauen lassen, so kann man, ob gestellt oder nicht, immerhin davon ausgehen das es am eben auch so hangelenk mal pi stimmen wird.
Nun ja, weder der finale Takt ist verifiziert, noch die Qualität der Leistungsseitig so erfolgreichen Features AA und AF. Auf die Du ja sogar vor allem anderen so grossen Wert legst. Wenn ich Du wäre, würde mich das schon stutzig machen...
Negativ an dem ganzen ist natürlich das nun überall geschrieben wird: R9700 2.5x so schnell wie Geforce4Ti4600! Aber wenn darauf nicht mehr hingewiesen wird von den 'Testern' (imho ist es ja nicht in allen Benchs so), dann ist es nicht ganz ATis schuld (auch wenns für sie gelegen kommt). Imho sollte jeder der sich die benchs ansieht ja merken, dass sie nicht überall 2.5x so schnell ist. Was hätte ATi schon dagegen tun sollen, damit dies nirgends der fall ist? Das Testmuster tiefer takten, sprich das Marketing nicht ausnutzen? Welche Firma würde das schon machen?
ATI hat ein rein synthetisches Scenario aufgestellt und den Testern nicht genug Zeit gelassen, das Dargebotene ganu zu verifizieren. Das, was sie damit erreichen wollten, ist klar und hat ja auch entsprechende Wirkung gezeigt. Ob damit allerdings nicht mehr desinformiert wird, den informiert, wage ich doch zumindest einmal behaupten zu dürfen, oder ?

-

Wie schon gesagt, ich lege auf Speed nur sekundär Wert, insofern unterscheiden sich unsere Einstellungen hier sogar Elementar.

Aber noch ist nicht alles über den R300 bekannt und es liegen noch keine Fakten über den NV30 auf dem Tisch. Und solange das noch so ist, werde ich sicher kein abschliessendes Urteil fällen !

Ich hoffe, nicht zu weit ausgeholt zu haben (hab' mir echt Mühe gegeben), aber mir ist es wichtig, mich unmissverständlich auszudrücken.

Bis denne

Razor

/EDIT: Viiiieeeeeele Fehler korrigiert... (aber sicher nicht alle ;-)

Quasar
2002-07-20, 11:22:35
Originally posted by HADES
... gerade auf.
Als der V5 vorgestellt wurde,dauerte es auch noch ewig, bis der Chip verfuegbar war.Seinerzeit hatte Nvidia den Geforce Chip und dessen Nachfolger in der Zeit der Verzoegerung des V5 herausgebracht, woraufhin 3Dfx ins hintertreffen kam.Sollte nun Ati etwas aehnliches gelingen.Dann koennte es nicht gerade gut fuer Nvidia aussehen.


Hm, irgendwie folge ich dir nicht ganz. Wer hat jetzt denn schon einen Chip vorgestellt, und wer könnte in der Zwischenzeit aufm Markt sein, wie damals?

Entweder dein Argument ist pro-nV oder du verdrehst hier irgendwie was....

BTW, ATi's "Animusic-Video" r0x0rzzz. Ich schau's grade bestimmt zum zehnten mal. Coole Animation, cooler Sound und ober-coole Choreographie.

Unregistered
2002-07-20, 11:55:52
also irgendwie bin ich der meinung dass anandtech die ati bei sich geteste hat und nicht auf von atis gestellten pcs und so hab ich das auch bei tomshardware aufgenommen....

Schnitzl
2002-07-20, 12:24:40
Originally posted by ow
(50 fps)

Och, aths.
Es ist nicht flüssig spielbar, insofern der Wert bedeutungslos.
(..)
IMHO kann man bei den "neuen" Karten (Parhelia, R300) die fps fürs flüssige spielen niedriger ansetzen wie bei den "alten" Karten (z.B. R8500)
Das ist meine persönliche Erfahrung :
R8500 mehr fps. Parhelia weniger, aber flüssiger

MfG

Razor
2002-07-20, 12:30:09
Originally posted by Unregistered
also irgendwie bin ich der meinung dass anandtech die ati bei sich geteste hat und nicht auf von atis gestellten pcs und so hab ich das auch bei tomshardware aufgenommen....
Seh' ich anders...

Anscheinend hat ATI Anand eine Sondererlaubnis erteilt, wenigstens den eigenen Rechner zu benutzen (ebenfalls ein P2.4B mit PC800 RDRam, also 'fast' das von ATI gestellte System).

Hier mal einige Auszüge Preview von Anand:
http://www.anandtech.com/video/showdoc.html?i=1656&p=17 :

The Test

As we know our AnandTech readers well, we thought you might like to see some benchmarks of the beast. ATI allowed us to the test the R300 on our own testbeds and we eagerly jumped at the opportunity.

http://www.anandtech.com/video/showdoc.html?i=1656&p=23 :

SMOOTHVISION 2.0 - Anti-Aliasing Performance

We didn't have much time with the Radeon 9700 so we couldn't run a full suite of AA tests nor take screen shots, but we did run a few numbers under UT2003 and Quake III Arena just to whet your appetite:

...

As we mentioned before, this is more of a preview and we'll run through a much more thorough set of tests in our actual review of the shipping Radeon 9700.
Kann natürlich auch sein, dass die MiB's von ATI mit dem Aktenköfferchen zu ATI gekommen sind und dann peinlich genau darauf achteteten, daß Anand auch nicht irgendetwas macht, was nicht vorgesehen ist. Glaube aber (und glauben haisst natürlich nicht wissen ;-), dass Anand genauso zu ATI 'kroch', wie die anderen Tester auch.

Und das 'Preview' von Tom hab' ich mir NICHT nageschaut...
(werde wohl so schnell nichts mehr von denen oder Borsti lesen ;-)

Bis denne

Razor

Unregistered
2002-07-20, 12:30:32
Interessant ist vielleicht das Preview (http://www.hothardware.com/hh_files/S&V/atir9000_r9700.shtml) von hothardware. Da sind unter anderem zwei Bilder, an denen man einen ersten Eindruck von der R300-Bildquali gewinnen kann.
Zur Geschwindigkeit:the fun really began when we asked the ATi team to enable AA and Aniso Filtering with the Unreal 2003 demo they were showing. At one point they had the demo runing at a resolution of 1280X1024 with 16X Aniso (128 tap trilinear) Filtering with 6X AA enabled. The frame rate we got at the end of the run was in the low 30s. This is very impressive for sure. The game moved without a hiccup and the images were simply gorgeous. We then had them fire up Quake 3 Arena, even though the game engine is as old as the hills it seems, just to get a universal reference point on raw performance. We had them set the resolution to 1600X1200 with 6X FAA and 16X Aniso Filtering, in there drivers. What we saw was a jaw dropping 60+ frames per second!
"Unreal 2003" wird wohl das wenig komplexe UT 2003 sein; das bedeutet, dass Unreal 2 (erheblich komplexer als UT2003) mit diesen Einstellungen absolut unspielbar sein wird. Und ob 30 fps für UT2003 reichen, bleibe einmal dahingestellt.
Dass eine R300 für Doom3 nicht reicht, ist durch die Präsentation bekannt, bei der sich die R300 einen abgeruckelt hat.
Um alte Spiele in schöner Bildquali zu spielen, sollte eine R300 aber weit gehend reichen.
Originally posted by [DH]Avenger
"zwei parallele Geraden schneiden sich im Unendlichen"Moment, ich geh eben mal nachsehen.

Razor
2002-07-20, 12:51:24
Habe gerade noch einen weiteren Hinweis gefunden, der sogar andeutet, daß Anand gar nicht selber getestet hat, sondern lediglich die Hardware zur Verfügung gestellt hat:
http://www.anandtech.com/video/showdoc.html?i=1656&p=16 :

So much for a Unified Driver Architecture

When ATI showed us the Radeon 8500, they promised that they would finally be moving to a Unified Driver Architecture (UDA) like NVIDIA. But after conversing with one of ATI’s software engineers, we have learned that the R300’s DirectX drivers are completely new.
Was auch immer, wie auch immer...
Würde lieber 'echte' Tests sehen wollen, als solch wiedersprüchliche 'Previews'.

Bis denne

Razor

Iceman346
2002-07-20, 12:56:29
Originally posted by Unregistered
Dass eine R300 für Doom3 nicht reicht, ist durch die Präsentation bekannt, bei der sich die R300 einen abgeruckelt hat.
Um alte Spiele in schöner Bildquali zu spielen, sollte eine R300 aber weit gehend reichen.
Moment, ich geh eben mal nachsehen.

Das die R300 für Doom 3 nicht reicht wage ich extremst zu bezweifeln. Bei der Präsentation gab es Probleme aber ich gehe davon aus das diese mittlerweile behoben sind. Und wenn die R300 Doom 3 nicht auf vollen Details flüssig laufen lassen kann, welche Karte dann? Ich glaube nicht das die NV30 so viel schneller wird, daß diese dann Doom flüssig darstellen würde.

Razor
2002-07-20, 12:58:51
Originally posted by Iceman346


Das die R300 für Doom 3 nicht reicht wage ich extremst zu bezweifeln. Bei der Präsentation gab es Probleme aber ich gehe davon aus das diese mittlerweile behoben sind. Und wenn die R300 Doom 3 nicht auf vollen Details flüssig laufen lassen kann, welche Karte dann? Ich glaube nicht das die NV30 so viel schneller wird, daß diese dann Doom flüssig darstellen würde.
Und worauf basiert Dein 'Glaube' ?
(mehr als 'medium' auf R300 möglich und NV30 nicht sehr viel schneller)
???

Razor

Doomtrain
2002-07-20, 13:08:52
Originally posted by Unregistered

Dass eine R300 für Doom3 nicht reicht, ist durch die Präsentation bekannt, bei der sich die R300 einen abgeruckelt hat.
Um alte Spiele in schöner Bildquali zu spielen, sollte eine R300 aber weit gehend reichen.


Also 1024x768 mit max Details MÜSSEN (Und werden auch, wenn auch ohne FSAA oder anisotropic) drin sein. Um alte Spiele mit guter Bildqualität zu spielen brauch ich keine neue Karte, da reicht auch meine GeForce3!!!

Einen abgeruckelt? Ich würde sagen flüssig war die Präsentation doch wohl, oder?

Simon Moon
2002-07-20, 13:29:15
@Razor
Originally posted by Razor

[SIZE=1]
Werde versuchen, mich bei der Reaktion auf Deinen Post etwas kürzer zu fassen...
:D


Danke ;D Ich werde evtl. einige Abschnitte auch unkommentiert lassen, ist aber nicht sicher. (ok, das meiste wurde doch kommentiert )


Wohl denn:
(Revolutionäres ist die R300 nicht)
Die Architektur der gf3, im Gegensatz zu allen Vorgängern, hat mir einfach gefallen... Da wäre zum Beispiel der Cross-Bar-Memeory-Controller, der einen effizienten Ansatz darstellte, dem Problem Speicher-Bandbreite zu begenen.


Stimmt, wobei das scheinbar erst bei 256Bit DDR so richtig zum tragen kommt. Ok, tut nix zur sache.


Auch konnte man nun endlich so etwas wie Antialiasing einsetzten, ohne mit massiven Performance-Verlusten leben zu müssen (Multisampling-Verfahren).


Jupp, auch das stimmt. Wobei es jedoch qualitativ kein vergleich zum RG FSAA der V5 ist.


Und nicht zuletzt der anisotrope Filter, der heute noch 'State-of-the-Art' ist... das sie dazu auch noch zukünftige API's unterstützte (hier also DX8) war ein zusätzliches 'Schmankerl', aber eigentlich kaum ein Kaufgrund.


Seh ich auch so, aber ich dachte imho anisotrope Filter wurden schon vor DX8 unterstützt? Also brachte es die GF3 'lediglich' auf ein nutzbares Niveau.


DAS meinte ich mit Revolution !

Bei der R300 gibt's das zwar auch, aber es ist eigentlich kaum was Neues dazu gekommen... ganz im Gegenteil haben sie viel davon von nVidia übernommen.


Das würd ich nicht sagen. Bei dem Speicherinterface ist es eigentlich eine ziemlich 'einfache' lösung. Sprich man kommt schnell auf die Idee es so zu lösen. Auch der anisotropische Filter ist von in den DX Specs, also wieso nicht sinnvoll unterstützen?
Und beim AA. Die Idee hierzu könnte wohl auch vom Flipper sein, bin mir aber leider nicht mehr ganz sicher ob der ein ähnliches AA nutzt.


256Bit-Speicherinterface und DX9-Features setze ich bei den neuen Chips einfach voraus...


Nö. Gerade ein 256Bit Speicherinterface setze ich überhaupt nicht voraus. Wenn eine Firma es schaft, vergleichbare werte mit einem 128Bit Speicherinterface zu erzielen, ist mir das nur recht. (ein schelm wer jetzt da an den Kyro3 denkt) Und DX9 ist imho für dich persönlich pflicht, für den Massen-Markt wirds das aber nicht soo schnell geben.


Einzig und alleine die Möglichkeiten der gf3 haben für mich den Kaufgrund ausgemacht. Wenn ich damals nach maximaler Leistung gefragt hätte, dann hätte ich die gf2u nehmen müssen, die nicht nur höher getaktet, sonder auch noch schneller war...


Nein, so seh ich das auch nicht. Die GF2Ultra kann man mit dieser Situation nicht vergleichen. Die GF3 ist wesentlich schneller unter FSAA. Und da kommts mir schlussendlich schon drauf an. Ne R9700 ohne FSAA und ohne AF würde mich nen scheiss interessieren. Wie soll ich denn da sinnvoll die Leistung verbraten?


Ich bin schon daran interessiert, dass eine Neuanschaffung auch wirklich über einen langen Zeitraum alles mitmachen, was ich von ihr will. Insbesondere Scene-/Tech-Demos haben es mir da angetan. Und wenn ich daran denke, auf was ich alles in den letzten 15 Monaten (!) hätte verzichten müssen, wenn ich mir keine gf3 gezogen hätte, überfällt mich ein regelrechtes grausen... mal ganz zu schweigen von dem Verlust an Bildquali.


Zukunftssicherheit ist mir (auf wesentlich längere Sicht) Wurscht. Entweder taugt sie in zwei Jahren noch was oder nicht. Natürlich würd ich mir jedoch auch jetzt nich noch ne DX7 Graka à la GF4MX kaufen. Die MX ist mir hier dann doch etwas zu 'alt'. Da hab ich etwa dasselbe an ner GF2GTS. Ne, wenn ich abschätzen kann, das es wohl rasch aus sein wird, kauf ich das nicht. Aber wenn ich ne Karte kaufe, die eigentlich aktuell sein sollte (DX8 Momentan) dann kauf ich die, mach mir aber keine Hoffnungen nur, weils jetzt das aktuellste ist, dass es in 2 Jahren auch noch gut geht.



Vielleicht verstehst Du mich ja jetzt besser...
Rein Leistungsseitig betrachtet ist die gf3 damals genau das gewesen, was der R300 jetzt werden soll.
Nur bietet der R300 technisch kaum Neues...
(und bietet sogar einige Schwächen hinsichtlich der Fertigung und der Speicheranbindung)


Du widersprichst dich. Gerade oben hast du noch geschrieben, die GF2Ultra wäre, wenn du nur auf Speed geachtet hättest, besser gewesen als die GF3. Die R9700 liegt jedoch insgesamt doch ziemlich deutlich vor der GF4Ti4600 und ich denk, das wird sich auch nicht ändern. (nur verringern)


Nun ja, weder der finale Takt ist verifiziert, noch die Qualität der Leistungsseitig so erfolgreichen Features AA und AF. Auf die Du ja sogar vor allem anderen so grossen Wert legst. Wenn ich Du wäre, würde mich das schon stutzig machen...


Ja, das ist mir ja auch klar. Ich behauptet auch nix anderes. Aber das wäre es auch nicht, wenn ATi einfach mal so sagen würde: Der R300 ist 2.5x schneller als die GF4Ti4600. So wie sies jetzt gemacht haben, ist er in Szenarien teilweise wirklich 2.5x schneller als die Ti4600 und das kann man auch kaum bestreiten. Das AA und AF sich erst noch beweisen müssen ist ne andere sache, aber da nützt es auch nichts wenn ich es zum vornherein verteufle, ich bin da noch neutral. (was die Quali anbelangt)


ATI hat ein rein synthetisches Scenario aufgestellt und den Testern nicht genug Zeit gelassen, das Dargebotene ganu zu verifizieren. Das, was sie damit erreichen wollten, ist klar und hat ja auch entsprechende Wirkung gezeigt. Ob damit allerdings nicht mehr desinformiert wird, den informiert, wage ich doch zumindest einmal behaupten zu dürfen, oder ?


Klar darfst du das behaupten. Nur kann man viele schlüsse daraus ziehen (mittlerweile erst recht). Der wichtigste schluss ist wohl, dass die R9700 schneller ist als die GF4Ti4600. Wenn das in der Final nicht mehr so wär, dann wär ATi weg vom fenster.


Wie schon gesagt, ich lege auf Speed nur sekundär Wert, insofern unterscheiden sich unsere Einstellungen hier sogar Elementar.


Ich will den Speed für FSAA und AF. Ob ich nun 40 oder 300fps haben ist mir eigentlich egal (Ok, EgoShooter dürfens schon mehr sein).


Aber noch ist nicht alles über den R300 bekannt und es liegen noch keine Fakten über den NV30 auf dem Tisch. Und solange das noch so ist, werde ich sicher kein abschliessendes Urteil fällen !


Stimmt. Aber ich werd, wenn sich ne günstige Gelegenheit bietet und die R9700 wirklich gut ist, nicht nochauf den NV30 warten.


Ich hoffe, nicht zu weit ausgeholt zu haben (hab' mir echt Mühe gegeben), aber mir ist es wichtig, mich unmissverständlich auszudrücken.


Hab was ähnliches versucht. *g* Aber wieso muss es eigentlich schon 13:30 sein? Ich steh doch gestern erst in 2h auf... *g*

Xmas
2002-07-20, 13:42:14
Originally posted by Unregistered
Interessant ist vielleicht das Preview (http://www.hothardware.com/hh_files/S&V/atir9000_r9700.shtml) von hothardware. Da sind unter anderem zwei Bilder, an denen man einen ersten Eindruck von der R300-Bildquali gewinnen kann.
Wo sind da R300-Screenshots?

StefanV
2002-07-20, 13:43:05
Originally posted by ow



Haben deine Rechenfähigkeiten nachgelassen?

275fps zu 250 fps (1024, beide gerundet) sind bei mir mehr als 2,5%.

Toll...

Bei 10% siehst DU eine GraKa Limitierung??

Aber ansonsten gehts noch, oder?

Simon Moon
2002-07-20, 13:51:40
Originally posted by Stefan Payne


Toll...

Bei 10% siehst DU eine GraKa Limitierung??

Aber ansonsten gehts noch, oder?

Was ist es denn sonst? Messungenaugkeit? Also ich seh dasselbe...

Iceman346
2002-07-20, 13:56:16
Originally posted by Razor

Und worauf basiert Dein 'Glaube' ?
(mehr als 'medium' auf R300 möglich und NV30 nicht sehr viel schneller)
???

Razor

Da Glaube nichts mit der Realität zu tun hat basiert der einfach auf meinen persönlichen Einschätzungen, die musst du natürlich nicht teilen ;)

askibo
2002-07-20, 14:08:16
Originally posted by Iceman346
Das die R300 für Doom 3 nicht reicht wage ich extremst zu bezweifeln. Bei der Präsentation gab es Probleme aber ich gehe davon aus das diese mittlerweile behoben sind. Und wenn die R300 Doom 3 nicht auf vollen Details flüssig laufen lassen kann, welche Karte dann? Ich glaube nicht das die NV30 so viel schneller wird, daß diese dann Doom flüssig darstellen würde.


Seh ich auch so.

Alpha-Doom3-Version + Betatreiber + Betaboard(unbekannte Taktrate) = Null Aussagekaft

Razor
2002-07-20, 14:14:16
@El-Diablo

Du willst es ja nicht anders !
:D

Also...
4fachCBMC:
Stimmt, wobei das scheinbar erst bei 256Bit DDR so richtig zum tragen kommt. Ok, tut nix zur sache.
MSAA:
Jupp, auch das stimmt. Wobei es jedoch qualitativ kein vergleich zum RG FSAA der V5 ist.
AF:
Seh ich auch so, aber ich dachte imho anisotrope Filter wurden schon vor DX8 unterstützt? Also brachte es die GF3 'lediglich' auf ein nutzbares Niveau.
Ich hab' das einfach ein bissel zusammen gefasst ;)
4fachCBMC: gerade der 256BitDDR ist damit vermutlich unterdimensioniert, denn insbesondere dieser ist bei einem 128BitDDR-Speicherinterface (gf3+) als sehr effizient bekannt (4x32 bzw. 4x64Bit).
MSAA: qualitatv war das Verfahren von 3dfx auf jeden Fall besser, aber Leistungsseitig nicht zu gebrauchen. Gut dass nun die Jungs von 3dfx am NV30 mitwerkeln ;-)
AF:
Lediglich 2xAF war möglich und hat auch ganz schön Leisung gekostet. Mit dem gf3 ist trilineares 8xAF möglich geworden, und ich spiele heute (!) selbst die neuesten Games mit 4xAF.
Das würd ich nicht sagen. Bei dem Speicherinterface ist es eigentlich eine ziemlich 'einfache' lösung. Sprich man kommt schnell auf die Idee es so zu lösen. Auch der anisotropische Filter ist von in den DX Specs, also wieso nicht sinnvoll unterstützen?
Und beim AA. Die Idee hierzu könnte wohl auch vom Flipper sein, bin mir aber leider nicht mehr ganz sicher ob der ein ähnliches AA nutzt.
Wenn es so einfach wäre eine CBMC-Architektur aus Nichts zu schnitzen, wieso hat es ATI nicht schon mit dem R200 gemacht und wieso fehlt es beim Parhelia noch immer ? Sorry, aber hier hat ATI eindeutig von nVidia abgekupfert. Und wo wir schon dabei sind, im Mobo-Chipsatz-Sektor war auch wieder nVidia der erste (!) Chip-Hersteller, der eine solche Technologie einführte...

Wie dem auch sei, vom NV30 erwarte ich etwas Ähnliches !
:D
Nö. Gerade ein 256Bit Speicherinterface setze ich überhaupt nicht voraus. Wenn eine Firma es schaft, vergleichbare werte mit einem 128Bit Speicherinterface zu erzielen, ist mir das nur recht. (ein schelm wer jetzt da an den Kyro3 denkt) Und DX9 ist imho für dich persönlich pflicht, für den Massen-Markt wirds das aber nicht soo schnell geben.
Über kurz oder lang werden alle neuen Chips einen solchen Speicherbus (256BitDDR) mitbringen, allein schon aufgrund der Vorteile für die interne Architektur. Aber in einem Punkt gebe ich Dir recht, um den R300 zu schlagen, braucht's vermutlich zum jetzigen Zeitpunkt keine 256BitDDR-Anbindung (siehe auch Demirug's Thread). Und den KyroIII wollen wir doch schon mal ganz schnell vergessen...
;-)

Und ja, auf (vollständiges) DX9 werde ich bei meiner nächsten Anschaffung keinesfalls verzichten !
Nein, so seh ich das auch nicht. Die GF2Ultra kann man mit dieser Situation nicht vergleichen. Die GF3 ist wesentlich schneller unter FSAA. Und da kommts mir schlussendlich schon drauf an. Ne R9700 ohne FSAA und ohne AF würde mich nen scheiss interessieren. Wie soll ich denn da sinnvoll die Leistung verbraten?
Oh doch, die Situation ist sehr gut vergleichbar !
gf4ti4600(DX8) = gf2ultra(DX7)
Radeon9700(DX9) = gf3

Damals war die gf3 unter AA sehr viel schneller als eine gf2u...
Bald wird ein R300 unter AA sehr viel schneller sein, als eine gf4ti4600...

Es ist sogar exakt die selbe Situation !
Aber wie ich schon darstellte kommt es mir (!) nicht nur auf die Geschwindigkeit an...
Zukunftssicherheit ist mir (auf wesentlich längere Sicht) Wurscht. Entweder taugt sie in zwei Jahren noch was oder nicht. Natürlich würd ich mir jedoch auch jetzt nich noch ne DX7 Graka à la GF4MX kaufen. Die MX ist mir hier dann doch etwas zu 'alt'. Da hab ich etwa dasselbe an ner GF2GTS. Ne, wenn ich abschätzen kann, das es wohl rasch aus sein wird, kauf ich das nicht. Aber wenn ich ne Karte kaufe, die eigentlich aktuell sein sollte (DX8 Momentan) dann kauf ich die, mach mir aber keine Hoffnungen nur, weils jetzt das aktuellste ist, dass es in 2 Jahren auch noch gut geht.
2 Jahre sind in diesem Geschäft aber ein sehr langer Zeitraum.
Also ist Dir Zukunfssicherheit doch nicht so ganz egal, oder ?
Und momentan ist nicht einmal klar, ob die R300 auch bei Erscheinen von Doom3 (max Details !) noch was 'taugt'...

Und meine gute alte gf3 ist schon seit mehr als 15 Monaten 'aktuell'...
(wenn sie's nicht mehr wäre, wär' sie nicht mehr da ;-)
Du widersprichst dich. Gerade oben hast du noch geschrieben, die GF2Ultra wäre, wenn du nur auf Speed geachtet hättest, besser gewesen als die GF3. Die R9700 liegt jedoch insgesamt doch ziemlich deutlich vor der GF4Ti4600 und ich denk, das wird sich auch nicht ändern. (nur verringern)
Keineswegs wiederspreche ich mich hier...
Die gf3 war mit AA und AF 'deutlich' schneller als 'ne gf2u.
Genauso wird es bald mit der R300 und der gf4ti4600 sein (wenn das alles so stimmt)...
Aber Geschwindigkeit ist nicht das einzige, was mich interessiert...
(wie oft soll ich das noch sagen ? ;-)
Ja, das ist mir ja auch klar. Ich behauptet auch nix anderes. Aber das wäre es auch nicht, wenn ATi einfach mal so sagen würde: Der R300 ist 2.5x schneller als die GF4Ti4600. So wie sies jetzt gemacht haben, ist er in Szenarien teilweise wirklich 2.5x schneller als die Ti4600 und das kann man auch kaum bestreiten. Das AA und AF sich erst noch beweisen müssen ist ne andere sache, aber da nützt es auch nichts wenn ich es zum vornherein verteufle, ich bin da noch neutral. (was die Quali anbelangt)
Und das ist exakt der Punkt, auf den ich hinaus wollte...
Wie schaut es denn aus, wenn man einen solchen Vergleich auf Basis eines Athlon-Systems macht ?
Wie schaut es aus, wenn man 'nur' einen P4 1,6 nimmt ?

Im Prinzip hat ATI tatsächlich nichts anderes gemacht, als zu sagen:
"R300 ist 2,5mal schneller als gf4ti4600"
Und mehr auch nicht, denn ob das in realen Umgebungen stimmt, wird sich erst heraus stellen müssen. Bezogen auf die Rohperformance (ohne AA und AF) ist dieses schon mal definitiv falsch (sind 'nur' 20-30%).
Klar darfst du das behaupten. Nur kann man viele schlüsse daraus ziehen (mittlerweile erst recht). Der wichtigste schluss ist wohl, dass die R9700 schneller ist als die GF4Ti4600. Wenn das in der Final nicht mehr so wär, dann wär ATi weg vom fenster.
Wär ja auch schlecht, wenn Technologie der neuesten Generation nicht mit Technlogie der vorherigen Generation mithalten könnte (wie beim Parhelia geschehen), oder ?

-

Nochmal:

Wenn die R300 nicht was wirklich Innovatives bringt (was sich durchaus noch heraus stellen kann) und die Treiber (die ja nun wieder 'von vorne' entwickelt werden, zudem von einer Firma, die im Consumer-Bereich noch keine Erfahrungen hat) wieder erst einmal ein halbes Jahr 'entwickelt' werden müssen, bevor sie vernünftig laufen (bitte keine erneute Treiber-Diskussion ;-), hat sie sich für mich erledigt.

Dann werde ich dem NV30 eine Chance geben und wenn das auch nicht's wird, dann hol ich mir 'ne gf4ti4200 (oder etwas besser, um meine gf3 auf neuesten Stand zu bringen).

That's it !
:D

In diesem Sinne

Razor

Razor
2002-07-20, 14:25:32
Originally posted by Iceman346

Da Glaube nichts mit der Realität zu tun hat basiert der einfach auf meinen persönlichen Einschätzungen, die musst du natürlich nicht teilen ;)
ICH WILL DAS SPEKU-FORUM WIEDER HABEN !!!
;D

Razor

Leonidas
2002-07-20, 14:36:29
Originally posted by Birdman
Graka/CPU Limitierung bei Q3? Hier kommt (m)ein Nachtrag:
----------------------------------------------------------

Auflösung | Sound | NoSOund
----------------------------
512x384 | 208.9 | 280.8
640x480 | 211.5 | 285.8
800x600 | 207.9 | 275.9
1024x768 | 202.6 | 250.2
1152x864 | 192.5 | 222.7
1280x1024 | 172.7 | 186.0
1600x1200 | 134.5 | 137.6

So, nun kann sich jeder selbst ein Bild machen, ab wann auf einem P4 2.26Ghz @2.38Ghz + ti6400 @280/660Mhz eine CPU bzw. Gfx Limitierung




Sorry, aber das ist !@*z°:>|? hoch 3. Möglicherweise existiert eine CPU-Limitierung - aber mit diesen Benchmarks kannst Du das definitiv nicht nachweisen! Denn: Unter 16x12 muß die Soundkarte ca. 5x so schnell den Sound liefern wie normal, unter 5x3 ca. 8x. Es limitiert die Soundkarte, die gar nicht auf solche Anforderungen ausgelegt ist!

Iceman346
2002-07-20, 14:39:21
Originally posted by Razor

ICH WILL DAS SPEKU-FORUM WIEDER HABEN !!!
;D

Razor

Ich auch :)

HiddenGhost
2002-07-20, 14:39:27
Was kann man wohl von einer AIW Radeon 9700 erwarten ???

Simon Moon
2002-07-20, 15:08:29
@El-Diablo

Du willst es ja nicht anders !


Ich bin nur übermüdet und weiss nicht mehr was ich tu :D

Also...

Ok...


AF:
Lediglich 2xAF war möglich und hat auch ganz schön Leisung gekostet. Mit dem gf3 ist trilineares 8xAF möglich geworden, und ich spiele heute (!) selbst die neuesten Games mit 4xAF.


Jo, aber im endeffekt wars nicht mehr ganz neu.

Wenn es so einfach wäre eine CBMC-Architektur aus Nichts zu schnitzen, wieso hat es ATI nicht schon mit dem R200 gemacht und wieso fehlt es beim Parhelia noch immer ? Sorry, aber hier hat ATI eindeutig von nVidia abgekupfert. Und wo wir schon dabei sind, im Mobo-Chipsatz-Sektor war auch wieder nVidia der erste (!) Chip-Hersteller, der eine solche Technologie einführte...

Ok, ich würde es aber mal so sehen: ATi hat von anfang an gemerkt, das ein einfaches Interface so kaum noch was bringen würde und hats wohl vorallem darum integriert. Und viele möglichkeiten die Speicheranbindung effektiver zu machen, scheints wohl nicht zu geben. Und beim R200 hats ATi wohl nicht gemacht, weil da der Kosten/Nutzen evtl nicht gut genug war? Vielleicht auch weil sies nicht für nötig hilten (ok, das wär wieder dasselbe, glaub ich)...



Über kurz oder lang werden alle neuen Chips einen solchen Speicherbus (256BitDDR) mitbringen, allein schon aufgrund der Vorteile für die interne Architektur. Aber in einem Punkt gebe ich Dir recht, um den R300 zu schlagen, braucht's vermutlich zum jetzigen Zeitpunkt keine 256BitDDR-Anbindung (siehe auch Demirug's Thread). Und den KyroIII wollen wir doch schon mal ganz schnell vergessen...
;-)

Nö, Kyro3 vergess ich nicht. Wird sicher ne interessante Karte (leider wohl wieder zu spät... ). Und das über kurz oder lang jeder 256Bit haben wird ist wohl auch logisch (also Bruteforcer...)


Und ja, auf (vollständiges) DX9 werde ich bei meiner nächsten Anschaffung keinesfalls verzichten !

Naja, du wärst (sorry vornweg) auch blöd, wenn du jetzt nochmals auf ne DX8 Karte aufrüsten würdest. Die GF3 sollte doch noch reichen, bis die ersten DX9 Karten da sind...

Oh doch, die Situation ist sehr gut vergleichbar !
gf4ti4600(DX8) = gf2ultra(DX7)
Radeon9700(DX9) = gf3

Naja vergleichbar durchaus, auch wenn ich den schritt von der Performance her bei der ATi als grösser erachte... (liegt vielleicht dran, das ich bei der GF3 wirklich noch halbwegs an dinge wie < 7x schneller geglaubt habe -> war enttäuscht)




2 Jahre sind in diesem Geschäft aber ein sehr langer Zeitraum.
Also ist Dir Zukunfssicherheit doch nicht so ganz egal, oder ?
Und momentan ist nicht einmal klar, ob die R300 auch bei Erscheinen von Doom3 (max Details !) noch was 'taugt'...

Zukunftsicherheit heisst für mich, auch in 2 Jahren ein Game noch in 1280*1024*32 HQ, mit 2xAA und 4xAF zu zocken. Ich werd mich aber wohl auch mit weniger begnügen. Die nächste Graka wird dann sowieso warten, ob die alte nun veraltet ist oder nicht ;D , ich hab einfach nicht die Kohle mir ständig das neuste zu kaufen (imho darf ich jetzt 3 Wochen im Lager arbeiten um aufzurüsten.. ok, die ferien werden damit auch finanziert ;D )

(wenn sie's nicht mehr wäre, wär' sie nicht mehr da

Was betrachtest du denn als aktuell? 1280*1024*32 HQ und 4xAF? (

Keineswegs wiederspreche ich mich hier...
Die gf3 war mit AA und AF 'deutlich' schneller als 'ne gf2u.
Genauso wird es bald mit der R300 und der gf4ti4600 sein (wenn das alles so stimmt)...
Aber Geschwindigkeit ist nicht das einzige, was mich interessiert...
(wie oft soll ich das noch sagen ?

Imho ist Bruteforce meist kein übler indikator um festzustellen ob man noch andere Features (AF, AA ) dazu zu schalten. Darum achte ich darauf auch ziemlich.

Und das ist exakt der Punkt, auf den ich hinaus wollte...
Wie schaut es denn aus, wenn man einen solchen Vergleich auf Basis eines Athlon-Systems macht ?
Wie schaut es aus, wenn man 'nur' einen P4 1,6 nimmt ?

In diesem fall würd ich sagen, die GF4Ti4600 ist ziemlich nah an ner R9,7k. Doch der P4 1,6Ghz ist wohl unterdimensioniert für diese Karte... Ich denke So ab nem P4 2Ghz+ sollte es schlussendlich ja schon sein, sonst kann man sich das Geld sparen und ne Ti4600 reinhauen. (ausser man will unbedingt jetzt schon DX9 haben).

Im Prinzip hat ATI tatsächlich nichts anderes gemacht, als zu sagen:
"R300 ist 2,5mal schneller als gf4ti4600"

Nein, das sagen die, die die (nein ich stottere nicht :D ) Benchmarks angeschaut haben. Es kam nur eben einmal raus und das auch nur einmal. Was kann ATi denn für ihre fans? Zudem stören mich solche dinge nicht mehr, ich hab daraus gelernt (siehe GF3).

Und mehr auch nicht, denn ob das in realen Umgebungen stimmt, wird sich erst heraus stellen müssen. Bezogen auf die Rohperformance (ohne AA und AF) ist dieses schon mal definitiv falsch (sind 'nur' 20-30%).

Ja, aber wer kauft sich ne R9700 und spielt dann ohne AA und AF?


-

Nochmal:

Wenn die R300 nicht was wirklich Innovatives bringt (was sich durchaus noch heraus stellen kann) und die Treiber (die ja nun wieder 'von vorne' entwickelt werden, zudem von einer Firma, die im Consumer-Bereich noch keine Erfahrungen hat) wieder erst einmal ein halbes Jahr 'entwickelt' werden müssen, bevor sie vernünftig laufen (bitte keine erneute Treiber-Diskussion ;-), hat sie sich für mich erledigt.

Dann wirf kein Brennholz in die Treiberdiskussion ;)

Dann werde ich dem NV30 eine Chance geben und wenn das auch nicht's wird, dann hol ich mir 'ne gf4ti4200 (oder etwas besser, um meine gf3 auf neuesten Stand zu bringen).

Das würd ich dir nicht anraten. Aber musst selber wissen...

Naja, aber schlussendlich denk ich, sooo extrem auseinander liegen wir garnicht. Imho ist die Betrachtungsweise nur anders, im endeffekt zählt für beide das spielen mit AF und AA...

Doomtrain
2002-07-20, 15:09:48
Originally posted by HiddenGhost
Was kann man wohl von einer AIW Radeon 9700 erwarten ???

Hammerschnell und alles wie gehabt....Was sonst?

HiddenGhost
2002-07-20, 15:14:51
Ich meinte eher, was wird eine AIW 9700 neues bringen...

Razor
2002-07-20, 15:36:54
@El-Diablo
Naja, aber schlussendlich denk ich, sooo extrem auseinander liegen wir garnicht. Imho ist die Betrachtungsweise nur anders, im endeffekt zählt für beide das spielen mit AF und AA...
Sorry, das ich nicht auf den ganzen Post antworte, aber irgendwie hab' ich die Übersicht verloren...
;D

Und ja, AA und AF sind wichtig.
Aber viel wichtiger ist mir technische Innovation, denn sonst kann ich auch meine gf3 behalten. Zur not kann ich ein Game auch ohne AA und AF durch zocken oder mir Demo's schenken, die meinem Kärtchen zu weit voraus wären... könnte, will ich aber nicht !

So ein Dingelchen muss mich eben auch fastzinieren, sonst kann ich mich auch mit Briefmarken beschäftigen. Das heisst nicht, daß man 'immer' das Neueste braccht, aber was 'wirklich' Neues brauch so alle 2 Jahre schon... und (noch) erscheint mir die R300 kein richtiger Kandidat dafür zu sein.

Bis denne und nein, so weit liegen wir nicht auseinander.
;-)

Razor

Exxtreme
2002-07-20, 15:47:41
Originally posted by Razor
So ein Dingelchen muss mich eben auch fastzinieren, sonst kann ich mich auch mit Briefmarken beschäftigen. Das heisst nicht, daß man 'immer' das Neueste braccht, aber was 'wirklich' Neues brauch so alle 2 Jahre schon... und (noch) erscheint mir die R300 kein richtiger Kandidat dafür zu sein.

Dann beam dir mal die Videos der R9700 rein. Der Server von ATi ist z.Zt. sacklahm (warum wohl ? :|) aber ich verspreche es dir: beinahe Raytracing-Qualität.

Gruß
Alex

Tarkin
2002-07-20, 16:01:21
Originally posted by ow


???

Ich kann keine Benches entdecken, die für 2.5-3 mal höhere Leistung der R300 sprechen.

http://www.cableone.net/dickhosch/bm3.jpg

http://www.cableone.net/dickhosch/bm6.jpg

http://www.cableone.net/dickhosch/bm9.jpg


... jedes Wort ist hier völlig überflüssig!

btw: ow, dein ganzes "wozu benötige ich eine so schnelle Graka" Getue finde ich sehr amüsant!

Tarkin
2002-07-20, 16:05:18
http://www.cableone.net/dickhosch/bm12.jpg

http://www.cableone.net/dickhosch/bm6.jpg

Dunkeltier
2002-07-20, 16:11:47
Dann vergleiche mal den 4xFSAA Balken von NVidia (blau) mit dem von ATI...

Dunkeltier
2002-07-20, 16:14:47
...ich wage mal zu behaupten, das dies beinahe AA for free ist. Man beachte die Auflösung und das 4x...krass. Die Karte muss ich haben. :D

Doomtrain
2002-07-20, 16:29:20
Soooooo, an alle Zweifler:

UT 2003 wird auf der Radeon 9700 in 1600x1200 bei 4x FSAA + 8tap anisotropic Filter spielbar sein!!!*eg*

@ow

Na, noch Fragen nach diesen Tabellen?

Korak
2002-07-20, 16:35:57
Woher sind die denn jetzt schon wieder?

Salvee
2002-07-20, 16:40:07
Das mit dem FSAA for free ging mir auch gleich durch den Kopf, wenn das alles so seine Richtigkeit hat.

Und noch eine gute Nachricht für alle (angehenden) ATi-Freaks:
Gainward soll laut Berichten von Gamespy auf den ATi-Zug aufspringen :D.
Einer der (noch) Top-Notch Hoflieferanten von nV.
Das führt natürlich zu weiteren Spekulationen. Als einer der grössten Anbieter von nV-Karten sollte Gainward eigentlich wissen, was der NV30 so auf der Pfanne haben wird. Falls diese Firma sich nun ATi zuwendet, könnte man sich so seine Gedanken bezüglich des NV30 machen.
(Es sei denn, sie steigen nur bei den Radeon9000-Karten ein)

Ich weiss nicht, ob bei ATi alle gedopt sind neuerdings, man kann den Laden echt nicht mehr wiedererkennen :D.

Greetz (!)

zeckensack
2002-07-20, 16:44:17
@Razor
Ich stimme dir in weiten Teilen absolut zu. Ist das nicht schön? :)
Eine Sache will ich ergänzen:
Originally posted by Razor
Wenn ich das also richtig sehe, dann wurde der R300-Launch nur deswegen gemacht, um die RV250 zu verkaufen. Ist nur mein persönlicher Eindruck, aber irgendwie würde das auch zu dem sehr frühen Release einer 'echten' DX9-Karte passen, der Tatsache, das der Preis einer R300 sehr günstig erscheint (399$+) und natürlich schlussendlich man früher dran ist, als die (NV-)Konkurrenz !

Man erreicht also folgendes:

- 'WOW' für die Radeon9700
- Radeon9000 auch Neuentwicklung und evtl. DX9 ?
- sehr günstige Preise für beide Neuerscheinungen1)Wäre es mir als Graka-Hersteller Schnuppe, wann Microsoft die nächste DX-Version rausbringt (hattest du irgendwo genannt, habe ich aber leider weggeschnipselt :devil: ). Wenn mein beeindruckendes neues Produkt 'reif' ist, dann raus damit. Auf DX9 zu warten, wäre eine nicht akzeptable Einschränkung.

2)Die Vorstellung einer brachial schnelleren Karte erhöht auch (um es in den Worten des Kollegen Richthofen zu sagen) ganz massiv die 'Brand recognition'.
Ich will jetzt nichts gegen NVIDIA's Produkte sagen, aber wenn man sich mal anhört, was Otto Normaluser von Marken wie AOL hält, dann merkt man ganz schnell wieviel Publikumsbonus man bekommt, einfach nur durch die Tatsache 'Nummer eins' zu sein, selbst völlig ohne tatsächlich vorhandene Leistung.

3)ATI zieht auf Marketingebene endlich mit NVIDIA gleich. Die Geforce4Ti4600 beeindruckt die Massen, die Geforce4MX440 geht über den Ladentisch. Aus Sicht eines produktiven Wettbewerbs, kann man das nur begrüßen.

Doomtrain
2002-07-20, 16:47:59
Originally posted by Salvee

(Es sei denn, sie steigen nur bei den Radeon9000-Karten ein)

Ich weiss nicht, ob bei ATi alle gedopt sind neuerdings, man kann den Laden echt nicht mehr wiedererkennen :D.

Greetz (!)

1) Glaub ich nicht, wenn dann richtig!!*eg*

2) Tja, das sind halt Profis die sich mal so richtig aufgerappelt haben.

Dunkeltier
2002-07-20, 16:56:34
Vielleicht ein letztes aufbäumen, bevor sie von NVidia geplättet werden. :D

zeckensack
2002-07-20, 17:05:17
Originally posted by El-Diablo
Seh ich auch so, aber ich dachte imho anisotrope Filter wurden schon vor DX8 unterstützt? Also brachte es die GF3 'lediglich' auf ein nutzbares Niveau. Die RivaTNT wurde dereinst bereits mit diesem Feature beworben :)
Das war zu Zeiten von DX5, DX6 kam erst ein paar Monate später.

nggalai
2002-07-20, 17:10:03
Hi Tarkin,

wie Korak schon fragte--woher stammen deine Zahlen? Ich konnte beim besten willen keine fps in Previews finden--und wenn die Balkendiagramme auf den %-Angaben von Anand beruhen, darfst Du die Bilder auch gleich vergessen: wir haben nämlich keine fps des identischen Systems mit P4/Ti4600, um was hochzurechnen (war eine ATi-Maschine, Anand fährt sonst AthlonXP).

Bis zur Quellenangabe sind die Diagramme also höchstens als grobe Schätzwerte zu gebrauchen.

ta,
-Sascha.rb

Doomtrain
2002-07-20, 17:10:21
Originally posted by Dunkeltier
Vielleicht ein letztes aufbäumen, bevor sie von NVidia geplättet werden. :D

Klar, sicher *eg*

Eher andersherum!!

MadManniMan
2002-07-20, 17:17:25
nggalai,

zumindest erkennt man einen groben trend, insofern sind auch diese diagramme brauchbar.

imho.

nggalai
2002-07-20, 17:22:28
Oy Manni,

sag' ich ja--als grobe Schätzwerte sind die schon zu gebrauchen. Aber solange wir nicht wissen, woher die Zahlen kommen, nur als SEHR grobe Schätzwerte. Wenn hochgerechnet wurde, wer sagt uns, dass z.B. bei UT2003 dieselben builds verwendet wurden? Wie sieht's mit den Treibern aus? Konfiguration?

Wir hatten auf B3D schon eine Diskussion zum Thema "hochgerechnete" Benchmarkergebnisse, solche Dinger können recht nach Hinten losgehen . . . auch wenn natürlich solche frühen Benchmark"ergebnisse" eh nicht viel bringen--an den Treibern wird noch bis zum shipping weitergearbeitet, bei ATi, die endgültigen Taktfrequenzen sind nicht bekannt . . . wird sich also eh noch viel tun.

Aber trotzdem, Tarkin: woher stammen die Grafiken und die Zahlen?

ta,
-Sascha.rb

Radeonator
2002-07-20, 17:25:27
Originally posted by Salvee
Das mit dem FSAA for free ging mir auch gleich durch den Kopf, wenn das alles so seine Richtigkeit hat.

Und noch eine gute Nachricht für alle (angehenden) ATi-Freaks:
Gainward soll laut Berichten von Gamespy auf den ATi-Zug aufspringen
Einer der (noch) Top-Notch Hoflieferanten von nV.
Das führt natürlich zu weiteren Spekulationen. Als einer der grössten Anbieter von nV-Karten sollte Gainward eigentlich wissen, was der NV30 so auf der Pfanne haben wird. Falls diese Firma sich nun ATi zuwendet, könnte man sich so seine Gedanken bezüglich des NV30 machen.
(Es sei denn, sie steigen nur bei den Radeon9000-Karten ein)

Ich weiss nicht, ob bei ATi alle gedopt sind neuerdings, man kann den Laden echt nicht mehr wiedererkennen

Greetz (!)

Naja, schau dir nur mal die zur 8500er eingetretene Firme euphorie an, wo Gigabyte und Hercules(um nur mal die zu nennen) NV mit einem Fusstritt aus ihrem Programm entfernt haben...Gainward verbaut allerdings eh schon mehr als NV (sogar der SiS Grakas gehören zu deren Palette ;) ), darum erstmal abwarten, obwohl Spekulationen natürlich äusserst amüsant sind ;)

Doomtrain
2002-07-20, 17:25:28
Originally posted by nggalai


Bis zur Quellenangabe sind die Diagramme also höchstens als grobe Schätzwerte zu gebrauchen.



Würde ich nicht sagen! Man kann diese Frames sehr genau hochrechnen, und mehr als 2-3% Abweichung wirst du nicht kommen.

Die Tabelle ist schon sehr gut behaupte ich!

MadManniMan
2002-07-20, 17:31:20
ach doomy, er meint doch, daß die bedingungen, unter denen die absoluten und die relativen zahlen enstanden nun wirklich nicht 100%ig überseinstimmen und man daher nicht wirklich einfach so hochrechnen kann :D

äh, stimmt doch sascha, oder?

nggalai
2002-07-20, 17:32:44
Hi Doomtrain,

lies nochmals meine Antwort auf Mannis Posting durch. Dann sollte es klarer werden, worauf ich aus bin.

Und "sehr genau hochrechnen?" Wie machst Du das? Woher nimmst Du die Vergleichsszahlen? Nimmst Du die Prozentangaben von Anand, die fps der Ti4600 von einem älteren THG-Review (da Anand keine Benches mit P4/Ti4600 führt), und rechnest hoch, während Du hoffst, dass die Konfigurationen sich doch nicht zusehr unterscheiden und die Versionen der Benchmarks dieselben geblieben sind? ;)

ta,
-Sascha.rb

Simon Moon
2002-07-20, 17:34:06
Originally posted by Radeonator


Naja, schau dir nur mal die zur 8500er eingetretene Firme euphorie an, wo Gigabyte und Hercules(um nur mal die zu nennen) NV mit einem Fusstritt aus ihrem Programm entfernt haben...Gainward verbaut allerdings eh schon mehr als NV (sogar der SiS Grakas gehören zu deren Palette ;) ), darum erstmal abwarten, obwohl Spekulationen natürlich äusserst amüsant sind ;)

Tja also Hercules soll die highEnd NV Chips sowieso nur noch über die Grauzone gekriegt haben, seit sie die Kyro(2) verbauten. Also von daher war die Beziehung mit NV sowieso im Arsch und sie mussten sich wohl einen guten Partner für'n HighEnd Markt suchen...

nggalai
2002-07-20, 17:36:01
Hi Manni,

genau. :)

Ich sehe ein Problem, dass--SOFERN bei diesen Grafiken hochgerechnet wurde, was uns Tarkin noch nicht sagte--solche bis auf eine Nachkommastelle genauen fps-Angaben als "Fakt" angesehen werden, obwohl die Tabelle als Hochrechnung ganz einfach falsch ist (da unterschiedliche Systeme verwendet wurden). Wenn man dann auch noch eine schöne Tabelle macht ist es nur eine Frage der Zeit, bis die wer ohne Kommentar (wie Tarkin) in ein Forum postet, und die Werte als offizielle Benchmarkergebnisse genommen werden.

Und das geht einfach nicht in Ordnung. Daher bin ich so, err, a pain in the ass (kenne die deutsche Version dieses Idioms nicht ;) ), bei diesem Thema.

ta,
-Sascha.rb

Doomtrain
2002-07-20, 17:36:38
Originally posted by MadManniMan
ach doomy, er meint doch, daß die bedingungen, unter denen die absoluten und die relativen zahlen enstanden nun wirklich nicht 100%ig überseinstimmen und man daher nicht wirklich einfach so hochrechnen kann :D

äh, stimmt doch sascha, oder?

@MadManniMan und nggalai:

Mir ist schon klar wie diese Zahlen entstanden sind. Aber die Werte klingen sehr realistisch, oder? Vergleicht mal die Tabelle hiermit:

http://www.hardocp.com/article.html?art=MzMw

Razor
2002-07-20, 17:58:57
Originally posted by zeckensack
Ich stimme dir in weiten Teilen absolut zu. Ist das nicht schön? :)
Eine Sache will ich ergänzen:
1)Wäre es mir als Graka-Hersteller Schnuppe, wann Microsoft die nächste DX-Version rausbringt (hattest du irgendwo genannt, habe ich aber leider weggeschnipselt :devil: ). Wenn mein beeindruckendes neues Produkt 'reif' ist, dann raus damit. Auf DX9 zu warten, wäre eine nicht akzeptable Einschränkung.
Witzig, bis ATI den 0.13µ Prozess zum Laufen bekommt, wird vermutlich noch so einige Zeit ins Land gehen. So muss das jetzige Produkt vor vornherein auf 0.15µ entwickelt worden sein, und das obwohl entsprechende Einschränkungen (Takt, Transistoren) exitieren. Das Ding in der Produktion wesentlich teuerer wird und das ganze dann auch noch wegen zu hohem Strombedarf (= vermutlich sehr hohe Abwärme) mit externer Stromquelle (gott sei dank kein externes Netzteil, wie bei der V6 6000 ;-) versorgt werden muß...

Fertig ?
Neee....
:D
Originally posted by zeckensack
2)Die Vorstellung einer brachial schnelleren Karte erhöht auch (um es in den Worten des Kollegen Richthofen zu sagen) ganz massiv die 'Brand recognition'.
Ich will jetzt nichts gegen NVIDIA's Produkte sagen, aber wenn man sich mal anhört, was Otto Normaluser von Marken wie AOL hält, dann merkt man ganz schnell wieviel Publikumsbonus man bekommt, einfach nur durch die Tatsache 'Nummer eins' zu sein, selbst völlig ohne tatsächlich vorhandene Leistung.
OK, das mit AOL fress ich Dir aus der Hand...
Trotzdem würd' ich nicht so weit gehen und das mit nVidia vergleichen.
Sicher, was die MX'er angeht, kann ich Dir nur zustimmen (selbiges allerdings für Radeon7000/7200/9000 gilt) und meine Meinung zu dem Preis-Leistungsverhältnis von 'ultra'-Varianten kennst Du vermutlich auch, aber ausschließliche Null-Lösungen bringt nVidia nun nicht !

By the way, kann man eigentlich endlich 'nen eigenen eMail-Client beim AOL nutzen dürfen ?
;D
Originally posted by zeckensack
3)ATI zieht auf Marketingebene endlich mit NVIDIA gleich. Die Geforce4Ti4600 beeindruckt die Massen, die Geforce4MX440 geht über den Ladentisch. Aus Sicht eines produktiven Wettbewerbs, kann man das nur begrüßen.
Das ist mal ein wahres Wort !
Und in dieser hinsicht sehe ich das Ganze noch recht Positiv, denn erst wenn die Grossen mit gleichen Mitteln (und gleichen Zielen) kämpfen, haben wir eine echte und dauerhafte Konkurrenz. Insofern: Weiter so ATI !

Bis denne

Razor

Nagelbrett
2002-07-20, 18:10:02
Originally posted by Leonidas
Unter 16x12 muß die Soundkarte ca. 5x so schnell den Sound liefern wie normal, unter 5x3 ca. 8x.
Mh, kann mir bitte einer erklären, weshalb die Soundkarte unter einer höheren Bildschirmauflösung *schneller* den Sound liefern muss? ich hab drüber nach gedacht doch es wollte mir einfach nicht klar werden...

Korak
2002-07-20, 18:14:51
Das hat nicht direkt was mit der Auflösung zu tun, sondern es kommt ganz einfach auf die Ablaufgeschwindigkeit der Demo an.