PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Welche?


Unregistered
2003-05-17, 19:08:37
Welche Grafikkarte ist besser? Die NV35 von Nvidia oder die 9800Pro mit 256MB? Und hat die NV35 auch 256MB?

mapel110
2003-05-17, 19:12:57
http://www.3dcenter.org/artikel/2003/05-13_a.php
zum einen

zum anderen
http://www.3dcenter.org/news/2003/woche20.php#nv35

Omnicron
2003-05-17, 19:15:19
:cop: Flamethread-Gefahr :cop:
Welche besser ist, guck mal in die Diskussionen hier, und die verlinkten reviews, und entscheide worauf du eher Gewichtung legst.
Und ja, es gibt den NV35 auch mit 256 MB.

LovesuckZ
2003-05-17, 19:24:14
Ich wuerde ja auf den Xabre 2 warten. Der einser war schon gut, der 2er soll noch besser werden.

mapel110
2003-05-17, 19:34:57
ich würde auf den s3/via deltachrom setzen ;)

Ikon
2003-05-17, 20:02:08
Eine einfache Antwort auf deine Frage wirst du nicht bekommen, Unreg. Beide Karten haben ihre Vor- und Nachteile und liegen leistungsmäßig relativ nahe beisammen. Ich werde den Teufel tun und mich zu einer Pauschalantwort hinreißen lassen. Es gibt zuzeit wirklich genug Reviews/Tests der beiden Karten und ihrer Kontrahenten, genug um sich ein eigenes Urteil bilden zu können. Solltest dann noch konkrete Fragen haben, werden wir gerne bereitstehen sie zu beantworten :)

nagus
2003-05-17, 20:11:58
auf Kyro3 warten *LOL*

ne.... beide sind ~ gleich schnell, aber die radeon 9800PRO hat besseres FSAA. zwischen NV35 und NV30 ist beim FSAA praktisch kein unterschied soviel ich weis.

bei vergleichbarer bildqualität (sofern das überhaupt möglich ist) hat meistens die radeon 9800PRO die nase vorn.

*update* aktueller test mit catalyst 3.4 und detonatorFX treibern.... http://firingsquad.gamers.com/hardware/ati_radeon_9800_pro_review/default.asp

wie gesagt, die karten sind im durchschitt etwa gleich schnell... kommt auf die situation und die engine an.

PS: auf die Q3 benchies würde ich mich aber nicht verlassen, da die neuen detonatorFX-treiber durch einen "bug" mehr leistung durch schlechtere bildqualität liefern (das gleiche gilt fürs 3dmark03)

Cadmus
2003-05-17, 20:20:52
Originally posted by nagus
auf Kyro3 warten *LOL*

ne.... beide sind ~ gleich schnell, aber die radeon 9800PRO hat besseres FSAA. zwischen NV35 und NV30 ist beim FSAA praktisch kein unterschied soviel ich weis.

bei vergleichbarer bildqualität (sofern das überhaupt möglich ist) hat meistens die radeon 9800PRO die nase vorn.
Was heisst "LOL"?
Ich werde beim nächsten GraKa-Kauf die Kyro3 in Betracht ziehen. Wenn sie erscheint, schaue ich mir die Benchmarks an, und entscheide mich dann. Ebenso wie bei der Xabre2. Wie kann man bloß die gesamten Grafikkarten für Zocker auf 2 Hersteller reduzieren?

mapel110
2003-05-17, 20:28:52
Originally posted by Strafer
Wie kann man bloß die gesamten Grafikkarten für Zocker auf 2 Hersteller reduzieren?

gibts denn derzeit andere ?

in richtung s3/via, trident, 3dlabs/creative, sis und powervr gibts nur spekulationen.

okay, s3/via haben den deltachrom schon zweimal vorgestellt, aber zur leistung kann man nix sagen.

btw imo lässt sich powervr zuviel zeit. irgendwas scheint da nicht zu stimmen, sonst wüsste man mehr.

Sunrise
2003-05-17, 21:22:12
Wie kann man bloß die gesamten Grafikkarten für Zocker auf 2 Hersteller reduzieren?

Du hast dir gerade die Antwort selbst gegeben. Nenne mal nur einen Hersteller, der sich mit den "2 großen" leistungsmäßig derzeit messen kann ?

ATI und NVDIA legen durch deren Konkurrenzkampf ein dermaßen hohes Tempo vor, das momentan kein reiner Grafikkarten-Produzent auch nur ansatzweise mithalten kann.

Nagus hat also nicht unrecht, es gibt derzeit KEINE Alternativen.
Was in Zukunft passiert ist Spekulation, und gehört ins Speku-Forum.

LovesuckZ
2003-05-17, 22:17:50
Originally posted by nagus
bei vergleichbarer bildqualität (sofern das überhaupt möglich ist) hat meistens die radeon 9800PRO die nase vorn.

Mir ist nicht bekannt, dass ATI mit dem CAT3.4 eine vergleichbare AF Qualitaet liefern koennte...

PS: auf die Q3 benchies würde ich mich aber nicht verlassen, da die neuen detonatorFX-treiber durch einen "bug" mehr leistung durch schlechtere bildqualität liefern (das gleiche gilt fürs 3dmark03)


Welchen "Bug" meinst du denn jetzt? Den Blur-Filter, der im Spiel nicht auftritt, oder den "Cliplane" Bug? Da kann ich dich beruehigen, die Fx war auch schon mit dem 43.45 sehr schnell unter OpenGl und das auch ohne einen "Cheat".

/edit: koenntest du die "schlechtere Bildqualitaet" im 3DMark2003 mal naeher erlaeutern?

nagus
2003-05-17, 22:43:44
Originally posted by LovesuckZ

1. Mir ist nicht bekannt, dass ATI mit dem CAT3.4 eine vergleichbare AF Qualitaet liefern koennte...

2. Welchen "Bug" meinst du denn jetzt? Den Blur-Filter, der im Spiel nicht auftritt, oder den "Cliplane" Bug? Da kann ich dich beruehigen, die Fx war auch schon mit dem 43.45 sehr schnell unter OpenGl und das auch ohne einen "Cheat".

3. /edit: koenntest du die "schlechtere Bildqualitaet" im 3DMark2003 mal naeher erlaeutern?

1. AF qualität/leistungs -verhältnis ist in der tat bei 5900Ultra und 9800PRO ~ gleich

1a. qualitäts/leistungsverhältnis FSAA ist ATI um welten besser

2. tu nicht so scheinheilig. du weist genau was ich meine.
2a. möchte mal echt wissen wieso du die "bugs" (nenne es jetzt mal absichtlich nicht CHEAT weil sich sonst wieder diverse herren künstlich aufregen) bei den nvidia treibern ständig verharmlosen willst.


3. HÄÄ????
3a. FX12 operations und nicht FP16 bzw. FP32? (zumindest bei früheren detos, bei den neuen fx-detos ists soviel ich weis nicht mehr "sichtbar" ... dafür auf andere weise gecheatet >> siehe extremetech (en) artikel oder chip.de)

Exxtreme
2003-05-17, 22:47:23
Originally posted by nagus
...nenne es jetzt mal absichtlich nicht CHEAT weil...

...dafür auf andere weise gecheatet...

Kannst dich irgendwie nicht entscheiden, wa?

;D

LovesuckZ
2003-05-17, 22:51:30
Originally posted by nagus
1. AF qualität/leistungs -verhältnis ist in der tat bei 5900Ultra und 9800PRO ~ gleich

Ich hab leider noch keine Nvidia 4AF Quality gegen 8AF Quality von ATI Benches gesehn, daher ist deine Aussage wohl nen bissl nicht richtig.

2. tu nicht so scheinheilig. du weist genau was ich meine.
2a. möchte mal echt wissen wieso du die "bugs" (nenne es jetzt mal absichtlich nicht CHEAT weil sich sonst wieder diverse herren künstlich aufregen) bei den nvidia treibern ständig verharmlosen willst.

Also den "Cliplane" Bug. Der tritt bei ganzen 2 bekannten Apllikationen auf, zu welchen Q3 nicht mal dazu gehoert...


3. HÄÄ????
3a. FX12 operations und nicht FP16 bzw. FP32? (zumindest bei früheren detos, bei den neuen fx-detos ists soviel ich weis nicht mehr "sichtbar" ... dafür auf andere weise gecheatet >> siehe extremetech (en) artikel oder chip.de)

Nvidia laesst den 5900Ultra mit 128BIT fahren, da die Leistung = 64BIT entspricht.
Und du weißt auch, wenn dieser "Cliplane" Bug beim 3DMark2003 auftritt? Naemlich nur dann, wenn man per Beta Tools in den Flybymodus wechselt. Daher verstehe ich nicht, wo sich die Quality beim einfachen Durchgang stark verschlechtert haben sollte.
Zum AA: Unter OpenGL ack, unter D3D kann man mit dem 4xS Modus die Qualitaet zum 4AA Modus verbessern. Fuellrate duerfte bei den Topmodell noch locker reichen.

nagus
2003-05-17, 23:05:22
Originally posted by LovesuckZ
Ich hab leider noch keine Nvidia 4AF Quality gegen 8AF Quality von ATI Benches gesehn, daher ist deine Aussage wohl nen bissl nicht richtig.


?? wie kommst jetzt auf 4xAF Nvidia gegen 8xAFATI?? btw, schau mal auf digit-life.com da wurde wieder mal faiererweise 8xAF Nvidia gegen 16xAF ATI gebencht... und dabei schneidet ATIs 16xAF sehr gut ab. (PS: interessant finde ich bei diesem review die Wolfenstein-Benchies... Nvidia hat doch soooo tolle OpenGL-treiber? ... wieso ist dann noch immer ATI fast DOPPELT so schnell bei wolfenstein?? und das schon seit erscheinen der ersten NV30 benchies... >> nvidia OpenGL-treiber sind anscheinend hauptsächlich für Q3 optimiert... wenn manche spiele mit Q3-engine extrem langsam laufen im vergleich zum original-programm ist das schon irgendwie sehr verdächtig IMHO)


Originally posted by LovesuckZ
Also den "Cliplane" Bug. Der tritt bei ganzen 2 bekannten Apllikationen auf, zu welchen Q3 nicht mal dazu gehoert...

Nvidia laesst den 5900Ultra mit 128BIT fahren, da die Leistung = 64BIT entspricht.
Und du weißt auch, wenn dieser "Cliplane" Bug beim 3DMark2003 auftritt? Naemlich nur dann, wenn man per Beta Tools in den Flybymodus wechselt. Daher verstehe ich nicht, wo sich die Quality beim einfachen Durchgang stark verschlechtert haben sollte.


witzig das du diesen angeblichen "fehler" immer noch als BUG abtust. tut mir leid, aber das finde ich ziehmlich naiv von dir. hast du dich noch nicht gefragt, warum dieser "bug" ausgerechnet beim 3Dmark auftritt? ....hmmm könnte es nicht vielleicht möglicherweise deshalb sein, weil nvidia mit "normalen" treibern gegen den R300 keine change hätte bei diesem bechmark? siehe letzte nvidia treiber (43.00?) die RICHTIG rendern und mit denen eine 5800ultra schlappe 3500 punkte erreicht...

Originally posted by LovesuckZ
Zum AA: Unter OpenGL ack, unter D3D kann man mit dem 4xS Modus die Qualitaet zum 4AA Modus verbessern. Fuellrate duerfte bei den Topmodell noch locker reichen.

trotzdem hat der sogar der 4xS modus nicht die bildqualität von ATis einfachem 4x modus

Aquaschaf
2003-05-17, 23:12:11
also wenn man sagt , dass beide ungefähr gleichschnell sind , muss man auch sagen , dass , wenn man es so ausdrückt , auch beide ungefähr gleich schnelles aa bieten .

nagus
2003-05-17, 23:19:30
Originally posted by Aquaschaf
also wenn man sagt , dass beide ungefähr gleichschnell sind , muss man auch sagen , dass , wenn man es so ausdrückt , auch beide ungefähr gleich schnelles aa bieten .

aber die bildqualität ist nicht vergleichbar.

LovesuckZ
2003-05-17, 23:26:43
Originally posted by nagus
?? wie kommst jetzt auf 4xAF Nvidia gegen 8xAFATI??

1. AF qualität/leistungs -verhältnis ist in der tat bei 5900Ultra und 9800PRO ~ gleich

Und der Performanceverlust vom Wechsel (8->16) betraegt nach Anandtech.com genau 1%.
http://www.anandtech.com/video/showdoc.html?i=1779&p=10

(PS: interessant finde ich bei diesem review die Wolfenstein-Benchies... Nvidia hat doch soooo tolle OpenGL-treiber? ... wieso ist dann noch immer ATI fast DOPPELT so schnell bei wolfenstein??)

http://www.digit-life.com/articles2/gffx/gffx-ref-p8.html

Ich sehe da 124 zu 114FPS mit der 5800Ultra. Ergo, ist das schlechte Abschneiden nur ein Treiberprob, dass Nvidia im jezigen hat. Nach Anandtech.com kann die 5900Ultra die 9800pro auch unter Jedi Knight2 deutlich schlagen.


witzig das du diesen angeblichen "fehler" immer noch als BUG abtust. tut mir leid, aber das finde ich ziehmlich naiv von dir. hast du dich noch nicht gefragt, warum dieser "bug" ausgerechnet beim 3Dmark auftritt? ....hmmm könnte es nicht vielleicht möglicherweise deshalb sein, weil nvidia mit "normalen" treibern gegen den R300 keine change hätte bei diesem bechmark? siehe letzte nvidia treiber (43.00?) die RICHTIG rendern und mit denen eine 5800ultra schlappe 3500 punkte erreicht...

Nagus, dann zeige doch mal der Welt, wo dieser Bug ("Cheat") im normalen Durchlauf auftretet. Da man ihn nur per FLY Modus entdeckt, den sowieso nur Beta Tester einsetzen koennen, relaviert die Sache. Unter SeSam isses dagegen nervig und hier koennte es ein Bug sein. Oder tretet der Fehler noch wo anders auf?

Salvee
2003-05-17, 23:34:57
Originally posted by Unregistered
Welche Grafikkarte ist besser? Die NV35 von Nvidia oder die 9800Pro mit 256MB? Und hat die NV35 auch 256MB?

Ich würde abwarten, bis
a) die entsprechenden Karten erhältich sind.
b) Webseiten die Karten in die Mangel genommen haben, die mehr technisches Know-How haben als die bisherigen Reviewer ;)

LovesuckZ
2003-05-17, 23:35:50
Originally posted by Salvee
b) Webseiten die Karten in die Mangel genommen haben, die mehr technisches Know-How haben als die bisherigen Reviewer ;)

Da bleibt ja nur noch Beyond3d.com und 3DCenter.de übrig :)

Richthofen
2003-05-18, 00:32:29
Originally posted by nagus

witzig das du diesen angeblichen "fehler" immer noch als BUG abtust. tut mir leid, aber das finde ich ziehmlich naiv von dir. hast du dich noch nicht gefragt, warum dieser "bug" ausgerechnet beim 3Dmark auftritt? ....hmmm könnte es nicht vielleicht möglicherweise deshalb sein, weil nvidia mit "normalen" treibern gegen den R300 keine change hätte bei diesem bechmark? siehe letzte nvidia treiber (43.00?) die RICHTIG rendern und mit denen eine 5800ultra schlappe 3500 punkte erreicht...


Wen interessiert denn dieser schwachsinnige 3DMark. Der NV35 liegt bei Games komfortabel vorn. Der braucht kein 3DMark Ergebnis um als beste Karte wegzukommen. Siehs einfach ein. ATI ist nur noch 2. und sie werden nun nachlegen müssen und das tun. Die 9800pro256 MB war jedenfalls ein ziemlich peinlicher Launch. Das war der NV30 zwar auch aber ein Marktführer kann sich solche Fehltritte auch eher mal leisten.

aths
2003-05-18, 01:06:00
Originally posted by Richthofen
aber ein Marktführer kann sich solche Fehltritte auch eher mal leisten. Das sehe ich nun genau andersherum.

Salvee
2003-05-18, 01:29:36
Originally posted by aths
Das sehe ich nun genau andersherum.

'Leisten' steht bei Richthofen imo prinzipiell für 'finanziell verkraften'

Originally posted by LovesuckZ

Da bleibt ja nur noch Beyond3d.com und 3DCenter.de übrig :)



@ aths
Ist da schon ein gewisser Zeitrahmen absehbar ? :)

kmf
2003-05-18, 03:39:12
Originally posted by aths
Das sehe ich nun genau andersherum.

Ich auch. In diesem diffizilen Marksegment, in dem sich High-Endkarten nunmal bewegen und die Lobby für Mainstreamprodukte schaffen sollen, ist so ein 'Fehltritt' mitunter tödlich. Siehe Schicksal 3dfx.

ow
2003-05-18, 10:13:21
Originally posted by kmf


Ich auch. In diesem diffizilen Marksegment, in dem sich High-Endkarten nunmal bewegen und die Lobby für Mainstreamprodukte schaffen sollen, ist so ein 'Fehltritt' mitunter tödlich. Siehe Schicksal 3dfx.

???
Seit wann war 3dfx Marktführer zum Zeitpunkt ihres Untergangs? Wo gab es je Mainstream-Produkte von 3dfx? Wo waren 3dfx´ OEM Verträge?


@Richthofen: full ack.

nagus
2003-05-18, 10:46:18
Originally posted by Richthofen


Wen interessiert denn dieser schwachsinnige 3DMark. Der NV35 liegt bei Games komfortabel vorn. Der braucht kein 3DMark Ergebnis um als beste Karte wegzukommen. Siehs einfach ein. ATI ist nur noch 2. und sie werden nun nachlegen müssen und das tun. Die 9800pro256 MB war jedenfalls ein ziemlich peinlicher Launch. Das war der NV30 zwar auch aber ein Marktführer kann sich solche Fehltritte auch eher mal leisten.

komfortabel? naja manchmal ... meinstens eher knapp und öfters nur wegen den treiber"bugs".

Aquaschaf
2003-05-18, 11:06:43
Na denn , Richthofen , Heil dem Marktführer :lol:

( braucht nicht ernstgenommen zu werden *g* )

LovesuckZ
2003-05-18, 11:12:16
Originally posted by nagus
meinstens eher knapp und öfters nur wegen den treiber"bugs".

Aha, wo denn bitte?

nagus
2003-05-18, 11:22:41
sehr viele benchmarks Radeon 9800PRO 256MB mit catalyst 3.4 vs. FX5900ULTRA FX-Detos gibts ja leider noch nicht, aber z.b. bei DOOM3 high-quality liegen beide etwa gleich auf.... comanche4 sind auch beide ~ gleich schnell... meistens wurde leider die 128MB version mit 3.2 catayst verglichen...

LovesuckZ
2003-05-18, 11:28:02
http://firingsquad.gamers.com/hardware/ati_radeon_9800_pro_review/default.asp

Nagus, ich meine nicht wo die 9800pro schneller ist, sondern wo die Bugs eine Beeinflussung auf die Ergebnisse liefern. Q3 isses net. Und zu Doom3: Es koennte sein, dass bei High Quality AF auf der hoechsten Stufe stehe, dann waere das Ergebniss pro 5900Ultra.

Razor
2003-05-18, 11:32:04
Ah ja...

Quelle: www.hardocp.com
Artikel: http://www.hardocp.com/article.html?art=NDc0

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_1_3.gif

OK, der war unfair... ;-)
Na dann mal hier die 'richtigen' Tests (mit Cat 3.2):

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_1.gif

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_2.gif

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_3.gif

Das dürfte ja wohl erst einmal reichen, oder ?
???

Razor

P.S.: Was das allerdings mit "gleich auf" zu tun hat, würde mich schon interessieren...

Liquaron
2003-05-18, 11:33:53
Originally posted by Razor
Ah ja...

Quelle: www.hardocp.com
Artikel: http://www.hardocp.com/article.html?art=NDc0

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_1_3.gif

OK, der war unfair...
Na dann mal hier die 'richtigen' Tests:

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_1.gif

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_2.gif

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_3.gif

Das dürfte ja wohl erst einmal reichen, oder ?
???

Razor

P.S.: Was das allerdings mit "gleich auf" zu tun hat, würde mich schon interessieren...

Nagus hat doch gesagt das jetzt der cat 3.4 benutzt worden ist, und damit die Leistung bei Doom3 stark gestiegen ist.
Du zeigst uns immer noch die Ergebnisse mit dem cat 3.2!!!

Mfg Liquaron

Razor
2003-05-18, 11:35:20
Originally posted by Liquaron

Nagus hat doch gesagt das jetzt der cat 3.4 benutzt worden ist, und damit die Leistung bei Doom3 stark gestiegen ist.
Du zeigst uns immer noch die Ergebnisse mit dem cat 3.2!!!

Mfg Liquaron
Der erste Test war mit Cat 3.4...
Funzt es jetzt also mit dem offiziellem Cat 3.4 und D3 ?
Wenn ja, wäre ich an einem Link sehr interessiert.

Razor

LovesuckZ
2003-05-18, 11:35:22
Originally posted by Liquaron
Nagus hat doch gesagt das jetzt der cat 3.4 benutzt worden ist, und damit die Leistung bei Doom3 stark gestiegen ist.
Du zeigst uns immer noch die Ergebnisse mit dem cat 3.2!!!

Mfg Liquaron

Der CAT3.4 laeuft aber durchgehend bei 10FPS...

nagus
2003-05-18, 11:36:55
Originally posted by Razor
Ah ja...

Quelle: www.hardocp.com
Artikel: http://www.hardocp.com/article.html?art=NDc0

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_1_3.gif

OK, der war unfair...
Na dann mal hier die 'richtigen' Tests:

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_1.gif

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_2.gif

http://www.hardocp.com/images/articles/1052729768FyFQIMpRcj_2_3.gif

Das dürfte ja wohl erst einmal reichen, oder ?
???

Razor

P.S.: Was das allerdings mit "gleich auf" zu tun hat, würde mich schon interessieren...

nicht nur der erste screenshot ist undfair, ein spiel vor veröffentlichung einem bestimmten grakahersteller benchen zu lassen nur weil dieser zufällig jetzt schon optimierte treiber hat ist mehr als unfair. außerdem: wer sagt, dass die bildqualität gleich ist? vieleicht hat hier die fx in niedriger qualität gerendert? FX12 oder so anstelle von FP16/32??

btw, mit gleichauf meinte ich das hier: http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html

medium quality ist sowieso für die tonne... wer weis was bei der FX "medium" quality is... und die fsaa benchies sind ohne bildquailtätsvergleich auch wertlos.

Liquaron
2003-05-18, 11:37:14
Originally posted by LovesuckZ


Der CAT3.4 laeuft aber durchgehend bei 10FPS...

ops hast ja recht. Ähhhm da war ich irgendwie gerade voll neben der Spur!!

Naja Ati hat ja noch genug Zeit ihre Treiber so wie Nvidia für das Game zu optimieren. Ich bin da sehr zuversichtlich !

mhh jaaa ich muss weg !! :sulkoff:

mapel110
2003-05-18, 11:38:32
die thg benches bei high detail find ich da wesentlich aufschlussreicher.

nagus
2003-05-18, 11:39:19
Originally posted by LovesuckZ


Der CAT3.4 laeuft aber durchgehend bei 10FPS...

und? isser hald noch nicht optimiert für doom3? wo ist das problem? das spiel kommt erst in ca. 6 monaten raus!!

und wenn dann endlich doom3 erhältlich ist gibts längst den 3.8 catalyst oder so und die R360 bzw. vielleicht schon LOCI.

LovesuckZ
2003-05-18, 11:39:51
Nagus, wenn Nvidia bei der 5900Ultra mit FP16 im Treiber auf Default haette,bringt dies keinen Vorteil im Bezug der Leistung, da 64BIT = 128BIT von der Leistung her ist. Somit kannst du dies nur der NV3 <5 anhaengen.

nagus
2003-05-18, 11:39:58
Originally posted by Liquaron



mhh jaaa ich muss weg !! :sulkoff:

ADIEU ;)

Razor
2003-05-18, 11:40:10
Hier noch mal ein Bench zu Comanche4:

http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_3.gif

Aber einen kleinen Trost für die ATIler gibt's dann doch... denn bei 1600x1200 ist die R9800p256 minimal schneller...
:D

Razor

LovesuckZ
2003-05-18, 11:40:48
Originally posted by nagus
und wenn dann endlich doom3 erhältlich ist gibts längst den 3.8 catalyst oder so und die R360 bzw. vielleicht schon LOCI.

Entweder ist LOCI der r360 oder LOCI wird erst im Fruehjahr kommen, da ATI bestimmt nicht gleichzeitig 2 High-End karten relasen wuerde.

Exxtreme
2003-05-18, 11:41:43
Originally posted by Razor
Hier noch mal ein Bench zu Comanche4:

http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_3.gif

Aber einen kleinen Trost für die ATIler gibt's dann doch... denn bei 1600x1200 ist die R9800p256 minimal schneller...
:D

Razor
Dir ist aber schon klar, daß NV erst bei 8x AA die Qualität von ATis 4x AA erreicht, oder?

;D

Razor
2003-05-18, 11:43:10
Originally posted by nagus

btw, mit gleichauf meinte ich das hier: http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html
Ahhhhh ja,

ein "special id preview" ist auf jeden Fall besser nachzuvollziehen, als eine Aplha, die jeder zum überprüfen hat. Wer weiß, was Borsti da wieder zusammen gestümmelt hat, nur nachvollziehen kann das keiner. Somit ist DAS definitiv wertlos, oder etwa nicht ?

Bis denne

Razor

LovesuckZ
2003-05-18, 11:43:54
Originally posted by Exxtreme
Dir ist aber schon klar, daß NV erst bei 8x AA die Qualität von ATis 4x AA erreicht, oder?
;D

Dir isz klar, dass kein im Treiber zur Auswahl stehender AF Modus die Qualitaet von nvidia erreiche...
Dazu kommt noch, dass Nvidia die einzigsten sind, die FP32 Berechnungen unterstuetzen und hier ATI in Sachen Qualitaet weit vorraus sind.

Razor
2003-05-18, 11:44:34
Originally posted by Exxtreme

Dir ist aber schon klar, daß NV erst bei 8x AA die Qualität von ATis 4x AA erreicht, oder?

;D
Tja, lieber Exxtreme, dann ignorier doch einfach die höheren Modi (da nicht vergelichbar) und konzentriere Dich auf die 2xAA-Werte... ja mei, was sehen wir denn da ?
:D

Bis denne

Razor

Exxtreme
2003-05-18, 11:45:58
Originally posted by LovesuckZ
Dazu kommt noch, dass Nvidia die einzigsten sind, die FP32 Berechnungen unterstuetzen und hier ATI in Sachen Qualitaet weit vorraus sind.
Ich glaube nicht, daß man einen Unterschied zw. 24 Bit FP und 32 Bit FP jemals sehen kann... es sei denn man legt es darauf an.

Ich bezweifle auch, daß man in den Spielen jemals einen Unterschied zw. 16 Bit FP und 24 Bit FP sehen wird.

Liquaron
2003-05-18, 11:46:35
Originally posted by Razor

Somit ist DAS definitiv wertlos, oder etwa nicht ?

Bis denne

Razor

Definitv sind im moment jegliche Benchmarks wertlos, die ein Spiel benchen, welches erst in ca. 6 Monaten rauskommt !!!

Wie wir in der Vergangenheit schon gesehen haben sind die Treiber sehr wichtig für die Spieleperformance !

Und ?
Warum sollten die ATI oder Nvidia Leute schon auf ein zukünftiges Game optimieren, welches noch weit entfernt ist?

Bei Nv kann ich das ja vielleicht noch verstehen, da sie mit allen mitteln und Benches ( egal ob fair oder unfair ( Treibercheating)) versucht ATI vom Thron zu stoßen !!!!!

nagus
2003-05-18, 11:47:09
speziell für razor:

http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_12_1.gif
http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_5.gif
http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_2.gif
http://www.hardocp.com/images/articles/1052659778bQi2UIDZtB_10_1.gif

wo liegt denn jetzt die 5900Ultra "komfortalbel" vorne? :P

es gibt solche, und solche benchies... damit mußt du dich leider abfinden razor.

insges. gesehen ists IMHO eher ein gleichstand als ein sieg für nvidia.

Exxtreme
2003-05-18, 11:47:40
Originally posted by Razor

Tja, lieber Exxtreme, dann ignorier doch einfach die höheren Modi (da nicht vergelichbar) und konzentriere Dich auf die 2xAA-Werte... ja mei, was sehen wir denn da ?
:D

Bis denne

Razor
Tja, lieber Razor, dann erklär mir mal warum man sich so einen Boliden für nur 2x AA kaufen soll. Da tut's auch eine günstige R9600Pro oder eine GFFX5600.

;D

LovesuckZ
2003-05-18, 11:47:57
Originally posted by Exxtreme
Ich glaube nicht, daß man einen Unterschied zw. 24 Bit FP und 32 Bit FP jemals sehen kann... es sei denn man legt es darauf an.

Das koennte man auch zu FP16 -> FP24 sagen, trotzdem wird dies als "cheaten" betrachten...

Razor
2003-05-18, 11:49:53
Originally posted by Liquaron

Definitv sind im moment jegliche Benchmarks wertlos, die ein Spiel benchen, welches erst in ca. 6 Monaten rauskommt !!!

Wie wir in der Vergangenheit schon gesehen haben sind die Treiber sehr wichtig für die Spieleperformance !

Und ?
Warum sollten die ATI oder Nvidia Leute schon auf ein zukünftiges Game optimieren, welches noch weit entfernt ist?

Bei Nv kann ich das ja vielleicht noch verstehen, da sie mit allen mitteln und Benches ( egal ob fair oder unfair ( Treibercheating)) versucht ATI vom Thron zu stoßen !!!!!
Och komm, nun beruhig Dich mal wieder...
;-)

Die älteren Treiber von ATI waren da auf jeden Fall sehr viel besser und ist somit ein gutes Beispiel dafür, wie es um die Treiber-Entwicklung bei ATI bestellt ist. Habe das ja nun selber mehrfach live mitbekommen dürfen und kann es nur nochmal wiederholen:

"Eines wird gerichtet, das andere fällt hinten rüber !"

Mehr ist dazu einfach nicht zu sagen...

Bis denne

Razor

LovesuckZ
2003-05-18, 11:49:54
Nagus: Sollte bei Splintercell der nvidiapfad gegen den ATI gemessen wurden sein, dann ist das Ergebnis nichts aussagen, da hier eine bessere IQ erreicht wurde.
Zum Shadermark: Sollte Nvidia mit 128BIT fahren, ist das Ergebniss deutlich hoeher zu werten.

Razor
2003-05-18, 11:50:40
Originally posted by Exxtreme

Tja, lieber Razor, dann erklär mir mal warum man sich so einen Boliden für nur 2x AA kaufen soll. Da tut's auch eine günstige R9600Pro oder eine GFFX5600.

;D
DU hast mit der Vergleichbarkeit angefangen, also komm mir jetzt nicht so...
:D

Razor

Razor
2003-05-18, 11:52:01
Originally posted by nagus
speziell für razor:

:P;)
Interessant Nagus, wie Du die für Dich ungünstigen Werte einfach weg läßt...
...passt aber zu Dir.
:lol:

Razor

Exxtreme
2003-05-18, 11:53:31
Originally posted by LovesuckZ


Das koennte man auch zu FP16 -> FP24 sagen, trotzdem wird dies als "cheaten" betrachten...
Nicht unbedingt.

AFAIK ist das so, daß bei Direct3D bei den Gleitkomma-Formaten standardmässig 24 Bit FP benutzt wird. Wenn jetzt der Treiber dies eigenhändig auf 16 Bit FP senkt, dann wäre das eigentlich cheaten da der Treiber was qualitativ schlechteres macht als vorgesehen.

LovesuckZ
2003-05-18, 11:54:42
Originally posted by Exxtreme
AFAIK ist das so, daß bei Direct3D bei den Gleitkomma-Formaten standardmässig 24 Bit FP benutzt wird. Wenn jetzt der Treiber dies eigenhändig auf 16 Bit FP senkt, dann wäre das eigentlich cheaten da der Treiber was qualitativ schlechteres macht als vorgesehen.

Und wenn 32 bit FP genommen wuerde, waere dies auch cheaten?

Razor
2003-05-18, 11:57:04
Originally posted by Exxtreme

Nicht unbedingt.

AFAIK ist das so, daß bei Direct3D bei den Gleitkomma-Formaten standardmässig 24 Bit FP benutzt wird. Wenn jetzt der Treiber dies eigenhändig auf 16 Bit FP senkt, dann wäre das eigentlich cheaten da der Treiber was qualitativ schlechteres macht als vorgesehen.
Ist dem so ?
???

AFAIK hat Demirug doch mal was dazu gesagt...
Wen ich nur wüsste, was das jetzt war.
;-)

Razor

nagus
2003-05-18, 11:57:43
hardOCP on Radeon 9800PRO 256MB vs. FX5900ULTRA 256MB
-----------------------------------------------------
Looking at AA Quality, we came to the conclusion that the ATI 9800 Pro 256MB card still has hands down the best AA quality. You cannot beat ATI’s rotated grid with gamma correct AA. NVIDIA still uses an ordered grid sampling pattern on the NV35. They do get marks though for implementing Multi-Sampling + Super-Sampling modes. However, even though those options exist, ATI’s AA still looks better, even though its just Multi-Sampling. The only outstanding issue with ATI and AA is that we would like to see a way for alpha textures to get Anti-Aliased in D3D and OpenGL. Even if the only way is to include a Super-Sampling mode, the extra option would be nice.

Looking at Anisotropic Quality, we have to come to the conclusion that NVIDIA’s Anisotropic ultimately is done with a better technique on the 5900 Ultra. When push comes to shove, you cannot deny what the Filter Test is showing us. Still we have yet to see where the ATI AF technique gives us a negative in real gameplay. For most people the 9800 Pro’s Anisotropic is just fine, us included.

Overall, when judging image quality, we have to give the hat to the 9800 Pro. There isn’t a huge noticeable difference in the Anisotropic quality, even though ATI’s may not be filtering certain angles "correctly". Most games have straight 90 degree angles or long hallways or ceilings or walls, etc. At 16XAF the ATI 9800 Pro 256MB looks awesome in games like Medal of Honor or Battlefield 1942. On the 9800 Pro 256MB we did not notice as many jaggies whereas on the 5900 Ultra, aliasing is quite apparent when you are given a static screen shot to gaze at. Where it is really important is duing movement in gameplay. We are going to look further into this with some following subjective opinion articles. Given those facts, the 9800 Pro still holds the IQ crown, but NVIDIA is right behind them. If they can improve their AA to match the likes of gamma correction and rotating grid or jittered grid, then the tables would most likely turn...or rotate in this case.

Looking at performance between the two cards, we found that in Unreal Tournament 2003 the GeForceFX 5900 Ultra was on top in Antalus, but the Radeon 9800 Pro 256MB led in Inferno. However, CTF-Face3 showed what all that memory bandwidth can do on the GeForceFX 5900 Ultra. In a very memory bandwidth intensive situation the 5900 Ultra will excel. Serious Sam showed the 5900 Ultra on top as well. Splinter Cell was more interesting, showing the 9800 Pro 256MB card leading and by a good margin. The demo we ran is a demanding Pixel Shader oriented benchmark, and perhaps the 9800 Pro still has the faster shader speed. Quite possibly in the scene we focused on, one type of shader was being used that favored the 9800.

It almost seems like in every benchmark the cards go back and forth, dancing around each other. One map will run one card faster, another map will run the other one. One resolution shows a card faster, another resolution shows the other fast. It makes deciding which is the fastest card a very hard decision. Here we have an 8 pipeline card clocked at 380MHz beating in some cases a 4 pipeline card clocked at 450MHz with a lot of bandwidth. It appears in those situations that the 9800 Pro 256MB card just has a better architecture with faster shader speed. Then on the other side we do have the GeForceFX 5900 Ultra winning in some DX8 tests as well. One thing at least is certain, both cards offer awesome performance with AA/AF at high resolutions, and the 256MB of RAM does make a difference once you overcome CPU bottlenecks. If you only play games at 1024x768 and have an aging CPU, a card of these calibers will probably not help you much. But if you run at high resolutions with AA and have a fast CPU, a 256MB card can help stabilize FPS at those resolutions.

Both cards offer exceptional performance, but if I have to place my finger on which card I would choose for my primary system that I play my games on, I would have to opt for the 256MB 9800 Pro. It has better AA quality, and can play at 6XAA on a 256MB card very easily. It has also proven to be very strong in shader operations. It is not an easy decision for sure now. NVIDIA has done a great job at sizing up the issues with the NV30 and fixing those issues and making the NV35 an incredibly competitive part.

So, it all comes down to you, how much you want to spend, and what video card you need to fill your wants and desires while gaming. With the race this tight, small things might certainly tip your buying decision one way or the other. Brand loyalty, past hardware performance, and past driver support should come into play. Certainly what specific games you want to play should be weighed if possible and being able to actually purchase one is a plus as well. Both of the cards looked at here should be available for sale in quantity in 30 to 45 days.
------------------

Exxtreme
2003-05-18, 11:58:12
Originally posted by LovesuckZ


Und wenn 32 bit FP genommen wuerde, waere dies auch cheaten?
Normalerweise nicht, ausser der Programmierer fordert 32 Bit FP und der Treiber stellt was schlechteres ein. Ich glaube aber nicht, daß 32 Bit FP jemals zur Pflicht werden.


Also unter "cheaten" verstehe ich das Senken der BQ um höhere Frameraten zu schinden.

Deswegen sehe ich auch ATis AF und MSAA allgemein als "Cheat" an.

nagus
2003-05-18, 11:59:12
Originally posted by Razor

Interessant Nagus, wie Du die für Dich ungünstigen Werte einfach weg läßt...
...passt aber zu Dir.
:lol:

Razor

*LOL*

und du hast das vorher nicht gemacht, gelle

bis denne

:asshole: ;)

Razor
2003-05-18, 12:03:12
Originally posted by nagus
speziell für razor:

wo liegt denn jetzt die 5900Ultra "komfortalbel" vorne? :P

es gibt solche, und solche benchies... damit mußt du dich leider abfinden razor.

insges. gesehen ists IMHO eher ein gleichstand als ein sieg für nvidia.
Ich schreib jetzt doch noch was dazu...
(wollte ich ja eigentlich nicht ;-)

- Der ShaderMark geht an ATI (was auch immer dieser "RealWorld" bedeutet ;-).
- Comanche4 geht definitiv an nVidia (mal von der Minimalst-Führung unter 1600 abgesehen, was ich übrigens schon ganz oben auf dieser Seite schrieb ;-)
- SplinterCell ist schlicht nicht vergleichbar, da so einige Effekte der Engine auf einer ATI gar nicht dargestellt werden (und dieses Game noch ganz andere Probleme hat ;-).

Der Rest geht 'eh an nVidia, insofern kann man hier definitiv nicht von einem Unentschieden sprechen. Eher von einem klaren Sieg für nVidia, wenn auch nicht allen Bereichen.

Die ATI hat auf jeden Fall das bessere AA ab 4x, nVidia wiederum das bessere AF.
So gibt's zumindest in Sachen BQ ein Unentscheiden.

In Sachen Lesitung muss sich ATI nun aber was einfallen lassen...
:D

Bis denne

Razor

skampi
2003-05-18, 12:05:09
Originally posted by LovesuckZ


Und wenn 32 bit FP genommen wuerde, waere dies auch cheaten?

Warum stellst du solche Fragen?! Das ist ein schlechter Stil, wen willst du damit aus der Reserve locken?

Razor
2003-05-18, 12:09:46
Originally posted by nagus

*LOL*

und du hast das vorher nicht gemacht, gelle

bis denne
Nein, habe ich nicht...

"Aber einen kleinen Trost für die ATIler gibt's dann doch... denn bei 1600x1200 ist die R9800p256 minimal schneller..."
:D

Razor

LovesuckZ
2003-05-18, 12:11:12
Originally posted by Exxtreme
Normalerweise nicht, ausser der Programmierer fordert 32 Bit FP und der Treiber stellt was schlechteres ein. Ich glaube aber nicht, daß 32 Bit FP jemals zur Pflicht werden.

Danke.

Also unter "cheaten" verstehe ich das Senken der BQ um höhere Frameraten zu schinden.

Dann waere der FP16 Modus auf einer 5900Ultra kein Cheat, da die Leistung gleichbleibe.

Demirug
2003-05-18, 12:13:06
Also mal wieder:

DirectX und die geforderte FP-Genauigkeit.

Wenn vom Programmier nicht explizit anders vorgegeben müssen mathematische Operationen bei PS >= 2.0 mit folgende Mindestgenauigkeiten berechnet werden:

Alle Operationen die sich auf die Pixelfarbe beziehen mit s10e5 (=FP16)

Alle anderen Operationen mit s17e6 (=FP24)

Es gibt noch eine Nebenbedingung bezüglich fp32 Texturen.

Der Shaderprogrammierer hat aber die option die genauigkeit für jede Operation bis auf s10e5 abzusenken.

Natürlich darf eine Karte jederzeit auch genauer rechnen als gefordert.

Exxtreme
2003-05-18, 12:18:55
Originally posted by LovesuckZ
Dann waere der FP16 Modus auf einer 5900Ultra kein Cheat, da die Leistung gleichbleibe.
Wer sagt denn, daß die Leistung gleich bleibt? Gibt es irgendwo Benchmarks, die das belegen?

LovesuckZ
2003-05-18, 12:22:25
Originally posted by Exxtreme
Wer sagt denn, daß die Leistung gleich bleibt? Gibt es irgendwo Benchmarks, die das belegen?

The most interesting things start happening when we shift to 32bit per component: while NVIDIA GeForce FX 5800 Ultra naturally slows down, NVIDIA GeForce FX 5900 Ultra shows even better results!

Well, the results obtained let us suppose that NVIDIA has really increased the FPU performance in the new NV35, as they claimed. But the changes touched only upon 32bit precision: GeForce 5900 Ultra doesn’t slow down when shifting to full precision calculations.

http://www.xbitlabs.com/articles/video/display/geforcefx-5900ultra_8.html

Razor
2003-05-18, 12:24:13
Herzlichen Dank, Demirug.
Das war es, was mir entfiel...
(und vermutlich wird es mir wieder entfallen ;-)

Danke nochmal

Razor

Unregistered
2003-05-18, 12:26:16
Originally posted by Exxtreme

Ich glaube aber nicht, daß 32 Bit FP jemals zur Pflicht werden.




das las John mal nicht hören

Exxtreme
2003-05-18, 12:27:03
Originally posted by LovesuckZ


The most interesting things start happening when we shift to 32bit per component: while NVIDIA GeForce FX 5800 Ultra naturally slows down, NVIDIA GeForce FX 5900 Ultra shows even better results!

Well, the results obtained let us suppose that NVIDIA has really increased the FPU performance in the new NV35, as they claimed. But the changes touched only upon 32bit precision: GeForce 5900 Ultra doesn’t slow down when shifting to full precision calculations.

http://www.xbitlabs.com/articles/video/display/geforcefx-5900ultra_8.html
Das ist aber komisch. In 32 Bit FP ist der NV35 schneller als in 16 Bit FP.

In dem Fall kann man von Cheaten keine Rede sein.

Exxtreme
2003-05-18, 12:28:47
Originally posted by Unregistered


das las John mal nicht hören
Naja, selbst das professionelle 3D-Proggie Renderman arbeitet AFAIK mit "nur" 16 Bit FP.

Der Farbraum von 16 Bit FP dürfte für Spiele wirklich dicke reichen.

Razor
2003-05-18, 12:30:41
Sehe ich auch so...
Schließlich hat ja auch JC 'nur' für 16fp plädiert.
(besser 64-Bit Farbtiefe, was ja noch ein bissel was anderes ist ;-)

Razor

Unregistered
2003-05-18, 12:35:38
Originally posted by Exxtreme

Das ist aber komisch. In 32 Bit FP ist der NV35 schneller als in 16 Bit FP.

In dem Fall kann man von Cheaten keine Rede sein.
Das liegt höchstwahrscheinlich daran das Carmack sagte ich will (weil seit Jahren von ihm gefordert schon von 3dfx)mir ist egal meine neue engine wird bis zu 128 Bit Genauigkeit unterstützen und glaube das nvidia die ersten waren die sagt OK machen wir wenn nun das Haupt Augenmerk auf die Genauigkeit der Farbberechnung liegt ist es klar das er bei niedriger Qualität kein nennenswerten Verlust hat wohin gegen man mal fp64 testen sollte ich glaube das war’s was doom3 am meisten nützt!


Bin gerade erst up kann da ein bisschen durcheinander gebracht haben mit 128 bit und fp 64 aber meine das es so in dem paper von carmack und nv stand

Demirug
2003-05-18, 12:38:38
Originally posted by Exxtreme

Naja, selbst das professionelle 3D-Proggie Renderman arbeitet AFAIK mit "nur" 16 Bit FP.

Der Farbraum von 16 Bit FP dürfte für Spiele wirlich dicke reichen.

Der Farbraum ja. Bei den Texturkorrdinaten wird es aber eng. Mit FP16 kann man eine 1024er Texture nur noch Texelgenau ansprechen. Das FP16 bei den Profiprogramme bezieht sich erstmal auf den Datenformate. Rechnen können sie natürlich (soweit es die CPU unterstützt) natürlich auch mit FP16. Da man bei Renderprogrammen aber gerne auf Prozedurale Texturen setzt ist das mit den adderessieren normalerweise sowieso kein problem. Bei Spielen wo man ja immer grössere Texturen fordert dagegen schon und dann reicht fp16 eben nicht mehr aus.

Thowe
2003-05-18, 12:55:16
:wink:

Entschuldigung das ich hier so reinplatze, aber ich vermisse meinen Hund, Niveau, hat ihn jemand gesehen?

Lieblingsaufenthaltsorte:

Beim Friseur zum rasieren, hat ein dickes Fell
Ansonsten in den US, da nagt er gerne rum

Hält nicht viel von Liebe, aber ab und an streicheln darf man ihn.

nagus
2003-05-18, 13:05:07
Originally posted by Razor

Ich schreib jetzt doch noch was dazu...
(wollte ich ja eigentlich nicht ;-)

1. - Der ShaderMark geht an ATI (was auch immer dieser "RealWorld" bedeutet ;-).
2. - Comanche4 geht definitiv an nVidia (mal von der Minimalst-Führung unter 1600 abgesehen, was ich übrigens schon ganz oben auf dieser Seite schrieb ;-)
3. - SplinterCell ist schlicht nicht vergleichbar, da so einige Effekte der Engine auf einer ATI gar nicht dargestellt werden (und dieses Game noch ganz andere Probleme hat ;-).

4. Der Rest geht 'eh an nVidia, insofern kann man hier definitiv nicht von einem Unentschieden sprechen. Eher von einem klaren Sieg für nVidia, wenn auch nicht allen Bereichen.

5. Die ATI hat auf jeden Fall das bessere AA ab 4x, nVidia wiederum das bessere AF.
So gibt's zumindest in Sachen BQ ein Unentscheiden.

6. In Sachen Lesitung muss sich ATI nun aber was einfallen lassen...
:D

Bis denne

Razor

1. check
2. komisch, auf hot-hardware ist sogar die 128MB version bei 1024x768 der FX mit 256MB leicht voraus. http://www.hothardware.com/reviews/images/fx5900/c41024.png

>> ~ gleichstand.


3. natürlich nicht vergleichbar, sicher. wenns mal unbequem wird ist entweder die engine oder was anders schuld... außerdem: nicht die radeon stellt einfach gewissen effekte nicht dar, sonder die FX!!! (siehe benchmark-forum oder HIER: http://www.hardocp.com/images/articles/1047311589S4MzihRI0V_3_10_l.jpg vs. FX: http://www.hardocp.com/images/articles/1047311589S4MzihRI0V_3_11_l.jpg


4. teils, teils


5. fsaa ok, af naja... dafür hat ati die schärferen texturen auf entfernung


6. R360 (2 month), LOCI(6 month), R500 (12 month) ....

LovesuckZ
2003-05-18, 13:11:55
Originally posted by nagus
6. R360 (2 month), LOCI(6 month), R500 (12 month) ....

Vorstellung?

Bakunin3
2003-05-18, 13:25:00
Au weia!

Natürlich fehlen mir die Weihen des technischen Wissens über Pixelshader, Busbreite, GPU-Architektur etc.pp...

Aber wenn ich mir das hier so ansehe, wie sich erbsenzählerisch um eine Mehrleistung von konkurrierenden Grafikchips gestritten wird, die sich nahezu im Bereich der Messungenauigkeit bewegt (zumindest im Real World Spiel praktisch irrelevant ist)... dann wird mir einfach nur noch schwindlig.

Ist es nicht so, daß sowohl ATi als auch nVidia mit den aktuellen Chips sehr leistungsstarke und mit üppigen Features ausgestattete Chips geliefert haben, deren leistungsmäßige Unterschiede nur al marginal einzustufen sind?
Und daß sie beide mehr als geeignet sind, jedwedes aktuelle Spiel mit ausreichender Geschwindigkeit und volen Details zu spielen?

Freuen wir uns doch einfach, daß die beiden großen Herstellen weit davon entfernt sind, daß einer den Anderen in die Tasche stecken könnte, daß also die Konkurrenz zwischen den beiden dafür sorgt, daß sich keiner auf den errungenen Loorbeeren ausruhen kann...

Wir, als die Endverbraucher, können dabei nur gewinnen. ;)

B3

nagus
2003-05-18, 13:26:42
Originally posted by LovesuckZ

Vorstellung?

R360 wahrscheinlich Juli/August
Loci ~ gleichzeitig mit NV40 (frühestens herbst/winter 2003)
R500 ~ genau 2jahre nach R300, also juli/august 2004

Unregistered
2003-05-18, 13:27:09
Originally posted by Thowe
:wink:

Entschuldigung das ich hier so reinplatze, aber ich vermisse meinen Hund, Niveau, hat ihn jemand gesehen?

Lieblingsaufenthaltsorte:

Beim Friseur zum rasieren, hat ein dickes Fell
Ansonsten in den US, da nagt er gerne rum

Hält nicht viel von Liebe, aber ab und an streicheln darf man ihn. passt mir aber ganz gut hier ein link http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=70418&perpage=20&pagenumber=6

bitte mal ab Liszca post auf dieser Seite lesen bis dahin wo aths gelöscht hat. Und mir mal bitte verraten warum meine quotes wegen Forums verstoß weg sind, aber die aussagen von liszca stehen bleiben dürfen. Aths bezieht da keine Stellung könnte ja sein das dein Hund sich dort umtreibt :)

Thowe
2003-05-18, 14:24:48
Originally posted by Unregistered
passt mir aber ganz gut hier ein link http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=70418&perpage=20&pagenumber=6

bitte mal ab Liszca post auf dieser Seite lesen bis dahin wo aths gelöscht hat. Und mir mal bitte verraten warum meine quotes wegen Forums verstoß weg sind, aber die aussagen von liszca stehen bleiben dürfen. Aths bezieht da keine Stellung könnte ja sein das dein Hund sich dort umtreibt :)

Gute Frage ... im Notfall immer ein Thread im über 3DCenter aufmachen und fragen, PM geht ja in diesem Fall nicht.

Unregistered
2003-05-18, 14:26:29
Danke ich dachte schon ich bin ein Arsch :)

Ikon
2003-05-18, 17:39:03
Originally posted by Thowe
:wink:

Entschuldigung das ich hier so reinplatze, aber ich vermisse meinen Hund, Niveau, hat ihn jemand gesehen?

Lieblingsaufenthaltsorte:

Beim Friseur zum rasieren, hat ein dickes Fell
Ansonsten in den US, da nagt er gerne rum

Hält nicht viel von Liebe, aber ab und an streicheln darf man ihn.

Welch ausserordentlich niedliches Gleichnis, mein Glückwunsch für diesen Einfallsreichtum :)