PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Optimierungen


Seiten : 1 2 3 [4] 5

xL|Sonic
2004-05-20, 19:05:24
Im Endeffekt liegen die jeweiligen GrKa der beiden Firmen Performancemäßig doch eh ungefähr auf dem gleichen hohen Level, 3 Prozentpunkte hin oder her.
Früher hiess es noch, der nv40 ist soviel besser, weil es PS3.0 usw. unterstützt und div. andere neue Sachen, Features usw.
Jetzt gibt es mal eine Neuerung, die einen anderen Weg einschlägt und Versucht die Performance zu steigern, bei einer trotzdem sehr guten Bildqualität und alle unken rum.
Im Nachhinein kann man es eh nicht mehr ändern und wenn ATI einen Fehler gemacht hat in ihren pdf files, welchen sie auch zugegeben haben, dann ist das nur menschlich. Wer dann trotzdem immer noch Absicht unterstellt, der kann sich meiner Meinung nach auch gleich den goldenen Schuss geben, weil in der heutigen Welt, gerade in der Wirtschaft, eh alles ein zweischneidiges Schwert ist. Im Endeffekt ist es Aussage gegen Aussage und wie heisst es doch so schön in der Justiz, "im Zweifel für den Angeklagten".

LovesuckZ
2004-05-20, 19:07:45
Original geschrieben von Sphinx
Das hat mit Mutter ATI und PAPA Nvidia nichts zu tuen.
Beide nehmen sich nichts. Und werden sich nichts nehmen lassen. Und wenn du FULL_TRI so befürwortest dann kennen wir deine Entscheidung. Denn Rein Subjectiv besseres AF waren immer Nvidia´s Stärken...

So wie das rein subjektiv bessere AA der Nvidiakarten?
Achja, ich nehme gerne "Full trilinear". Wieso? Weil ich dann immer noch selbst entscheiden kann, ob ich "bilinear", "brilinear" oder "trilinear" verwende. Bevormundung? Nein, danke.
Aber einige scheinen wieder in hinter der Aufklaerung zurueck zufallen...

Das wissen definitv und hat es uns beim R9700,R9500,R9800 gestört das wir rein Subjectiv sowieso die schlechtere AF Qualität hatten als die der NV´s - NE.

Tjo, selbst jetzt im Worst Case Szenarium hat nvidia noch das bessere AF...!

LovesuckZ
2004-05-20, 19:11:27
Original geschrieben von Valmar
Jetzt gibt es mal eine Neuerung, die einen anderen Weg einschlägt und Versucht die Performance zu steigern, bei einer trotzdem sehr guten Bildqualität und alle unken rum.

Das ist nichts anderes wie ATi's r300 AF. Performancesteigerung aufgrund verringerter Bildqualitaet...

Im Nachhinein kann man es eh nicht mehr ändern und wenn ATI einen Fehler gemacht hat in ihren pdf files, welchen sie auch zugegeben haben, dann ist das nur menschlich.

:rofl:
Natuerlich ist das menschlich, vorallen weil man ja immer von "full trilinear" spricht...

Wer dann trotzdem immer noch Absicht unterstellt, der kann sich meiner Meinung nach auch gleich den goldenen Schuss geben, weil in der heutigen Welt, gerade in der Wirtschaft, eh alles ein zweischneidiges Schwert ist.

"Trylinear" seit rv350 -> einem jahr. Und das wurde zugegeben. Es wurde also absichtlich gelugen und Tatsachen vorgetaeuscht, die nicht so sind.
Achso, wenn du mal betrugen wirst, dann hoffe ich für dich, dass der Richter nicht deine Einstellung hat: Er hat sich geirrt -> menschlich...

Sphinx
2004-05-20, 19:11:40
Original geschrieben von LovesuckZ
Tjo, selbst jetzt im Worst Case Szenarium hat nvidia noch das besserer AF...!

Und was hat die vielen Käufer dann von nichts abgehalten sich eine R9700,R9500,R9800,R9600 zu kaufen.

Weil rein subjectiv die NVIDIA Karte das ein und alles ist. Der Preis war es bestimmt nicht. Die Werbung auch nicht.

LovesuckZ
2004-05-20, 19:13:38
Original geschrieben von Sphinx
Und was hat die vielen Käufer dann von nichts abgehalten sich eine R9700,R9500,R9800,R9600.


Weil sie andere Vorteile hatten?
Jetzt aber, kann sich der r420 nur durch Leistung und MSAA hervorheben. 2. Kann man mit SSAA kontern. Beim 1. Punkt wissen wir ja, woher die "überragende" Leistung kommt.
Warten wir doch mal erste Tests mit vergleichbaren Settings ab, dann wissen wir ja, wie gut der r420 wirklich ist.

Sphinx
2004-05-20, 19:18:53
Original geschrieben von LovesuckZ
Weil sie andere Vorteile hatten?
Jetzt aber, kann sich der r420 nur durch Leistung und MSAA hervorheben. 2. Kann man mit SSAA kontern. Beim 1. Punkt wissen wir ja, woher die "überragende" Leistung kommt.
Warten wir doch mal erste Tests mit vergleichbaren Settings ab, dann wissen wir ja, wie gut der r420 wirklich ist.

Aha - ich komme der Sache näher. Wozu deine Diskussionsbeiträge hinführen.

Du betreibst zu Unrecht ein ! KAUF KEINE ATI KARTEN Diskussion.

Glaubst du nicht das dies zu einer Kontra-Produktiven Diskussion führt ?

RLZ
2004-05-20, 19:21:18
Original geschrieben von LovesuckZ
Ach RLZ,
ist es fair eine Karte mit "full trilinear" gegen eine andere mit "full bilinear" in einem Spiel zu vergleichen, weil die Vergleichsbilder keine Unterschiede aufzeigen?

Von mir aus brauchen die garnicht zu filtern, wenn sie es hinkriegen, dass man keinen Unterschied sieht. :asshole:
Und solange man keinen Unterschied sieht ist es vergleichbar.
Find ich aber schon witzig, dass du mich als ATi-Anhänger hinstellen willst. :bäh:
Von mir aus kannst du die Namen vertauschen und ändere keine Aussage deswegen. Was im Rechner steckt ist mir auch egal (weiss ich oft auch garnicht), da ich beim Arbeiten jetzt eh nicht drauf achte, ob da jetzt 2 Pixel anders gefiltert sind. Mich interessiert was sich durch meine eigenen Änderungen am Bild ändert. Und wenn mans nicht sieht wird das billigere Verfahren genommen.

Gast
2004-05-20, 19:23:35
Original geschrieben von Sphinx
Aha - ich komme der Sache näher. Wozu deine Diskussionsbeiträge hinführen.

Du betreibst zu Unrecht ein ! KAUF KEINE ATI KARTEN Diskussion.

Glaubst du nicht das dies zu einer Kontra-Produktiven Diskussion führt ?

er hat aber nicht so ganz Unrecht.
ATI hat nach der Aktion, nach den fehlenden Features und so einigen Anweisungen an Entwickler wie beispielsweise auf SM3.0 zu verzichten (sie haben es ja nicht) eigentlich keine Belohnung durch den Kauf eines ihrer Produkte verdient. Im Prinzip sollte es ihnen genauso ergehen wie Nvidia das ganze letzte Jahr. Immer weniger Verkäufe. Das ist die beste Medizin, bevor die zu sehr abheben. So kommen sie schnell auf den Boden der Tatsachen runter und machen es beim nächsten mal besser.

xL|Sonic
2004-05-20, 19:28:38
Was diese PS3.0 Diskussion angeht, ist das wieder eine andere Kiste. ATI hat sich auf den Gamer Markt ausgerichtet und somit den meiner Meinung nach richtigen Schritt mit PS2 gemacht, da es eh wieder Refreshchips geben wird, wenn PS3.0 wirklich im kommen bei Spielen ist.

Sphinx
2004-05-20, 19:29:24
Original geschrieben von Gast
er hat aber nicht so ganz Unrecht.
ATI hat nach der Aktion, nach den fehlenden Features und so einigen Anweisungen an Entwickler wie beispielsweise auf SM3.0 zu verzichten (sie haben es ja nicht) eigentlich keine Belohnung durch den Kauf eines ihrer Produkte verdient. Im Prinzip sollte es ihnen genauso ergehen wie Nvidia das ganze letzte Jahr. Immer weniger Verkäufe. Das ist die beste Medizin, bevor die zu sehr abheben. So kommen sie schnell auf den Boden der Tatsachen runter und machen es beim nächsten mal besser.

Ja was hat SM3.0 hier nun damit zutuen.
Wenn Nvidia das SM3.0 so vermarktet - IST ES DIE ÜBERKARTE SCHLECHTHIN und wird auch ihre Käufer finden. Aber komisch das mein Gefühl sagt das ich mit der X800Pro vom Gesamteindruck die bessere Karte für mein Geld haben würde.

Das ist keine Art der Diskussion die man fortführen sollte.

Edit
Und dies ist genauso ein Fall wo : R97ooPro mit ihren PS2.0 (FP24) vs NV3x PS2.x (FP32)...

Und ich bin bis jetzt und all meine Freunde bis heute NACH dieser LANGEN Zeit immer noch beeindruckt... die sich diese Karten für 470 Euro gekauft haben.

Mr. Lolman
2004-05-20, 19:44:44
Original geschrieben von Sphinx
Und ich bin bis jetzt und all meine Freunde bis heute NACH dieser LANGEN Zeit immer noch beeindruckt... die sich diese Karten für 470 Euro gekauft haben.

Vor allem, geht (oder ging bis vor kurzem) die Karte mit nichteinmal 100MHz mehr und doppelt so viel Speicher jetzt nach fast 2 Jahren immernoch für das gleiche Geld weg.

Und dieses Pracht Exemplar schafft es immernoch die neuesten Techdemos (Ruby :love2: ), mit 4xAA 8xAF (fast) flüssig darzustellen. (Man muss nur genügend Bier trinken ;D)

Quasar
2004-05-20, 19:45:09
Original geschrieben von LovesuckZ
Tjo, selbst jetzt im Worst Case Szenarium hat nvidia noch das bessere AF...!

Nein. :)

Sphinx
2004-05-20, 19:50:18
Original geschrieben von Quasar
Nein. :)

Ich würde da noch subjectiv hinzufügen ,) *tip

LovesuckZ
2004-05-20, 19:51:44
Original geschrieben von Quasar
Nein. :)

Wann sieht es besser aus?

reunion
2004-05-20, 20:00:34
Original geschrieben von LovesuckZ
Ach RLZ,
ist es fair eine Karte mit "full trilinear" gegen eine andere mit "full bilinear" in einem Spiel zu vergleichen, weil die Vergleichsbilder keine Unterschiede aufzeigen?

100%ige Vergleichbarkeit wird man sowieso nie bekommen.
Wie lange bot NV nur bri an ohne eine Möglichkeit es auszuschalten?
Und jeder Reviewer Verglich gezwungenermaßen fulltri auf der radeon gegen bri auf der FX.
jetzt ist es halt umgekehrt(wobei NV ja inzwischen auch schonwieder auf bri umgeschwänkt ist)...

Exxtreme
2004-05-20, 20:05:19
Original geschrieben von RLZ
Ein Schalter für Brilinear wäre ja noch zu vertreten. Aber für die neue Optimerungen gegenüber den 9700er spricht gegen alle Softwaredesigngrundlagen. Man müllt den Anwender nicht mit Optionen zu, wenn man den Unterschied nur mit Differenzbildern sieht.

Was heisst hier zumüllen? :D

ATi hat es in der Hand das Controlpanel übersichtlich zu gestalten und trotzdem viele Funktionen anzubieten. Ich behaupte jetzt mal, daß mein rTool einfacher zu bedienen ist als das CP und es trotzdem deutlich mehr Optionen bietet. :D Das gleiche gilt auch für andere Tools.
Original geschrieben von RLZ
Ihr hättet wahrscheinlich auch noch gern den Treiber und Chipdesign als OpenSource?
Das ist eine Firma, die ihre Entwicklungsarbeit teuer bezahlt hat und kein Wohlfahrtsverein.

Opensource-Treiber wären nicht schlecht. :D Da könnte man nämlich diese auf Linux portieren und hätte auch gescheite Linux-Treiber. :D Aber man sieht hier sehr schön welche Prioritäten ATi setzt bei der Treiberentwicklung.
Original geschrieben von RLZ
Die Übergänge werden jetzt auf einmal auch viel mehr Leute sehen. Wenn ihr das sooo deutlich seht, warum ists nicht bei den Tests aufgefallen? Warum nicht bei den 9600er bei euch Zuhause und bei anderen Leuten?
Warum sollte ATI auf eine Optimierung hinweisen, die man in der Praxis nicht sieht?
Ich habe leider keine brilinear-fähige GraKa zur Verfügung. Aber bei einem Kumpel, der eine GFFX5600 hat, konnte ich den brilinearen Filter in einigen Games sehen.

r@h
2004-05-20, 20:07:44
Original geschrieben von Exxtreme
Ich habe leider keine brilinear-fähige GraKa zur Verfügung. Aber bei einem Kumpel, der eine GFFX5600 hat, konnte ich den brilinearen Filter in einigen Games sehen. Zum Beipiel ?
:???:

Razor

Quasar
2004-05-20, 20:09:06
Original geschrieben von LovesuckZ
Wann sieht es besser aus?

z.B. 4xAF, 1 Texturlayer, eingefärbte MipMaps. Der (geschätzte) 45°-Winkel weist das TriBand bei ATi weiter hinten als bei nV40 aus. X-D

http://www.3dcenter.org/artikel/r420_benchmarks/af-test_68_d3d_af04.php
http://www.3dcenter.org/artikel/r420_benchmarks/af-test_xt_d3d_af04.php

Exxtreme
2004-05-20, 20:11:11
Original geschrieben von r@h
Zum Beipiel ?
:???:

Razor
Eins der Games war irgendein Autorennen, bei UT2004 sieht man es auch in einigen, wenigen Maps. Aber mich persönlich stört der brilineare Filter eigentlich nicht. Ich glaube, ich würde ihn sogar nutzen wenn meine Radeon diesen könnte.

LovesuckZ
2004-05-20, 20:12:05
Original geschrieben von Exxtreme
Eins der Games war irgendein Autorennen,[...]

MBWR?

r@h
2004-05-20, 20:12:57
Original geschrieben von Mr. Lolman
Und dieses Pracht Exemplar schafft es immernoch die neuesten Techdemos (Ruby :love2: ), mit 4xAA 8xAF (fast) flüssig darzustellen. (Man muss nur genügend Bier trinken ;D) Hast Du Dir die Demo mal auf 'ner FX im "step-by-step-Modus" augeschaut ?
:D

Bezüglich der Quali und den Effekten leigen zwischen FX5900 und R9800p liegen Welten !
(allerdings auch hinsichtlich der performance ;-)

Und man sollte noch erwähnen, dass die 'neuesten' Demos auf den FX'en unverändert laufen, während man bei den ATI's sowohl die Effekte, als auch die Quali herunter schrauben musste, um das zum Laufen bringen... klar, dass es dann auch schneller läuft.

Aber klar, mit ordentlich Bier intus, fällt auch das nicht mehr auf !
;D

Razor

Exxtreme
2004-05-20, 20:14:21
Original geschrieben von LovesuckZ
MBWR?
Keine Ahnung. Das Spiel war schon gestartet, ich habe ein Paar Runden gedreht und dann hatte ich kein Bock mehr. :D War aber IIRC ein F1-Spiel.

r@h
2004-05-20, 20:16:20
Original geschrieben von Exxtreme
Eins der Games war irgendein Autorennen, bei UT2004 sieht man es auch in einigen, wenigen Maps. Aber mich persönlich stört der brilineare Filter eigentlich nicht. Ich glaube, ich würde ihn sogar nutzen wenn meine Radeon diesen könnte. Also in UT2k4 sieht die ATI-Lösung trotz 'FullTri' um einiges übler aus, als das, was man da von nVidia gewohnt ist. Eine Bugwelle konnte ich da noch überhaupt nicht ausmachen... hat Du vielleicht mal 'ne Map, bei der das so sein soll ?

Und welches Autorennen meinst Du ?
MBWR, NFSU oder CMR2/3/4 kannst Du auf jeden Fall nicht meinen...

Razor

Quasar
2004-05-20, 20:16:47
Original geschrieben von Exxtreme
Was heisst hier zumüllen? :D


Gaynau. Eigentlich bräuchten sie nur zwei Schieberegler und einen Button, damit kommt man reichlich aus.

Schieber1: FSAA 0x-6x
Schieber2: AF 0x-16x
Button: Experteneinstellungen.

Das würde das CP DAU-tauglich machen und gleichzeitig kann man jede Menge Optionen drin verbergen. Als Zugangsberechtigung für die Experteneinstellungen kann man ja eine Fachfrage beantworten lassen, wie z.B. "Geben Sie bitte die effektive EER des gerade eingestellten RG/SGMSAA-Modus ein". ;D

LovesuckZ
2004-05-20, 20:18:14
Original geschrieben von Quasar
z.B. 4xAF, 1 Texturlayer, eingefärbte MipMaps. Der (geschätzte) 45°-Winkel weist das TriBand bei ATi weiter hinten als bei nV40 aus. X-D


Ist das nicht auf die isotrope Filterung zurueckzuführen, zu welcher selbst MS sagt, sie bringe die bessere Qualitaet?

Sphinx
2004-05-20, 20:19:26
Original geschrieben von Exxtreme
Ich glaube, ich würde ihn sogar nutzen wenn meine Radeon diesen könnte.

Das sagt mir mein Gewissen auf alle Fälle auch das ich es nutzen müste- und mit TempAA on.


Extra für dich LS Editiert : müste - was für mich nicht heißt das ich deswegen die Gesamteentwicklung verfluche und alles in ein BAD SCENARIO Licht drücke...

reunion
2004-05-20, 20:21:52
Original geschrieben von Sphinx
und mit TempAA on.

Du hast TempAA noch nicht in aktion gesehn, oder? X-D

Sphinx
2004-05-20, 20:22:57
Original geschrieben von reunion
Du hast TempAA noch nicht in aktion gesehn, oder? X-D

Im Nicht optimierten zustand ja ! Auf meiner R9700Pro per RegTweak... und ich war beeindruckt.

Exxtreme
2004-05-20, 20:23:23
Original geschrieben von r@h
Also in UT2k4 sieht die ATI-Lösung trotz 'FullTri' um einiges übler aus, als das, was man da von nVidia gewohnt ist. Eine Bugwelle konnte ich da noch überhaupt nicht ausmachen... hat Du vielleicht mal 'ne Map, bei der das so sein soll ?
Deck 17 ist so eine Map, bei der ich die Auswirkungen des brilinearen Filters gesehen habe... an einigen Stellen.
Original geschrieben von r@h
Und welches Autorennen meinst Du ?
MBWR, NFSU oder CMR2/3/4 kannst Du auf jeden Fall nicht meinen...

Razor
Wie gesagt, keine Ahnung wie das Spiel hieß. ;(

reunion
2004-05-20, 20:24:27
Original geschrieben von Sphinx
Im Nicht optimierten zustand ja ! Auf meiner R9700Pro per RegTweak... und ich war beeindruckt.

Alles was ich wargenommen habe war eine geringer Framerate (durch vsync) und ein häftiges Kantenflimmern...
AFAIK nicht zu gebrauchen.

LovesuckZ
2004-05-20, 20:24:28
Original geschrieben von Sphinx
Extra für dich LS Editiert : müste - was für mich nicht heißt das ich deswegen die Gesamteentwicklung verfluche und alles in ein BAD SCENARIO Licht drücke...

Wer auf Machtentziehung und Bevormundung steht, der kann doch heute neben Vatertag auch noch dies feiern.

Sphinx
2004-05-20, 20:25:20
Original geschrieben von reunion
Alles was ich wargenommen habe war eine geringer Framerate (durch vsync) und ein häftiges Kantenflimmern...

Auf meinem TFT 1280x1024 @ 75Hz sah es ganz ruhig aus.

Sphinx
2004-05-20, 20:26:23
Original geschrieben von LovesuckZ
Wer auf Machtentziehung und Bevormundung steht, der kann doch heute neben Vatertag auch noch dies feiern.


Wieso bist du noch nicht verheiratet und hast Kinder ? :)

BerndJazz
2004-05-20, 20:34:44
Original geschrieben von LovesuckZ
Wer auf Machtentziehung und Bevormundung steht, der kann doch heute neben Vatertag auch noch dies feiern.


Mein Gott, bleib doch mal auf dem Teppich und mach hier aus der Wahl der Grafikkarte keine Entscheidung die die Grundlagen des Lebens beeinflußt.
Als würde man sich versklaven wenn man eine Ati kauft.
Du bist doch hier der Sklave von Nvidia.

MfG

BerndJazz

Sorry, das musste jetzt mal sein.

LovesuckZ
2004-05-20, 20:37:16
Original geschrieben von BerndJazz
Mein Gott, bleib doch mal auf dem Teppich und mach hier aus der Wahl der Grafikkarte keine Entscheidung die die Grundlagen des Lebens beeinflußt.


:???:
Einige stehen doch darauf, dass man ihnen vorschreibt, wie sie "zu spielen" haben (bei 500€ Karten!).
Wenn du meinst, ich waere ein Sklave von Nvidia, okay. Wenigsten habe ich "full trilinear" *eg*

MikBach
2004-05-20, 20:40:10
Original geschrieben von BerndJazz
Als würde man sich versklaven wenn man eine Ati kauft.

Nö.
Auch wenn man einen NV40 kauft, versklavt man sich, da winkelabhängiges AF(Hardware).

Sphinx
2004-05-20, 20:41:11
Original geschrieben von LovesuckZ
:???:
Einige stehen doch darauf, dass man ihnen vorschreibt, wie sie "zu spielen" haben (bei 500€ Karten!).

Das schreiben uns seid jeher die Spielentwickler vor...

Original geschrieben von LovesuckZ
Wenn du meinst, ich waere ein Sklave von Nvidia, okay. Wenigsten habe ich "full trilinear" *eg*

Was hat deine Kaufentscheidung - hier verloren ? Oder willst du mir was vorschreiben was ich zu kaufen habe welches ich gegenüber keinem als mir selbst rechtfertigen muß.

LovesuckZ
2004-05-20, 20:43:56
Original geschrieben von Sphinx
Das schreiben uns seid jeher die Spielentwickler vor...

Echt? Muss mir wohl die Grafikkarte entgangen sein, die ich in der Packung finde...

Was hat deine Kaufentscheidung - hier verloren ? Oder willst du mir was vorschreiben was ich zu kaufen habe welches ich gegenüber keinem als mir selbst rechtfertigen muß.

"Kaufentscheidung"? Wo liest du sie heraus?
So wie einige ATi für ihre "Our users want the best looking results and the highest quality results." Möglichkeit loben, bin ich mit Nvidia's "ach, IQ ist nicht notwendig" Meinung zu frieden...

/edit: Wobei, solch eine Fehleinschaetzung der Kaeuferschicht passiert auch nicht so oft...

Sphinx
2004-05-20, 20:48:09
Original geschrieben von LovesuckZ
"Kaufentscheidung"? Wo liest du sie heraus?
So wie einige ATi für ihre "Our users want the best looking results and the highest quality results." Möglichkeit loben, bin ich mit Nvidia's "ach, IQ ist nicht notwendig" Meinung zu frieden...

Ließ bitte Mein Posting auf das von dir Gequotete Statement richtig durch ! Und Antworte mir bitte auf die gestellte Frage anstelle von nicht zusammengehörigen schnipseln die du gerade nennst die keinen Bezug zu dessem haben was ich dich gefragt habe...

Exxtreme
2004-05-20, 20:49:03
OK Leute, für Privatunterhaltungen bietet die Forumssoftware eine PM-Funktion.

flatbrain
2004-05-20, 20:53:20
Hmm... dieses Niveau liebe ich, immer wieder interessant, wie sich aus doch recht objektiven Threads Fanboywars entwickeln!
Vielleicht sollten alle, die der Meinung sind, ihre "heilige" GFX bis zum letzten Blutstropfen verteidigen zu müssen, auch mal bereit sein, andere Meinungen zu aktzeptieren, egal, wie man nun zu dieser anderen Meinung steht!

cu flatbrain

PS: @LS etc. "Es gibt nur zwei Meinungen, meine und die falsche Meinung" ;)

/Edit: Danke Exxtreme!

Sphinx
2004-05-20, 20:54:32
Original geschrieben von Exxtreme
OK Leute, für Privatunterhaltungen bietet die Forumssoftware eine PM-Funktion.

Ja verstehe ich absolut. Und verstehe meine Postings nicht als Flameversuch sondern eher als was willst du uns sagen oder vermitteln Statements von LS welches nicht gerade eine Bereicherung für diese allgemeine Diskussion hier ist - die auch nur für Mich keine hohe Wertigkeit besitzt in dessem was er versucht zu vermitteln und in der Art und Weise...

LovesuckZ
2004-05-20, 20:54:45
Original geschrieben von flatbrain
PS: @LS etc. "Es gibt nur zwei Meinungen, mein und die falsche Meinung" ;)

Und: Ich brauche eine längere Signatur. Guter Spruch :)

Gast
2004-05-20, 20:58:30
Wenn ich meine Meinung sagen dürfte:
Für jeden der eine neue Graka kaufen möchte sprechen nach den neuesten Ereignissen drei Argumente für nVidia:

1.Sie bietet PS 3.0 was ATI nicht hat!
2.Sie bietet full Trilinear wenn man es möchte, was ATI auch nicht hat!
3.Sie verarscht dich nicht, was ATI hat!!

cu

Winter[Raven]
2004-05-20, 21:01:23
PS: @LS etc. "Es gibt nur zwei Meinungen, mein und die falsche Meinung"

Löl ... ^^

Recht zuhaben ist wie ein dreischneidiges Schwert, die Meinung der einen Seite, die Meinung der anderen Seite ... und WAHRHEIT.

kami
2004-05-20, 21:03:08
Original geschrieben von Gast
Wenn ich meine Meinung sagen dürfte:
Für jeden der eine neue Graka kaufen möchte sprechen nach den neuesten Ereignissen drei Argumente für nVidia:

1.Sie bietet PS 3.0 was ATI nicht hat!
2.Sie bietet full Trilinear wenn man es möchte, was ATI auch nicht hat!
3.Sie verarscht dich nicht, was ATI hat!!

cu

1. Stimmt - was es effektiv bringt bleibt aber abzuwarten.
2. Mal schauen was zukünftige Treiber bringen.
3. Haben se auch schon gemacht - nehmen sich beide nix imho.

Exxtreme
2004-05-20, 21:04:03
Original geschrieben von Gast
Wenn ich meine Meinung sagen dürfte:
Für jeden der eine neue Graka kaufen möchte sprechen nach den neuesten Ereignissen drei Argumente für nVidia:

1.Sie bietet PS 3.0 was ATI nicht hat!
2.Sie bietet full Trilinear wenn man es möchte, was ATI auch nicht hat!
3.Sie verarscht dich nicht, was ATI hat!!

cu
Wenn ich meine Meinung sagen dürfte:
Für jeden der eine neue Graka kaufen möchte sprechen nach den neuesten Ereignissen drei Argumente für ATi:

1.Sie bietet 3Dc was Nvidia nicht hat!
2.Sie bietet schnelles AA oberhalb 4x AA was Nvidia auch nicht hat!
3.Sie verarscht dich nicht, was Nvidia hat!!

cu

Merkst du was? :D
Ich glaube, jeder muss die Vor- und Nachteile beider Kontrahenten gegeneinander abwägen und dann eine Entscheidung treffen.

Und ja, nach derzeitigem Erkenntnisstand tendiere ich zum NV40. Und wenn Herr Alibrandi nicht gelogen hat wegen den "Full-Tri-Schalter" dann werde ich mir das Teil womöglich holen. :D

Exxtreme
2004-05-20, 21:04:37
Original geschrieben von Winter[Raven]
Löl ... ^^

Recht zuhaben ist wie ein dreischneidiges Schwert, die Meinung der einen Seite, die Meinung der anderen Seite ... und WAHRHEIT.
Du solltest auch hinschreiben, wen du zitiert hast. :D

LovesuckZ
2004-05-20, 21:06:21
Original geschrieben von Exxtreme
Und ja, nach derzeitigem Erkenntnisstand tendiere ich zum NV40. Und wenn Herr Alibrandi nicht gelogen hat wegen den "Full-Tri-Schalter" dann werde ich mir das Teil womöglich holen. :D

Nun, da der 60.72 ihn anbieten, brauch man ja im schlimmsten Fall nicht auf "full trilinear" verzichten, außer man moechte Farcry zocken :D

Winter[Raven]
2004-05-20, 21:07:49
Original geschrieben von Exxtreme
Du solltest auch hinschreiben, wen du zitiert hast. :D

Kennen die meisten ehe nicht, deswegen kan nich es mir sparen, da es im Original etwas anders heißt, es wurde von mir nur etwas auf Sphinx angepasst ;)

Exxtreme
2004-05-20, 21:09:20
Original geschrieben von LovesuckZ
Nun, da der 60.72 ihn anbieten, brauch man ja im schlimmsten Fall nicht auf "full trilinear" verzichten, außer man moechte Farcry zocken :D
Ich meine jetzt, daß NV schon um die 3 offizielle Treiberversionen rausbringen sollte mit funktionierenden Tri-AF-Schalter. Mir bringt es wenig wenn ein (womöglich problembehafteter) Treiber so einen Schalter hat, ein ausgereifter Treiber aber nicht.

Mr. Lolman
2004-05-20, 21:09:48
Original geschrieben von r@h
Hast Du Dir die Demo mal auf 'ner FX im "step-by-step-Modus" augeschaut ?
:D

Bezüglich der Quali und den Effekten leigen zwischen FX5900 und R9800p liegen Welten !
(allerdings auch hinsichtlich der performance ;-)


Ich komm leider nur an ne Fx5200 ran, und da würde ein Step ziemlich lange dauern...

Aber ast du dir schon die neue Version von Colourless' Ruby Wrapper angesehen? Ich wüsst nicht was da jetzt noch für Unterschiede zum Original zu sehen wären..


Und man sollte noch erwähnen, dass die 'neuesten' Demos auf den FX'en unverändert laufen, während man bei den ATI's sowohl die Effekte, als auch die Quali herunter schrauben musste, um das zum Laufen bringen... klar, dass es dann auch schneller läuft.

Aber klar, mit ordentlich Bier intus, fällt auch das nicht mehr auf !
;D

Razor


Naja, Effekte=Quali=(fast?)Original.


Gut 13x schneller ists nicht mehr aber ~2/3 der Performance der Urversion ist noch drinnen... Im Übrigen profitieren die FXen angeblich auch ein bisschen von den optimierten Multipass Shadern. Seltsam irgendwie, möge man meinen,wären da nicht die Effekte die fehlen (sollen?)

LovesuckZ
2004-05-20, 21:10:50
3 offizielle bedeuten bei Nvidia irgendwas mit 6 - 9 Monaten.

AYAlf
2004-05-20, 21:16:07
mal ganz im ernst .. ich hab mir das ganze noch mal genauer angeschaut.

mir faellt auf, dass die (ich muss sie leider hier noch mal so nennen) nvidiafanboys regelrecht das nvidia evangelium vorposten ;D . ich finde das eigentlich ganz witzig .. besonders auf den letzten seiten wird von lz immer wieder auf den vermeintlichen vorteilen der nvidia boliden hingewiesen (und staendig das gleiche).

ich persoenlich finde dieses staendige ueberzeugen wollen doch eher laestig und es traegt wirklich keinen meter zu der diskusion bei. wie ich mein spiel, meine demo empfinde bleibt bei einem solchen technikstand wohl jedem selbst ueberlassen. ich denke auch nicht, dass hier ati gecheatet hat. da diese optimierung ja fuer alle bereiche gilt .. spiele sowie demos und benchmarks. nvidia hat das damals etwas anders gemacht. sie haben sich ein paar benchmark relevante spiele und benchmarks ausgesucht. und nur auf bestimmte szenen optimiert. das nenne ich dann wirklich cheaten.
dem normal gamer (dazu zaehle ich ich mich auch) ist es reichlich egal, wie er zu geschwinigkeit und qualitaet im spiel kommt. denn nichts anders sind diese grafikkarten=spielekarten.
wenn mich jemand nach einer grafikkarte fragen wuerde, die die wesentlichen (relevanten) punkte behinaltet wie...

- gute qualitaet
- moeglichst wenig stromverbrauch (weil man ja nicht nur zocken will mit dem pc)
- einfach bedienung (gute treiber)
- schnelle karte
- eine karte die qualitaet mit geschwindigkeit vereinbaren kann
- eine karte die auch hohe aufloesungen meistern kann
- moeglichst geraeuscharm
- ausgereifte technik
- zukunftssicher
- regelmaessiger support von treibern und tools
- gutes preis-leistungsverhaeltnis
- moeglichst wenig bugs (in spielen)

dann kommt fuer mich nur ati in frage. klar hat auch nvidia bei einigen punkten ihre qualitaeten. aber auf das ganze besehen, kann man nur von ati behaupten alle punkte wirklich zu erfuellen.
eine grafikkarte sollte halt nicht nur eine oder ein paar der punkte in sich vereinen. sondern moeglichst alle!

ps: axo .. ich habe es zwar schon ein paar mal erwaehnt aber ich besizte nvidia karten und nur eine ati ;D
bis zu der geforce 4 ti reihe hat nvidia die von mir angesprochenen punkte besser erfuellt. das hat sich aber mit der 9800 serie von ati geandert. unter anderem auch deswegen, weil die karte ausgereifte und sehr stabile treiber hat.

MikBach
2004-05-20, 21:19:07
Original geschrieben von LovesuckZ
:???:
Einige stehen doch darauf, dass man ihnen vorschreibt, wie sie "zu spielen" haben (bei 500€ Karten!).

Ich hasse es auch, wenn man mir vorschreibt, welche Quali ich sehen darf-> siehe FarCry NV3x
Version 1.0 zeigt volle Qualität, nur ist einfach langsam.
Version 1.1 verbietet es mir auf NV3x die volle Quali zu sehen, obwohl es ein NV-Spiel ist. Das ist doch wohl ein Witz, dass ich bei der Konkurrenz mehr sehen darf.

So wie du siehst, hat diese Diskussion keinen Sinn.
Also lass es.

LovesuckZ
2004-05-20, 21:19:20
Original geschrieben von AYAlf
eine grafikkarte sollte halt nicht nur eine oder ein paar der punkte in sich vereinen. sondern moeglichst alle!


Da du mich persönlich ansprichst: Welche Karte erfüllt dann bitte "alle" deiner Möglichkeiten?
ATi und Nvidia tun dies nicht, vielleicht der S3?

Sphinx
2004-05-20, 21:20:01
Um es kurz bei dem Namen zu nennen - Der Gesamteindruck ist der entscheidende Faktor.

LovesuckZ
2004-05-20, 21:20:12
Original geschrieben von MikBach
Ich hasse es auch, wenn man mir vorschreibt, welche Quali ich sehen darf-> siehe FarCry NV3x


Warum benutzt du nicht die version 1.0? Wirst du von crytek dazu gezwungen? Dieser Vergleich mit dem, was nvidia (61.11) und ATi jetzt tun, ist falsch.

Gast
2004-05-20, 21:20:21
@LovesuckZ: möglichst alle hat er geschrieben. Hauptsache blöd anmachen, gell?

Exxtreme
2004-05-20, 21:20:47
Original geschrieben von LovesuckZ

3 offizielle bedeuten bei Nvidia irgendwas mit 6 - 9 Monaten.
Wirklich? ;( Bei ATi hätte man wohl zwischen 6 - 9 Treiberversionen. ;( Ich habe schon daran gewöhnt an regelmässige Treiberreleases. ;( Naja, dann eben 2 Treiberreleases, bei denen der Schalter garantiert funktioniert. X-D

MikBach
2004-05-20, 21:21:42
Original geschrieben von LovesuckZ
Warum benutzt du die version 1.0? Wirst du von crytek dazu gezwungen?

Stell dich doch nicht dumm!
Lese mein Post, da steht was von gleicher Qualität.

AYAlf
2004-05-20, 21:22:17
Original geschrieben von LovesuckZ
Warum benutzt du nicht die version 1.0? Wirst du von crytek dazu gezwungen? Dieser Vergleich mit dem, was nvidia (61.11) und ATi jetzt tun, ist falsch.

ja wirst du .. wenn du auch im inet spielen moechtest!

Uller
2004-05-20, 21:22:53
@MikBach: er verstellt sich nicht. Traurig, aber wahr.

Exxtreme
2004-05-20, 21:24:14
Bitte hört auf euch gegenseitig anzukläffen. Ansonsten mache ich den Thread dicht und verteile ein Paar Punkte!

Danke für die Aufmerksamkeit.

Sphinx
2004-05-20, 21:24:37
Exxtreme : Sie Antworten nur auf die in frage gestellten Statements...

Und mal im ernst einige Postings versteht man nicht so das man da sich nur an den Kopf fassen muss...

Und bei der ganzen Schreiberei - habe ich doch glatt deinen Nick verkehrt geschrieben...

MikBach
2004-05-20, 21:30:28
Original geschrieben von Exxtreme
Bitte hört auf euch gegenseitig anzukläffen. Ansonsten mache ich den Thread dicht und verteile ein Paar Punkte!

Danke für die Aufmerksamkeit.
Du hast Recht. Nur wenn LS behauptet, dass ATI ihm was vorschreibt, darf ich doch sagen, dass Nvidia mir Sachen vorschreibt, die für einen Dau sichtbar sind(PS2.0-PS1.1 bei FarCry).
Wenn es um die Aufmersamkeit geht, hat jeder Post genug davon.

Exxtreme
2004-05-20, 21:33:03
Original geschrieben von MikBach

Du hast Recht. Nur wenn LS behauptet, dass ATI ihm was vorschreibt, darf ich doch sagen, dass Nvidia mir Sachen vorschreibt, die für einen Dau sichtbar sind(PS2.0-PS1.1 bei FarCry).
Wenn es um die Aufmersamkeit geht, hat jeder Post genug davon.
Da schreibt dir Nvidia nix vor sondern CryTec. Die haben das Spiel so programmiert, daß man mit einer NV-Karte manchmal schlechtere Qualität bekommt. Da kann Nvidia nix dafür. Um das zu umgehen kannst du 3DAnalyze nutzen und dem Spiel eine R9800 vorgaukeln. Dann kriegst du auch auf dem NV40 die volle Qualität.

LovesuckZ
2004-05-20, 21:34:19
Danke Exxtreme, haette ich es geschrieben, würde es mir keiner glauben :(

MikBach
2004-05-20, 21:37:23
Original geschrieben von Exxtreme
Da schreibt dir Nvidia nix vor sondern CryTec. Die haben das Spiel so programmiert, daß man mit einer NV-Karte manchmal schlechtere Qualität bekommt. Da kann Nvidia nix dafür.
Wie, die haben das so programmiert, dass man mit Nvidia schlechtere Quali bekommt?:kratz:
Alles klar?
Das wäre doch der Tod für Nvidia, wenn man wissen würde, dass es auf ATI schöner ist. :)

Sphinx
2004-05-20, 21:38:17
Original geschrieben von LovesuckZ
Danke Exxtreme, haette ich es geschrieben, würde es mir keiner glauben :(


Original geschrieben von LovesuckZ
:???:
Einige stehen doch darauf, dass man ihnen vorschreibt, wie sie "zu spielen" haben (bei 500€ Karten!).


Sphinx
Das schreiben uns seid jeher die Spielentwickler vor...

Original geschrieben von LovesuckZ
Echt? Muss mir wohl die Grafikkarte entgangen sein, die ich in der Packung finde...



@ Extreme das ist nur aus der inhaltlichen Diskussion herausgequotet.

Exxtreme
2004-05-20, 21:39:44
Original geschrieben von MikBach
Wie, die haben das so programmiert, dass man mit Nvidia schlechtere Quali bekommt?:kratz:
Alles klar?
Das wäre doch der Tod für Nvidia, wenn man wissen würde, dass es auf ATI schöner ist. :)
Ist aber so. Das Spiel erkennt die GraKa und wählt die Shader aus. Normalerweise programmiert man ein Spiel so, daß die Shader anhnd der Fähigkeiten der GraKa ausgewählt werden. Farcry wählt die Shader aber anhand der GraKa-ID aus. Und 3DAnalyze kann die echte ID verbergen und eine andere vortäuschen.

Mr. Lolman
2004-05-20, 21:40:57
Original geschrieben von MikBach
Wie, die haben das so programmiert, dass man mit Nvidia schlechtere Quali bekommt?:kratz:
Alles klar?
Das wäre doch der Tod für Nvidia, wenn man wissen würde, dass es auf ATI schöner ist. :)

Sie hatten halt die Wahl. Schlechtere Qualität bei relativ schlechter Performance, oder extrem schlechte Performance bei gleichguter (bis besserer?) Qualität...

MikBach
2004-05-20, 21:43:33
Original geschrieben von Exxtreme
Ist aber so. Das Spiel erkennt die GraKa und wählt die Shader aus. Normalerweise programmiert man ein Spiel so, daß die Shader anhnd der Fähigkeiten der GraKa ausgewählt werden. Farcry wählt die Shader aber anhand der GraKa-ID aus. Und 3DAnalyze kann die echte ID verbergen und eine andere vortäuschen.
Ja. Das mit dem Analyzer ist mir schon klar.
Nur wie kann es sein, dass "STANDARD" bei ATI und Nvidia anders aussieht?
BZW. Volle Quali. Wenn ich alle Shader in der höchsten Version haben will, kann mir doch keiner vorschreiben, welche ich wählen darf!*eg*

Exxtreme
2004-05-20, 21:46:22
Original geschrieben von MikBach
Nur wie kann es sein, dass "STANDARD" bei ATI und Nvidia anders aussieht?

Das ist halt bei Farcry so. Normalerweise macht man sowas nicht. Was die bei CryTec geritten hat, das weiss ich auch nicht. ;(

MikBach
2004-05-20, 21:48:51
Original geschrieben von Exxtreme
Das ist halt bei Farcry so. Normalerweise macht man sowas nicht. Was die bei CryTec geritten hat, das weiss ich auch nicht. ;(
Wenn das für alle zukünftigen Spiele gelten soll(da ich davon ausgehe, dass FarCry eins davon ist), dann gute Nacht Nvidia.

Uller
2004-05-20, 21:49:15
Ich weiß es, ich weiß es - Nvidia hat sie geritten ;)

Exxtreme
2004-05-20, 21:50:54
Original geschrieben von MikBach
Wenn das für alle zukünftigen Spiele gelten soll(da ich davon ausgehe, dass FarCry eins davon ist), dann gute Nacht Nvidia.
Nein. Wie gesagt, CryTec hat einen ungewöhnlichen Weg gewählt. Normalerweise werden die Shader anhand der gemeldeten Fähigkeiten der GraKa ausgewählt. So sieht es DX normalerweise vor. Ich denke, daß die Methode, welche bei Farcry verwendet wurde, eine seltene Ausnahme sein wird.

Sphinx
2004-05-20, 21:53:53
Original geschrieben von Uller
Ich weiß es, ich weiß es - Nvidia hat sie geritten ;)

Ich frage mich - wie ich dieses Interpretieren soll.

Uller
2004-05-20, 21:56:40
Ich denke, Nvidia hat Crytec dezent gebeten, doch ein paar aufwändige Pixelshader rauszunehmen damit es auf Nvidia Karten nicht so schlecht läuft.
Kann aber natürlich auch sein dass Crytec das selber gemacht hat, weil es auf NV Karten so schlecht lief - weiß man ja nie.
Deswegen der Smiley ;)
Es hat auf jeden Fall damit zu tun dass es nicht gut lief/läuft auf Nvidia Karten, soviel steht fest.

AYAlf
2004-05-20, 22:00:13
Original geschrieben von Exxtreme
Nein. Wie gesagt, CryTec hat einen ungewöhnlichen Weg gewählt. Normalerweise werden die Shader anhand der gemeldeten Fähigkeiten der GraKa ausgewählt. So sieht es DX normalerweise vor. Ich denke, daß die Methode, welche bei Farcry verwendet wurde, eine seltene Ausnahme sein wird.

ich hoffe du missverstehst diesen post jetzt nicht falsch. aber koennte es nicht so sein, dass im zug der allgemeinen performanz schlacht. nvidia wollte, dass sie mit einer besseren performanz bei dem spiel fc abschndeiden. da der vorsprung der ati karten geradezu ueberwaeltigent, bei der version 1.0, war. und crytec deshalb sehr ueberstuerzt den patch 1.1 herausgebringen musste (reine spekulation). wir wissen doch alle, wie wichtig beiden firmen diese komischen langen oder weniger langen balken sind.
was uns auch wieder zum eigenglichen thema zurueckbringt. dass, ati ja auch nichts anderes mit der optimierung des tri vor hatte, als noch mehr geschwindigkeit aus ihren schon sowieso sehr schnellen karten zu kitzeln.

DanMan
2004-05-20, 22:00:39
Ich wär dafür, dass hier im Technikforum sämtliche "Ich kauf mir ne blablabla" Postings und sämtliche andere "Meinungsäußerungen" gnadenlos gelöscht werden sollten. Egal was sonst noch so im Posting steht.

MikBach
2004-05-20, 22:01:08
Original geschrieben von Exxtreme
Nein. Wie gesagt, CryTec hat einen ungewöhnlichen Weg gewählt.
Das bitte erklären. Kann es sein, dass es in den zukünftigen Spielen auch nicht funktioniert?

LovesuckZ
2004-05-20, 22:02:19
Original geschrieben von DanMan
[...] Technikforum [...]

Das befindet sich 5 Straßen weiter :)

Sphinx
2004-05-20, 22:02:44
Original geschrieben von DanMan
"Ich kauf mir ne blablabla" Postings und sämtliche andere "Meinungsäußerungen" gnadenlos gelöscht werden sollten. Egal was sonst noch so im Posting steht.


Vote ^^ [x]

xL|Sonic
2004-05-20, 22:03:02
@LZ
uns wird sehr wohl von Spieleentwicklern vorgeschrieben, wie wir einige Spiele zu spielen haben, siehe Halo und Splinter Cell, wo FSAA nicht im Spiel aktiviert werden kann. Vielleicht solltest du vorher auch mal etwas mehr überlegen und dich nicht nur auf deinen kleinen Krieg mit nvidia gegen ati konzentrieren.

Crushinator
2004-05-20, 22:05:45
JungZ, ich muß mich mal auslassen. Nachdem ich mich heute Nacht stundenlang mit Vergleichsbildern und Meinungen beschäftigt habe, ziehe ich den Hut vor ATi ab, weil ich das Resultat dieses "Trylinear" schlicht genial finde, ohne allerdings meine Meinung zu ändern, daß die Art der "Einführung" dessen nicht gerade der feinen Englischen entspricht.

Vorausgesetzt, es gäbe keine Treiberoption/Regkey in naher Zukunft, womit man "Trylinear" deaktivieren kann, frage ich mich gerade, ob man bei zukünftigen gegenüberstellenden Reviews nicht einfach mitangeben sollte, daß Benchmarkswerte nicht ganz vergleichbar seien, weil die eine Hardware halt mehr tut als die Andere? Ein paar gute Vergleichsbilder und auch zwingend Movies liefern, und schon könnte der Leser selbst entscheiden, was für ihn selbst wichtiger ist bzw. was er selbst gut oder schlecht findet. Warum müssen immer nur Lehrbücher über das entscheiden, was der User gut zu finden hat oder nicht? Zumal die aktuellen Chips ja wirklich keine Äpfel mehr sind, sondern Kokosnuß respektive Ananas.

Was meint Ihr?

LovesuckZ
2004-05-20, 22:07:31
Original geschrieben von Valmar
@LZ
Vielleicht solltest du vorher auch mal etwas mehr überlegen und dich nicht nur auf deinen kleinen Krieg mit nvidia gegen ati konzentrieren.

Ein Spieleentwickler weiß besser als jeder Grafikchiphersteller, wie sein Spiel aussehen muss. Wenn er "full trilinear" haben will, dann sollte er das auch bekommen. Wenn er meint, dass AA Fehler produzieren kann, dann wird er keinen "AA Schalter" ins Menue einbauen. Spiele sollten sich nicht nach den beiden großen (Nvidia und ATi) richten.
Ein Maler malt sein bild nach seinem geschmack. Keiner hat recht, dass Bild zu nehmen und mit einer anderen farby zu übermalen, weil er meint, so sehe es besser aus oder so passen die Farben besser zu einander.

Exxtreme
2004-05-20, 22:07:42
Original geschrieben von MikBach
Das bitte erklären. Kann es sein, dass es in den zukünftigen Spielen auch nicht funktioniert?
Funktionieren würde es schon blos ich denke nicht, daß das die Entwickler machen werden. Es bedeutet nämlich viel mehr Stress die Features nach der GraKa-ID auszuwählen.

Sphinx
2004-05-20, 22:09:29
Original geschrieben von crushinator
JungZ, ich muß mich mal auslassen. Nachdem ich mich heute Nacht stundenlang mit Vergleichsbildern und Meinungen beschäftigt habe, ziehe ich den Hut vor ATi ab, weil ich das Resultat dieses "Trylinear" schlicht genial finde.

Deine Subjective Meinung.
.
.
.
Auch meine subjective Meinung und wegen der Technik die wirklich Effektiv Arbeitet bzw. Like TempAA was vortäuscht/~gaukelt wovon ich Performancetechnisch auch gewisse Vorteile erziele die bei eventuellen FPS Abfall getrübt währen... *ja ich bin ein FPS Fanatiker

MikBach
2004-05-20, 22:11:30
Original geschrieben von Exxtreme
Funktionieren würde es schon blos ich denke nicht, daß das die Entwickler machen werden. Es bedeutet nämlich viel mehr Stress die Features nach der GraKa-ID auszuwählen.
Also fährt der R3X0 besser? da dieser voll DX9 kompatibel ist, im weitem Sinne.

MikBach
2004-05-20, 22:13:03
Original geschrieben von LovesuckZ
Ein Spieleentwickler weiß besser als jeder Grafikchiphersteller, wie sein Spiel aussehen muss. Wenn er "full trilinear" haben will, dann sollte er das auch bekommen. Wenn er meint, dass AA Fehler produzieren kann, dann wird er keinen "AA Schalter" ins Menue einbauen. Spiele sollten sich nicht nach den beiden großen (Nvidia und ATi) richten.
Ein Maler malt sein bild nach seinem geschmack. Keiner hat recht, dass Bild zu nehmen und mit einer anderen farby zu übermalen, weil er meint, so sehe es besser aus oder so passen die Farben besser zu einander.

Was willst du uns damit sagen?:kratz:

AYAlf
2004-05-20, 22:13:42
Original geschrieben von Exxtreme
Funktionieren würde es schon blos ich denke nicht, daß das die Entwickler machen werden. Es bedeutet nämlich viel mehr Stress die Features nach der GraKa-ID auszuwählen.

aber wuerde das nicht die vermutung stuetzen, dass nvidia auch noch ein wort mitgesprochen hat. bei der ganzen anglegenheit?

Sphinx
2004-05-20, 22:14:45
Original geschrieben von MikBach
Was willst du uns damit sagen?:kratz:

Ich zitiere da ich es auch nicht verstehe welchen Standpunkt LS nun vertritt - von a nach b über d zurück zu c und um dann nochmal auf a zurückzukommen.

seahawk
2004-05-20, 22:14:53
Original geschrieben von crushinator
JungZ, ich muß mich mal auslassen. Nachdem ich mich heute Nacht stundenlang mit Vergleichsbildern und Meinungen beschäftigt habe, ziehe ich den Hut vor ATi ab, weil ich das Resultat dieses "Trylinear" schlicht genial finde, ohne allerdings meine Meinung zu ändern, daß die Art der "Einführung" dessen nicht gerade der feinen Englischen entspricht.

Vorausgesetzt, es gäbe keine Treiberoption/Regkey in naher Zukunft, womit man "Trylinear" deaktivieren kann, frage ich mich gerade, ob man bei zukünftigen gegenüberstellenden Reviews nicht einfach mitangeben sollte, daß Benchmarkswerte nicht ganz vergleichbar seien, weil die eine Hardware halt mehr tut als die Andere? Ein paar gute Vergleichsbilder und auch zwingend Movies liefern, und schon könnte der Leser selbst entscheiden, was für ihn selbst wichtiger ist bzw. was er selbst gut oder schlecht findet. Warum müssen immer nur Lehrbücher über das entscheiden, was der User gut zu finden hat oder nicht? Zumal die aktuellen Chips ja wirklich keine Äpfel mehr sind, sondern Kokosnuß respektive Ananas.

Was meint Ihr?

Eigentlich ja. Ein Schalter zum Aktivieren der Optimierung im Treiber wäre mir aber am liebsten.

Wobei man ehrlich gesagt auch den Brifilter von NV kaum sieht, wenn man nicht gezielt sucht.

Grundsätzlich finde ich solche Optimierungen klasse, wenn bei geringem Verlust an Bildqualität mehr Speed erreicht wird. Nur möchte ich die Wahl haben.

Ein Cheat ist es nur, weil ATI "Full-Tri" versprochen hat, es aber nicht bietet.

Exxtreme
2004-05-20, 22:15:14
Original geschrieben von MikBach
Also fährt der R3X0 besser? da dieser voll DX9 kompatibel ist, im weitem Sinne.
Ich glaube, für Farcry ist die R3x0-serie besser geeignet als die NV3x-Serie obwohl letztere auch voll DX9-compliant ist.

Und wie gesagt, Nvidia kann nichts dafür wenn CryTec "unorthodoxe" Methoden wählt. Ich hoffe, mit dem nächsten Patch ist das Thema aus der Welt. Alternativ kann man sich 3DAnalyze bedienen.

DrumDub
2004-05-20, 22:15:43
Original geschrieben von Sphinx
http://www.de.tomshardware.com/graphic/20040504/ati-x800-36.html

^^

Edit worüber rede ich oder habe ich nun den pfaden zu irgendeiner diskussion oder den anschluß verloren...

ahh... sorry. dachte es ging um die colored mipmaps.

Sphinx
2004-05-20, 22:18:02
Original geschrieben von DrumDub
ahh... sorry. dachte es ging um die colored mipmaps.

Ist doch nicht schlimm - kann bei solchen brisanten Diskussionen immer falschverstanden werden ,)

Exxtreme
2004-05-20, 22:18:46
Original geschrieben von AYAlf
aber wuerde das nicht die vermutung stuetzen, dass nvidia auch noch ein wort mitgesprochen hat. bei der ganzen anglegenheit?
Kann schon sein. Ich war nicht dabei als das Spiel entwickelt wurde.

Crushinator
2004-05-20, 22:19:37
Original geschrieben von MikBach
Also fährt der R3X0 besser? da dieser voll DX9 kompatibel ist, im weitem Sinne. Das ist keine optimale Bezeichnung dafür. "R3X0 frißt jeden Code, ohne sich zwischendurch übergeben zu müssen, solange dieser in seinen Mund paßt" würde IMHO besser paßen. Denn die nV-Chips (NV30 aufwärts) sind nicht nur DX9 kompatibel, sie können sogar noch mehr als DX9 zur Zeit überhaupt verlangt.

MikBach
2004-05-20, 22:19:58
[SIZE=1]Original geschrieben von Exxtreme
Und wie gesagt, Nvidia kann nichts dafür wenn CryTec "unorthodoxe" Methoden wählt.

Wenn du das noch erklären könntest , wäre nicht schlecht.
Was soll denn denn heissen "unorthodoxe" Methoden?
Ist es nicht DX9kompatibel?

flatbrain
2004-05-20, 22:24:41
Original geschrieben von MikBach
Wenn du das noch erklären könntest , wäre nicht schlecht.
Was soll denn denn heissen "unorthodoxe" Methoden?
Ist es nicht DX9kompatibel?
Er meint die Auswahl der Shader anhand der Grafikarten-ID ;) !

cu flatbrain

Exxtreme
2004-05-20, 22:25:48
Original geschrieben von MikBach
Wenn du das noch erklären könntest , wäre nicht schlecht.
Was soll denn denn heissen "unorthodoxe" Methoden?
Ist es nicht DX9kompatibel?
Nochmal... ;(

Auswählen der Shader über die GraKa-ID == "unorthodox"

Auswählen der Shader über die vom Treiber gemeldeten Fähigkeiten der GraKa == normal, wie es jeder Entwickler normalerweise tun würde. ;( Denn dann bist du komplett IHV-unabhängig. Denn dann ist es egal welcher Hersteller die GraKa produziert hat. Wichtig ist nur was diese GraKa kann.

Gast
2004-05-20, 22:27:28
Original geschrieben von kami
1. Stimmt - was es effektiv bringt bleibt aber abzuwarten.
2. Mal schauen was zukünftige Treiber bringen.
3. Haben se auch schon gemacht - nehmen sich beide nix imho.

1. spielt gar keine Rolle. Technologische Weitsicht muss belohnt werden, da es allen Gamern zu Gute kommt. Ohne die Hardware keine Software. Auf der anderen Seite muss ATI dafür ganz klar Punktabzug bekommen, da sie sich ausgeruht haben.

2. das bleibt abzuwarten. Momentan hat man jedenfalls die Möglichkeit Full Trillinear zu bekommen, wenn man den richtigen Treiber einsetzt. Bei ATI hat man das nicht.

3. Das stimmt und das war alles andere als ok. Aber wenn ich mir so die Entwicklung der letzten 15 Monate ansehe, dann hat Nvidia doch gut für Ihr Verhalten bezahlt.
Ich sehe nicht wieso es ATI da anders gehen sollte, da sie auf selbige Praktiken zurückgreifen und vorher diese im vollen Maße bei der Konkurenz kritisiert haben.

Nach dem Launch dieser Generation muss man ganz klar sagen, dass Nvidia sich mächtig ins Zeug gelegt hat und einiges wiedergutmachen will. ATI hat sich leider zum negativen hin entwickelt. Wüsste nicht wieso das dann noch belohnt werden sollte. Ein Dämpfer tut denen ganz gut.

flatbrain
2004-05-20, 22:27:54
Davon abgesehen äusserte sich mal ein Entwickler der Crytek-Engine positiv über die Unterstützung durch nV und beschwerte sich indirekt über den mangelden Support ATi´s während der Entwicklung der Engine, also sollte das doch eigentlich ein Vortei für nV sein, oder sehe ich falsch ?!

cu flatbrain

MikBach
2004-05-20, 22:31:12
Original geschrieben von Exxtreme
Nochmal... ;(

Auswählen der Shader über die GraKa-ID == "unorthodox"

Auswählen der Shader über die vom Treiber gemeldeten Fähigkeiten der GraKa == normal, wie es jeder Entwickler normalerweise tun würde. ;( Denn dann bist du komplett IHV-unabhängig. Denn dann ist es egal welcher Hersteller die GraKa produziert hat. Wichtig ist nur was diese GraKa kann.
OK. Alles verstanden, nur verletzt man dabei DX9?
Wenn ich ALLES von der Harware fordere, obwohl sie es nicht in vernünftiger Geschwingkeit kann? Das ist eine andere Frage, oder was?

LovesuckZ
2004-05-20, 22:35:01
Original geschrieben von MikBach
Wenn ich ALLES von der Harware fordere, obwohl sie es nicht in vernünftiger Geschwingkeit kann? Das ist eine andere Frage, oder was?

Dafür gibt es Qualitaetsregler.
Wie sagt Sphinx, es sei alles ein subjektiver Eindruck. Also auch der Speed :)

kami
2004-05-20, 22:40:22
Original geschrieben von Gast
1. spielt gar keine Rolle. Technologische Weitsicht muss belohnt werden, da es allen Gamern zu Gute kommt. Ohne die Hardware keine Software. Auf der anderen Seite muss ATI dafür ganz klar Punktabzug bekommen, da sie sich ausgeruht haben.

2. das bleibt abzuwarten. Momentan hat man jedenfalls die Möglichkeit Full Trillinear zu bekommen, wenn man den richtigen Treiber einsetzt. Bei ATI hat man das nicht.

3. Das stimmt und das war alles andere als ok. Aber wenn ich mir so die Entwicklung der letzten 15 Monate ansehe, dann hat Nvidia doch gut für Ihr Verhalten bezahlt.
Ich sehe nicht wieso es ATI da anders gehen sollte, da sie auf selbige Praktiken zurückgreifen und vorher diese im vollen Maße bei der Konkurenz kritisiert haben.

Nach dem Launch dieser Generation muss man ganz klar sagen, dass Nvidia sich mächtig ins Zeug gelegt hat und einiges wiedergutmachen will. ATI hat sich leider zum negativen hin entwickelt. Wüsste nicht wieso das dann noch belohnt werden sollte. Ein Dämpfer tut denen ganz gut.

Ich hätte dazu schreiben sollen, dass mir SM 3.0 unter dem technischen Aspekt gesehen sehr zusagt und meine nächste Karte 'ne NV40 wird. Die persönliche Wertung wollte ich eigentlich außen vorbehalten. :eyes: :)

flatbrain
2004-05-20, 22:40:34
Original geschrieben von LovesuckZ
Dafür gibt es Qualitaetsregler.
Wie sagt Sphinx, es sei alles ein subjektiver Eindruck. Also auch der Speed :)

Sorry, aber das ist Blödsinn, der Eindruck der InGame-IQ ist subjektiv, dies nimmt jeder anders wahr; Speed lässt sich messen... nur zur Erinnerung - die unterschiedlich langen bunten Balken, die alle so toll finden!

cu flatbrain

Crushinator
2004-05-20, 22:43:40
Original geschrieben von flatbrain
Sorry, aber das ist Blödsinn, der Eindruck der InGame-IQ ist subjektiv, dies nimmt jeder anders wahr; Speed lässt sich messen... nur zur Erinnerung - die unterschiedlich langen bunten Balken, die alle so toll finden! Ich glaube eher, daß er meinte, daß "nur" 200 fps subjektiv gesehen nicht wirklich schlechter seien als z.B. 312 fps, und ich stimme dem zu. =)

DrumDub
2004-05-20, 22:44:09
Original geschrieben von Exxtreme
OK, hier 2 Pics erstellt mit einer optimierungsfreien R9700Pro.

1x Tri-AF:
http://exxtreme78.bei.t-online.de/Pics/R9700_1x_tri_AF.png

2x Tri-AF:
http://exxtreme78.bei.t-online.de/Pics/R9700_2x_tri_AF.png

So, und jetzt bastle ich mal eine richtig fiese Textur. :D

hmm... wenn ich das mit aths shot mit 2xtriaf von seiner 9600 vergeleiche, dann hat die 9700 tatsächlich nur einen minimalen vorteil.

xL|Sonic
2004-05-20, 22:44:52
Original geschrieben von Gast
2. das bleibt abzuwarten. Momentan hat man jedenfalls die Möglichkeit Full Trillinear zu bekommen, wenn man den richtigen Treiber einsetzt. Bei ATI hat man das nicht.


Ich denke diese ganzen Optimierungen sind erst seit dem Catalyst 3.4 dabei, also müsste man doch mit nem älteren Full Tri bekommen können, oder nicht ?

Uller
2004-05-20, 22:45:38
Naja, manch einem kommt 100km/h langsam vor dem anderen sehr schnell.
Beim Spielen mögen dem Einen 20fps reichen der Andere braucht 80+fps...
Wer nur alleine spielt kann gut auch mit 20fps zufrieden sein, im Multiplayer wird er aber so nie was reißen können, weil er Mauslag ohne Ende hat (auch wenn er das gar nicht merkt - er ist trotzdem langsamer).
Von daher ist Speed bei Spielen sicher nicht generell als subjektiv einzustufen.

flatbrain
2004-05-20, 22:49:08
Original geschrieben von crushinator
Ich glaube eher, daß er meinte, daß "nur" 200 fps subjektiv gesehen nicht wirklich schlechter seien als z.B. 312 fps, und ich stimme dem zu. =)

Nunja, LZs Post fiel im Zusammenhang mit der FarCry-"Problematik" - und auf die bezog ich mich auch, bei framerates weit über 100fps stimme ich dir natürlich auch zu, allerdings führt das wiederum diverse Benchmarks, auf denen ja immer wieder gerne rumgeriten wird, ad absurdum ;) !

cu flatbrain

Exxtreme
2004-05-20, 22:59:35
Original geschrieben von MikBach
OK. Alles verstanden, nur verletzt man dabei DX9?

Nein, man verletzt die DX9-Spezifikationen nicht. Denn unter DX führen viele Wege nach Rom.
Original geschrieben von MikBach
Wenn ich ALLES von der Harware fordere, obwohl sie es nicht in vernünftiger Geschwingkeit kann? Das ist eine andere Frage, oder was?
Japp. DX schreibt nämlich nicht vor mit welcher Geschwindigkeit die Chose ablaufen muss. Aber das kann der Endverbraucher mittels Regler regeln. DX selbst bietet IIRC keine Möglichkeit um die Geschwindigkeit der Hardware zu ermitteln. Und ich denke, das war auch der Grund, warum CryTec den Weg über die GraKa-ID gewählt hat. Man wollte wohl "zu langsame" Karten nicht überfordern. Denn das könnte den Support sehr stark beanspruchen.

AYAlf
2004-05-20, 23:06:31
Original geschrieben von Exxtreme
Nein, man verletzt die DX9-Spezifikationen nicht. Denn unter DX führen viele Wege nach Rom.

Japp. DX schreibt nämlich nicht vor mit welcher Geschwindigkeit die Chose ablaufen muss. Aber das kann der Endverbraucher mittels Regler regeln. DX selbst bietet IIRC keine Möglichkeit um die Geschwindigkeit der Hardware zu ermitteln. Und ich denke, das war auch der Grund, warum CryTec den Weg über die GraKa-ID gewählt hat. Man wollte wohl "zu langsame" Karten nicht überfordern. Denn das könnte den Support sehr stark beanspruchen.

jetzt wird der support von wuetenden nvidia besitzern beansprucht. die bei ihrem nachbarn (der eine ati karte besitzt) das spiel fc in einer viel besseren qualitaet und noch dazu geschwindigkeit geshen haben. ;D

ich weiss nicht, was von beiden, wuenschenswerter gewesen waere.

Sphinx
2004-05-20, 23:12:41
Original geschrieben von AYAlf
jetzt wird der support von wuetenden nvidia besitzern beansprucht. die bei ihrem nachbarn (der eine ati karte besitzt) das spiel fc in einer viel besseren qualitaet und noch dazu geschwindigkeit geshen haben. ;D

ich weiss nicht, was von beiden, wuenschenswerter gewesen waere.

The way it´s meant to be played

oder

Get in the Game

r@h
2004-05-21, 01:14:33
Original geschrieben von Mr. Lolman
Ich komm leider nur an ne Fx5200 ran, und da würde ein Step ziemlich lange dauern...Glaube mir... soooo schlimm ist es nicht... ;)
Original geschrieben von Mr. Lolman
Aber ast du dir schon die neue Version von Colourless' Ruby Wrapper angesehen? Ich wüsst nicht was da jetzt noch für Unterschiede zum Original zu sehen wären..Du meinst die Version vom 18.5. ?

Habe ich mir gerade mal angeschaut !
(und by the way... thx for the Info ;-)

Interessanter weise läuft diese jetzt nur noch halb so schnell auf der Radeon, dafür aber doppelt so schnell auf der FX... reichlich merchwürdig, oder ?

Aber die Quali ist nun eindeutig besser geworden. Ich würde zwar sagen, dass dort noch immer ein kleiner Unterschied... in Anbetracht der auf der Radeon erreichten Performance aber zu vernachlässigen ist.
Original geschrieben von Mr. Lolman
Gut 13x schneller ists nicht mehr aber ~2/3 der Performance der Urversion ist noch drinnen... Im Übrigen profitieren die FXen angeblich auch ein bisschen von den optimierten Multipass Shadern. Seltsam irgendwie, möge man meinen,wären da nicht die Effekte die fehlen (sollen?) Du spielst das Demo mit 'nem bilinearen Filter, oder ?
:D

Nein, mehr als die Hälfte ist nun keinesfalls mehr drin.
(und die FX'en profitieren 'enorm' - gemessen an der ursprünglichen Perf ;-)

Aber es reicht !

Ich frage mich jetzt nur ernsthaft, warum ATI dies nicht gemacht hat ?
Warum musste erst ein Colourless daher kommen und ATI zeigen, wie so etwas geht ?
:???:

Razor

Korak
2004-05-21, 01:25:25
Original geschrieben von r@h


Ich frage mich jetzt nur ernsthaft, warum ATI dies nicht gemacht hat ?
Warum musste erst ein Colourless daher kommen und ATI zeigen, wie so etwas geht ?
:???:

Razor

Ich hoffe doch, dass du dich das nicht wirklich ernsthaft fragst.
ATi macht das aus dem selben Grund so aus dem es auch jeder andere so macht.

Sie wollen ihr neues Produkt schmackhaft machen.

MadMan2k
2004-05-21, 01:25:31
Original geschrieben von r@h
Ich frage mich jetzt nur ernsthaft, warum ATI dies nicht gemacht hat ?
Warum musste erst ein Colourless daher kommen und ATI zeigen, wie so etwas geht ?
:???:

Razor
bist du neidisch, weil keine Sau Nalu für den NV3x umsetzen will :???:

AlfredENeumann
2004-05-21, 08:47:02
Original geschrieben von seahawk
Es geht doch hier nicht um die eigentlich Optimierung, sondern um den Fakt, dass ATI diese Optimierung nicht dokumentiert hat und man diese auch nicht deaktivieren kann.


Das haben hier aber so einige noch nicht Verstanden, denn Sie reiten explizit auf der Bildqualität rum.

HOT
2004-05-21, 09:07:53
Original geschrieben von LovesuckZ
3 offizielle bedeuten bei Nvidia irgendwas mit 6 - 9 Monaten.

genau das ;)
Ein hinreichend langer Zeitraum, in dem sich NV Vertrauen wieder aufbauen kann ;)

HOT
2004-05-21, 09:08:41
Original geschrieben von LovesuckZ
Da du mich persönlich ansprichst: Welche Karte erfüllt dann bitte "alle" deiner Möglichkeiten?
ATi und Nvidia tun dies nicht, vielleicht der S3?

S3 ist verdammt nah dran

r@h
2004-05-21, 09:21:05
Original geschrieben von Korak
Ich hoffe doch, dass du dich das nicht wirklich ernsthaft fragst.
ATi macht das aus dem selben Grund so aus dem es auch jeder andere so macht.

Sie wollen ihr neues Produkt schmackhaft machen. Na ja... bei vergleichbarer Technologie habe ich das bei nVidia aber so noch nicht gesehen. Man denek damals an den 'Generationenwechsel' von gf4(ti) zu gf3. Auch diese Demos laufen ganz hervorragend auf 'ner gf3.

Mir geht es darum, dass ATI auch hier technologische Weiterentwicklung 'demonstrieren' will, dies aber eigentlich gar nicht kann.
Original geschrieben von MadMan2k
bist du neidisch, weil keine Sau Nalu für den NV3x umsetzen will :???: Dafür habe ich ja jetzt Ruby !
:D

Damit dann auch einen driekten BQ-Vergleich zw. FX5900 und R9800p.
(meine Meinung dazu habe ich ja schon kund getan ;-)

Und Du willst doch nicht ernsthaft ein SM3-Konstrukt auf PS2 umsetzen, oder ?
:???:

Razor

r@h
2004-05-21, 09:22:19
Original geschrieben von AlfredENeumann
Das haben hier aber so einigen noch nicht Verstanden, denn Sie reiten explizit auf der Bildqualität rum. Jup.
Und deswegen auch hier noch mal der Link von TechReport:
http://www.techreport.com/etc/2004q2/filtering/index.x?pg=1

Razor

Quasar
2004-05-21, 09:25:08
Original geschrieben von r@h
Interessanter weise läuft diese jetzt nur noch halb so schnell auf der Radeon,[...]
q.e.e.

Original geschrieben von r@h
[...]dafür aber doppelt so schnell auf der FX... reichlich merchwürdig, oder ?
wuz??

r@h
2004-05-21, 09:36:15
Original geschrieben von Quasar
q.e.e.Schon klar...
:D
Original geschrieben von Quasar
wuz?? Jep.
Vorher waren's so um die 3-4fps (NV3x/Rap1), nun sinds knappe 8fps (Rap2).
Aber klar, die 'neuen' Shader scheinen da doch wesentlich einfacher gestrickt zu sein...
(aber immer noch rechlich schwer für die FX zu verdauen ;-)

Razor

Korak
2004-05-21, 09:44:01
Original geschrieben von r@h
Na ja... bei vergleichbarer Technologie habe ich das bei nVidia aber so noch nicht gesehen. Man denek damals an den 'Generationenwechsel' von gf4(ti) zu gf3. Auch diese Demos laufen ganz hervorragend auf 'ner gf3.


gf4 = gf3 mit erhöhtem Takt. Da ist der Unterschied wirklich Null.

Original geschrieben von r@h
Mir geht es darum, dass ATI auch hier technologische Weiterentwicklung 'demonstrieren' will, dies aber eigentlich gar nicht kann.
Dafür habe ich ja jetzt Ruby !
:D


ATi gibt als Hauptgrund dafür, dass die Demo auf anderen Karten so schlecht läuft die Größe der Texturen an. Neues Feature in der R420 ist 3DC, welches diese Texturen Komprimiert.
Die technologische Wieterentwicklung besteht also darin, dass sehr detaillierte Texturen nutzbar werden.


Original geschrieben von r@h

Damit dann auch einen driekten BQ-Vergleich zw. FX5900 und R9800p.
(meine Meinung dazu habe ich ja schon kund getan ;-)


Noch hat man da garnix. Die Umsetzung auf andere Karten ist noch nicht fertig.

Original geschrieben von r@h
Und Du willst doch nicht ernsthaft ein SM3-Konstrukt auf PS2 umsetzen, oder ?
:???:

Razor

Wieso nicht?

r@h
2004-05-21, 09:56:29
Original geschrieben von Korak
gf4 = gf3 mit erhöhtem Takt. Da ist der Unterschied wirklich Null.Ist exakt die gleiche Geschichte mit R420 = R3x0 !
Oder was ist an dem R420 jetzt neu ?
:???:

Und ja, auch die gf4 hatte einen zusätzlichen Vertex-Shader oder was auch immer...
Original geschrieben von Korak
ATi gibt als Hauptgrund dafür, dass die Demo auf anderen Karten so schlecht läuft die Größe der Texturen an. Neues Feature in der R420 ist 3DC, welches diese Texturen Komprimiert.
Die technologische Wieterentwicklung besteht also darin, dass sehr detaillierte Texturen nutzbar werden. Für mich besteht die 'Neuerung', dass Ruby, wie es von ATI geproggt wurde, nur auf einer 256MB X800 vernünftig in voller Qualität läuft.

Wo ist da der Witz ?
Original geschrieben von Korak
Noch hat man da garnix. Die Umsetzung auf andere Karten ist noch nicht fertig.Wus ?
Selbst 3DA bietet in seinem Wrapper die Möglichkeit "NV40 Ruby Hack" (oder so ;-) an, der nichts anderes macht, als dem Demo PS2.B vorzugaukeln. Und schon 'läuft' Ruby... wenn auch nicht so richtig schnell ;-)

Mehr wird auch aus einer R3x0-Architektur nicht raus zu holen sein, weil die 2.B-Shader nun einfach in Multipass-Shader ungeproggt wurden. was soll man da noch machen wollen ?
:???:
Original geschrieben von Korak
Wieso nicht? Na dann mal viel Spaß dabei...
Hast Du Dir mal die Spezifikationen für das Demo angesehen ?

Da sage ich nur: Prost Mahlzeit !
(was für alle nicht SM3-Architekturen gilt)

Razor

reunion
2004-05-21, 10:13:16
Original geschrieben von r@h
Ist exakt die gleiche Geschichte mit R420 = R3x0 !
Oder was ist an dem R420 jetzt neu ?
:???:

Und ja, auch die gf4 hatte einen zusätzlichen Vertex-Shader oder was auch immer...

Razor

Der R420 unterstützt bis zu 512 Anweisungen pro Shader während der R3xx nur max. 96 unterstützt...

Demirug
2004-05-21, 10:22:32
Original geschrieben von reunion
Der R420 unterstützt bis zu 512 Anweisungen pro Shader während der R3xx nur max. 96 unterstützt...

Um genau zu sein sind es bis zu 1536 (R420) gegen 160 (R3XX). Allerdings nur unter OpenGL. DirectX hat strengere Regeln was das zählen von Anweisungen angeht daher dort nur 512 gegen 96.

Korak
2004-05-21, 10:28:15
Original geschrieben von r@h
Ist exakt die gleiche Geschichte mit R420 = R3x0 !
Oder was ist an dem R420 jetzt neu ?
:???:



Es gibt mittlerweile viele Reviews im Netz...

Original geschrieben von r@h

Und ja, auch die gf4 hatte einen zusätzlichen Vertex-Shader oder was auch immer...


Einfach das gleiche nochmal reinzupacken zählt nicht.


Original geschrieben von r@h
Für mich besteht die 'Neuerung', dass Ruby, wie es von ATI geproggt wurde, nur auf einer 256MB X800 vernünftig in voller Qualität läuft.

Wo ist da der Witz ?


Verstehe nicht was du meinst. Da gibt es keinen Witz.

Original geschrieben von r@h
Wus ?
Selbst 3DA bietet in seinem Wrapper die Möglichkeit "NV40 Ruby Hack" (oder so ;-) an, der nichts anderes macht, als dem Demo PS2.B vorzugaukeln. Und schon 'läuft' Ruby... wenn auch nicht so richtig schnell ;-)


Das mit dem 3DA wusste ich nicht.

Original geschrieben von r@h
Mehr wird auch aus einer R3x0-Architektur nicht raus zu holen sein, weil die 2.B-Shader nun einfach in Multipass-Shader ungeproggt wurden. was soll man da noch machen wollen ?
:???:


IIRC ist die Quali noch nicht ganz dem Original entsprechend.

Original geschrieben von r@h
Na dann mal viel Spaß dabei...
Hast Du Dir mal die Spezifikationen für das Demo angesehen ?

Da sage ich nur: Prost Mahlzeit !
(was für alle nicht SM3-Architekturen gilt)

Razor

Nö, hab' ich nicht. Schade, dass es so aufwenig ist, dass keiner Bock drauf hat.

Exxtreme
2004-05-21, 10:28:36
Original geschrieben von r@h
Ist exakt die gleiche Geschichte mit R420 = R3x0 !
Oder was ist an dem R420 jetzt neu ?
:???:

Und ja, auch die gf4 hatte einen zusätzlichen Vertex-Shader oder was auch immer...

Naja, IMHO sind die Neuerungen beim R420 grösser als beim NV25 seiner Zeit. Der R420 hat mehr Pipelines, mehr Vertexshader-Units, bessere Shader, 3Dc etc. ggü. dem Vorgänger. Beim NV25 waren es bessere Shader, ein leicht besseres AA beim 2x Modus und eine Vertexshader-Unit mehr. Und der NV25 hatte auch einen Rückschritt zu verzeichnen und zwar die Performance beim Bi-AF. Da war der Vorgänger manchmal schneller.

deekey777
2004-05-21, 11:30:13
Original geschrieben von Exxtreme
Wenn ich meine Meinung sagen dürfte:
Für jeden der eine neue Graka kaufen möchte sprechen nach den neuesten Ereignissen drei Argumente für ATi:

1.Sie bietet 3Dc was Nvidia nicht hat!
2.Sie bietet schnelles AA oberhalb 4x AA was Nvidia auch nicht hat!
3.Sie verarscht dich nicht, was Nvidia hat!!

cu

...
:massa: Exxtreme :massa:

Exxtreme
2004-05-21, 11:31:51
Original geschrieben von deekey777
:massa: Exxtreme :massa:
:massa:

Schön, daß du den Sinn des Postings NICHT verstanden hast. ;(

:massa: deekey777 :massa:

deekey777
2004-05-21, 11:38:09
Original geschrieben von Exxtreme
:massa:

Schön, daß du den Sinn des Postings NICHT verstanden hast. ;(

:massa: deekey777 :massa:

Edit: Ich hab das ironisch gemeint. Nächstes Mal wird da ein Smiley dabei sein.

Gast
2004-05-21, 12:22:14
Auf Techreport gibt es eine kleine Historie der Entwicklung im Optimierungsfall von ATI.Darunter werden auch viele Bilder gezeigt von den Tech- und PR-Dokumenten ATI´s, bei denen bekanntlich hingewiesen wird wie man Benchen und welche Settings man benutzen sollte.Beeindruckenderweise wird auch genau beschrieben wie man bei nVidia die CP-Settings einstellen soll!Hier ein solches Bild:

http://www.techreport.com/etc/2004q2/filtering/slide6.gif

Hat jemand noch Zweifel das die Dreistheit und Frechheit ATI´s der von nVidia erreicht oder sogar überholt hat?!

ATI :peitsche:

Gast
2004-05-21, 12:31:04
ganz klarer Sauerei. ATI verdient momentan wirklich keine Belohnung. Beschiss, Verschleierungstaktik und mangelnde technologische Innovation sind nicht geeignet dafür noch belohnt zu werden. Wird wirklich Zeit, dass ihr Geschäft wieder einen kleinen Einbruch bekommt. Das würde schon reichen und sie überdenken ihre Strategien - die in keinster Weise im Sinne des Kunden sind - nochmal.

Exxtreme
2004-05-21, 12:37:08
Original geschrieben von Gast
ganz klarer Sauerei. ATI verdient momentan wirklich keine Belohnung. Beschiss, Verschleierungstaktik und mangelnde technologische Innovation sind nicht geeignet dafür noch belohnt zu werden. Wird wirklich Zeit, dass ihr Geschäft wieder einen kleinen Einbruch bekommt. Das würde schon reichen und sie überdenken ihre Strategien - die in keinster Weise im Sinne des Kunden sind - nochmal.
Naja, ATi kriegt z.Zt. mächtig eins auf den Deckel wegen der Sache. :) Die Mitarbeiter von denen trauen sich gar nicht in die Foren. X-D

tokugawa
2004-05-21, 16:11:09
Original geschrieben von Gast
Auf Techreport gibt es eine kleine Historie der Entwicklung im Optimierungsfall von ATI.Darunter werden auch viele Bilder gezeigt von den Tech- und PR-Dokumenten ATI´s, bei denen bekanntlich hingewiesen wird wie man Benchen und welche Settings man benutzen sollte.Beeindruckenderweise wird auch genau beschrieben wie man bei nVidia die CP-Settings einstellen soll!Hier ein solches Bild:

http://www.techreport.com/etc/2004q2/filtering/slide6.gif

Hat jemand noch Zweifel das die Dreistheit und Frechheit ATI´s der von nVidia erreicht oder sogar überholt hat?!

ATI :peitsche:

War doch schon immer so... Marketing ist halt Marketing, egal ob von NV oder ATI.

Dass NV den Ruf des "Aggressiveren" hatte, konnte ich nie nachvollziehen, vor allem da ich meistens die Developer-Seite von NVIDIA kenn (und die ist echt fair, technisch und nicht so bissig wie die Marketing-Seite - zumindest gibt es von der Developer-Seite von NVIDIA nie irgendwelche Seitenhiebe auf ATI, und die Developer-Tipps sind auch problemlos nutzbar auf ATI Hardware bzw. bringen auch Performance generell, chipunabhängig). Aber für diese Aussage bin ich schon mal ignoriert worden :D (gell, Sphinx?).

Und da Marketing-Fuzzis meistens von Wirtschafts-Unis kommen, kann ich die aus Prinzip nicht ernst nehmen :D


Aber stimmt, mir geht der Optimierungsscheiß von beiden Parteien auf den Keks, das wird ja leider sicher wieder in einer weiteren Spirale enden. Optimieren bis wir bei nackten untexturierten Polygonen ankommen, aber NV und ATI dafür sich in 10000 fps Regionen bekämpfen könnnen...

Tigerchen
2004-05-21, 16:13:58
Original geschrieben von Exxtreme
Tigerchen,

es wäre nichts Schlimmes dabei gewesen wenn ATi einen Schalter anbieten würde zum Deaktivieren des brilinearen Filters und das _genaue_ Verhalten des Treibers dokumentieren würde. Das tun sie aber nicht. Die Wahrheit ist jetzt aber an's Tageslicht gekommen und trotzdem drückt sich ATis PR-Abteilung um eine genaue Antwort. Schau dir mal den Chat an. Es sind zwar nette Antworten von ATi drinne aber es sind keine Antworten auf die gestellten Fragen. Das zweite Problem ist, daß dieser brilineare Filter... :D zum jetzigen Zeitpunkt :D nicht abschaltbar ist. Derjenige, der die Übergänge zwischen den Mipmaps sieht, der hat die *rschkarte gezogen. 500€ für ein Produkt ausgegeben, welches bildqualitätsmässig mit dem Vorgänger nicht mithalten kann.

Das kann man so stehen lassen. Aber von vornherin sagen daß der Ansatz falsch ist da er nicht konform zu gängiger Lehrmeinung ist und in speziellen Messverfahren sichtbar zu machen ist "entlarvt" eigentlich eher die "CHEAT"-Schreier. Vor allem da ja gar keiner die X800 hat um die mal in echten Spielen auf Herz und Nieren zu prüfen. Aber bitte wie es früher mal üblich war mit "echten" Screenshots.

Sphinx
2004-05-21, 16:27:42
Original geschrieben von Tigerchen
Aber von vornherein sagen daß der Ansatz falsch ist da er nicht konform zu gängiger Lehrmeinung ist und in speziellen Messverfahren sichtbar zu machen ist "entlarvt" eigentlich eher die "CHEAT"-Schreier.


Das ist der springende Punkt wozu noch Optimierungen einbauen...

Selbst in diversen Renderingverfahren werden Optimierungen entwickelt um die Berechnungen schneller oder Performanter zu berechnen um ein ähnlich bis sogar besseres (Unter Subjektiven Optischen Gesichtspunkten) Resultat zu erhalten...

Edit : Und hier spielen keine PR-Angelegenheiten oder Whitepapers der IHV´s eine Rolle das ist bei jedem IHV´s so - die PR-SchlammmSchlacht der IHV´s hat in der eigentlichen Diskussion nichts zu suchen - hier muss differenziert werden. Cheatet ATI in ihrem Verfahren ja|nein. Was für Klare Nachteile oder klare Vorteile besitzt ihr Verfahren.

Exxtreme
2004-05-21, 16:39:28
Original geschrieben von Tigerchen

Das kann man so stehen lassen. Aber von vornherin sagen daß der Ansatz falsch ist da er nicht konform zu gängiger Lehrmeinung ist und in speziellen Messverfahren sichtbar zu machen ist "entlarvt" eigentlich eher die "CHEAT"-Schreier. Vor allem da ja gar keiner die X800 hat um die mal in echten Spielen auf Herz und Nieren zu prüfen. Aber bitte wie es früher mal üblich war mit "echten" Screenshots.

Also ich habe niemals gesagt, daß der Ansatz falsch ist. :) Was mich nervt, ist wie ATi mit der Sache umgeht. Sie tun noch die Reviewer darauf hinweisen, sie sollen die "Optimierungen" bei NV ausschalten (und zeigen auch wie es geht!), selbst aber werden diese "Optimierungen" benutzt. Normalerweise sollte man die Karten nochmal benchen und entweder alle "Optimierungen" einschalten oder ausschalten... wenn es gehen sollte... irgendwann vielleicht. :D

So wie es bisher aussieht, ist der R420 NICHT leistungsfähiger als der NV40. Und ATi hat vieles unternommen damit die Wahrheit erstmal nicht rauskommt.

seahawk
2004-05-21, 16:45:03
Original geschrieben von Exxtreme
Also ich habe niemals gesagt, daß der Ansatz falsch ist. :) Was mich nervt, ist wie ATi mit der Sache umgeht. Sie tun noch die Reviewer darauf hinweisen, sie sollen die "Optimierungen" bei NV ausschalten (und zeigen auch wie es geht!), selbst aber werden diese "Optimierungen" benutzt. Normalerweise sollte man die Karten nochmal benchen und entweder alle "Optimierungen" einschalten oder ausschalten... wenn es gehen sollte... irgendwann vielleicht. :D

So wie es bisher aussieht, ist der R420 NICHT leistungsfähiger als der NV40. Und ATi hat vieles unternommen damit die Wahrheit erstmal nicht rauskommt.

Ich würde das so nicht sagen. Der R420 dürfte auch so die schnellere Karte sein. Man könnte sagen, dass ATI alles versucht hat den Abstand zum NV40 zu maximieren. Vielleicht um so von den Schwächen bei den Features des eigenen Produkts abzulenken. (Schwächen bitte rein marketingtechnisch verstehen)

Exxtreme
2004-05-21, 16:46:39
Original geschrieben von seahawk
Der R420 dürfte auch so die schnellere Karte sein. Man könnte sagen, dass ATI alles versicht hat den Abstand zum NV40 zu maximieren.
Auf 10% Unterschied kommt es bei mir nicht an.

Sphinx
2004-05-21, 16:53:25
Original geschrieben von Exxtreme
Auf 10% Unterschied kommt es bei mir nicht an.

Ja wenn es bei dir auf 10% nicht drauf ankommt steht deinem Kauf einer GF6800Ultra Nichts entgegen !?!
Dann verstehe ich die Diskussion nicht...

Tigerchen
2004-05-21, 16:54:09
Original geschrieben von Exxtreme
Also ich habe niemals gesagt, daß der Ansatz falsch ist. :) Was mich nervt, ist wie ATi mit der Sache umgeht. Sie tun noch die Reviewer darauf hinweisen, sie sollen die "Optimierungen" bei NV ausschalten (und zeigen auch wie es geht!), selbst aber werden diese "Optimierungen" benutzt. Normalerweise sollte man die Karten nochmal benchen und entweder alle "Optimierungen" einschalten oder ausschalten... wenn es gehen sollte... irgendwann vielleicht. :D

So wie es bisher aussieht, ist der R420 NICHT leistungsfähiger als der NV40. Und ATi hat vieles unternommen damit die Wahrheit erstmal nicht rauskommt.

Das stimmt fast. Wenn die Optimierungen wirklich sichtbar sind sollte man sie abschalten können. Sind sie aber nicht sichtbar sollte man sie als technischen Fortschritt akzeptieren. Und dann brauchen sie auch nicht unbedingt abschaltbar sein. Sie machen die R420 leistungsfähiger. Warum tun sich so viele so schwer damit?

DanMan
2004-05-21, 16:54:10
Original geschrieben von seahawk
Ich würde das so nicht sagen. Der R420 dürfte auch so die schnellere Karte sein. Man könnte sagen, dass ATI alles versucht hat den Abstand zum NV40 zu maximieren. Vielleicht um so von den Schwächen bei den Features des eigenen Produkts abzulenken. (Schwächen bitte rein marketingtechnisch verstehen)
Mit der Zeit wird der R420 immer mehr an Leistung einbüßen, während der NV40 wohl immer mehr zulegen, bzw. sein Niveau erstmal recht lange halten wird.
Somit liegt es an ATI ihren R500 so schnell wie möglich aus der Tasche zu ziehen.

Ist aber wie gesagt nur meine Meinung und rein subjektiv. Was die Optimierungen, und damit den Thread hier, angeht so ist für meinen Teil alles gesagt für den Moment, oder?

Exxtreme
2004-05-21, 16:59:00
Original geschrieben von Tigerchen
Wenn die Optimierungen wirklich sichtbar sind sollte man sie abschalten können.

Also ich habe mal diese "Optimierungen" in Augenschein nehmen können auf einer GFFX5600. Und manchmal sieht man sie leider. Mich persönlich stören sie aber nicht wirklich.
Original geschrieben von Tigerchen
Sind sie aber nicht sichtbar sollte man sie als technischen Fortschritt akzeptieren. Und dann brauchen sie auch nicht unbedingt abschaltbar sein. Sie machen die R420 leistungsfähiger. Warum tun sich so viele so schwer damit?

Naja, ich sehe in der Opferung von Bildqualität um mehr Speed rauszuholen leider nichts Fortschrittliches.

Sphinx
2004-05-21, 16:59:47
@ DanMan : Die x800XT - ist schnell. Schneller als die GF6800Ultra... ausser in OpenGL Spielen


Selbst die x800 PRO ! ist fast Gleichauf -10% als die GF6800Ultra (Unter Optimierten Situation wahrscheinlich)

Die Frage wird sein unter welchen Gesichtspunkten die GF6800Ultra schneller sein wird soll zur Zeit ist da nichts zu sehen ausser OpenGL Spiele...

DanMan
2004-05-21, 17:01:40
Original geschrieben von Sphinx
@ DanMan : Die x800XT - ist schnell. Schneller als die GF6800Ultra... ausser in OpenGL Spielen


Selbst die x800 PRO ! ist fast Gleichauf -10% als die GF6800Ultra (Unter Optimierten Situation wahrscheinlich)

Die Frage wird sein unter welchen Gesichtspunkten die GF6800Ultra schneller sein wird soll zur Zeit ist da nichts zu sehen ausser OpenGL Spiele...
Das stimmt so nicht ganz, ist aber nicht mein Thema. Ich hab nur einen Blick in die Zukunft geworfen, mit der nächsten Welle an Spielen im Hinterkopf. Und unter diesem Gesichtspunkt war das meine subjektive Prognose. Ob die sich bewahrheitet wird sich noch rausstellen. Einen ersten Hinweis daruf werden wir mit FarCry erhalten, sobald DX9.0c draußen ist.

Sphinx
2004-05-21, 17:03:16
. Doppelposting

Sphinx
2004-05-21, 17:07:25
Original geschrieben von DanMan
Ich hab nur einen Blick in die Zukunft geworfen, mit der nächsten Welle an Spielen im Hinterkopf. Und unter diesem Gesichtspunkt war das meine subjektive Prognose.

Spiele die dieses Jahr und nächstes Jahr erscheinen werden sind nicht die Welle der NextGen Spiele die wir glauben zu erwarten...

Selbst für HL2 sollte meine R97ooPro bestens ausgerüstet sein...

deekey777
2004-05-21, 17:07:53
Original geschrieben von DanMan
Das stimmt so nicht ganz, ist aber nicht mein Thema. Ich hab nur einen Blick in die Zukunft geworfen, mit der nächsten Welle an Spielen im Hinterkopf. Und unter diesem Gesichtspunkt war das meine subjektive Prognose. Ob die sich bewahrheitet wird sich noch rausstellen. Einen ersten Hinweis daruf werden wir mit FarCry erhalten, sobald DX9.0c draußen ist.

Jemand hat die DX9.0c (Beta) aus dem Win XP SP2 ins Netz gestellt. Jetzt braucht man nur eine NV40. ;D

Original geschrieben von Sphinx
...

Selbst für HL2 sollte meine R97ooPro bestens ausgerüstet sein...

Gerade HL2 ist kein besonders gutes Beispiel für ein Next Generation Game - eher STALKER, das ist aber der falsche Bereich dafür.

Winter[Raven]
2004-05-21, 17:14:43
Die x800XT - ist schnell. Schneller als die GF6800Ultra

Ja ja ... deine ATI Propaganda kannst du stecken lassen, ok?

Oder soll ich paar Benches posten wo der NV40 vorne liegt?

Für dieses Jahr sind 15 Shader 3.0 Games durch Nvidia eingeplannt, nächstes jahr sind es >50.

Die Frage wird sein unter welchen Gesichtspunkten die GF6800Ultra schneller sein wird soll zur Zeit ist da nichts zu sehen ausser OpenGL Spiele...

Sobald komplizierte und längere bzw. Shaderlästige Games kommen, wird der R420 den Boden unter den Füßen verlieren. Sagt Demirug :P

Den Nvidianern glaubt man doch sowas nicht.

Exxtreme
2004-05-21, 17:17:18
Winter[Raven],

bitte mäßige deinen Ton. :)

Sphinx
2004-05-21, 17:19:12
Original geschrieben von deekey777
Gerade HL2 ist kein besonders gutes Beispiel für ein Next Generation Game

Habe auch nichts anderes gesagt sondern gemeint das es ein Spiel sein wird welches Prima mit einer R9700Pro als Beispiel zusammen Spielbar sein wird... ?!

@ Raven ich habe dein Posting mal Ausnahmsweise Durchgelesen. | Bitte erwarte keine Antwort...

xL|Sonic
2004-05-21, 17:20:57
Original geschrieben von deekey777
Jemand hat die DX9.0c (Beta) aus dem Win XP SP2 ins Netz gestellt. Jetzt braucht man nur eine NV40. ;D



Gerade HL2 ist kein besonders gutes Beispiel für ein Next Generation Game - eher STALKER, das ist aber der falsche Bereich dafür.

Gerade Stalker ist das schlechteste Beispiel, was du hier anführen kannst, denn gerade das gilt als das Spiel, was noch die höchsten FPS-Raten auf den Bildschirm zaubern wird.
Stalker wird also die aktuellen Grafikkarten kaum fordern, da musst du schon eher mit HL2 und Doom 3 kommen.

xL|Sonic
2004-05-21, 17:25:56
Original geschrieben von Winter[Raven]
Ja ja ... deine ATI Propaganda kannst du stecken lassen, ok?

Oder soll ich paar Benches posten wo der NV40 vorne liegt?

Für dieses Jahr sind 15 Shader 3.0 Games durch Nvidia eingeplannt, nächstes jahr sind es >50.



Sobald komplizierte und längere bzw. Shaderlästige Games kommen, wird der R420 den Boden unter den Füßen verlieren. Sagt Demirug :P

Den Nvidianern glaubt man doch sowas nicht.

Dann nenn mir mal die 15 Top Titel, auf die alle Welt wartet und unbedingt nur mit ner SM3.0 Karte gespielt werden müssen.
Es werden weniger kommen, als du denkst in meinen Augen, dass ist genauso Marketinggeblubber von nvidia...irgendwie müssen sie doch ihre SM3.0 Karte schmackhaft machen. Ausserdem kommt Ende diesen bzw. Anfang nächsten Jahres nen Refreshchip bzw. der R500 raus, also genau rechtzeitig, wenn die erste richtige SM3.0 Spielewelle anrollt. Niemand wird schließlich gezwungen sich jetzt eine GrKa zu holen, zumal derjenige der wirklich auf SM3.0 setzen will, eh lieber warten soll, weil wenn die ersten reinen SM3.0 Spiele rauskommen werden, wird der nv40 auch nicht mehr ausreichend Power bieten, aber ist ok, wenn ihr unbedingt euch an diesen einen Strohhalm klammern müsst...

Tigerchen
2004-05-21, 17:33:07
Original geschrieben von Exxtreme
Also ich habe mal diese "Optimierungen" in Augenschein nehmen können auf einer GFFX5600. Und manchmal sieht man sie leider. Mich persönlich stören sie aber nicht wirklich.

Naja, ich sehe in der Opferung von Bildqualität um mehr Speed rauszuholen leider nichts Fortschrittliches.

Bei der R9600 hat wohl keiner was gesehen. Wo soll da also ein Opfer sein?
Ich bin mir sicher auch nV wird den brilinearen Filter weiter entwickeln. Genau so wie ATI damals die zuerst deutlich sichtbare Winkelabhängigkeit beim AF auf dem R200-Chip deutlichst verbessert hat. Ob mit Treibern oder Hardware sei mal dahingestellt.

Quasar
2004-05-21, 17:36:00
Original geschrieben von Valmar
Stalker wird also die aktuellen Grafikkarten kaum fordern, da musst du schon eher mit HL2 und Doom 3 kommen.

Wenn du die uralte Alpha/Beta meinst, die immer bei xBit getestet wird - ja.

Momentan wird die Engine gerade auf DX9-Niveau gehievt - ich glaube nicht, daß das performancemäßig für lau zu bekommen ist.

Gast
2004-05-21, 17:37:20
Original geschrieben von seahawk
... Der R420 dürfte auch so die schnellere Karte sein...

Mitnichten! Der NV40 ist prinzipiell sowieso schneller bei (fast) allen OpenGL Spielen.Sollte der volle Trilineare Filter bei ATI (irgendwan) mal aktiviert werden, würde ATI meiner Meinung nach auch bei den meisten DirectX Spielen passen müssen!

LovesuckZ
2004-05-21, 17:37:53
Original geschrieben von Sphinx
Selbst in diversen Renderingverfahren werden Optimierungen entwickelt um die Berechnungen schneller oder Performanter zu berechnen um ein ähnlich bis sogar besseres (Unter Subjektiven Optischen Gesichtspunkten) Resultat zu erhalten...


Wie kann "brilinear" ein besserer Ergebnis liefern im Gegensatz zu trilinear?

seahawk
2004-05-21, 17:40:38
Original geschrieben von Gast
Mitnichten! Der NV40 ist prinzipiell sowieso schneller bei (fast) allen OpenGL Spielen.Sollte der volle Trilineare Filter bei ATI (irgendwan) mal aktiviert werden, würde ATI meiner Meinung nach auch bei den meisten DirectX Spielen passen müssen!

Das bezweifele ich mal. Fillrate usw. spricht für den X800XT.

Ob der Unterschied allerdings entscheidend ist, das wäre eine spannende Frage.

LovesuckZ
2004-05-21, 17:41:20
Original geschrieben von seahawk
Das bezweifele ich mal. Fillrate usw. spricht für den X800XT.

Bandbreite. Sagt selbst ATi, dass diese zum limitierenden Faktor werde.

xL|Sonic
2004-05-21, 17:41:35
Original geschrieben von Gast
Mitnichten! Der NV40 ist prinzipiell sowieso schneller bei (fast) allen OpenGL Spielen.Sollte der volle Trilineare Filter bei ATI (irgendwan) mal aktiviert werden, würde ATI meiner Meinung nach auch bei den meisten DirectX Spielen passen müssen!


Lasst doch einfach beide Grafikkarten mit ihren Optimierungen antreten, nvidia mit ihrem brifilter und ati mit ihrem tryliniear :o

xL|Sonic
2004-05-21, 17:43:38
Original geschrieben von Quasar
Wenn du die uralte Alpha/Beta meinst, die immer bei xBit getestet wird - ja.

Momentan wird die Engine gerade auf DX9-Niveau gehievt - ich glaube nicht, daß das performancemäßig für lau zu bekommen ist.

Sage ich auch nicht, aber Stalker setzt auf weniger grafische Effekte und Spielereien wie es ein Far Cry, Doom 3 oder Halflife 2 tut, deswegen wird man dort denke ich auch die meisten FPS erzielen.

Quasar
2004-05-21, 17:48:22
Original geschrieben von Valmar
Sage ich auch nicht, aber Stalker setzt auf weniger grafische Effekte und Spielereien wie es ein Far Cry, Doom 3 oder Halflife 2 tut, deswegen wird man dort denke ich auch die meisten FPS erzielen.

Dann weißt du mehr als ich. Ich kenne bisher nur die Screenie/Video/FPS-Kombo der alten Stalker-Version. Die DX9-Version kenne ich nur von ganz wenigen Screenies.

xL|Sonic
2004-05-21, 17:49:44
Naja, wir werden es im Jahre 2005 sehen.

Quasar
2004-05-21, 17:49:56
Original geschrieben von LovesuckZ
Wie kann "brilinear" ein besserer Ergebnis liefern im Gegensatz zu trilinear?

Unter "subjektiven, optischen Gesichtspunkten" dürfte das kein Problem sein. =)

LovesuckZ
2004-05-21, 17:50:54
Original geschrieben von Quasar
Unter "subjektiven, optischen Gesichtspunkten" dürfte das kein Problem sein. =)

Ja, aber dann müsste bilinear unter "subjektiven, optischen Gesichtspunkten" eine noch eine bessere Qualitaet abliefern...

Gast
2004-05-21, 17:51:50
Original geschrieben von Valmar
Lasst doch einfach beide Grafikkarten mit ihren Optimierungen antreten, nvidia mit ihrem brifilter und ati mit ihrem tryliniear :o

Wurde das nicht schon gemacht ?! :kratz:

xL|Sonic
2004-05-21, 17:53:08
Wenn ja, dann sieht man doch welche Grafikkarte unter gleichen Vorraussetzungen schneller ist...

LovesuckZ
2004-05-21, 17:54:38
Original geschrieben von Valmar
Wenn ja, dann sieht man doch welche Grafikkarte unter gleichen Vorraussetzungen schneller ist...

Vergleichbar nur unter OpenGL, da es dort keine Stageoptimierung bei ATi gibt.

xL|Sonic
2004-05-21, 18:02:35
gnah doppelpost

DrumDub
2004-05-21, 18:03:07
Original geschrieben von LovesuckZ
Vergleichbar nur unter OpenGL, da es dort keine Stageoptimierung bei ATi gibt.

stimmt nicht ganz. die xbitlabs werte sind vergleichbar, da dort die stageoptimierung über das rtool deaktiviert wurde.

Uller
2004-05-21, 18:07:00
Hier wird immer geredet, dass die 6800 Ultra schneller ist als die X800 Pro - finde ich nicht.
Zumindest nicht bei den Spielen, die ich gerne mag.
Unreal Tournament 2003 / 2004, Battlefield 1942 / Vietnam, Max Payne 2, FarCry - nirgendwo liegt die X800 Pro 10% hinter der 6800 Ultra. (zumindest nicht bei 1280x1024 mit 4xAA/8xAF)
Mit deaktivierter Stageoptimierung ungefähr gleichauf (Test bei 3DCenter), in anderen Tests mit schnellerer CPU und Stageoptimierung an teilweise deutlich vorne.

Kann mir irgendjemand Links zu Tests geben, in denen die ATi auch in guten Spielen verliert, und nicht in Hungerhaken wie Quake 3, Halo, o.ä.?
Ich meine, Quake 3 war damals ja ganz gut, aber ist für mich heutzutage kein Maßstab mehr an Grafik.
Den Maßstab setzen für mich Farcry, Battlefield und Unreal Tournament, auch wenn man sich da streiten kann ;)

Ich habe auch 3 Nvidia Karten und nur 1 Ati, und bin mir bisher sehr unschlüssig ob ich Ati oder Nvidia kaufen soll. Aber den bisherigen Ergebnissen nach würde ich die X800 Pro der 6800 Ultra (bzw. GT) absolut vorziehen.

Bitte kein blödes Geflame sondern einfach nur Links, dafür wäre ich dankbar.

xL|Sonic
2004-05-21, 18:09:52
Die 6800 Ultra sollte eigentlich schneller sein, da sie nunmal eine Preisklasse höher spielt und somit eigentlich gar nicht vergleichbar mit der x800 pro ist (weiterhin 12 pipes vs. 16 pipes u.ä.)

Gast
2004-05-21, 18:12:53
Original geschrieben von LovesuckZ
Vergleichbar nur unter OpenGL, da es dort keine Stageoptimierung bei ATi gibt.

Wuss? Ist es nicht so, dass Nvidias Treiber bei bestimmten Games verschiedene TexStages unterschiedlich filtert?!

LovesuckZ
2004-05-21, 18:15:20
Original geschrieben von Gast
Wuss? Ist es nicht so, dass Nvidias Treiber bei bestimmten Games verschiedene TexStages unterschiedlich filtert?!

Die Vermutung habe ich auch, leider hat das noch niemand nachgewiesen...

DanMan
2004-05-21, 18:37:28
Original geschrieben von Valmar
Die 6800 Ultra sollte eigentlich schneller sein, da sie nunmal eine Preisklasse höher spielt und somit eigentlich gar nicht vergleichbar mit der x800 pro ist (weiterhin 12 pipes vs. 16 pipes u.ä.)
Die Ultra gewinnt sogar öfter als die x800XT wenn kein AF im Spiel ist. Wenn doch, dann scheint ATI so viel optimiert zu haben das die Ultra letztendlich meistens verliert.

Trotzdem ist mir schleierhaft was diese Diskussion mit dem Thread zu tun hat.

Gast
2004-05-21, 18:46:27
Original geschrieben von LovesuckZ
Die Vermutung habe ich auch, leider hat das noch niemand nachgewiesen...

Doch, hab schon einen Artikel mit Belegen darüber gelesen, kann aber leider nicht mehr sagen wo.

LovesuckZ
2004-05-21, 18:48:03
Original geschrieben von Gast
Doch, hab schon einen Artikel mit Belegen darüber gelesen, kann aber leider nicht mehr sagen wo.

Ältere treiber haben in UT2003 und erste 5x.xx Treiber zeigten in AF tester eien Stageoptimierung. Alle anderen dann nicht mehr...

Gast
2004-05-21, 18:49:31
Ach, die FX68 liegt meist etwas hinter der X800XT, wie schon erwähnt verliert die X800XT sicher noch etwas Leistung, wenn sie ihre Stage Optimierung verliert, aber auch die X800PRO wird dadurch verlieren und nicht mehr so nahe an der FX68 sein (für meine Geschmack ist die X800PRO zu nahe an der XT dran, kann aber auch sein das einfach zuviel die CPU limitiert).

Am besten man wartet die richtigen Reviews ab, erhältliche gekaufte Grafikkarten mit Treibern die im Juni Released werden, das sollte schon etwas ausgereifterte Tests zulassen, zumal dann die Tester ja auch in reinem Bilinear testen können, oder per "Optimierung" eben auf BRIlinear gehen (ich glaube aber nicht das NV4X Bri mit dem ATI R42X Bri vergleichbar ist, aber das muss dann auch getestet werden).
Ansonsten artet das hier in reine Speku aus und passt nich ganz hier her...

LovesuckZ
2004-05-21, 18:53:57
Das hat zwar nichts mit dem Thema zu tun, aber trotzdem interessant:
Wurde Nvidia immer für ihre "Betatreiber zum richtigen Zeitpunkt" Mentalitaet kritisiert, scheint ATi dort ebenfalls konkurenzfaehig geworden zu sein. Denn der zur Verfügung gestellte "beta 4.5" Treiber sei, laut Dave Baumann, aktueller als der jetzt offizielle. Ein unterschied liege zum Beispiel im (Shader-)Compiler
Wir kennen also die Leistung des r420 mit dem nächsten Treiber schon...

Gast
2004-05-21, 18:55:13
Original geschrieben von LovesuckZ
Ältere treiber haben in UT2003 und erste 5x.xx Treiber zeigten in AF tester eien Stageoptimierung. Alle anderen dann nicht mehr...

Ich geh mal davon aus dass Nvidia diese Technik auch weiterhin benutzt und sie nur besser versteckt, die Frameraten sind ja seitdem nicht deutlich gefallen.

Gast
2004-05-21, 18:56:34
Original geschrieben von LovesuckZ

...

Ein unterschied liege zum Beispiel im (Shader-)Compiler
Wir kennen also die Leistung des r420 mit dem nächsten Treiber schon...

Aha, und woher wiesst du was in Zukunft noch verändert wird?

LovesuckZ
2004-05-21, 19:05:03
Original geschrieben von Gast
Aha, und woher wiesst du was in Zukunft noch verändert wird?

:???:
Die Leistung mit dem "Beta 4.5" entspricht eher dem offiziellen 4.6. Oder willst du andeuten, dass ATi nur für die Reviewer den (Shader-)Compiler veraendert haette?

deekey777
2004-05-21, 19:10:09
Original geschrieben von LovesuckZ
:???:
Die Leistung mit dem "Beta 4.5" entspricht eher dem offiziellen 4.6. Oder willst du andeuten, dass ATi nur für die Reviewer den (Shader-)Compiler veraendert haette?

Offizieller 4.6 - wo??? :asshole:

Tigerchen
2004-05-21, 19:23:02
Original geschrieben von LovesuckZ
Ja, aber dann müsste bilinear unter "subjektiven, optischen Gesichtspunkten" eine noch eine bessere Qualitaet abliefern...

Das ist Unfug und du weißt es auch. Was ist denn der Pferdefuß beim bilinearen filtern? Die wandernden Linien. Ist es nicht legitim diese mit dem geringst möglichen Aufwand wegzukriegen?

Exxtreme
2004-05-21, 19:26:39
Original geschrieben von Tigerchen

Ist es nicht legitim diese mit dem geringst möglichen Aufwand wegzukriegen?
Die Frage ist jetzt ob man diese mit dem brilinearen Filter immer und überall wegkriegt. Also zumindest auf einer GFFX5600 war es bei mir nicht der Fall. Aber vielleicht sind einige Leute unempfindlicher als ich.

LovesuckZ
2004-05-21, 19:26:42
Original geschrieben von Tigerchen

Das ist Unfug und du weißt es auch. Was ist denn der Pferdefuß beim bilinearen filtern? Die wandernden Linien. Ist es nicht legitim diese mit dem geringst möglichen Aufwand wegzukriegen?

1) Ja, solange man dies nicht als "full trilinear on default" versucht zu erkaufen und dem user die Moeglichkeit laesst, es abzustellen.
2) Bei diesem Statement ging es mir darum, dass jemand, dem "brilinear" subjektiv besser gefalle, mit bilinear besser bedient ist.

Exxtreme
2004-05-21, 19:35:29
Original geschrieben von Tigerchen

Bei der R9600 hat wohl keiner was gesehen. Wo soll da also ein Opfer sein?

Naja, ich gehe davon aus, daß der typische R9600-Käufer kein 3D-Guru ist. X-D Von daher hat keiner genau hingeschaut. Und die Tester haben sich wohl auch zu stark auf die von ATi empfohlenen Tools verlassen. :D
Original geschrieben von Tigerchen
Ich bin mir sicher auch nV wird den brilinearen Filter weiter entwickeln.

Da gibt es nichts, was man weiterentwickeln könnte. Man kann nur die Breite des Tri-Bands einstellen. Breites Tri-Band -> niedrige Wahrscheinlichkeit, daß es bemerkt wird, es bringt aber kaum Speed. Beim schmalen Tri-Band verhält es sich umgekehrt.

reunion
2004-05-21, 19:35:31
Original geschrieben von Gast
Mitnichten! Der NV40 ist prinzipiell sowieso schneller bei (fast) allen OpenGL Spielen.Sollte der volle Trilineare Filter bei ATI (irgendwan) mal aktiviert werden, würde ATI meiner Meinung nach auch bei den meisten DirectX Spielen passen müssen!

Glaube ich nicht, die meisten Reviews im Netzt sind IMO CPU-limitiert und daher nehmen sich die Karten auch nicht viel, bei Auflösungen von >=1600x1200 mit AA und AF wo dann die Graka zum limitierenden faktor wird liegt die X800XT dann eigendlich immer vorne. Und ich glaube nicht das sich das ändern würde wenn ATI full tri filtern würde. Der Füllratenunterschied von 30% ist einfach zu groß...

LovesuckZ
2004-05-21, 19:37:32
Nach Techreport.com hat nun auch Sudhian (http://www.sudhian.com/showdocs.cfm?aid=538) ein Statement wegen der jetzigen Situation ATi <> Reviewer abgegeben.

Tigerchen
2004-05-21, 19:43:06
Original geschrieben von Exxtreme
Naja, ich gehe davon aus, daß der typische R9600-Käufer kein 3D-Guru ist. X-D Von daher hat keiner genau hingeschaut. Und die Tester haben sich wohl auch zu stark auf die von ATi empfohlenen Tools verlassen. :D

Da gibt es nichts, was man weiterentwickeln könnte. Man kann nur die Breite des Tri-Bands einstellen. Breites Tri-Band -> niedrige Wahrscheinlichkeit, daß es bemerkt wird, es bringt aber kaum Speed. Beim schmalen Tri-Band verhält es sich umgekehrt.

Ich würde sogar sagen daß die 3D-Gurus eine verschwindend kleine Minderheit sind. Jetzt mal Hand aufs Herz? Würdest du für eine Handvoll Gurus entwickeln?

So wie ich ATI verstanden hab optimiert die Optimierung nach Bedarf. Meinst nicht daß nV dies kopieren wird? Oder ist das wieder so eine Marketing Blabla von ATI?

LovesuckZ
2004-05-21, 19:45:02
Original geschrieben von Tigerchen

So wie ich ATI verstanden hab optimiert die Optimierung nach Bedarf. Meinst nicht daß nV dies kopieren wird? Oder ist das wieder so eine Marketing Blabla von ATI?


Wer sagt, dass dies bei nvidia nicht auch geschehe? Immerhin hat sich die IQ im laufe der Treiberzeit gesteigert, ohne dass die AF tester eine deutliche Verbesserung beim Tri - Band ausmachten.

Exxtreme
2004-05-21, 19:45:40
Original geschrieben von Tigerchen
Ich würde sogar sagen daß die 3D-Gurus eine verschwindend kleine Minderheit sind. Jetzt mal Hand aufs Herz? Würdest du für eine Handvoll Gurus entwickeln?

Naja, da die R9600 nicht für Gurus gemacht wurde... würde ich es noch ganz knapp durchgehen lassen. Die RX800 ist IMHO keine GraKa für den Durchschnittskäufer. Und das Ding ist IMHO eh' schnell genug für volles Tri-AF.
Original geschrieben von Tigerchen
Oder ist das wieder so eine Marketing Blabla von ATI?

:D

Demirug
2004-05-21, 19:50:07
Original geschrieben von Exxtreme
Da gibt es nichts, was man weiterentwickeln könnte.

Sag doch sowas nicht. Und immer daran denken.

Lächle und sei froh den es könnte noch schlimmer sein. Und ich lächelte und war froh und ...

LovesuckZ
2004-05-21, 19:53:32
Original geschrieben von Exxtreme
:D

Schonmal bei einem großen Filmverleih versucht? Solche teaser koennen locker verkaufsfördern sein
Wie definierst du eigentlich "soon" (Zeitspanne)? :D

DanMan
2004-05-21, 20:37:17
Original geschrieben von LovesuckZ
Nach Techreport.com hat nun auch Sudhian (http://www.sudhian.com/showdocs.cfm?aid=538) ein Statement wegen der jetzigen Situation ATi <> Reviewer abgegeben.
Was mich persönlich mit am meisten stört, ist dass die erste Reaktion der Leute die ist mit dem Finger auf den anderen zu zeigen, anstatt sich erst mal an die eigene Nase zu fassen.

Guck dir doch nur den ersten Post dazu in deren Forum an. Er fängt sofort an Vergleiche zu ziehen, anstatt erst mal die Sache um die es eigentlich geht mal für sich zu betrachten. Immer dieses "Ja, aber..." Geschwätz. Sind wir denn im Kindergarten?

P.S.: Ich find es auch geradezu lächerlich, dass wohl die meisten Tester sich vom HERSTELLER der Graka vorschlagen lassen wie sie diese zu testen haben. Das wäre ja das gleiche, wenn der ADAC ein Auto nach den Vorschlägen des Herstellers testet, in denen dann steht, dass sie nicht die Motorhaube öffnen sollen. Augenwischerei!

Gast
2004-05-21, 21:21:01
Original geschrieben von DanMan
Guck dir doch nur den ersten Post dazu in deren Forum an. Er fängt sofort an Vergleiche zu ziehen, anstatt erst mal die Sache um die es eigentlich geht mal für sich zu betrachten. Immer dieses "Ja, aber..." Geschwätz. Sind wir denn im Kindergarten?

nein aber im krieg .. ist fast das selbe!

krieg der grakafirmen ;-)

Exxtreme
2004-05-21, 21:28:20
Original geschrieben von Demirug

Sag doch sowas nicht. Und immer daran denken.
Mit "Verbessern" meinte ich es im positiven Sinne... ;(

tokugawa
2004-05-21, 21:45:40
Original geschrieben von Gast
nein aber im krieg .. ist fast das selbe!

krieg der grakafirmen ;-)

Zumindest der Marketing-Sektoren der beiden.

Im Developer-Sektor arbeiten beide sogar manchmal ein wenig zusammen (wie bei den gemeinsamen Präsentationen auf der GDC), mal abgesehen von den "geheimen" Notizen wie bei der "Save the Nanosecond" Präsentation...

Ich sehe keine Veranlassung, weder bei ATI noch NVIDIA, dem Marketing mehr Aufmerksamkeit zu schenken als deren (vom Marketing weitgehend unabhängige) Developer-Sektion.

tb
2004-05-22, 02:19:15
Original geschrieben von Colin MacLaren
Achtung: Dies stellt meine ganz persönliche Meinung dar!

Ich weiß, daß ich hier gegen den Strom schwimme, aber ich wollt es einfach mal loswerden. Bevor ich also in irgendeinem anderen Thread eine Offtopic-Diskussion lostrete, mach ich einfach mal einen neuen auf...

Ich kann es manchmal nicht mehr nachvollziehen, warum sich hier ständig aufgeregt wird, wenn irgendwo neue Optimierungen gefunden werden, die ingame entweder gar nicht oder nur, wenn man ganz genau darauf achtetn, auffallen bzw. erst in Screenshotvergleichen bei x-facher Vergrößerung oder noch schlimmer, mit Analyse-Tools erkennbar werden. Ich hab jetzt eine FX5900, mit dem achso hochgelobten AF, aber da die Performance mit 8xAF um 50% einbricht, ist es dann sowieso nicht sinnvoll nutzbar. Da lob ich mir doch den Ati-Weg, wo ich trotzdem ordentlich gefilterte Bodentexturen des vor mir leigenden Weges bekomme - was imho das einzige ist, wo AF ingame wirklich auffällt - und muß dafür gerademal 10% Perfromance opfern.

Daß die Hersteller auch keine Option für maximale Qualität einbauen, kann ich ebenfalls nachvollziehen, denn sonst würden sämtliche Reviewes nur mit diesen Settings benchen und somit die Karten schlechter dastehen lassen, als sie sind, denn bei solche derben Performanceeinbrüchen wie oben beschrieben sind solche Ergebnisse für den Einsatz im Alltag sowieso nicht relevant.

Von unseren 12 Leuten im Clan bin ich btw. der einzgige, der AA/AF nutzt, von daher ist es nur logisch, daß die Hersteller sich bei diesen Filtertechniken auf die Optimierung hin zu prestigeträchtigen Benchmarkwerten konzentrieren, als auf bessere Qualität, die man selbst auf Screenshots noch mit der Lupe suchen muß, denn die überwiegende Mehrheit der User setzt die Filter sowieso nicht ein, geschweige denn liest sich in den Reviews die seitenlangen Erörterungen zu gewissen Optimierungen durch.

mfg

Colin

Ich sehe das so:

Ich habe nichts gegen NVIDIA's und ATi's Optimierungen, da diese sicherlich der Performance bei Spielen zugute kommen und somit zum flüssigen Grafikablauf beitragen.
Wenn jedoch beide(andere natürlich auch) Hersteller schon mit "Performance -> Quality" Schiebereglern im Grafiktreibermenü spielen, dann sollten diese Einstellungen auf der höchsten Qualitätsstufe auch wenigstens Referenzqualität einer GeForce 3/4 liefern!
Ein zweiter Punkt sind Reviews, wie kann man objektiv die Leistung verschiedener Grafikkarten vergleichen, wenn jeder Hersteller bei der Qualität macht, was ihm gefällt. Ein sauberer Softwarerenderer wie Microsoft's Referenz Rasterizer zeigt eine gute Qualität, mit dem sich die Hardware gefälligst messen sollte.
Sicherlich haben Reviewer auch eine Teilschuld, Bildqualitätsvergleiche sind nunmal aufwendiger als ein paar Benchmarkbalken.

Thomas

DanMan
2004-05-22, 03:24:51
Original geschrieben von tb
Ein zweiter Punkt sind Reviews, wie kann man objektiv die Leistung verschiedener Grafikkarten vergleichen, wenn jeder Hersteller bei der Qualität macht, was ihm gefällt. Ein sauberer Softwarerenderer wie Microsoft's Referenz Rasterizer zeigt eine gute Qualität, mit dem sich die Hardware gefälligst messen sollte.
Darauf wirds in Zukunft wohl hinauslaufen. Untereinander sind die Karten ja immer schwieriger zu vergleichen, da die Bemessungsgrundlage fehlt.
Also werden die Karten gegen den Rasterizer oder eine mit Sicherheit "ideal" rechnende Karte antreten, und sich dann der Kritik stellen müssen.
Quasi wie beim Testbild inner Glotze. Ist ja auch nur normal. In anderen Bereichen wirds ja auch so gemacht.

r@h
2004-05-22, 09:01:58
Original geschrieben von reunion
Der R420 unterstützt bis zu 512 Anweisungen pro Shader während der R3xx nur max. 96 unterstützt... Hatte man dies nicht auch schon für die R3x0-Reihe 'versprochen' ?
Sollte wohl 'ne Software-Lösung werden... vielleicht haben's ja jetzt geschafft und dies nur der R420 zugute kommen lassen...
:D

Razor

r@h
2004-05-22, 09:06:13
Original geschrieben von Exxtreme
Naja, IMHO sind die Neuerungen beim R420 grösser als beim NV25 seiner Zeit. Der R420 hat mehr Pipelines, mehr Vertexshader-Units, bessere Shader, 3Dc etc. ggü. dem Vorgänger. Beim NV25 waren es bessere Shader, ein leicht besseres AA beim 2x Modus und eine Vertexshader-Unit mehr. Und der NV25 hatte auch einen Rückschritt zu verzeichnen und zwar die Performance beim Bi-AF. Da war der Vorgänger manchmal schneller. Das ist Erbsenzählen, Exxtreme...

Im Groben betrachtet verhält es sich mit R3x0 vs R420 genau so, wie mit gf3 vs gf4ti.
(Oder ist Dir das bei Deiner Aufzählung entgangen ;-)

Und auch bei der R420 scheint's einen 'Wehrmutstropfen' zu geben, gell ?
:D

Razor

r@h
2004-05-22, 09:07:53
Original geschrieben von Exxtreme
Naja, ATi kriegt z.Zt. mächtig eins auf den Deckel wegen der Sache. :) Die Mitarbeiter von denen trauen sich gar nicht in die Foren. X-D Recht so !

Vielleicht sollten Sie endlich mal die Hosen runter lassen uns sich entschuldigen...
(auch wenn ich dies nicht wörtlich verstanden haben will... das mit den Hosen ;-)

Razor

Quasar
2004-05-22, 09:13:02
Original geschrieben von r@h
Vielleicht sollten Sie endlich mal die Hosen runter lassen uns sich entschuldigen...

Das wird wohl nicht passieren - sonst wäre ihre mühsam formulierte PR-Mitteilung für die Katz gewesen.

Außerdem hat nV sowas auch nie gemacht ;)

r@h
2004-05-22, 09:13:23
Original geschrieben von Exxtreme
Also ich habe niemals gesagt, daß der Ansatz falsch ist. :) Was mich nervt, ist wie ATi mit der Sache umgeht. Sie tun noch die Reviewer darauf hinweisen, sie sollen die "Optimierungen" bei NV ausschalten (und zeigen auch wie es geht!), selbst aber werden diese "Optimierungen" benutzt. Normalerweise sollte man die Karten nochmal benchen und entweder alle "Optimierungen" einschalten oder ausschalten... wenn es gehen sollte... irgendwann vielleicht. :DIch hoffe wirklich inständig, dass dies bald geschieht !
Original geschrieben von Exxtreme
So wie es bisher aussieht, ist der R420 NICHT leistungsfähiger als der NV40.
Und ATi hat vieles unternommen damit die Wahrheit erstmal nicht rauskommt. That's it !
Nicht nur, dass er nicht leistungsfähiger ist... er hat auch noch das kleinere Featureset.
Könnte übrigens der Grund sein, warum die Readeon's gerade in diesem Moment im Preis purzeln...

Und ich wüsste derzeit nicht, wie sie sich ihre Reputation wiederholen können...
Undabdingbare Ehrlichkeit wäre hier angebracht.
(ich weiß... absolut illusorisch ;-)

Razor

r@h
2004-05-22, 09:14:31
Original geschrieben von seahawk
Ich würde das so nicht sagen. Der R420 dürfte auch so die schnellere Karte sein. Auf welcher Basis erwächst Deine Vermutung ?
:???:

Razor

r@h
2004-05-22, 09:16:44
Original geschrieben von Tigerchen
Das stimmt fast. Wenn die Optimierungen wirklich sichtbar sind sollte man sie abschalten können. Sind sie aber nicht sichtbar sollte man sie als technischen Fortschritt akzeptieren. Und dann brauchen sie auch nicht unbedingt abschaltbar sein. Sie machen die R420 leistungsfähiger. Warum tun sich so viele so schwer damit? Es geht hier um ATI's Eiertanz, selbst nicht zu optimieren (was glatt gelogen war) und deswegen die Optimierung der Konkurrenz für einen Vergleich abzuschalten zu lassen. Schon mekrwürdig, dass dies hier einige noch immer nicht verstanden haben...

Razor

r@h
2004-05-22, 09:19:59
Original geschrieben von Tigerchen
Bei der R9600 hat wohl keiner was gesehen. Wo soll da also ein Opfer sein?Es wird wohl keiner hingeschaut haben...
;-)

Razor

r@h
2004-05-22, 09:27:55
Original geschrieben von Quasar
Das wird wohl nicht passieren - sonst wäre ihre mühsam formulierte PR-Mitteilung für die Katz gewesen.

Außerdem hat nV sowas auch nie gemacht ;) Ich schrieb ja auch "vielleicht"...
Und später: "(ich weiß... absolut illusorisch ;-)"
:D

Razor

Quasar
2004-05-22, 09:29:08
Original geschrieben von r@h
Es wird wohl keiner hingeschaut haben...
;-)

Razor

Wenn ich mir die bei nVNews verlinkten Quali-Vergleiche in CoD anschaue, die drastische Unterschiede in der Qualität (gibt sicherlich auch andere Beispiele, wo Radeon9800-Karten bessere IQ haben) zeigen, von den Reviewern aber mit "basically the IQ is on the same level" abgehandelt werden, ist das kein Wunder.

r@h
2004-05-22, 09:34:25
Original geschrieben von Quasar
Wenn ich mir die bei nVNews verlinkten Quali-Vergleiche in CoD anschaue, die drastische Unterschiede in der Qualität (gibt sicherlich auch andere Beispiele, wo Radeon9800-Karten bessere IQ haben) zeigen, von den Reviewern aber mit "basically the IQ is on the same level" abgehandelt werden, ist das kein Wunder. Ich meinte jetzt eigentlich eher die Enduser der R9600...

Aber klar, so gesehen hast Du natürlich vollkommen recht !

Razor

Quasar
2004-05-22, 10:02:07
Der Enduser wird sowas i.d.R. nicht beurteilen (können/wollen). Ich kenne das noch von mir früher: Wenn irgendwas komisch aussah, war erstmal das Game scheisse, wenn der erste Patch nichts half, waren die Programmierer unfähig. ;)

*Stevo*
2004-05-22, 10:11:09
@ Quasar

Hast du mal nen Link zu den COD Screenshots bei NV News?

Exxtreme
2004-05-22, 10:27:37
Original geschrieben von r@h
Nicht nur, dass er nicht leistungsfähiger ist... er hat auch noch das kleinere Featureset.

Naja, bezüglich Features sehe ich persönlich einen Gleichstand mit leichten Vorteilen für NV da ich SM3.0 als "bedeutender" einstufe. Im Prinzip heisst es jetzt 3Dc vs. SM3.0. Beide Features können eingesetzt werden um mehr Speed rauszuholen wegen der besseren Effizienz.

Mir sind auch andere Dinge wichtig wie Stromverbrauch. Und da ist ATi im Vorteil.
Original geschrieben von r@h
Und ich wüsste derzeit nicht, wie sie sich ihre Reputation wiederholen können...
Undabdingbare Ehrlichkeit wäre hier angebracht.
(ich weiß... absolut illusorisch ;-)

Razor
Sehe ich auch so. Die Sache hat mir die Lust auf dem R420 gründlich versaut. :D

LovesuckZ
2004-05-22, 10:36:10
Original geschrieben von Exxtreme
Naja, bezüglich Features sehe ich persönlich einen Gleichstand mit leichten Vorteilen für NV da ich SM3.0 als "bedeutender" einstufe. Im Prinzip heisst es jetzt 3Dc vs. SM3.0. Beide Features können eingesetzt werden um mehr Speed rauszuholen wegen der besseren Effizienz.

Du vergleichst doch jetzt nicht etwa das Featurepaket SM3.0 gegen ein Feature (3Dc)?

Mir sind auch andere Dinge wichtig wie Stromverbrauch. Und da ist ATi im Vorteil.


Deltachrome.

reunion
2004-05-22, 10:39:06
Original geschrieben von r@h
Hatte man dies nicht auch schon für die R3x0-Reihe 'versprochen' ?
Sollte wohl 'ne Software-Lösung werden... vielleicht haben's ja jetzt geschafft und dies nur der R420 zugute kommen lassen...
:D

Razor

Keine Ahnung ob sie das schon für den R300 versprochen haben, aufjedenfall ist das der Grund warum die R420 Demos nicht auf dem R300 laufen...

Quasar
2004-05-22, 10:43:02
Original geschrieben von *Stevo*
@ Quasar

Hast du mal nen Link zu den COD Screenshots bei NV News?

Sind nichtmal original von denen, nur dort verlinkt.
http://www.nvnews.net/vbulletin/showthread.php?t=28942

r@h
2004-05-22, 10:50:09
Original geschrieben von Exxtreme
Naja, bezüglich Features sehe ich persönlich einen Gleichstand mit leichten Vorteilen für NV da ich SM3.0 als "bedeutender" einstufe. Im Prinzip heisst es jetzt 3Dc vs. SM3.0. Beide Features können eingesetzt werden um mehr Speed rauszuholen wegen der besseren Effizienz.Na ja... das Eine hat mit dem anderen aber auch rein gar nichts zu tun. Schließlich muss das eine explizit unterstützt werden (und die Impementationsarie werde ich hier nicht wieder lostreten ;-), während das andere in vielerlei Hinsicht sofort genutzt werden kann...
Original geschrieben von Exxtreme
Mir sind auch andere Dinge wichtig wie Stromverbrauch. Und da ist ATi im Vorteil.Jo, dieser Punkt geht an ATI... wenn auch nicht so eindeutig, wie es viele gerne hätten. Wenn ich da noch die Leutz im Ohr 'klingeln' höre, die dem NV40 glatte 150W (und mehr) in die Schuhe schieben wollten...
Original geschrieben von Exxtreme
Sehe ich auch so. Die Sache hat mir die Lust auf dem R420 gründlich versaut. :D Das Smilie bedeutet Ironie, oder ?
;D

Zumindest dürfte das 'Ansehen' beider IHV's nun da sein, wo es hingehört...

Razor

r@h
2004-05-22, 10:52:04
Original geschrieben von reunion
Keine Ahnung ob sie das schon für den R300 versprochen haben, aufjedenfall ist das der Grund warum die R420 Demos nicht auf dem R300 laufen... Ach ne...
:D

Mal sehen, wieviele DEVs diesen DX-Compiler-Pfad 2.B nutzen werden...

Razor

Exxtreme
2004-05-22, 10:53:47
Original geschrieben von LovesuckZ
Du vergleichst doch jetzt nicht etwa das Featurepaket SM3.0 gegen ein Feature (3Dc)?

Doch das tue ich. Und ich sagte auch, daß SM3.0 IMHO bedeutender ist als 3Dc.

LovesuckZ
2004-05-22, 10:55:03
Original geschrieben von Exxtreme
Doch das tue ich. Und ich sagte auch, daß SM3.0 IMHO bedeutender ist als 3Dc.

Und wo ist da der Sinn?
Alleine FP32 als volle Genauigkeit ist vergleichbar mit 3Dc...

Demirug
2004-05-22, 10:56:38
Original geschrieben von r@h
Ach ne...
:D

Mal sehen, wieviele DEVs diesen DX-Compiler-Pfad 2.B nutzen werden...

Razor

Auf jeden Fall jede Engine die einen Autoselect und Compile hat.

Demirug
2004-05-22, 10:57:23
Original geschrieben von LovesuckZ
Und wo ist da der Sinn?
Alleine FP32 als volle Genauigkeit ist vergleichbar mit 3Dc...

Das ist jetzt aber Birnen vs. Äpfel.

Exxtreme
2004-05-22, 10:57:24
Original geschrieben von r@h
Jo, dieser Punkt geht an ATI... wenn auch nicht so eindeutig, wie es viele gerne hätten. Wenn ich da noch die Leutz im Ohr 'klingeln' höre, die dem NV40 glatte 150W (und mehr) in die Schuhe schieben wollten...
Naja, die Angabe, daß ein 480W NT benötigt wird, stammt von NV. Dann haben sie die Empfehlung auf 350W gesenkt weil die 480W wohl doch zu monströs klangen. Auch die 2 Stromstecker sorgten für genug Gerüchte. Denn unter 125W Stromverbrauch braucht man keine 2 Stromstecker.
Original geschrieben von r@h
Das Smilie bedeutet Ironie, oder ?
;D

Nein.
Original geschrieben von r@h
Zumindest dürfte das 'Ansehen' beider IHV's nun da sein, wo es hingehört...

Razor
Ist der Ruf erstmal ruiniert...

Ich fürchte, das kratzt die beiden IHVs absolut nicht.

LovesuckZ
2004-05-22, 10:58:44
Original geschrieben von Demirug
Das ist jetzt aber Birnen vs. Äpfel.

Genauso wie ein vergleich von SM3.0 udn 3Dc, aus meiner Sicht.

Exxtreme
2004-05-22, 11:02:24
Original geschrieben von LovesuckZ
Genauso wie ein vergleich von SM3.0 udn 3Dc, aus meiner Sicht.
Ich habe diese Features auch nie direkt verglichen. Ich habe sie nur gegeneinander abgewogen da man z.Zt. nicht beides auf einer Karte haben kann und SM3.0 als wichtiger eingestuft. Ist genauso wie Sperrsitz und Parkett im Kino. :D

Ich weiss, nicht alles was hinkt ist ein Vergleich. ;-)

r@h
2004-05-22, 11:16:12
Original geschrieben von Demirug
Auf jeden Fall jede Engine die einen Autoselect und Compile hat. Das meinte ich jetzt nicht...
Mir ging es da eher um die Komplexität der Shader.

Razor

Demirug
2004-05-22, 11:22:05
Original geschrieben von r@h
Das meinte ich jetzt nicht...
Mir ging es da eher um die Komplexität der Shader.

Razor

Wenn die Shader nur aufgrund iherer Länge nicht mit 2.0 auskommen (Ein Problem das man ja bei STALKER angeblich hat) ist 2.B doch eine schöne Sache.

r@h
2004-05-22, 11:26:53
Original geschrieben von Exxtreme
Naja, die Angabe, daß ein 480W NT benötigt wird, stammt von NV. Dann haben sie die Empfehlung auf 350W gesenkt weil die 480W wohl doch zu monströs klangen. Auch die 2 Stromstecker sorgten für genug Gerüchte. Denn unter 125W Stromverbrauch braucht man keine 2 Stromstecker.Tjo... aber auch dazu gibt's ja nun die Aussage (wie schon vorher vermutet), dass diese 2 Stecker durchaus von einem Strang stammen 'dürfen'. Vielleicht hatte man vorher ja einfach nur vor, die Karten höher getaktet an den "Mann" zu bringen... was nun nicht mehr nötig (oder evtl. auch nicht 'möglich') ist.
Original geschrieben von Exxtreme
Nein.Ups...
Sorry, hatte ich dann total mißverstanden.

Schließlich geht doch diese Optimierungs-Geschichte eher in Richtung ATI und nicht in Richtung des Produktes X800. Wenn es denn tatsächlich keine (oder zumindest max soviel wie beim Bri von nVidia) BQ kostet, wäre das doch ein dolles Feature. Man hätte dies dann aber zumindest beim Release erwähnen... wie eben auch ein paar andere 'Dinge' einfach unterlassen sollen.
Original geschrieben von Exxtreme
Ist der Ruf erstmal ruiniert...
Ich fürchte, das kratzt die beiden IHVs absolut nicht. Wir werden sehen, was sich da mit den nächsten Treibern tut.

Zumindest hat diese Geschichte nun dazu geführt, dass man nicht nur nVidia hinsichtlich der BQ "auf die Finger schauen" wird. Und ich persönlich hoffe ja noch immer auf einen Schalter, der auch für die älteren FX'en den bri-Filter für OGL und D3D abschalten können wird. Vielleicht (obwohl ich's auch nicht glaube) bringt ATI dann ja einen, der sowohl Stage- als auch Tri-Optimierung deaktivieren kann.

Razor

r@h
2004-05-22, 11:28:04
Original geschrieben von Demirug
Wenn die Shader nur aufgrund iherer Länge nicht mit 2.0 auskommen (Ein Problem das man ja bei STALKER angeblich hat) ist 2.B doch eine schöne Sache. Wenn das der einzige Unterschied ist... klar !

Razor

Gast
2004-05-22, 11:33:40
Also ich finde dass das SM 3.0 Feature viel wichtiger ist als 3Dc.Es wird auf jeden Fall in den kommenden Spielen drin sein und wer schon mal Bilder/Video von Farcry mit diesem gesehen hat ,dem wird sicher 3Dc nicht fehlen! :)

r@h
2004-05-22, 11:35:27
Original geschrieben von Gast
Also ich finde dass das SM 3.0 Feature viel wichtiger ist als 3Dc.Es wird auf jeden Fall in den kommenden Spielen drin sein und wer schon mal Bilder/Video von Farcry mit diesem gesehen hat ,dem wird sicher 3Dc nicht fehlen! :) Also AFAIK wird FC dadurch nicht zwangsläufig besser aussehen...
...oder meinst Du die Tech-Levels, die da 'demonstriert' wurden ?

Wenn ja, was haben die mit dem eigentlichen Game zu tun ?
:???:

Razor

Gast
2004-05-22, 11:41:44
Original geschrieben von r@h
Also AFAIK wird FC dadurch nicht zwangsläufig besser aussehen...
...oder meinst Du die Tech-Levels, die da 'demonstriert' wurden ?

Wenn ja, was haben die mit dem eigentlichen Game zu tun ?
:???:

Razor

Ich meine das bekannte demonstrierte Video.Mehr Einzelheiten weiss ich nicht, sondern nur das es mit SM 3.0 auf einer NV40 lief und das sah klar besser als mit den jetzigen Karten auf SM/PS 2.0!

reunion
2004-05-22, 11:43:30
Original geschrieben von Gast
Ich meine das bekannte demonstrierte Video.Mehr Einzelheiten weiss ich nicht, sondern nur das es mit SM 3.0 auf einer NV40 lief und das sah klar besser als mit den jetzigen Karten auf SM/PS 2.0!

Du meinst wohl das Technologiedemo mit der nächstens Unreal-Engine?

MadMan2k
2004-05-22, 11:44:17
Original geschrieben von Gast
Ich meine das bekannte demonstrierte Video.Mehr Einzelheiten weiss ich nicht, sondern nur das es mit SM 3.0 auf einer NV40 lief und das sah klar besser als mit den jetzigen Karten auf SM/PS 2.0!
du weißt aber schon, dass alle dort gezeigten Effekte auch mit PS2.0 möglich sind und AFAIR laut einem Entwickler auch mit PS2.0 laufen werden?

LovesuckZ
2004-05-22, 11:46:00
Original geschrieben von MadMan2k
du weißt aber schon, dass alle dort gezeigten Effekte auch mit PS2.0 möglich sind und AFAIR laut einem Entwickler auch mit PS2.0 laufen werden?

Du weißt, dass alles was PS2.0 kann, auch mit einer CPU laufen wird (achja, PS3.0 |= SM3.0)?

reunion
2004-05-22, 11:48:36
Original geschrieben von LovesuckZ
Du weißt, dass alles was PS2.0 kann, auch mit einer CPU laufen wird (achja, PS3.0 |= SM3.0)?

Wenn die CPU schnell genug wäre wäre das doch kein Problem oder?

LovesuckZ
2004-05-22, 11:55:26
Original geschrieben von reunion
Wenn die CPU schnell genug wäre wäre das doch kein Problem oder?

Und wenn sie es nicht ist?
Dann wohl nach einigen doch auch, da in diesen "alles was PS3.0 kann, kann auch PS2.0" nie die Leistung relevant ist.

Gast
2004-05-22, 11:58:39
Original geschrieben von reunion
Du meinst wohl das Technologiedemo mit der nächstens Unreal-Engine?

Nein Farcry! Hier zwei Bilder (mit Kamera vor einem Monitor.Es gibt auch ein Video):

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5854.jpg

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5855.jpg

reunion
2004-05-22, 12:00:32
Original geschrieben von LovesuckZ
Und wenn sie es nicht ist?


Dann ist es natürlich ein problem :D
Aber da man aktuell noch nichtmal weiss wie schnell der NV40 mit PS3.0 überhaupt ist ist es sowieso sinnlos darüber zu spekulieren wie schnell der r420 mit "aufgeteilten" PS3.0 Shadern im vergleich zum NV40 mit PS3.0 sein wird...

Gas3t
2004-05-22, 12:03:05
Original geschrieben von LovesuckZ
Und wenn sie es nicht ist?
Dann wohl nach einigen doch auch, da in diesen "alles was PS3.0 kann, kann auch PS2.0" nie die Leistung relevant ist.

Könnte man die Farcry-Diskussion bezüglich SM3 lassen. Das gehört ins Speku-Forum und ist hier fehl am Platz.

reunion
2004-05-22, 12:03:22
Original geschrieben von Gast
Nein Farcry! Hier zwei Bilder (mit Kamera vor einem Monitor.Es gibt auch ein Video):

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5854.jpg

http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5855.jpg

IMHO sieht das auf meiner radeon auch nicht anders aus...

Gast
2004-05-22, 12:13:23
Original geschrieben von reunion
IMHO sieht das auf meiner radeon auch nicht anders aus...

Also ich finde dass das ganze realistischer wirkt!

tRpii
2004-05-22, 12:27:35
von weitem ja, von nahem sieht das argh scheisse aus..

MadMan2k
2004-05-22, 12:47:57
Original geschrieben von LovesuckZ
Du weißt, dass alles was PS2.0 kann, auch mit einer CPU laufen wird (achja, PS3.0 |= SM3.0)?
wenn es auf der CPU schneller laufen würde, dann kein Problem, oder? ;)
aber ich habe nicht gesagt, dass alles, was mit PS3.0 möglich ist auch mit PS2.0 geht, sondern, dass die in FC gezeigten Effekte, wie Parallax-Mapping genausogut mit PS2.0 laufen.

Im übrigen ermöglichen die PS3.0 durch das Branching durchaus neue Effekte, die mit PS2.0 aufgrund von zuviel Overhead nicht möglich sind.
Wogegen ich mich hingegen sträube, ist, dass diese Vorteiele schon beim NV40 zum tragen kommen, da er meiner Ansicht nach
a) für entsprechend lange Shader zu langsam ist und
b) das Branching bei ihm zuviel kostet, sodass es auch bei kurzen Shadern zu keinen Vorteilen führt.