PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Quo vadis ATI? Eine aktuelle Bestandsaufnahme


Seiten : [1] 2

Die gelbe Eule
2005-11-07, 21:37:05
1. HighEnd: Der G70 legt monatelang vor, R520 zieht nach, der neue G70 holt weiter aus ...

2. Mainstream: X1600XT wird angekündigt, ist aber nicht erhältlich. NV setzt die 6800 GS dagegen und schlägt Ihr ATi Pendant in allen Belangen, sogar der 110nm Prozess verbaucht weniger Leistung als der 90nm von ATi.

6800GS vs. X1600XT (http://www.hkepc.com/hwdb/6800gs6600ddr2-3.htm)

3. LowEnd: NV läßt die 6600 DDR2 gegen die X1300PRO antreten und gewinnt deutlich. Dabei sind noch nichtmal die G7X Derivate erhältlich.

6600 DDR2 vs. X1300pro (http://www.hkepc.com/hwdb/6800gs6600ddr2-4.htm)


Das soll kein Bash sein! Irgendwie kommt es mir so vor, also hätte ATi zwar mehr Zeit gehabt, sie aber nicht richtig genutzt. NV kann immer nachlegen und bietet Verfügbarkeit an.

Was sagt uns das für die Zukunft?

DrFreaK666
2005-11-07, 21:41:30
Weiss nicht.
Weiss du das etwa?

Finde es allerdings auch schade, dass nur die 1800XT richtig konkurrenzfähig ist.
Aber erstmal abwarten wie sich das ganze weiterentwickeln wird.
Die X800-Reihe gibts ja auch noch, ist nicht gerade langsam und dank AAA immer noch reizvoll (für mich jedenfalls :smile: )

Raff
2005-11-07, 21:42:07
Es sagt uns, dass Ati Probleme hat(te). Nach einiger Zeit werden sie den Fertigungsprozess im Griff haben und höher getaktete Karten auf den Markt bringen. Hinzu kommen wahrscheinliche merkbare Leistungssteigerungen durch das schlummernde Potenzial. Einfach abwarten.

MfG,
Raff

DrFreaK666
2005-11-07, 21:42:49
Es sagt uns, dass Ati Probleme hat(te). Nach einiger Zeit werden sie den Fertigungsprozess im Griff haben und höher getaktete Karten auf den Markt bringen. Hinzu kommen wahrscheinliche merkbare Leistungssteigerungen durch das schlummernde Potenzial. Einfach abwarten.

MfG,
Raff

Stimmt, durch neuere Treiber dürften sich noch schneller werden

thade
2005-11-07, 21:43:00
ATI hat auch genug Resourcen in den R500 gesteckt. Ich erwarte viel von ATI. NV mag vllt jetzt im Vorteil sein, aber sowas ändert sich auch schnell wieder. Wobei ich bei der Wahl der HighEnd Karten, deutlich zur X1800XT tendiere.

Und außerdem warum sollte NV keine Probs mit dem 90nm Prozess haben. Ich glaube ATI wird in Zukunft der unangefochtene Köng der 3D Szene werden. NV hats nicht verdiehnt....

Pirx
2005-11-07, 21:45:01
...
Was sagt uns das für die Zukunft?
Der Grafikchipentwickler, der auf einen neuen Herstellungsprozess und ein neues Design setzt, ist am Anfang immer leicht ge*rscht.

nV will mit dem weniger aufwändigen 6800GS (im Vergleich zur 6800GT) eine höhere Marge erreichen.

Die gelbeEule soll sich mal in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=81633&highlight=bias) offenbaren.:D

Die gelbe Eule
2005-11-07, 21:56:51
Und außerdem warum sollte NV keine Probs mit dem 90nm Prozess haben. Ich glaube ATI wird in Zukunft der unangefochtene Köng der 3D Szene werden. NV hats nicht verdiehnt....

Weil es Ihn schon länger gibt und NV sich dann auf gute Yields stützen kann.


Die gelbeEule soll sich mal in diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=81633&highlight=bias) offenbaren.:D

Passt meine S3TrioV64+ net so ganz rein ^^

Spasstiger
2005-11-07, 22:02:33
Was sagt uns das für die Zukunft?

Du möchtest jetzt sicherlich hören, dass man lieber nicht mehr bei ATI kaufen sollte, da sie nix auf die Reihe bekommen, und man wieder Nvidia das Monopol überlassen sollte. Denn dann gibts keine Inkompatabilitäten mehr in Spielen und es gibt auch nicht jedes halbe Jahr neue Grafikchips.
War es das, was du hören wolltest?

Coda
2005-11-07, 22:10:04
Und außerdem warum sollte NV keine Probs mit dem 90nm Prozess haben. Ich glaube ATI wird in Zukunft der unangefochtene Köng der 3D Szene werden. NV hats nicht verdiehnt....Genau. Weil du glaubst das sie es nicht verdient haben ( :crazy2: ) wird es so passieren.

Es sind beides kapitalistische Aktiengesellschafen die beide genau das machen was die Aktionäre wollen. Das sollten sich manche mal hinters Ohr schreiben. Die wollen nicht Friede Freude Eierkuchen sondern euer Geld.

ATi hatte kein Problem mit 90nm sondern einen Bug in externer IP. Noch dazu ist das Design nicht sonderlich glücklich anscheinend, da es zu hohe Taktraten braucht.

Die gelbe Eule
2005-11-07, 22:15:59
Du möchtest jetzt sicherlich hören, dass man lieber nicht mehr bei ATI kaufen sollte, da sie nix auf die Reihe bekommen, und man wieder Nvidia das Monopol überlassen sollte. Denn dann gibts keine Inkompatabilitäten mehr in Spielen und es gibt auch nicht jedes halbe Jahr neue Grafikchips.
War es das, was du hören wolltest?

Dann hätte ich danach gefragt oder?

Schon mal den Header gelesen?

Dunkeltier
2005-11-07, 22:42:41
(...)


Ist nVidia an der Geforce 5800 oder 5900 verreckt? Nein? Also, wo ist dein Problem? Außerdem ist die Radeon X1800 XT Designmäßig kein Fehlschlag, sondern hat lediglich einen etwas späteren Markteintritt. Das gabs bei nVidia auch häufiger (ich erinnere nur an die verspäte Geforce FX Serie, wo die Geforce 4 Ti sich gegen die Radeon 9700 behaupten mußte).

Coda
2005-11-07, 22:45:59
Natürlich wird ATi nicht an sowas insolvent gehen, da muss vorher noch viel viel mehr passieren.

Aber "öfter" ist nicht "einmal" ;)

deekey777
2005-11-07, 23:11:55
Natürlich wird ATi nicht an sowas insolvent gehen, da muss vorher noch viel viel mehr passieren.
Irgendwie denken alle nur an die Grafikchip-/Grafikkartensparte von ATi. Erst vor Kurzem begann ATi Intel im Mainboard-Bereich auszuhelfen, dabei kommt noch der Erfolg im Multimedia-Bereich.
Dennoch waren die letzten 12-16 Monate alles andere als rosig. Aber es gibt da eine Grafikchipfirma aus Kalifornien, die fast gleich mit dem ersten Grafikchip beinahe aufhörte zu existieren.

Aber "öfter" ist nicht "einmal" ;)
Wie meinen? :confused:

1. HighEnd: Der G70 legt monatelang vor, R520 zieht nach, der neue G70 holt weiter aus ...

2. Mainstream: X1600XT wird angekündigt, ist aber nicht erhältlich. NV setzt die 6800 GS dagegen und schlägt Ihr ATi Pendant in allen Belangen, sogar der 110nm Prozess verbaucht weniger Leistung als der 90nm von ATi.

6800GS vs. X1600XT (http://www.hkepc.com/hwdb/6800gs6600ddr2-3.htm)

3. LowEnd: NV läßt die 6600 DDR2 gegen die X1300PRO antreten und gewinnt deutlich. Dabei sind noch nichtmal die G7X Derivate erhältlich.
Warum zum Teufel vergleichst du die 6800GS mit der X1600XT? Oder die X1300Pro mit der 6600?
Die 6800GS bzw. deren NV42 ist ein "unterer" Highend-Chip, der NV43 ist immer noch ein Midrange-Chip.

Coda
2005-11-07, 23:14:18
Aber es gibt da eine Grafikchipfirma aus Kalifornien, die fast gleich mit dem ersten Grafikchip beinahe aufhörte zu existieren.Ein Startup hat es immer schwer ;)

Wie meinen? :confused:"Das gabs bei nVidia auch häufiger" - nein, einmal.

Benedikt
2005-11-07, 23:27:18
Was ich persönlich nicht ganz verstehen mag, ist, wie man zu einer HighEnd-Karte mit
a.) höherem Stromverbrauch
b.) taktnormalisiert niedrigerer Leistung
c.) höherem Preis und
d.) schlechterer Verfügbarkeit
tendieren kann, abseits von ideologischen Gründen.
Der einzige für mich wirklich erkennbare technische Vorteil der ATI x1000-Serie ist das winkelunabhängige AF, das Threading-Konzept und teilweise der "programmierbare" Speichercontroller, wobei der ganz nett ist aber die Karte auch nicht vor die NV-Pendants bringt. TAA gibts bei Nvidia ebenfalls, PS/VS3.0 auch (sogar mit mehr Features), etwas zu AVIVO vergleichbares auch, und HDCP ist für mich nicht von Belang.

Ich hätte mir wenigstens einen durch die 90nm-Technologie niedrigeren Stromverbrauch erwartet, oder zumindest einige technische Verbesserungen aus dem Mobility-Bereich. Was der ATI-Chip schon idle unter Windows verschlingt, gefällt mir gar nicht.

Klärt mich bitte auf, welche erkennbaren Vorteile eine ATI x1800XT gegenüber eine Nvidia 7800GTX hat!?

Und nein, das soll kein Flame sein!

Die gelbe Eule
2005-11-07, 23:31:11
Warum zum Teufel vergleichst du die 6800GS mit der X1600XT? Oder die X1300Pro mit der 6600?
Die 6800GS bzw. deren NV42 ist ein "unterer" Highend-Chip, der NV43 ist immer noch ein Midrange-Chip.

Warum setzt ATi den MRSP für die X1600XT auf 249$ fest und die 6800GS kommt auf den $ genau genauso daher?
Ich weiß es nicht, du vielleicht?

Die 6600DDR2 kostet unterhalb von 120$, die X1300pro kostet hierzulande 115€. Vergleich somit gegeben.

Preis/Leistung ist das Stichwort. Warum etwas als besser verkaufen, was andere bereits anbieten?

Ist nVidia an der Geforce 5800 oder 5900 verreckt? Nein? Also, wo ist dein Problem? Außerdem ist die Radeon X1800 XT Designmäßig kein Fehlschlag, sondern hat lediglich einen etwas späteren Markteintritt. Das gabs bei nVidia auch häufiger (ich erinnere nur an die verspäte Geforce FX Serie, wo die Geforce 4 Ti sich gegen die Radeon 9700 behaupten mußte).

Habe ich ein Problem? Nur Fakten zusammengetragen, das war alles. Stört es dich das die Fakten so aussehen?
Vom Design habe ich übrigens nie gesprochen, nur von der Markteinführung und auch -politk wenn man so mag.

deekey777
2005-11-07, 23:41:50
Warum setzt ATi den MRSP für die X1600XT auf 249$ fest und die 6800GS kommt auf den $ genau genauso daher?
Ich weiß es nicht, du vielleicht?


Kennst du noch die Folie, wo ATi sich beschwert hat, daß nVidia den MSRP falsch setzt? Und ATi hat den MSPRP von $249 zuerst gewählt (mich würde es nicht wundern, wenn dieser gesenkt wird).
Viel interessanter ist für den Endverbraucher doch der Endpreis im Laden: Die X1600XT wird am Anfang wahrscheinlich das gleiche kosten wie die 6800GS, da die Verfügbarkeit zunächst den Preis bestimmen wird (die 6800GS wird schon verkauft, auch wenn nicht in Deutschland). Wird die Verfügbarkeit gewährleistet, dann bestimmt die Nachfrage den Preis. Die X1600XT wird im Preis fallen, die 6800GS auch, aber sie würde dann die Käufer von der 6800 256 MB abhalten.
Und die 6800GS spielt immer noch in einer anderen Liga.

reunion
2005-11-07, 23:50:54
1. HighEnd: Der G70 legt monatelang vor, R520 zieht nach, der neue G70 holt weiter aus ...


Diese Situation ergab sich nur aufgrund eines Designfehlers, R520 hatte vor G70 sein Tapeout, ohne diese Fehler würde die Sache vermutlich etwas anders aussehen.


2. Mainstream: X1600XT wird angekündigt, ist aber nicht erhältlich. NV setzt die 6800 GS dagegen und schlägt Ihr ATi Pendant in allen Belangen, sogar der 110nm Prozess verbaucht weniger Leistung als der 90nm von ATi.


RV530 hatte die selben Probleme wie R520.
Das mit dem Stromverbrauch ist aber definitiv Bullshit.


3. LowEnd: NV läßt die 6600 DDR2 gegen die X1300PRO antreten und gewinnt deutlich. Dabei sind noch nichtmal die G7X Derivate erhältlich.


Genausowenig wie die 6600 DDR2.


Das soll kein Bash sein! Irgendwie kommt es mir so vor, also hätte ATi zwar mehr Zeit gehabt, sie aber nicht richtig genutzt. NV kann immer nachlegen und bietet Verfügbarkeit an.

Was sagt uns das für die Zukunft?

ATi hatte viel Pech mit dem R400, welcher für die damalige Zeit schlicht zu fortschrittlich, und damit zu langsam war - außerdem kam auch noch die Vista-Verschiebung dazu. R420 und R520 sind zwei Notlösungen, die daraus entstanden. Für die Zukunft hat das IMHO nicht viel zu bedeuten, diese Entwicklung war zu erwarten. Dave Orton deutete nicht umsonst schon mehrmals an, dass die Trauben bei R600 sehr hoch hängen werden.

Die gelbe Eule
2005-11-07, 23:51:48
Kennst du noch die Folie, wo ATi sich beschwert hat, daß nVidia den MSRP falsch setzt? Und ATi hat den MSPRP von $249 zuerst gewählt (mich würde es nicht wundern, wenn dieser gesenkt wird).
Viel interessanter ist für den Endverbraucher doch der Endpreis im Laden: Die X1600XT wird am Anfang wahrscheinlich das gleiche kosten wie die 6800GS, da die Verfügbarkeit zunächst den Preis bestimmen wird (die 6800GS wird schon verkauft, auch wenn nicht in Deutschland). Wird die Verfügbarkeit gewährleistet, dann bestimmt die Nachfrage den Preis. Die X1600XT wird im Preis fallen, die 6800GS auch, aber sie würde dann die Käufer von der 6800 256 MB abhalten.
Und die 6800GS spielt immer noch in einer anderen Liga.


Das ist alles Spekulation. Fakt ist, es gibt keine X1600XT zu kaufen. Fakt ist, der MSRP steht bei 249$ für die X1600XT. Fakt ist, die 6800GS ist erhältlich und schlägt die X1600XT deutlich.

Wer ist also so doof und kauft sich die X1600XT die doch langsamer ist als die 6800GS?
Andere Liga hin oder her, es geht um den Preis und das was man dafür bekommt. Und hier bekommt man eine Karte der anderen Liga zum Preis einer schlechteren Karte bei der Konkurrenz.

Diese Situation ergab sich nur aufgrund eines Designfehlers, R520 hatte vor G70 sein Tapeout, ohne diese Fehler würde die Sache vermutlich etwas anders aussehen.

Ist aber jetzt Makulatur und wenn und aber haben keinen Bestand mehr.


RV530 hatte die selben Probleme wie R520.
Das mit dem Stromverbrauch ist aber definitiv Bullshit.

Der Vorteil liegt klar bei der NV Karte, bei den ProATi weniger, bei anderen eher mehr.


Genausowenig wie die 6600 DDR2.

In Asien gibt es die Karte schon. Du wirst lachen, aber ATi hat sogar eine 9550 DDR2 neu im Programm.


ATi hatte viel Pech mit dem R400, welcher für die damalige Zeit schlicht zu fortschrittlich, und damit zu langsam war - außerdem kam auch noch die Vista-Verschiebung dazu. R420 und R520 sind zwei Notlösungen, die daraus entstanden. Für die Zukunft hat das IMHO nicht viel zu bedeuten, diese Entwicklung war zu erwarten. Dave Orton deutete aber schon mehrmals an, dass die Trauben bei R600 sehr hoch hängen werden.

Man verspricht gerne viel, egal ob rot oder grün. Die Notlösungen haben Martkanteile und Verluste beschert. Heutzutage tut sowas mehr weh als früher.

MadManniMan
2005-11-07, 23:58:01
Was ich persönlich nicht ganz verstehen mag, ist, wie man zu einer HighEnd-Karte mit
a.) höherem Stromverbrauch
b.) taktnormalisiert niedrigerer Leistung
c.) höherem Preis und
d.) schlechterer Verfügbarkeit
tendieren kann, abseits von ideologischen Gründen.
Der einzige für mich wirklich erkennbare technische Vorteil der ATI x1000-Serie ist das winkelunabhängige AF, das Threading-Konzept und teilweise der "programmierbare" Speichercontroller, wobei der ganz nett ist aber die Karte auch nicht vor die NV-Pendants bringt. TAA gibts bei Nvidia ebenfalls, PS/VS3.0 auch (sogar mit mehr Features), etwas zu AVIVO vergleichbares auch, und HDCP ist für mich nicht von Belang.

Ich hätte mir wenigstens einen durch die 90nm-Technologie niedrigeren Stromverbrauch erwartet, oder zumindest einige technische Verbesserungen aus dem Mobility-Bereich. Was der ATI-Chip schon idle unter Windows verschlingt, gefällt mir gar nicht.

Klärt mich bitte auf, welche erkennbaren Vorteile eine ATI x1800XT gegenüber eine Nvidia 7800GTX hat!?

Und nein, das soll kein Flame sein!

Zum fett markierten - ist das tatsächlich irgendwie von Belang?

Ansonsten: viel Wunschdenken und Glaube, richtig. Aber das AF wäre für mich (hätte ich Geld für sowas, Gott bewahre!) Argument genug, ne X1800 XT ner 7800 GTX vorzuziehen.

thade
2005-11-08, 00:00:30
Genau. Weil du glaubst das sie es nicht verdient haben ( :crazy2: ) wird es so passieren.

Es sind beides kapitalistische Aktiengesellschafen die beide genau das machen was die Aktionäre wollen. Das sollten sich manche mal hinters Ohr schreiben. Die wollen nicht Friede Freude Eierkuchen sondern euer Geld.

ATi hatte kein Problem mit 90nm sondern einen Bug in externer IP. Noch dazu ist das Design nicht sonderlich glücklich anscheinend, da es zu hohe Taktraten braucht.

Ja beruhig dich. ATI ist ne Firma die ist ein bischen Humaner was Konkurrenz angeht. Was es da alles von NV gibt...

Schonmal was von der Akte NV gehört? Deswegen gönn ichs den Kaliforniern nicht. ATI ist seid Ende 2002 Spitze und NV muss sich mächtig anstrengen, wie zB mit HDR und AA. Das können sie nicht einfach mit nem Treiber nachliefern, das kann der G70 halt einfach nicht. Und welche Show NV immer abzieht in Sachen BQ, da will ich ja gar nicht anfangen. Hatten sie bei der FX noch gutes AF, konnten sie kein gscheites FSAA abliefern usw usw. BQ und NV das passt einfach nicht !!!

deekey777
2005-11-08, 00:08:43
Das ist alles Spekulation. Fakt ist, es gibt keine X1600XT zu kaufen. Fakt ist, der MSRP steht bei 249$ für die X1600XT. Fakt ist, die 6800GS ist erhältlich und schlägt die X1600XT deutlich.
Fakt ist, daß offiziell die Auslieferung der X1600er Serie erst Ende November/Anfang Dezember beginnt.

Wer ist also so doof und kauft sich die X1600XT die doch langsamer ist als die 6800GS?
Geht's noch?

Andere Liga hin oder her, es geht um den Preis und das was man dafür bekommt. Und hier bekommt man eine Karte der anderen Liga zum Preis einer schlechteren Karte bei der Konkurrenz.
...
Bist du Hellseher, daß du den Straßenpreis der X1600XT 256MB kennst, wenn deren Verfügbarkeit absolut (gewährleistet) ist?
Die 6800GS ist sehr teuer in der Herstellung: 256bit SI, fetter Chip, teueres und aufwendiges PCB der 7800GT. Da ist nicht viel Raum für einen guten Preis.

eXodia
2005-11-08, 00:14:05
Ja beruhig dich. ATI ist ne Firma die ist ein bischen Humaner was Konkurrenz angeht. Was es da alles von NV gibt...

Schonmal was von der Akte NV gehört? Deswegen gönn ichs den Kaliforniern nicht. ATI ist seid Ende 2002 Spitze und NV muss sich mächtig anstrengen, wie zB mit HDR und AA. Das können sie nicht einfach mit nem Treiber nachliefern, das kann der G70 halt einfach nicht. Und welche Show NV immer abzieht in Sachen BQ, da will ich ja gar nicht anfangen. Hatten sie bei der FX noch gutes AF, konnten sie kein gscheites FSAA abliefern usw usw. BQ und NV das passt einfach nicht !!!

Du hast die Mischmodi die es bei ATI net gibt vergessen, von SM3 wollen wir garnicht erst reden, zum Thema technologie, keine frage der R300 war eine Revolution, aber ATI hat sich einfach zu lange drauf ausgeruht...

Greetz

deekey777
2005-11-08, 00:14:11
Ja beruhig dich. ATI ist ne Firma die ist ein bischen Humaner was Konkurrenz angeht. Was es da alles von NV gibt...
Da gibt es auch schöne Sachen von ATi. Und du kannst beruhigt sein, daß Coda sehr objektiv ist, so stark objektiv, daß er davon fast grün wird. :biggrin:

Schonmal was von der Akte NV gehört? Deswegen gönn ichs den Kaliforniern nicht. ATI ist seit Ende 2002 Spitze, [...]
Nein, seit Längerem ist es mindestens ausgeglichen, eher liegt nVidia etwas vorne.

und NV muss sich mächtig anstrengen, wie zB mit HDR und AA. Das können sie nicht einfach mit nem Treiber nachliefern, das kann der G70 halt einfach nicht.
Das SSAA geht auch mit HDRR.
Und welche Show NV immer abzieht in Sachen BQ, da will ich ja gar nicht anfangen. Hatten sie bei der FX noch gutes AF, konnten sie kein gscheites FSAA abliefern usw usw. BQ und NV das passt einfach nicht !!!
Bei der Bildqualität hat ATi mit dem R420 eine Supershow abgeliefert.

Die gelbe Eule
2005-11-08, 00:19:38
Gegen wen oder was soll dann die X1600XT antreten? Die 7600 wird zwischen 7800GT und 6800GS sitzen. Lass mal die GT auf 300€ runter gehen, norsk-it hat sie schon für 320€, dann ist wieder mehr Raum nach unten. Das Preisgefüge wird also wieder verschoben.

thade
2005-11-08, 00:23:40
Du hast die Mischmodi die es bei ATI net gibt vergessen, von SM3 wollen wir garnicht erst reden, zum Thema technologie, keine frage der R300 war eine Revolution, aber ATI hat sich einfach zu lange drauf ausgeruht...

Greetz

Es stimmt ATI hat bei dem R420 auch Optimierungen eingebaut, trotzdem ist die BQ eines R420 besser als die des NV40.

Und wieder die SM3 Lüge. Jetzt nenn mir mal ein Spiel, dass wahnsinns SM3 Effekte hat um sich eine SM3 Karte kaufen zu müssen? Es gibt keins....

ATI hat es also richtig erkannt. Es war beim R420 nicht notwendig SM3 zu integrieren. Aber bei NV kennt man ja dieses gehype um ein Feature schon seid dem TNT.


Da gibt es auch schöne Sachen von ATi. Und du kannst beruhigt sein, daß Coda sehr objektiv ist, so stark objektiv, daß er davon fast grün wird. :biggrin:


Naja das hält sich im Rahmen. Wenn von ATI was kommt, dann ist es auch die Wahrheit und nicht nur reines Gebashe


Nein, seit Längerem ist es mindestens ausgeglichen, eher liegt nVidia etwas vorne.

Aber nur wegen der Verzögerung des R520...


Das SSAA geht auch mit HDRR.

Inwiefern? In Lost Coast? Der G70 kann doch keine richtiges HDR mit FSAA darstellen?


Bei der Bildqualität hat ATi mit dem R420 eine Supershow abgeliefert.

Ja in der Tat. Ne super Show und das ist nicht ironisch gemeint...

Spasstiger
2005-11-08, 00:25:25
Gegen wen oder was soll dann die X1600XT antreten? Die 7600 wird zwischen 7800GT und 6800GS sitzen.

Die GeForce 7600 wird nur 128 Bit Speicherbandbreite haben, mit einem hohem Speichertakt könntest du aber mit deiner Aussage noch recht haben.

Die gelbe Eule
2005-11-08, 00:26:51
Jungs wir sind eine Grafikgeneration weiter, alte Geschichten bitte alt lassen.
R5xx vs. NV40/G70, danke.

thade
2005-11-08, 00:28:25
Jungs wir sind eine Grafikgeneration weiter, alte Geschichten bitte alt lassen.
R5xx vs. NV40/G70, danke.

Da hat aber der NV40 nix verloren in der Next Generation. Er mag SM3 können, aber nur in ner Diashow...

eXodia
2005-11-08, 00:29:54
Da hat aber der NV40 nix verloren in der Next Generation. Er mag SM3 können, aber nur in ner Diashow...

Du weißt das SM3 die Graka beschleunigt...

thade
2005-11-08, 00:32:27
Du weißt das SM3 die Graka beschleunigt...

ja toll, die Effekte die sich mit Shader 2B auch darstellen lassen...

Bei richtigen SM3 Effekten bricht der NV40 gnadenlos ein, ihr werdet schon sehen ^^

Ri*g*g*er
2005-11-08, 00:33:15
Hi all,

das ist doch wieder alles zum LACHEN.

Es geht im Leben immer hin und her oder auf und ab.
Das ganze kann man sich wie eine Waage vorstellen und ist bestimmt nicht nur bei Grafikkarten so.
Mal ist der eine Hersteller für nen 1/2 Jahr vorne mal der andere.

Wichtig fürs uns Verbraucher ist doch nur eins.

Für den selbstgesteckten Preisrahmen das bevorzugte Produkt kaufen und glücklich sein.

Wer dabei objektive bleibt und sich nicht von Luftverbesserungen und unsinnigen Features blenden lässt bekommt ein Top Produkt.

Die sollen anstatt dicke Hardware auf den Markt zu schmeissen mal lieber die Softwareschmieden ankurbeln.
Vieleicht bekommen wir dann mal ein Innovatives, Fertiges und Spass machendes Spiel.

Und nicht wieder Teil 999 von irgend einem ausgelutschtem Genre was obendrauf noch ne billige Konsolenportation ist.

Mfg
Ri*g*g*er

PS:
Ich finde der gelbe Vogel sollte sich ein grünes N auf die Brust rasieren ;D

eXodia
2005-11-08, 00:35:11
ja toll, die Effekte die sich mit Shader 2B auch darstellen lassen...

Aber nur langsamer als mit SM3... :rolleyes:

thade
2005-11-08, 00:40:52
Aber nur langsamer als mit SM3... :rolleyes:

verstehst du mich net??? Is ja eh egal....

StefanV
2005-11-08, 00:43:32
Da hat aber der NV40 nix verloren in der Next Generation. Er mag SM3 können, aber nur in ner Diashow...
Tut mir leid, es dir so direkt sagen zu müssen, aber was du hier gerad geschrieben hast ist absoluter schwachsinn, der so falsch ist, das es glatt gelogen ist!

Schließlich muss man ja nicht alle Funktionen von SM3 nutzen, es langt ja auch, wenn man das nutzt, was man braucht :rolleyes:

€dit:
Du weißt das SM3 die Graka beschleunigt...
Diese Aussage ist genauso falsch wie die von Thade2001!!

Die gelbe Eule
2005-11-08, 00:43:32
Thade2001 hatte eben noch die Rail in der Sig, schnell mal eben mit ATi Flagge zeigen ^^

Vielleicht klappen manche mal die Augen auf und sehen nicht das gebashe sondern die Fakten.

eXodia
2005-11-08, 00:46:21
verstehst du mich net??? Is ja eh egal....

Dann klär mein unwissen doch bitte auf... du behauptest das man die Effekte mit SM2.b machen kann, ich sage das es langsamer ist als diese mit SM3 zu berechnen und dann sagst du das ich dich nich verstehe... wo ist da jetzt bitte der Punkt? Vielleicht hatte ich doch recht?

eXodia
2005-11-08, 00:51:42
Diese Aussage ist genauso falsch wie die von Thade2001!!

Dann klär mich doch bitte auf, aber soviel ich weiß ist es wirklich so, zwar nicht viel, aber FarCry wurde duch die Nutzung des SM3-Pfades 4-7% schneller.

Hier mal ein Link: DA (http://www.firingsquad.com/hardware/far_cry_sm30/page18.asp)

Teilweise bis zu 18%, in der Regel aber 5%, also was ist an dieser Performance for free so schlimm...

Greetz

thade
2005-11-08, 00:54:48
Tut mir leid, es dir so direkt sagen zu müssen, aber was du hier gerad geschrieben hast ist absoluter schwachsinn, der so falsch ist, das es glatt gelogen ist!

Schließlich muss man ja nicht alle Funktionen von SM3 nutzen, es langt ja auch, wenn man das nutzt, was man braucht :rolleyes:

€dit:

Diese Aussage ist genauso falsch wie die von Thade2001!!

Tut mir leid, es dir so direkt sagen zu müssen, aber du hast ne Logik :rolleyes:

Für was dann überhaupt Shader 3? Für was?


Thade2001 hatte eben noch die Rail in der Sig, schnell mal eben mit ATi Flagge zeigen ^^


Sicher man muss manchmal einfach Flagge zeigen :D


Dann klär mein unwissen doch bitte auf... du behauptest das man die Effekte mit SM2.b machen kann, ich sage das es langsamer ist als diese mit SM3 zu berechnen und dann sagst du das ich dich nich verstehe... wo ist da jetzt bitte der Punkt? Vielleicht hatte ich doch recht?

Es ließen sich viele Effekte auch mit Shader 2B realisieren. Sie sind nur schwerer zu proggen... Und ich kauf mir doch keine SM3 Karte, um dann nur ein paar kleinere Effekte zu sehen, die auch mit Shader 2b möglich sind. Wenn schon SM3 dann bombast Effekte und da versagt der NV40, selbst die X1800Xt und G70 Reihe tut sich da schwer.

Coda
2005-11-08, 01:00:23
Da hat aber der NV40 nix verloren in der Next Generation. Er mag SM3 können, aber nur in ner Diashow...Ein SM2 Shader der als SM3 kompiliert wird kann auf NV4x nur schneller laufen. Q.e.d.

Marc-
2005-11-08, 01:00:29
Das soll kein Bash sein!

Was sonst?
Sorry wenn ich so direkt frage, aber pellst du dir darauf einen, oder bekommst du zuwenig aufmerksamkeit, das du alle 3 tage einen thread mit grundsaetzlich gleichem inhalt starten musst? (nebenbei mit der ständig gleichen anmerkung, das es natürlich kein bashin sein soll- wieso musst du das eigentlich immer gleich dabei anmerken?)
Nochmals sorry... aber langsam nervts scho.
Zudem: was interessiert dich eigentlich wies mit ati weitergeht? du selbst hast doch offensichtlich deine kaufentscheidung fürs leben bereits geschlossen, anders ist dein gehabe nicht zu deuten.

Die gelbe Eule
2005-11-08, 01:04:05
Mein Eingangspost war sehr sachlich nur die ATi Fanboys hier machen es zum gebashe.
Deinen Ton in dem Post solltest mal umgehend überdenken.

Nerven=Ignore

Da Dein Post rein auf meine Person abzielt und nicht zum Thema, gibt es nur einen Button.

Weil es mich interessiert machte ich diesen Thread auf, weil ich die 6800GS und 6600 DDR2 Ergebnisse gesehen habe, wollte ich es niederschreiben. In meiner Sig werkelt solange eine S3 bis ich mich für eine andere Karte entschieden habe. Was meinst warum meine 6800GT verkauft ist?

StefanV
2005-11-08, 01:04:43
Tut mir leid, es dir so direkt sagen zu müssen, aber du hast ne Logik :rolleyes:

Für was dann überhaupt Shader 3? Für was?
1.Das ist Fakt, das, was ich sagte.
Man kann SM3 für das nutzen, was man will, obs nun zur Beschleunigung oder Verschönerung ist, ist den Spieleentwicklern überlassen.

2. es bietet neue Funktionen, die mit SM2.x nicht (oder nur schwer) möglich sind!
Dann klär mich doch bitte auf, aber soviel ich weiß ist es wirklich so, zwar nicht viel, aber FarCry wurde duch die Nutzung des SM3-Pfades 4-7% schneller.

Greetz
1. kann man SM3 auch zur Darstellung diverser anderer Objekte benutzen und die Performance 'irgendwie' 'verballern'.
2. kann das garnicht die GraKa beschleunigen, die Grafikausgabe unter gewissen Umständen und auch da nur, wenn man mit SM3 irgendwas sparen kann

MadManniMan
2005-11-08, 01:10:19
Was sonst?
Sorry wenn ich so direkt frage, aber pellst du dir darauf einen, oder bekommst du zuwenig aufmerksamkeit, das du alle 3 tage einen thread mit grundsaetzlich gleichem inhalt starten musst? (nebenbei mit der ständig gleichen anmerkung, das es natürlich kein bashin sein soll- wieso musst du das eigentlich immer gleich dabei anmerken?)
Nochmals sorry... aber langsam nervts scho.
Zudem: was interessiert dich eigentlich wies mit ati weitergeht? du selbst hast doch offensichtlich deine kaufentscheidung fürs leben bereits geschlossen, anders ist dein gehabe nicht zu deuten.

Er hinterfragt kritische die Position ATis - und faßt im Eingangspost sauber zusammen, daß die Preis-Leistung der R5XX eher mau im Vergleich zur Konkurrenz ist. Von daher kann ich Deine Aufgeregtheit nicht verstehen - was hat er in der letzten Zeit denn geschrieben?

Und Thade, es geht ja wohl kaum deutlicher, daß Du alles von nV schlecht sehen willst.
Von daher ... was willst Du mit Deiner Einstellung erreichen - "gibt" Dir ATi irgendwas? Du würdest Dich wundern, was die Dir alles verkaufen würden.

thade
2005-11-08, 01:10:41
1.Das ist Fakt, das, was ich sagte.
Man kann SM3 für das nutzen, was man will, obs nun zur Beschleunigung oder Verschönerung ist, ist den Spieleentwicklern überlassen.

2. es bietet neue Funktionen, die mit SM2.x nicht (oder nur schwer) möglich sind!


Zur Beschnleunigung? Inwiefern? Das non Shader3 Effekte schneller laufen? Warum rockt der R420 den NV so dermaßen?

Es ging hier darum, dass der NV40 bei zukünfitgen SM3 Games gnadenlos untergeht. Der NV40 tut sich ja mit Shader 2 schon recht schwer :biggrin:

Spasstiger
2005-11-08, 01:10:58
Was sonst?
Sorry wenn ich so direkt frage, aber pellst du dir darauf einen, oder bekommst du zuwenig aufmerksamkeit, das du alle 3 tage einen thread mit grundsaetzlich gleichem inhalt starten musst? (nebenbei mit der ständig gleichen anmerkung, das es natürlich kein bashin sein soll- wieso musst du das eigentlich immer gleich dabei anmerken?)

Mein Eingangspost war sehr sachlich nur die ATi Fanboys hier machen es zum gebashe.
Deinen Ton in dem Post solltest mal umgehend überdenken.

Hier haben sich zwei gefunden. ;D

mapel110
2005-11-08, 01:11:55
Wenn schon SM3 dann bombast Effekte und da versagt der NV40, selbst die X1800Xt und G70 Reihe tut sich da schwer.
Der Übergang wird fließend sein bzw er ist fließend. Und für diesen fließenden Übergang reicht NV40 aus.

Und dass es kleinere Effekte sind, die man auf NV40 mit SM3 bewundern kann, ist wohl falsch. Meistens waren diese Effekte gerade bildschirmfüllend. HDR(jaja, kein SM3, aber eben NV40 und höher) in Farcry, Softshadows in Riddick, Vertextexturing Wasser in Pacific Fighters etc pp

eXodia
2005-11-08, 01:12:56
1. kann man SM3 auch zur Darstellung diverser anderer Objekte benutzen und die Performance 'irgendwie' 'verballern'.
2. kann das garnicht die GraKa beschleunigen, die Grafikausgabe unter gewissen Umständen und auch da nur, wenn man mit SM3 irgendwas sparen kann

1.) Soweit mir bekannt werden bei FarCry mehr Effekte dargestellt (die man zwar nicht wirklich sieht, aber egal) und das Game rennt trotzdem schneller
2.) Ach nein... , man spart dadurch das die Effekte einfacher zu programmieren sind und schneller zu abzuarbeiten sind...

http://www.firingsquad.com/hardware/far_cry_sm30/page18.asp

StefanV
2005-11-08, 01:12:59
das die R420 so viel schneller ist, liegt hauptsächlich im Taktvorteil begründet, da beide ja bakanntlich 16 Pipelines haben (können), was im Endeffekt auf einen Füllratenvorteil hinaus läuft.

Oder andersrum:
Die ATis haben eine weitaus höhere 'Rohpower' als die nV40 Teile...


PS: bei deinen 'zukünftigen SM3 Games' werden aber auch die ATis gnadenlos untergehen, wobei man auch noch davon ausgehen kann, das man nicht alle Effekte bewundern können wird, als ATi User...

Coda
2005-11-08, 01:13:03
Zur Beschnleunigung? Inwiefern? Das non Shader3 Effekte schneller laufen? Warum rockt der R420 den NV so dermaßen?Weil er wesentlich mehr Füllrate hat. Mit SM3 kann man Berechnungen kompakter ausdrücken als mit SM2, d.h. jeder SM2 Shader der die selbe Funktionalität erfüllt wird auf NV4x mindestens gleichschnell, aber meistens schneller laufen.

Es ging hier darum, dass der NV40 bei zukünfitgen SM3 Games gnadenlos untergeht. Der NV40 tut sich ja mit Shader 2 schon recht schwer :biggrin:Nein tut er nicht, NV40 hat mehr Shaderleistung als R420. Was fehlt ist Füllrate. Es ist eher im Gegenteil so, dass je mehr Shader verwendet werden der NV4x immer schneller wird.

thade
2005-11-08, 01:13:47
Und Thade, es geht ja wohl kaum deutlicher, daß Du alles von nV schlecht sehen willst.
Von daher ... was willst Du mit Deiner Einstellung erreichen - "gibt" Dir ATi irgendwas? Du würdest Dich wundern, was die Dir alles verkaufen würden.

Das siehst du leider falsch. Ich hatte selbst genug NVs um mir eine Meinung bilden zu können. Auch hatte ich schon ne GTX, nur die BQ hat mich da verschreckt, nachdem ich es anfangs nicht glauben wollte...

Ich rede nicht alles schlecht, ich stelle nur einige Sachen richtig, die NV mit ihrem Hpye Marketing immer erreicht.

Coda
2005-11-08, 01:14:46
Wenn du dich dabei an die Wahrheit halten würdest wäre es ja legitim deine Meinung zu äußern - so ist es nur flaming.

eXodia
2005-11-08, 01:17:05
... d.h. jeder SM2 Shader der die selbe Funktionalität erfüllt wird auf NV4x mindestens gleichschnell, aber meistens schneller laufen.

Das hab ich doch gesagt, ich verstehe immer noch nicht was daran falsch sein soll :confused: - Stefan Payne, explanation pleetz

Greetz

Die gelbe Eule
2005-11-08, 01:18:01
Ich rede nicht alles schlecht, ich stelle nur einige Sachen richtig, die NV mit ihrem Hpye Marketing immer erreicht.

Wenn wir von Hype reden. Es wird immer etwas gepushed das nicht da ist oder nicht richtig funktioniert.

Was bringt mir ein Porsche mit tollsten Fahrleistungen, wenn ich mehr als 16 Monate auf mein Auto warten muss? Nichts. Also schaue ich mich vielleicht nach ähnlichen Modellen um, die verfügbar sind. Oder ich zahle ordentlich drauf und kann jetzt fahren.

thade
2005-11-08, 01:18:38
Weil er wesentlich mehr Füllrate hat. Mit SM3 kann man Berechnungen kompakter ausdrücken als mit SM2, d.h. jeder SM2 Shader der die selbe Funktionalität erfüllt wird auf NV4x mindestens gleichschnell, aber meistens schneller laufen.

Nein tut er nicht, NV40 hat mehr Shaderleistung als R420. Was fehlt ist Füllrate. Es ist eher im Gegenteil so, dass je mehr Shader verwendet werden der NV4x immer schneller wird.


ja toll warum rockte dann der NV30/35 den R300/R350 nicht? Da waren auch erhebliche Taktunterschiede

Der NV40 hat mehr ShaderPower als der R420? Sicher? Und warum ist der R420 in den wichtigsten DX9 Games vorne? Vor allem bei aktiviertem FSAA?

Der NV30 konnte ja auch mehr darstellen als der R300. Wir sehen ja welche zukünfitgen Games auf welcher Karte besser laufen...

Ich sag nur die DirectX 9.1 Lüge....

Die gelbe Eule
2005-11-08, 01:22:26
DirectX 9.1 Lüge?

Es gibt nur DX9.0c ...


Bleib bitte beim Thema und schau Dir die Vergleiche an. Dort heißt es, aktuelle Produktlinine ATi gegen aktuelle Produktlinie NV.

LowEnd - Mainstream - Highend

thade
2005-11-08, 01:24:39
DirectX 9.1 Lüge?

Es gibt nur DX9.0c ...



Ja weiteres Hype Marketing von NV. Viele hofften damals auf DX9.1. Und viele glaubten auch, dass dann der NV30 den R300 rocken wird...

Glaub niemals, dass was NV sagt ^^

Die gelbe Eule
2005-11-08, 01:28:33
Hö? Nun drehst aber ganz ab ...

Und was hätte dann DX9.1 gebracht für den Endkunden? SM4.0?
Und darauf warten immernoch alle und weil sie es nicht bekommen haben, kauft keiner mehr NV?

Coda
2005-11-08, 01:29:05
ja toll warum rockte dann der NV30/35 den R300/R350 nicht? Da waren auch erhebliche TaktunterschiedeWer redet von Takt? Überhaupt war NV3x eine 4x2 Architektur und R300 8x1. Deshalb darf man schon gar nicht nach Takt vergleichen. Die Shaderperformance von NV3x war aber wirklich nicht gut im FP-Modus.

jDer NV40 hat mehr ShaderPower als der R420? Sicher? Und warum ist der R420 in den wichtigsten DX9 Games vorne? Vor allem bei aktiviertem FSAA?Ja, ganz sicher. Was sind deiner Meinung nach die "wichtigsten DX9 Games". Das ganze Zeug bisher ist vor allem Füllratenlimitiert.

Der NV30 konnte ja auch mehr darstellen als der R300. Wir sehen ja welche zukünfitgen Games auf welcher Karte besser laufen...Der Unterschied ist, dass NV4x eine solide ALU-Leistung hat, das kannst du nicht mit NV3x vergleichen. Das einzige was an SM3 bei NV4x langsam ist, ist das dynamische branching, das aber nicht eingesetzt werden muss sondern auch nur dann wenn es Leistung bringt.

jIch sag nur die DirectX 9.1 Lüge....Was hat das mit NV4x zu tun?

Überhaupt hat nVIDIA nirgends jemals etwas von DX 9.1 gesagt. Das kam alles vor allem von Inquirer.

Spasstiger
2005-11-08, 01:30:06
Bleib bitte beim Thema und schau Dir die Vergleiche an. Dort heißt es, aktuelle Produktlinine ATi gegen aktuelle Produktlinie NV.

LowEnd - Mainstream - Highend

Dann darfst du aber nicht die GeForce 6800 GS gegen die Radeon X1600 XT vergleichen, da die GeForce 6800 GS ein 256 Bit Speicherinterface hat (nach IHV-Auffassung nicht Mainstream), während die X1600 XT über ein 128 Bit Interface verfügt (nach IHV-Auffassung Mainstream).

Coda
2005-11-08, 01:35:26
ATI ist ne Firma die ist ein bischen Humaner was Konkurrenz angeht.Wie kommst du denn bitte zu der Annahme? Weil sie 3Dfx gekauft haben oder was? "Die Firma" = Aktionärsversammlung in dem Fall und die wechselt mit dem Kapitalanteil.

Der CEO von ATi würde sofort abgesägt werden wenn er in der Position von NV damals nicht auch 3Dfx gekauft hätte.

Schonmal was von der Akte NV gehört? Deswegen gönn ichs den Kaliforniern nicht.Och bitte, mit den Kindereien wollen wir jetzt nicht anfangen. Das ist eine verdammt einseitige Betrachtung. Es gibt von ATi ähnliche Marketing-Spielchen

ATI ist seid Ende 2002 Spitze und NV muss sich mächtig anstrengen, wie zB mit HDR und AASeit. Klar, das ist ja gerade ja auch wahnsinnig relevant...

Das können sie nicht einfach mit nem Treiber nachliefern, das kann der G70 halt einfach nicht.Und R520 kann weder FP-Filtering noch Vertex-Texturing

Und welche Show NV immer abzieht in Sachen BQ, da will ich ja gar nicht anfangen. Hatten sie bei der FX noch gutes AF, konnten sie kein gscheites FSAA abliefern usw usw. BQ und NV das passt einfach nicht !!!Die Bildqualität von G70 ist mit den letzten Treibern und HQ absolut brauchbar.

Du kannst weiter in deiner Traumwelt leben oder langsam mal aufwachen.

thade
2005-11-08, 01:41:13
Wer redet von Takt? Überhaupt war NV3x eine 4x2 Architektur und R300 8x1. Deshalb darf man schon gar nicht nach Takt vergleichen. Die Shaderperformance von NV3x war aber wirklich nicht gut im FP-Modus.

Im Grunde genommen ist es egal ob nun 4*2 oder 8*1. Das kommt doch aufs selbe raus... Der NV30 konnte doch nur mit 16 oder 32Bit Präzision rechnen. Deswegen auch die schleche Performance. Kann der NV40 22Bit?


Ja, ganz sicher. Was sind deiner Meinung nach die "wichtigsten DX9 Games". Das ganze Zeug bisher ist vor allem Füllratenlimitiert.

FarCry, HL2, BF2 ....


Der Unterschied ist, dass NV4x eine solide ALU-Leistung hat, das kannst du nicht mit NV3x vergleichen. Das einzige was an SM3 bei NV4x langsam ist, ist das dynamische branching, das aber nicht eingesetzt werden muss sondern auch nur dann wenn es Leistung bringt.

Aber du glaubst doch nicht ernsthaft an ein flüssiges Gameplay mit richtigen SM3 Effekten aufm nem NV40?



Was hat das mit NV4x zu tun?
Überhaupt hat nVIDIA nirgends jemals etwas von DX 9.1 gesagt. Das kam alles vor allem von Inquirer.

Nix, dass mit DX9.1 bezog sich auf den NV30. Diese Nachricht geisterte schon lange Zeit durchs Netz. Viele schluckten den Schmarn und kauften sich NV30/35...

Coda
2005-11-08, 01:43:32
Im Grunde genommen ist es egal ob nun 4*2 oder 8*1. Das kommt doch aufs selbe raus...Nein tut es nicht. 4x2 hat bei ungeraden Texturschichten deutliche Nachteile.

Der NV30 konnte doch nur mit 16 oder 32Bit Präzision rechnen. Deswegen auch die schleche Performance.Das hat damit nichts zu tun.

Kann der NV40 22Bit?Kein ATi oder NV-Chip konnte das jemals. Du meinst wohl FP24? Nein kann er nicht, aber das hat trotzdem nichts mit der Leistung zu tun.

FarCry, HL2, BF2 ....Da kommst du bei keinem in die Bereiche wo ALU-Leistung ausschlaggebend wäre.

Aber du glaubst doch nicht ernsthaft an ein flüssiges Gameplay mit richtigen SM3 Effekten aufm nem NV40?Nein, aber deutlich besser als auf R420.

Nix, dass mit DX9.1 bezog sich auf den NV30. Diese Nachricht geisterte schon lange Zeit durchs Netz. Viele schluckten den Schmarn und kauften sich NV30/35...Das kam trotzdem nicht von nVIDIA.

Ich habe damals selber Inq eine Mail geschickt dass er den Müll bitte für sich behalten soll. DX9 war von Anfang an bis SM3.0 spezifiziert und daran wird und wurde auch nichts geändert.

thade
2005-11-08, 01:45:32
Wie kommst du denn bitte zu der Annahme? Weil sie 3Dfx gekauft haben oder was? "Die Firma" = Aktionärsversammlung in dem Fall und die wechselt mit dem Kapitalanteil.
Der CEO von ATi würde sofort abgesägt werden wenn er in der Position von NV damals nicht auch 3Dfx gekauft hätte.

Nein nicht wegen 3DFX, 3DFX hatte ja zum Teil selbst Schuld. Schuld waren ja die Aktionäre...


Och bitte, mit den Kindereien wollen wir jetzt nicht anfangen. Das ist eine verdammt einseitige Betrachtung. Es gibt von ATi ähnliche Marketing-Spielchen

Wegen den ewigen Sticheleihen. Wird mal eine Firma konkurrenzfähig, schon gibts ein Bashschreiben von NV. Siehe Kyro, Radeon.


Die Bildqualität von G70 ist mit den letzten Treibern und HQ absolut brauchbar.
Du kannst weiter in deiner Traumwelt leben oder langsam mal aufwachen.

So brauchbar wie die BQ des NV40? Da muss ich laut lachen ^^.

Coda
2005-11-08, 01:47:24
Nein nicht wegen 3DFX, 3DFX hatte ja zum Teil selbst Schuld. Schuld waren ja die Aktionäre...

Wegen den ewigen Sticheleihen. Wird mal eine Firma konkurrenzfähig, schon gibts ein Bashschreiben von NV. Siehe Kyro, Radeon.Es gibt von ATi genau die gleichen dummen Marketing-Folien. Erst letztens zu X1000.

So brauchbar wie die BQ des NV40? Da muss ich laut lachen ^^.Wahrscheinlich hast du immer Quality gesehen, High Quality ist in Ordnung. Überhaupt sieht ATIs "hervorrangede Bildqualität" mit AI-On mitunder genauso scheiße aus wie NV-Quality. Aber das wird natürlich verschwiegen.

Seien wir mal ehrlich: Das Argument wird doch die ganze Zeit nur ins Feld geführt, weil man sonst keines hat - und dabei ist es noch nichtmal haltbar.

thade
2005-11-08, 01:50:57
Das hat damit nichts zu tun.
Kein ATi oder NV-Chip konnte das jemals. Du meinst wohl FP24? Nein kann er nicht, aber das hat trotzdem nichts mit der Leistung zu tun.

Ich meinte natürlich FP24. Aber war es nicht so, dass MS bei der Entwicklung von DX9, DX9 auf den R300 mehr zugeschnitten worden ist, weil NV noch nix abliefern konnte?


Nein, aber deutlich besser als auf R420.


Das verlangt ja auch keiner mit dem R420.



Das kam trotzdem nicht von nVIDIA.

Ich habe damals selber Inq eine Mail geschickt dass er den Müll bitte für sich behalten soll. DX9 war von Anfang an bis SM3.0 spezifiziert und daran wird und wurde auch nichts geändert.

Wieso hat sich da NV nicht distanziert, ist mir nix bekannt.

Coda
2005-11-08, 01:53:46
Ich meinte natürlich FP24. Aber war es nicht so, dass MS bei der Enticklung von DX9, DX9 auf den R300 entwickelt worden war, weil NV noch nix abliefern konnte?Nein. CineFX war gut mit FX12 was es in DX9 nicht gab. Das lief dumm für nVIDIA, spielt heute aber keine Rolle mehr.

Das verlangt ja auch keiner mit dem R420.Nein tun wir nicht. Aber NV4x ist trotzdem nicht "grottenlahm mit SM3". Er ist so schnell oder schneller als wie mit SM2 auch.

Wieso hat sich da NV nicht distanziert, ist mir nix bekannt.Weil es ihre Verkäufe sicher nicht gerade angeregt hätte. Wie gesagt maximaler Gewinn zählt - nichts anderes.

Genau die gleiche Scheiße macht ATi. Ich erinnere mich noch dass sie in geleakten Papers gesagt haben man soll Entwickler doch bitte solange von SM3 abbringen bis sie es selber haben. Same shit, different asshole.

thade
2005-11-08, 02:00:08
naja dann lassen wir Krampf, bin ja auch nicht sooo in drin in der Materie wie du ^^.

Zum bashen reichts aber allemal :biggrin:

Ich will damit nur sagen, dass mir das NV als Firma unsympathisch ist, denn sie ziehen jeden in den Dreck. ATI macht das nicht so unglücklich. Aber egal soll jeder der NV liebt bei NV bleiben und die ATIler sollen bei ATI bleiben. Punkt. Wobei ich mich nicht festlege auf eine Marke. Hatte ja selbst schon genug NVs und werde auch sicher irgendwann mal wieder eine NV kaufen, wenn sie denn die beste Karte ist...

Die gelbe Eule
2005-11-08, 02:05:26
Dann darfst du aber nicht die GeForce 6800 GS gegen die Radeon X1600 XT vergleichen, da die GeForce 6800 GS ein 256 Bit Speicherinterface hat (nach IHV-Auffassung nicht Mainstream), während die X1600 XT über ein 128 Bit Interface verfügt (nach IHV-Auffassung Mainstream).

Ich darf das nicht, aber ATi wollte das so. Oder darf eine Mainstream Karte einen MRSP von 250$ haben?
ATi könnte ein 256bit Interface anbieten, wenn sie nur wollten. Nur werden sie dann den Preis nicht mehr halten können. Wir haben das gleiche Spiel wie mit 6600GT und 6800NU.

Dunkeltier
2005-11-08, 02:29:14
(...)

Die Bildqualität von G70 ist mit den letzten Treibern und HQ absolut brauchbar.

(...)

Da wäre ich mir nicht so sicher. Abseits der üblichen Treiberfehler bin ich wohl evtl. auf eine neue Cheaterei gestoßen, die den trilinearen Filter betrifft. Allerdings muß ich dies noch eingehend untersuchen.

Und zwar steht der Treiber auf High-Quality, alle Optimierungen aus. Das tri-aF im Treiber steht auf 16x, im Spiel Natural Selection habe ich es über "gl_texturemode GL_LINEAR_MIPMAP_LINEAR" ebenfalls nochmals manuell erzwungen. Trotzdem wird nur bi-aF gefiltert.

Absicht oder versehen? Auch ein mehrmaliges neustarten der Spiele-Engine bringt nichts. Auch in Bf gibt es bei bestimmten, extremen Winkeln Auffälligkeiten. Wo man auf einmal aus dem Flugzeug heraus eine Bugwelle auf dem Rasen vor sich herschiebt, obwohl er am Boden stehend korrekt gefiltert wurde.

Ailuros
2005-11-08, 02:54:59
Und die 6800GS spielt immer noch in einer anderen Liga.

Mainstream und auf keinen Fall unterer high end wie vorher behauptet.

MadManniMan
2005-11-08, 03:06:17
Zum bashen reichts aber allemal :biggrin:

Ist also Deine Intention, für miese Stimmung zu sorgen? :|

Ich will damit nur sagen, dass mir das NV als Firma unsympathisch ist, denn sie ziehen jeden in den Dreck. ATI macht das nicht so unglücklich.

Und selbst, wenn es so wäre (was es nicht ist), würde sich die Hardware nicht ändern. Du kannst ja meinetwegen nV nich mögen, aber mußt Du deshalb etwas gegen die Grafikkarten haben? :| Die Hardware ist so leistungsfähig wie sie ist und da ändern die Marketingaussagen der PR-Abteilung auch nichts dran. Die Treibergeschichte war scheiße, aber irgendwann ist auch mal wieder gut.

Die gelbe Eule
2005-11-08, 03:23:22
Fakt ist, ATi bietet etwas im LowCost Segement an, sprich X550 für 55€, dann die X1300/HM/pro für 105-120€, wobei man die pro günstiger bekommt als die normale und die HM nirgends zu kaufen ist.
Danach kommt erstmal lange gar nichts, weil die X1600XT nicht auftaucht und wir steigen bei 380€ mit der X1800XL 256MB ein.

NV hat die 6200er für 50€, die 6600 DDR2 für 100€, die 6800GS für 230-250€, die 7800GT für 340€, die 7800GTX für 430€, kann also den Markt etwas besser füttern. Und alle Karten sind verfügbar.

Ich spreche mal gezielt nur die neuen Karten an.

Es sieht so aus als würde ATi Ihre Produktpalette neu ordnen wollen, nur leider fehlen dann nach unten hin die Karten, noch oben sind sie ja da. Spielchen wie mit den X800XT und X850 bei gleicher Architektur aber kleineren Taktraten, wird man sich nicht leisten wollen. Die X1600XT hat ja schon einen höheren Takt als die X1800XL default. Muss also schnell der R580 kommen damit man alles nach unten durchreichen kann und man kann mit der Architektur mehr rumspielen. Wenn dann noch die Hersteller Ihre XL/GT/GTO/GTO²/PRos/XTs/XT-PEs irgendwie nachwerfen wollen, die es ja leider immernoch in hohen Stückzahlen gibt, blickt niemand mehr durch.

Ailuros
2005-11-08, 03:37:37
Zum Thema: quo vadis ATI? Ohne Opfer gewinnt man keine Schlachten. Die einzige halbwegs logische Frage fuer mich waere ob die paar Leichen der letzten zwei Jahre sich fuer ATI auch auszahlen werden langfristig. IMHO ist die Antwort positiv denn ich sehe in ATI und/oder NVIDIA nicht nur zwei IHVs die ausschliesslich fuer den PC desktop Markt entwickeln wie viele andere hier.

ATI hat verdammt aggressiv in den Consolen-Markt eingegriffen und hat sich dort zwei sehr grosse Vertraege fuer IP-Verkauf sichern koennen. Im notebook Markt sind sie immer noch der zweifellose Marktfuehrer und sie streben danach (genauso wie NVIDIA) alternative Maerkte anzupeilen (was auch logisch ist fuer beide, da sie einfach zu gross geworden ist, um sich nur auf einen Markt zu konzentrieren). Noch dazu kommt dass ich das Gefuehl habe dass ATI sich noch besser im staendig wachsenden PDA/mobile Markt positionieren wird denn mir riecht es hier auch nach einem unified shader core.

Durch die zu vielen und zu komplexen Projekte auf einem Schlag (zwei Consolen sind eine Mordsarbeit), war es wohl zu erwarten dass nicht alles nach Plan laufen wuerde. Und ja hier leidete eben u.a. auch der PC Grafik-Markt.

Wo ich generell mit ATI's Politik nicht uebereinstimme sind andere Kleinigkeiten die eher Design-Entscheidungen betreffen; u.a. verkorkste CrossFire Realisierungen (macht R4xx/Crossfire denn ueberhaupt noch Sinn?) und der konstante seit 2 Jahren Versuch mit hoeheren Taktraten konkurrieren zu wollen. Einfach schlecht, nein eher miserabel fuer die Margen. Uebrigens verliert ATI hier einen ziemlichen Brocken im professionellen Markt mit dem R4xx/CF Fiasko, wo NVIDIA sowieso schon in einer wesentlich besseren Situation ist und auch wirklich momentan mit 3DLabs im high end Profi-Markt konkurriert.

Weder ATI selber noch die Verbraucher haben im Grunde Verspaetungen und teilweise schlechte Verfuegbarkeit gern. Ergo muessten sie in absehbarer Zeit zu radikalen Aenderungen ihrer Politik kommen, damit sie auch so schnell wie moeglich wieder ueber den Berg kommen. Ach ja und auf die ISVs koennte man auch etwas aufmerksamer werden; kein Wunder dass einige Mist erzaehlen von angeblichen unendlichen Schmiergeldern von der Konkurrenz fuer Spiele-Logos.

Das was viele nicht einsehen wollen oder koennen, ist die Tatsache dass es nie einen IHV gab der keine Probleme mit seinen Resourcen hatte wenn man parallel noch einen Consolen-Design auf dem Buckel hatte. Es mag zwar sein dass dieses eine ziemlich vereinfachte Illustration ist, aber es ist und bleibt Anteil einer Realitaet der sich selber ATI bewusst ist und nein es ist keine billige Ausrede.

Zu guter letzt: Kritik sollte aufbauend sein; NVIDIA hatte einen noch fetteren Brocken an Kritik durch die NV3x-Aera verdient und ATI wird natuerlich jetzt auch nicht verschont werden - nur ist das ganze Schlammasel nicht so schlimm wie mit NV30. ATI wird so schnell wie moeglich wieder auf die Beine kommen und es heisst eben - genauso wie bei NVIDIA - harte und noch haertere Arbeit.

Meine 2 cents und jetzt koennt Ihr gerne mit Eurem netten kleinen Flamewar weitermachen.

thade
2005-11-08, 04:22:28
Ist also Deine Intention, für miese Stimmung zu sorgen? :|

.

Das war eher ironisch gemeint ^^.

Die gelbe Eule
2005-11-08, 04:34:11
@Ailuros:

Klasse das Du Dich mit dem Thema wirklich auseinandersetzt und nicht im Dreck wühlst.
Es geht ja um das wohin gehst Du ATi, nicht um das auf welchen Weg warst Du.
Solche Konstellationen hat man selten, das ein Hersteller locker noch einen drauf setzen kann. Nun ist Bewegung im Markt und ich hoffe das bleibt so.
Wenn EA erfolgreich Updates seiner Spiele seit Jahren verkaufen kann, warum nicht ein Hersteller auch Grafikkarten?
Die Hersteller müssten den Kunden mehr binden, das man seine alte Hardware wieder abgeben kann und nur mit der Differenz und einem kleinen Abschlag die neue Generation kaufen kann.

Pirx
2005-11-08, 08:39:38
...
Die Hersteller müssten den Kunden mehr binden, das man seine alte Hardware wieder abgeben kann und nur mit der Differenz und einem kleinen Abschlag die neue Generation kaufen kann.
Frag doch mal bei nV an, ob sie damit einverstanden sind :wink:

StefanV
2005-11-08, 11:14:55
Das hab ich doch gesagt, ich verstehe immer noch nicht was daran falsch sein soll :confused: - Stefan Payne, explanation pleetz

Greetz
Du weißt das SM3 die Graka beschleunigt...
Diese Aussage ist genauso falsch wie die von Thade2001!!

Schau dir das, was du schriebst genau an, dann wirst du feststellen, das das ganz großer Blödsinn ist, den du da geschrieben hast!!

Zumal erstens man SM3 nicht unbedingt zur Beschleunigung nutzen muss und zum anderen beschleunigt das sicher nicht die GraKa, denn das würde ja bedeuten, das die Karte im 'SM3 Mode' mit höheren Takten läuft :ugly:

StefanV
2005-11-08, 11:18:14
ja toll warum rockte dann der NV30/35 den R300/R350 nicht? Da waren auch erhebliche Taktunterschiede
4x2 Pipes zu 8x1, wobei die 2. TMU der NV3x Teile nicht unbedingt nutzbar ist...


Der NV40 hat mehr ShaderPower als der R420? Sicher? Und warum ist der R420 in den wichtigsten DX9 Games vorne? Vor allem bei aktiviertem FSAA?

Weil er einen großen bis sehr großen Taktvorteil hat, da die Architektur ansonsten recht ähnlich ist (im Gegensatz zu nV3x), ist die R4x0 Generation meist schneller...


Der NV30 konnte ja auch mehr darstellen als der R300. Wir sehen ja welche zukünfitgen Games auf welcher Karte besser laufen...

Der NV30 war ein hochgetaktetes 4 Pipe Design mit einem schnellen 128bit Speicherinterface.

Am ehesten vergleichbar wäre damals die RV350 gewesen, bis auf die eine TMU, die meist nicht ins Gewicht fällt...

Heutzutage was ähnliches finden, ist nicht ganz leicht (4 Pipelines @450/500MHz mit 500MHz Speicher)...


Ich sag nur die DirectX 9.1 Lüge....
Was auch immer du damit sagen willst...

StefanV
2005-11-08, 11:24:32
Im Grunde genommen ist es egal ob nun 4*2 oder 8*1. Das kommt doch aufs selbe raus...

Nein, absolut nicht, wobei es auch noch auf die Architektur ankommt.
Denn man darf nicht (mehr) einfach nur TMUs zählen, seit dem wir Pixelshader 2.0 haben!
Denn wenn die nV30 nur 4 Pixelshadereinheiten hatte, die R300 aber derer 8, so ist die bescheidene Performance des nV3x nur mehr als verständlich...

PS: in X2 ist die nV30/35 schneller als die R300, aber auch nur weil das ein klassisches 'DX7 Game' ist.

Der NV30 konnte doch nur mit 16 oder 32Bit Präzision rechnen. Deswegen auch die schleche Performance. Kann der NV40 22Bit?

Nein, das hat absolut garnichts zu bedeuten!
Denn es ist recht irrelevant, ob man die Recheneinheiten auf 16bit oder 24bit oder gar 32bit auslegt, am Ende leisten sie doch alle das gleiche, auf 'ihrer' Präzision...
Sind halt nur ein wenig teurer...


Aber du glaubst doch nicht ernsthaft an ein flüssiges Gameplay mit richtigen SM3 Effekten aufm nem NV40?

Doch, siehe Age of Empires III, ok, das zock ich aktuell auf 'ner 6100 X-D


Nix, dass mit DX9.1 bezog sich auf den NV30. Diese Nachricht geisterte schon lange Zeit durchs Netz. Viele schluckten den Schmarn und kauften sich NV30/35...
Tja, viele glaubten auch, das man die bescheidene Shaderperformance durch 'nen neuen Treiber verbessern konnte und das TR:AOD nicht das beweist, was bewiesen wurde...

seahawk
2005-11-08, 11:26:40
Man muss ATI aber auch für die X1000 Serie loben, weil sie endlich wieder die BQ verbessert haben. Dies war imho ein mutiger Schritt, aber einer der dauerhaft in eine bessere Zukunft führt.
Im PC Markte hat ATI momentan einige Probleme, die bei Crossfire und zugehörigen Mainboards anfangen und bei der Verfügbarkeit der XT Karten aufhören, Die Zukunft im PC Markt wird eher mit VISTA entschieden und wer dort die besseren Karten hat. Geht man von eine unified-Shader-Design aus, so spricht imho vieles für ATI.

Abgesehen davon dominieren sie den Konsolenbereich und sind im Mobilmarkt die unangefochtene Nummer eins und gerade dies ist imho eine Kernkompetenz die im Hinblick auf kommende moblie Märkte (PDAs, Handy, ..) äußerst wichtig ist.

NV auf der anderen Seite sieht im Mainboardgeschäft sehr gut aus und auch im Profibereich der Grafikkarten hat man viel gutgemacht.

Hakkerstiwwel
2005-11-08, 11:26:52
Das hab ich doch gesagt, ich verstehe immer noch nicht was daran falsch sein soll :confused: - Stefan Payne, explanation pleetz

Greetz

...Das einzige was an SM3 bei NV4x langsam ist, ist das dynamische branching, das aber nicht eingesetzt werden muss sondern auch nur dann wenn es Leistung bringt.

Ergo kann es sein dass ein SM3 kompilierter Shader langsamer als ein SM2 Shader auf nV4x laeuft, falls das dyn Branching unpassend eingesetzt ist.

deekey777
2005-11-08, 11:36:55
Gegen wen oder was soll dann die X1600XT antreten? Die 7600 wird zwischen 7800GT und 6800GS sitzen. Lass mal die GT auf 300€ runter gehen, norsk-it hat sie schon für 320€, dann ist wieder mehr Raum nach unten. Das Preisgefüge wird also wieder verschoben.

Gegen die 6600GT 256 MB vielleicht. Die 7600 ist noch Zukunftsmusik, genau wie der RV540 und RV560.

Pirx
2005-11-08, 11:36:57
Ergo kann es sein dass ein SM3 kompilierter Shader langsamer als ein SM2 Shader auf nV4x laeuft, falls das dyn Branching unpassend eingesetzt ist.Immerhin kann sie SM3-Shader überhaupt ausführen.
Vor allem ist das dynamische Branching doch einer der Hauptvorteile von SM3 und genau da ist natürlich der NV40 langsam.:(

deekey777
2005-11-08, 11:43:52
....
Naja das hält sich im Rahmen. Wenn von ATI was kommt, dann ist es auch die Wahrheit und nicht nur reines Gebashe.
Bisher gab es nur wenige Präsentationen, die absolut falsch waren. Sie waren meistens nur halbwahr.





Inwiefern? In Lost Coast? Der G70 kann doch keine richtiges HDR mit FSAA darstellen?
Die NV40/G70 können kein MSAA&FP-Buffer, das SSAA geht aber.



Ja in der Tat. Ne super Show und das ist nicht ironisch gemeint...
Öhm, Bei der R420 gab es nur dann die volle trilineare Filterung, wenn die MipMaps eingefärbt waren, was deren Äußerungen widersprach.

Immerhin kann sie SM3-Shader überhaupt ausführen.
Vor allem ist das dynamische Branching doch einer der Hauptvorteile von SM3 und genau da ist natürlich der NV40 langsam.:(
Man kann auch auf das statische Branching ausweichen.

ShadowXX
2005-11-08, 11:48:53
Immerhin kann sie SM3-Shader überhaupt ausführen.
Vor allem ist das dynamische Branching doch einer der Hauptvorteile von SM3 und genau da ist natürlich der NV40 langsam.:(

Statisches Branching ist momentan wichtiger (und wird auch wesentlich häufiger benutzt)....und da ist der nv40 sehr flott.

blackbox
2005-11-08, 11:57:56
Mit gefällt die jetztige Situation gar nicht.
Es gibt einfach gesagt schlicht zu wenig Konkurrenz.
Wenn wir hier von Desktopmarkt reden, dann muss jedem klar sein, dass hier ein Duopol vorherrscht. Und das ist nicht gut für den Endverbraucher.
Es sind nur zwei Firmen, zwischen dem sich der ambitionierte Käufer entscheiden kann.
Wie sehen und merken die Folgen anhand der Preise, Verfügbarkeit und sonstigen Schwierikeiten.
Das Thema AGP wurde schon ausführlich diskutiert. Obwohl es immer noch eine sehr breite Basis mit AGP gibt, setzen beide (!) Firmen auf PCIe. ATI hat hat den Mainstreammarkt praktisch Nvidia (6600GT) überlassen. Und jetzt wiederholt sich die Geschichte. Der neue CHip kommt viel zu spät, die Klasse für Mainstream noch später. Dazu hoher Preis, keine Verfügbarkeit, kein AGP, hoher Stromverbrauch, bisher schlechtes P/L-Verhältnis. Die Fakten von der gelben Eule sind im Kern richtig.
ATIs Politik kann ich seit dem Radeon 9800 nicht mehr nachvollziehen. Selbst wenn sie für Konsolen entwicklen, so sollten sie dennoch ihre Stammklientel nicht vernachlässigen. Man kann es auch anders ausdrücken: Sie haben sich schlicht übernommen.
Egal wer hier (Firma) im Vorteil oder Nachteil ist, es ist in jedem Falle schlecht für den Käufer. Ist ATI schlecht drauf, geht es Nvidia besser. Geht es Nvidia schlecht, geht es ATI besser. So kann sich keine Konkurrenzsituation einstellen, die vorteilhaft ist für die Entwicklung von Grafikchips und für den Käufer. Selbst wenn beide gute Chips herausbringen, ist das schlecht für den Käufer. Die Preise werden hoch bleiben, denn inzwischen haben sich doch beide auf ein Preisniveau geeinigt (man kann es auch einpendeln nennen), dass ich nicht mehr akzeptieren kann.
Nur zwei Hersteller, das ist einfach zu wenig.

PS: Das selbe gilt im Grunde genommen auch für den CPU-Markt.

deekey777
2005-11-08, 11:59:53
Mainstream und auf keinen Fall unterer high end wie vorher behauptet.

So verwöhnt bist du? :biggrin:

Auch wenn der Preis 6800GS und der X800/GTO/Pro bei der magischen €200 ist, so sind die immernoch kein Mainstream, höchstens bilden sie ihre eigene Leistungsklasse - über dem Mainstream.

seahawk
2005-11-08, 12:18:53
Immerhin kann sie SM3-Shader überhaupt ausführen.
Vor allem ist das dynamische Branching doch einer der Hauptvorteile von SM3 und genau da ist natürlich der NV40 langsam.:(

Nö, auch static branching ist Bestandteil von SM3.0 und das performt durchaus annehmbar.

Ailuros
2005-11-08, 12:26:32
@Ailuros:

Klasse das Du Dich mit dem Thema wirklich auseinandersetzt und nicht im Dreck wühlst.
Es geht ja um das wohin gehst Du ATi, nicht um das auf welchen Weg warst Du.
Solche Konstellationen hat man selten, das ein Hersteller locker noch einen drauf setzen kann. Nun ist Bewegung im Markt und ich hoffe das bleibt so.
Wenn EA erfolgreich Updates seiner Spiele seit Jahren verkaufen kann, warum nicht ein Hersteller auch Grafikkarten?
Die Hersteller müssten den Kunden mehr binden, das man seine alte Hardware wieder abgeben kann und nur mit der Differenz und einem kleinen Abschlag die neue Generation kaufen kann.


Es wird mehr und mehr kleinere Umschwuenge in den diversen Maerkten geben, denn grosse Semis verlangen mehr und mehr nach IP. ATI verkaufte als erste IP im Consolen-Markt nur bleibt nur noch der PDA/mobile Markt und natuerlich ein anstaendiger chip denn der erster Generation Imageon ist die absolute Pampe wenn es zu 3D kommt (gilt aber genauso fuer NV/AR1x).

Natuerlich wird ATI nicht die GPU Herstellung aufgeben, genauso wenig wie NVIDIA, aber es wird sich in den naechsten Jahren so manches aendern fuer beide und da sie beide viel zu wenig durch den PC reinschaufeln koennen fuer ihre Groesse, muss es irgendwo weitergehen.

Der PC wird weiterhin dafuer dienen Eindruecke zu gewinnen um sich weitere Vertraege zu schnappen. Verkauft man jetzt IP fuer einfacheres Zeug wie multimedia Schnickschnack (denk mal wo man ueberall AVIVO benutzen koennte als Beispiel) kann sich die Technologie ziemlich leicht als IP verkauft werden; der Kunde wird zwar Unterstuetzung brauchen und so ganz einfach ist das Ganze nicht, aber immerhin spart man die Unkosten chips selber zu bauen und eben alles was damit zusammenhaengt.

Markier mal PDA/mobile/handheld gaming Markt als den dritt-groessten Gaming-Markt der absehbaren Zukunft nach der Console und schau Dir die Nachfrage nach multimedia Quark im Wohnzimmer. Das Problemchen ist dann eben dass ATI sowohl als auch NV (ATI etwas mehr mit 2700 Angestellten) zu gross sind fuer IP, was wohl heisst dass sie unendlich viele Vertraege aufnehmen muessen damit das Ganze auch klappt.

Im Profi-Markt kann es sein dass wenn Intel tatsaechlich zu einem IGP Design kommt der das absolute low-end abdeckt, eine Drohung fuer ATI/NV sein koennte denn auch hier verkaufen beide gute Anzahlen. Intel macht es natuerlich nur im relativen Sinn als Rueckschlag weil die anderen beiden in den chipset Markt mehr und mehr eindringen und sich mehr und mehr in die Richtung GPGPU orientieren. Marketing-technische Schachzuege die nichts "ersetzen" werden, sondern auf quasi "Ausgleichungen" insgesamt zielen damit die Umsaetze auch weiterhin steigen.

Ich hab zwar noch nichts davon gehoert bis jetzt, aber da es klar ist dass sich NVIDIA auch auf das eindringen in den render-farm Markt interessiert, wuerde es mich nicht wundern dass ATI etwas aehnliches versuchen wuerde. Natuerlich erst Material zur Debatte wenn es so weit kommt.

Ailuros
2005-11-08, 12:31:14
So verwöhnt bist du? :biggrin:

Auch wenn der Preis 6800GS und der X800/GTO/Pro bei der magischen €200 ist, so sind die immernoch kein Mainstream, höchstens bilden sie ihre eigene Leistungsklasse - über dem Mainstream.

Die achtest mir zu viel auf altes ausgekautes Zeug wobei beide nur ihr Inventory ausschaufeln. Erzaehl mir mal was eine 6800GS sein wird wenn eine 7600@90nm erscheint? Wie bald? Frueher als Du denkst. Wie ist dann die 6800GS positioniert? Unterer Mainstream ;)

Pirx
2005-11-08, 12:55:58
Nö, auch static branching ist Bestandteil von SM3.0 und das performt durchaus annehmbar.
Können die ATI-Karten ab R4x0 nicht auch "statisch branchen"?

eXodia
2005-11-08, 12:59:01
Zumal erstens man SM3 nicht unbedingt zur Beschleunigung nutzen muss

... dessen ich mir durchaus bewusst bin - Aber: siehe FarCry bsp.

und zum anderen beschleunigt das sicher nicht die GraKa, denn das würde ja bedeuten, das die Karte im 'SM3 Mode' mit höheren Takten läuft :ugly:

Klar, so war das gemeint, also echt, machnmal frag ich mich... :|

deekey777
2005-11-08, 13:30:45
Die achtest mir zu viel auf altes ausgekautes Zeug wobei beide nur ihr Inventory ausschaufeln. Erzaehl mir mal was eine 6800GS sein wird wenn eine 7600@90nm erscheint? Wie bald? Frueher als Du denkst. Wie ist dann die 6800GS positioniert? Unterer Mainstream ;)

Im Preview des 6800GS sprach iXbt, daß die beiden neuen 90nm Chips G72 und G74 in Januar kommen sollen. Bis es so weit ist, bleibt die 6800GS in einer Leistungklasse, die nicht zum Mainstream gehört.

Crushinator
2005-11-08, 13:32:02
(...) Das soll kein Bash sein! Irgendwie kommt es mir so vor, also hätte ATi zwar mehr Zeit gehabt, sie aber nicht richtig genutzt. NV kann immer nachlegen und bietet Verfügbarkeit an.

Was sagt uns das für die Zukunft?

daß es bei ATi nur noch bergauf gehen kann.
daß es schwierig ist mal eben so einen Überflieger aus dem Hut zu zaubern.
daß es toll ist wenn diesmal nVIDIA zeigen kann, wo's lang geht.
und daß Zukunftsspekulationen ins entsprechende Unterforum gehören. :unono:

Ailuros
2005-11-08, 14:19:39
Im Preview des 6800GS sprach iXbt, daß die beiden neuen 90nm Chips G72 und G74 in Januar kommen sollen. Bis es so weit ist, bleibt die 6800GS in einer Leistungklasse, die nicht zum Mainstream gehört.

Eben nicht und schon von den Preisen aus; die einfache 6600 kam preislich in den low end Bereich, 6800 mainstream und 7800 high end.

Wen schert es was jede GPU im letzten Jahr war?

Die gelbe Eule
2005-11-08, 15:04:42
Frag doch mal bei nV an, ob sie damit einverstanden sind :wink:

eVGA Step Up Program. Sowas gibt es bereits. Vielleicht kommt es auch hier in ServiceWüste Deutschland zum tragen.

Gegen die 6600GT 256 MB vielleicht. Die 7600 ist noch Zukunftsmusik, genau wie der RV540 und R560.

Ich kann mir denken, wenn alle 6800GT raus sind, dann wird die 7600 die Position der 6800NU einnehmen, die 6800GS in den Bereich der 6600GT rutschen und die 7800GS die neue 6800GT. Da wir alles auf dem gleichen PCB haben geht das schneller als machem lieb ist ;)

mindfaq
2005-11-08, 15:45:21
eVGA Step Up Program. Sowas gibt es bereits. Vielleicht kommt es auch hier in ServiceWüste Deutschland zum tragen.Wenn eVGA das wirklich zu akzeptablen Konditionen durchzieht bei der 512MB-GTX, haben sie für die nächste Generation einen Kunden dazugewonnen. Insgeheim hoffe ich natürlich immer noch, dass Pine XFX etwas ähnliches anbietet.

Marc-
2005-11-08, 15:46:26
eVGA Step Up Program. Sowas gibt es bereits. Vielleicht kommt es auch hier in ServiceWüste Deutschland zum tragen.


Du hast dir aber schon auch durchgelesen welche bedingungen damit verbunden sind gelle?
Und ein Umtausch binnen 90 Tagen... also soooo kurzlebig rüsten selbst die grössten wahnsinnigen eher selten auf.
Zumal in einem solchen zeitraum sich auch der wertverlust und preisverfall in überschaubarem rahmen halten sollte und auch die wiederverkaufsmöglichkeiten gegeben sein sollten.
Zudem gibt es dieses stepup programm nur einmal, d.h. die nächste karte wird in jedem fall vollpreisig.

Ob das wirklich für einen zaehlbaren anteil der hardwarekäufer einen echten vorteil bringt glaub ich weniger, eher wohl führt es dazu das der potentielle käufer 1. an die firma gebunden ist und wieder da kauft und vor allem 2. wesentlich früher und zu einem weitaus höheren preis die hardware kauft (unter dem druck der 90 tage klausel) als er es sonst wohl machen wuerde. Und genau das ist wohl die wirtschaftliche kalkulation dahinter die es wohl für die firma weitaus lukrativer macht als für den endkunden. Es ist nur die elegantere art den leuten die flocken aus der tasche zu ziehen, mit service hat das als solches wenig zu tun.

MadManniMan
2005-11-08, 16:06:55
Das war eher ironisch gemeint ^^.

Es macht aber leider echt den Eindruck, als wäre das ernst gemeint - schließlich legst Du doch bewußt alles schlecht für nV und gut für ATi aus.

Mr. Lolman
2005-11-08, 16:17:39
ATi hat mit dem R520 imo fast alles richtig gemacht.

1. ATi hat die bessere BQ: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=258551&page=4&pp=20

2. ATi hat viel schnelleres dynamisches Branching (Toyshop Demo ansehen, und man weiss wozu das gut is)

3. Der programmierbare Speichercontroller bietet noch Optimierungspotential -> mehr Performance bei künftigen Treibern

Auch der R420 hatte schon ne höhere Performance. (Ja auch Shaderperformance: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=247034) und die im Durchschnitt bessere BQ. (Die Mixedmodi sind bei 1280 größtenteils zu langsam)

Coda
2005-11-08, 16:19:10
Ergo kann es sein dass ein SM3 kompilierter Shader langsamer als ein SM2 Shader auf nV4x laeuft, falls das dyn Branching unpassend eingesetzt ist.Falls es unpassend ist wird es vom Treiber ausgerollt.

Bisher gab es nur wenige Präsentationen, die absolut falsch waren. Sie waren meistens nur halbwahr.Richtig. Und etwas wegzulassen sind oft die schlimmsten Lügen.

Mit gefällt die jetztige Situation gar nicht.
Es gibt einfach gesagt schlicht zu wenig Konkurrenz.Das stimmt allerdings. Aber dafür kannst du nicht einem der beiden großen IHVs die Schuld geben.

Die gelbe Eule
2005-11-08, 16:19:23
Du hast dir aber schon auch durchgelesen welche bedingungen damit verbunden sind gelle?
Und ein Umtausch binnen 90 Tagen... also soooo kurzlebig rüsten selbst die grössten wahnsinnigen eher selten auf.
Zumal in einem solchen zeitraum sich auch der wertverlust und preisverfall in überschaubarem rahmen halten sollte und auch die wiederverkaufsmöglichkeiten gegeben sein sollten.
Zudem gibt es dieses stepup programm nur einmal, d.h. die nächste karte wird in jedem fall vollpreisig.

Ob das wirklich für einen zaehlbaren anteil der hardwarekäufer einen echten vorteil bringt glaub ich weniger, eher wohl führt es dazu das der potentielle käufer 1. an die firma gebunden ist und wieder da kauft und vor allem 2. wesentlich früher und zu einem weitaus höheren preis die hardware kauft (unter dem druck der 90 tage klausel) als er es sonst wohl machen wuerde. Und genau das ist wohl die wirtschaftliche kalkulation dahinter die es wohl für die firma weitaus lukrativer macht als für den endkunden. Es ist nur die elegantere art den leuten die flocken aus der tasche zu ziehen, mit service hat das als solches wenig zu tun.

Du kannst auch alles schlechtreden oder?

Erstmal hat jeder 90 Tage Zeit sich dort zu melden. Dann wird es nochmal etwas dauern bis man dran kommt. Danach hat man dann wieder 15 Tage Zeit die Karte einzuschicken. Macht also easy 4-5 Monate, genau der Zyklus eines Refreshes.

Man kann seine alte Karte zum alten Kaufpreis wieder abgeben, minus einem Abschlag. In dem Fall der 7800GX 512MB ist es sehr willkommen, da keiner vor 3 Monaten wußte das noch eine schnellere Karte kommt.

Wenn man dort das Forum durchschaut, wird direkt mit den Usern gesprochen, wo Ihre Wünsche und Probleme sind. Der Hersteller wendet sich also dem Kunden zu, hier in Deutschland so gut wie unmöglich.

Mr. Lolman
2005-11-08, 16:21:11
Man kann seine alte Karte zum alten Kaufpreis wieder abgeben, minus einem Abschlag. In dem Fall der 7800GX 512MB ist es sehr willkommen, da keiner vor 3 Monaten wußte das noch eine schnellere Karte kommt.

Ja klar, weil sonst nur noch langsamere Karten nach kommen würden. Schön langsam versteh ich die Motivation mancher SLI Käufer :crazy:

thade
2005-11-08, 16:34:50
ATi hat mit dem R520 imo fast alles richtig gemacht.

1. ATi hat die bessere BQ: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=258551&page=4&pp=20

2. ATi hat viel schnelleres dynamisches Branching (Toyshop Demo ansehen, und man weiss wozu das gut is)

3. Der programmierbare Speichercontroller bietet noch Optimierungspotential -> mehr Performance bei künftigen Treibern

Auch der R420 hatte schon ne höhere Performance. (Ja auch Shaderperformance: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=247034) und die im Durchschnitt bessere BQ. (Die Mixedmodi sind bei 1280 größtenteils zu langsam)


100% agree, endlich einer ders auf den Punkt bringt. Sollen doch die NVler sagen was sie wollen. Die bessere Karte ist die X1800XT. Punkt.

Die gelbe Eule
2005-11-08, 16:39:10
Sinnfreie Aussage. Wie ich bereits sagte, was bringt mir ein Porsche, wenn er mir erst in 16 Monaten geliefert wird?

-error-
2005-11-08, 16:51:46
b.) taktnormalisiert niedrigerer Leistung


Dööööööööööt

Kannst du garnicht sagen, das die nVidias mehr Pipelines haben.

Pirx
2005-11-08, 16:54:11
Sinnfreie Aussage. Wie ich bereits sagte, was bringt mir ein Porsche, wenn er mir erst in 16 Monaten geliefert wird?
Und wenn er in 2 Wochen geliefert wird?

Frank1974
2005-11-08, 16:54:17
Sinnfreie Aussage. Wie ich bereits sagte, was bringt mir ein Porsche, wenn er mir erst in 16 Monaten geliefert wird?

Deine Aussage hat auch keinen Sinn,man Vergleicht kein Luxusauto,was in 10 Jahren immer noch bewundert wird mit Grafikkarten,egal ob von Nvidia oder Ati ist da Schnuppe,weil sie nach 1-2 Jahren nur noch Hardwaresondermüll sind,während ein Porsche sogar nach 30++ Jahren vielleicht sogar als Oldtimer durch geht,und mehr Wert ist als jetzt,und immer noch über jedem Mittelklasse Wagen steht :wink:

MFG
Frank

mindfaq
2005-11-08, 16:55:46
Dööööööööööt

Kannst du garnicht sagen, das die nVidias mehr Pipelines haben.
Kann er sehr wohl sagen und hat dabei auch noch recht.
http://www.driverheaven.net/articles/efficiency/index.htm

Drexel
2005-11-08, 16:56:47
Ohne jetzt den ganzen Thread gelesen zu haben: Eine zeitlang ging es NVidia so (ich sag nur NV30/35). Mal hat der eine Probleme mal der andere, das wird sich schon wieder richten.

deekey777
2005-11-08, 16:57:22
Kann er sehr wohl sagen und hat dabei auch noch recht.
http://www.driverheaven.net/articles/efficiency/index.htm

Hat er nicht. Warum? Wurde schonmal diskutiert.

Die gelbe Eule
2005-11-08, 17:02:11
Deine Aussage hat auch keinen Sinn,man Vergleicht kein Luxusauto,was in 10 Jahren immer noch bewundert wird mit Grafikkarten,egal ob von Nvidia oder Ati ist da Schnuppe,weil sie nach 1-2 Jahren nur noch Hardwaresondermüll sind,während ein Porsche sogar nach 30++ Jahren vielleicht sogar als Oldtimer durch geht,und mehr Wert ist als jetzt,und immer noch über jedem Mittelklasse Wagen steht :wink:

MFG
Frank

Es geht aber nicht um den Porsche selbst, sondern um die Verfügbarkeit. Viele bewundern Karten die sie selbst gar nicht im Rechner haben, geschweige denn jemals haben werden. Man kann nichtmal eben 500€ aus dem Ärmel schütteln, also krebsen viele noch auf Ihrer 9800pro rum.

Von mir aus kann die X1800XT die tollste Karte sein, nur man kann sie immernoch nicht kaufen. Das sollte seit diesem Montag aber der Fall sein. Nächste Woche Montag sehen wir was mit der 7800GTX 512MB passiert. Mit der 6800GS hat NVidia Wort gehalten, sie ist verfüg- und kaufbar und kam aus dem nichts.

Frank1974
2005-11-08, 17:10:33
Es geht aber nicht um den Porsche selbst, sondern um die Verfügbarkeit. Viele bewundern Karten die sie selbst gar nicht im Rechner haben, geschweige denn jemals haben werden. Man kann nichtmal eben 500€ aus dem Ärmel schütteln, also krebsen viele noch auf Ihrer 9800pro rum.

Von mir aus kann die X1800XT die tollste Karte sein, nur man kann sie immernoch nicht kaufen. Das sollte seit diesem Montag aber der Fall sein. Nächste Woche Montag sehen wir was mit der 7800GTX 512MB passiert. Mit der 6800GS hat NVidia Wort gehalten, sie ist verfüg- und kaufbar und kam aus dem nichts.

Nvidia nutzt halt im Moment Ati's Schwäche voll aus,würde Ati umgekehrt auch machen :wink: .
Ati kann nun mal immer noch nicht liefern,den genauen Grund dafür kann ich nur darin sehen das die Herstellung immer noch Probleme macht,wenn sie liefern könnten würden sie das ja tun,sind ja schließlich ihre Marktanteile die Flöten gehen...

Gruss
Frank

Ailuros
2005-11-08, 17:28:48
ATi hat mit dem R520 imo fast alles richtig gemacht.

Eben nicht. Haetten sie alles richtig gemacht, dann haetten wir auf Regalen den R520 schon im Sommer gesehen und nein viele aber gibt es hier nicht.

1. ATi hat die bessere BQ: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=258551&page=4&pp=20

Ich haette eher shots vom neuen HQ winkeunabhaengigerem AF erwartet als dieses Zeug. Was soll ich besonders an den Shots sehen dass ich verpasse?

Ja der Punkt fuer's bessere AF ist gueltig fuer den neuen AF modus, aber auch nur bis er ausfuehrlich untersucht wird. Es bleibt und zaehlt zu den grossen Vorteilen des chips, egal wieviele "aber" noch dazukommen koennten.

2. ATi hat viel schnelleres dynamisches Branching (Toyshop Demo ansehen, und man weiss wozu das gut is)

Und das ist auch wirklich nur das einzige war wirklich schneller ist und ist nur unter gewissen Bedingungen zum Vorteil ueberhaupt bei SIMD Architekturen. Schnelles dynamisches branching ist zwar ein "must" fuer alle anstaendigen SM3.0 GPUs, aber ATI hat sich nicht den eigenen "SM3.0 done right" verdient IMO, sondern eher "SM3.0 done better". Unter welchen Teppich genau hast Du vertex texturing gekehrt?

Und bevor jetzt die Albernheiten ueber die Brauchbarkeit von Feature und A und B wieder los geht, das "done right" haben sich allein schon wegen dieser Kleinigkeit nicht verdient.

3. Der programmierbare Speichercontroller bietet noch Optimierungspotential -> mehr Performance bei künftigen Treibern.

Momentan noch kein Kommentar. Auf jeden Fall ist es nicht das 8. Wunder ueberhaupt wenn ich die 7800GT und X1800XL vergleiche.

Auch der R420 hatte schon ne höhere Performance. (Ja auch Shaderperformance: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=247034) und die im Durchschnitt bessere BQ. (Die Mixedmodi sind bei 1280 größtenteils zu langsam)

Sicher auf der ueberseltenen X800 XT PE kein Zweifel. In normal verfuegbaren Situationen oder im mainstream oder budget Segment sah es und sieht immer noch duester aus.

Wie und wieso hoehere Frequenzen einen Einfluss auf Shader-Leistung hat braeuchte man schon gar nicht erklaeren und am wenigsten VS-Leistung. Hiflt aber der X700PRO nicht besonders viel denn die XT wurde dank der Ueberschreitung der Volt-Werte ja storniert.

Soll ich mit den zukuenftigen Aspekten die X1600 und 7600 betreffen weitermachen oder ist das absolute Interesse nur da wo man ein paar Vorteile finden kann? Wo das hoechste Verkaufsvolumen liegt, weisst Du besser als ich. Es gab und gibt eine Reihe von Fehlern was ATI Designs-Entscheidungen betrifft in den letzten paar Jahren; das was sie richtig gemacht haben wird sich schon herauszahlen mit der Zeit.

Die gelbe Eule
2005-11-08, 17:33:33
Einige sollten doch bitte altes alt lassen. Wer kein Latein kann:

Quo vadis = Wohin gehts

Alte Geschichten dienen nur zum bashen und mir kommt es dann so vor, das wenn so viele davon reden, die alten ATi besser waren als die neuen, sonst würde man es nicht ständig durchkauen. Aber Thema sind nunmal die neuen Karten und mein Eingangspost.
Vielleicht beziehen sich einige Leute mal darauf. Danke.

aths
2005-11-08, 17:36:43
Da hat aber der NV40 nix verloren in der Next Generation. Er mag SM3 können, aber nur in ner Diashow...Was SM3 heißt, weißt du?

Zur Beschnleunigung? Inwiefern? Das non Shader3 Effekte schneller laufen? Warum rockt der R420 den NV so dermaßen?Texelfüllratenlimitierung.

Ailuros
2005-11-08, 17:39:08
Nvidia nutzt halt im Moment Ati's Schwäche voll aus,würde Ati umgekehrt auch machen :wink: .
Ati kann nun mal immer noch nicht liefern,den genauen Grund dafür kann ich nur darin sehen das die Herstellung immer noch Probleme macht,wenn sie liefern könnten würden sie das ja tun,sind ja schließlich ihre Marktanteile die Flöten gehen...

Gruss
Frank

Jemand hat 3rd party IP erwaehnt und damit liegt er auch bei 100% korrekt; es giebt keine Probleme an fuer sich mit low-k 90nm. Was jetzt genau verpatzt wurde ist irrelevant, es fuehrt mich aber doch irgendwie konstant auf die ueberlasteten Resourcen zurueck, denn sonst braeuchte man auch kein 3rd party IP fuer was auch immer. Die ersten Ansporne mit TSMC 110nm waren auch nicht gerade blendend; ich hab zwar keine Ahnung warum aber es ist mir auch nicht so wichtig. Wichtiger ist mir dass sich ATI total durch die letzten 3 Jahre phaenomenal ueberschaetzt hat.

NVIDIA musste sich im Gegensatz dank des NV3x-Flops schnellstens wieder aufkrempeln. Man waehlte eben hier die konservativste Politik ueberhaupt die auf die Maximalisierung der Margen und Minimalisierung der Unkosten zielte und dieses wurde auch teilweise erreicht. Der eigentliche Grund warum NVIDIA nicht vorzeitig auf 90nm gestiegen ist und bei 110nm blieb, ist dass es viel leichter war von 130nm auf 110nm zu steigen, als von non-low k 130nm auf low-k 90nm ("verwandtere" libraries im ersten Fall). Man sparte Zeit, Unkosten und Resourcen. Nur so nebenbei kam noch der SONY PS3 deal davor dazu und obwohl ein Consolen-chip nicht ueber Nacht entwickelt/angepasst wird, war dieses Projekt diametrisch billiger fuer NV als Xenos fuer ATI war.

aths
2005-11-08, 17:40:10
ja toll warum rockte dann der NV30/35 den R300/R350 nicht? Da waren auch erhebliche Taktunterschiede

Der NV40 hat mehr ShaderPower als der R420? Sicher? Und warum ist der R420 in den wichtigsten DX9 Games vorne? Vor allem bei aktiviertem FSAA?Was hat FSAA mit Shader-Power zu tun?

Der NV30 und NV35 hat in der Architektur mehrere Engpässe die dafür sorgen, dass sich die eigentlich vorhandene Rechenkraft nicht entfalten kann. Dieses Problem wurde im NV40 gelöst.

Der NV30 konnte ja auch mehr darstellen als der R300. Wir sehen ja welche zukünfitgen Games auf welcher Karte besser laufen...

Ich sag nur die DirectX 9.1 Lüge....Erklärung?

aths
2005-11-08, 17:44:57
Im Grunde genommen ist es egal ob nun 4*2 oder 8*1. Das kommt doch aufs selbe raus... Der NV30 konnte doch nur mit 16 oder 32Bit Präzision rechnen. Deswegen auch die schleche Performance. Kann der NV40 22Bit?Nein. Der NV30 performt auch nicht schlechter als der R300, weil er nur in 16 oder 32 Bit rechnen könne. Er kann (wie der NV35 auch, der NV40 jedoch nicht mehr) auch in 12 Bit rechnen – und zwar äußerst schnell. Die Floatingpoint-Rechnungen allerdings laufen beim NV30 auf Extra-Units, die auf Flexibilität und nicht auf Performance optimiert wurden – das wurde erst mit dem NV40 nachgeholt. (R300 rechnet in 24, nicht 22 Bit. Texturoperationen werden angeblich in 32 Bit ausgeführt, allerdings ist die GeForce, ebenfalls mit 32 Bit, hier ein Bit genauer – offenbar haben die Texturoperations-Rechenwerke der Radeon keine vollen 32 Bit Breite.)

4x2 ist nicht so flexibel wie 8x1, das kommt nicht aufs selbe raus.

Aber du glaubst doch nicht ernsthaft an ein flüssiges Gameplay mit richtigen SM3 Effekten aufm nem NV40?Was ist denn ein "SM3-Effekt"? Mit SM3 kann man auch "SM2-Effekte" beschleunigen. Schon deshalb ist SM3 per se nützlich.

Nix, dass mit DX9.1 bezog sich auf den NV30. Diese Nachricht geisterte schon lange Zeit durchs Netz. Viele schluckten den Schmarn und kauften sich NV30/35...Dafür kann keiner was, wenn jemand unbegründeten Spekulationen vertraut. Mit den 2_A-Profilen für Pixel- und Vertexshader hat MS gemacht, was anhand der Spec möglich war – um die Shaderleistung auf (bzw. überhalb des) Radeon-Niveau zu bringen hätte man der FX erlauben müssen, bei SM2 die FX12-Rechenwerke mitzubenutzen. Das hat MS jedoch nicht geplant.

aths
2005-11-08, 17:46:25
Es gibt von ATi genau die gleichen dummen Marketing-Folien. Erst letztens zu X1000.

Wahrscheinlich hast du immer Quality gesehen, High Quality ist in Ordnung. Überhaupt sieht ATIs "hervorrangede Bildqualität" mit AI-On mitunder genauso scheiße aus wie NV-Quality. Aber das wird natürlich verschwiegen.Ich habe mit A.I. on auch auf "low" manchmal flimmrige Texturen in WoW.

Ailuros
2005-11-08, 17:46:39
Der DX9.1 Mist stammte weder von ATI noch von NVIDIA sondern originierte von den roadmaps einiger kleinen IHVs wie XGi z.B. wo sie versuchten auf irgend eine Art SM2.0 und SM3.0 voneinander zu halten.

Es war schon immer klar dass Microsoft nie eine neue Version fuer DX9.0 bringen wuerde; SM3.0 gab es schon von Anfang an in den DX9.0 Spezifikationen. [/end of parenthesis]

aths
2005-11-08, 17:48:47
Ich will damit nur sagen, dass mir das NV als Firma unsympathisch ist, denn sie ziehen jeden in den Dreck. Nvidia stellt ihr Produkt-Lineup als absolute Spitzenserie hin, egal was wirklich geboten wird – und bei der FX wars besonders schlimm: "Engineered with a passion for perfection" und raus kam diese Krücke namens NV30.

ATI macht das nicht so unglücklich. Aber egal soll jeder der NV liebt bei NV bleiben und die ATIler sollen bei ATI bleiben. Punkt. Wobei ich mich nicht festlege auf eine Marke. Hatte ja selbst schon genug NVs und werde auch sicher irgendwann mal wieder eine NV kaufen, wenn sie denn die beste Karte ist...ATI warb beim R420 mit "High Definition Gaming" – wo BQ-mäßig nichts besseres angeboten wurde als mit dem R300. Die Texturfilterqualität wurde sogar gesenkt.

aths
2005-11-08, 17:51:18
Man muss ATI aber auch für die X1000 Serie loben, weil sie endlich wieder die BQ verbessert haben. Dies war imho ein mutiger Schritt, aber einer der dauerhaft in eine bessere Zukunft führt.Mutiger Schritt? Das war ein Schritt der zur langfristigen Steigerung des Profits gedacht ist. Einfach zwei AF-Methoden anzubieten, wovon wenigstens eine bis 8x gute Ergebnisse liefert: ATI kanns, Nvidia nicht.

DaBrain
2005-11-08, 17:56:43
Sehe ich auch so.

Die Performance ist sowohl bei den Top Karten von Nvidia, als auch von ATI sehr gut. Kleinere Unterschiede sind mir da ziemlich egal!

Wichtig ist die Bildqualität und da liegt ATI vorne. Da mir AF sehr wichtig ist, liegt für mich persönlich ATI vorn.

Obwohl meine letzen Karten alle von Nvidia waren!


Eigentlich warte ich noch immer auf 32x AF... ;) So wenig optimiert wie möglich natürlich. ;D

aths
2005-11-08, 17:59:04
Volles AF, voll trilinear, voll winkelunabhängig, kann (vom Füllratenverbrauch her) performant implementiert werden. Das Problem sind die erforderlichen Berechnungen, wo man wie viel Samples nimmt und wie man sie für das fertige Texel gewichtet.

Mr. Lolman
2005-11-08, 18:17:45
Eben nicht. Haetten sie alles richtig gemacht, dann haetten wir auf Regalen den R520 schon im Sommer gesehen und nein viele aber gibt es hier nicht.
Deswegen schrieb ich auch "fast alles"



Ich haette eher shots vom neuen HQ winkeunabhaengigerem AF erwartet als dieses Zeug. Was soll ich besonders an den Shots sehen dass ich verpasse?

Entweder ist das AF unscharf (Clamp) oder flimmrig. Gut sichtbar an den Begrenzungslinien.


Ja der Punkt fuer's bessere AF ist gueltig fuer den neuen AF modus, aber auch nur bis er ausfuehrlich untersucht wird. Es bleibt und zaehlt zu den grossen Vorteilen des chips, egal wieviele "aber" noch dazukommen koennten.

Was meinst du, dass sich für Dinge offenbaren, wenn man den Modus ausführlich untersucht? V.A. haben alle bisherigen "ausführlichen Untersuchungen" (ausgenommen die der jüngsten Vergangenheit) wohl immer nur eine Seite der Medaille beleuchtet und deswegen auch überhaupt erst NVs FlimmerAF möglich gemacht...


Und das ist auch wirklich nur das einzige war wirklich schneller ist und ist nur unter gewissen Bedingungen zum Vorteil ueberhaupt bei SIMD Architekturen. Schnelles dynamisches branching ist zwar ein "must" fuer alle anstaendigen SM3.0 GPUs, aber ATI hat sich nicht den eigenen "SM3.0 done right" verdient IMO, sondern eher "SM3.0 done better". Unter welchen Teppich genau hast Du vertex texturing gekehrt?
"Done better" ist ja auch schon mal was. Und das fehlende Vertex Texturing hab ich unter den Teppich der Leute gekehrt, die auch mal gerne ein Adjektiv überlesen, wenn sie meinen, dass es der diskussion dienlich ist ;)


Und bevor jetzt die Albernheiten ueber die Brauchbarkeit von Feature und A und B wieder los geht, das "done right" haben sich allein schon wegen dieser Kleinigkeit nicht verdient.
Hab ich nie das Gegenteil behauptet.


Momentan noch kein Kommentar. Auf jeden Fall ist es nicht das 8. Wunder ueberhaupt wenn ich die 7800GT und X1800XL vergleiche.
Abwarten. Eine neue Architektur bietet immer Potential für Treiberoptimierungen. Solang das nicht in einem Betatreibergefecht endet, ist ja alles wunderbar...


Sicher auf der ueberseltenen X800 XT PE kein Zweifel. In normal verfuegbaren Situationen oder im mainstream oder budget Segment sah es und sieht immer noch duester aus.
Imo garnicht. Schon mal getestet was eine 6600GT bei HQ verliert? Die ist dann mit AA/AF max. auf gleicher Höhe wie eine zu jeder Zeit günstigere 9800p.


Wie und wieso hoehere Frequenzen einen Einfluss auf Shader-Leistung hat braeuchte man schon gar nicht erklaeren und am wenigsten VS-Leistung. Hiflt aber der X700PRO nicht besonders viel denn die XT wurde dank der Ueberschreitung der Volt-Werte ja storniert.
Imo krankt der X700pro eher an der Speicherbandbreite als an der VS-Leistung...


Soll ich mit den zukuenftigen Aspekten die X1600 und 7600 betreffen weitermachen oder ist das absolute Interesse nur da wo man ein paar Vorteile finden kann? Wo das hoechste Verkaufsvolumen liegt, weisst Du besser als ich. Es gab und gibt eine Reihe von Fehlern was ATI Designs-Entscheidungen betrifft in den letzten paar Jahren; das was sie richtig gemacht haben wird sich schon herauszahlen mit der Zeit.
Zu x1600 kann ich momentan noch wenig sagen. Außer, dass mit komplexerer Shadernutzung künftiger Spiele die Karte sicher besser dastehen wird, als sies momentan tut. Aber klär mich auf, was gibts darüber interessantes zu berichten?

reunion
2005-11-08, 18:20:28
Gegen wen oder was soll dann die X1600XT antreten? Die 7600 wird zwischen 7800GT und 6800GS sitzen.


Bis die 7600 vorgestellt wird, hat ATi vermutlich schon RV535 veröffentlicht:

Expect to see the GeForce 7200 to launch sometime in February, while the GeForce 7600 will receive a much larger launch in March, during Cebit.
http://www.anandtech.com/video/showdoc.aspx?i=2595

Scheint doch nicht so gut zu laufen mit dem 90nm Prozess, ältere Quellen sprachen stets von Q3 bzw. Q4 2005 für G72/G73.

mapel110
2005-11-08, 19:06:02
Bis die 7600 vorgestellt wird, hat ATi vermutlich schon RV535 veröffentlicht:

Expect to see the GeForce 7200 to launch sometime in February, while the GeForce 7600 will receive a much larger launch in March, during Cebit.
http://www.anandtech.com/video/showdoc.aspx?i=2595

Scheint doch nicht so gut zu laufen mit dem 90nm Prozess, ältere Quellen sprachen stets von Q3 bzw. Q4 2005 für G72/G73.
Und nvidia hat in ihren FAQs seit Monaten (seit Juni?!) stehen, dass die 6800er Serie bis Anfang 2006 nicht ersetzt wird.

Die gelbe Eule
2005-11-08, 19:25:03
Was ja auch so stimmt, deswegen bringt man einfach die 6800GS auf 7800GT PCB und läßt schön weiterlaufen.

ATi muss erstmal Ihre R520 sprich X1800XT und R530 sprich X1600XT veröffentlichen, um über einen R535 zu spekulieren. NV ist in der relaxten Rolle, weil agiert haben sie schon vorher. ATi muss gehörig Dampf machen und wird fast gezwungen den R580 alsbald auf den Markt zu werfen.

*edit*

Das tut mal weh :( (http://www.theinquirer.net/?article=27524)

599$ und keiner kann weiter runter gehen. Das sieht nicht gut aus für Preisanpassungen in Zukunft.

*edit2*

We also asked ATI PR if the X1600XT would feature in the upcoming Catalyst 5.11 as this would be at least an indication that the product would be nearing retail, however we could gain no clarification on that point either and at this time we feel that the card wont be included in the inf. This points to at least mid December and Catalyst 5.12 before we see any sort of official driver support for the X1600…let alone retail availability.
By DriverHeaven

Ohne Worte ...

Ailuros
2005-11-09, 03:10:06
Bis die 7600 vorgestellt wird, hat ATi vermutlich schon RV535 veröffentlicht:

Klingt mir zu optimistisch.

Uebrigens doppelt so viele TMUs und ALUs auf einem der beiden.

Expect to see the GeForce 7200 to launch sometime in February, while the GeForce 7600 will receive a much larger launch in March, during Cebit.
http://www.anandtech.com/video/showdoc.aspx?i=2595

Scheint doch nicht so gut zu laufen mit dem 90nm Prozess, ältere Quellen sprachen stets von Q3 bzw. Q4 2005 für G72/G73.

Welche Quellen genau? Ich bin mir schon seit einiger Zeit ueber Q1 2006 bewusst.

Ailuros
2005-11-09, 03:38:10
Deswegen schrieb ich auch "fast alles"

Ist immer noch eine Uebertreibung. Produkte die nicht nur zu spaet ankommen sondern auch noch mit fraglicher Verfuegbarkeit haben gerechtfertigt so einige "Meckerei" von den Websites beigefuehrt.

Entweder ist das AF unscharf (Clamp) oder flimmrig. Gut sichtbar an den Begrenzungslinien.

Blind bin ich nicht, aber man kann den LOD auch anpassen in diesem Fall. Das Spiel hat ja auch nicht gerade das beste MIPmapping von Grund auf dass man sich wirklich darauf verlassen kann und davon ein Fazit zieht.

Was meinst du, dass sich für Dinge offenbaren, wenn man den Modus ausführlich untersucht? V.A. haben alle bisherigen "ausführlichen Untersuchungen" (ausgenommen die der jüngsten Vergangenheit) wohl immer nur eine Seite der Medaille beleuchtet und deswegen auch überhaupt erst NVs FlimmerAF möglich gemacht...

Das Flimmer AF ist eher ein Resultat der unendlichen Optimierungen die ihr zu Hause noch mehr im R420 fanden. Dass das MIPmapping bei NV eben nicht hilft und dass die Optimierungen hier teilweise mehr ins Auge stechen koennen ist mir klar, aber diese Scheinheiligkeit mit den Filterungs-Optimierungen muss endlich ein Ende nehmen.

Es gibt mehr als genug Stellen auf allen Radeons wo man auch die Optimierungen abstellen muss oder sollte. High quality behielt die Optimierungen in drei inoffiziellen launch Treibern der 7800GTX und GT und seither wurde der Mist beseitigt und ja nur fuer high quality und das mit Absicht.

Eine wahre Antwort zu Deiner Frage gebe ich dann oeffentlich sobald ich eine R520 in die Haende bekomme.


"Done better" ist ja auch schon mal was. Und das fehlende Vertex Texturing hab ich unter den Teppich der Leute gekehrt, die auch mal gerne ein Adjektiv überlesen, wenn sie meinen, dass es der diskussion dienlich ist ;)

Mich schert VT kein bisschen; der Kopfschmerz gehoert ja den Entwicklern sowieso.

So viel "done better" ist es ja nun auch wieder nicht wenn man 1.5 Jahre spaeter mit SM3.0 antanzt. Ohne schnelleres dynamisches branching und ortogonale ROPs waere es ja die totale Banause.


Abwarten. Eine neue Architektur bietet immer Potential für Treiberoptimierungen. Solang das nicht in einem Betatreibergefecht endet, ist ja alles wunderbar...

Tja dass was ich momentan hoere, aber keine handhafte Bestaetigung bekomme dafuer, klingt mir zu merkwuerdig. Es koennte durchaus sein dass es nur falscher Alarm ist aber sollte was wahres daran stecken kann man es auch nicht fuer lange verstecken.

Imo garnicht. Schon mal getestet was eine 6600GT bei HQ verliert? Die ist dann mit AA/AF max. auf gleicher Höhe wie eine zu jeder Zeit günstigere 9800p.

Och wenn Du alle Optimierungen auf der R350 abschaltest, mach gerne ein paar Tests ;)

Imo krankt der X700pro eher an der Speicherbandbreite als an der VS-Leistung...

Fuellrate zuerst. Eine XT waere natuerlich eine andere Geschichte gewesen.

Zu x1600 kann ich momentan noch wenig sagen. Außer, dass mit komplexerer Shadernutzung künftiger Spiele die Karte sicher besser dastehen wird, als sies momentan tut. Aber klär mich auf, was gibts darüber interessantes zu berichten?

Nichts besonderes, nur eben dass das Stueck auf allen Fronten eher ein unzufriedenes Schicksal haben wird. Die kuerzeste Lebenszeit der gesamten Linie ueberhaupt.

Sunrise
2005-11-09, 04:59:52
Scheint doch nicht so gut zu laufen mit dem 90nm Prozess, ältere Quellen sprachen stets von Q3 bzw. Q4 2005 für G72/G73.
Q3/Q4 ist definitiv Quatsch, da hast du bestimmt etwas verwechselt (http://www.digitimes.com/mobos/a20051005A7033.html) . :wink:

Grestorn
2005-11-09, 07:45:36
Entweder ist das AF unscharf (Clamp) oder flimmrig. Gut sichtbar an den Begrenzungslinien.Was aber nicht die Schuld von nV ist. Da allgemeingültig von schlechtrerer BQ zu sprechen - jetzt mal unabhängig vom winkelabh. AF - erscheint schon sehr bemüht.

Es handelt sich nur um ein einziges Spiel, welches in sehr ungümstiger Weise mit dem LOD BIAS rumpfuscht.

Leonidas
2005-11-09, 07:59:56
NV kann immer nachlegen und bietet Verfügbarkeit an.



Sehe ich nicht ganz so verbissen. Bis auf das absolute HighEnd-Segment kann man *immer* nachlegen. Alten Chip mit neuer Bezeichnung und neuen Taktfrequenzen - und schon kann man die Konkurrenz immer schlagen. Das ganze ist eher ein wirtschaftlicher Zweikampf: Wie lange können sich die Hersteller es leisten, HighEnd-Chips ins Mainstream-Segment reinzudrücken und Mainstream-Chips ins LowCost-Segment?

seahawk
2005-11-09, 08:20:59
Mutiger Schritt? Das war ein Schritt der zur langfristigen Steigerung des Profits gedacht ist. Einfach zwei AF-Methoden anzubieten, wovon wenigstens eine bis 8x gute Ergebnisse liefert: ATI kanns, Nvidia nicht.

Doch mutig, weil man diese Option auch hätte opfern können um einen noch höheren Takt zu erreichen. Andererseits ist diese Option der einzige echte Grund eine Karte der X1000 Serie zu kaufen. Wobei ich feststelle, dass dieses AF sich sehr indviduell verhält.

@ Mr Lolman

Es ist ziemlich arm GTL als Vorbild zu nehmen. Selbst ATI Karten flimmern dort, während der LOD Clamp bei NV momentan Probleme macht. Dies tritt aber nur bei diesem Spiel so auf. Sollen wir mal über die Schatten bei FEAR sprechen ?

Mr. Lolman
2005-11-09, 12:22:48
Was aber nicht die Schuld von nV ist. Da allgemeingültig von schlechtrerer BQ zu sprechen - jetzt mal unabhängig vom winkelabh. AF - erscheint schon sehr bemüht.

Es handelt sich nur um ein einziges Spiel, welches in sehr ungümstiger Weise mit dem LOD BIAS rumpfuscht.

Komisch dass ATi damit so gut zurecht kommt...

Grestorn
2005-11-09, 12:48:56
Komisch dass ATi damit so gut zurecht kommt...Ach komm, lass stecken. Wenn Du selbst nicht merkst wie kindisch Du rüberkommst...

Ailuros
2005-11-09, 12:49:04
Komisch dass ATi damit so gut zurecht kommt...

Erlaube in game negativen LOD bias und pass den LOD mit irgend einem Wert zwischen +0.1 und +0.4 an bis es stimmt.

Der Laecherlichkeit zuliebe es gab und gibt genug Faelle wo schlecht angepasster LOD oder mieses MIPmapping im Spiel zu unerwuenschten Seiteneffekten kommt und das irrelevant zur GPU. Radeons flackern in RalliSport Challenge z.B. mit der texturing stage Optimierung mehr als GeForces und dazu noch auf total verschiedenen Stellen.

Ailuros
2005-11-09, 12:50:08
Ach komm, lass stecken. Wenn Du selbst nicht merkst wie kindisch Du rüberkommst...

The anagram to desperation is "a rope ends it" :biggrin:

Mr. Lolman
2005-11-09, 12:54:09
Erlaube in game negativen LOD bias und pass den LOD mit irgend einem Wert zwischen +0.1 und +0.4 an bis es stimmt.


Weisst du was? Das probier ich heute.


Der Laecherlichkeit zuliebe es gab und gibt genug Faelle wo schlecht angepasster LOD oder mieses MIPmapping im Spiel zu unerwuenschten Seiteneffekten kommt und das irrelevant zur GPU. Radeons flackern in RalliSport Challenge z.B. mit der texturing stage Optimierung mehr als GeForces und dazu noch auf total verschiedenen Stellen.

wo zb? (ich hab das Spiel)

Mr. Lolman
2005-11-09, 13:01:08
Ach komm, lass stecken. Wenn Du selbst nicht merkst wie kindisch Du rüberkommst...

Altern heisst, Illusionen durch Vorurteile zu ersetzen.

Ailuros
2005-11-09, 13:47:19
Weisst du was? Das probier ich heute.

Ich hab das besagte Spiel nicht, aber in der Mehrzahl der Faelle hilft es.

wo zb? (ich hab das Spiel)

Ich glaube es waren die Felsen an der Strassenseite in den Pacific maps bei den Radeons, aber es ist schon einige Zeit her dass ich das Spiel spielte. Texturing-stage Optimierungen sollten auf jeden Fall abgestellt werden.

Die gelbe Eule
2005-11-09, 14:19:14
Sehe ich nicht ganz so verbissen. Bis auf das absolute HighEnd-Segment kann man *immer* nachlegen. Alten Chip mit neuer Bezeichnung und neuen Taktfrequenzen - und schon kann man die Konkurrenz immer schlagen. Das ganze ist eher ein wirtschaftlicher Zweikampf: Wie lange können sich die Hersteller es leisten, HighEnd-Chips ins Mainstream-Segment reinzudrücken und Mainstream-Chips ins LowCost-Segment?

Ist ungefähr so wie damals bei Lidl und Aldi mit den Salatgurken. Man hat sich immer weiter unterboten, Aldi ging sogar so weit, das man diese Salatgurken unter Einkaufspreis verkauft hatte und beide Brüder sagten damals, das könnten wir monatelang weiter so machen.
Vielleicht ist es etwas ruinöse Marktwirtschaft, aber ein probates Mittel umd sich Segmente zu sichern.

Den HighEnd Bereich durfte NVidia die letzten Moante mit der G70 für sich beanspruchen, nun wird es im Mainstream Segment nicht anders sein. Die Quartalszahlen werden sich im Januar sehr gut lesen und ATi hinkt dann immernoch etwas hinterher. Wer weiß wie lange sie sich das erlauben können.

Mr. Lolman
2005-11-09, 14:24:13
Den HighEnd Bereich durfte NVidia die letzten Moante mit der G70 für sich beanspruchen, nun wird es im Mainstream Segment nicht anders sein. Die Quartalszahlen werden sich im Januar sehr gut lesen und ATi hinkt dann immernoch etwas hinterher. Wer weiß wie lange sie sich das erlauben können.

Ati gibts seit über 20 Jahren. Und die meiste Zeit haben sie eher im OEM, Entry Segment mitgemischt. Was soll also die Schwarzmalerei?

Die gelbe Eule
2005-11-09, 14:29:39
Liest Du meinen Eingangspost, dann hast Du Fakten. Wenn man überall mitmischt, muss man auch überall am Ball bleiben.

Hauwech
2005-11-09, 14:42:21
Ist ungefähr so wie damals bei Lidl und Aldi mit den Salatgurken. Man hat sich immer weiter unterboten, Aldi ging sogar so weit, das man diese Salatgurken unter Einkaufspreis verkauft hatte und beide Brüder sagten damals, das könnten wir monatelang weiter so machen.
Vielleicht ist es etwas ruinöse Marktwirtschaft, aber ein probates Mittel umd sich Segmente zu sichern.

Den HighEnd Bereich durfte NVidia die letzten Moante mit der G70 für sich beanspruchen, nun wird es im Mainstream Segment nicht anders sein. Die Quartalszahlen werden sich im Januar sehr gut lesen und ATi hinkt dann immernoch etwas hinterher. Wer weiß wie lange sie sich das erlauben können.

Ach, so kann man das auch nicht sehen. Nvidia ist mit der FX auch nicht untergegangen wie viele damals schon geunkt haben.

Jetzt vor Weihnachten passiert nicht mehr viel, Q1 2006 wird viel interessanter wenn die Refreshes anstehen. Falls es wirklich so ist, dass DX10/WGF2.0 fuer Vista nachgeschoben wird, werden die Karten Sommer/Herbst naechsten Jahres sowieso wieder neu gemischt. Nebenbei entwickelt ATI ja auch nicht nur Chips rein fuer Grafikkarten sondern hat noch ein paar mehr Standbeine, nicht zu vergessen das sich noch entwickelnde Feld der Mobilgeraete (nicht Notebboks).

Etwas mau sieht es im Moment im semi-, professionellen Markt aus, stimmt. Da muss man einfach abwarten was ATI sich da ausdenkt.

Demirug
2005-11-09, 14:49:47
Falls es wirklich so ist, dass DX10/WGF2.0 fuer Vista nachgeschoben wird, werden die Karten Sommer/Herbst naechsten Jahres sowieso wieder neu gemischt.

Vista wird mit D3D10 und DXGI ausgeliefert werden. Da wird nichts nachgeschoben.

Sowas wie DX10 gibt es BTW bisher nicht.

Mr. Lolman
2005-11-09, 15:43:34
Liest Du meinen Eingangspost, dann hast Du Fakten. Wenn man überall mitmischt, muss man auch überall am Ball bleiben.

Liest du meinen Post, dann hast du auch ein paar Fakten. Man kann überall mitmischen ohne die Performancekrone innezuhaben. Das ist ATI 17 Jahre lang gelungen. Wieso sollen plötzlich Probs auftreten?

Die gelbe Eule
2005-11-09, 15:49:25
Meinst Du es reicht überall mitzumischen? Warum hat Gabe 2 GTX im PC und nicht eine X1800XT?

Ich rede hier nicht von der Bankrotterklärung, nur das ATi so langsam aber sicher den Anschluß im Mainstream Segment verliert. Das keine Karten da sind, deute ich als große Probleme. Das kein Händler unter 599$ verkaufen wird, deute ich als Probleme. Das im 5.12 auch keine X1600XT auftauchen wird, deute ich als Probleme.

Pirx
2005-11-09, 15:53:57
Und jetzt?
Sollen wir jetzt vorsichtshalber ATi schonmal für bankrott erklären, weil du überall nur Probleme siehst?

Gehört der Thread jetzt eigentlich ins Speku-Forum?

DrumDub
2005-11-09, 16:02:00
schauen wir soch mal, was die experten sagen.

zu ati:
Die Analysten von Friedman, Billings, Ramsey & Co nehmen für die Aktie von ATI Technologies (ISIN CA0019411036/ WKN 888576) ein Upgrade von "market perform" auf "outperform" vor. Das Kursziel werde von 13 USD auf 20 USD erhöht. http://aktien.onvista.de/empfehlungen.html?ID_OSI=88814#news

zu nv:
Die Analysten von JMP Securities stufen die Aktie von NVIDIA (ISIN US67066G1040/ WKN 918422) nach wie vor mit dem Rating "market outperform" ein. Das Kursziel werde von 36 USD auf 40 USD angehoben. http://aktien.onvista.de/empfehlungen.html?ID_OSI=92472#news

kann da irgendwie bei keinem von beiden wirkliche probleme erkennen. sieht eigentlich alles recht gut aus, mit vorteilen für nv. allerdings darf man bei ati die xbox 360 nicht vergessen.

Hakkerstiwwel
2005-11-09, 16:12:59
... Das kein Händler unter 599$ verkaufen wird, deute ich als Probleme..
Woher die Sicherheit dass die Inq Meldung sich nicht exklusiv auf BBA Karten bezieht?

desert
2005-11-09, 16:17:57
Seien wir doch ehrlich, erst wenn ati 3 mal mist baut dann wird sich das bemerkbar machen. Sie leben doch jetzt noch vom ruhm der 9700. Die leute haben sich sie damals gekauft und kaufen heute auch wieder ati, weil sie damals halt so überragend war von der schnelligkeit

Die gelbe Eule
2005-11-09, 16:19:41
Und jetzt?
Sollen wir jetzt vorsichtshalber ATi schonmal für bankrott erklären, weil du überall nur Probleme siehst?

Gehört der Thread jetzt eigentlich ins Speku-Forum?

Ich nenne sowas schizophren. Direkt in meinem Post darüber steht, das es keine Bankrotterklärung sein soll und Du machst eine daraus ...

Woher die Sicherheit dass die Inq Meldung sich nicht exklusiv auf BBA Karten bezieht?

Das Thema hatten wir schon oft. BBA Karten gibt es hierzulande kaum.

Hauwech
2005-11-09, 16:23:08
Vista wird mit D3D10 und DXGI ausgeliefert werden. Da wird nichts nachgeschoben.

Sowas wie DX10 gibt es BTW bisher nicht.

Ah gut, ich hatte noch irgendwelche Geruechte im Kopf, dass Vista erst quasi mit WGF1.0 ausgeliefert wird und das WGF2.0 erst spaeter kommen sollte.
Bei den ganzen Aenderungen wie der "Nachfolger" von DX9 heissen soll verliere ich so langsam den Ueberblick...

Prima, gut zu wissen :)

Hakkerstiwwel
2005-11-09, 16:43:29
Das Thema hatten wir schon oft. BBA Karten gibt es hierzulande kaum.
??was hat das damit zu tun?? AFAIK berufst du dich des Preises wegen auf Inq...btw in good old Europe wird auch nicht in USD geloehnt

Coda
2005-11-09, 16:48:58
Komisch dass ATi damit so gut zurecht kommt...Negatives LOD führt auch auf ATi zu flimmern weil Nyquist verletzt wird.

Mr. Lolman
2005-11-09, 16:52:07
Negatives LOD führt auch auf ATi zu flimmern weil Nyquist verletzt wird.

Aber nicht so heftig wie bei NV: http://www.forum-3dcenter.de/vbulletin/showpost.php?p=3660525&postcount=62

Coda
2005-11-09, 16:52:45
Quake verwendet doch gar keinen negativen LOD. Und was haben no-Mipmap Shots mit negativem LOD-BIAS zu tun?

Ich frag mich auch wie man mit Standbildern etwas über die Flimmerneigung eines Filters aussagen will.

Überhaupt ist das R300. R420 und R520 haben schlechtere Filter.

Mr. Lolman
2005-11-09, 16:53:59
Quake verwendet doch gar keinen negativen LOD.

Ja aber man kann die Mipmaps deaktivieren. (um quasi brutal negatives LOD zu simulieren ;))

Ich frag mich auch wie man mit Standbildern etwas über die Flimmerneigung eines Filters aussagen will.

Imo sieht man das bei den Pics relativ gut.


Überhaupt ist das R300. R420 und R520 haben schlechtere Filter.

Dann schau dir halt folgende Pics an: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3654624#post3654624

Demirug
2005-11-09, 16:57:05
Ah gut, ich hatte noch irgendwelche Geruechte im Kopf, dass Vista erst quasi mit WGF1.0 ausgeliefert wird und das WGF2.0 erst spaeter kommen sollte.
Bei den ganzen Aenderungen wie der "Nachfolger" von DX9 heissen soll verliere ich so langsam den Ueberblick...

Prima, gut zu wissen :)

Wenn alles so läuft wie es soll wird man im Dezember genau wissen was D3D10 ist.

Demirug
2005-11-09, 16:58:53
Ja aber man kann die Mipmaps deaktivieren. (um quasi brutal negatives LOD zu simulieren ;))

Das ist technisch gesehen nicht zwingend das gleiche vorallem wenn AF ins Spiel kommt.

Die gelbe Eule
2005-11-09, 17:04:04
??was hat das damit zu tun?? AFAIK berufst du dich des Preises wegen auf Inq...btw in good old Europe wird auch nicht in USD geloehnt

Ne stimmt. Aber die Preise werden 1:1 übernommen. Eher schlägt man noch etwas drauf. Die 6800GS kostet z.B. 205$, hier bekommt man sie erst ab 230€.

Coda
2005-11-09, 17:21:13
Ja aber man kann die Mipmaps deaktivieren. (um quasi brutal negatives LOD zu simulieren ;))Das ist nicht das gleiche.

Imo sieht man das bei den Pics relativ gut.Man sieht dass nV mit AF Probleme hat ohne Mipmaps. Nichts neues.

Dann schau dir halt folgende Pics an:Was soll das zeigen? Wie gesagt kann man ohne "Referenz-AF" nicht sagen was denn nun besser ist, das ist auch persönliche Präferenz. Vor allem würde mich in dem Zusammenhang mal ein Screenshot auf NV20 interessieren.

Pirx
2005-11-09, 17:21:23
Ich nenne sowas schizophren. Direkt in meinem Post darüber steht, das es keine Bankrotterklärung sein soll und Du machst eine daraus ...

Aber was anderes kann man aus deinen Posts ja nicht mehr ableiten.

Irgendwie fehlt hier auch die Diskussionsgrundlage, du scheinst mir hier eher deine Wunschvorstellungen zu äußern - ATi soll möglichst viele Probleme haben.

Fest steht, ATi hat ne mehr oder weniger neue Architektur, die leistungsmäßig mithalten kann, aber auch ihre Schwächen hat.
Gelingt es ATi, diese Schwächen zu korrigieren, sehe ich überhaupt keine Probleme. Gelingt dies nicht, hat ATi locker das Potenzial, es mit einer anderen Architektur/Produktionsprozess besser zu machen, mal ganz davon abgesehen daß sie auch noch in andern Geschäftsfeldern aktiv sind und die Konkurrenz auch nicht den Siliziumklumpen:D der Weisen besitzt.

Hakkerstiwwel
2005-11-09, 17:27:37
Ne stimmt. Aber die Preise werden 1:1 übernommen. Eher schlägt man noch etwas drauf. Die 6800GS kostet z.B. 205$, hier bekommt man sie erst ab 230€.
Nochmal:
ich beziehe mich auf deine Aussage, dass die X1800XT nicht fuer unter 599 USD verkauft werden soll. Diese Aussage hast du vom Inq. IMO betrifft das Ganze nur BBA Karten, welche eben nur in US und CA vertrieben werden. Was und zu welchem Preis Atis Boardpartner in EU oder sonstwo verkaufen, und zu welchem Preis Shops Karten verkaufen die nicht BBA sind, darauf hat Ati keinen Einfluss. :deal: ?

Die gelbe Eule
2005-11-09, 17:28:47
Du hast Deinen Post auf meinen bezogen und da steht schwarz auf weiß "keine Bankrotterklärung". Wenn Du Dir irgendwas anders darausziehst, dann weiß ich auch nicht.

Eingangspost lesen > 166 Posts lesen > Wunschvorstellung? Keine Diskussionsgrundlage?

Passt irgendwie gar nicht zusammen. Habe nirgendwo geschrieben das ATi untergehen soll, warum auch. Ohne Konkurrenz würden wir kaum etwas zu schreiben haben oder?

Nochmal:
ich beziehe mich auf deine Aussage, dass die X1800XT nicht fuer unter 599 USD verkauft werden soll. Diese Aussage hast du vom Inq. IMO betrifft das Ganze nur BBA Karten, welche eben nur in US und CA vertrieben werden. Was und zu welchem Preis Atis Boardpartner in EU oder sonstwo verkaufen, und zu welchem Preis Shops Karten verkaufen die nicht BBA sind, darauf hat Ati keinen Einfluss. :deal: ?

Quelle das es sich nur auf den amerikanischen/kanadischen Markt bezieht?


*edit*

Hab mal eben bei Atelco intern nachgefragt. Vor Dezember erwarten sie keine X1800XT.

Pirx
2005-11-09, 17:36:02
Warum siehst/postest du denn dann nur die negativen Seiten der Medaille ATi, das soll doch wohl eine Bestandsaufnahme sein?

Die gelbe Eule
2005-11-09, 17:41:28
Ich beziehe auf etwas ganz anderes, als auf alte Geschichten der R4xx. Es geht um neue Produkte bei beiden Herstellern und was aktuell ATI dort zu bieten hat. Eingangspost lesen hilft.

Hakkerstiwwel
2005-11-09, 17:43:55
Quelle das es sich nur auf den amerikanischen/kanadischen Markt bezieht?

Englische Sprache schwere Sprache? Lies genau was in der Meldung steht, und ziehe keine falschen Schluesse aus dem Geschriebenen.

Black-Scorpion
2005-11-09, 17:50:54
Quelle das es sich nur auf den amerikanischen/kanadischen Markt bezieht?
Wenn ATI Preise nennt kann sich das nur auf USA/Canada beziehen da sie außerhalb davon keine Konsumerkarten anbieten.

Wenn du das noch immer nicht verstanden hast ist das ganz allein dein Problem.

Die gelbe Eule
2005-11-09, 17:52:12
In der Meldung steht nichts zu Kanada oder Amerika. Aufgrund einer Memo wurde der MRSP auf 599$ angehoben. So lange da nicht explizit steht, das es Europa nicht tangiert, ist es für die Allgemeinheit. Aber kannst mir ja gerne den Teil quoten der BBA enthält.

Wenn ATI Preise nennt kann sich das nur auf USA/Canada beziehen da sie außerhalb davon keine Konsumerkarten anbieten.

Wenn du das noch immer nicht verstanden hast ist das ganz allein dein Problem.

Du willst nicht wissen mit was Händler hier schon spekulieren. 50$ extra läßt sich keiner in der Marge entgehen. Davon ab, vor Dezember gibt es keine lieferbar.

Hakkerstiwwel
2005-11-09, 17:57:46
Wenn ATI Preise nennt kann sich das nur auf USA/Canada beziehen da sie außerhalb davon keine Konsumerkarten anbieten.

Wenn du das noch immer nicht verstanden hast ist das ganz allein dein Problem.
ack, aber absolut sinnlos weiter mit ihm darueber zu diskutieren

Black-Scorpion
2005-11-09, 17:58:41
Nein die nennen in Zukunft Preise für den Mond und den Mars.
Willst du nur sinnlos provozieren?

Warum sollen sie Preise für Europa angeben wenn sie hier keine Karten verkaufen.
Ist das wirklich so schwer zu begreifen?

Die gelbe Eule
2005-11-09, 18:05:03
Wen provoziere ich denn? Greife ich wen hier persönlich an?
Findest Du hier nicht.

ATi hat übrigens gar nichts angegeben, es war nur eine Memo. Wenn ATi selbst dort Karten verkauft, warum haben dann die Händler Sorgen?

Crushinator
2005-11-09, 18:24:24
Wen provoziere ich denn? Greife ich wen hier persönlich an? Findest Du hier nicht. (...)
Man findet beides nicht, das ist richtig. Was man aber findet ist Schwarzmalerei, die wiederum zwar indirekt aber dennoch provoziert. :)

Die gelbe Eule
2005-11-09, 18:32:59
Danke. :)

Provoziert kann sich nur der überzeugte ATi User fühlen, alle anderen diskutieren mehr oder weniger munter mit ;)

Sir Integral Wingate Hellsing
2005-11-09, 20:25:23
Danke. :)

Provoziert kann sich nur der überzeugte ATi User fühlen, alle anderen diskutieren mehr oder weniger munter mit ;)

Ich sehe in deinen Postings nur einen NV-Fanboy, der versucht möglichst viele Posts zu sammeln. Pirx liegt da schon ganz richtig. So oft wie Du hier ANTI-ATi Threads aufmachst (natürlich unter dem Deckmantel der Objektivität - LOL) kann einem nur schlecht werden. Mach doch mal einen Quo Vadis NV-Thread auf ... vllt wäre das mal was neues ;) Werte dieses posting als persönlichen Angriff - mir egal :rolleyes:

Sorry 4 OT

Die gelbe Eule
2005-11-09, 20:43:16
Moderatoren haben bisher nichts einzuwenden gehabt und viele haben hier bereits gepostet. Ich könnte einen Quo Vadis NV Thread aufmachen, doch wird es nur auf das Gestreite von winkelunabhängigem AF hinauslaufen, sowie das schlechtere AA. Alle ATiler bashen dann da rein, das Ihre Karte anno haste nicht gesehn bessere BQ bietet und das war es schon. Was anderes passiert hier zum Teil ja auch nicht.

Hier geht es um das wo gehst Du hin ohne Karten, nicht um mein NV ist toll. Hab nichtmal eine einzige Karte im Haus, davon ab. Einige haben gute Infos gebracht und sowas möchte ich damit bezwecken.

Sir Integral Wingate Hellsing
2005-11-09, 21:00:08
Moderatoren haben bisher nichts einzuwenden gehabt und viele haben hier bereits gepostet. Ich könnte einen Quo Vadis NV Thread aufmachen, doch wird es nur auf das Gestreite von winkelunabhängigem AF hinauslaufen, sowie das schlechtere AA. Alle ATiler bashen dann da rein, das Ihre Karte anno haste nicht gesehn bessere BQ bietet und das war es schon. Was anderes passiert hier zum Teil ja auch nicht.

Hier geht es um das wo gehst Du hin ohne Karten, nicht um mein NV ist toll. Hab nichtmal eine einzige Karte im Haus, davon ab. Einige haben gute Infos gebracht und sowas möchte ich damit bezwecken.


Meinst du nicht das Du aber nichtsdestotrotz etwas einseitig argumentierst?

Die gelbe Eule
2005-11-09, 21:20:45
2 Posts von Dir im Thread und beide nur gegen mich persönlich. Wenn Dir nicht gefällt was Du von mir liest, ignoriere es bitte.
Deine zweideutige Frage brauche ich nicht zu kommentieren ...

MadManniMan
2005-11-09, 22:42:59
Moderatoren haben bisher nichts einzuwenden gehabt und viele haben hier bereits gepostet.

Das liegt aber auch daran, daß Moderatoren natürlich Meinungen nicht zensieren und der Stil OK ist, aber dennoch kannst Du (ich sage nicht, daß es so ist) nV-Fan sein, ohne daß die eben eingreifen.
Nur als Anmerkung.

zeckensack
2005-11-10, 00:31:50
Cooler Thread :uup:
1. HighEnd: Der G70 legt monatelang vor, R520 zieht nach, der neue G70 holt weiter aus ...Der neue G70? Was ist das?
2. Mainstream: X1600XT wird angekündigt, ist aber nicht erhältlich. NV setzt die 6800 GS dagegen und schlägt Ihr ATi Pendant in allen Belangen, sogar der 110nm Prozess verbaucht weniger Leistung als der 90nm von ATi.

6800GS vs. X1600XT (http://www.hkepc.com/hwdb/6800gs6600ddr2-3.htm)Es ist überhaupt keine X1600 erhältlich. Die 6800GS ebenfalls nicht. Unter diesen Voraussetzungen: wayne?
3. LowEnd: NV läßt die 6600 DDR2 gegen die X1300PRO antreten und gewinnt deutlich. Dabei sind noch nichtmal die G7X Derivate erhältlich.

6600 DDR2 vs. X1300pro (http://www.hkepc.com/hwdb/6800gs6600ddr2-4.htm)Ach so.
Die X1300Pro hätte ich heute hier in Deutschland kaufen können, wenn ich Bock gehabt hätte. Kostet 110€.
Ich erschaudere bei dem Gedanken dass "Geforce 6600 DDR2" eine offizielle Produktbezeichnung sein könnte, aber egal, denn das gibt's ebenfalls schon längst zu kaufen (http://www.geizhals.at/eu/a134404.html), auch wenn zu befürchten steht dass es nochmal "neu" herauskommt. Kostet in Deutschland 130€, hat etwas höhere Rohleistung, dafür schlechteres AF und halb so viel Speicher, sowie ein anderes Feature-Set, womit ich mich jetzt nicht aufhalten möchte.

Man müsste also wahnsinnig sein, wenn man sich bei der Auswahl zwischen diesen beiden Karten nicht für die sogenannte "6600 DDR2" entscheiden würde, ja? Sie gewinnt ja deutlich, wenn man dir glauben kann. Tja, wenn.

Und die "G7X Derivate [sic]" kann ich dir als Bonus anbieten, falls du mir eine Brücke abkaufst, die zwar noch nicht gebaut wurde, aber ich habe schon lange darüber nachgedacht, und müsste nur noch einen geeigneten Fluss finden.
Das soll kein Bash sein!Du bist ein Troll.
Das soll keine Anschuldigung sein!

Coda
2005-11-10, 00:35:37
Der neue G70?Ja, der mit deutlich mehr Takt. Evtl. ist die Bezeichnung nicht ganz richtig, aber man kann auch pingelig sein, nicht?

zeckensack
2005-11-10, 00:42:05
Ja, der mit deutlich mehr Takt. Evtl. ist die Bezeichnung nicht ganz richtig, aber man kann auch pingelig sein, nicht?Sry, bin gerade in leicht professionell genervter Stimmung ...
Ich kenne keinen neuen G70. Wenn's den insofern gibt, als dass er hier zur Argumentation schon ausreicht, wo ist er denn dann überhaupt, und was ist er, sprich: Links?

Und davon abgesehen fände ich's wirklich merkwürdig wenn er wieder G70 heißen sollte. NV20=>NV25=>NV28 bzw NV30=>NV35=>NV38 ist eigentlich das bekannte Schema für performanceoptimierte Respins.

Die gelbe Eule
2005-11-10, 00:55:02
6800GS gibt es zu kaufen, heute bei Atelco gesehen.
Der neue G70 wird die 7800GTX mit 512MB und 550/1800 Takt.

G71 kann er nicht heißen, so lautet schon der RSX. G72 und G73 werden später kommen. Nenn Ihn wie Du magst, trotzdem bleibt er ein G70 mit mehr RAM und höherem Takt, sonst wird nichts geändert.

Der NV40 war auch 6800LE/NU/GT/Ultra auf einmal.

Cooler Thread :uup:
Die X1300Pro hätte ich heute hier in Deutschland kaufen können, wenn ich Bock gehabt hätte. Kostet 110€.
Ich erschaudere bei dem Gedanken dass "Geforce 6600 DDR2" eine offizielle Produktbezeichnung sein könnte, aber egal, denn das gibt's ebenfalls schon längst zu kaufen (http://www.geizhals.at/eu/a134404.html), auch wenn zu befürchten steht dass es nochmal "neu" herauskommt. Kostet in Deutschland 130€, hat etwas höhere Rohleistung, dafür schlechteres AF und halb so viel Speicher, sowie ein anderes Feature-Set, womit ich mich jetzt nicht aufhalten möchte.

Dir ist bekannt das eine LowCost Karte mit 256MB sinnfrei ist oder?


Man müsste also wahnsinnig sein, wenn man sich bei der Auswahl zwischen diesen beiden Karten nicht für die sogenannte "6600 DDR2" entscheiden würde, ja? Sie gewinnt ja deutlich, wenn man dir glauben kann. Tja, wenn.

Glaub nicht mir, sonderen dem Eingangspost mit Links zum Benchmark.


Du bist ein Troll.
Das soll keine Anschuldigung sein!

Darf mir auch Straßennamen geben, wenn Du magst.

zeckensack
2005-11-10, 01:40:04
6800GS gibt es zu kaufen, heute bei Atelco gesehen.Ok. Hatte sie im Netz noch nicht gefunden.Der neue G70 wird die 7800GTX mit 512MB und 550/1800 Takt.Danke.G71 kann er nicht heißen, so lautet schon der RSX. G72 und G73 werden später kommen. Nenn Ihn wie Du magst, trotzdem bleibt er ein G70 mit mehr RAM und höherem Takt, sonst wird nichts geändert.

Der NV40 war auch 6800LE/NU/GT/Ultra auf einmal.Ja, der Chip konnte eben ohne Revision die Ultra-Takte erreichen. "Neuer G70" hörte sich eben nach einer Revision an. Sämtliche Unklarheiten sind nun meinerseits ausgeräumt.
Dir ist bekannt das eine LowCost Karte mit 256MB sinnfrei ist oder?Ja schon. Schlimm wäre wenn man für etwas sinnloses draufzahlen müsste. Was die 128MB "zuviel" nun tatsächlich kosten kann man schwer sagen, denn es gibt die Karte (bis jetzt?) nur in Übergröße.
Macht in dem Fall aber nichts, denn sie ist trotzdem 20€ billiger als die 6600 "Diamond" von MSI.

Es ist nicht alles so eindeutig. Die Unterschiede in den Benchmarks sind so drastisch nicht, liegt etwa im Rahmen dessen was man sowieso zu erwarten hatte, wenn man vorher (4*600)/(8*400) ausgerechnet hat.

Und dann gibt's neben Preis und den paar Benchmarks auch noch die vielen anderen kleinen Unterschiede. Die 6600 hat gewisse Qualitäten die die X1300 nicht hat, und umgekehrt. Es gibt keinen logischen Zwang, die eine der anderen vorzuziehen. Jeder hat leicht andere Anspruchsschwerpunkte, und die Karten sind einfach viel zu nah aneinander, um gegen dieses Grundrauschen anzukommen.

"Quo vadis" fragst du, was IMO bedeutet dass du dir Sorgen machst, und gerade bei dem Beispiel weiß ich einfach nicht warum.
NVIDIA hat auch die Geforce 5600 und 5800 überlebt, und das waren viel größere Sorgenkinder.

aths
2005-11-10, 03:15:09
Ja aber man kann die Mipmaps deaktivieren. (um quasi brutal negatives LOD zu simulieren ;))Bitte kümmer dich doch mal darum, Texturfilterung und LOD-Berechnungen sowie den Gebrauch von MIP-Maps zu verstehen. Sonst lese ich wieder, dass die GeForce den LOD nur per MIP-Map berechnen würde ...

aths
2005-11-10, 03:24:01
1. HighEnd: Der G70 legt monatelang vor, R520 zieht nach, der neue G70 holt weiter aus ...

2. Mainstream: X1600XT wird angekündigt, ist aber nicht erhältlich. NV setzt die 6800 GS dagegen und schlägt Ihr ATi Pendant in allen Belangen, sogar der 110nm Prozess verbaucht weniger Leistung als der 90nm von ATi.

6800GS vs. X1600XT (http://www.hkepc.com/hwdb/6800gs6600ddr2-3.htm)

3. LowEnd: NV läßt die 6600 DDR2 gegen die X1300PRO antreten und gewinnt deutlich. Dabei sind noch nichtmal die G7X Derivate erhältlich.

6600 DDR2 vs. X1300pro (http://www.hkepc.com/hwdb/6800gs6600ddr2-4.htm) Die 1600 ist imo in erster Linie eine Designstudie, und wird bald im Einsteigersegment zu finden sein. ATI wird vermutlich über kurz oder lang mit 8-Pipe-Versionen vom R520 kommen, um die 1600 abzulösen.

Die 1300 ist eine reine Einsteigerlösung. Für einen Spieler genauso wenig zu empfehlen wie eine 6600 ohne das "GT"-Kürzel.

Jeder Hersteller tut so, als seien ihre Produkte denen der Konkurrenz überlegen – und jeder kann es sich so hinbiegen. Beispielsweise interessiert es mich nicht die Bohne, ob die 7800 GTX jetzt in Bezug auf die Geschwindigkeit vom R520 geschlagen wird – der R520 hat das bessere MSAA und vor allem das bessere AF anzubieten. Das sind Werte, die für mich zählen, aber in einer von NV gemachten Positionierung (6800 GS vs. 1600 XT) nicht aufgeführt werden.

Was sagt uns das für die Zukunft?Dass ATI nachlegen wird.

Demirug
2005-11-10, 06:25:53
Und davon abgesehen fände ich's wirklich merkwürdig wenn er wieder G70 heißen sollte. NV20=>NV25=>NV28 bzw NV30=>NV35=>NV38 ist eigentlich das bekannte Schema für performanceoptimierte Respins.

Das Schema kommt nicht mehr zur Anwendung. Hat nVidia selbst gesagt.

Die gelbe Eule
2005-11-10, 06:32:58
Meinst Du nicht das es etwas zu kostenintensiv ist, eine Desingstudie auf den Markt loszulassen? Im Moment hat die X1600XT wirklich diesen Zustand inne, entwickelt aber nicht verfügbar und wenn sie verfügbar ist, dann wurde sie bereits überholt.
Irgendjemand sagte das sogar in den Benchmarks unter HQ, also annähernd der gleichen BQ, die 6800GS noch schneller ist.
Natürlich fehlt das bessere AF und MSAA, aber ganz ehrlich, wie performant ist dann noch die X1600XT wenn man es zuschaltet?
Über kurz oder lang wird die 6800GS die Position der 6600GT einnehmen, da 7800GS und 7600 so langsam Gestalt annehmen. So haben wir dann die Situation wie bei 7800GTX und X1800XL, sind 100€ Aufpreis die leicht bessere BQ wert oder nicht?
Das muss jeder selbst entscheiden ...

*edit*

Ein Test mit gleichen Taktraten und gleichem Design im Zuge der Effizienz wie bei G70/R520 wäre vielleicht interessant.

Ailuros
2005-11-10, 06:33:58
ATI wird vermutlich über kurz oder lang mit 8-Pipe-Versionen vom R520 kommen, um die 1600 abzulösen.

So sicher bin ich mir gar nicht darueber; ich dachte selber dass R580 naechstes Jahr nur an die Spitze geschoben wird, aber nach neuestem Stand sieht wohl danach aus als ob die letztere den R520 dann doch abloesen wird. Die "XL" Version des R580 soll mit =/>600MHz ankommen und die X1800XT wird wohl quasi verschwinden.

Fuer die paar Monate Lebenszeit des R520 und die Not die Anfrage fuer X1800XL und X1800XT zu decken, sehe ich im besten Fall 3 quad Varianten wenn ueberhaupt.

RV530 wird schnellstens von RV535 abgeloest und es kann sein dass das erste die kuerzeste Lebenszeit auf Regalen von der ganzen Linie ueberhaupt hat. Letzteres hat dann 8 TMUs und es ist noch unklar ob 90 oder 80nm dafuer benutzt wird.

Ailuros
2005-11-10, 06:35:56
Das Schema kommt nicht mehr zur Anwendung. Hat nVidia selbst gesagt.

Ich denke sie benutzen dann fuer die 90nm Variante irgend was wie "G75" oder so aehnlich.

Die gelbe Eule
2005-11-10, 06:59:24
Diese Zwischenlösungen die schnellstmöglich abgelöst werden sollen, das hört sich nach Kosten an, die man erstmal reinholen muss. Ich hoffe nur das sie nicht schon Karten ankündigen, wenn gerade die "alten" verfügbar werden, das würde die Käufer ziemlich verärgern.

desert
2005-11-10, 07:54:11
gelbe eule glaube ich nicht, den mal ehrlich an wen werden denn die meisten grafikkarten verkauft, das sind doch nicht leute wie wir, sondern der normale computerbenutzer. Die kaufen alle 2 jahre mal eine und denen ist das egal weil die das garnicht verfolgen was nun wöchentlich an grafikkarten gelauncht werden.

Ausserdem hat konkurrenz noch niemanden geschadet. machen wir uns also auf einen passenden gegenschlag gefasst und solange die bq wieder mal nach oben geht.

Möchte gerne wieder so ein schönes bild wie mit meiner gf4ti haben, hab sie gestern noch mal eingebaut, ist doch schon ein unterschied zuerkennen beim aa zu meiner gf6800gt.

Mr. Lolman
2005-11-10, 08:07:41
Bitte kümmer dich doch mal darum, Texturfilterung und LOD-Berechnungen sowie den Gebrauch von MIP-Maps zu verstehen. Sonst lese ich wieder, dass die GeForce den LOD nur per MIP-Map berechnen würde ...

Wo liegt mein Denkfehler?

/edit: Außerdem gings mir ums optische Ergebnis. Und da ists egal ob die Mipmaps fehlen, oder man den LOD Bias auf bspw. -10 setzt...

Die gelbe Eule
2005-11-10, 08:10:13
Recht hast Du. Leider wurde einem Kumpel von mir vorgestern ein PC zusammengestellt und für 850€ verkauft, welche eine X600 beinhaltete auf einem 754er Board !!!
Der Händler hat Ihm das als BF2 tauglich bescheinigt.
Uniwissende werden leider viel zu schnell mit alter Ware abgespeist und die Händler beziehen sich meist auf die fehlende Lieferbarkeit, um Ihr handeln zu begründen.
Traurig sowas ...

deekey777
2005-11-10, 10:08:31
So sicher bin ich mir gar nicht darueber; ich dachte selber dass R580 naechstes Jahr nur an die Spitze geschoben wird, aber nach neuestem Stand sieht wohl danach aus als ob die letztere den R520 dann doch abloesen wird. Die "XL" Version des R580 soll mit =/>600MHz ankommen und die X1800XT wird wohl quasi verschwinden.
Ist das spannend. :biggrin:
Erscheint aber am wahrscheinlichsten, man wird so nur einen Superduperhighend-Grafikchip produzieren. Doch es wurde vor einigen Wochen auch über einen RV560 gesponnen.

Fuer die paar Monate Lebenszeit des R520 und die Not die Anfrage fuer X1800XL und X1800XT zu decken, sehe ich im besten Fall 3 Quad-Varianten, wenn ueberhaupt.
Andererseits könnte ATi den Launch der auf dem R580 basierenden Grafikkarten so lange hinauszögern, bis ein Launch à la 7800GTX sichergestellt ist, auch verlängert dies die Lebenszeit des R520.

RV530 wird schnellstens von RV535 abgeloest und es kann sein dass das erste die kuerzeste Lebenszeit auf Regalen von der ganzen Linie ueberhaupt hat. Letzteres hat dann 8 TMUs und es ist noch unklar, ob 90 oder 80nm dafuer benutzt wird.
Sicher, daß es nicht "einfach" ein Shrink auf 80nm sein wird? Die Erweiterung um weitere 4 TMUs könnte den Hunger der RV530 nach Texelfüllrate stillen.

Demirug
2005-11-10, 10:14:29
Ich denke sie benutzen dann fuer die 90nm Variante irgend was wie "G75" oder so aehnlich.

Angeblich wird einfach nur noch stur durchnummeriert.

Die gelbe Eule
2005-11-10, 13:54:37
http://cgi.ebay.de/ATI-Radeon-X1800-XT-PCI-Express-512MB-DDR3_W0QQitemZ8720055250QQcategoryZ40158QQssPageNameZWD2VQQrdZ1QQcmdZViewItem

555€ und noch 4 Tage. Wie war das noch mit MRSP 599$ ist nichts für Europa?

deekey777
2005-11-10, 13:56:40
http://cgi.ebay.de/ATI-Radeon-X1800-XT-PCI-Express-512MB-DDR3_W0QQitemZ8720055250QQcategoryZ40158QQssPageNameZWD2VQQrdZ1QQcmdZViewItem

555€ und noch 4 Tage. Wie war das noch mit MRSP 599$ ist nichts für Europa?

Wenn du immer noch nicht den Sinn des MSRP verstanden hast, dann verzichte bitte diesen Begriff zu nutzen.

DrumDub
2005-11-10, 14:03:22
http://cgi.ebay.de/ATI-Radeon-X1800-XT-PCI-Express-512MB-DDR3_W0QQitemZ8720055250QQcategoryZ40158QQssPageNameZWD2VQQrdZ1QQcmdZViewItem

555€ und noch 4 Tage. Wie war das noch mit MRSP 599$ ist nichts für Europa? geil, nen ebay-link zu ner karte, die es noch gar nicht offiziell zu kaufen gibt. die geht sicher für 700-800 eur weg. ne paar bekloppte gibts immer...

mindfaq
2005-11-10, 14:05:27
Möchte gerne wieder so ein schönes bild wie mit meiner gf4ti haben, hab sie gestern noch mal eingebaut, ist doch schon ein unterschied zuerkennen beim aa zu meiner gf6800gt.Beim Antialiasing ? Bist du dir sicher, dass du nicht AF meinst ?

Hakkerstiwwel
2005-11-10, 14:07:44
http://cgi.ebay.de/ATI-Radeon-X1800-XT-PCI-Express-512MB-DDR3_W0QQitemZ8720055250QQcategoryZ40158QQssPageNameZWD2VQQrdZ1QQcmdZViewItem

555€ und noch 4 Tage. Wie war das noch mit MRSP 599$ ist nichts für Europa?
ich weiß nicht ob ich angesichts dieses Posts lachen oder weinen soll

Sir Integral Wingate Hellsing
2005-11-10, 16:21:00
http://www.hardtecs4u.com/?id=1131629417,74483,ht4u.php

Newstitel: Radeon X1300 und X1600 Crossfire-Verbund ohne Mastercard

(org. Quelle: http://www.anandtech.com/video/showdoc.aspx?i=2594 )

aths
2005-11-10, 19:42:10
Meinst Du nicht das es etwas zu kostenintensiv ist, eine Desingstudie auf den Markt loszulassen? Meinst du nicht, dass es noch kostenintensiver ist, mit einer Designstudie gar kein Geld zu verdienen? Der RV530 ist in gewissen Dingen (Fetch4-Operation) nicht nur weiter als der R520, er ist auch geeignet, das (imo recht sinnvolle) 1:3 TMU-ALU-Verhältnis in der Praxis zu testen.

Im Moment hat die X1600XT wirklich diesen Zustand inne, entwickelt aber nicht verfügbar und wenn sie verfügbar ist, dann wurde sie bereits überholt.
Irgendjemand sagte das sogar in den Benchmarks unter HQ, also annähernd der gleichen BQ, die 6800GS noch schneller ist.
Natürlich fehlt das bessere AF und MSAA, aber ganz ehrlich, wie performant ist dann noch die X1600XT wenn man es zuschaltet?Ausreichend. Das gute beim HQ-AF à la R520 ist ja, dass es die Füllrate effizienter in Qualität umsetzt als das andere, stark winkelabhängige AF. Außerdem bietet die X1600 Multisampling bis zu 6x. Das heißt, sie bietet mehr Kantenglättung rein durch das performance Multisampling, und kann insgesamt gleichwertige AF-Texturen mit weniger Füllratenverbrauch erreichen.

Über kurz oder lang wird die 6800GS die Position der 6600GT einnehmen, da 7800GS und 7600 so langsam Gestalt annehmen. So haben wir dann die Situation wie bei 7800GTX und X1800XL, sind 100€ Aufpreis die leicht bessere BQ wert oder nicht?
Das muss jeder selbst entscheiden ...

*edit*

Ein Test mit gleichen Taktraten und gleichem Design im Zuge der Effizienz wie bei G70/R520 wäre vielleicht interessant.Wie meinst du das "mit gleichem Design"?

aths
2005-11-10, 19:43:39
Wo liegt mein Denkfehler?

/edit: Außerdem gings mir ums optische Ergebnis. Und da ists egal ob die Mipmaps fehlen, oder man den LOD Bias auf bspw. -10 setzt...Soweit ich weiß, kann man nur im Bereich von +-8 das LOD-Bias umstellen. Trotz LOD-Biasing kann z. B. trilinear gefiltert werden, was bei fehlenden MIPs unmöglich ist (sofern man keine Fast-Tri-TMUs hat.) Trilineare Filterung senkt prinzipiell die Flimmeranfälligkeit.

Ich verstehe auch nicht, warum du überhaupt die MIPs weglassen oder "brutal negatives LOD" simulieren willst.

Mr. Lolman
2005-11-10, 19:52:11
Ich verstehe auch nicht, warum du überhaupt die MIPs weglassen oder "brutal negatives LOD" simulieren willst.

Weil man damit die Filterqualität testen kann. Denn es gibt Szenen, wo negatives LOD durchaus sinnvoll sein kann. Bspw. bei den Grasbüscheln von Serious Sam 2,...

/edit: ...oder bei GTL: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3659620#post3659620 ;) (<- nicht aufdringlich gemeint)

Coda
2005-11-10, 19:59:10
Unterfilterung soll sinnvoll sein? Begründung?

zeckensack
2005-11-10, 20:03:10
Soweit ich weiß, kann man nur im Bereich von +-8 das LOD-Bias umstellen. Trotz LOD-Biasing kann z. B. trilinear gefiltert werden, was bei fehlenden MIPs unmöglich ist (sofern man keine Fast-Tri-TMUs hat.) Trilineare Filterung senkt prinzipiell die Flimmeranfälligkeit.Wenn du eine 256x256-Textur mit einem LOD-Bias von -8 beglückst, ist der trilineare Filter völlig wirkungslos, genau so wie er bei Vergrößerung wirkungslos ist.

Lolman hat grundsätzlich schon Recht wenn er sagt dass extremer negativer LOD-Bias und das Nichtvorhandensein von Mipmaps äquivalent ist.
Praktisch gibt's genau zwei Einschränkungen dieser Äquivalenz.
1)Wertebereich des LOD-Bias (hardwareabhängig). -8 zB wäre für Texturen ab 512x... nicht mehr extrem genug.
2)Das bekloppte Verhalten diverser NVIDIA-Chips beim AF.

Mr. Lolman
2005-11-10, 20:05:28
Unterfilterung soll sinnvoll sein? Begründung?

Wenn dich Screenshots eher überzeugen sollten, als eine bemühte Erklärung bezügl. entstehender Unschärfe beim Mipmapping wenigfarbiger Alphatestgrastexturen, dann sags gleich bevor ich mir die Finger wund schreib. :D

Außerdem könntest du dir ja nochmal die GTL Pics ansehen: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3654624#post3654624

Die gelbe Eule
2005-11-10, 21:11:55
@aths:

Gleiches Design = Beide Karten auf dem gleichen Takt fahren.
Wir haben auf beiden seiten das 12/5 Design, nur hat die ATi 165Mhz mehr GPU Takt und 190MHz Speichertakt. NV arbeitet mit niedrigeren Taktraten viel schneller und bei einem exaktem Vergleich, sieht die X1600XT noch schlechter aus als jetzt.

Pirx
2005-11-10, 21:22:46
@aths:

Gleiches Design = Beide Karten auf dem gleichen Takt fahren.
Wir haben auf beiden seiten das 12/5 Design, nur hat die ATi 165Mhz mehr GPU Takt und 190MHz Speichertakt. NV arbeitet mit niedrigeren Taktraten viel schneller und bei einem exaktem Vergleich, sieht die X1600XT noch schlechter aus als jetzt.
Was soll denn das für ein exakter Vergleich sein?
Die "Pipelines" und Bestandteile dieser sind bei ATi und nV nicht gleich konstruiert, siehe A64/P4.

Coda
2005-11-10, 21:25:07
Wenn dich Screenshots eher überzeugen sollten, als eine bemühte Erklärung bezügl. entstehender Unschärfe beim Mipmapping wenigfarbiger Alphatestgrastexturen, dann sags gleich bevor ich mir die Finger wund schreibDann wurden die Mipmaps falsch erzeugt. Negativer LOD-Bias ist nie die richtige Lösung.

Und die Aussage ist unabhängig davon wie welcher IHV mit negativem LOD umgeht. Ich denke aber nV wird eben genau davon ausgegangen sein und deshalb irgendwie Transistoren gespart.

reunion
2005-11-10, 21:26:25
@aths:

Gleiches Design = Beide Karten auf dem gleichen Takt fahren.
Wir haben auf beiden seiten das 12/5 Design, nur hat die ATi 165Mhz mehr GPU Takt und 190MHz Speichertakt. NV arbeitet mit niedrigeren Taktraten viel schneller und bei einem exaktem Vergleich, sieht die X1600XT noch schlechter aus als jetzt.


Was "hinten" rauskommt zählt, wie man es erreicht, ist irrelevant.

deekey777
2005-11-10, 21:27:50
@aths:

Gleiches Design = Beide Karten auf dem gleichen Takt fahren.
Wir haben auf beiden seiten das 12/5 Design, nur hat die ATi 165Mhz mehr GPU Takt und 190MHz Speichertakt. NV arbeitet mit niedrigeren Taktraten viel schneller und bei einem exaktem Vergleich, sieht die X1600XT noch schlechter aus als jetzt.

Falsch. Die RV530 kann man zZ mit keinem anderen Design* vergleichen; sie scheint mehr als 5VS zu haben. Und noch einmal: Die RV530 hat nur 4 Pipelines mit je 3 Pixelshader-Einheiten per Pipeline und nur 4 TMUs.

*4:1:3:2.

aths
2005-11-10, 21:28:58
Weil man damit die Filterqualität testen kann. Denn es gibt Szenen, wo negatives LOD durchaus sinnvoll sein kann. Bspw. bei den Grasbüscheln von Serious Sam 2,...Damit es erst recht flimmert? Negatives LOD-Bias ist, vorausgesetzt die Entwickler haben nicht großen Mist gebaut, grundsätzlich nie sinnvoll.

/edit: ...oder bei GTL: http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3659620#post3659620 ;) (<- nicht aufdringlich gemeint)Das verstehe ich jetzt nicht. Was soll da sein?

aths
2005-11-10, 21:30:28
Wenn du eine 256x256-Textur mit einem LOD-Bias von -8 beglückst, ist der trilineare Filter völlig wirkungslos, genau so wie er bei Vergrößerung wirkungslos ist.

Lolman hat grundsätzlich schon Recht wenn er sagt dass extremer negativer LOD-Bias und das Nichtvorhandensein von Mipmaps äquivalent ist.
Praktisch gibt's genau zwei Einschränkungen dieser Äquivalenz.
1)Wertebereich des LOD-Bias (hardwareabhängig). -8 zB wäre für Texturen ab 512x... nicht mehr extrem genug.
2)Das bekloppte Verhalten diverser NVIDIA-Chips beim AF.1) Genau.

2) Genau. Die tatsächliche Implementierung der Filter entspricht nicht immer der eigentlichen (Lehrbuch-) Mathematik – durch fehlende MIPs ein stark negatives LOD-Bias zu emulieren kann in die Hose gehen. Zumal ich ohnehin keine Anwendung dafür sehe, bei gemippten Texturen die MIPs zwangsweise wegzulassen.

aths
2005-11-10, 21:32:44
@aths:

Gleiches Design = Beide Karten auf dem gleichen Takt fahren.
Wir haben auf beiden seiten das 12/5 Design, nur hat die ATi 165Mhz mehr GPU Takt und 190MHz Speichertakt. NV arbeitet mit niedrigeren Taktraten viel schneller und bei einem exaktem Vergleich, sieht die X1600XT noch schlechter aus als jetzt.Das ist doch egal. Was zählt ist, was die Karte, so wie sie ist, pro Sekunde schafft.

Coda
2005-11-10, 21:33:12
Es gibt überhaupt keinen Grund negatives LOD zu benützen oder Mipmaps wegzulassen. Beides verstößt gegen das Abtasttheorem und noch dazu ist die Performance schlechter.

Die gelbe Eule
2005-11-10, 21:34:03
Den Vergleich hat man mit X1800XT und G70 auch gemacht, um zu sehen wer effizienter ist.

aths
2005-11-10, 21:35:08
Doch mutig, weil man diese Option auch hätte opfern können um einen noch höheren Takt zu erreichen. Andererseits ist diese Option der einzige echte Grund eine Karte der X1000 Serie zu kaufen. Wobei ich feststelle, dass dieses AF sich sehr indviduell verhält. Was meinst du mit dem invididuellen Verhalten?

Ob die am AF gesparten Transistoren gleich in einer höheren Taktbarkeit des Designs resultieren würden, halte ich für sehr fraglich. Bildqualität an sich ist schon ein Verkaufsargument. Ansonsten hätten wir bis heute auch noch kein Antialiasing. Nur ist es eben für die meisten Leute schwierig, die Nachteile von stark winkelabhängiger anisotropen Filterung im Vergleich zu möglichst voller anisotropen Filterung zu sehen.

Und daraus möchte ich denen nicht mal einen Vorwurf machen – erst im direkten Vergleich sah ich z. B. bei NFSU2 und bei RE4 an GCN/PS2 die erheblichen Qualitätsunterschiede in der Grafik. Spielt man erst das eine, und einen Tag später das andere, fällt einem das kaum auf. Vergleicht man direkt, ist es ein Unterschied wie Tag und Nacht. Wer vergleicht schon direkt gutes und hässliches AF, und das in Bewegung? "Die [hier Karten-Name einsetzen] habe ich beim Freund gesehen" zählt da nicht. Man braucht den direkten Vergleich. Dann sieht man auch, dass vernünftiges AF auch dort scharfe Texturen liefert, wo der R300/NV40-Style nur Matsch anzubieten hat.

Coda
2005-11-10, 21:35:15
Den Vergleich hat man mit X1800XT und G70 auch gemacht, um zu sehen wer effizienter ist.R520 (625Mhz) und G70 (430Mhz) haben ja auch ungefähr gleich viel Shadercycles pro Takt.

aths
2005-11-10, 21:48:52
Den Vergleich hat man mit X1800XT und G70 auch gemacht, um zu sehen wer effizienter ist.Ja, aber dabei handelt es sich um theoretische Benchmarks. Für den Kunden zählt nicht, was die Karte taktnormalisiert schafft, sondern was sie schafft. Mir ists wurscht, ob ein ineffizientes Design durch hohe Taktraten oder massive Architekturbreite Leistung bringt, oder ein effizientes Design mit weniger Takt oder schmalerer Architektur seine Leistung erbringt. Was die Effizienz angeht, sehe ich den R520 vorne – um auf vergleichbare Leistung zu kommen, benötigt der G70 deutlich mehr ALU-Power, die nur eben nicht so gut genutzt wird.

Woodmaster
2005-11-10, 21:48:54
Hallo,

ich würde es schade finden, wenn es eventuell heißt "Quo vadis ATI".
Damit würde nvidea eine marktbeherschende Stellung einnehmen.

Da finde ich den Wettbewerb, der stattfindet schon um längen besser. Und im Wettbewerb ist mal der eine etwas besser und mal der andere.
Wobei ich noch sagen möchte, dass beide Unternehmen sehr schöne Artikel anbieten. Ich merke jedenfalls keinen großen Unterschied ob ich nun mit einer
ATI oder nvidea GPU spiele.


Gruß

Woodmaster

reunion
2005-11-10, 21:54:53
Den Vergleich hat man mit X1800XT und G70 auch gemacht, um zu sehen wer effizienter ist.

Du scheinst noch immer noch nicht zu verstanden zu haben, dass RV530 nur 4 TMUs hat. Wobei so ein Vergleich generell äußerst problematisch ist IMHO.

Ja, aber dabei handelt es sich um theoretische Benchmarks. Für den Kunden zählt nicht, was die Karte taktnormalisiert schafft, sondern was sie schafft. Mir ists wurscht, ob ein ineffizientes Design durch hohe Taktraten oder massive Architekturbreite Leistung bringt, oder ein effizientes Design mit weniger Takt oder schmalerer Architektur seine Leistung erbringt. Was die Effizienz angeht, sehe ich den R520 vorne – um auf vergleichbare Leistung zu kommen, benötigt der G70 deutlich mehr ALU-Power, die nur eben nicht so gut genutzt wird.


Effizienz ist per Definition das Verhältnis eines in definierter Qualität vorgegebenen Nutzens zu dem Aufwand, der zur Erreichung des Nutzens nötig ist.

aths
2005-11-10, 22:11:01
Effizienz ist per Definition das Verhältnis eines in definierter Qualität vorgegebenen Nutzens zu dem Aufwand, der zur Erreichung des Nutzens nötig ist.Was ist jetzt der Aufwand? Transistor-Zahl? Taktrate? Transitorzahl multipliziert mit Stromverbrauch? Nur der Stromverbrauch? Produktionskosten des Chips mit anteilig angerechneten Entwicklungskosten plus Stromverbrauch?

Die R520-Architektur sollte eigentlich stabilere, also ausgewogenere Leistung bringen. Die G70-Architektur kann in bestimmten Umständen deutlich schneller, bei anderen Umständen klar abgeschlagen sein. Allerdings wäre dann noch zu begründen, warum man den G70 mit dem R520 vergleicht und nicht den R520 mit dem G70. Ich würde es mit den Eigenheiten der Architektur begründen.

Demirug
2005-11-10, 22:17:46
Ja, aber dabei handelt es sich um theoretische Benchmarks. Für den Kunden zählt nicht, was die Karte taktnormalisiert schafft, sondern was sie schafft. Mir ists wurscht, ob ein ineffizientes Design durch hohe Taktraten oder massive Architekturbreite Leistung bringt, oder ein effizientes Design mit weniger Takt oder schmalerer Architektur seine Leistung erbringt. Was die Effizienz angeht, sehe ich den R520 vorne – um auf vergleichbare Leistung zu kommen, benötigt der G70 deutlich mehr ALU-Power, die nur eben nicht so gut genutzt wird.

Sollte man für die Effizienz nicht eher die Leistungaufnahme (elektrisch) oder die Anzahl der Gatter heranziehen? Für mich ist es auch Effizient wenn ich in die gleiche anzahl von Gattern mehr ALU-Power reinquetschen kann.

Bei der reinen Shaderleistung macht ein G70 zudem einen R520 klar platt.

Die gelbe Eule
2005-11-10, 22:21:27
De facto brauch man viel höhere Taktraten bei ATi um eine annähernde Leistung zu erreichen. Bei der 7800GTX 512MB wird man sehen, wenn sich beide Karten vom Takt genähert haben, wie weit sie doch auseinanderliegen.

reunion
2005-11-10, 22:23:34
Sollte man für die Effizienz nicht eher die Leistungaufnahme (elektrisch) oder die Anzahl der Gatter heranziehen? Für mich ist es auch Effizient wenn ich in die gleiche anzahl von Gattern mehr ALU-Power reinquetschen kann.


ACK, das sind IMHO die einzigen sinnvollen Möglichkeiten, um Effizienz zu "messen". Wieviel der theoretische ALU-Power ich auf die Straße bringe ist dabei irrelevant, was zählt ist wieviel Transistoren bzw. Strom ich zum erreichen einer gewissen Geschwindigkeit benötige.

StefanV
2005-11-10, 22:33:28
De facto brauch man viel höhere Taktraten bei ATi um eine annähernde Leistung zu erreichen.
De Facto braucht man mehr Quads bei nV um eine annähernde Leistung zu erreichen...

reunion
2005-11-10, 22:40:34
De Facto braucht man mehr Quads bei nV um eine annähernde Leistung zu erreichen...

IMHO ist ein nV-Quad wesentlich günstiger, bei mindestens ebenbürtiger Leistung. Natürlich auf den R520 bezogen, ein RV530-Quad ist ja bekanntlich deutlich leistungsstärker.

Demirug
2005-11-10, 22:49:40
IMHO ist ein nV-Quad wesentlich günstiger, bei mindestens ebenbürtiger Leistung. Natürlich auf den R520 bezogen, ein RV530-Quad ist ja bekanntlich deutlich leistungsstärker.

Bei der reinen Shaderleistung liegt eine 6800GT zwischen einer X1800XL (BF2) und einer einer X1800XT (FEAR).

Ailuros
2005-11-11, 06:07:32
De Facto braucht man mehr Quads bei nV um eine annähernde Leistung zu erreichen...

Kein besonderer Einwand...was ist aber leichter: die Taktraten bei mehr quads zu erhoehen oder die ohnehin schon ziemlich hohe Taktrate bei weniger quads durch die Decke zu stechen?

Beide Designs sind knapp ueber 300M, einmal 6 quads@430MHz/110nm und einmal 4 quads@625MHz/low-k 90nm.

Im Fruehling kommt dann NV auch auf low-k 90nm und (<censored> :P) wobei ATI versuchen wird die Taktrate etwas mehr zu erhoehen und die ALU-Einheiten verdreifacht.

Ailuros
2005-11-11, 06:11:36
Bei der reinen Shaderleistung liegt eine 6800GT zwischen einer X1800XL (BF2) und einer einer X1800XT (FEAR).

Komischerweise hab ich das selber noch nicht bemerkt; weil ich eben meistens nur auf die AA/AF Resultate konzentriere. Und das bei nur 350MHz? ATI muss aber wirklich dann auf Wunder hoffen mit ihren mainstream Designs naechstes Jahr.

Demirug
2005-11-11, 07:07:01
Komischerweise hab ich das selber noch nicht bemerkt; weil ich eben meistens nur auf die AA/AF Resultate konzentriere. Und das bei nur 350MHz? ATI muss aber wirklich dann auf Wunder hoffen mit ihren mainstream Designs naechstes Jahr.

Ich spreche von der reinen Shaderleistung gemesen mit einem Spezialtool das alle anderen Faktoren so weit als möglich eliminiert.

seahawk
2005-11-11, 08:50:55
Was meinst du mit dem invididuellen Verhalten?

Ob die am AF gesparten Transistoren gleich in einer höheren Taktbarkeit des Designs resultieren würden, halte ich für sehr fraglich. Bildqualität an sich ist schon ein Verkaufsargument. Ansonsten hätten wir bis heute auch noch kein Antialiasing. Nur ist es eben für die meisten Leute schwierig, die Nachteile von stark winkelabhängiger anisotropen Filterung im Vergleich zu möglichst voller anisotropen Filterung zu sehen.

Und daraus möchte ich denen nicht mal einen Vorwurf machen – erst im direkten Vergleich sah ich z. B. bei NFSU2 und bei RE4 an GCN/PS2 die erheblichen Qualitätsunterschiede in der Grafik. Spielt man erst das eine, und einen Tag später das andere, fällt einem das kaum auf. Vergleicht man direkt, ist es ein Unterschied wie Tag und Nacht. Wer vergleicht schon direkt gutes und hässliches AF, und das in Bewegung? "Die [hier Karten-Name einsetzen] habe ich beim Freund gesehen" zählt da nicht. Man braucht den direkten Vergleich. Dann sieht man auch, dass vernünftiges AF auch dort scharfe Texturen liefert, wo der R300/NV40-Style nur Matsch anzubieten hat.

Mit individuell meine ich, dass unsere XL, die wir jetzt auch mal zum Testzocken nutzen, in HQ-AF und 16x AF manchmal komische softe Bereiche hat. Mehr möchte ich dazu nicht sagen, da ich nicht sicher bin, ob ich mich
a) täusche
b) es am System liegt
c) es ein Fehler im Programm ist

Ich tendieren zu a.

Ansonsten ack.

Mr. Lolman
2005-11-11, 17:01:30
Es gibt überhaupt keinen Grund negatives LOD zu benützen oder Mipmaps wegzulassen. Beides verstößt gegen das Abtasttheorem und noch dazu ist die Performance schlechter.

Doch, schau dir nochmal die GTL Pics an. Mit Clamp sind die Begrenzunglinien nicht scharf genug.

BTW: Hier (http://rapidshare.de/files/7458520/ScreenShots.exe.html) gibts 8 TGA Screenshots von SS2@1280x1024, 4xAA (gepackt auf 10MB): Getestet hab ich 4xAF/16xAF, Q/HQ, Lod 0.0/-0.3. Interessant ist nicht nur die fps-Anzeige sondern auch die Tatsache, dass das Gras und die Bäume mit negativem LOD nicht ganz so stumpf aussehen.

Ailuros
2005-11-11, 20:27:39
Doch, schau dir nochmal die GTL Pics an. Mit Clamp sind die Begrenzunglinien nicht scharf genug.

BTW: Hier (http://rapidshare.de/files/7458520/ScreenShots.exe.html) gibts 8 TGA Screenshots von SS2@1280x1024, 4xAA (gepackt auf 10MB): Getestet hab ich 4xAF/16xAF, Q/HQ, Lod 0.0/-0.3. Interessant ist nicht nur die fps-Anzeige sondern auch die Tatsache, dass das Gras und die Bäume mit negativem LOD nicht ganz so stumpf aussehen.

Tja dafuer flimmert aber das Gras und die Baeume umso mehr :P

CroTeam hat schon eh und je einen leichten Koller mit LOD schon bei der ersten engine. SS:SE konnte ich auf den Radeons nur mit dem Texture-LOD mit einem Schuss auf "blur" spielen, weil sonst die gesamte Szene nur so daherflackerte.

SS2 ist von Grund auf Gott sei Dank etwas "matschiger" aber negativen LOD benutzen sie immer noch stellenweise. Das Gruenzeug hier braucht eben leider adaptives SSAA. Und wenn Dir schon die Frameraten bei HQ Sorgen machen schalt doch einfach auf OGL um; ein Weltuntergang sind die paar fehlenden Effekte nun auch wieder nicht.

Coda
2005-11-11, 20:52:43
Doch, schau dir nochmal die GTL Pics an. Mit Clamp sind die Begrenzunglinien nicht scharf genug.Dann braucht man mehr Anisotropie und nicht negatives LOD.

Mr. Lolman
2005-11-11, 22:02:47
Und wenn Dir schon die Frameraten bei HQ Sorgen machen schalt doch einfach auf OGL um; ein Weltuntergang sind die paar fehlenden Effekte nun auch wieder nicht.

Das war OpenGL. ;)

SS:SE konnte ich auf den Radeons nur mit dem Texture-LOD mit einem Schuss auf "blur" spielen, weil sonst die gesamte Szene nur so daherflackerte.

Ja damals war man u.U. noch gutes NV Af gewohnt ;)

Mr. Lolman
2005-11-11, 22:06:05
Dann braucht man mehr Anisotropie und nicht negatives LOD.

Mehr Anisotropie bringt zumindest im Fall von SS2 auch nix. SS/TS/A-AA wär die andere Alternative.

Coda
2005-11-11, 22:07:02
Mehr Anisotropie bringt zumindest im Fall von SS2 auch nix. SS/TS/A-AA wär die andere Alternative.Ach das Gras ist Alpha-Testing? Na dann auf jeden Fall.

Ailuros
2005-11-12, 06:14:32
Das war OpenGL. ;)

Uh oh....nun ja SS2 ist ja auch ein neuester Titel....

Ja damals war man u.U. noch gutes NV Af gewohnt ;)

Nicht so direkt verbunden zum AF sondern eher zu deren MIPmapping. Man konnte bei NV25 genauso wie bei NV40 in SS:SE den texture-LOD auf "normal" lassen ohne dass es so radikal dahinflackert.

Mehr Anisotropie bringt zumindest im Fall von SS2 auch nix. SS/TS/A-AA wär die andere Alternative.

Entschuldige aber entweder FS-SSAA oder TSAA machen Dir die Baeume oder Graeser in einer solchen Szene auch nicht unbedignt schaerfer; man wird erstmal zu einem gutem Grad alpha test aliasing los, was aber mit negativerem LOD "per se" noch schlimmer wird als mit 0.0 oder mit der Klammer. Was hab ich jetzt verpasst?

reunion
2005-11-12, 10:54:07
Bei der reinen Shaderleistung liegt eine 6800GT zwischen einer X1800XL (BF2) und einer einer X1800XT (FEAR).


Kein Wunder, eine 6800GT kann ja auch mehr Operationen pro Takt ausführen, als ein R520. Zudem wurde wohl fast jedes heute erhältliche Spiel mit dieser Karte programmiert - also darauf optimiert. Nur verschiebt sich das eben deutlich sobald Texturen ins Spiel kommen.

Demirug
2005-11-12, 11:12:03
Kein Wunder, eine 6800GT kann ja auch mehr Operationen pro Takt ausführen, als ein R520. Zudem wurde wohl fast jedes heute erhältliche Spiel mit dieser Karte programmiert - also darauf optimiert. Nur verschiebt sich das eben deutlich sobald Texturen ins Spiel kommen.

Die Textureanweisungen sind da einbezogen denn ohne diese wären die Shader ja nicht vollständig und wahrscheinlich die meisten sogar syntaktisch nicht mehr korrekt. Was du meinst sind höherwertige Texturefilter aber gerade da darf man Aussagen zur Performanceskurve nicht verallgemeinern. Ich glaube ich muss mal eine Kurve zu der Thematik machen um das zu verdeutlichen.

reunion
2005-11-12, 11:21:31
Die Textureanweisungen sind da einbezogen denn ohne diese wären die Shader ja nicht vollständig und wahrscheinlich die meisten sogar syntaktisch nicht mehr korrekt.



Oh, das ist natürlich was anderes.
So schlecht hätte ich die R520-Karten nicht eingeschätzt.


Was du meinst sind höherwertige Texturefilter aber gerade da darf man Aussagen zur Performanceskurve nicht verallgemeinern. Ich glaube ich muss mal eine Kurve zu der Thematik machen um das zu verdeutlichen.

Ja, das wäre sehr hilfreich. =)

Mr. Lolman
2005-11-12, 11:56:13
Uh oh....nun ja SS2 ist ja auch ein neuester Titel....

Außerdem war das LOD (Objekte/Grassichtweite) getweakt :)


Nicht so direkt verbunden zum AF sondern eher zu deren MIPmapping. Man konnte bei NV25 genauso wie bei NV40 in SS:SE den texture-LOD auf "normal" lassen ohne dass es so radikal dahinflackert.

Schau ich mir gerne an. Zur Not* auch wieder mit animierten gifs. (*falls wir uns nicht einig werden)


Entschuldige aber entweder FS-SSAA oder TSAA machen Dir die Baeume oder Graeser in einer solchen Szene auch nicht unbedignt schaerfer; man wird erstmal zu einem gutem Grad alpha test aliasing los, was aber mit negativerem LOD "per se" noch schlimmer wird als mit 0.0 oder mit der Klammer. Was hab ich jetzt verpasst?

Ja wenn sie nicht von hausaus schärfer werden (ich dachte das sei nur bei SGSS der Fall), dann wenigstens flimmerfrei. Und dann kann man erst recht den LOD-Bias negativ machen, wobeis idF natürlich praktisch wär, wenn das AF bei den restlichen vom TSAA unbehelligten Texturen nicht zu Flimmern führt.

Mr. Lolman
2005-11-12, 12:08:18
Bei der reinen Shaderleistung macht ein G70 zudem einen R520 klar platt.

Naja. Beim Shadermark sind sie auf gleicher Höhe. Dafür ist der R520 beim dynamischen Branching ist der R520 doppelt bis dreimal schneller und beim HSR auch doppelt so schnell. Wirklich platt macht der G70 den R520 auch nur bei manchen Shadern, wenn er FP16 rechnet und der R520 FP32...

Ich spreche von der reinen Shaderleistung gemesen mit einem Spezialtool das alle anderen Faktoren so weit als möglich eliminiert.

Ich dachte du hast FEAR gemessen. Oder hast du die FEAR Shader einfach geschnappt und in einem Tool durchlaufen lassen, was es den IHVs unmöglich macht, die Shader zu optimieren?

(Wieso rennt FEAR eigentlich so erbärmlich langsam?)