PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wer hat nun besser gepokert?


Quasar
2004-05-04, 11:19:21
Tja, Frage steht im Topic.

Mal kurz meine Beweggründe:

nV hat vorgestellt und einen Landmark gesetzt.
ATi hat abgewartet und bringt wohl eine lieferbare Karte und einen Benchmarksieger raus.
nV will ja angeblich nun nochmals nachlegen, weil sie die Antwort auf ihren "Bluff" (?) kennen...

Was meint ihr?

x-dragon
2004-05-04, 11:29:32
Welches sind denn jetzt genau die 4. Karten die jetzt noch von beiden nachgeschoben werden sollen? ich blick da gerade nicht mehr ganz durch bei XT, GT, Pro, ...

Dann kann mal wenigestens mal sehen von welchen es schon genau Tests gibt und welche noch nachgereicht werden.

[edit]
also die sind ja anscheind bisher mehr oder weniger bekannt: X800 SE
X800 Pro
X800 XT

6800
6800 Ultra
6800 GT Aber was kommt bzw. fehlt da noch?

Nachdem was ich bisher gelesen habe scheint ATI wohl wirklich das bessere Preis-/Leistungsverhältniss bieten zu können und was Stromverbrauch/Kühlung dürfte sie wohl ebenso besser ankommen, aber was die endgültige Leistung angeht da scheint ja die Pokerrunde noch nicht beendet zu sein ...

DrumDub
2004-05-04, 11:40:09
meiner meinung nach haben sich beide nicht gerade mit ruhm bekleckert. nv hat mit der frühen vorstellung sichrlich veile beeindruckt, hat aber jetzt wohl das problem, dass man nicht schnell in ausreichenden stückzahlen liefern kann. ati auf der anderen seite hat so ein großes geheimnis um die neuen karten gemacht, dass man schon denken konnte es würde da mit der x800xt nen echter killer bei rumkommen. das ist nicht passiert. die karte liegt in dx etwas vor der 6800u und ist in jedem falle bei hohen auflösungen+aa/af bandbreitenlimitiert, was man ja schön im vergleich zur x800pro sieht. das temp aa it wohl eher nen marketing-gag. wirtschaftlich gesehen denke ich, dass ati vielleicht davon profitieren wird, dass nvidia nicht in ausreichenden stückzahlen liefern kann. technlogisch ist ati weiterhin im hintertreffen, wenn man das gesamtbild betrachtet. größtes manko der 6800u ist sicherlich die hohe leistungsaufnahme.

momentan scheint mir die x800pro der absolute gewinner zu sein, weil sie im preis/leistungsmäßig imho am meisten bietet. leider fehlt noch die normale 6800, um eine echte vergleichbarkeit zu haben.

Crushinator
2004-05-04, 11:42:14
Die Frage im Threadtitel läßt sich z.Z. nicht beantworten. Denn einer der Beiden hat AFAIK noch relativ hohe Reserven, was das "machbare" angeht und liefert für meinen Geschmack eher ein Understatement ab.

Ailuros
2004-05-04, 11:48:48
Stoert es Dich wenn ich Deine Fragen nicht direkt beantworte aber trotzdem versuche on topic zu bleiben?

Wer besser gepokert hat kann sich erst wohl im naechsten Jahr zeigen.

Angenommen ich behaupte schon jetzt fuer dx9.0 einen "Gewinner" von Seiten ATI mit R3xx und einen "Gewinner" von Seiten NV fuer NV4x, bringt es mir die Beiden auf Gleichstand.

Dass R420 nur ein R3xx mit steroids werden wuerde, war wohl schon seit einiger Zeit hervorzusehen.

Was jetzt das Nase an Nase Leistungsrennen zwischen R420 und NV40 betrifft, wird sich wohl das Publikum darueber entscheiden und die noch nicht vorhersehbaren Verkaufszahlen beider Produkt-Linien. Im Grunde ist es feiste Konkurrenz genauso wie durch 2003.

Setzt Du mir jetzt das Dilemma zwischen NV40 und R420, kann ich momentan noch keine klare Antwort geben, bevor ich Produkte und deren Preise auf Ladentischen sehen kann. Bis jetzt hat bei mir NV40 einen leichten Vorsprung durch den "neuen" 8x modus (unter der Vorraussetzung dass es sich tatsaechlich um einen 4xRGMS+2xOGSS modus handelt). Und um die Sache klarer zu machen, mich interessiert was ich unmittelbar verwenden kann; ich bevorzuge zwar MSAA aber ich hab nichts gegen SSAA Implementationen wenn die Leistung auch stimmt.

Lustiger Troll
2004-05-04, 11:50:00
Ich denke mal NV hatte es klar schwerer, aber wenn sie ja noch ne 6800 Extreme bringen und dies schon vorher im Hinterkopf hatten denke ich mal das sie hier besser gepokert haben, vielleicht wird diese Variante ja mehr als 550 Mhz speicher haben, zudem denke ich wird es für ATI schwerer einen Refresh der x800xt zu bringen da sie ja schon ziemlich ausgereitzt zu sein scheint. Bis nicht alle Karten auf dem Tisch liegen ist IMO noch nichts entschieden.

Lustiger Troll
2004-05-04, 12:00:08
Original geschrieben von x-dragon



also die sind ja anscheind bisher mehr oder weniger bekannt: X800 SE
X800 Pro
X800 XT

6800
6800 Ultra
6800 GT Aber was kommt bzw. fehlt da noch?



Da fehlt noch die X800 XT PE und die 6800 Ultra EE

LovesuckZ
2004-05-04, 12:00:55
Ich freue mich schon auf dem NV50. Hoffentlich wird er auch solch eine Technologiebremse wie der jetzige r420, aber dafür sehr schneller.
Wer brauch schon neue Technologie, Sillstand war sowieso schon besser...

deekey777
2004-05-04, 12:11:09
Original geschrieben von LovesuckZ
Ich freue mich schon auf dem NV50. Hoffentlich wird er auch solch eine Technologiebremse wie der jetzige r420, aber dafür sehr schneller.
Wer brauch schon neue Technologie, Sillstand war sowieso schon besser...

Technologiebremse - ich liebe dieses Wort!!!

Ich freue mich auf die R500 :P

seahawk
2004-05-04, 12:14:54
Ich würde sagen Sieg für ATI für den Moment.

So sehr mich die Idee der verbesserten Shader ein von der Technology begeistert, so sinnlos ist sie heute in realen Spielen.

In allen shaderlastigen scheint die Radeon vorne zu sein. Dazu weniger Stromverbrauch und eine gute Kühllösung.

Ich persönlich werde allerdings noch bis zum Herbst mit einem Kauf warten, da eine 9700pro/5900Ultra bis zu diesem Zeitpunkt reichen wird. Dann wird man auch mehr über die Praxisnutzung von PS 3.0 wissen. Und die heutigen die Ultras und XTs werden bezahlbar sein. (auch als PCI-Ex)

x-dragon
2004-05-04, 12:18:32
Original geschrieben von Lustiger Troll
Da fehlt noch die X800 XT PE und die 6800 Ultra EE Ahja danke, wobei ich gerade bei Chip gelesen habe: Bitte beachten Sie: ATIs Radeon-X800-XT-Referenz-Karte und entsprechende Retailboards werden nur im US-Markt den Namenszusatz "Platinum Edition" tragen. Für den deutschen Markt und entsprechende Boards wird dieser Zusatz wegfallen oder dem jeweiligen Modell-Namen angepasst.

http://www.chip.de/artikel/c_artikelunterseite_11828909.html?tid1=&tid2= ... wie jetzt? :| Also neue Bezeichnung für uns, oder aber soll das dann die normale XT sein?

Ailuros
2004-05-04, 12:18:33
Original geschrieben von LovesuckZ
Ich freue mich schon auf dem NV50. Hoffentlich wird er auch solch eine Technologiebremse wie der jetzige r420, aber dafür sehr schneller.
Wer brauch schon neue Technologie, Sillstand war sowieso schon besser...

Och NV30 war eigentlich eine so nette "Geometrie-bremse" dass sich das Ganze nett ausbalanciert.

SM3.0 ist wohl der einzige Punkt auf dem man momentan reiten kann, da die AF Winkelabhaengigkeit als Punkt in dem Eimer ging.

Haetten sich ATI und NVIDIA nicht allzu sehr auf anderen Mist konzentriert haetten wir heute vielleicht schon brauchbares displacement mapping oder einen guten Ansatz fuer advanced HOS gehabt. Und so wie es aussieht sieht die Zukunft des Zweiten auch nicht gerade blendend aus solange man tausende von instruction slots auf Papier angeben kann.

James Ryan
2004-05-04, 12:34:39
Original geschrieben von Lustiger Troll
Da fehlt noch die X800 XT PE und die 6800 Ultra EE

Nö, da fehlte nur die 6800 Ultra Extreme!
Die X800XT und X800XT PE sind gleich! ;)

Aber zum Thema:
Bisher siehts so aus als ob ATi Benchmarksieger ist, andere Sache interessieren mich aber mehr:
Taktet sich die Karte im Windowsbetrieb auch runter?
Wann kann man erste Karten kaufen?
Warum hat ATi wieder einen solchen Schrottkühler da drauf gepackt, welcher nichtmal die Rams mitkühlt? Dank der "tollen" Form des Kühlers kann man auch nachträglich keine Kühlers mehr drauf packen! :bonk:

MfG :smokin:

Lustiger Troll
2004-05-04, 12:42:46
Original geschrieben von James Ryan
Nö, da fehlte nur die 6800 Ultra Extreme!
Die X800XT und X800XT PE sind gleich! ;)


MfG :smokin:

Dachte die PE sei noch ein bischen höher getaktet, naja egal, die 6800 U EE wird sich die Leistungskrone schon zurückhohlen ;), danach kommt ATI mt der X800XT Quarkedidtion usw...

tokugawa
2004-05-04, 12:43:59
Original geschrieben von Ailuros
Och NV30 war eigentlich eine so nette "Geometrie-bremse" dass sich das Ganze nett ausbalanciert.

SM3.0 ist wohl der einzige Punkt auf dem man momentan reiten kann, da die AF Winkelabhaengigkeit als Punkt in dem Eimer ging.

Haetten sich ATI und NVIDIA nicht allzu sehr auf anderen Mist konzentriert haetten wir heute vielleicht schon brauchbares displacement mapping oder einen guten Ansatz fuer advanced HOS gehabt. Und so wie es aussieht sieht die Zukunft des Zweiten auch nicht gerade blendend aus solange man tausende von instruction slots auf Papier angeben kann.

Ich find aber NVIDIAs "anderen Mist" wie etwa die HDR nicht so übel!

[dzp]Viper
2004-05-04, 12:46:33
Original geschrieben von James Ryan

Warum hat ATi wieder einen solchen Schrottkühler da drauf gepackt, welcher nichtmal die Rams mitkühlt? Dank der "tollen" Form des Kühlers kann man auch nachträglich keine Kühlers mehr drauf packen! :bonk:

MfG :smokin:

dieser "schrottkühler" ist aber sehr effektiv und scheinbar auch mehr als aussreichend für die grafikkarte.
Der RAM bedarf scheinbar keiner kühlung... und wenn er keine kühlung braucht, warum sollte man dann geld verschwenden und da solche dinger draufpapen? ;)

HOT
2004-05-04, 12:48:46
Original geschrieben von Lustiger Troll
Dachte die PE sei noch ein bischen höher getaktet, naja egal, die 6800 U EE wird sich die Leistungskrone schon zurückhohlen ;), danach kommt ATI mt der X800XT Quarkedidtion usw...

Die beiden Karten sind irrelevant für den Nutzer.

Lustiger Troll
2004-05-04, 12:53:18
Original geschrieben von HOT
Die beiden Karten sind irrelevant für den Nutzer.

Geht ja nicht darum sondern um die Liste oben :D.

LovesuckZ
2004-05-04, 12:57:28
Original geschrieben von seahawk
In allen shaderlastigen scheint die Radeon vorne zu sein. Dazu weniger Stromverbrauch und eine gute Kühllösung.


Da sollte man noch vorsichtig sein. Bis jetzt gibt es nur den PS2.0 test des 3DMark2003 und da ist Nvidia gleichschnell.
In Farcry Indoor Map, ist die XT version auch nicht gerade Welten vorne.

Ailuros
2004-05-04, 12:59:37
Original geschrieben von tokugawa
Ich find aber NVIDIAs "anderen Mist" wie etwa die HDR nicht so übel!

Beide unterstuetzten HDR; your point?

AlfredENeumann
2004-05-04, 13:01:48
Original geschrieben von James Ryan
Nö, da fehlte nur die 6800 Ultra Extreme!
Die X800XT und X800XT PE sind gleich! ;)

Aber zum Thema:
Bisher siehts so aus als ob ATi Benchmarksieger ist, andere Sache interessieren mich aber mehr:
Taktet sich die Karte im Windowsbetrieb auch runter?
Wann kann man erste Karten kaufen?
Warum hat ATi wieder einen solchen Schrottkühler da drauf gepackt, welcher nichtmal die Rams mitkühlt? Dank der "tollen" Form des Kühlers kann man auch nachträglich keine Kühlers mehr drauf packen! :bonk:

MfG :smokin:

Wenn du meinst unbedingt die RAMs unnöätigerweise Kühlen zu müssen Pack doch einfach Trockeneis drauf. :rofl:
Und am besten noch einen Fön um den Chip zu Kühlen.

Exxtreme
2004-05-04, 13:15:17
Original geschrieben von James Ryan
Warum hat ATi wieder einen solchen Schrottkühler da drauf gepackt, welcher nichtmal die Rams mitkühlt?
Für was brauchst du RAM-Kühlung wenn die RAMs keiner Kühlung bei der spezifizierten Taktfrequenz bedürfen?

seahawk
2004-05-04, 13:18:52
Original geschrieben von Exxtreme
Für was brauchst du RAM-Kühlung wenn die RAMs keiner Kühlung bei der spezifizierten Taktfrequenz bedürfen?

Ich finde es klasse, dass man keine Ramkühler braucht. Das ist sehr gut um den Chip mit ner Wakü zu kühlen. Dann geht der bestimmt auf 600mhz.

Wird mir echt schwer fallen auf den R423 zu warten und erst im Herbst zu kaufen ...

James Ryan
2004-05-04, 13:21:18
Original geschrieben von [dzp]Viper
dieser "schrottkühler" ist aber sehr effektiv und scheinbar auch mehr als aussreichend für die grafikkarte.
Der RAM bedarf scheinbar keiner kühlung... und wenn er keine kühlung braucht, warum sollte man dann geld verschwenden und da solche dinger draufpapen? ;)

Das ist der gleiche Müll wie bei der 9800 Pro:
Der Kühler sollte auch "ausreichend" sein, der ungekühlte Speicher blieb ja auch kalt. :eyes:
Komisch dass reihenweise 9800er abgeraucht sind und die Leute sich alle 'n Silencer + Speicherkühler drauf gepackt haben.
Dann doch lieber gleich eine ordentliche Kühlung wie NVIDIA sie anbietet, da ist es mir auch egal ob der erste PCI Slot wegfällt oder nicht, dass tut er beim Silencer auch!

MfG :msokin:

Crushinator
2004-05-04, 13:49:02
Original geschrieben von James Ryan
(...) Das ist der gleiche Müll wie bei der 9800 Pro:
Der Kühler sollte auch "ausreichend" sein, der ungekühlte Speicher blieb ja auch kalt. :eyes: (...) :kratz2: Bin ich der Einzige der hier einen Widerspruch erkennt? Ich mein' wenn der Speicher "kalt" war, kann er ja nicht den Hitzetod "gestorben" sein, und wenn er nicht so "gestorben" ist, was genau hätte dann ein "ordentlicher" Kühler dabei bewirkt?

x-dragon
2004-05-04, 13:59:15
Original geschrieben von crushinator
:kratz2: Bin ich der Einzige der hier einen Widerspruch erkennt? Ich mein' wenn der Speicher "kalt" war, kann er ja nicht den Hitzetod "gestorben" sein, und wenn er nicht so "gestorben" ist, was genau hätte dann ein "ordentlicher" Kühler dabei bewirkt? Ja, da du den hinten angefügten Smilie nicht als Ersatz für den [Ironie]-Tag erkannt hast :).

Major
2004-05-04, 14:00:48
Das mit dem kühlen Speicher war wohl eine ironische Bemerkung :-), hast du wohl übersehen.

Ich finde den Kühler der 800XT eigentlich ganz ok, warum überdimensionieren, kostet nur mehr Geld.

aths
2004-05-04, 14:17:47
Original geschrieben von Ailuros
Beide unterstuetzten HDR; your point? Der eine Chip ist speziell dafür designt, der andere nicht.

][immy
2004-05-04, 15:45:59
bin ich jetzt der einzige der sich die frage stellt, warum chip die X800 XT getestet hat?

wurde heute nicht nur die X800 Pro vorgestellt?

Quasar
2004-05-04, 16:01:25
Original geschrieben von crushinator
:kratz2: Bin ich der Einzige der hier einen Widerspruch erkennt? Ich mein' wenn der Speicher "kalt" war, kann er ja nicht den Hitzetod "gestorben" sein, und wenn er nicht so "gestorben" ist, was genau hätte dann ein "ordentlicher" Kühler dabei bewirkt?

Ich glaube, da fehlt nur ein korrekter Konjunktiv. "bliebe"...
edit:









/editend


BTW, ich glaube, ihr habt meine Intention falsch verstanden, ich wollte keinen ATi vs. nVidia Thread, sondern es ging mir wirklich um die "Poker-Arie" die die beiden abgezogen haben mit ihren Verwirrspielchen um die Transistoren, Pipeanzahl etc.pp.

Könntet ihr euch dazu bitte äußern? Die üblichen Bash-Threads kennt ihr doch sowieso schon.

Crazytype
2004-05-04, 17:24:42
Original geschrieben von LovesuckZ
Ich freue mich schon auf dem NV50. Hoffentlich wird er auch solch eine Technologiebremse wie der jetzige r420, aber dafür sehr schneller.
Wer brauch schon neue Technologie, Sillstand war sowieso schon besser...

Wie wäre es sachlich zu bleiben anstatt ein Flamewar zu provozieren?
Aus wirtschaflicher Sicht hätte es sich wohl kaum gelohnt auf den 3.0 Zug aufzuspringen und damit Transistoren zu verwenden, was sich auf den Takt und den Produktionspreis ausgewirkt hätte.
Zudem hatte ATI vor der nv30 mehr Features.

Crushinator
2004-05-04, 17:51:13
Original geschrieben von Quasar
(...) Könntet ihr euch dazu bitte äußern? Die üblichen Bash-Threads kennt ihr doch sowieso schon. Da dieses Posting als quote auf mein Posting geschrieben wurde, möchte ich - wenn Euer Gnaden erlauben - öffentlich darauf eingehen.

Vielleicht ist meine Fragestellung ja falsch angekommen und ich reagiere gerade etwas über, aber seit wann darf man keine Fragen mehr äußern, welche mit den je hervorragenden Erläuterungen von Major und x-dragon beantwortet wurden? Ist das etwa auch falsch, Euer Gnaden? Oder habe ich gerade was in den falschen Hals bekommen, und die obige Aussage war nicht direkt auf meinen Beitrag gerichtet?

BTW: Meine Meinung habe ich bereits auf der ersten Seite geäußert und konnte bisher nichts an dem 2 Zeiler finden, was auf bashing schließen ließe.

DrumDub
2004-05-04, 17:54:26
Original geschrieben von Crazytype
Wie wäre es sachlich zu bleiben anstatt ein Flamewar zu provozieren?
Aus wirtschaflicher Sicht hätte es sich wohl kaum gelohnt auf den 3.0 Zug aufzuspringen und damit Transistoren zu verwenden, was sich auf den Takt und den Produktionspreis ausgewirkt hätte.
Zudem hatte ATI vor der nv30 mehr Features.

richtig. wirtschaftlich gesehen ist der r420 vernünftiger, wenn man den markt der spieler betrachtet. nur darf man nicht vergessen, dass gerade nv mit dem nv40 noch andere märkte im visier hat, für die auch schon der nv3x das bessere produkt als der r3x0 war. für ati in diesen markt reinzukommen, dürfte äußerst schweierig sein, da nv mit pixar und anderen da schon seit jahren starke partner hat.

TheCounter
2004-05-04, 18:10:35
Original geschrieben von aths
Der eine Chip ist speziell dafür designt, der andere nicht.

Aber laut einem Test ist ne X800XT (~140FPS) in Realtime HDR-Berechnungen über 2 mal so schnell wie ne GF6800U (~60FPS), obwohl doch eigentlich die GF dafür designt wurde, oder?

@LovesuckZ

Das mit der Technologiebremse könnte man ja auch umdrehen, die neuen NVIDIA Karten sind ne Technologiebremse weil sie kein 3Dc unterstützen... also wayne :D

kami
2004-05-04, 18:12:53
Du möchtest doch nicht wirklich des "popelige" Kompressionsverfahren mit SM 3.0 vergleichen, oder? :D

Steel
2004-05-04, 18:13:22
Original geschrieben von Quasar
Tja, Frage steht im Topic.

Mal kurz meine Beweggründe:

nV hat vorgestellt und einen Landmark gesetzt.
ATi hat abgewartet und bringt wohl eine lieferbare Karte und einen Benchmarksieger raus.
nV will ja angeblich nun nochmals nachlegen, weil sie die Antwort auf ihren "Bluff" (?) kennen...

Was meint ihr?
Ich meine die Antwort kann man frühestens geben, wenn beide Modelle käuflich zu erwerben sind.

Wenn Nvidia wieder mit so einer Aktion kommt und 3 Monate nach Release der "Bluff"-Karte mit der "echten" Karte angeschissen kommen werden die Early Adopter warscheinlich die Nase rivhtig voll haben von Nvidia

Aqualon
2004-05-04, 18:20:17
Eine endgültige Beurteilung, wer besser gepokert hat, ist wohl nur nach Markteintritt beider Karten möglich. Mit speziellen Testkarten kann man ja immer viel behaupten, was zählt ist aber die Leistung, die von den Verkaufskarten erbracht wird.

Aqua

LovesuckZ
2004-05-04, 18:22:48
Original geschrieben von TheCounter
@LovesuckZ
Das mit der Technologiebremse könnte man ja auch umdrehen, die neuen NVIDIA Karten sind ne Technologiebremse weil sie kein 3Dc unterstützen... also wayne :D

Wann wurde 3dc festgelegt?

Quasar
2004-05-04, 18:30:41
Original geschrieben von crushinator
Da dieses Posting als quote auf mein Posting geschrieben wurde, möchte ich - wenn Euer Gnaden erlauben - öffentlich darauf eingehen.

Vielleicht ist meine Fragestellung ja falsch angekommen und ich reagiere gerade etwas über, aber seit wann darf man keine Fragen mehr äußern, welche mit den je hervorragenden Erläuterungen von Major und x-dragon beantwortet wurden? Ist das etwa auch falsch, Euer Gnaden? Oder habe ich gerade was in den falschen Hals bekommen, und die obige Aussage war nicht direkt auf meinen Beitrag gerichtet?

BTW: Meine Meinung habe ich bereits auf der ersten Seite geäußert und konnte bisher nichts an dem 2 Zeiler finden, was auf bashing schließen ließe.

Ich erlaube, allerdings war nur die erste Zeile meines Postings direkt auf deines bezogen. =)
edit:
Habe mal den Abstand zwischen beiden Textteilen etwas vergrößert, damit das Mißverständnis nicht noch größer wird.

edit2:
Und bitte: Das Pokern bezieht sich nicht auf "Schwanzlängenvergleiche", sondern auf das Pokern und das absichtliche Spiel mit Verwirrung und Desinformation im Vorfeld!

TheCounter
2004-05-04, 18:40:20
Original geschrieben von LovesuckZ
Wann wurde 3dc festgelegt?

Bestimmt nicht erst 2 Monate vor fertigstellung des Chips ;)

Ich wollte damit nur sagen das sich das zur jetztigen Zeit eh ausgleicht, wobei man zumindest bei 3Dc ne verbesserte Bildqualität hat (Siehe Computerbase Artikel zu R420).

Man muss halt jetzt erstmal abwarten und schauen was es genau bringt, wenn ich mir jetzt ne Karte kauf will ichs eigentlich auch jetzt nutzen und es sollte auch was bringen, ansonsten ist es nutzlos und Transitoren-verschwenderei IMHO.

Demirug
2004-05-04, 18:43:28
Das Problem ist das 3dc ja nicht im DirectX Standard steht sondern eine ATI-Entwicklung ist. Zu dem Zeitpunkt als es ATI offen gelegt hat war es für die anderen IHVs schon zu spät es ebenfalls noch zu implemetieren.

seahawk
2004-05-04, 18:47:14
Original geschrieben von Demirug
Das Problem ist das 3dc ja nicht im DirectX Standard steht sondern eine ATI-Entwicklung ist. Zu dem Zeitpunkt als es ATI offen gelegt hat war es für die anderen IHVs schon zu spät es ebenfalls noch zu implemetieren.

Und wenn ich es richtig verstehe, dann muss das Spiel die Texturen im 3dc Fromat liefern. Dies ist wohl eine Entwicklung/Abart von DXT5.

Ich will erstmal sehen wie man Texturen konvertieren muss, bevor ich mir meine Meinung bilde. Und dann muss man wohl mal einen Vegleich der Imagequality zwischen BMP, DXT und 3dc machen.

PS. 3dc funktioniert doch nur auf dem R420 - oder ??

Nasowas
2004-05-04, 18:50:13
Aus meiner kleinen Gamersicht und ohne technische Kenntnis:

Sehe Gleichstand! Keine der Firmen (Karten) haut mich jetzt vom Hocker. Normalerweise ist meine Gier nach Grafikkarten immer hoch gewesen. Aber diesmal ist es anders. Evtl. liegts ja auch am älter werden.

Unterm Strich habe ich irgendwie mehr erwartet. Von beiden.

Werde wohl das erste mal ne Generation auslassen.

Demirug
2004-05-04, 18:55:32
Original geschrieben von seahawk
Und wenn ich es richtig verstehe, dann muss das Spiel die Texturen im 3dc Fromat liefern. Dies ist wohl eine Entwicklung/Abart von DXT5.

Ich will erstmal sehen wie man Texturen konvertieren muss, bevor ich mir meine Meinung bilde. Und dann muss man wohl mal einen Vegleich der Imagequality zwischen BMP, DXT und 3dc machen.

PS. 3dc funktioniert doch nur auf dem R420 - oder ??

Ja, derzeit kann nur der R420 3dc. Die Komprimierungsregeln kann ich dir morgen geben (habe die Sachen nicht hier). Das machen wir dann aber besser im Technologie Forum.

seahawk
2004-05-04, 19:12:49
Original geschrieben von Demirug
Ja, derzeit kann nur der R420 3dc. Die Komprimierungsregeln kann ich dir morgen geben (habe die Sachen nicht hier). Das machen wir dann aber besser im Technologie Forum.

Cool wäre nett. Gibt es da schon irgendein schönes Tool umd von BMP zu konvertieren. VOn DXT zu 3dc erscheint mir immer verlustbehaftet.

INTRU
2004-05-04, 19:18:45
Nvidia hat kein 3dc - richtig!

Und angeblich sind Games mit 3dc angekündigt. Dann hat man doch ersteinmal mehr von 3dc als von den Features der NV-Karte!

Demirug
2004-05-04, 19:20:58
Original geschrieben von INTRU
Nvidia hat kein 3dc - richtig!

Und angeblich sind Games mit 3dc angekündigt. Dann hat man doch ersteinmal mehr von 3dc als von den Features der NV-Karte!

Games mit SM3 sind auch schon angekündigt also wieder ein Patt.

ShadowXX
2004-05-04, 20:01:15
Um auf Quasars Pokerfrage zurückzukommen:

IMHO habe beide ziemlich gut gepokert...zumindest bis jetzt.

Es muss sich zeigen, wie a.) es mit der erhältlichkeit der jeweiligen Ultra High-End Karten verhält (XT(PE)/Ultra)und b.) ob die extreme Edition von nV überhaupt je "normal" käuflich erwerbbar sein wird...

Falls bei b.) rauskommt, das dies nur eine "Benchmarkgewinnkarte" ohne wirkliche "echte" verfügbarkeit wird, hat IMHO ATI besser gepockert, da Sie im Prinzip das "schlechtere" Blatt hatte....dies aber länger verbergen konnten....

Sein wir doch mal ehrlich...selbst nachdem die Allstar-Shop Daten bekannt wurden, glaubten doch die meisten, das ATI noch irgendetwas in der Hinterhand hatte...zumindest eine Effizienssteigerung der Shader...

Auch ich weiss noch nicht so recht, obs diesmal ne nV oder wieder ne ATI wird...
Die Technik von nV reizt...aber momentan sprechen die Benches etwas für ATI....

Gandharva
2004-05-04, 20:11:25
nochmal zurück zu 3dc. ich habe schon mehrmals gelesen das dieses feature auch auf r3xx karten laufen soll. ist da nun was dran.

@demirug
du schreibst "derzeit..." - weisst du da evtl. mehr?

wäre doch ne möglichkeit es in den cat 4.5 einzubauen und somit auch r3xx kartenbesitzer davon provitieren zu lassen.

ShadowXX
2004-05-04, 20:32:53
Original geschrieben von Striper
nochmal zurück zu 3dc. ich habe schon mehrmals gelesen das dieses feature auch auf r3xx karten laufen soll. ist da nun was dran.

@demirug
du schreibst "derzeit..." - weisst du da evtl. mehr?

wäre doch ne möglichkeit es in den cat 4.5 einzubauen und somit auch r3xx kartenbesitzer davon provitieren zu lassen.

3dc braucht HW-DeKompression...funktioniert also nur auf dem r420...

Demirug
2004-05-04, 20:37:16
Striper, mit derzeit meinte ich das im Moment der R420 der einzige Chip ist der das kann und vielleicht in Zukunft noch ein paar kommen.

Gandharva
2004-05-04, 20:46:12
danke der aufklärung - schade eigendlich.

LovesuckZ
2004-05-04, 21:22:44
Nvidia hat eindeutig zu hoch gepokert. Man hat unmengen an Transistoren für Features draufgehauen, die nicht gewürdigt werden und so der Karte die Möglichkeit genommen haben, sie hoeher zu takten.
ATi dagegen hat einen 125MHz Vorsprung und kann dies in deutlich bessere Rohleistung vorallem beim Einsatz vom AF stecken und Shaderleistung stecken.

Doomi
2004-05-04, 22:05:36
gepokert hin oder her..

NV hat sich jetzt um 180 Grad gewendet und einen wirklich überzeugenden Chip geschaffen welcher die Schwächen des Vorgängers ausbügeln und sich ernsthaft gegen die Chips von ATI behaupten kann..

Meineserachtens ist es ein gleichstand und diesen brauchen wir Konsumenten denn erst dann gibts ein kopf an kopfrennen auch in Sachen Preis.. und das sollte uns am wichtigsten sein..

betasilie
2004-05-04, 22:48:22
Ich finde beide haben gut reagiert/agiert bei den Vorstellingen.

Dass NV als erstes kommen musste, war klar, da ATIs R3xx-Reihe sich einfach besser verkauft hat.

Im übrigen ist die Sache ja noch nicht gegesssen. Wer weiß, was sich in den nächsten Wochen noch so anbahnt in Form von neuen Treibern und neuen Spielen. ;)

DoomIII und HL2 könnten ja auch in wenigen Wochen erscheinen, daher sollte man das ganze imo erst ende Juli betrachten und dann schauen, wer das bessere Marketing gemacht hat.

frager
2004-05-04, 22:52:05
Original geschrieben von LovesuckZ
Nvidia hat eindeutig zu hoch gepokert. Man hat unmengen an Transistoren für Features draufgehauen, die nicht gewürdigt werden und so der Karte die Möglichkeit genommen haben, sie hoeher zu takten.
ATi dagegen hat einen 125MHz Vorsprung und kann dies in deutlich bessere Rohleistung vorallem beim Einsatz vom AF stecken und Shaderleistung stecken.

wobei manche featuress (encoding) erst mit pci-e sinn machen

robbitop
2004-05-05, 10:43:42
nein die Chipgrösse bestimmt nicht den Takt.
Das Design und die Fertigung tuen das.
Sprich z.B. die Anzahl der Layer oder ob z.B. LowK zum Einsatz kommt.
ATi hat zumindist den Vorteil von lowk.
Und durch die geringe Komplexität spart man eben Strom.

Ich finde die NV40 hat wirklich nette Effekte und ist unheimlich schnell. DVDs als MPEG4 zu encoden, und das deutlich schneller als vorher und/oder mit weniger CPU Last ist ein super Feature und man sollte schauen was SM3 bringt.
Erstmal mehr PS Leistung und 2. wird ein vernünftiges DM damit möglich.

@Demi
mal eine Frage:
ich weiss der 110nm Prozess ist ein geshrinkter 130nm Prozess welcher optimal für lowcost Chips ist, aber wäre es möglich/sinnvoll die NV40 auf diesem Prozess zu betreiben? Denn IBMs 130nm bietet eh kein lowk und somit könnte man immerhin den Verbrauch senken und auch die Produktionskosten und wer weiss vieleicht ist eine minimale Taktsteigerung drin..

Demirug
2004-05-05, 11:09:38
Original geschrieben von robbitop
@Demi
mal eine Frage:
ich weiss der 110nm Prozess ist ein geshrinkter 130nm Prozess welcher optimal für lowcost Chips ist, aber wäre es möglich/sinnvoll die NV40 auf diesem Prozess zu betreiben? Denn IBMs 130nm bietet eh kein lowk und somit könnte man immerhin den Verbrauch senken und auch die Produktionskosten und wer weiss vieleicht ist eine minimale Taktsteigerung drin..

Ich weiss nicht in wie weit IBM einen 110nm Prozess hat mit dem man einen Chip von der Grösse eines NV40 herstellen kann.

Das sie kein Low-K habe ist auch so nicht ganz richtig. IBM nutzt FSG. Abhängig von der jeweiligen Low-K Definition ist FSG ein Low-K Material oder eben auch nicht.

Interesant im Zusammenhang mit Low-K Material ist vielleicht auch noch das es die Lebensdauer von Chips reduziert. Die NASA hat da mal ein bischen geforscht. Gerade ein ständiges Aufheizen und Abkühlen ist Gift für Chips mit Low-K.

Ailuros
2004-05-05, 11:16:15
Original geschrieben von LovesuckZ
Nvidia hat eindeutig zu hoch gepokert. Man hat unmengen an Transistoren für Features draufgehauen, die nicht gewürdigt werden und so der Karte die Möglichkeit genommen haben, sie hoeher zu takten.
ATi dagegen hat einen 125MHz Vorsprung und kann dies in deutlich bessere Rohleistung vorallem beim Einsatz vom AF stecken und Shaderleistung stecken.

Guter Post. Applaus :)

Ich erinnere an "blah blah blah maximize margins blubber..".

Ailuros
2004-05-05, 11:27:01
Original geschrieben von robbitop
nein die Chipgrösse bestimmt nicht den Takt.
Das Design und die Fertigung tuen das.
Sprich z.B. die Anzahl der Layer oder ob z.B. LowK zum Einsatz kommt.
ATi hat zumindist den Vorteil von lowk.
Und durch die geringe Komplexität spart man eben Strom.

Alles zaehlt. Waere der chip nur ~180M gross waere auch mehr Taktrate moeglich. Im guten Ganzen hat Lovesuck schon recht.

Ich finde die NV40 hat wirklich nette Effekte und ist unheimlich schnell. DVDs als MPEG4 zu encoden, und das deutlich schneller als vorher und/oder mit weniger CPU Last ist ein super Feature und man sollte schauen was SM3 bringt.
Erstmal mehr PS Leistung und 2. wird ein vernünftiges DM damit möglich.

Noch vernuenftigere HOS braucht noch etwas mehr. Hoffentlich endlich in NV50 (wird ja schon seit 2 Generationen gestrichen). Sonst ja das Feature-set ist beeindruckend, aber Lovesuck hat IMHO eine gute Perspektive gesetzt wenn man mal vereinfacht die Design-Entscheidungen beider IHVs anschaut.

@Demi
mal eine Frage:
ich weiss der 110nm Prozess ist ein geshrinkter 130nm Prozess welcher optimal für lowcost Chips ist, aber wäre es möglich/sinnvoll die NV40 auf diesem Prozess zu betreiben? Denn IBMs 130nm bietet eh kein lowk und somit könnte man immerhin den Verbrauch senken und auch die Produktionskosten und wer weiss vieleicht ist eine minimale Taktsteigerung drin..

Demi hat Dir schon geantwortet, aber eigentlich hast Du Deine eigene Frage schon selber beantwortet. Wenn Dir die Foundry einen gewissen Prozess NICHT fuer high end bzw. extrem hohe Leistung anbietet, dann hat es auch keinen Sinn daran zu denken. Das heisst wohl dass der Prozess nicht fuer so grosse Last gedacht bzw. ausgelegt ist und daran laesst sich auch nicht viel aendern.

Es kann sein dass NVIDIA in absehbarer Zukunft ihr high end Zeug wieder zu TSMC bringt; dieses hin und her kostet aber Zeit und Geld. Ich bin immer noch der Ansicht dass NV bei TSMC haette bleiben sollen.

robbitop@uni
2004-05-05, 11:36:29
wer weiss ob sie zurück zu TSMC wechseln..vieleicht wird es in Zukunft bei IBM auch wieder besser wenn sie die "Kriese" überwunden haben..man sollte nicht vergessen, daß IBM über die soziemlich besten Fertigungsstätten überhaupt verfügt..

LovesuckZ
2004-05-05, 11:43:47
Original geschrieben von robbitop@uni
wer weiss ob sie zurück zu TSMC wechseln..

Wird der NV45 nicht bei TSMC gefertigt?
Wenn ja, vielleicht auch mit Low-K.

Aqualon
2004-05-05, 11:46:43
Original geschrieben von robbitop
Ich finde die NV40 hat wirklich nette Effekte und ist unheimlich schnell. DVDs als MPEG4 zu encoden, und das deutlich schneller als vorher und/oder mit weniger CPU Last ist ein super Feature [...]
... das wir wohl eh nicht benutzen werden dürfen. Oder warum sollte Nvidia einerseits Macrovision im Treiber haben, um die Ausgabe von DVDs auf analoge Endgeräte zu unterbinden, aber andererseits das DVD-Kopieren erleichtern?

Klar ist es ein nettes Feature Video-Encoding nebenbei in der Grafikkarte laufen zu lassen, wenn man normal arbeitet. Aber bisher fehlt AFAIK der Beweis, dass dies überhaupt möglich und kein Marketingfeature ist, das für 99% der User nicht nutzbar ist.

Aqua

Frager
2004-05-05, 11:48:39
Für das Encoding benötigt man PCI-E.

Mit AGP geht dsa AFAIK nicht!

ow
2004-05-05, 12:17:37
.

nitram
2004-05-05, 13:40:51
Hallo

Erst, ich finde beine neuen Chips toll, die 6800 Ultra und die X800XT. Jeder Chip mit Stärken und Schwächen, aber beide rund doppelt so schnell wie die direkten Vorgänger. Deshalb beide: Hut ab.

Ich denke aber doch das ATI besser gepokert hat. Meiner Meinung nach ist die 6800 Ultra nichts anderes als der NV45! Vorgezogen, hastig umgesetzt. Deshalb wurde die A1 Revision bereits an Reviewer verschickt, die Yield ist mies, und der Takt ist im Keller und die Verfügbarkeit...

Wie gesagt alles Spekulation, deshalb in diesem Forum

Winter[Raven]
2004-05-05, 14:26:43
Original geschrieben von LovesuckZ
Nvidia hat eindeutig zu hoch gepokert. Man hat unmengen an Transistoren für Features draufgehauen, die nicht gewürdigt werden und so der Karte die Möglichkeit genommen haben, sie hoeher zu takten.
ATi dagegen hat einen 125MHz Vorsprung und kann dies in deutlich bessere Rohleistung vorallem beim Einsatz vom AF stecken und Shaderleistung stecken.

Würd ich abwarten ;). Nvidia hat mit ihrem Nv40 deutlich mehr Freiraum nach oben was mhz angeht als ATI;). Wir wissen wir nix über den NV45;), dieser könnte der ASS werden den Nvidia noch im Ärmel hat. NV40+LowK damit wären sicherlich >500 möglich.

-error-
2004-05-05, 14:38:22
Original geschrieben von Winter[Raven]
Würd ich abwarten ;). Nvidia hat mit ihrem Nv40 deutlich mehr Freiraum nach oben was mhz angeht als ATI;).

Eher nicht, man siehts schon an der Kühlung. Laut vielen Reviews soll der Kühlkörper der ATI kühl bleiben. 600mhz sind mindestens bei ATI drin. Eine übertaktete 9600XT kann man ja auch problemlos auf 600mhz übertakten. Klar, sie hat weniger Tranistoren, aber wer sagt nicht, dass ATI einfach einen größeren Kühlkörper anordnent, die die Hersteller dann verbauen müssen?

Die NV40 wird schon am Limit betrieben, sie zieht schon zuviel Strom, noch ein höhrere Verbrauch ist nun wirklich nicht mehr akzeptabel.

Ailuros
2004-05-05, 14:42:57
Original geschrieben von robbitop@uni
wer weiss ob sie zurück zu TSMC wechseln..vieleicht wird es in Zukunft bei IBM auch wieder besser wenn sie die "Kriese" überwunden haben..man sollte nicht vergessen, daß IBM über die soziemlich besten Fertigungsstätten überhaupt verfügt..

Ich sagte ja dass es moeglich sein koennte; nicht dass es auch passieren wird mit Sicherheit. Ein Wechsel kostet Zeit und Geld wie ich schon sagte.

Das IBM eine sehr gute foundry ist, ist wohl bekannt; d.h. aber wiederrum nicht dass TSMC jetzt nur von mittlerer Qualitaet ist.

DrumDub
2004-05-05, 14:43:30
Original geschrieben von Desire
Eher nicht, man siehts schon an der Kühlung. Laut vielen Reviews soll der Kühlkörper der ATI kühl bleiben. 600mhz sind mindestens bei ATI drin. Eine übertaktete 9600XT kann man ja auch problemlos auf 600mhz übertakten. Klar, sie hat weniger Tranistoren, aber wer sagt nicht, dass ATI einfach einen größeren Kühlkörper anordnent, die die Hersteller dann verbauen müssen?

also driverheaven hat den r420 auf 560/600 geprügelt. bei 600mhz gpu-takt wär ich eher vorsichtig, was aber nicht heißt, dass es nicht machbar ist.

Die NV40 wird schon am Limit betrieben, sie zieht schon zuviel Strom, noch ein höhrere Verbrauch ist nun wirklich nicht mehr akzeptabel.

was bisher imho am übelsten ist, ist das die 6800ue im 2D-betrieb soviel mehr (38w!) verbraucht als die 6800u:

http://techreport.com/reviews/2004q2/radeon-x800/power.gif

TheCounter
2004-05-05, 14:45:27
Original geschrieben von DrumDub
also driverheaven hat den r420 auf 560/600 geprügelt. bei 600mhz gpu-takt wär ich eher vorsichtig, was aber nicht heißt, dass es nicht machbar ist.

Das war mit dem Standardkühler, oder? Mitm VGA Silencer oder Wakü müsste da mehr drin sein dann...

Sphinx
2004-05-05, 14:46:00
Die Schlacht um den Thron wird sich seitens ATI Ende des Jahres unter PCI-X austragen - Wer da führt ist der neue King. ATI unterstützt max. nur noch eine Generation unter AGP (R480 ?).

Drum meine Meinung das Nvidia alle Asse aus dem Ärmel gelassen hat und ATI da noch viele Möglichkeiten der Auschöpfung für sich offengelassen hat. Wer von beiden besser gepokert hat würd ich klar mit 1 (Nvidia) : 1.25 (ATI) beantworten da Ati mit der R420 ein effizienteres Dezign mit der selben|besseren Performance wie dem NV40 nachgelegt hat wo die Zahlen doch klar für den R420 sind - Featuremäßig ist der NV40 auch nicht zu unterschätzen aber ob es "DAS" Feature IST weiß kein Mensch da keine Vergleichenden (Images) Unterschiede zwischen PS3 <-> PS2.x_B zuerkennen sind.

DrumDub
2004-05-05, 14:46:16
Original geschrieben von TheCounter
Das war mit dem Standardkühler, oder? Mitm VGA Silencer oder Wakü müsste da mehr drin sein dann...

jupp.

Ailuros
2004-05-05, 14:46:44
Original geschrieben von Desire
Eher nicht, man siehts schon an der Kühlung. Laut vielen Reviews soll der Kühlkörper der ATI kühl bleiben. 600mhz sind mindestens bei ATI drin. Eine übertaktete 9600XT kann man ja auch problemlos auf 600mhz übertakten. Klar, sie hat weniger Tranistoren, aber wer sagt nicht, dass ATI einfach einen größeren Kühlkörper anordnent, die die Hersteller dann verbauen müssen?

Die NV40 wird schon am Limit betrieben, sie zieht schon zuviel Strom, noch ein höhrere Verbrauch ist nun wirklich nicht mehr akzeptabel.

NV40 ist nicht auf low-k momentan. Das heisst jetzt nicht dass man die gleichen Taktraten in der Zukunft wie die R4xx refreshes erreichen koennte mit low-k, aber die vegleichbare Effizienz koennte sich genauso gut theoretisch ausspielen mit 500 vs 600MHz, wie heutzutage 400 vs 525MHz (oder 450 vs 525MHz, ist ja auch egal).

LovesuckZ
2004-05-05, 14:47:13
Original geschrieben von TheCounter
Das war mit dem Standardkühler, oder? Mitm VGA Silencer oder Wakü müsste da mehr drin sein dann...

Sie hatten nur eine X800pro.

DrumDub
2004-05-05, 14:50:27
Original geschrieben von LovesuckZ
Sie hatten nur eine X800pro.

nope: http://www.driverheaven.net/reviews/X800XTdhreview/overclocking.htm

aber du hast recht. mit der x800xt haben sie "nur" 555/600 gepackt. ;)

TheCounter
2004-05-05, 14:50:33
Original geschrieben von LovesuckZ
Sie hatten nur eine X800pro.

Oh okay, aba trotzdem, bei der Pro müsste dann ja auch mehr drin sein, aber mal abwarten, wird sicher spannend wenn die ganzen Übertaktungsversuche starten :D

deekey777
2004-05-05, 14:51:51
OT: Schon mal mit Nero Vision 2 eine DVD in MPEG4 umgewandelt? Das nenne ich schnell. Was bringt denn "HW" Encoding der beiden Kontrahenten, wenn es darüber noch nichts interssantes zu lesen gibt - nur dass die NV40/R420 dies können.

@ow: Genau, AGP reicht aus, aber die Hersteller wollen die PCIe Grafikkarten mit allen Mitteln durchsetzen. Auch, dass es möglich ist, auf einem Mainboard 2 AGP8x zu verbauen und so mit auch 2 AGP8x Grafikkarten zu nutzen, sagt auch niemand.

Aqualon
2004-05-05, 16:12:53
Original geschrieben von DrumDub
was bisher imho am übelsten ist, ist das die 6800ue im 2D-betrieb soviel mehr (38w!) verbraucht als die 6800u:
Da liegt das Problem wohl an einem Fehler im Treiber, der die 6800UEE nicht auf dieselben Taktfrequenzen runtertaktet wie die 6800U.

Da die UEE nur eine höher getaktete Ultra ist, dürfte nichts dagegen sprechen, sie im 2D-Modus mit denselben Takten zu betreiben.

Aqua

robbitop
2004-05-05, 16:48:30
wozu sollte NV einen Video Prozessor implementieren wenn der nicht nutzbar wäre...?
so ein Unsinn.

@AiL
in der Tat, TSMC ist in letzter Zeit deutlich besser geworden und dennoch halte ich es für fraglich ob man bei TSMC ähnlich gute Ingenineure und Fertigungsstätten hat wie IBM (siehe Ge-Si und FD-SOI da ist TSMC noch ein ganzes Stück von entfernt).
Ich denke mal bei IBM renkt sich das zum 90nm Prozess wieder ein, da muss NV jetzt durch, vieleicht könnte man trotzdem nebenher den NV45 bei TSMC produzieren lassen (vieleicht von Anfang an geplant falls bei einem was schief geht^^).

DrumDub
2004-05-05, 17:16:43
Original geschrieben von robbitop
wozu sollte NV einen Video Prozessor implementieren wenn der nicht nutzbar wäre...?
so ein Unsinn.

nutzbar schon, aber eben momentan wohl noch nicht. ati steht im bezug auf dieses feature momentan besser da, weil sie wohl die ausgereifteren treiber haben. s3 macht aber alle beide nass. ;D

siehe: http://www.xbitlabs.com/articles/video/display/r420_10.html

Godmode
2004-05-06, 00:34:39
denke mal wenn die Treiber endlich ausgereift sind, dass der NV40 sicherlich das beste Produkt für die Video Bearbeitung wird. Warum sie jetzt so blöd dastehn möchte ich gerne wissen, aber wird mir wohl niemand sagen können.

Zum Pockern denk ich mal das beide gleich gut sind, wobei ich denke das NV höhere Fertigungskosten für NV40 hat, weil er mehr Transen hat.

robbitop
2004-05-06, 02:14:13
naja beim NV40 ist eine enorme Erneuerung aufgetreten, d.h. beim Treiber durfte man im Gegensatz zu ATi wohl nochmal von vorn beginnen.
Und die Priorität des Treiberteams wird sicher ersteinmal auf Funktionieren der Spiele gesetzt sein worden.
Dann kommt die Performance und erst dann (jetzt??) kümmert man sich um die anderen Features wie den VP.
Bei ATi hat damals das DivX Decoding über Shader ne ganze Weile gedauert.

Ich hoffe, dass das hier schneller von statten geht.

Ailuros
2004-05-06, 03:03:04
Original geschrieben von robbitop
wozu sollte NV einen Video Prozessor implementieren wenn der nicht nutzbar wäre...?
so ein Unsinn.

@AiL
in der Tat, TSMC ist in letzter Zeit deutlich besser geworden und dennoch halte ich es für fraglich ob man bei TSMC ähnlich gute Ingenineure und Fertigungsstätten hat wie IBM (siehe Ge-Si und FD-SOI da ist TSMC noch ein ganzes Stück von entfernt).
Ich denke mal bei IBM renkt sich das zum 90nm Prozess wieder ein, da muss NV jetzt durch, vieleicht könnte man trotzdem nebenher den NV45 bei TSMC produzieren lassen (vieleicht von Anfang an geplant falls bei einem was schief geht^^).

Was soll besser geworden genau heissen? TSMC war wohl ueber die vergangenen Jahre gut genug, dann sprang low-k 130nm in NVIDIA's Gesicht weil sie selber die Verantwortung und das Risiko aufnahmen dieses zu benutzen (obwohl TSMC vor dessen Unreifheit damals warnte) und daran ist wer genau schuld?

Das Resultat zaehlt und Du kannst es gern weiterhin verdrehen aber NVIDIA waere mit low-k 130nm bei TSMC fuer NV40 besser aufgehoben.

Ob sich das jetzt lohnt den NV45 - mit einem tape out im Dezember bei IBM - auf TSMC zu wechseln, weiss wohl NVIDIA selber. Nochmal Zeit und Geld; ein foundry Wechsel ist keine ein paar Wochen Angelegenheit.

TSMC bietet uebrigens momentan low-k 130nm, einfaches 110nm und low-k 90nm an (von der Reifheit des Letzteren weiss ich natuerlich noch nichts, aber es wird angeboten).

gurtz
2004-05-06, 03:49:19
Original geschrieben von Ailuros
Was soll besser geworden genau heissen? TSMC war wohl ueber die vergangenen Jahre gut genug, dann sprang low-k 130nm in NVIDIA's Gesicht weil sie selber die Verantwortung und das Risiko aufnahmen dieses zu benutzen (obwohl TSMC vor dessen Unreifheit damals warnte) und daran ist wer genau schuld?

Das Resultat zaehlt und Du kannst es gern weiterhin verdrehen aber NVIDIA waere mit low-k 130nm bei TSMC fuer NV40 besser aufgehoben.

Ob sich das jetzt lohnt den NV45 - mit einem tape out im Dezember bei IBM - auf TSMC zu wechseln, weiss wohl NVIDIA selber. Nochmal Zeit und Geld; ein foundry Wechsel ist keine ein paar Wochen Angelegenheit.

TSMC bietet uebrigens momentan low-k 130nm, einfaches 110nm und low-k 90nm an (von der Reifheit des Letzteren weiss ich natuerlich noch nichts, aber es wird angeboten). Also gerade von dir hätte ich so was nicht gedacht!
Besser beraten na toll, ist aber nun mal anders!
Davon ab weist du genau das man nicht einen 130 nm Chip der nicht low k ist so auf low k umsetzen kann!

Das letzte mal war der nv Chip auf low k und diesmal ist man numer sicher gegangen!

Und zu den kleinen Prozessen he ich kenne da jemanden der bietet 45nm an von der reifheit diese Prozesses wies ich genau bescheit!

Frage hast gerade Nachtschicht oder??

Sphinx
2004-05-06, 07:43:25
Wo laß ich das die IBM Foundry ,) tiefrote zahlen geschrieben hat...

robbitop
2004-05-06, 10:06:29
Original geschrieben von robbitop
naja beim NV40 ist eine enorme Erneuerung aufgetreten, d.h. beim Treiber durfte man im Gegensatz zu ATi wohl nochmal von vorn beginnen.
Und die Priorität des Treiberteams wird sicher ersteinmal auf Funktionieren der Spiele gesetzt sein worden.
Dann kommt die Performance und erst dann (jetzt??) kümmert man sich um die anderen Features wie den VP.
Bei ATi hat damals das DivX Decoding über Shader ne ganze Weile gedauert.

Ich hoffe, dass das hier schneller von statten geht.

AiL,
full ack, verdreh mir aber bitte nicht die Worte im Munde.
Ich habe NICHT behaubtet, dass TSMC schuld sei oder dass NV40 bei IBM besser aufgehoben sei, ok?
Insofern full ack.

Ich sehe es so: sie sind nunmal gewechslet und zwar zu einer der besten Foundrys die es gibt. Dass TSMC währenddessen lowk produktionsreif hat, war zu erwarten, dass deren Yields bei 130nm steigen, auch ok.
Aber dass die gesamte Produktion bei IBM nun so aussieht wie sie jetzt ist, und dass es hier mit lowk nicht klappt, war nicht unbedingt in der Form vorauszusehen und ist nun mal Pech. (sonst wäre zw NV40 und R420 sicher einiges anders gelaufen). Jetzt denke ich mal, muss man damit leben und darauf setzen, dass es bei IBM besser wird. Die können sich so eine Produktion nämlich auch nicht leisten und müssen vo sich selbst aus die Sache in den Griff kriegen (gut dass NV pro funktionierendem Chip zahlt).
130nm ist also bei IBM nicht das Wahre, also abwarten was 90nm bringt (das beherrscht nämlich noch niemand, wenn man was "Größeres" produzieren soll).
Ich gehe mal davon aus, daß IBM lowk bis dahin sogar serienreif bekommt. Außerdem hat man zB Ge-Si und FD SOI, was bei TSMC noch lange nicht serienreif ist (ob das zum Einsatz kommt ist die andere Frage). Ich denke man sollte einfach abwarten.

Aber sag mal wäre es denn theoretisch möglich, dass NV von vorn herrein (ich weiss ein wechsel ist nicht von heut auf morgen drin, aber bei TSMC ist man ja schon da könnte man doch von vorn herrein den NV45 auf TSMC parameter eingestellt haben) bei TSMC den NV45 produzieren wollte und bei IBM den NV40, falls was schief geht?
Aber irgendwie klingt das auch anhand der Gerüchte sehr unwahrscheinlich.

Crushinator
2004-05-06, 11:03:47
Original geschrieben von gurtz (...) Das letzte mal war der nv Chip auf low k und diesmal ist man numer sicher gegangen! (...) :kratz2: Hilft mir mal bitte auf die Sprünge: Welcher nV Chip war nochmal in 'nem low-k Prozeß gefertigt?

Ailuros
2004-05-06, 11:09:46
Original geschrieben von gurtz
Davon ab weist du genau das man nicht einen 130 nm Chip der nicht low k ist so auf low k umsetzen kann!



Steht in jedem der vorigen Posts drin.

robbi,

Ich sehe es so: sie sind nunmal gewechslet und zwar zu einer der besten Foundrys die es gibt.

Foundry Wechsel sind immer ein Risiko. Hier geht es nicht nur um besser oder schlechter. TSMC und IBM haben total verschiedene Bereiche in denen sie spezialisieren.

...(gut dass NV pro funktionierendem Chip zahlt).

Ich quote jetzt Orton nicht nochmal. Ist bestimmt schon ein paar tausende Mal passiert seit sein B3D Interview veroeffentlicht wurde.

Aber sag mal wäre es denn theoretisch möglich, dass NV von vorn herrein (ich weiss ein wechsel ist nicht von heut auf morgen drin, aber bei TSMC ist man ja schon da könnte man doch von vorn herrein den NV45 auf TSMC parameter eingestellt haben) bei TSMC den NV45 produzieren wollte und bei IBM den NV40, falls was schief geht?

NV40 und NV45 tape out Dezember 2003 bei IBM auf 130nm. Siehe Post von "gurtz"; er hat auch nicht mitbekommen was ich meinte. Nichtmal 6 Monate reichen da aus, eben wegen der sehr hohen Komplexitaet.

NV schickte was zu TSMC im letzten Jahr rueber, nur hatte es absolut nichts mit den vorerwaehrten zu tun. Und das ist jetzt wieder mal zu viel geblubbert.

Ailuros
2004-05-06, 11:12:21
Original geschrieben von crushinator
:kratz2: Hilft mir mal bitte auf die Sprünge: Welcher nV Chip war nochmal in 'nem low-k Prozeß gefertigt?

NV30 wurde fuer low-k 130nm ausgelegt; daraus wurde nichts also wurde auf einfaches 130nm nochmal ausgelegt (Q1 2002 bis Q1 2003 was Verfuegbarkeit betrifft).

Uhhhm keiner.

Crushinator
2004-05-06, 11:21:36
Original geschrieben von Ailuros
Uhhhm keiner. Danke, darauf wollte ich hinaus. ;)

DrumDub
2004-05-06, 12:34:00
Original geschrieben von Ailuros
Ich quote jetzt Orton nicht nochmal. Ist bestimmt schon ein paar tausende Mal passiert seit sein B3D Interview veroeffentlicht wurde.


also aus dem interview kann ich nur rauslesen, dass ibm gerüchteweise extreme probleme mit der ausbeute beim nv40 hat.

And then I’ve heard some, tongue in cheek, talk that NVIDIA isn’t counting die-per-wafer, but wafers-per-die, and whenever this is the case you’ve certainly crossed a threshold!

meine übersetzung:

und dann habe ich (mit ironischem unterton) einige gerüchte gehört, dass nvidia nicht die dies pro wafer zählt sondern die wafer pro die und wenn sowas passiert dann überschreitet man eine schwelle.

ob nvidia nun ibm nur die funktionierneden dies bezahlt oder nicht, kann ich dieser aussage nicht entnehmen.

robbitop
2004-05-06, 12:54:55
der CEO von NV hat offiziell vor ner Weile gesagt, dass NV pro funktionierendem DIE zahlt.

Ailuros
2004-05-06, 13:25:34
Original geschrieben von robbitop
der CEO von NV hat offiziell vor ner Weile gesagt, dass NV pro funktionierendem DIE zahlt.

Was aber auch wiederrum bedeuten wuerde, dass IBM mit Verlust herstellt.

Crushinator
2004-05-06, 13:32:00
Original geschrieben von Ailuros
Was aber auch wiederrum bedeuten wuerde, dass IBM mit Verlust herstellt. .... oder daß nVIDIA pro DIE eine weit überhöhte Summe zahlt.

DrumDub
2004-05-06, 13:39:39
Original geschrieben von Ailuros
Was aber auch wiederrum bedeuten wuerde, dass IBM mit Verlust herstellt.

nach dieser aussage macht ibm das auch:

With Big Blue, customers only pay for good chips. http://www.theinquirer.net/?article=11002

das gilt dann wohl auch für den 90nm g5.

Ailuros
2004-05-06, 13:41:30
Nein IBM hat die beste Technologie/Inginieure usw. aber Banausen in den finanziellen Abteilungen ;D

Ok ok....ich darf auch mal nen Witz posten oder? :)

Ailuros
2004-05-06, 13:45:02
Original geschrieben von DrumDub
nach dieser aussage macht ibm das auch:

http://www.theinquirer.net/?article=11002

das gilt dann wohl auch für den 90nm g5.

*hust*

The report adds that the NV40 will have 300 million trannies and run at 600MHz, use special DDR-II memory and be produced at the IBM foundry at .13µ (micron) towards the end of the year.

Nice accurate and reliable report :lolaway:

Argh-ist-noch-da
2004-05-06, 13:48:15
Original geschrieben von Ailuros
*hust*



Nice accurate and reliable report :lolaway: gehört auch ja nv45 hin

robbitop
2004-05-06, 14:07:11
genauso unsinnig

Ailuros
2004-05-06, 14:30:59
Original geschrieben von Argh-ist-noch-da
gehört auch ja nv45 hin

Verstehen kann ich den Satz gerade nicht oder die Andeutung aber wichtig ist es nun auch wieder nicht.

Mehr Inquirer-loving:

http://www.theinquirer.net/?article=15659

Halbwegs auch in der gleichen BS Kategorie.

http://www.theinquirer.net/?article=14063
http://www.theinquirer.net/?article=15260
http://www.theinquirer.net/?article=14147
http://www.theinquirer.net/?article=14484

DrumDub
2004-05-06, 14:37:52
Original geschrieben von Ailuros
*hust* Nice accurate and reliable report :lolaway:

ja, aber im bezug auf den nv40 und r420 war ja auch nicht alles falsch. ich such noch mal nach ner zuverlässigeren quelle bezüglich ibm und ob wirklich nur pro funktionierden die gezahlt wird. ;)

Ailuros
2004-05-06, 14:50:35
Original geschrieben von DrumDub
ja, aber im bezug auf den nv40 und r420 war ja auch nicht alles falsch. ich such noch mal nach ner zuverlässigeren quelle bezüglich ibm und ob wirklich nur pro funktionierden die gezahlt wird. ;)

DrumDub spar Dir die Muehe. Es geht hier um ganz was anderes.

Es geht hier darum dass robbi (nicht boes gemeint) einfach jegliches PR Geblubber adoptiert und es wird dann darauf weitergeblubbert.

Nach dem NV30 hies es bei NVIDIA dass TSMC = poo und IBM = Segen. Jetzt wo doch nicht alles so toll ist am Ende bei IBM wird die letztere mit einig wenigerem Enthusiasmus erwaehnt und intern wird sogar intensiv darueber gemeckert.

Beide Foundrys gehoeren zu den absolut Besten und dabei gibt es keine Zweifel; das was mich nervt ist dass je nach Erfolg/Misserfolg die Qualitaet jeder Foundry staendig aendert. NVIDIA ist allein verantwortlich fuer ihre Entscheidungen und daran ist weder IBM, TSMC usw. schuld noch deren zweifellose Qualitaet im Markt. Um das alleine geht es mir und die sinnlose Reproduktion von bloedem PR-Geblubber von Seiten NVIDIA.

DrumDub
2004-05-06, 15:09:59
Original geschrieben von Ailuros
DrumDub spar Dir die Muehe. Es geht hier um ganz was anderes.

Es geht hier darum dass robbi (nicht boes gemeint) einfach jegliches PR Geblubber adoptiert und es wird dann darauf weitergeblubbert.

Nach dem NV30 hies es bei NVIDIA dass TSMC = poo und IBM = Segen. Jetzt wo doch nicht alles so toll ist am Ende bei IBM wird die letztere mit einig wenigerem Enthusiasmus erwaehnt und intern wird sogar intensiv darueber gemeckert.

Beide Foundrys gehoeren zu den absolut Besten und dabei gibt es keine Zweifel; das was mich nervt ist dass je nach Erfolg/Misserfolg die Qualitaet jeder Foundry staendig aendert. NVIDIA ist allein verantwortlich fuer ihre Entscheidungen und daran ist weder IBM, TSMC usw. schuld noch deren zweifellose Qualitaet im Markt. Um das alleine geht es mir und die sinnlose Reproduktion von bloedem PR-Geblubber von Seiten NVIDIA.

ok. hab ich verstanden. :)

sicherlich war tsmc nicht am misserfolg des nv30 schuld und auch nicht daran, dass er viel zu spät kam. da hat sich nv selber zuzuschreiben, weil sie sich überschätzt und ati unterschätzt haben. das problem beim nv40, was sich meiner meinung nach andeutet, ist: massenverfügbarkeit.

wenn selbst ein treuer nvidia-partner wie gainward solche infos rausgibt:

Gainward PowerPack! Ultra/2600 pricing (Geforce 6800 Ultra) will start shipping within 10 days. Supply will be limited in the first 6 – 10 weeks.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=141208

und das betrifft nur die 6800u. von den shipping dates der kleineren karten steht da garnix, was mich schon nachdenklich stimmt.

robbitop
2004-05-06, 18:21:19
@AiL
ich habe mitnichten PR Geblubber gelesen und weitergegeben, sondern Beobachtungen die ich seit Mitte der 90er bis heute hatte. IBM war, zumindist bei CPUs, immer soziemlich die beste Foundry. Die Verfügbarkeit diverser Techniken spricht einfach für sich.

Aber es hört sich natürlich nach PR Geblubber an :D
Und ja ich hab kA was die Quallität von TSMC angeht, vermutlich haben die in Sachen VPUs mehr Know How.

Crushinator
2004-05-06, 18:40:11
robbitop,

Deiner Meinung bezüglich Skills der "Fishkiller" :D schließe ich mich ohne wenn und aber an, bin aber auch der Meinung, daß man ihnen nicht die Schuld für alles was schiefgehen könnte in die Schuhe schieben sollte, wenn sie den betroffenen Chip nicht selbst designed haben.

/edit: Tippfehler korri:kicher:t

robbitop
2004-05-06, 19:11:53
habe ich jemals sowas gesagt?
Ich glaube das hat AiL mir in den Mund gelegt ;)

Ailuros
2004-05-07, 13:24:44
Original geschrieben von robbitop
@AiL
ich habe mitnichten PR Geblubber gelesen und weitergegeben, sondern Beobachtungen die ich seit Mitte der 90er bis heute hatte. IBM war, zumindist bei CPUs, immer soziemlich die beste Foundry. Die Verfügbarkeit diverser Techniken spricht einfach für sich.

Aber es hört sich natürlich nach PR Geblubber an :D
Und ja ich hab kA was die Quallität von TSMC angeht, vermutlich haben die in Sachen VPUs mehr Know How.

So gesehen stimmt es durchaus und da hab ich auch nichts einzuwenden. Jede Foundry spezialisiert bis jetzt wo anders. :)

Ich glaube das hat AiL mir in den Mund gelegt.

Dass Du's selber nicht gesagt hast, kann man wohl herauslesen. Vorsicht...

...jegliches PR Geblubber adoptiert und es wird dann darauf weitergeblubbert

Die Erweiterung hab ich Dir nicht persoenlich angehaengt; aber ich lese aehnliches viel zu oft und wollte es eigentlich klarstellen.

Tatsache ist dass NVIDIA immer noch TSMCs groesster Kunde ist und es wird sich nichts daran aendern; wenn dann nur zum Besseren. Und um es noch klarer zu machen ich hab nichts besonderes mit TSMC; IMHO wurden sie nur leider des oefteren unfair fuer hypothetische "Unfaehigkeit" oder was immer indirekt angeklagt.

Genauso unfair wird es sein wenn sich jetzt das Blatt zur Seite IBM wenden wuerde....

robbitop
2004-05-07, 14:25:28
full Ack AiL
ich wollte nur klarstellen, dass ich nicht behauptete, TSMC sei am NV30 Debakel schuld.

svenw
2004-05-10, 12:12:43
Ich finde ATI hat gewonnen! Nvidia hat wirklich viel Mühe und DIE Platz für Features verbraten die man nicht unbedingt braucht. Um die neuen Karten maximal auszunutzen braucht man eh einen Chip im +3GHz Bereich. Da ist Video Decoding alle Mal drin, warum dafür Transistoren verschwenden? Gleiches gilt fürs Coding. Chips sind heute eh 90%ihrer Zeit im idle Modus. Da ist fast immer noch Platz zum "nebenbei" codieren und ist die Codierzeit wirklich wichtig oder läßt man halt 1 mal den Rechner über Nacht laufen anstatt das ganze "nebenher" zu erledigen? Wenn ich so eine große CPU habe ist es für 99% der User redundant diese Features im Chip zu haben(professionelle Viedeo Bearbeiter mal ausgenommen).Diese können von den Nvidia Features (mit PCIe) richtig profitieren nur sind das wirklich nicht die Mengen an Chips das sich das für Nvidia lohnen sollte.

ATI hat große Vorteile wenn man alle Features dazuschaltet (wie man in den Tests sieht stampft die Pro mit nur 12 Pipes die Ultra bei hohen Einstellungen ein). Da das R3XX Design nur verfeinert wurde dürfte ATI auch ne Menge Entwicklungsarbeit eingespart haben, die man vieleicht in die Entwicklung der R5XX chips gesteckt hat. Somit könnte ATI da in der Zukuft Vorteile haben.

Und wie man an der recht kontroversen Diskusion sieht sind die Chips ungefähr gleichwertig (+-5%) und somit hat ATI wohl mit weniger Aufwand und weniger Transistoren das geleiche wie Nvidia erreicht. Damit geht der Sieg an ATI.

kami
2004-05-10, 12:17:45
Original geschrieben von svenw
Nvidia hat wirklich viel Mühe und DIE Platz für Features verbraten die man nicht unbedingt braucht.

Wer ist 'man'? Du? Der Durchschnittsspieler? Der Entwickler? Ich finde man sollte das Ganze etwas differenzierter sehen. Viele sehen das zu sehr aus der Sicht des Spielers, was auch nachvollziehbar ist. Allerdings sollte man den Nutzen der Features nicht gänzlich aberkennen. Andere Klientel findet diese dann gerade gut.

svenw
2004-05-10, 12:29:52
Hab ich doch auch geschrieben. Profis werden von den Features profitieren, nur was sind das an Mengen im Bezug auf den normalen Consumer Markt? Für wieviele ist schnelleres Coding/Decoding wirklich ein Kaufargument anstatt eines netten Features das sie vieleicht 2-3 MAl im monat(wenn überhaupt) brauchen?
[edit] ist mir noch eingefallen: Ein Profi packt auch locker 3k+ Euro für etwas hin was er braucht was Spezialentwicklungen sinnvoll macht. Diese aber in einen Consumer Chip zu stecken? Genau aus diesen Gründen sind ja auch die Low Kost Chips häufig in ihrer Transistoren Zahl abgespeckt, weil es sich nicht lohnt gewisse Features "mitzuschleppen".

kami
2004-05-10, 12:37:45
Die Videofeatures werden iirc über das SM3.0 ermöglicht und sind meines Erachtens nach nicht differenziert zu betrachten.

Und die Personenkreise, die mit SM3.0 was anfangen können, sind nicht so unerheblich wie manche es darstellen. Von daher finde ich sollte man nicht 'man' schreiben, wenn dem SM3.0 die "Nutzbarkeit" abgesprochen wird. Besser wäre zu schreiben, dass du persönlich es für verfrüht / unnütz / whatever hälst. Weiterhin könnte man schreiben, dass momentan nicht abzusehen ist, ob SM3.0 in absehbarer Zukunft etwas für den "gemeinen" Gamer bringt. :)

Ist auch nicht persönlich gemeint, nur finde ich es unschön, dass an zig Stellen ständig der Sinn von den erweiterten Möglichkeiten der GeForce in Frage gestellt wird und dabei aber immer verallgemeinert wird.

:bier:

svenw
2004-05-10, 12:45:18
Was ich meine sit nicht, das ich die Features schlecht finde, sondern das ich es nicht für klug halte solche Features in die "normalen" Karten zu integrieren wo sie Transistoren fressen und somit den Chip verteuern. Diese Features wären sicher etwas tolles für "Sonderserien" nur ist die Frage wieviele Leute bereit sind dafür extra zu zahlen und ob sich das ganze zumindestens gut als Marketing Mittel nutzen läßt.

Daran hab ich meine Zweifel angemeldet und nicht daran ob die Features gut oder schlecht sind. Für den Kunden sind sie in jedem Fall ein schönes Zusatzfeature, aber ob sich das für Nvidia lohnt?

kami
2004-05-10, 13:47:52
Da NVIDIA stark im professionellen Markt vertreten ist gehe ich davon aus, dass es sich für sie lohnt. Beweisen kann ich das allerdings nicht. :)

Ich denke es wäre aber unwirtschaftlicher extra Chips für die verschiedenen Märkte zu erstellen. Die Entwicklung der neuen Generationen dauert eh schon sehr lange mittlerweile. Wenn man dann noch die "Man-Power" weiter verteilen würde, würde die Entwicklungszeit noch länger benötigen bzw. die Sprünge wären sehr viel kleiner bei gleicher Entwicklungsdauer. Alles imho natürlich. =)

Gast
2004-05-10, 20:38:56
Quantum ist das Stichwort ;)

Ich denk es ist ein Unentschieden zwischen beiden Herstellern.
Zwar wollte jeder den Anderen überbieten.... aber im Endeffekt haben beide das selbe Deck ;)

Das einzigste was mir ein bissl übel aufstößt sind die hohen Preise für die neuen Grafikmonster :(

CrassusX
2004-05-10, 23:13:52
Mal schauen. So wie ich das sehe hat Ati mit recht wenig Aufwand gekontert, und es ist ja kein offenes Geheimnis, dass sich Ati voll und ganz auf den nächsten Chip konzentriert und der r420 nur ein Trittstein im Bach ist, um ans andere Ufer zu kommen.
Andererseits hat nvidia eine vielversprechende Basis auf der jetzt weiter aufgebaut werden kann.

robbitop
2004-05-11, 08:30:50
ach wie oft haben wir dieses Thema durchgekaut?

-ATi hat in den bis März/Aprill 03 ca ~2 Jahre für den R400 R&D Ressourchen verwandt, die sicher z.T. wiederverwendet werden können aber auch z.T verschwendet waren.
Ein gewisser Teil des originalen R400 soll ja im R500 zum Einsatz kommen.
-NVIDIA hat mit dem NV3x und später mit dem NV4x getan, den ATi noch vor sich hat. Eine technisch sehr fortschrittliche SM3.0 nahe Architektur.
-ATi's R420 basiert letztendlich noch auf dem R200
-der Schritt muss also kommen
-ATi hat 2 Consolenchips nebenher zu fertigen und konnte es sich einfach nicht leisten (R&D Technisch), einen neuen Chip zu designen, da sie extrem gut ausgelastet sind. Trotzdessen ist R420 performancetechnisch (nicht unlängst durch lowk) keine Enttäuschung. Was Features und Technologie betrifft eben nicht mehr up-to-date. (beim banalen Spielen erstmal relativ unwichtig bisher)
-R500/R600 wird dieser Schritt sein
-R500/NV50 werden auf 90nm basieren und vermutlich das IDLP Konzept vorstellen (bessere Auslastung der Ausführungseinheiten).

Soweit eine Zusammenfassung (Großteil basiert natürlich auf
Gerüchten anderes auf offiziell bestätigten Fakten)

HOT
2004-05-11, 09:16:28
ATI hat sicherlich jetzt einen ziemlichen Entwicklungsvorsprung bei der nächsten Generation, des R500. Nicht zuletzt durch den Druck von M$. Von daher wähne ich ATI jetzt erstmal zum Gewinner dieser Runde, da die Entwicklung des R420 wirklich nicht soo schlimm gewesen sein kann.
Hoffentlich hat NV nicht wirklich Probleme Chips zu bekommen, das würde den Start sicher im einiges Verzögern :(

LovesuckZ
2004-05-11, 09:20:28
Warum sollte ATi einen Entwicklungsvorsprung haben?
Wer sagt, dass man einen Abkömmling des r500 in der Xbox sehen werde?
Es koennte genauso sein, dass der r500 nur ein r420 mit SM3.0 und verbesserten AA/AF sein koennte und der Xbox Chip auf dem r600 basiere.

Mancko
2004-05-11, 09:43:32
Original geschrieben von svenw
Hab ich doch auch geschrieben. Profis werden von den Features profitieren, nur was sind das an Mengen im Bezug auf den normalen Consumer Markt? Für wieviele ist schnelleres Coding/Decoding wirklich ein Kaufargument anstatt eines netten Features das sie vieleicht 2-3 MAl im monat(wenn überhaupt) brauchen?

Kann ich dir kurz und knapp beantworten. Für die selbe große Millionenkundschaft, die sich einen P4 wegen seiner hervorragenden Multimedia-Eigenschaften gekauft haben.
Wo lag denn der P4 über die ganzen letzten Jahre wirklich vorn? Genau Endoding/Decoding alles was mit Multimedia zu tun hat.
Kaum einer der Kunden hat das wirklich genutzt aber letztlich zieht es als Kaufargument.

Die Features sind alles andere als unnütz. Wie groß ist denn der Vorsprung im Schnitt betrachtet den ATI im Moment hat? Der ist doch jämmerlich gering. In den meissten Fällen im Rahmen der Meßtoleranz.
Da würde ich in jedem Fall immer zu dem technisch fortschrittlicheren Produkt greifen. Ich sehs er andersrum. Der R420 bietet mir eigentlich keinen großen Mehrwert, den ich nicht auch mit dem NV40 haben kann. Die paar Ausreißer in den Benchmarks lassen sich in beide Richtungen finden.
Und vergiss nicht es stehen irgendwann Mainstream und Low End Produkte an. In diesen Bereichen fallen Features noch mehr ins Gewicht als im High End. Bestes Beispiel sind ja wohl FX5600 und FX5200.
Im Vergleich zu denen werden NV4x Ableger aber absolut konkurenzfähig performanen und zusätzlich noch eine Menge mehr abseits der Performance bieten als die Konkurenz.
Da wird es ATI schwer haben bis zum R500 den Rückstand PR technisch zu überbrücken.

Mancko
2004-05-11, 09:53:33
Original geschrieben von HOT
ATI hat sicherlich jetzt einen ziemlichen Entwicklungsvorsprung bei der nächsten Generation, des R500. Nicht zuletzt durch den Druck von M$.

???????????
Das verstehe ich jetzt überhaupt nicht.

x-dragon
2004-05-11, 10:11:12
Original geschrieben von Mancko
???????????
Das verstehe ich jetzt überhaupt nicht. Zumindest was MS angeht, da spielt er wahrscheinlich auf die Grafik-Chips für die X-Box an.

Mancko
2004-05-11, 11:11:25
Original geschrieben von x-dragon
Zumindest was MS angeht, da spielt er wahrscheinlich auf die Grafik-Chips für die X-Box an.

und was hat das mit einem Entwicklungsvorsprung zu tun?
ATI muss jetzt erstmal in der Praxis zeigen, dass sie in der Lage sind eine SM3.0 Architektur erfolgreich in die Praxis zu bringen. Da bleibt noch genug aufzuholen.
SM4.0 sehen wir so schnell nicht für den PC. Ein Überspringen von SM3.0 dürfte daher schwierig werden.

Crushinator
2004-05-11, 12:16:30
Original geschrieben von Mancko
(...) ATI muss jetzt erstmal in der Praxis zeigen, dass sie in der Lage sind eine SM3.0 Architektur erfolgreich in die Praxis zu bringen. Da bleibt noch genug aufzuholen. Sie haben eine solche Architektur bereits in der Schublade, nur wollte das Personal bisher nicht auf Eindrittel des Gehaltes als Yield/Wafer-Ausgleich verzichten, damit der Chip "wirtschaftlich tragbar" in Maßenfertigung geht. :D

svenw
2004-05-11, 12:29:13
Hat mal jemand einen Link zu den Features der 4er Shader? Falls ATI die 4er Shader bis 2005 in den Griff bekommt ist Shader 3 IMHO tot.

Jedes Spiel braucht eh 2er Shader um abwärtskompatible zu bleiben und Nvidia hat nicht mehr die Marktmacht um Shader 3 durchzusetzen. Vor der 3er Serie hätte Nvidia Shader 3 durchsetzen können aber nun haben sie die nicht mehr (auch wenn ihre Shader besser sind als die von ATI). Und Spiele mit 3er Shadern wird es sicher noch ne ganze Weile nicht geben und welche die wirklich 3er Shader brauchen würde ich frühestens für Mitte 2005 erwarten.

Quasar
2004-05-11, 12:33:03
Irgendwo habe ich mal gelesen, daß die XBox2-Developer Kits mit Radeon 9800 oder X800 ausgestattet sein sollen. Wenn das stimmen sollte, dann wird's wohl nix mit SM4 in der XBox-GPU (oder will man nur minderwertige Launchtitel ggü. der PS3?)

Aquaschaf
2004-05-11, 12:39:14
Gibts irgendwo Informationen, was die PS 3 an Shader-Fähigkeiten hat?

robbitop
2004-05-11, 13:04:57
laut Davebauman wird R500 nicht das was wir dachten.
Er meint ausserdem, dass der XBOX2 VPU keine Ähnlichkeit mit dem R500 hätte.

Der nextGen ATi Chip mit neuer Architektur _könnte_ tatsächlich einen Schritt weitergehen als der NV50.
NV hat mit dem NV40 schon einen riesen Schritt getan und es ist eher unwahrscheinlich, dass man nochmal nach bloß einem Jahr diese Architektur wieder über den HAufen wirft.
Vieleicht bleibt NV also bei getrennten Shadern und ATi geht zu einem unified Shader. Sprich der eine hat einen logischen Unified, der andere hat ihn auch physikalisch.
Allerdings bringt beides Vor- und Nachtteile mit sich.

Ailuros
2004-05-11, 14:22:16
Mal anders rum und den Codenamen-Wirrwarr zur Seite geschoben; ich hab nachgefragt und bis jetzt konnte mir zwar keiner sagen ob das XBox2 Diagramm echt ist, aber die dafuer angegebenen specs fuer den Grafik-chip sollen mehr oder weniger stimmen.

Falls es so sein sollte und dieser tatsaechlich ein hybrider R5xx/R6xx Design sein koennte dann sieht weder der XBox chip noch R500 nach etwas sehr besonderem aus. Oder ich hab natuerlich was verpasst....

PS: um Missverstaendnissen zu entgehen: nicht als Hardware fuer die heutigen Verhaeltnisse aber fuer die absehbare Zukunft und noch mehr fuer eine Console die auch ~5 Jahre aushalten sollte.

BodyLove
2004-05-14, 22:26:13
Wer besser gepokert hat?

Schwer zu sagen. Rein naiv betrachtet würde ich sogar sagen, dass es NV getan hat. Sie haben den NV40 herausgebracht. 16Pipes und 400Mhz Coretakt. ATI wollte imho eigentlich den X800pro als nächstes HighEndProdukt rausbringen. Den X800xtPE für später aufheben. Die Leistung des 6800U hat ATI überrascht, warum sie dann den X800xt parallel rausbrachten. Aber hart an der Grenze der Taktbarkeit. Jetzt kann NV mit einem 68UE kontern. Sofern sie wirklich noch 50Mhz Reserve haben, würde ich sagen, dass der auch die meisten Benches gegenüber dem X800xtPE gewinnt. Wichtige Frage hierbei. Wie sieht es mit der Verfügbarkeit aus? Imho gewinnt der den Kampf, der auch die ersten Karten herausbringt.

Alle anderen Features habe ich bewusst ausser acht gelassen. Jetzt zählt nur der Speed.

Gast
2004-05-15, 21:52:29
Original geschrieben von crushinator
Sie haben eine solche Architektur bereits in der Schublade, nur wollte das Personal bisher nicht auf Eindrittel des Gehaltes als Yield/Wafer-Ausgleich verzichten, damit der Chip "wirtschaftlich tragbar" in Maßenfertigung geht. :D

was irgendwer irgendwo in der Schublade hat interessiert nicht. Solange nicht entsprechende Karten an Tester verschickt wurden solange bleibt man den Beweis schuldig und muss sich nunmal anhören, dass man derzeit unfähig ist eine entsprechende Architektur in die Praxis umzusetzen. Die Beweislast liegt hier bei ATI.

Gast
2004-05-15, 21:56:54
Original geschrieben von svenw
Hat mal jemand einen Link zu den Features der 4er Shader? Falls ATI die 4er Shader bis 2005 in den Griff bekommt ist Shader 3 IMHO tot.

Jedes Spiel braucht eh 2er Shader um abwärtskompatible zu bleiben und Nvidia hat nicht mehr die Marktmacht um Shader 3 durchzusetzen. Vor der 3er Serie hätte Nvidia Shader 3 durchsetzen können aber nun haben sie die nicht mehr (auch wenn ihre Shader besser sind als die von ATI). Und Spiele mit 3er Shadern wird es sicher noch ne ganze Weile nicht geben und welche die wirklich 3er Shader brauchen würde ich frühestens für Mitte 2005 erwarten.

wenn ATI 2005 Shader 4.0 in den Griff bekommt, ist dies der früheste Zeitpunkt an dem für derartige Features begonnen wird zu entwickeln.
Bis dahin sind es die 2er und 3er.

Und bezüglich der Marktmacht brauch Nvidia nichts durchsetzen. Das macht M$, da SM3.0 ein Standard sind der in einer DX Version erscheinen wird die recht bald ansteht. Sobald es dieses DX gibt ist das alte nichts mehr wert. Es ist Aufgabe eines jeden Testers ganz klar deutlich zu machen, dass ATI eine Bremse ist. Es muss dafür allerdeutlichsten Punktabzug bekommen. Die Message ist ganz klar dass ATI versucht sich auszuruhen. Das muss in der vollen Breite bestraft werden.

Crazytype
2004-05-15, 22:41:13
Original geschrieben von Gast
wenn ATI 2005 Shader 4.0 in den Griff bekommt, ist dies der früheste Zeitpunkt an dem für derartige Features begonnen wird zu entwickeln.
Bis dahin sind es die 2er und 3er.

Und bezüglich der Marktmacht brauch Nvidia nichts durchsetzen. Das macht M$, da SM3.0 ein Standard sind der in einer DX Version erscheinen wird die recht bald ansteht. Sobald es dieses DX gibt ist das alte nichts mehr wert. Es ist Aufgabe eines jeden Testers ganz klar deutlich zu machen, dass ATI eine Bremse ist. Es muss dafür allerdeutlichsten Punktabzug bekommen. Die Message ist ganz klar dass ATI versucht sich auszuruhen. Das muss in der vollen Breite bestraft werden.

Junge schluck nicht soviel Drogen, schonmal was von wirtschaftlichkeit gehört? Für SM 3.0 30-40 % mehr Transistoren zu verwenden und das Design total zu verändern wäre zu teuer geworden, außerdem kann man mit SM 2.0 auch alle Shader darstellen, nur nicht so schnell.
Man sieht ja an dem nv40 was ein großer DIE für Probleme verursacht...

robbitop
2004-05-16, 02:09:56
man hatte schlicht nicht die R&D Ressourcen, that's all.
Gut man entwickelte am R400, welcher wohl ein SM3 gewesen sein soll, vieleicht sogar mehr. Aus irgendwelchen Gründen kam er nicht. Dieser wurde aber zurück ans Zeichenbrett gebracht damit man die Technologie zum R500 nutzen kann.

Crushinator
2004-05-16, 18:27:24
Original geschrieben von Gast
was irgendwer irgendwo in der Schublade hat interessiert nicht. Solange nicht entsprechende Karten an Tester verschickt wurden solange bleibt man den Beweis schuldig und muss sich nunmal anhören, dass man derzeit unfähig ist eine entsprechende Architektur in die Praxis umzusetzen. Die Beweislast liegt hier bei ATI. Du hast vollkommen recht, sie sind absolut unfähig das Gegenteil von dem zu befolgen, was Aktionäre möchten, ganz zu schweigen von dem was OEMs mögen. :D

D-Swat
2004-05-16, 21:09:51
Original geschrieben von svenw
Hat mal jemand einen Link zu den Features der 4er Shader? Falls ATI die 4er Shader bis 2005 in den Griff bekommt ist Shader 3 IMHO tot.

2005 wird das garantiert nix mit SM4.0.
Für SM4.0 braucht man DXNext und das kommt erst mit Windows Longhorn 2006/2007 raus.
Vorher ist SM4.0 eher nen Feature für Entwickler als für Endkunden.

Morgan2004
2004-05-17, 16:05:21
Original geschrieben von crushinator
Sie haben eine solche Architektur bereits in der Schublade, nur wollte das Personal bisher nicht auf Eindrittel des Gehaltes als Yield/Wafer-Ausgleich verzichten, damit der Chip "wirtschaftlich tragbar" in Maßenfertigung geht. :D


Ja Ja...So lautet die Message der PR Abteilung. Die Frage ist, ob das auch der Wahrheit entspricht.

Meine Hypothese ist, dass sie den SM 3 Chip entweder nicht rechtzeitig herausbringen konnten, oder dass ihnen bewusst wurde, dass er nicht schnell genug sein würde...

Aber zu sagen, dass man der meinung ist, dass SM3 "Scheisse" ist und dass man bewusst darauf verzichtet hat, macht sich bei den potentiellen Kunden natürlich besser :)

Morgan2004
2004-05-17, 16:10:04
Original geschrieben von svenw
Und wie man an der recht kontroversen Diskusion sieht sind die Chips ungefähr gleichwertig (+-5%) und somit hat ATI wohl mit weniger Aufwand und weniger Transistoren das geleiche wie Nvidia erreicht. Damit geht der Sieg an ATI.

Das kommt darauf an, welcher Chip mehr kostet und nicht welcher Chip weniger Transistoren hat.

Nach Aussagen des Bosses von Nvidia ist der NV40 billiger in der Herstellung als der R420.

P.S. Hast du die Artikel über das AF Cheating von ATI schon gelesen?

Börk
2004-05-17, 18:03:54
Original geschrieben von Morgan2004
Nach Aussagen des Bosses von Nvidia ist der NV40 billiger in der Herstellung als der R420.

Das wurde nie behauptet. Es wurde nur gesagt, dass das Die des NV40 nur 9% größer sei als das des R420 (bedingt durch die hohe Packungsdichte) und wie Wafer wegen non-lowk 10-15% billiger. Bei gleicher Ausbeute wäre somit der NV40 billiger, es darf aber zurecht bezweifelt werden, dass der NV40 mit seinen 222 Mio Transis die gleiche Ausbeute wie der R420 hat.

Gruß,
Börk

robbitop
2004-05-17, 18:48:57
der NV40 Kern sieht aber nach mehr als 9% größer aus.
Das einzige was man bedeutend besser packen könnte, wären die Caches. Und es sind nur ~10% SRAM Zellen an Board.
So wirklich glaube ich das alles noch nicht.
Ausserdem soll die NV40 Ausbeute schlecht sein, IBM sollte sich besser was ausdenken (NV bezahlt ja nur brauchbare Chips). Ein weiterer Metallayer wirkt manchmal Wunder *hint*. :D

ow
2004-05-17, 19:18:11
.

robbitop
2004-05-17, 20:05:29
es gibt auch keinen :D

Winter[Raven]
2004-05-17, 23:03:38
Ausserdem soll die NV40 Ausbeute schlecht sein, IBM sollte sich besser was ausdenken (NV bezahlt ja nur brauchbare Chips). Ein weiterer Metallayer wirkt manchmal Wunder *hint*.


naja ... ich habe was von Besseren gelesen ... ;)

Speaking during a briefing by telephone, John Kelly, who runs IBM's chip business, said that in the past few months the number of flaws found in the chips it makes have decreased.

"Lately our defect densities have been improving quite rapidly," Kelly said. The facility started off last year with good improvements in its production of useable chips, but that then declined due to some design issues, he said.

"We seem to have turned the corner on those (design issues). We believe we understand them and we are now making rapid progress on them. But we still are not quite to our target -- to our objective -- but we are getting very close," Kelly said.

robbitop
2004-05-17, 23:29:40
naja PR...
aber ich würde ihnen wünschen, dass es stimmt. IBM's Foundry ist nicht um sonst Güteklasse A.

""We seem to have turned the corner on those (design issues). We believe we understand them and we are now making rapid progress on them. But we still are not quite to our target -- to our objective -- but we are getting very close," Kelly said."

Ist das auf NV bezogen?