PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Zukunft der Grafikchips - ATI macht's vor?


2004-04-12, 19:48:33
Hi!

Ohne jetzt mal auf die Diskussion R42x vs. NV4x sowie auf die scheinbare Verwirrung aus den News vom 9.4. einzugehen: Werden in Zukunft alle Grafikchips wie der R42x sein? Dies soll heißen man designt eine Version und man speckt eben die einzelnen Chips, die ins Mainstream und Low End Segment kommen, entsprechend ab. Wie eh schon in den News von 10./11.4. erwähnt, scheint dies ja bei vielen anderen Sparten der PC-Industrie gang und gebe zu sein und kommt auch sicher billiger.
Nur irgendwie denke ich an die Zeiten zurück wo GeForce 1 & Co. die Performancekrone sich teilten. Hm, da gab's zuerst SDR und später DDR Boards aber eigene Entwicklungen für die "unteren" Segmente gab es nicht. Diese wurden einfach mit den Chips der vorigen Generation bedient.
Wieso macht man das heute nicht mehr so (wäre dies nicht einfacher als Chips zu selektieren und - wie es scheinbar bei ATI's R42x Serie sein wird - "Softmod-sicher" zu sperren)?
Oder ist ATI's Weg auch nur eine "Verirrung" aufgrund der aktuellen Marktlage?
Wird nVidia dementsprechend handeln oder gibt da extra-Chips?`

MfG

Emissary1978
2004-04-12, 19:57:20
Aber abgespeckte Versionen gabs doch auch schon früher, wie z.B die GeForce 2 MX.

2004-04-12, 20:11:43
Hi!

Ich habe mich leider etwas flasch ausgedrückt. Meinte das es eigentlich in der Zeit bis zu GF1 es so war. Dann kam der NV15 (= GF2) und der NV10 (GF1) wurde zum NV11 (GF2MX) umgekrämpelt. Hoffe das hab ich jetzt richtig wiedergegeben - wenn nicht bitte um Korrektur.

Aber vorher ist mir nichts bekannt. Der TNT 2 M64 -denke ich- war auch ein bissi kastriert, keine Ahnung aber wie. Nur was ich weiß hat man sich immer aus der Vorgeneration für Mainstream und Low-End Segment bedient. Ich kaufte damals meine GF1 DDR um viel Geld, ein Kumpel wollte bissi weniger ausgeben und holte sich eine Riva TNT 2. Ein Jahr später verhielt es sich dann ein wenig anders: Die GF2 war das obere Ende - die unteren bedienten GF 1 und GF2MX. Tja, ab dann gab es eigene Chips für die jeweiligen Bereiche (GF2Ti/GF3 Ti - GF4 Ti/GF4 MX - usw. bei ATI ja ähnlich).

MfG

LovesuckZ
2004-04-12, 20:25:52
Das was ATi macht, ist eine bessere Ausbeute von "funktionierenden" Chips. Einige "Geruechte" besagen, dass ATi, nicht wie Nvidia, für jeden funktionstauglichen Chip sondern für, aeh, die yields (?) bezahlen. Dadurch kann es passieren, dass man Geld ausgibt, aber nichts bekommt.
Das Problem dabei ist, dass es zur Möglichkeit kommen kann, dass die Karten mit deaktivierten Bereichen modifiziert werden koennen. Was wiederum zum Nachfragerueckgang der besseren und rentableren Modelle führt.

Sphinx
2004-04-12, 21:06:16
Und wenn die Ausbeute an guten Chips besser werden und die Nachfrage an Mainstream,Low-Mainstream Chips ansteigt mit der Zeit.

Hast du das Glück als Verbraucher für wenig Geld nen Highend Chip als Mainstream,Low-Mainstream Grafikkarte gekauft zu haben. Siehe R9800Pro <-> XT Versionen.

reunion
2004-04-12, 21:32:23
Original geschrieben von LovesuckZ
Das was ATi macht, ist eine bessere Ausbeute von "funktionierenden" Chips. Einige "Geruechte" besagen, dass ATi, nicht wie Nvidia, für jeden funktionstauglichen Chip sondern für, aeh, die yields (?) bezahlen. Dadurch kann es passieren, dass man Geld ausgibt, aber nichts bekommt.

War das mit den nur für funktionsfähige Chips bezahlen nicht nur beim NV30?


Das Problem dabei ist, dass es zur Möglichkeit kommen kann, dass die Karten mit deaktivierten Bereichen modifiziert werden koennen. Was wiederum zum Nachfragerueckgang der besseren und rentableren Modelle führt.

Als Problem würde ich das nicht sehn, würde ATI diese modifizierung nicht wollen könnte man das ganz leicht verhindern...

2004-04-12, 21:54:55
@ reunion:

"War das mit den nur für funktionsfähige Chips bezahlen nicht nur beim NV30?"

Ja, hab das auch so im Gedächtnis. Die hatten einen Deal mit einer Schmiede (IBM??) und wegen dem damals neuen, unausgereiften 0,13µ Fertigungsprozess zahlte nV nur für funktionierende Chips...

So hab ich das jedenfalls in Erinnerung... denke das wurde sogar mal hier in den News erwähnt (ist aber schon wirklich lange her und da waren viele Wochenenden :sex: und Festln :bier: dazwischen muss also nicht so ganz stimmen :eyes: ).

MfG

Piffan
2004-04-12, 23:15:54
Ich glaube kaum, dass Ati nun nur noch diese Transistorgräber herstellt und die "kleinen" Karten nur noch durch Deaktivierung von Chipbereichen bedient. Ist sicher auch zu teuer....

Als Möglichkeit, die Ausbeute zu erhöhen, ja, um aber alle Klassen abzudecken, wohl kaum.....

Gast
2004-04-13, 00:02:36
Original geschrieben von Piffan
Ich glaube kaum, dass Ati nun nur noch diese Transistorgräber herstellt und die "kleinen" Karten nur noch durch Deaktivierung von Chipbereichen bedient. Ist sicher auch zu teuer....

Als Möglichkeit, die Ausbeute zu erhöhen, ja, um aber alle Klassen abzudecken, wohl kaum.....

ich würds eher als Übergangslösung sehen, bis echte Mainstream Produkte verfügbar sind.
Sowie das der Fall ist dürften die meissten Produkte mit deaktivierten Chipteilen von der Bildfläche verschwinden.

Das Modell macht eigentlich nur bei FAB Ownern wie Intel und AMD Sinn, die sowieso riesige Fixkosten für den FAB Betrieb haben. ATI und Nvidia dürften eher daran interessiert sein kleinere Dies zu verkaufen statt große mit deaktivierten Teilen.

Demirug
2004-04-13, 00:30:46
Der Vollständigkeit halber sollte erwähnt werden das nicht ATI als erster auf die Idee gekommen ist.

Der P10 von 3dlabs ist auch nach diesem Prinzip aufgebaut und zwar noch wesentlich besser als es ATI bisher gemacht hat.

Ausser ganz wenigen Steuerschaltungen ist dort defakto alles mindestens 2 mal vorhanden. Solange von jeder Einheit mindestens ein Block funktioniert kann der Chip genutzt werden. Die Wahrscheinlichkeit eines Totalverlusts durch Fehlstellen im Wafer geht also gegen 0.

Letzten Endes lohnt sich sowas aber nur dann wirklich wenn man nicht die Mittel hat unterschiedliche Designs für eine Generation zu erstellen.

MadMan2k
2004-04-13, 00:34:12
Original geschrieben von M²
Hi!

Ich habe mich leider etwas flasch ausgedrückt. Meinte das es eigentlich in der Zeit bis zu GF1 es so war. Dann kam der NV15 (= GF2) und der NV10 (GF1) wurde zum NV11 (GF2MX) umgekrämpelt. Hoffe das hab ich jetzt richtig wiedergegeben - wenn nicht bitte um Korrektur.

der NV11 ist die Low-Cost ausführung des NV15, bei der 2piplines herausgeschmissen wurden. (2x2)
Der NV10 hatte 4 Piplines, jedoch mit nur einer TMU. (4x1)

Im übrigen ist es seit der TNT2 gang und gäbe, schlechtere Chips im unterem Marktsegment abzusetzen. (TNT2 M64)
Seit der GF2 gibt es dann auch extra Chips für den Mainstream,
da die Chips immer größer und komplexer und die Produktionszyklen immer länger wurden.
Letztendlich werden wir eine Situation, wie bei den Prozessoren haben, wo nur alle 4-5 Jahre eine neue Architektur erscheint, bzw. die alte einen entsprechend große Erneuerung erfährt.

Da mit der Größe eines Cores auch die Wahrscheinlichkeit auf einen Fehler im selbigen gestiegen ist, sind wir nun in der Situation, dass deren Anteil an der Produktion zu hoch ist um sie einfach wegzuschmeissen, sodass sie als ergänzug zu den Mainstream Chips verkauft werden.

Lokadamus
2004-04-13, 02:22:44
mmm...

Ich denke, das wichtigste ist erstmal Marketing, wer möchte schon einen Komplett- PC mit einer Grafikkarte der vorrangegangenen Generation haben ? Dadurch ensteht schonmal der Zwang, eine teure und eine billige Variante herzustellen => entweder stellt man diese direkt oder indirekt her, wird wohl eine Mischform je nach Fehlerquote bei der "teuren" Herstellung sein (siehe 9800 SE) ...

StefanV
2004-04-13, 03:51:07
Original geschrieben von MadMan2k
der NV11 ist die Low-Cost ausführung des NV15, bei der 2piplines deaktiviert wurden. (2x2)
Der NV10 hatte 4 Piplines, jedoch mit nur einer TMU. (4x1)

Öhm, die GF2 MX war ein eigentsändiges Design, was etwas mehr als die GF2 konnte...

MadMan2k
2004-04-13, 03:53:10
Original geschrieben von Stefan Payne
Öhm, die GF2 MX war ein eigentsändiges Design, was etwas mehr als die GF2 konnte...
ich weiß, hab mich falsch ausgedrückt (edit)
aber dass sie Optimierungen erfahren hat, wusste ich nicht, link?

StefanV
2004-04-13, 03:57:41
Original geschrieben von MadMan2k
aber dass sie Optimierungen erfahren hat, wusste ich nicht, link?

Der 2. Display Controller und Digital Vibrance wurden mit der GF2 MX eingeführt, erteren gabs leider nicht bei der GF3 :(

2004-04-13, 06:54:05
@ MadMan2k & Stefan Payne:

Wird meiner geistigen Datenbank hinzugefügt :)
Hab immer geglaubt NV11 hat mehr mit NV10 zu tun als mit NV15... Hmm, kann jetzt aber sein das ich da was durcheinander brachte mit der Verwandschaft von NV17, NV15 und NV11.
Auf jeden Fall danke für die Hinweise!

@ Demirug:

Also kann bei 3dlabs de facto jeder Chip verwendet werden, es muss eben nur das richtige Marktsegment vorhanden sein -bzw. sind die doppelt vorhandenen Schaltungen schon von vorne eingeplant um den von dir genannten "Fast-Null-Verlust" Effekt zu erreichen?

MfG

Otoschi
2004-04-13, 11:44:49
hi,

auf Dark-Tweaker.com (www.dark-tweaker.com) gibts n tabelle über die neustne grafik chips usw!

MFG