PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum immer etwas neues erfinden?


Sonyfreak
2005-11-13, 12:19:05
Ich habe mich vor kurzem gewundert, warum manche Hersteller trotzdem die alte Generation scheinbar leistungsfähiger ist immer wieder neue Architekturen auf den Markt bringen. Wäre es nicht eigentlich intelligenter, wenn man die alte Dinge verbessert, statt sie immer wieder neu zu erfinden?

Das erste Beispiel dazu wäre eine Geforce 4Ti. Als diese Grafikkarte auf den Markt kam, hatte keine andere Grafikkarte einer Ti4600 irgendetwas entgegenzusetzten. Dann kam von ATI die Radeon 9700Pro und klarerweise geriet die ältere Generation von den Geforce 4, stark in Bedrängnis. Trotzdem konnte sie eigentlich nicht so extrem stark abgehängt werden.
Jetzt habe ich mich eben gefragt, ob es nicht sinnvoller gewesen wäre, statt dem Nv30 eine stark verbesserte Nv25/28 auf den Markt zu bringen. Denkbar wäre eine Karte mit 8 statt 4 Pipelines und einem doppelt so breiten (256bit) Speicherinterface und DirectX 9 Funktionalitäten. Mit dem neuen Fertigungsmodus hätte man die Grafikkarte auch noch etwas schneller takten können und wäre wahrscheinlich Leistungsmäßig weit vor einem Nv30 gelandet.

Als zweites und vielleicht noch besseres Beispiel fällt mir noch die Einführung des P4 ein. Damals gab es soweit ich weiß schon einen schnell getakteten PIII der den P4 in allen Belangen schlug. Auf AMD Seite gab es einen schnell getakteten Athlon der es auch locker mit dem neuen P4 aufnehmen konnte. Warum hat man also auf Intelseite diesen Schritt hin zur Netburst Architektur gemacht? Wäre es nicht auch hier weit sinnvoller und vor allem günstiger gewesen, einen PIII in kleinerem Fertigungsmodus(daher etwas mehr Taktspielraum nach oben) und DDR-Support auf den Markt zu bringen?

Klarerweise kann man nicht ewig auf der alten Technologie verharren und irgendwann muss etwas neues kommen, da man das alte nicht zu einem Neuen machen kann. Vielleicht hätte man damit aber Zeit und Geld sparen können und die neue Generation eben erst eine Runde später rausbringen können. (Ein Beispiel wäre R300 - R350 - R420)

Mich würde interessieren was ihr darüber denkt!

mfg.

Sonyfreak

BlackBirdSR
2005-11-13, 13:49:02
Ich habe mich vor kurzem gewundert, warum manche Hersteller trotzdem die alte Generation scheinbar leistungsfähiger ist immer wieder neue Architekturen auf den Markt bringen. Wäre es nicht eigentlich intelligenter, wenn man die alte Dinge verbessert, statt sie immer wieder neu zu erfinden?

Das erste Beispiel dazu wäre eine Geforce 4Ti.

Als zweites und vielleicht noch besseres Beispiel fällt mir noch die Einführung des P4 ein.Mich würde interessieren was ihr darüber denkt!

mfg.

Sonyfreak

Zukunftssicherheit... nur darum geht es meistens.
Die GF4 hätte man vielleicht noch aufbohren können. Die Frage ist nur, wie effizient wäre das dann gewesen?
Um aus den DX8 Shadern DX9 Shader zu machen, hätte man die Grundfunktionalität ändern müssen. Wie gut das für den Takt gewesen wäre, kann niemand sagen. Und wie performant auch nicht.
Eine neue explizit auf ein Ziel ausgelegte Architektur hat hier immer Vorteile.
Wie lange hätte es gedauert, bis ATI diese modifizierte GF4+ wieder hinter sich gelassen hätte?
Dann muss ein neues Design her, und man hatte zusätzlich noch die Kosten und Mühen beim Entwickeln der GF4+.
Das lohnt sich manchmal einfach nicht.
Anders wohl bei ATI und ihrer R300/420 Geschichte.

Beim Pentium ist das sogar noch etwas kritischer.
Der PentiumIII war am Ende. Sowohl vom Speichersystem, als auch hinsichtlich erreichbarer Taktraten. Viel mehr als seine 1.5GHz traue ich ihm einfach nicht zu.
Dazu kommt das Fehlen von SSE2, SMT, noExecution, 64Bit.
Der PentiumIII hätte keine Zukunftssicherheit gegeben. Schon nach wenigen Monaten hätte Intel zwingend einen Nachfolger gebraucht um dem K7 entgegenzutreten. Aber das dauert nun mal 3-5 Jahre.
Deshalb hat man mit dem Pentium4 auch schon lange vor dem Ende des P3 begonnen. Ziel war es die kümmerlichen Taktraten des P3 stark zu steigern. Weit über 5GHZ hinaus. Dazu Features wie SMT, einen neuen schnelleren Bus, größere Caches und später 64Bit.

Der PentiumM ist auch keine Lösung. Es ist eine MobileCPU, die selbst jetzt nicht über 3GHz kommt. Damals ging man davon aus, dass man 3GHZ bereits längst hinter sich gelassen hätte. Am Ende ist der PentiumM auch nur eine Sackgasse.
Daher laufen bei Intel schon länger Bestrebungen für einen "8x86" der den P4 und PM beerben soll. Und Ende 2006 wird es wohl auch so weit sein.

Am Ende läuft es immer darauf hinaus, dass man neue Features braucht und mehr Leistung erreichen muss. Und das muss man oft schon auf Jahre hinaus planen. Da kann man sich sich es leider nicht leisten eine Generation noch mit Gewalt weiter zu zwingen. Es sei denn, man hat nichts Anderes vorzuweisen.

MadManniMan
2005-11-13, 19:08:09
Wovon gehst Du denn beim NV30 aus? Viel mehr, als ein ausgebauter NV25 ist er doch tatsächlich nicht :|

Quasar
2005-11-13, 19:14:57
Wovon gehst Du denn beim NV30 aus? Viel mehr, als ein ausgebauter NV25 ist er doch tatsächlich nicht :|
... wobei mich mal interessiert hätte, wie hoch man den NV28 in 0,13µ mit Fön-Kühlung hätte prügeln können. =)
Auf 600 MHz wäre das ein ziemlich böses Teil geworden.

Sonyfreak
2005-11-13, 20:09:48
Nv30 ist doch eine komplette Neuentwicklung und nicht etwa wie von mir überlegt eine verbesserte Nv28? Wenn ich mir die Features (http://www.3d-center.org/artikel/2002/11-19_c.php) so anschaue, scheint sich da auf jeden Fall einiges getan zu haben. Der Nv30 kann ja mehr als die ebenfalls DX9.0 fähige Radeon 9700Pro. Meine Überlegung wäre es jetzt eben gewesen, das Design nur "sanft" zu verändern also wie oben schon aufgeführt und die Features mit der vorher auf den Markt kommenden Radeon Karte abzustimmen. Man hätte 1/2 Jahr Zeit gewonnen und hätte möglicherweise mit einer stark verbesserten Neuentwicklung Nv35 auf den Start gehen können.

mfg.

Sonyfreak

PatkIllA
2005-11-13, 20:26:38
Die meisten Chips basieren doch zu gro0en Teilen auf den Vorgängern. Grade bei CPUs sind die Zyklen doch schon sehr lang. Guck doch mal wie lange es die P2/P3 Architektur gab und auch der 32Bit Athlon hat viele Jahre überdauert und vieles findet man auch noch im Athlon 64 wieder.
Bei Grafikchips gibt es auch oft sogar offiziel sog. Refreshchips, die nichts weiter als eine sanfte Verbesserung des Corgänders ist.
Selbst wenn es eine deutliche Veränderung des featuresets gibt hat wirft man immer noch nicht die Erfahrungen aus der alten Generation über den Haufen.
IMO ist es überhaupt nicht so, wie du es schilderst.

Wenns wirklich so einfach wäre was komplett neues zu entwickeln, warum schafft es dann seit etlichen Jahren kein Konkurrent von ATI und NVIDIA eine leistungsfähige GPU-Genertion zu entwickeln? Im x86 Markt gibt es auch nur in Nischen andere Hersteller.

Quasar
2005-11-13, 20:56:30
Nv30 ist doch eine komplette Neuentwicklung und nicht etwa wie von mir überlegt eine verbesserte Nv28? Wenn ich mir die Features (http://www.3d-center.org/artikel/2002/11-19_c.php) so anschaue, scheint sich da auf jeden Fall einiges getan zu haben. Der Nv30 kann ja mehr als die ebenfalls DX9.0 fähige Radeon 9700Pro. Meine Überlegung wäre es jetzt eben gewesen, das Design nur "sanft" zu verändern also wie oben schon aufgeführt und die Features mit der vorher auf den Markt kommenden Radeon Karte abzustimmen. Man hätte 1/2 Jahr Zeit gewonnen und hätte möglicherweise mit einer stark verbesserten Neuentwicklung Nv35 auf den Start gehen können.

mfg.

Sonyfreak
Nein, der NV30 hat "lediglich" einen FP32-Shadercore in die vorhandenen Einheiten integriert bekommen (natürlich hat dieser Core auch ein paar der vorhandenen Einheiten verdrängt).

Komplett neu entwickelt wird kaum noch etwas - wozu auch sollte man jedes Mal das Rad neu erfinden wollen.

Demirug
2005-11-13, 21:07:01
Nein, der NV30 hat "lediglich" einen FP32-Shadercore in die vorhandenen Einheiten integriert bekommen (natürlich hat dieser Core auch ein paar der vorhandenen Einheiten verdrängt).

Komplett neu entwickelt wird kaum noch etwas - wozu auch sollte man jedes Mal das Rad neu erfinden wollen.

Strengenommen war der FP32 Shadercore auch schon im NV20 enthalten.

Quasar
2005-11-13, 21:11:40
Soweit ich weiß aber doch nur im Vertexshader und im TMU-Teil?

Demirug
2005-11-13, 21:51:15
Soweit ich weiß aber doch nur im Vertexshader und im TMU-Teil?

Nein, der Textureshader (so nennt nVidia das Teil) war schon immer eine FP32 ALU mit zwei TMUs. Angeblich war sogar schon geplannt das man skalare FP32 Texturen auslesen kann.

nVidia hatte je beim NV2X eine 3 Stufen Pipe. Bezüglich der "programmierbaren" Einheiten.

Vertexshader (FP32)->Textureshader (FP32)->Register Combiners (FX9/FX10).

Quasar
2005-11-13, 22:00:19
Also "ja" - Vertex- und Texture-Teil (den ich irrtümlich mit "TMU-Teil" übersetzt habe).

Sonyfreak
2005-11-15, 16:00:31
Das heißt, dass man zusammenfassend sagen kann, dass eine Generation erst abgelöst wird, wenn sie oben ansteht und nicht mehr verbessert werden kann. Vielen Dank nochmal an all eure Antworten!

mfg.

Sonyfreak

MadManniMan
2005-11-16, 17:57:33
Das heißt, dass man zusammenfassend sagen kann, dass eine Generation erst abgelöst wird, wenn sie oben ansteht und nicht mehr verbessert werden kann. Vielen Dank nochmal an all eure Antworten!

mfg.

Sonyfreak

...Vorsicht! Auch im NV40 steckt noch viel NV38 drin. Komplett wird nie alles über den Haufen geworfen.