Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wofür ist eigendlich der 2. Chip auf den G80 PCBs?


Gast
2007-12-20, 13:35:13
Nun hat man seit Jahren mal wieder eine Nvidia (G92) und schaut sich interessehalber auch mal die älteren Reviews der 8800GTS/X an und wundert wofür dieser ominöse zweite Chip auf den älteren Karten gut ist....
Ich habe hier mehere möglichkeiten gefunde was es sein könnte

-Ein Chip mit einem HDCP Key-ROM (laut Computerbase 8800U Review)
-Ein Phys-X Chip
-Ein SLI-Physic Chip

Also die Frage an die Experten... Wofür ist dat Teil den nun? :)

Razor
2007-12-20, 13:41:46
Stimmt alles nicht...
Genau genommen ists nur eine weitere "Krücke" des alpha G80-Designs.
:rolleyes:

Razor

Gast
2007-12-20, 13:46:24
Bist du der Rätselmann? *g* Oder warum beendest du deine Ausführungen über das G80 Design nicht? Lass mich nicht dumm sterben... Also wofür ist er denn nun?

Razor
2007-12-20, 13:52:14
Selbst ist der Mann:
http://www.google.de/search?q=G80+NVIO
;)

Razor

P.S.: ich lehe es ab, noch irgendetwas zu diesem G80-Murks-Design zu sagen...

Gast
2007-12-20, 14:00:22
Danke... Mehr brauchst du auch nicht zu sagen.... ;-)

Gast
2007-12-20, 15:22:36
Selbst ist der Mann:
http://www.google.de/search?q=G80+NVIO
;)

Razor

P.S.: ich lehe es ab, noch irgendetwas zu diesem G80-Murks-Design zu sagen...
Nagut, dieser Murks war aber zu dem Zeitpunkt wohl das Beste was man produzieren konnte. Pure Power für damalige Zeit, die man meistens nutzbar machen konnte, trotz anfänglicher Treiberprobleme. Er war die Rettung für Hardwaresüchtige gewesen, während Amd zu der Zeit kläglich versagt hatte.
Da gab ihnen nV mit dem G80 genau die Spritze, die sie so dringend gebraucht hatten, nicht mehr und nicht weniger, schließlich ist nV nicht die Wohlfahrt.
Jetzt werden doch schon auch wieder Stimmen von den "Junkies" laut, die einen extrem potenten Nachfolger ohne Rücksicht auf Verluste fordern. Preis egal, Leistungsaufnahme egal, Hauptsache gute IQ und zugleich perverser Speed, alles andere ist Nebensache.

Razor
2007-12-20, 16:43:09
Diese "Diskussion" wurde hier schon sooooooo oft geführt.

Für mich bleibt das Fazit, dass man damals ein Alpha-Produkt, wie es normalerweise nur Entwicklern zur Verfügung gestellt wird, an den End-Konsumenten gebracht hatte. Die damaligen Preise werden wohl durch den erhöhten Produktionsaufwand gerechtfertigt sein... komplexes PCB, aufwändige Kühlung und "Workarounds" für Hard- und Software (Beipiele: NVIO und Video-Beschleunigung über die Shader und nicht über einen dedizierten Video-Prozessor).

Mit den nachfolgend erscheinenden "Mainstream"-Produkten (8400/8600) brachte man eher mittelmäßige Produkte, die aber zumindest hinsichtlich ihrer Funktionalität vollständig waren (und wesentlich günstiger in der Produktion... und es klaffte eine monströse Lücke zwischen quasi LowEnd/LowerMainstream und LowerHighEnd/HighEnd... preislich, wie leistungsseitig.

'Mein' Segment blieb quasi komplett unbelegt... ca. 300€ und akzeptable Leistungssteigerung ggü. dem Vorgänger (bei mir 7900GT). So aber hat meine "alte Kleine" gute 2 Jahre gehalten und wurde jetzt durch die 8800GT abgelöst... die dann allerdings bei nur 210€ lag... auch kein schlechtes Geschäft.

Im Prinzip hat man das gemacht, was seinerzeit ATI mit dem R300 tat... man hat den Markt performance-seitig quasi 'überfahren' und zudem eine zukünftige API unterstützt. Nur dass der R300 damals Hardware-seitig sehr viel 'runder' war, dafür aber die neue API auf sich warten ließ... OK, erste Anwendungen haben auch mit dem G80 und D3D10 ganz schön auf sich warten lassen.

Letztlich haben sie (also nVidia) sich dadurch einen ganz erheblichen Marktvorteil verschafft, von dem AMD sich noch immer nicht wirklich erholt hat... eine Wiederholung der Vergangenheit, nur diesmal mit umgedrehten Vorzeichen... na ja, nicht ganz... denn damals schluckte ATI ArtX und heute wurde ATI von AMD geschluckt...

...aber das führt hier 'vielleicht' zu weit!
:D

Zumindest denke ich, dass Deine eigentliche Frage nun beantwortet ist, gell?

Razor

Coda
2007-12-20, 16:50:37
Lass Razor labern.

Zum Thema: DVI-Transmitter, SLI-Bridge und RAMDAC. Mehr ist das Ding nicht.

Razor
2007-12-20, 16:54:41
Ist doch längst geklärt...
Des Zeug ist normalerweise onDie... wie auch beim G80, nur ist es dort 'defekt'.
Vorger (G7x) und auch nachher (G84/86 und G9x) war/ist alles iO...

Razor

Gast
2007-12-20, 17:23:50
Hattest du nicht versprochen, dich nicht mehr zu dem Thema zu äussern? Dann tu das auch, damit wäre hier allen geholfen.

Razor
2007-12-20, 17:35:49
Hattest du nicht versprochen...
Kurz und knapp: Nö!
:D

Und 'helfen' kann sich jeder selbst, indem er meine Kommentare ignoriert.

Razor

Gast
2007-12-20, 18:06:43
Also da man hier als GAST ja etwas schlecht auseinander zu halten ist. Ich als Threadstarter distanzieren mich von allen (Gast-)Posts ab #5... Nur der Ordnung halber....:)

James Ryan
2007-12-20, 18:56:45
Des Zeug ist normalerweise onDie... wie auch beim G80, nur ist es dort 'defekt'.


Nö, da war nix defekt, nur war das G80 DIE schon so riesig, dass man halt den NVIO-Teil auslagern musste.

MfG :cool:

Coda
2007-12-20, 19:13:51
Es ging um Interferenzen. Ein stabiles DVI- und VGA-Signal ist halt auch ein Qualitätsmerkmal. Und nein sowas flanscht man nicht einfach an einen "defekten" Chip an, weil man dafür ein extra Interface zum Speicher braucht, zudem wäre ein Respin von G80 bei einem Defekt auf jeden Fall billiger gekommen als ein komplettes Tapout für NVIO (und zudem schneller gegangen). Die "Defekt"-Theorie ist also aus mehreren Gründen ziemliche Grütze. Aber ist man ja von einem bestimmten Herren schon gewohnt.

NVIO ist wohl auch ein SLI-Switch. So muss man aus G80 nur einmal SLi rausführen kann aber trotzdem Triple-SLI ermöglichen. Das Ding werden wir deshalb wohl auch beim kommenden Single-Chip-High-End wieder sehen. Das ist dann natürlich auch wieder "defekt" :rolleyes:

StefanV
2007-12-20, 19:28:17
Es ging um Interferenzen. Ein stabiles DVI- und VGA-Signal ist halt auch ein Qualitätsmerkmal. Und nein sowas flanscht man nicht einfach an einen "defekten" Chip an, weil man dafür ein extra Interface zum Speicher braucht, zudem wäre ein Respin von G80 bei einem Defekt auf jeden Fall billiger gekommen als ein komplettes Tapout für NVIO (und zudem schneller gegangen). Die "Defekt"-Theorie ist also aus mehreren Grünen ziemliche Grütze. Aber ist man ja von einem bestimmten Herren schon gewohnt.

NVIO ist wohl auch ein SLI-Switch. So muss man aus G80 nur einmal SLi rausführen kann aber trotzdem Triple-SLI ermöglichen. Das Ding werden wir deshalb wohl auch beim kommenden Single-Chip-High-End wieder sehen. Das ist dann natürlich auch wieder "defekt" :rolleyes:
Dem kann ich nur zustimmen!

Und möchte hinzufügen, das 'bisherige' High End Karten immer recht deutliche 'Probleme' mit der 2D Signalqualität haben...

Beomaster
2007-12-20, 20:30:19
Mit den nachfolgend erscheinenden "Mainstream"-Produkten (8400/8600) brachte man eher mittelmäßige Produkte, die aber zumindest hinsichtlich ihrer Funktionalität vollständig waren (und wesentlich günstiger in der Produktion... und es klaffte eine monströse Lücke zwischen quasi LowEnd/LowerMainstream und LowerHighEnd/HighEnd... preislich, wie leistungsseitig.

'Mein' Segment blieb quasi komplett unbelegt... ca. 300€ und akzeptable Leistungssteigerung ggü. dem Vorgänger (bei mir 7900GT). So aber hat meine "alte Kleine" gute 2 Jahre gehalten und wurde jetzt durch die 8800GT abgelöst... die dann allerdings bei nur 210€ lag... auch kein schlechtes Geschäft.

Razor

zumindest in dem Punkt muß ich Razor zustimmen, mir ging es genauso, eine 8800GTS war mir zu fett vom Stromverbrauch, und von der Performance einer 8600GTS war ich schlichtweg enttäuscht
nächster Termin zum aufrüsten: Januer 2008
mal sehn wer das Rennen macht

syronth
2007-12-20, 20:59:33
Und möchte hinzufügen, das 'bisherige' High End Karten immer recht deutliche 'Probleme' mit der 2D Signalqualität haben...

Die sich aber dank DVI aber doch wieder relativieren?

StefanV
2007-12-20, 21:07:18
Die sich aber dank DVI aber doch wieder relativieren?
Nein, denn wenns DVI Signal zu schlecht ist, hast Probleme mit der Darstellung, besonders 'dank' HDCP...

Gast
2007-12-21, 00:28:55
Stimmt alles nicht...
Genau genommen ists nur eine weitere "Krücke" des alpha G80-Designs.
:rolleyes:

Razor

Haha...
Du hast doch überhaupt kein plan davon.....
Bist Chip Designer bei NV oder was?

OK Mr. Pre-Alpha.....
Verrate uns doch bitte warum das SI bei deiner "neuen kleinen"
so arg verkrüppelt wurde.......

Razor
2007-12-21, 13:48:22
Die "Defekt"-Theorie ist also aus mehreren Gründen ziemliche Grütze.
Wenn Du meinst...
:rolleyes:

Das ist dann natürlich auch wieder "defekt" :rolleyes:
Spekulation...
Viel wahrscheinlicher ist es, dass sich der SLI-Switch da befinden wird, wo er hingehört: onDie.

Aber wir werden sehen... nur von Dir wird dann - wieder mal - keine Richtigstellung erfolgen.
Ich erwarte es eigentlich auch nicht von jemanden, wie Dir...

Verrate uns doch bitte warum das SI bei deiner "neuen kleinen" so arg verkrüppelt wurde.......
Designentscheidung... günstigeres PCB... und ist zudem absolut ausreichend.
"Verkrüppelt" ist da nüscht - warum auch?

Razor

Gast(Threadstarter)
2007-12-21, 15:03:27
Haha...
Du hast doch überhaupt kein plan davon.....
Bist Chip Designer bei NV oder was?

OK Mr. Pre-Alpha.....
Verrate uns doch bitte warum das SI bei deiner "neuen kleinen"
so arg verkrüppelt wurde.......

Hast du ein paar Beispiele (außer in Extremsituationen) wo sich das SI des G92 wirklich so extrem negativ auswirkt? Bitte in gängigen Auflösungen bis 1680x1050. Denn in dem Preissegment in der sich die beiden G92 Karten(GT/GTS) bewegen gibt es wohl nicht so viele User die ne größere Bildschirmdiagonalen als 22" Monitor benutzen.