PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Hybrid-SLI vorgestellt


AnarchX
2008-01-07, 16:29:20
http://img170.imageshack.us/img170/8955/geforceheaderde1f1c0abdmh2.jpg (http://imageshack.us)

http://www.nvidia.de/page/hybrid_sli.html

PCGH, wer sich in Deutsch informieren will, zudem Folien in sehr guter Qualität:
http://www.pcgameshardware.de/?article_id=627057

Entsprechende Nvidia-Folien gibt es bei PCWatch:
http://pc.watch.impress.co.jp/docs/2008/0108/ces03.htm?ref=rss

Anandtech hat auch eine Artikel mit Bildern aus den Folien:
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3193

LovesuckZ
2008-01-07, 16:34:04
Nett, sehr nett. Wenn jetzt nur die AMD CPUs besser wären.

Godmode
2008-01-07, 16:41:25
Schon längst überfällig! Warum sind die starken Modelle nicht kompatibel zu Hybrid-SLI?

LovesuckZ
2008-01-07, 16:44:58
Schon längst überfällig! Warum sind die starken Modelle nicht kompatibel zu Hybrid-SLI?

Keine zur Zeit erhältliche Karte ist kompartibel zu Hybrid-Power...

AnarchX
2008-01-07, 16:48:47
Wenn das mal nicht das Feature ist, was die GeForce9-Serie nun ausmacht.:D

Eigentlich sollte es ja mal mit GF8 bzw. G80 zusammenarbeiten:
http://img249.imageshack.us/img249/8035/hybridslipower2c2b5bze2.jpg

Simon
2008-01-07, 17:08:20
All of this technology is Vista only right now
On a supported platform (capable GPU + capable motherboard, Windows only for now)
Schade, Vista nur bzw. nur Windows ;(

mapel110
2008-01-07, 17:19:45
Schade, Vista nur bzw. nur Windows ;(
Was willst du damit auch unter Linux oder MacOS?!

Coda
2008-01-07, 17:44:42
Strom sparen? Gerade unter Linux braucht man die GPU fast nie.

Simon
2008-01-07, 17:51:02
Was willst du damit auch unter Linux oder MacOS?!
Ich mach unter Linux den Großteil meiner Arbeiten, wozu ich meine 8800GTS nicht bräuchte. Die brauch ich nur zum Zocken unter Windows. Da wäre es doch fein, wenn HybridPower auch unter Linux bzw. OS X funktioniert =)

Windows XP wäre übrigens auch fein, in dem Anandtech-Artikel ist ja die Rede, dass am Anfang (?) nur Vista mit SP1 unterstützt wird.

mapel110
2008-01-07, 18:01:59
Strom sparen? Gerade unter Linux braucht man die GPU fast nie.
Eben drum. Warum dann ne fette GPU unter Linux überhaupt nutzen?!

Neosix
2008-01-07, 18:09:08
wie kein xp? die spinnen doch oO
aber gut das bestärkt mich nur in meinerm plan einen rechner nur für arbeiten zu haben, einen fürs zocken. platzmäßig unpraktisch aber was anderes bleibt einem nicht übrig.

HOT
2008-01-07, 18:16:46
Na ja, so langsam kann man mit SP1 dann auch auf XP komplett verzichten oder es nur noch als Kombibilitätshilfe mitinstalliert lassen. Oder man macht sich ein virtuelles Win89SE, wenn man sowas braucht. Irgendwie neigt sich das XP Zeitalter dem Ende zu, langsam aber sicher.

Simon
2008-01-07, 18:34:17
Eben drum. Warum dann ne fette GPU unter Linux überhaupt nutzen?!
1) fast nie - Für einige Anwendungen brauch ich doch eine richtige GPU und keine integrierte.
2) Hab ich keinen Platz und keine Lust für zwei Rechner. Einen zum Zocken, und einem zum Arbeiten :|

Na ja, so langsam kann man mit SP1 dann auch auf XP komplett verzichten oder es nur noch als Kombibilitätshilfe mitinstalliert lassen. Oder man macht sich ein virtuelles Win89SE, wenn man sowas braucht. Irgendwie neigt sich das XP Zeitalter dem Ende zu, langsam aber sicher.
Äh, nein (http://www.3dcenter.de/artikel/2007/12-31_d.php)

Die_Allianz
2008-01-07, 18:42:46
oh...
je mehr details ans tageslicht kommen, umso mehr deklariert nV das von Anfang an zum Flop!

- Keine Intel-Boards!
- Nur Vista!
- keine unterstützen Karten!

ich hätte ja gerne hSLI, aber wie?

dargo
2008-01-07, 18:45:03
Ich mach unter Linux den Großteil meiner Arbeiten, wozu ich meine 8800GTS nicht bräuchte. Die brauch ich nur zum Zocken unter Windows. Da wäre es doch fein, wenn HybridPower auch unter Linux bzw. OS X funktioniert =)

Öhm, wenn du von Windows auf Linux wechseln willst musst du doch eh neu booten. Dann kann man doch gleich im Bios den Onboard VGA Chip als Ausgabegerät aktivieren. Ich weiß allerdings nicht ob die Stromversorgung der Graka im PCIe Slot dann komplett deaktiviert wird.

Gast
2008-01-07, 18:54:47
Na ja, so langsam kann man mit SP1 dann auch auf XP komplett verzichten oder es nur noch als Kombibilitätshilfe mitinstalliert lassen. Oder man macht sich ein virtuelles Win89SE, wenn man sowas braucht. Irgendwie neigt sich das XP Zeitalter dem Ende zu, langsam aber sicher.
Für ein teures Vista mit all seinen Problemen lasse ich XP nicht sausen!


Öhm, wenn du von Windows auf Linux wechseln willst musst du doch eh neu booten. Dann kann man doch gleich im Bios den Onboard VGA Chip als Ausgabegerät aktivieren.
Du willst doch nicht ernsthaft weismachen, das er bei jedem Boot ins Bios soll? :eek:

Gast
2008-01-07, 18:57:36
Toll das Nv jetzt mit Dingen wirbt, die eigentlich selbstverständlich sind für eine Single GPU.

Loben wir alle mal nv, der abartige Idle Verbrauch aller Gf8 ist also kein Thema mehr, dank Hybrid SLi, auch wenn es erst bei den Nachfolge GPUs funtzt. :mad:

Simon
2008-01-07, 19:16:45
Öhm, wenn du von Windows auf Linux wechseln willst musst du doch eh neu booten. Dann kann man doch gleich im Bios den Onboard VGA Chip als Ausgabegerät aktivieren. Ich weiß allerdings nicht ob die Stromversorgung der Graka im PCIe Slot dann komplett deaktiviert wird.
Das würde ich mir sogar fast gefallen lassen (da ich eh für mehrere Stunden am Stück das System nutze), allerdings funktioniert das nicht. Sobald eine PCIe-Grafikkarte im System ist, wird die als primäre Karte für die Ausgabe genutzt. Weiterhin benötigt die PCIe-Grafikkarte natürlich weiterhin Strom, womit dann der Nutzen des ganzen dann nicht mehr vorhanden ist ;) Gilt soweit für alle bisherigen Chipsätze. Ob sich das mit den neuen Nvidia-Chipsätzen ändert...wer weiß. Allerdings bedarf es dafür Treiberunterstützung seitens Grafikkarte und Mainboard.

dargo
2008-01-07, 19:18:23
Du willst doch nicht ernsthaft weismachen, das er bei jedem Boot ins Bios soll? :eek:
Naja, ich weiß ja nicht wie oft er mit verschiedenen Systemen hantiert. Wenns nicht ständig ist hätte ich schon die 10 Sekunden um im Bios das Ausgabegerät zu wählen. ;)

Das würde ich mir sogar fast gefallen lassen (da ich eh für mehrere Stunden am Stück das System nutze), allerdings funktioniert das nicht. Sobald eine PCIe-Grafikkarte im System ist, wird die als primäre Karte für die Ausgabe genutzt. Weiterhin benötigt die PCIe-Grafikkarte natürlich weiterhin Strom, womit dann der Nutzen des ganzen dann nicht mehr vorhanden ist ;) Gilt soweit für alle bisherigen Chipsätze.
Ja ok, in diesem Fall hat es ja keinen Sinn wenn das Mobo keine Option besitzt ein bestimmtes Ausgabegerät zu wählen und zusätzlich nicht ermöglicht die Stromversorgung vom PCIe Slot zu unterbrechen. Ich hatte solche Kombination noch nicht in Betrieb.

=Floi=
2008-01-07, 19:54:09
dann gibt es auch bei der gf9 keinen stromsparmodus mehr :(

Botcruscher
2008-01-07, 20:08:53
Ganz toll...

Echtes cripple-SLI für ein loser BS...

PS: Na mal sehn was da noch draus wird.

reunion
2008-01-07, 20:26:45
http://img170.imageshack.us/img170/8955/geforceheaderde1f1c0abdmh2.jpg (http://imageshack.us)

http://www.nvidia.de/page/hybrid_sli.html

PCGH, wer sich in Deutsch informieren will, zudem Folien in sehr guter Qualität:
http://www.pcgameshardware.de/?article_id=627057

Entsprechende Nvidia-Folien gibt es bei PCWatch:
http://pc.watch.impress.co.jp/docs/2008/0108/ces03.htm?ref=rss

Anandtech hat auch eine Artikel mit Bildern aus den Folien:
http://www.anandtech.com/tradeshows/showdoc.aspx?i=3193

Gibt es da jetzt auch Hardware, oder ist das wirklich nur ein reiner Paperlaunch?

AnarchX
2008-01-07, 20:31:25
Die Chipsätze/Boards kommen AFAIK erst nächsten Monat, da wollte man wohl mit einem Paperlauch AMD zuvorkommen, die 780G wohl noch im Januar liefern können.

Undertaker
2008-01-07, 21:17:01
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/januar/nvidias_hybrid-sli_strom/

also ich find ja das liest sich sehr gut :up: so groß sind die nachteile nicht, z.b. high-end nutzer (wo die stromersparnis erst sinn macht) brauchen vista eh für dx10 und >=4gb ramausnutzung

Omnicron
2008-01-07, 21:25:25
Naja, ich weiß ja nicht wie oft er mit verschiedenen Systemen hantiert. Wenns nicht ständig ist hätte ich schon die 10 Sekunden um im Bios das Ausgabegerät zu wählen. ;)


Und jedesmal hinter den PC Krabbeln und den Monitor umstecken.
Da könnte man auch gleich die Karte jedes Mal ganz ausbauen, das geht dann auch für Linux. Ob Nvidia das als nächstes patentiert :wink:
Jetzt ohne Spass, hätte mir von Hybrid SLI mehr erhofft, mir wäre ein 2D Modus bei Geforce9 Karten lieber.

Gast
2008-01-07, 21:38:59
dann gibt es auch bei der gf9 keinen stromsparmodus mehr :(
Und AMD muss dann auch nicht viel tun um den Verbrauch zu senken. :(


Die Chipsätze/Boards kommen AFAIK erst nächsten Monat, da wollte man wohl mit einem Paperlauch AMD zuvorkommen, die 780G wohl noch im Januar liefern können.
Wie sich das liest. ;D
Nächstens gibts Paperlaunches und das Produkt ist 2 Jahre später im Handel.

Hey Intel könnte doch schon mal den Nehalem releasen. ;D


brauchen vista eh für dx10 und >=4gb ramausnutzung
Was haben 64bit mit Vista zu tun?


z.b. high-end nutzer (wo die stromersparnis erst sinn macht)
Selbst die kleineren Karten verbrauchen mehr als zu Gf7 Zeiten, für mich also ein Rückschritt.

Undertaker
2008-01-08, 09:21:46
Was haben 64bit mit Vista zu tun?


xp64 haben die allerwenigsten, und als umsteiger von xp32 wird man als zocker eh vista nehmen (wegen dx10)

myopF
2008-01-08, 14:29:45
also wenn demnächst meine neue hardware kommt werde ich xp 64 nehmen, allerdings behalte ich auch meine dx9 gpu ;)
aber auch bei dx10 karten muss nicht jeder direkt vista nehmen, da viele eine abneigung gegen das bs haben, keine lizenz kaufen wollen, den "mehrwert" von dx10 nicht sehen usw.

wenn xp64 allerdings gescheit luppt wird mein xp32 gekilled und auf der parti ein vista 64 zum testen/basteln installiert, so ein msdnaa account is schon ne feine sache bei sowas :)

dargo
2008-01-08, 15:34:57
Und jedesmal hinter den PC Krabbeln und den Monitor umstecken.

Ich weiß ja nicht was du für einen Monitor hast. Bei mir reicht ein Knopfdruck am TFT. ;)

AnarchX
2008-01-09, 08:12:32
Hybrid SLI to promote motherboard/graphics card bundling in new Nvidia Additive Brand strategy (http://www.digitimes.com/mobos/a20080108PD215.html)

Under the Additive Brand strategy OEM makers who bundle an Nvidia motherboard with one of the company's graphics cards using GeForce Boost technology, will be allowed to state the graphics card specification of the system based on the potential performance of the combined IGP and discrete card. So, for example, an nForce 780a motherboard bundled with a GeForce 8500GT graphics card may be marketed as a GeForce 8600 system, or a GeForce 8400GS as a GeForce 8500, noted the sources.

Wenn das mal kein Dummenfang ist...

=Floi=
2008-01-09, 08:34:16
die haben mit H-S doch sowieso einen an der waffel. ich meine wer kein solches mobo hat, der verbrät mit einer high end karte im idle strom ohne ende. Das ganze ist einfach der falsche weg mit der mobo kombi, da deren anteil einfach viel zu gering ist.

blackbox
2008-01-09, 10:38:53
Hybrid SLI to promote motherboard/graphics card bundling in new Nvidia Additive Brand strategy (http://www.digitimes.com/mobos/a20080108PD215.html)



Wenn das mal kein Dummenfang ist...

Genau so ist es. Ich hoffe, ihr habt das alles richtig gelesen.

Denn es ist immer noch ein SLI. Das bedeutet, dass die diskrete Grafikkarte leistungsmäßig auf Höhe der integrierten sein muss. Da ist also nix mit "Ich setz jetzt eine Mittelklasse- oder Highendkarte rein" und spare Strom.

Das Ganze ist total sinnlos.

Warum ist es so schwer, es so umzusetzen, dass bei 3D die integrierte Karte abgeschaltet wird? Warum muss es SLI sein?

AnarchX
2008-01-09, 10:41:53
Warum ist es so schwer, es so umzusetzen, dass bei 3D die integrierte Karte abgeschaltet wird? Warum muss es SLI sein?

Natürlich kann man "GeForce Boost" abschalten, nur brauch man dann kein H-SLI-Board mehr, da "Hybrid-Power" noch von keiner erhätlichen Karte unterstützt wird.

blackbox
2008-01-09, 10:51:01
Natürlich kann man "GeForce Boost" abschalten, nur brauch man dann kein H-SLI-Board mehr, da "Hybrid-Power" noch von keiner erhätlichen Karte unterstützt wird.

OK, dann habe ich es falsch gelesen. :rolleyes:

Allerdings frage ich mich, warum es neue Grafikkarten und neue Boards geben muss und man nicht mit bestehenden Mitteln das per Treiber umsetzen kann. Gibt es einen speziellen Grund dafür?

Simon
2008-01-09, 10:57:37
Genau so ist es. Ich hoffe, ihr habt das alles richtig gelesen.

Denn es ist immer noch ein SLI. Das bedeutet, dass die diskrete Grafikkarte leistungsmäßig auf Höhe der integrierten sein muss. Da ist also nix mit "Ich setz jetzt eine Mittelklasse- oder Highendkarte rein" und spare Strom.

Das Ganze ist total sinnlos.

Warum ist es so schwer, es so umzusetzen, dass bei 3D die integrierte Karte abgeschaltet wird? Warum muss es SLI sein?
Du verwechselst da was. Es gibt
1) Hybrid SLI = SLI von IGP und dedizierter Grafikkarte
2) HybridPower = Wenn keine 3D Last anliegt, wird die IGP genutzt und die dedizierte Grafikkarte (mehr oder weniger) abgeschaltet

Das eine hat mit dem anderen kaum was zu tun...

Gast
2008-01-09, 17:03:58
Ich weiß ja nicht was du für einen Monitor hast. Bei mir reicht ein Knopfdruck am TFT. ;)
Also mein Monitor hat nur 1xDVI, den D-Sub will ich nicht nutzen.

robbitop
2008-01-10, 10:28:38
Laut Anandtech wird H-SLI über AFR realisiert. Das wundert mich. So gab es doch vor ein paar Jahren ein Patent von NV, dass eher auf eine Arbeitsteilung sprach. (First-Z Pass + Vertexbuffer macht die IGP den Colorpass dann die GPU)
Weiß jemand mehr dazu?

Razor
2008-01-11, 01:07:34
die haben mit H-S doch sowieso einen an der waffel. ich meine wer kein solches mobo hat, der verbrät mit einer high end karte im idle strom ohne ende. Das ganze ist einfach der falsche weg mit der mobo kombi, da deren anteil einfach viel zu gering ist.
Sehe ich genauso!

Dieser Murks mit erzwungenem IGP (bei nVidia schon immer eine sehr lästige Sache gewesen) und dann noch die Bindung an die eigenen Mainboards und schlußendlich nicht mal die größte derzeit verfügbare Plattform unterstütztend... ganz doll!

AMD hat es mit den HD3 und dem sehr geringen Idle-Verbrauch genau richtig gemacht... nVidia ist auf dem besten Weg, alles zu verbocken. SLI ist mir wurscht, Energie-Effizenz allerdings nicht. Wenn also nVidias nächste Generation der Meinung sein sollte, auf den Verbrauch zu schei..., nur weil man supa dolla HybridMurks mit nFurz-Mobos ausschließlich unter Vista anbieten wird - dann schei.. ich auf nVidia - endgültig.

Razor

Thunder99
2008-01-21, 19:00:27
Es ist in der Entwicklung guter Grafikkarten ein RÜCKSCHRITT , siehe G80/Teils G92 !!!

Durch diese Entwicklung verschleiern sie ihr Unvermögen oder Unwillen einen gescheiten Idle Modus ihrer aktuellen Grafikkarte zu spendieren. Die benötigten Komponenten werden ja in DER Preisklasse ja net so hoch sein!!!

Wird es dadurch in paar Jahren wieder only 2D OnDieGrafik geben und eine EXTRA only 3D Karte?

Wieviel Watt verbraucht denn eine D3D10 IGP? Wohl kaum weniger als ~20Watt oder?

Gast
2008-01-21, 19:04:51
Es ist in der Entwicklung guter Grafikkarten ein RÜCKSCHRITT , siehe G80/Teils G92 !!!

Richtig, habe ich auch schon oft geschrieben.

AnarchX
2008-01-21, 19:05:54
Wieviel Watt verbraucht denn eine D3D10 IGP? Wohl kaum weniger als ~20Watt oder?
Die 20W aber auch nur unter Last inkl. restlichem Chipsatz (TDP), unter normalen Idle-Bedingungen sind es eher ~5W.

Also doch um einiges weniger, als selbst ATi mit ihrem PowerPlay momentan hinbekommt.

Und so schlecht ist es doch nicht, dass die IHVs nun mehr RnD in die Leistung als den Idle-Verbrauch investieren können. Nun muss das System nur noch herstellerunabhängig werden.

Razor
2008-01-21, 20:56:28
Nun muss das System nur noch herstellerunabhängig werden.
Da glaub' mal dran!

Sieht man ja an SLI und was daraus geworden ist...
...das EINZIGE 'Verkaufsargument' für nVidia nForce-Boards.

Razor

StefanV
2008-01-21, 21:04:54
Nun muss das System nur noch herstellerunabhängig werden.
Das ist leider nicht möglich, da Aero nur mit gleichen Treibern funzt, sprich alle Karten im System müssen vom gleichen Treiber angesprochen werden...

WinterBorn
2008-01-21, 21:09:39
Hi,


vor ein paar Jahren war die "Onboard-Grafik" noch als Systembremse verschrien, weil sie einen Teil des Systemspeichers abzweigt und ein wenig Bandbreite kostet, und jetzt soll sie als Helfer von High-End GPU eingesetzt werden.
Sehr lustig. Einerseits führt man fragwürdige Diskussionen über Latenzen beim Speicherzugriff, andereseits vergisst man das alles, wenn NV eine "Lösung" "zeigt", die lediglich das Scheitern des Versuchs, eine effiziente GPU zu entwickeln zu entwickeln, belegt.

AnarchX
2008-01-21, 21:39:26
Das ist leider nicht möglich, da Aero nur mit gleichen Treibern funzt, sprich alle Karten im System müssen vom gleichen Treiber angesprochen werden...
Ja, das habe ich heute auch im Artikel zu H-Power von Leo gelesen.
Da wird man wohl noch einige Zeit warten müssen auf das neu Windows, wo der Markt sich dann durch neue Plattformen bei Intel und AMD wieder entscheident verändert.


andereseits vergisst man das alles, wenn NV eine "Lösung" "zeigt", die lediglich das Scheitern des Versuchs, eine effiziente GPU zu entwickeln zu entwickeln, belegt.
Das ist falsch, NV kann, wenn sie müssen/wollen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=391632

Und die Lösung die NV und ATi mit diesem Konzept verfolgen ist an sich ziemlich genial, wenn auch sehr einfach.
RnD in den niedrigen Stromverbrauch von High-End-GPUs zu verschwenden ist doch Unsinn, wenn man eine solche Lösung bieten kann. Es müssen halt nur noch gewisse Probleme gelöst werden.

Razor
2008-01-21, 22:37:31
So ein Unfug... sorry, Anarch.
Das hat es alles schon einmal gegeben... damals, als das mit "3D" begann.
(erinnert sich eigentlich noch jemand an 3dfx bzw. den Titel: "Wie alles begann!" ;-)

Da wäre es noch sehr viel sinnvoller, einfach einen kleinen Video-Chip mit auf die Karten zu 'kleben' oder gleich OnDie (bzw. InPackage ;-) zu integrieren. Dann würde alleine die Grafikkarte dies regeln und nicht irgendwelche uminösen Treiber, Mainboard und GraKa-Kombinationen, die letztlich nur darauf hinaus laufen, den Leuten das Geld aus der Tasche zu ziehen.

Dieses "Hybrid Power" (oder wie auch immer das Zeug heißt) ist ein totaler Schuss in den Ofen und wird sich hoffentlich NIEMALS durchsetzen.
Die sollen mal lieber dafür sorgen, ergonomische Produkte zu bauen und nicht noch einmal so einen Unfug treiben, wie seinerzeit mit dem G80...

Razor

Das Auge
2008-01-21, 23:03:40
Ziemlich uninteressant das ganze in der Form. Ich werd mir sicher kein neues Board holen, nur um Hybrid-SLI oder Hybrid-Power oder wie die das nennen nutzen zu können.
Interessant wäre eine Lösung die es erlaubt, auf einem SLI-Mainboard eine High-End und eine ultra lowcost Karte im Wechsel zu betreiben.

Noch besser wäre es, nv würde wieder einen idle-Modus einführen und nicht die Resourcen für so einen Kack verbraten, der dann auch noch nur sehr eingeschränkt funktioniert :rolleyes:

LovesuckZ
2008-01-21, 23:34:06
Interessant wäre eine Lösung die es erlaubt, auf einem SLI-Mainboard eine High-End und eine ultra lowcost Karte im Wechsel zu betreiben.


Genau das ist Hybrid-SLI...

Das Auge
2008-01-22, 01:51:50
Wie bitte?

Hybrid Power arbeitet mit einer einzelnen, diskreten Grafikkarte sowie einem SLI-Gespann zusammen. Es lassen sich in der aktuellen Entwicklungsphase entweder alle separaten Grafikkarten gemeinsam nutzen oder gemeinsam abschalten - die einzelne Deaktivierung der Karten ist aber in Planung.

Das ist nicht das was ich meinte...ich meinte 2 verschiedene Grafikkarten, kein SLI-Pärchen. Zudem ist bei nv schon viel "in Planung" gewesen...

Um Hybrid-Power verwenden zu können, ist allerdings eine Hybrid-Power-kompatible Grafikkarte und ein passendes Mainboard notwendig. Grafikkarten für Enthusiasten, also High-End-Karten, der Geforce-9-Serie werden erstmals Hybrid Power unterstützen. Von Seiten des Mainboards werden die 750a- und 780a-Platinen, sowie der 8200-Chipsatz dieses Feature unterstützen. Ob auch der bereits erhältliche 780i für Intel-CPUs Hybrid Power unterstützt, ist nicht bekannt.

Ich will aber kein neues Mainboard kaufen, sagte ich doch bereits.

Gast
2008-01-22, 04:12:14
Die sollen mal lieber dafür sorgen, ergonomische Produkte zu bauen und nicht noch einmal so einen Unfug treiben, wie seinerzeit mit dem G80...

Razor

Oder dem G92 (8800GT)...... die paar watt ersparnis machens wohl auch net, oder??

Grestorn
2008-01-22, 10:32:41
Nun, wegen HybridPower kauf ich mir sicher auch kein Board... Aber wenn ich eh eines kaufen wollte, dann ist das schon ein Argument.

Ein Board mit integrierter Grafik wird kaum nennenswert mehr kosten. Der Vorteil die Gaming-Karte komplett abzuschalten ist auf jeden Fall bemerkenswert.

Natürlich könnte man das auch direkt auf einer GraKa integrieren. Aber das halt ich für nicht so gelungen, denn:

damit man die Gaming-GraKa samt stromschluckendem RAM komplett abschalten kann, müssen alle Komponenten, die man für eine abgespeckte Desktop Grafik braucht, nochmal extra vorhanden sein. Spätestens wenn man dann zwei Karten in SLI verbindet ist das völlig verschwendetes Silizium.

Wenn neue MB-Chipsätze ohnehin IMMER mit integrierter Grafik ausgeliefert werden, hätten alle gewonnen: Bürorechner brauchen dann generell keine zusätzliche GraKa mehr, und alle Rechner, die auch mal zum Spielen eingesetzt werden, verbrauchen nur dann zusätzlichen Strom für die Grafik, wenn die auch wirklich benötigt wird.

Keine muss also überflüssiges Silizium in seinem System haben.

Natürlich wäre es schön, für "Altsysteme" auch GraKas mit integrierter Desktop-Grafikhardware kaufen zu können. Aber ich denke, eine solche Lösung wäre nur für einen Übergang sinnvoll und auch marketingtechnisch nicht gewünscht.

robbitop
2008-01-22, 11:28:49
Bis kurz vorm G80 ging es noch, RAM-Bausteine abzuschalten und den 3D Teil abzuschalten, die Taktfrequenz und die Spannung zu verringern. Die RV670 kann das alles ja auch. NV30 und NV40 konnten das. Entweder hatte NV keine Lust mehr, R&D drauf einzusetzen (was ich nicht glaube, da man es bei den mobile wieder braucht und man da die gleichen Chips einsetzt) ODER sie haben es absichtlich gemacht, um den Bedarf nach diesem Humbug zu erzeugen.
Das ist ja nichts anderes als ein übler workaround. Zur Zeit geht das nichtmal automatisch, man muss extra ins Panel und den Kram ein und ausschalten.

Was ich an Hybrid SLI immer interessant fand, ist dass die Arbeitsteilung nicht via AFR passieren sollte sondern, dass die IGP einen Z-Pass vorrendert und somit den Vertexbuffer, den Z-Buffer und das HSR für die Haupt-GPU übernimmt. Das würde wohl immer funktionieren. Aber der Balken bei AFR war wieder länger...hrn

Weiß jemand, wie hybrid CF funktioniert?

Grestorn
2008-01-22, 12:40:35
Bis kurz vorm G80 ging es noch, RAM-Bausteine abzuschalten und den 3D Teil abzuschalten, die Taktfrequenz und die Spannung zu verringern. Die RV670 kann das alles ja auch. NV30 und NV40 konnten das. Entweder hatte NV keine Lust mehr, R&D drauf einzusetzen (was ich nicht glaube, da man es bei den mobile wieder braucht und man da die gleichen Chips einsetzt) ODER sie haben es absichtlich gemacht, um den Bedarf nach diesem Humbug zu erzeugen.
Das ist ja nichts anderes als ein übler workaround. Zur Zeit geht das nichtmal automatisch, man muss extra ins Panel und den Kram ein und ausschalten.

Was ich an Hybrid SLI immer interessant fand, ist dass die Arbeitsteilung nicht via AFR passieren sollte sondern, dass die IGP einen Z-Pass vorrendert und somit den Vertexbuffer, den Z-Buffer und das HSR für die Haupt-GPU übernimmt. Das würde wohl immer funktionieren. Aber der Balken bei AFR war wieder länger...hrn

Weiß jemand, wie hybrid CF funktioniert?

Bei der Menge an Transistoren, die heutzutage verbaut werden, rentiert sich ein komplettes Abschalten einfach viel mehr als nur den Takt und die Spannung zu senken, zumal das Umschalten von Takt und Spannung auch immer ein Stabilitätsproblem mit sich bringt.

Ich kann mir eine solche Lösung sogar für HighEnd Gaming-Notebooks vorstellen: Im Stromsparbetrieb für unterwegs läuft nur eine einfache GPU für den Desktop, für Spiele wird dann der Stromfresser eingeschaltet...

Gast
2008-01-22, 12:45:00
Ich kann mir eine solche Lösung sogar für HighEnd Gaming-Notebooks vorstellen: Im Stromsparbetrieb für unterwegs läuft nur eine einfache GPU für den Desktop, für Spiele wird dann der Stromfresser eingeschaltet...
Ja auch gut, aber da braucht man keinen weiteren Chip, ok so schlimm wäre ein weiterer nicht wenn er zumindestest auf dem selben Brett steckt, so wie der nvio Chip beim G80.


Aber nv will das jetzt extra verkaufen in ihren nforce.
Der Kunde, der sich kein nforce holt sitzt dann in der Scheisse.

AnarchX
2008-01-22, 12:52:17
Ja auch gut, aber da braucht man keinen weiteren Chip, ok so schlimm wäre ein weiterer nicht wenn er zumindestest auf dem selben Brett steckt, so wie der nvio Chip beim G80.

Dann müsste die Grafikkarte weiter mit Strom versorgt werden und die Stromversorgung auch ziemlich effizient/teuer, sodass bei dieser niedrigen Last der Wirkungsgrad stimmt.

Und ich denke auch, dass es nicht nur um die Vemarktung von nForce geht, wie Grestorn schon bemerkt, wird es wohl nicht mehr so einfach sein >1Mrd. Transitoren, welche noch verschieden Taktdomains aufweisen mit einem zuverlässigen Stromsparmodus zu kombinieren.

Nunja, bis Windows 7 und CPU mit IGP werden wir noch mit der Abgeschlossenheit der Systeme leben müssen.

Razor
2008-01-22, 13:13:21
Nun, wegen HybridPower kauf ich mir sicher auch kein Board... Aber wenn ich eh eines kaufen wollte, dann ist das schon ein Argument.
Nicht, wenn es ein nVidia-Board sein müsste.

Ein Board mit integrierter Grafik wird kaum nennenswert mehr kosten. Der Vorteil die Gaming-Karte komplett abzuschalten ist auf jeden Fall bemerkenswert.
Was soll daran 'bemerkenswert' sein?
Es ist völlig normal, im Rahmen generell vorhandener Stromspar-Mechanismen, bestimmte Komponenten (wie Netzwerkkarte und Co.) einfach komplett zu deaktivieren. Dies würde lediglich eine Ausweitung auf die Video-Ausgabe bedeuten...

Natürlich könnte man das auch direkt auf einer GraKa integrieren. Aber das halt ich für nicht so gelungen, denn:

damit man die Gaming-GraKa samt stromschluckendem RAM komplett abschalten kann, müssen alle Komponenten, die man für eine abgespeckte Desktop Grafik braucht, nochmal extra vorhanden sein. Spätestens wenn man dann zwei Karten in SLI verbindet ist das völlig verschwendetes Silizium.
Bei SLI gibt es noch viel, viel mehr "verschwendetes Silizium", wie z.Bsp. die ganzen Video-Ausgabe-Funktionen (Steckerleisten etc.), den Video-Prozessor und die ganzen anderen Dinge, die im SLI-Verbund nicht gebraucht werden (ein besonderer Nachteil im übrigen ist, den Speicher nicht gemeinsam nutzen zu können).

Da macht ein kleiner Video-Ausgabe-Baustein mit Grundfunktionalitäten, der nach Deiner eigenen Aussage nicht viel kosten kann, den Kohl auch nicht mehr 'fett', oder?

Wenn neue MB-Chipsätze ohnehin IMMER mit integrierter Grafik ausgeliefert werden, hätten alle gewonnen: Bürorechner brauchen dann generell keine zusätzliche GraKa mehr, und alle Rechner, die auch mal zum Spielen eingesetzt werden, verbrauchen nur dann zusätzlichen Strom für die Grafik, wenn die auch wirklich benötigt wird.
Gibt es doch alles schon... bei Intel sind die Board mit integriertem IGP so ziemlich genauso teuer, wie welche ohne. Eines der größten Probleme wird - wieder mal - Vista sein, welches zwingend Treiber vom gleichen Hersteller 'braucht', um diese Funktionalität zu ermöglichen.

Wieder ein Argument für "IGP-on-GraKa"... allein der Treiber (für eine GraKa dem OS gegenüber) 'entscheidet', wann die discrete GPU aktiviert werden soll und wann nicht. Aber auch das hatten wir alles schon... siehe Voodoo3.

Im übrigen wäre es sinnvoller, den Speicher der GPU gemeinsam nutzen zu können... die Ausgabe wird einfach angehalten, die Register übergeben und der Zustand des Speichers übernommen. Keine Kompatibilitätsprobleme oder sonstige Unwägbarkeiten... die Stromversorgung des Speichers ist im übrigen ganz sicher nicht das Problem, wie man bei aktuellen Produkten sehr gut sehen kann.

Natürlich wäre es schön, für "Altsysteme" auch GraKas mit integrierter Desktop-Grafikhardware kaufen zu können. Aber ich denke, eine solche Lösung wäre nur für einen Übergang sinnvoll und auch marketingtechnisch nicht gewünscht.
Von nVidia sicher nicht... das ist richtig.
Insofern ist diese "Lösung" von Anfang an zum Scheitern verurteilt.

Razor

Gast
2008-01-22, 13:17:43
Nicht, wenn es ein nVidia-Board sein müsste.

Um mit AMD Strom zu sparen bracht man dann ein AMD Brett.
Super Vorstellung.

Grestorn
2008-01-22, 13:23:03
Nicht, wenn es ein nVidia-Board sein müsste.So schlimm finde ich die nun auch nicht.

Auch bei Intel Boards ist nicht immer alles Eitel Sonnenschein.

Was soll daran 'bemerkenswert' sein?
Es ist völlig normal, im Rahmen generell vorhandener Stromspar-Mechanismen, bestimmte Komponenten (wie Netzwerkkarte und Co.) einfach komplett zu deaktivieren. Dies würde lediglich eine Ausweitung auf die Video-Ausgabe bedeuten...

Da ist mal gar nichts normal. Im Dekstop PC wird keine Komponente abgeschaltet, wenn man sie nicht braucht. Nur bei Notebooks ist das teilweise realisiert.

Da man Grafik immer braucht, ist die Idee, dem großen, leistungsfähigen Bruder ein kleines abgespecktes Brüderchen zur Seite zu stellen, komplett neu. Das gab's in dieser Form vorher noch nicht.
Und es machte auch bei keiner Komponente so viel Sinn wie bei der GPU. Die man durch ihren Aufbau eben nicht so einfach in Leistungsaufnahme reduzieren kann wie CPUs.

Bei einer CPU brauche ich immer etwas Grundleistung und normalerweise auch alle Komponenten, damit das System was tut. Auf dem Desktop kann ich auf fast alles der GraKa verzichten, wie fast dem gesamten RAM, fast allen Pipes usw.

Bei SLI gibt es noch viel, viel mehr "verschwendetes Silizium", wie z.Bsp. die ganzen Video-Ausgabe-Funktionen (Steckerleisten etc.), den Video-Prozessor und die ganzen anderen Dinge, die im SLI-Verbund nicht gebraucht werden (ein besonderer Nachteil im übrigen ist, den Speicher nicht gemeinsam nutzen zu können).

Das stimmt natürlich.

Gibt es doch alles schon... bei Intel sind die Board mit integriertem IGP so ziemlich genauso teuer, wie welche ohne. Eines der größten Probleme wird - wieder mal - Vista sein, welches zwingend Treiber vom gleichen Hersteller 'braucht', um diese Funktionalität zu ermöglichen.

Keiner hindert Intel daran, selber High-End Grafikkarten ihren IGPs zur Seite zu stellen .

Und theoretisch ist es auch denkbar, einen GraKa Treiber im System einzubinden, der die Karten verschiedener Hersteller anspricht.

Im übrigen wäre es sinnvoller, den Speicher der GPU gemeinsam nutzen zu können...

Na, gerade das will keiner. Man kann bei RAM schließlich nicht einfach 90% abschalten. Und genau das müsste man tun.

Von nVidia sicher nicht... das ist richtig.
Insofern ist diese "Lösung" von Anfang an zum Scheitern verurteilt.

Fällt Dir eigentlich nicht auf, dass Du seit Jahren dabei bist, jede Neuerung erst mal von vorne herein zu verdammen? Was ist los mit Dir? Kein Geld mehr für Neuanschaffungen?

Gast
2008-01-22, 13:29:39
So schlimm finde ich die nun auch nicht.

Auch bei Intel Boards ist nicht immer alles Eitel Sonnenschein.

Ich hätte lieber die Wahl.

Grestorn
2008-01-22, 13:36:10
Ich hätte lieber die Wahl.

Ich auch. Aber diese Einschränkung ist niemandes direkte Schuld - im Gegensatz zu SLI, wo nVidia bewusst die Entscheidung gegen Intel Chipsätze getroffen hat.

lukesky
2008-01-22, 13:41:41
... was mir als erstes gleich eingefallen ist beim Thema Hybrid-SLI, das dann reine 3D Beschleuniger genau das ist was man braucht. 2D und Video und das bissl für Oberflächen machen ja ohnehin die im Chipsatz integrierte GPU, für 3D Power bracht man dann halt einen reinen 3D Beschleuniger.

Wäre doch nur logisch und konsequent.

robbitop
2008-01-22, 16:42:37
Bei der Menge an Transistoren, die heutzutage verbaut werden, rentiert sich ein komplettes Abschalten einfach viel mehr als nur den Takt und die Spannung zu senken, zumal das Umschalten von Takt und Spannung auch immer ein Stabilitätsproblem mit sich bringt.

Ich kann mir eine solche Lösung sogar für HighEnd Gaming-Notebooks vorstellen: Im Stromsparbetrieb für unterwegs läuft nur eine einfache GPU für den Desktop, für Spiele wird dann der Stromfresser eingeschaltet...
Takt und Abschalten ging bis zum NV40. RV670 kann auch noch beides. G92 kann das mit Sicherheit auch. Zumindest die Moblie Version.
Die Desktopkarten von NV machen nichts mehr davon.

Grestorn
2008-01-22, 17:36:39
Takt und Abschalten ging bis zum NV40. RV670 kann auch noch beides. G92 kann das mit Sicherheit auch. Zumindest die Moblie Version.
Die Desktopkarten von NV machen nichts mehr davon.

Ich habe nicht gesagt, dass es nicht geht. Nur: Je komplexer der Chip, desto problematischer ist es, das auch stabil hinzubekommen. Und: Auch runtergetaktet und mit reduzierter Spannung laufen all die Millionen Transistoren weiter. Viel viel besser wäre es, sie ganz abzuschalten.

Wenn ich die Wahl habe, die Leistungsaufnahme der GPUs des System auf 5% oder auf 50% zu reduzieren, werde ich doch immer die 5% vorziehen, oder?

Razor
2008-01-22, 18:39:30
So schlimm finde ich die nun auch nicht.
Auch bei Intel Boards ist nicht immer alles Eitel Sonnenschein.
Ich will die Wahl haben...
Eine "Technologie", die nur mit einem Hersteller möglich ist, interessiert mich einfach nicht.

Da ist mal gar nichts normal. Im Dekstop PC wird keine Komponente abgeschaltet, wenn man sie nicht braucht. Nur bei Notebooks ist das teilweise realisiert.
Im Standby-Modus werden nicht benötigte Komponeten deaktiviert oder auch nicht... bestes Beispiel ist hier die Netzwerkkarte.

Da man Grafik immer braucht, ist die Idee, dem großen, leistungsfähigen Bruder ein kleines abgespecktes Brüderchen zur Seite zu stellen, komplett neu. Das gab's in dieser Form vorher noch nicht.
Und es machte auch bei keiner Komponente so viel Sinn wie bei der GPU. Die man durch ihren Aufbau eben nicht so einfach in Leistungsaufnahme reduzieren kann wie CPUs.
Sag mal... glaubst Du das wirklich?
Was bitte war dann eine Voodoo3, die einen 2D-Chip mit einem 3D-Chip kombinierte?
Das Thema ist wahrlich uuuuuuuralt und ganz sicher nicht neu...

Neu ist allerdings, dass man für den Desktop nicht mehr nur 2D-funktionalitäten braucht, denn mehr 3D-Funktionalitäten.
('dank' Vista natürlich :rolleyes:)

Was spricht also dagegen, den 2D-Teil des Grafikkerns um die benötigte 3D-Funktionalität zu erweitern?
Mehr ist es schlicht und ergreifend nicht...

Bei einer CPU brauche ich immer etwas Grundleistung und normalerweise auch alle Komponenten, damit das System was tut. Auf dem Desktop kann ich auf fast alles der GraKa verzichten, wie fast dem gesamten RAM, fast allen Pipes usw.
Nochmal: wozu auf den RAM verzichten?
Ganz einfach einen kleinen 2. Chip auf die GraKa (gerne auch in das gleiche Package, in welchem auch der Die der GPU liegt), der parallel auf den gleichen RAM zugreifen kann und schon ist das Thema via Treiber-Steuerung vom Tisch.

Äusserst simpel zu realisieren - aber da will 'man' wohl nicht hin.

Keiner hindert Intel daran, selber High-End Grafikkarten ihren IGPs zur Seite zu stellen .
Warum sollte Intel so etwas unsinniges tun?
Ich könnte mir auch vorstellen, dass AMD über kurz oder lang auf dieses wenig 'dankbare' Geschäft verzichten wird...

Und theoretisch ist es auch denkbar, einen GraKa Treiber im System einzubinden, der die Karten verschiedener Hersteller anspricht.
Eben nicht...
...schau' Dir dazu bitte nochmal die Vorgaben dieses schulligen Murks-Systems Vista an.

Ansonsten wird sich wohl kein IHV damit 'belasten, mit dem eigenen Treiber auch Modelle anderer Hersteller zu unterstützen. Oder meinst Du, dass AMD oder nVidia in die eigenen Treiber solche für Grafiklösungenen anderer Herstller integrieren wird? Ist dann sogar ein nVidia-Treiber vorstellbar, der AMD-IGPs unterstützt?

Ich glaube, Du träumst.

Na, gerade das will keiner. Man kann bei RAM schließlich nicht einfach 90% abschalten. Und genau das müsste man tun.
Man könnte den RAM zu 100% aktiviert lassen... kein Problem.
Das, was tatsächlich 'richtig' Strom verbraucht ist die GPU, bzw. deren Spannungsversorgung.

Fällt Dir eigentlich nicht auf, dass Du seit Jahren dabei bist, jede Neuerung erst mal von vorne herein zu verdammen? Was ist los mit Dir? Kein Geld mehr für Neuanschaffungen?
Nein, nur wenn es sich dabei um solch einen Müll hamndelt, wie jetzt (wieder) von nVidia 'vermarktet'.

ATI/AMD hat gezeigt, wie man es richtig macht (siehe RV670) und nVidia hat dem NICHTS entgegen zu setzen.
Jetzt versuchen sie dem DAU etwas in Aussicht zu stellen, welches absoluter Bastelkram ist und zudem ausschließlich nVidia-Komponenten benötigt.

SCHROTT!
Setzen sechs.

IMO ist nVidia einfach zu 'fett' geworden und murkst derzeit nur noch herum.
Die 88GT war eine Ausnahme (mit Einschränkungen), aber sie scheinen weiter daran zu arbeiten, den geneigten User auf andere Weise zu verarschen...

Ich auch. Aber diese Einschränkung ist niemandes direkte Schuld - im Gegensatz zu SLI, wo nVidia bewusst die Entscheidung gegen Intel Chipsätze getroffen hat.
Falsch.

Gäbe es eine OnGraKa-Lösung und nur einen Treiber, wäre das Ganze sogar Plattform-Unabhängig. So ist es ein an Vitza gebundener Bastelkram, der niemanden hilft und lediglich über unterträgliche Design-Mängel hinweg täuschen soll.

Razor

robbitop
2008-01-22, 20:12:20
Ich habe nicht gesagt, dass es nicht geht. Nur: Je komplexer der Chip, desto problematischer ist es, das auch stabil hinzubekommen. Und: Auch runtergetaktet und mit reduzierter Spannung laufen all die Millionen Transistoren weiter. Viel viel besser wäre es, sie ganz abzuschalten.

Wenn ich die Wahl habe, die Leistungsaufnahme der GPUs des System auf 5% oder auf 50% zu reduzieren, werde ich doch immer die 5% vorziehen, oder?
Ja na sicher. Und das sollte auch bei jeder GPU funktionieren. Entweder war NV zu faul oder sie wollten wirklich absichtlich Bedarf nach dieser Frickellösung erzeugen. RV670 zeigt, wie es richtig gemacht werden muss. Das Ding hat ja auch fast 700 Mio Transistoren.

LovesuckZ
2008-01-22, 20:13:10
Das ist nicht das was ich meinte...ich meinte 2 verschiedene Grafikkarten, kein SLI-Pärchen. Zudem ist bei nv schon viel "in Planung" gewesen...


Und warum sollte das besser als Hybrid-Power sein? :confused:

AnarchX
2008-01-22, 21:07:21
Ja na sicher. Und das sollte auch bei jeder GPU funktionieren. Entweder war NV zu faul oder sie wollten wirklich absichtlich Bedarf nach dieser Frickellösung erzeugen. RV670 zeigt, wie es richtig gemacht werden muss. Das Ding hat ja auch fast 700 Mio Transistoren.
Aber keine Shaderdomain. ;)

Und bei NVs kommenden >1.5Mrd. Transistoren Monster wird wohl ein sicher funktionierender Stromsparmodus noch schwieriger realisierbar sein.

Gast
2008-01-22, 21:07:22
Entweder war NV zu faul
Oder nv hatte zu wenig Zeit.

Dann müsste aber der G92 gefixt sein, das ist er nicht. :(

robbitop
2008-01-23, 00:17:42
Aber keine Shaderdomain. ;)

Und bei NVs kommenden >1.5Mrd. Transistoren Monster wird wohl ein sicher funktionierender Stromsparmodus noch schwieriger realisierbar sein.
Das halte ich für Hoax. Was hat die Anzahl der Transistoren damit zu tun, ob Chipteile abschaltbar sind, oder Shaderdomains? IMO rein gar nix.
Was man zukünftig können müsste, wäre eine teilweise Abschaltung des 3D-Teils für Aero.
RV670 fährt bei Aero immerhin mit gesenkter Spannung und Chiptakt.
G92 kann das alles auch, da bin ich mir sicher. Das Teil wird in der 8800M in Notebooks eingesetzt.

Gast
2008-01-23, 00:20:03
G92 kann das alles auch, da bin ich mir sicher. Das Teil wird in der 8800M in Notebooks eingesetzt.
Kostet dort auch ein Stück mehr als im Desktop.
Wo wir beim Punkt sind, das nv die teuren Mobile Lösung verkaufen will und nicht so gerne die billige Desktop Variante im Notebook.

LovesuckZ
2008-01-23, 00:50:31
Dann müsste aber der G92 gefixt sein, das ist er nicht. :(

Defaultspannung der 8800GT liegt bei 1,1 - 1,15V. Einzig eine Taktabsenkung fehlt. Mit der wäre man auf ungefähren rv670 Niveau.

san.salvador
2008-01-23, 01:29:09
Oder nv hatte zu wenig Zeit.

Dann müsste aber der G92 gefixt sein, das ist er nicht. :(
Wobei man nicht vergessen sollte, dass der G92 im Idle weniger und unter 3D mehr als der G80 zieht (zumindest bei der GTS), also hat man immerhin ein etwas besseres idle/load-Verhältnis.
Aber in der Hinsicht spielt Ati derzeit in einer anderen Liga.

Gast
2008-01-23, 09:32:54
grundsätzlich finde ich es sehr gut, dass dem thema stromverbrauch auch endlich einmal etwas an wichtigkeit beigemessen wird. wobei ich die ati-lösung (also c&q wie bei der cpu) bevorzugen würde.

mir stellt sich bei dieser lösung aber eine ganz einfache frage: wie soll man das als benutzer realisieren?

wird die karte am pcie-slot deaktiviert, gibt es auch kein bild mehr am dvi-anschluss dieser karte!? --> ich muss den monitor auf den onboard-dvi-anschluss umstecken?

AnarchX
2008-01-23, 09:38:58
Das halte ich für Hoax. Was hat die Anzahl der Transistoren damit zu tun, ob Chipteile abschaltbar sind, oder Shaderdomains? IMO rein gar nix.
Was man zukünftig können müsste, wäre eine teilweise Abschaltung des 3D-Teils für Aero.
RV670 fährt bei Aero immerhin mit gesenkter Spannung und Chiptakt.
G92 kann das alles auch, da bin ich mir sicher. Das Teil wird in der 8800M in Notebooks eingesetzt.
Ja, aber bei dieser sind weit weniger Transistoren aktiv (6C bzw. 4C) und auch mit 500/1250MHz die Taktraten nicht so hoch. Aber mal rein logisch gesehen, je mehr Transistoren man hat umso schwieriger wird es vorrauszusehen wie eine Taktänderrung sich auswirkt und ob auch alle diese übernehmen.
Aber natürlich hat die Vermarktung von H-SLI doch einen Anteil, warum alle GF8-D keinen 2D-Modus beherrschen.
Mal was an der 2D-Modus Meldung von PCGH für kommende G9x dran ist.


wird die karte am pcie-slot deaktiviert, gibt es auch kein bild mehr am dvi-anschluss dieser karte!? --> ich muss den monitor auf den onboard-dvi-anschluss umstecken?
Ja, der Hauptmonitor muss am IGP hängen.

Das Auge
2008-01-23, 09:50:13
Und warum sollte das besser als Hybrid-Power sein? :confused:

Es ist nicht besser, aber so eine Lösung könnte ich auf meinem vorhandenen SLI-Board, dessen zweiter PCIe 16x (OK eigentlich 8x) Slot vor sich hin gammelt, auch nutzen ;)
DAS wäre mal kundenfreundlich. Gut, ich hab allerdings keine Ahnung, ob sich das technisch so einfach realisieren lässt.

Gast
2008-01-23, 10:06:16
Aber mal rein logisch gesehen, je mehr Transistoren man hat umso schwieriger wird es vorrauszusehen wie eine Taktänderrung sich auswirkt und ob auch alle diese übernehmen.


Was ist daran logisch?


Aber natürlich hat die Vermarktung von H-SLI doch einen Anteil, warum alle GF8-D keinen 2D-Modus beherrschen.


Keine GF8 wird H-SLI unterstützen.

Gast
2008-01-23, 22:23:21
Wobei man nicht vergessen sollte, dass der G92 im Idle weniger und unter 3D mehr als der G80 zieht (zumindest bei der GTS), also hat man immerhin ein etwas besseres idle/load-Verhältnis.
Aber in der Hinsicht spielt Ati derzeit in einer anderen Liga.

Welcher G92? Die 8800GT zieht 20 Watt weniger unter Last, bei deutlich besserer Leistung.

reunion
2008-03-22, 14:55:14
Hybrid-SLI auf Ende April verschoben:
http://www.computerbase.de/news/hardware/mainboards/amd-systeme/2008/maerz/nvidia_hybrid_sli_ende_april/

=Floi=
2008-03-22, 16:20:09
die GTS512 braucht immer weniger strom, wie die GTX
HSLI wird dank mangelnder unterstützung wohl nichts werden
nett wäre Hsli ja auch mit 2 karten auf einem nicht sli/nv board (1X9800GTX und 1X 9300GE/GS)

LovesuckZ
2008-05-08, 22:07:18
Computerbase hat einen Turztest zu den beiden neuen Boards von nVidia und AMD. Und dabei kam auch Hybrid-Power zum Einsatz: http://www.computerbase.de/artikel/hardware/mainboards/2008/kurztest_amd_780g_nvidia_780a/9/#abschnitt_leistungsaufnahme

Ein beachtliches Ergebnis.

AnarchX
2008-05-08, 22:15:58
Naja, halt im erwarteten Rahmen, was so seit Mitte 2007 bekannt war.

Einzig die (nachträglich) sehr eingeschränkte HW-Auswahl und die Verschiebung der Plattformen um ganze Quartale war leider nicht abzusehen.

Vielleicht kann Intel etwas Druck mit ihrem Wrapper-Treiber ausüben...

Die gelbe Eule
2008-05-08, 22:27:26
Sowas wäre mit SLi schon geil, im Idle 100W zu sparen, aber leider fehlt ja noch die Intel Unterstützung.