PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird es in absehbarer Zeit leistungsfähige strompsarende GPUs geben?


klumy
2007-09-17, 21:43:29
Wird es in absehbarer Zeit leistungsfähige strompsarende GPUs geben?
Ich dache an so eine Revolution wie the Core2Duo Prozessoren auf dem Desktop Markt?

Simon Moon
2007-09-17, 22:16:49
Die gibt es doch bereits? Aka Mainstream/Performance.

HighEnd und Stromsparen passt nunmal nicht zusammen, da bei letzterem primär auf Leistung getrimmt wird (damit es HighEnd ergibt) und der Stromverbrauch eine sekundäre Rolle spielt.

Der CPU Markt verhält sich im Moment auch gänzlich anders. Intel könnte ohne Probleme wieder 100W+ Modelle auf den Markt werfen, aber sie haben keinen Anlass dazu, solange AMD (im Desktopmarkt) nicht die Leistungskrone zurück erobert.

Daraus folgere ich, wenn die Hardware am Verbrauchslimit läuft, ist die Konkurrenz stark.

btw. GPUs leisten im Idealfall pro Watt wesentlich mehr als CPUs...

Gast
2007-09-17, 22:29:26
Wird es in absehbarer Zeit leistungsfähige strompsarende GPUs geben?
Ich dache an so eine Revolution wie the Core2Duo Prozessoren auf dem Desktop Markt?
Nein. Denke der Verbrauch wird sich im High End immer so um die 150 Watt bewegen. Die zukünftigen Mid-Range GPUs werden weniger verbrauchen und irgendwann mal den Speed des jetzigen High Ends erreichen. Nur die Frage ist, ob die gebotene Leistung dann noch ausreicht, darum gehts ja. Sonst könnte ich auch eine HD2600 nehmen. Im Gegensatz zur 9700 ist die relativ leistungsfähig und braucht kaum mehr Saft.
Leistungsfähig zum Erscheinungszeitpunkt und zugleich niedriger Stromverbrauch sind ein eigentlich ein No-Go.

Gast
2007-09-19, 16:07:15
Der CPU Markt verhält sich im Moment auch gänzlich anders. Intel könnte ohne Probleme wieder 100W+ Modelle auf den Markt werfen, aber sie haben keinen Anlass dazu, solange AMD (im Desktopmarkt) nicht die Leistungskrone zurück erobert.




Du hast vergessen das Intels Extreme Quad Prozessoren alle eine TDP von 130W haben;)

seahawk
2007-09-19, 19:32:38
G92 und RV670 dürften in die richtige Richtung gehen.

BlackBirdSR
2007-09-19, 23:48:35
Wird es in absehbarer Zeit leistungsfähige strompsarende GPUs geben?
Ich dache an so eine Revolution wie the Core2Duo Prozessoren auf dem Desktop Markt?

Bei momentanen Designs nur sehr schwer machbar.
Die aktuellen x86 hatten große Probleme durch Leckströme. Das haben AMD und Intel jetzt aktuell mit SOI und high-K Gates etwas besser unter Kontrolle. Durch "intelligente" Caches und Glock-Gating kann man ebenfalls viel erreichen. Liegt aber daran, dass nicht 100% der Transistoren in einem x86 auch ständig am Schalten sind.

Bei GPUs wird beim Rendering einfach volle Programm benötigt. Darum die momentan hohe Abwärme. Hunderte Millionen Transistoren für Caches gibt es ebensowenig, wie unbenötigte Bereiche bei DX9 oder DX10 Spielen. Einspaarungen gibt es also nur durch weniger komplexe Chips, weniger Takt, eine Revolution in der Fertigung oder ein Wunder ;)

malle
2007-09-20, 02:17:52
Ein 7600GS Nachfolger wäre sicher sehr zu begrüßen. Mit 20W Leistungsaufnahme und einer Leistung vergleichbar mit einer 7900GS oder X1950pro wäre ich schon zufrieden.

Neosix
2007-09-20, 09:14:41
die tatsache das intel bereits bei 45nm ist. und GPUs noch im vergleich dazu bei steinzeitlichen 90, ist ebenfalls nicht sehr hilfreich.

N0Thing
2007-09-22, 13:52:52
Im Bereich der High-End Chips ja, aber im Mainstreambereich ist AMD bei 65nm und Nvidia bei 80nm und die nächste Generation soll bei 55nm liegen.

Man darf nicht vergessen, daß AMD und Nvidia außer Haus produzieren lassen und die GPUs komplexer sind, als CPUs, weshalb bei den High-End-Modellen lieber auf eine bewährte Technik zurückgegriffen wird.

Gast
2007-09-22, 21:15:59
Wenn endlich der modulare Aufbau mit mehreren Kernen oder GPU's kommt, dann wird endlich mal was für das Stromsparen getan.
Wenn nicht die volle Power benötigt wird, kann halt ein Modul oder ein Kern ausgeschaltet werden.
Somit wäre ein richtiger Schritt getan.

Gast
2007-09-23, 09:45:02
Wie wärs wenn man einfach auf 100 FPS limitiert. Soll heisen das bei nem alten Game entsprechend viele Teile der GPU abgeschaltet werden bei neuen alle laufen. dann wird verglichen welche Karte weniger Strom bei 100 fps braucht. Eine gerade Linie der Frames bei nem Savegame Bench das währ mal was.
Zumindest würde ich so einen Haken bei den Controlcentern begrüßen...

Thunder99
2007-09-23, 13:09:01
@ Gast

wird kommen. Da ATI in die Multi GPU Technologie entwickelt.

Dazu mal eine Frage.

Welche zukünftige Grafikkarte wird 1/3 bis 1/2 fach schneller sein als meine X1900XT und 1/3 bis 1/2 weniger verbrauchen? Wird das der RV670 sein?

ManuelCalavera
2007-09-23, 13:52:29
Ich dache an so eine Revolution wie the Core2Duo Prozessoren auf dem Desktop Markt?
Ich finde nicht das Intel auf dem Desktop-Markt ne riesen Revolution gestartet hat.
Cool'n'Quiet hat da meiner Meinung nach mehr getan (und auch einiges früher) - aber diese Diskussionen arten ja leider immer wieder aus.

Nakai
2007-09-23, 15:33:33
Ich dache an so eine Revolution wie the Core2Duo Prozessoren auf dem Desktop Markt?

Das ist wirklich keine Revolution gewesen, sondern war der nächste Schritt.

Die Grafikkartenschmieden sollten demnächst mal auf mehr Fertigungsmethoden umschwenken. Man kann nicht immer nur alles Fremdfertigen lassen, man sollte auch etwas in Richtung SOI forschen.

mfg Nakai

Coda
2007-09-23, 15:46:15
nVIDIA und ATi haben keine Fabs, das fällt definitiv flach.

ollix
2007-09-23, 15:56:04
Also für mich wäre die 8800GTX ansich schon akzeptabel, wenn sie einen IDLE Verbrauch hätte, der dem Namen gerecht wird.

AnarchX
2007-09-23, 16:04:07
Die Pro-Watt-Leistung bei GF8 ist doch extrem gut, vorallem da es sogar noch 90nm ist.

Einziger Nachteil ist der hohe 2D-Verbrauch, aber hier gibt es bald eine Lösung: NVs Hybrid SLI bzw. ATis "Hybrid CrossFire".
-> ~5W = Verbrauch des IGPs, IHVs können sich auf andere Dinge konzentrieren, als das leidige Thema des optimierten 2D-Verbrauchs/Lautstärke einer HighEnd-Karte.

Welche zukünftige Grafikkarte wird 1/3 bis 1/2 fach schneller sein als meine X1900XT und 1/3 bis 1/2 weniger verbrauchen? Wird das der RV670 sein?
Das könnte die RV670 Revival (~2950Pro) durchaus schaffen dank 55nm, aber mehr dazu hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355

Nakai
2007-09-23, 16:10:57
nVIDIA und ATi haben keine Fabs, das fällt definitiv flach.

Tja...leider...:rolleyes:

Das könnte die RV670 Revival (~2950Pro) durchaus schaffen dank 55nm, aber mehr dazu hier:

Die derzeitige Generation, sei es von NV oder ATI, sind nach meiner Meinung nicht gelungen. Es gibt keine anständige Midrange oder Performancekarte für 200€.

mfg Nakai

AnarchX
2007-09-23, 16:16:03
Tja...leider...:rolleyes:


Warum sollten sie sich dieses Risiko aufladen und im Endeffekt könnte man eh nicht mit Intel mithalten...

Nakai
2007-09-23, 16:42:49
Warum sollten sie sich dieses Risiko aufladen und im Endeffekt könnte man eh nicht mit Intel mithalten...

Ich weiß, dass es ein Risiko ist, jedoch betrachten man sich die Lage fällt auf, dass AMD und Intel selber Fabriken haben, wenngleich AMD keine Fab für die Fertigung für GPUs abgibt und Intel noch nicht in den GPU-Markt eingestiegen ist.

Und wenn man nicht mit Intel mithalten kann, könnten die doch eh aufgeben. Intel kauft sich mit Fachwissen ein und mithilfe der guten Fertigung kann man früher oder später den anderen das Wasser abgraben.
Mit Intel kann keiner der Kleineren mithalten.

Aber eigentlich machen eigene Fabs nur bei einer großflächigen Fertigung alá CPUs sind, da die Margen deutlich besser sind.

mfg Nakai

Thunder99
2007-09-24, 21:56:07
Die Pro-Watt-Leistung bei GF8 ist doch extrem gut, vorallem da es sogar noch 90nm ist.

Einziger Nachteil ist der hohe 2D-Verbrauch, aber hier gibt es bald eine Lösung: NVs Hybrid SLI bzw. ATis "Hybrid CrossFire".
-> ~5W = Verbrauch des IGPs, IHVs können sich auf andere Dinge konzentrieren, als das leidige Thema des optimierten 2D-Verbrauchs/Lautstärke einer HighEnd-Karte.


Das könnte die RV670 Revival (~2950Pro) durchaus schaffen dank 55nm, aber mehr dazu hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366355
Danke sehr :)

Die Argumentation Leistung pro Watt finde ich sehr schlecht.

Das würde in soweit gehen das ein Direct X ?? Chip 5mal mehr Leistung hat als ein heutiger Chip bei 5x größerer Leistungaufnahme, also richtung 300Watt + . Deswegen ist der Vergleich SEHR SCHLECHT

AnarchX
2007-09-24, 22:10:07
Das würde in soweit gehen das ein Direct X ?? Chip 5mal mehr Leistung hat als ein heutiger Chip bei 5x größerer Leistungaufnahme, also richtung 300Watt + . Deswegen ist der Vergleich SEHR SCHLECHT

Naja, bis man einen Faktor 5 erreicht hat, ist die Fertigung entsprechend weiter, was wiederum die Pro-Watt-Leistung erhöht.

Aber wie schon gesagt, wird G80 immer noch in 90nm gefertigt, genauso wie G71 oder R580, aber nimmt im Verhältnis deutlich weniger Leistung auf pro geleisteten Frame. ;)

RavenTS
2007-09-24, 22:25:22
Wie wärs wenn man einfach auf 100 FPS limitiert. Soll heisen das bei nem alten Game entsprechend viele Teile der GPU abgeschaltet werden bei neuen alle laufen. dann wird verglichen welche Karte weniger Strom bei 100 fps braucht. Eine gerade Linie der Frames bei nem Savegame Bench das währ mal was.
Zumindest würde ich so einen Haken bei den Controlcentern begrüßen...


Das geht so nicht. Du kannst nicht so einfach bestimmte Chipteile On the Fly abschalten. Woher soll der Treiber beispielsweise wissen, ob du nur gerade durch einen einfachen Gang läufst oder ein altes Game zockst?! Ausserdem würde das Aktivieren (was quasi eine spezielle Stromversorgung verschiedener Chipteile benötigen würde!!) eine Latenz mit sich bringen und nerven...

Bei einer Frame-Grenze werden die darüber hinaus produzierten Bilder wohl einfach nur verworfen bzw. kommen nicht in den Framebuffer..

kahlchen
2007-09-25, 02:31:30
Und wenn man nicht mit Intel mithalten kann, könnten die doch eh aufgeben. Intel kauft sich mit Fachwissen ein und mithilfe der guten Fertigung kann man früher oder später den anderen das Wasser abgraben.
Mit Intel kann keiner der Kleineren mithalten.

Naja, aufgeben werden die sicher nicht, weil sie ja Geld machen wollen ;)
Fachwissen einkaufen wird auch nicht sooo einfach... zum Glück gibt es Patente und Lizenzen.

nVidia machen das schon vollkommen richtig und lässt kein SLI auf Intel-Boards (naja, nur mal eins zum fetzen ;)) laufen.
Und ich glaube ja immer noch dran, dass wir irgendwann mal ein System mit nVidia-Board, nVidia-Graka & nVidia-CPU kaufen können. :tongue:

robbitop
2007-09-25, 09:16:46
Es gibt keine anständige Midrange oder Performancekarte für 200€.

mfg Nakai
Gab es letzte Generation auch nicht. Bei NV wartete man auf den 90 nm Prrozess, bei ATI wartete man auf den 80 nm Prozess. Sonst waeren halbe oder 3/4 Chips (vom HighEnd) einfach zu teuer. RV670 und G92 machen es diesmal genauso. Kommen etwas spaeter wegen der Wartezeit auf den besseren Prozess.

Was das Thema angeht: Haben wir schonmal diskutiert. Jeder Transistor kostet elektrische Leistung. Da die Grafikleistung sich parallelisieren laesst, bedeuten viele Transistoren = viel Performance. Im High End Bereich will man viel Performance, also bestehen die Dinger aus vielen Transistoren, ergo viel elektrische Leistung. Der Punch pro Transistor ist beim G80 (bedenkt man das D3D10 Featureset) exzellent.

Wenn man Strom sparen will, darf man natuerlich keine HighEnd Karte kaufen. Man muss die gewuenschte elektrische Leistung als Kauffaktor nehmen und danach die Auswahl treffen. Dann wird's nur eine IGP (extrem wenig P_el), Low Cost oder Midrange. Das ist ein ganz einfaches Prinzip, was naturwissenschaftlichen Gesetzen folgt.

Leute, die HighEnd Karten mit wenig elektrischer Leistung wollen, sollten sich ein wenig mit Halbleitertechnik auseinandersetzen.

Coda
2007-09-25, 14:28:42
Gab es letzte Generation auch nicht.
7600GT?

AnarchX
2007-09-25, 14:40:48
7600GT?

Die gab es aber nicht zum G70-Launch bzw. 5 Monate danach, wobei es hier ja noch den NV42 gab...

Gast
2007-09-25, 14:51:15
Die gab es aber nicht zum G70-Launch bzw. 5 Monate danach, wobei es hier ja noch den NV42 gab...

7600GT kam erst zur Cebit auf dem Markt - also kurz vor April.
Zum Erscheinen des G70 wurde die 6600GT weitergeführt.

robbitop
2007-09-25, 16:26:04
7600GT?
Und wie lange nach dem G70-Launch kam die?

AnarchX
2007-09-25, 16:56:45
7600GT kam erst zur Cebit auf dem Markt - also kurz vor April.


Ja, aber im November 2005 kam der NV42(12PP@110nm), der bis zum G73 das Performance-Segment bei NV besetzte.

robbitop
2007-09-25, 17:12:06
Es gab vorher auch einen NV41, der ebenfalls 12 Pipes besass. Beides waren keine Midrangekarten der G7x Gen.

Thunder99
2007-09-25, 18:04:28
Gab es letzte Generation auch nicht. Bei NV wartete man auf den 90 nm Prrozess, bei ATI wartete man auf den 80 nm Prozess. Sonst waeren halbe oder 3/4 Chips (vom HighEnd) einfach zu teuer. RV670 und G92 machen es diesmal genauso. Kommen etwas spaeter wegen der Wartezeit auf den besseren Prozess.

Was das Thema angeht: Haben wir schonmal diskutiert. Jeder Transistor kostet elektrische Leistung. Da die Grafikleistung sich parallelisieren laesst, bedeuten viele Transistoren = viel Performance. Im High End Bereich will man viel Performance, also bestehen die Dinger aus vielen Transistoren, ergo viel elektrische Leistung. Der Punch pro Transistor ist beim G80 (bedenkt man das D3D10 Featureset) exzellent.

Wenn man Strom sparen will, darf man natuerlich keine HighEnd Karte kaufen. Man muss die gewuenschte elektrische Leistung als Kauffaktor nehmen und danach die Auswahl treffen. Dann wird's nur eine IGP (extrem wenig P_el), Low Cost oder Midrange. Das ist ein ganz einfaches Prinzip, was naturwissenschaftlichen Gesetzen folgt.

Leute, die HighEnd Karten mit wenig elektrischer Leistung wollen, sollten sich ein wenig mit Halbleitertechnik auseinandersetzen.

Das ist mir klar, je mehr Transistoren desto mehr verbrauchen diese Strom.

Aber die Spirale darf nicht endlos nach oben gehen. Und das gelingt hoffentlich immer mit den Refresh Chips, wo in neuer Fertigungstechnik kommen :)

Gast
2007-09-26, 09:50:57
Das ist mir klar, je mehr Transistoren desto mehr verbrauchen diese Strom.

Aber die Spirale darf nicht endlos nach oben gehen. Und das gelingt hoffentlich immer mit den Refresh Chips, wo in neuer Fertigungstechnik kommen :)
Die neue Fertigungstechnik kann das abmildern, vielleicht bei einer Generation die Leistungsaufnahme senken bei steigender Leistung. Danach wirds aber wieder nach oben gehen. Bis jetzt ist die Leistungsaufnahme immer kontinuierlich gestiegen, obwohl die Fertigungsprozesse viel besser geworden sind. Das wird auch irgendwann in Zukunft den Fortschritt bremsen. Je härter die Kriterien bzgl. maximale Leistungsaufnahme und Entwicklungskosten sind, desto früher ist Schicht im Schacht.
Denke nicht, dass jemals Beschleuniger die mehr als 300 Watt aufnehmen sich im Home-Entertainment durchsetzen. Da dürften schon die steigenden Energiekosten einen Riegel vorschieben.
Ist schon scheiße, da wo Energie satt da war, da brauchten die PCs kaum Saft, da nur Taschenrechnerleistung und jetzt ist es gerade umgekehrt.

drdope
2007-09-26, 10:03:32
Was das Thema angeht: Haben wir schonmal diskutiert. Jeder Transistor kostet elektrische Leistung. Da die Grafikleistung sich parallelisieren laesst, bedeuten viele Transistoren = viel Performance. Im High End Bereich will man viel Performance, also bestehen die Dinger aus vielen Transistoren, ergo viel elektrische Leistung. Der Punch pro Transistor ist beim G80 (bedenkt man das D3D10 Featureset) exzellent.

[...]

Leute, die HighEnd Karten mit wenig elektrischer Leistung wollen, sollten sich ein wenig mit Halbleitertechnik auseinandersetzen.

Ich glaub den wenigsten hier gehts um die Leistungaufnahme unter Last, sondern eher um die abartig hohen Idle Verbräuche, die imho nicht sein müßten.

Was spricht aus technischer Sicht dagegen; im 2D/Desktop-Betrieb oder bei Videowiedergabe nicht benötigte Teile des Chips zu deaktivieren & dynamisch je nach Lastzustand Spannung & Takraten anzupassen?

robbitop
2007-09-26, 10:07:58
Was spricht aus technischer Sicht dagegen; im 2D/Desktop-Betrieb oder bei Videowiedergabe nicht benötigte Teile des Chips zu deaktivieren & dynamisch je nach Lastzustand Spannung & Takraten anzupassen?
Dagegen spricht ueberhaupt nichts. Das sollte IMO auch so sein.

Thunder99
2007-10-02, 10:40:49
Wird wahrscheinlich dann erst möglich sein, wenn das Konzept der Multi GPU Cores durchsetzt bzw auf den Markt kommt.

2D "1" Core / 3D "max" Core´s

AMD/ATI will ja in diese Richtung gehen

robbitop
2007-10-02, 11:44:04
Es lohnt gar nicht fuer 2D einen extra Kern zu fertigen. Die Flaeche reicht kaum aus, um das Pad breit genug fuer die noetigen Balls zu machen.
Wenn etwas Ernsthaftes (und nicht soetwas wie AFR/SFR/Supertiling) in die Richtung passiert, etwas das sehr gut skaliert und wirtschaftlich bleibt, dann werden es mehrere Kerne auf einem Package. Allerdings muss es vorher eine bezahlbare Leosung fuer einen Interbus mit mehreren hundert GiB/s geben. (und das bezahlbar) Das wird noch dauern.
Das Problem dabei ist, dass mit immer schnelleren GPUs die Anforderung an die Performance des Busses immer mehr steigen (also dann tausende, zehntausende ect GiB/s). Ein weiteres Problem ist, dass Verdrahtungen im Gegensatz zu Halbleitererzeugnissen nicht billiger werden. (das ist auch der Grund, warum man bsw in Konsolen zuerst lieber hochgetakteten teuren RAM mit einem schmalen SI verbindet. Die hochgetakteten RAMs werden billiger, das SI nicht)

Ich bin da aeusserst skeptisch.

AnarchX
2007-10-02, 11:51:32
Imo wird Hybrid-SLI bzw. ähnliche Konzepte die Stromspartechnologie bei GraKas in der Zukunft sein. Einfacher geht es ja gar nicht und das Ergebnis ist mehr als überzeugend. :D

robbitop
2007-10-02, 11:54:24
Das man sich dann fuer so einen banalen Kram dann auch noch feiern laesst, finde ich wiederum lustig. ;)

AnarchX
2007-10-02, 13:23:57
Selbst banale Dinge können halt einen großen Erfolg haben.

Aber imo ist es auch eine gewisse Notwenigkeit, da das neue Design(G8x) wohl nicht so einfach mit Stromsparmechanismen kombinierbar ist wie noch CineFX.

Und wenn man noch dazu bedenkt, dass man bald 3-Wege-SLI anbieten will, sind selbst für einen Enthusiasten, in den Zeiten des Energiesparens, die 200W+, die 3 Ultras im Idle verbrauchen würden, doch etwas zu viel.

robbitop
2007-10-02, 13:43:21
Gerade Banale Dinge haben Erfolg. IMO ist das eine Selbstverstaendlichkeit, die man schon lange haette bringen sollen.

Gast
2007-10-02, 20:24:06
Gab es letzte Generation auch nicht. Bei NV wartete man auf den 90 nm Prrozess, bei ATI wartete man auf den 80 nm Prozess. Sonst waeren halbe oder 3/4 Chips (vom HighEnd) einfach zu teuer. RV670 und G92 machen es diesmal genauso. Kommen etwas spaeter wegen der Wartezeit auf den besseren Prozess.

Was das Thema angeht: Haben wir schonmal diskutiert. Jeder Transistor kostet elektrische Leistung. Da die Grafikleistung sich parallelisieren laesst, bedeuten viele Transistoren = viel Performance. Im High End Bereich will man viel Performance, also bestehen die Dinger aus vielen Transistoren, ergo viel elektrische Leistung. Der Punch pro Transistor ist beim G80 (bedenkt man das D3D10 Featureset) exzellent.

Wenn man Strom sparen will, darf man natuerlich keine HighEnd Karte kaufen. Man muss die gewuenschte elektrische Leistung als Kauffaktor nehmen und danach die Auswahl treffen. Dann wird's nur eine IGP (extrem wenig P_el), Low Cost oder Midrange. Das ist ein ganz einfaches Prinzip, was naturwissenschaftlichen Gesetzen folgt.

Leute, die HighEnd Karten mit wenig elektrischer Leistung wollen, sollten sich ein wenig mit Halbleitertechnik auseinandersetzen.



Das ist aber leider nur zu einem gewissen Teil richtig, der Verbrauch an sich hängt vom anpassen an die Fertigungsstruktur ab. Auch wird die Leistung Pro Watt sicher stark steigen wenn ich eine 8800Ultra so weit runter takte und so stark die Spannung senke das ich an den Verbrauch einer 8600GTs ran komme, mit dem Ergebniss das die ausgebremste 8800er immer noch ein Stück schneller sein wird als eine 8600er. Daraus kann man schließen das mehr Trans.= Effizienter. Natürlich kostet das, weil ich ja viel mehr Fläche auf dem Wafer brauche.........



Gast

robbitop
2007-10-02, 21:00:18
Nunja dass die Leistungsaufnahme auch vom Prozess abhaengt, ist klar. Solche Grundlagen erlaeutere ich nicht.

drdope
2007-10-03, 07:26:12
Gerade Banale Dinge haben Erfolg. IMO ist das eine Selbstverstaendlichkeit, die man schon lange haette bringen sollen.

Imho ist da ja nichts wirklich neues, die Trennung 2D/Desktop und dedizierte 3D-Karte gab ja schon mal zu Anfangszeiten der 3D-Beschleuniger Karten...

adamba
2007-10-11, 13:11:35
Imho ist da ja nichts wirklich neues, die Trennung 2D/Desktop und dedizierte 3D-Karte gab ja schon mal zu Anfangszeiten der 3D-Beschleuniger Karten...
Genau, back to the roots!
Was damals funktioniert hat und von den Kunden akzeptiert wurde sollte sich auch ein weiteres Mal (relativ) problemlos am Markt etablieren lassen.

35007
2007-10-11, 17:58:29
Eine Vistacard die genau genügend Power hat um Vista und Aero zu beschleunigen wäre echt prima. Die würde sicher mit 10W in Last realisieren lassen.

Oder gleich IMMER eine Onboard Lösung, die jedoch nur Videobeschleunigung und Aero beherrscht. Falls man zocken möchte, braucht man in der Regel sowieso eine extra Grafikarte, die aber im 2d Betrieb komplett deaktiviert wird.

Stellen wir uns mal so eine Onboardlösung in 45nm Strukturbreite vor. Welche abwärme hätte sie etwa? 2 Watt?

35007

AnarchX
2007-10-11, 18:29:56
AMDs aktueller 690G (80nm) hat mit beiden Chips AFAIK eine maximale TDP von 11W. ;)

35007
2007-10-11, 22:34:36
Ich würde sehr gerne handlsübliche Mainboards im mini DTX Design sehen, die nur das nötgste haben. Sprich:

Sata Controller für 2 Ports, kein IDE, nur 1 Lanport, kein Com, keine PS/2 Ports und 4 USB Ports + IGP mit einem HDMI Out (platzsparend)

Ein solch minimalistisches System mit 2.5" Platte und sehr kleinen AMD-BE Prozzi würde mich total reizen. Aber warscheinlich steh ich damit auch ziemlich alleine dar.

35007

AMDs aktueller 690G (80nm) hat mit beiden Chips AFAIK eine maximale TDP von 11W. ;)