PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Leistungsaufnahme: zukünftig nur nach oben?


blackbox
2008-09-16, 11:40:34
Moin!
Hier soll es weder darum gehen, dass die GPUs zu viel "Strom" ziehen noch um eine Diskussion für eine möglichst niedrige Leistungsaufnahme.

Die Eingangsfrage lautet:
Kennt der Weg der Leistungsaufnahme bei GPUs nur eine Richtung: nach oben?

Momentan sieht es für uns Gamer so aus:
Die Leistungsaufnahme im mittleren und oberen Leistungsbereich steigt seit Jahren an. Bei Last sowieso, bei Idle haben Nvidia und ATI/AMD große Probleme, die Leistungsaufnahme zu beschränken. Auch hier steigt die Leistungsaufnahme kontinuierlich an. Abhilfe scheint ein Hybrid-Modus und Co. zu sein. Der aber auch nur im Idle-Zustand nützlich ist.

Die Grafik wird besser, ist die zwangsweise höhere Leistungsaufnahme also ohne Alternative?
Ich vergleiche das mit einem Auto: Will ich schneller fahren, steigt die dafür benötigte Energie, sprich man braucht einen dicken Motor und der Benzinverbrauch steigt. Nun gibt es das Hybridauto, das seine Vorteile in der Stadt ausspielen kann.
Beim Auto geben wir uns mit einer bestimmten Geschwindigkeit zufrieden. Bei der Grafik ist diese Schwelle noch nicht erreicht.

Bei den CPUs hat man es sogar geschafft, bei einer geringeren Leistungsaufnahme eine höhere Effizienz zu erreichen.
Bei den Grafikkarten scheint das nicht machbar zu sein.

Müssen wir uns zukünftig also auf eine immer höhere Leistungsaufnahme einstellen? Brauchen wir in 5 Jahren spezielle Stromanschlüsse, wie sie es für den Herd in der Küche schon gibt?
Wo sind hier die Grenzen? bei der Kühlung? Beim Strompreis? Bei der Steckdose?
Ist die Hoffnung auf eine niedrigere Leistungsaufnahme also hoffnungslos?

Alexander
2008-09-16, 11:50:40
Eine interessante Frage. Nehmen wir Karten mittlerer Leistungsklasse:
7900GT-->3850-->4850
Der Verbrauch steigt. Im Idle werden die Karten vielleicht irgendwann komplett abschalltbar sein (Onboardgraka koomt zum Einsatz), aber unter last sieht es schlimm aus. Es bringt noch nicht mal mehr etwas auf die neueren Modelle bei gleicher Leistung "umzusteigen" (3850 auf 4670). Der Verbrauch ist nicht gesunken.

Gast
2008-09-16, 11:54:21
Es bringt noch nicht mal mehr etwas auf die neueren Modelle bei gleicher Leistung "umzusteigen" (3850 auf 4670). Der Verbrauch ist nicht gesunken.

Der Fertigungsprozess ist ja auch der selbe.

Sorkalm
2008-09-16, 12:17:48
Eine interessante Frage. Nehmen wir Karten mittlerer Leistungsklasse:
7900GT-->3850-->4850
Der Verbrauch steigt. Im Idle werden die Karten vielleicht irgendwann komplett abschalltbar sein (Onboardgraka koomt zum Einsatz), aber unter last sieht es schlimm aus.

Das liegt aber insbesondere auch daran, dass der Verkaufspreise der Grafikkarten stark gesunken ist. Früher hätte man sicher die Mittelklasse-Grafikkarten bis 200 Euro verkauft, heute gibts die nur noch unter 100 Euro. Die kleineren Modelle werden doch sogar oft als nicht spielefähig eingestellt, obwohl das eigentlich totaler Quatsch ist. OK, früher bei höherem Verkaufspreis wären die Karten dann vllt. mit etwas schnellerem Speicher ausgestattet wurden (z. B. 4650 mit günstigem GDDR3 statt DDR2), aber dies ist eben auch ein Effekt der durch die niedrigeren Preise zu Stande kommt. Man kauft halt die Modelle mit den größeren Chips jetzt zu Preisen die früher Mainstream-Chips gekostet haben.


Es bringt noch nicht mal mehr etwas auf die neueren Modelle bei gleicher Leistung "umzusteigen" (3850 auf 4670). Der Verbrauch ist nicht gesunken.

Doch, der Verbrauch ist gesunken. Misst jedenfalls jede Seite, die einzige Ausnahme die ich kenne ist Computerbase. Und man muss auch beachten, dass das noch der selbe Fertigungsprozess ist.

Gast
2008-09-16, 12:38:02
Ich glaube man muss das so sehen:

Der momentane Leistungszuwachs der aktuellen Grafikkarten basiert im wesentlichen auf 3 Dingen:

Erstens: Durch Architekturverbesserungen kann die Leistung bei gleichbleibender Hitzeentwicklung/Transistorzahl gesteigert werden.
Dies ist hat in letzter Zeit jedoch kaum Auswirkungen auf die Leistung gehabt, da wir immer noch mit den alten anfänglichen DX10 Architekturen leben müssen.

Zweitens: Durch schrumpfen der Fertigungsgrößen können mehr Transistoren bei gleichem Takt, oder mehr Takt bei gleicher Transistoranzahl verbaut werden. Wenn man beide Komponenten gleich lässt, sinkt die Leistungsaufnahme.
Ergo, die Energieeffizienz pro Transistor und Taktzyklus steigt.
Diese Entwicklung zieht sich natürlich wie ein roter Faden durch alle Grafikkartenentwicklungen, wenn möglich wird die Strukturgröße geschrumpt, somit wird eine höhere Leistung erreicht.

und Drittens:
Durch schlichtes Verbauen von mehr Transistoren mit gleichem Fertigungsprozess.
Hierdurch wird Leistungssteigerung auf Kosten der Leistungsaufnahme betrieben, was so natürlich nicht ewig weitergehen kann, da uns die Kühlung Grenzen setzt.
Diese Entwicklung hat meiner Meinung nach schon fast ihren Zenit erreicht, da z.B. die 4870X2 sich nur mehr sehr schwer kühlen lässt.
Hier ist trotz hochwertiger Kühlermaterialien die (Luft)Kühlung an ihrer Grenze angelangt und kann, wenn überhaupt, nur mehr leicht verbessert werden.
Diesem Faktor ist meiner Meinung nach die größte Leistungssteigerung zuzuschreiben, da in letzter Zeit hauptsächlich über diese Methoden mehr Leistung erreicht wurde.


Das Resultat dieser 3 leistungssteigernden Faktoren ist, dass die Gesamtleistung moderner Grafikkarten so stark gestiegen ist.
Wenn jetzt dieser dritte Faktor an seiner Grenze angekommen ist und nicht mehr weiter gesteigert werden kann, bleiben nur noch die ersten zwei.

Somit werden wir uns meiner Meinung nach in der Zukunft mit nur mehr geringer steigernder Performance zufrieden geben müssen.
Die einzige Ausnahme sind natürlich wenn mal wieder ein größeres Architekturupdate kommt und dadurch einen Sprung in der Gesamtleistung macht.

Cyphermaster
2008-09-16, 12:46:04
Rechenleistung entsteht nicht aus dem Nichts - und aus dem Zusammenspiel zwischen Leistung und Fertigungsprozeß entsteht dann der grobe Rahmen, in dem die Karten liegen. Soo weit weg vom Ziel werden die Effizienzen bei verschiedenen Architekturen nicht liegen.

Palpatin@work
2008-09-16, 13:17:53
Ich glaube man muss das so sehen:

Der momentane Leistungszuwachs der aktuellen Grafikkarten basiert im wesentlichen auf 3 Dingen:

Erstens: Durch Architekturverbesserungen kann die Leistung bei gleichbleibender Hitzeentwicklung/Transistorzahl gesteigert werden.
Dies ist hat in letzter Zeit jedoch kaum Auswirkungen auf die Leistung gehabt, da wir immer noch mit den alten anfänglichen DX10 Architekturen leben müssen.

Zweitens: Durch schrumpfen der Fertigungsgrößen können mehr Transistoren bei gleichem Takt, oder mehr Takt bei gleicher Transistoranzahl verbaut werden. Wenn man beide Komponenten gleich lässt, sinkt die Leistungsaufnahme.
Ergo, die Energieeffizienz pro Transistor und Taktzyklus steigt.
Diese Entwicklung zieht sich natürlich wie ein roter Faden durch alle Grafikkartenentwicklungen, wenn möglich wird die Strukturgröße geschrumpt, somit wird eine höhere Leistung erreicht.

und Drittens:
Durch schlichtes Verbauen von mehr Transistoren mit gleichem Fertigungsprozess.
Hierdurch wird Leistungssteigerung auf Kosten der Leistungsaufnahme betrieben, was so natürlich nicht ewig weitergehen kann, da uns die Kühlung Grenzen setzt.
Diese Entwicklung hat meiner Meinung nach schon fast ihren Zenit erreicht, da z.B. die 4870X2 sich nur mehr sehr schwer kühlen lässt.
Hier ist trotz hochwertiger Kühlermaterialien die (Luft)Kühlung an ihrer Grenze angelangt und kann, wenn überhaupt, nur mehr leicht verbessert werden.
Diesem Faktor ist meiner Meinung nach die größte Leistungssteigerung zuzuschreiben, da in letzter Zeit hauptsächlich über diese Methoden mehr Leistung erreicht wurde.


Das Resultat dieser 3 leistungssteigernden Faktoren ist, dass die Gesamtleistung moderner Grafikkarten so stark gestiegen ist.
Wenn jetzt dieser dritte Faktor an seiner Grenze angekommen ist und nicht mehr weiter gesteigert werden kann, bleiben nur noch die ersten zwei.

Somit werden wir uns meiner Meinung nach in der Zukunft mit nur mehr geringer steigernder Performance zufrieden geben müssen.
Die einzige Ausnahme sind natürlich wenn mal wieder ein größeres Architekturupdate kommt und dadurch einen Sprung in der Gesamtleistung macht.

So in etwa hab ich das schon vor 3-4 Jahren geschrieben, jetzt ist man bei 300 Watt angelangt und noch immer kein Ende in sicht. 500 Watt TriSlotkühler und Chips die auch bei 140 Grad noch nicht schlappmachen..... da ist immer noch gut Luft nach oben :)

rad05
2008-09-16, 13:25:04
Die Energieaufnahme steigt nicht nur seit ein paar Jahren, sondern seit Beginn. Mein erster i486 hatte einen kleinen Kühlkörper ohne Lüfter. Grafikkarten hatten damals nicht einmal Kühlkörper.
Ohne bessere Kühlmethoden im Laufe der Jahre, würde es schon lange keine Leistungssteigerungen mehr geben. Eine wesentliche Reduzierung der Leistungsaufnahme wird es nicht geben. Kleinere Fertigungsstrukturen können zwar zu weniger Energieaufnahme führen, aber die Reduzierung wird durch die Energieaufnahme von zusätzlichen Transistoren wieder aufgefressen.

Popeljoe
2008-09-16, 13:35:05
Abstellbare IGPS sollten Pflicht sein!
Mich wundert es, dass im Grunde uralte Konzepte (Voodoo II) nicht weitergeführt worden sind.
Spart immens Strom und sollte recht einfach zu lösen sein.
Die Frage ist imo dennoch, ob die Verbesserungen der Grafik einen derartigen Mehrbedarf an Strom rechtfertigen.
Meine olle X1800XT galt bei Erscheinen als Stromfresser und verbraucht genausoviel, wie eine 3850.
Diese wiederrum galt bei Erscheinen als Stromsparwunder...
Mir persönlich würde eine wirklich stromsparende Graka wichtiger sein, als ein reines Leistungsmonster, also gleiche Leistung wie 3850 und dabei weniger Verbrauch durch weiter entwickelte Technik.

Momentan wird imo sowieso versucht mangelnde Qualität der Spiele durch massive Grafikeffekte auszugleichen. Das geht auch nicht mehr lange gut.

Gast
2008-09-16, 13:46:57
Die Grafik wird besser, ist die zwangsweise höhere Leistungsaufnahme also ohne Alternative?
Ich vergleiche das mit einem Auto: Will ich schneller fahren, steigt die dafür benötigte Energie, sprich man braucht einen dicken Motor und der Benzinverbrauch steigt. Nun gibt es das Hybridauto, das seine Vorteile in der Stadt ausspielen kann.


nunja, im prinzip machen die hybridmodi mit IGP doch ähnliches. in der "stadt" (also desktop/video) geben wir uns mit ausreichender geschwindigkeit zufrieden und benutzen den sparsamen motor (IGP) oder schalten einige "zylinder" ab um den rennmotor (GPU) möglichst sparsam zu machen.
auf der "rennstrecke" (spiel) fahren wir dann volles rohr, was natürlich entsprechend energie kostet.


Beim Auto geben wir uns mit einer bestimmten Geschwindigkeit zufrieden. Bei der Grafik ist diese Schwelle noch nicht erreicht.

es ist nicht nur die geschwindigkeit sondern auch der "ort" an dem wir mit unserer grafikkarte "fahren". während wir in der anfangszeit der 3d-grafik noch aus "asphaltierten straßen" unterwegs waren wollen wir nun immer tiefer werdendes gelände erkunden, was natürlich überproportional viel leistung kostet.


Bei den CPUs hat man es sogar geschafft, bei einer geringeren Leistungsaufnahme eine höhere Effizienz zu erreichen.
Bei den Grafikkarten scheint das nicht machbar zu sein.

auch bei GPUs wird sogar extrem viel effizienter (mit ein paar kleinen außnahmen vielleicht), klar steigt der stromverbrauch an, die leistung aber um sehr viel mehr. CPUs stehen leistungsmäßig seit jahren auf der stelle und brauchen dafür ein bischen weniger strom.
der angeblich so tolle effinzienzssprung beim Core2 sieht auch nur dadurch so aus, weil sein vorgänger eben extrem ineffizient war. verglichen mit den cpus davor ist der stromverbrauch immer noch stark gestiegen. auch hier ist die effizienz gestiegen, aber bei weitem nicht so stark wie bei GPUs



Müssen wir uns zukünftig also auf eine immer höhere Leistungsaufnahme einstellen? Brauchen wir in 5 Jahren spezielle Stromanschlüsse, wie sie es für den Herd in der Küche schon gibt?
Wo sind hier die Grenzen? bei der Kühlung? Beim Strompreis? Bei der Steckdose?
Ist die Hoffnung auf eine niedrigere Leistungsaufnahme also hoffnungslos?

das hängt von vielen faktoren ab. ich denke im highend sind wir schon fast am limit angelangt, je nach konkurrenzsituation werden wir im mittleren leistungsbereich aber wohl noch die eine oder andere steigerung erleben.

viel hängt natürlich von der aktuellen marktsituation ab. so lange es 2 ähnlich starke IHVs gibt wird man immer am limit operieren. ist einer der klare marktführer und der andere der underdog, wie es bei den cpus der fall ist, hat man natürlich viel mehr spielraum die leistungsaufnahme auch etwas zu senken.

das sieht man am cpu-markt momentan sehr schön, intel hat es nicht notwendig die fortschritte der 45nm-fertigung in leistung umzusetzen sondern kann sich ganz darauf konzentrieren damit den stromverbrauch zu senken.

Gast
2008-09-16, 13:49:42
Meine olle X1800XT galt bei Erscheinen als Stromfresser und verbraucht genausoviel, wie eine 3850.
Diese wiederrum galt bei Erscheinen als Stromsparwunder...

seit wann gilt die 3850 als stromsparwunder? die leistungsaufnahme/frame lag immer mehr oder weniger deutlich über der NV-konkurrenz, einzig der 2D-modus hat im idle den verbrauch ganz schön gesenkt.

Gast
2008-09-16, 13:55:20
Meine olle X1800XT galt bei Erscheinen als Stromfresser und verbraucht genausoviel, wie eine 3850.
Ein paar W liegen schon noch dazwischen oder du meinst die 4850. ;)
http://www.xbitlabs.com/articles/video/display/gainward-bliss9600gt-512gs_7.html#sect0
http://www.xbitlabs.com/articles/video/display/geforce7900gtx_6.html#sect0

Wurschtler
2008-09-16, 14:17:15
Was mich wundert: Wieso werden keine sparsamen Grafikkarten wie sie in Notebooks verbaut werden als Desktop-Version angeboten?

Die Nachfrage dafür ist doch bestimmt vorhanden.

Cyphermaster
2008-09-16, 14:32:11
Vielleicht. Aber wer zahlt die höheren Preise für weniger Leistung (die Notebook-Modelle sind allesamt beschnitten...)?

Wurschtler
2008-09-16, 14:33:37
Vielleicht. Aber wer zahlt die höheren Preise für weniger Leistung (die Notebook-Modelle sind allesamt beschnitten...)?


Mir wäre es das wert.

rad05
2008-09-16, 17:08:33
Was mich wundert: Wieso werden keine sparsamen Grafikkarten wie sie in Notebooks verbaut werden als Desktop-Version angeboten?

Die Nachfrage dafür ist doch bestimmt vorhanden.

Die Notebook-GPUs sind meistens beschnittene Desktopchips mit niedrigerem Takt die zusätzlich noch nach Energieaufnahme selektiert sind. Eine Notebook NV 9600er ist eigentlich eine Desktop 9500er. Da wird kräftig geschummelt. Es gibt eigentlich keine dezidierten Notebook-Chips.

Außerdem kosten Notebook-Chips auf Grund der Selektion wesentlich mehr.

Anstatt der Mobillösung kannst du also einfach zur nächst kleinern Version greifen, dann hast du genau das, was du vorschlägst.

Chris2CB
2008-09-16, 17:28:47
Mir wäre es das wert.


Äh..das kannst du doch selbst machen, abgesehen davon das der Takt gesenkt wird um eine niedrige Spannung zu realisieren, gibts da nicht viel zu machen.

PowerPlay oder ähnliches gibts ja schon für den Dektop Berreich

Eine GTX280 kann man bei 400MHz sicher sehr gut undervolten um den Verbrauch radikal zu senken.


Leistung/Verbrauch Verhältniss ist heute viel besser als für 6 Jahren.

Nicht mit eingerechnet ist der große Bedarf an Speicherkapazität aktueller Chips, man sieht ja das eine HD 4870 damit Probleme hat, da die 1 gb Version mehr in Idle verbraucht als die 512mb Variante. Mit 64mb hätte die sicher auch sehr gute Werte.

Schaut euch mal heute eine GTX 280an oder HD 4870 und dagegen eine 5800Ultra..........

X-Force
2008-09-16, 17:42:44
da die grafikchips ja im hohen maße parallelisiert sind, sollte es doch möglich sein von bsp 8 clustern 7 abzuschalten sowie den speicher auf 64/128 mb zu beschränken solange man nicht zockt

nomadhunter
2008-09-16, 17:48:13
Wie teuer ein Chip ist, hängt vor allem von seiner Größe ab. Während sich die Fertigungsprozesse regelmäßig ändern und der einzelne Transistor immer billiger wird, ist der Preis pro cm² Chip einigermaßen konstant geblieben. Der typische Mittelklassekäufer, der seine Grafikkarten z.B. immer im Bereich 150-200€ kauft, kauft dementsprechend heute eine GPU, die ungefähr (!) gleich groß ist, wie die GPU, die er vor 5 Jahren gekauft hat. Durch kleinere Fertigungsprozesse sind auf dieser Fläche aber viel mehr Transistoren pro cm² als früher, und vor allem ist der Energieverbrauch pro cm² höher als früher.

Deswegen bin ich der Meinung, dass der Verbrauch auch in Zukunft noch weiter steigen wird, bis es einfach irgendwann problematisch ist. Bei CPUs haben wir das ganze doch gesehen. Innerhalb weniger Jahre war der Verbrauch einer typischen CPU der gehobenen Mittelklasse von vielleicht 30W auf ~100W gestiegen und das wäre wohl auch so weiter gegangen. Nur sind im Bereich über 100W dann einfach massive Kühlungsprobleme aufgetreten und die Kunden sind darauf aufmerksam geworden, dass sich der Verbrauch ihrer CPU inzwischen spürbar auf der Stromrechnung niederschlägt. Zudem ist man seit einiger Zeit bei Consumer-PCs in der Situation, dass selbst billigste CPUs noch genügend Leistungsreserven haben und die Leistung der Oberklasse-CPUs niemand mehr braucht. Deswegen hat sich der Verbrauch fast aller Consumer-CPUs inzwischen in einem Bereich von 45-65W eingependelt.

Bei Grafikkarten sind wir dagegen noch nicht so weit. Ich vermute, dass der Verbrauch noch eine Zeit lang ansteigen wird, bis auch bei Mittelklasse-Modellen (die heute noch Single-Slot-gekühlt sind) die Wärmeabfuhr zu aufwendig wird und die Konsumenten beim Kauf verstärkt auf den Verbrauch achten. Außerdem wird man die Mehrleistung neuer GPUs in näherer Zukunft immer nutzen können, deswegen wird der Verbrauch nicht plötzlich deutlich absinken, wie das bei den CPUs jetzt der Fall war.

Gast
2008-09-17, 17:46:36
auch dies wird sich ändern, solange es gut geht wird immer in die gleiche richtung
entwickelt, im grunde in jeder branche, sobald etwas nicht mehr funktioniert, sprich
der absatz bricht aus irgendwelchen gründen ein - technisch nicht mehr machbar - etc,
sucht man nach alternativen wegen das gleiche auf eine andere weise zu erreichen

also abwarten wo der break even point für die graka stromaufnahme sein wird, ich
glaube_ bei den cpus war es der p4 ?!

Avalox
2008-09-17, 18:21:41
Abstellbare IGPS sollten Pflicht sein!
Mich wundert es, dass im Grunde uralte Konzepte (Voodoo II) nicht weitergeführt worden sind.


Wird es doch. Natürlich ohne Kabelsalat hinter dem Rechner.
Aber nVidia, wie auch ATI arbeiten an 3D Karten ohne Monitoranschluss, welche nur noch dem Onboard Grafikadapter den Speicher füllen.
So wird es in Zukunft aussehen.

Coda
2008-09-17, 19:15:27
Weiß nicht ob das so eine gute Idee ist. Dadurch wird die Ausgabelatenz nochmals erhöht.

Sorkalm
2008-09-17, 19:53:40
Während sich die Fertigungsprozesse regelmäßig ändern und der einzelne Transistor immer billiger wird, ist der Preis pro cm² Chip einigermaßen konstant geblieben. Der typische Mittelklassekäufer, der seine Grafikkarten z.B. immer im Bereich 150-200€ kauft, kauft dementsprechend heute eine GPU, die ungefähr (!) gleich groß ist, wie die GPU, die er vor 5 Jahren gekauft hat.

Das stimmt doch gerade nicht, auch nicht ungefähr. Im Bereich von 150-200€ erhalte ich zur Zeit Chips mit einer Die-Fläche von 256 mm² (RV770) bis 576 mm² (GT200). Vor 5 Jahren waren aber selbst die High-End-GPUs (in dem Fall würde ich R350 als Vergleich ansetzen, der lag so bei 220 mm²), und in diesem Bereich bekam man die kleineren Mittelklasse-GPUs bis maximal 150 mm².

Deutliche Unterschiede, die die Hauptursache sein dürften...

Matrix316
2008-09-17, 21:12:17
Wird es doch. Natürlich ohne Kabelsalat hinter dem Rechner.
Aber nVidia, wie auch ATI arbeiten an 3D Karten ohne Monitoranschluss, welche nur noch dem Onboard Grafikadapter den Speicher füllen.
So wird es in Zukunft aussehen.
Ob der PCIe Bus dafür ausreicht? Es geht ja auch um Laufwege.

Avalox
2008-09-17, 21:27:05
Ob der PCIe Bus dafür ausreicht? Es geht ja auch um Laufwege.


Was für Laufwege? Die Bandbreite reicht dicke. Wird ja heute auch schon so gemacht. Verschiedene Crossfire Lösungen schaufeln z.B. den Framebuffer über den Bus.

Mir fällt der Name der sich grade in Entwicklung befindlichen nVidia Technik nur nicht ein.
macht ja auch grossen Sinn. Eine GPGPU braucht keinen Monitor Ausgang. Dem Stadium ist die GPU nun wirklich entwachsen. Die GPU wird ein universeller CoProzessor zum nachstecken. Der hat intern zu kommunizieren, nicht extern und wenn er nicht gebraucht wird hat er zu schlafen. Wenn ein CoProzessor nicht reicht, steckt man halt eine zweite, dritte oder vierte CoProzessor Karte in das System.

Matrix316
2008-09-17, 21:36:01
Ne GPU kann ja intern kommunizieren, aber das Zeug muss ja auch ins VRAM, und wenn der VRAM zu weit weg ist von der GPU...bei Crossfire isser ja auf der Karte selbst mit drauf.

nomadhunter
2008-09-17, 21:39:20
Das stimmt doch gerade nicht, auch nicht ungefähr. Im Bereich von 150-200€ erhalte ich zur Zeit Chips mit einer Die-Fläche von 256 mm² (RV770) bis 576 mm² (GT200). Vor 5 Jahren waren aber selbst die High-End-GPUs (in dem Fall würde ich R350 als Vergleich ansetzen, der lag so bei 220 mm²), und in diesem Bereich bekam man die kleineren Mittelklasse-GPUs bis maximal 150 mm².

Deutliche Unterschiede, die die Hauptursache sein dürften...
250mm²* zu 150mm² ist das, was ich mit "ungefähr gleich" meinte. Das ist eine Steigerung um lächerliche 2/3 in ~5 Jahren und damit relativ egal. In der gleichen Zeit ist die Transistormenge in der 200€-Klasse etwa um den Faktor 10 gewachsen, die Rechenleistung wahrscheinlich um noch mehr.

*Den GT200 sehe ich als Ausnahme an. Der Chip war zur Zeit seiner Einführung eigentlich in der 400-500€ Klasse angesiedelt und wird jetzt quasi notgedrungen für 210€ "verschleudert" (im übrigen auch nur als kastriertes Modell), weil man keinen gescheiten Chip in der Preisklasse hat. Würde NVIDIA jetzt einen Chip speziell für die 200€-Klasse entwickeln, hätte der wahrscheinlich auch unter 300mm².

nomadhunter
2008-09-17, 21:42:20
macht ja auch grossen Sinn. Eine GPGPU braucht keinen Monitor Ausgang. Dem Stadium ist die GPU nun wirklich entwachsen. Die GPU wird ein universeller CoProzessor zum nachstecken. Der hat intern zu kommunizieren, nicht extern und wenn er nicht gebraucht wird hat er zu schlafen. Wenn ein CoProzessor nicht reicht, steckt man halt eine zweite, dritte oder vierte CoProzessor Karte in das System.
Sehe ich auch so. In Zukunft wird die GPU auch bei Privatanwendern für viele Dinge benutzt werden (Video-Encoding und Folding@home gehen z.B. ja heute schon), die mit Grafik nichts zu tun haben. Deswegen wird man wohl den Rechenteil (GPU, VRAM) komplett vom Ausgabeteil (der dann auch auf dem Mainboard sitzen kann) trennen.

Avalox
2008-09-17, 21:45:07
.bei Crossfire isser ja auf der Karte selbst mit drauf.


Nein. Je nach Crossfire Variante werden die Daten über den Systembus (sogar PCIe 1) geschickt.
Z.B: bei Crossfire mit 4 Karten. Wo es eine Variante mit einer direkten Verbindung nur zwischen 2 x 2 Karten gibt.

RavenTS
2008-09-22, 12:45:58
Weiß nicht ob das so eine gute Idee ist. Dadurch wird die Ausgabelatenz nochmals erhöht.

Sollte man das nicht beispielsweise durch irgendeinen speziellen "Pfad" ausgleichen können, also das die Daten nicht über PCIe müssen sondern es eine einfache ausreichend kleine, aber eben sehr schnelle Verbindung zwischen dem Ausgabeteil aufm MoBo und der GPU gibt. Wäre doch mal wieder nur eine Frage der Standardisierung dann...

Coda
2008-09-22, 15:33:11
Das ändert ja nichts an der Latenz. Kopiert werden in einen zweiten Backbuffer muss dann immer.

Lonesloane
2008-09-24, 10:28:43
Also meine 4850 war schon eine neue Qualität beim Stromverbrauch gegenüber der Vorgängerin 3870. Theorethisch nicht weit auseinander, aber in der Praxis musste ich mein Netzteil entlasten, damit es lief.

Gast
2008-09-24, 11:23:09
Das ändert ja nichts an der Latenz. Kopiert werden in einen zweiten Backbuffer muss dann immer.
Könnte man bei einer konsequent darauf ausgelegten Lösung - meinetwegen sogar mit SLI-Brücke zum Mainboard hin - nicht direkt den Framebuffer in einen RAM auf dem Board senden, während er noch befüllt wird anstelle ihn irgendwann wenn er fertig ist, komplett dorthin zu kopieren?

Gast
2008-09-24, 13:10:00
nicht direkt den Framebuffer in einen RAM auf dem Board senden, während er noch befüllt wird anstelle ihn irgendwann wenn er fertig ist, komplett dorthin zu kopieren?

dafür ist die erreichbare bandbreite viel zu gering.

Trap
2008-09-24, 13:10:08
Das ändert ja nichts an der Latenz. Kopiert werden in einen zweiten Backbuffer muss dann immer.
Einen 2560x1600 Frame mit 8 GB/s Bandbreite zu kopieren dauert 2ms.

Außerdem könnte man theoretisch parallel kopieren und ausgeben (mit etwas Puffer zwischen den Startzeitpunkten), DVI ist nicht so flott, solange man zum kopieren wenigstens 2x PCIe 2.0 hat, reicht das.

Gast
2008-09-24, 13:13:29
Was heißt denn hier nach oben...

die Leistungsaufnahme geht schon seit längerem nur nach unten. Warum? Weil ihr die gleiche Leistung bekommen könnt,die vor längerer Zeit nur die highend produkte geliefert haben.

Eine X1900 radeon war auch nicht gerade sparsam, mittlerweile liefern aber viele karte deutlich mehr leistung als eben diese karte.

Der Weg geht also nicht nach oben,weil es nicht anders ginge,sondern nur weil der Vergleich hier schlecht gewesen ist. :)
Eine 4870 ist mit welcher Karte aus der Vergangenheit vergleichbar? *gute Frage*
War die GX2 jemals sparsam?

Wenn ihr die gleiche Leistung haben wollt,geht der Verbrauch kaum nach oben,teilweise sogar stark nach unten.

Da ihr aber merkbare mehrleistung haben wollt,steigt der stromverbrauch bis er die grenzen der kühlung erreicht hat. Es wäre sicherlich möglich, eine heutige topkarte mit weniger takt und corespannung auszustatten,das senkt den verbrauch schon erheblich.Dann ist der Unterschied zum vorgänger nicht mehr so groß und es stellt sich immer der Frage; Würdet ihr für ein Produkt mehr bezahlen,wenn es vielleicht nur noch 5-20% schneller ist anstatt 50% ?