PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATi R600 und Stromverbrauch.


The Jackal
2006-10-27, 13:34:40
Wie hoch ist die Warscheinlichkeit das ATi's neues Monster nur einen PCIExpress Stromversorger braucht und nicht wie bei NV 2 PCIExp.

Das wird gluab ich das neue KO Kriterium sein für viele Käufer der HighEng Grafikkarten. Ich kann mich nicht vorstellen das die Kunden dieses Wattgeprügel mehr hinnehmen.

Bei Intel und AMD hat das umdenken schließlich auch begonnen.

Oder müssen die Firmen NV und ATi erst dicke auf die Schnautze fallen. (sehe Inter Netburst<=Wattburst):biggrin:

Ich gehe sowiet mal zu behaupten, bei diesen Wattzahlen wird für fast alle die Schmerzgränze erreicht sein:

CPU+ChipSet+RAM>>>>150Watt
GPU+GRAM>>>>>>>>>150Watt
Rest>>>>>>>>>>>>>50Watt

System mit einer GraKa 350>400Watt max
System mit 2GraKa 500>550Watt max
System mit 4GraKa 600>650Watt max
QuadXQuad 650>700Watt max

Höhere Leistungsaufnahmen wird wohl kein (selbst Entusiast) Mensch hinnehmen.

Da ist die NV 8800 mit ihren schätz ich mal 200Watt schon aus dem Rennen.

Gast
2006-10-27, 13:40:38
Das wird gluab ich das neue KO Kriterium sein für viele Käufer der HighEng Grafikkarten. Ich kann mich nicht vorstellen das die Kunden dieses Wattgeprügel mehr hinnehmen.Glaube ich weniger. Im High-End-Bereich interessiert der Stromverbrauch einfach nicht. Mir ist es auch völlig egal, hauptsache die Karte befriedigt meine Bedürfnisse, dann darf sie von mir aus auch so laut wie ein Flugzeug sein und 150W verbraten.

Übrigens glaube ich nicht, dass R600 stromsparender als G80 sein wird. Diese Angaben von "300W" sind zwar riesiger Unsinn, aber wirklich stromsparend wird trotzdem keiner von beiden sein.

Ronny G.
2006-10-27, 14:12:02
Die ATIler sind doch schon abgehärtet und wurden umfassend darauf vorbereitet, die wird das weniger jucken.

Wechselbalg
2006-10-27, 14:24:05
Nun. Wenn es bei CPUs möglich wäre diese (einigermaßen effektiv) so breit zu bauen, wie es bei Grafikkarten der Fall ist, dann würde es vermutlich auch etwas anders aussehen. Zumindest sind viele Logiktransistoren ja immer sehr riskant was Stromverbrauch angeht und auch einer der Gründe warum der Prescott ziemliche Probleme hatte.

Schaut man sich hingegen an, dass ein Barton mit 54,3 Millionen Transistoren bei einer Fertigungstechnologie von 0,13µm daherkommt, während ein Venice mit identischer Cachemenge 68,5 Millionen Transistoren bei 0,09µm bietet und dann noch mit SOI und ein paar anderen Dingen gearbeitet wurde, fällt auf, dass die Transistorzahlen nicht sehr stark stiegen, trotz des neuen Prozesses. Auch ein San Diego hat ja jetzt nicht mehr Logiktransistoren, sondern nur zusätzlichen Cache.

Wenn man hingegen sieht, dass bei Grafikkarten die gleichen Prozessschritte kamen (0,13->0,09µm), aber der R420 mit ~160 Millionen Transistoren antritt, während R580 ~380 Millionen mitbringt sieht man das Dillemma.

Ich bin jetzt auch nicht gerade begeistert von der Entwicklung, aber insgesamt ist am ehesten auf eine marktwirtschaftliche Lösung des ganzen zu hoffen. Da ich gerne ein leises und stromsparendes System kaufen würde, wäre wohl eine X1950 Pro das maximale was ich mir holen würde und noch eher eine X1800GTO. ^^ Aber die Leistungsklasse ist dann für viele schon wieder nicht interessant.

Schließlich um nicht vollkommen abzudriften. Nach den Gerüchten dürfte R600 wirklich eher noch mehr vebrauchen, doch was dran ist lässt sich natürlich kaum rausfinden. Aber solange kein viel fortgeschrittener Prozess verwendet wird und die Transistormengen steigen führt wohl kein Weg an höherem Stromverbrauch vorbei. Ansonsten muss man wohl oder übel auf die Refreshchips warten.

The Jackal
2006-10-27, 15:52:47
Aber es könnte den Herstellern passieren das einfach keiner (von den Prommillezahlen sehen wir ab) die Wattfresser kauft. Viele von den wirkilchen Hardcorezogga spielen ja immer noch Spiele die mitlerweile mehrere Jahre alt sind und nur updaten wenn das Spiel auch einem dramatischem Update unterzogen wird(UT 2003>>2004>>2007; HL>>HL2; CS>>CSS).

Es wird mehr drauf geguckt, wieviel Leistung brauch ich wirklich um meine 100FPS zu erreichen. Vieleicht tut es dann ja auch eine GraKa aus dem Mainstream bereich.

Ich war bis jetzt immer einer der das schnellste sich gekauft hat (abgesehen vom momentanem Rechner>>hat andere gründe). Doch ich sehe das Watt geprügel nicht mehr ein. Damit haben die auf jeden fall einen Kunden weniger.

Solange die Firmen nicht umdenken wie Intel mit dem Core2Duo werde ich immer zusehen das ich was kriege das max 150 Watt (75Watt PCIExp+ Zusatzstecker 75Watt) in Graka bereich schluckt.

Die NV 8800 GTX/(("GTS")<<fals mehr als 150Watt) sind schon jetzt aus dem Rennen für mich.

Gast
2006-10-27, 16:59:01
Wie hoch ist die Warscheinlichkeit das ATi's neues Monster nur einen PCIExpress Stromversorger braucht und nicht wie bei NV 2 PCIExp.


brauchen würde ich sagen nein, haben möglicherweise.

ich gehe eigentlich davon aus dass die 8800gtx ähnlich wie bei der 6800ultra nicht wirklich 2 anschlüsse braucht und diese nur da sind um das PCB zu vereinfachen. (ein großteil des stromes wird wohl über die externen anschlüsse und nur ein kleiner teil über den PCIe-stecker aufgenommen)


Da ist die NV 8800 mit ihren schätz ich mal 200Watt schon aus dem Rennen.

200W realer stromverbrauch sind sehr unwahrscheinlich, vor allem da nvidia "nur" ein 450W-netzteil empfiehlt, was auch nicht über den empfehlungen für eine 7900GTX liegt.

Moralelastix
2006-10-27, 17:03:56
Das Ganze is net so wild. Regelt der Markt.

Eimal sollten die Mainstream NV Karten ja schon im Q1 kommen und bestimmt schon in 65nm.
Und was soll ich denn mit ner DX10 Karte ohne DX10 Spiele?
Ja ja Mehrleistung unter DX9 is sicher groß und die Bechmarkfutzies kiegen wieder nen Ständer aber Wayne?!

(Bei Lichte betrachted sind es immer noch die alten Affen.)



Also einen Zwang so Stromfresser zu kaufen hats meiner Meinung nach net.

Snoopy1978
2006-10-27, 18:04:25
[Moralelastix][/Also einen Zwang so Stromfresser zu kaufen hats meiner Meinung nach net].
Genau,seh ich auch so.
Enthusiasten lassen sich auch von 300 Watt(falls das wirklich die Leistungsaufnahme- Werte sind) nicht abschrecken. Das ist wie mit Supersportwagen und Luxuskarossen, die Leute die sich solche Kraftpakete leisten kümmern sich nicht um den Verbrauch. Das wissen auch Ati und Nvidia(die glaube ich mal angekündigt hatten im High-End Bereich die Preise langfristig auf bis zu 1000 Dollar steigen zu lassen).
Das wirkliche Problem wird wohl eher der steigende Platzbedarf solcher Renderkraftwerke und die Kühlung sein.Ati will dem R600 (bei einem laut Ati angestrebten Takt jenseits der 700 MHZ) ja einen neu entwickelten Superduper Monsterkühler verpassen.
Bin ja wirklich mal gespannt wie der aussehen wird.

Gast
2006-10-27, 18:10:39
Die ATIler sind doch schon abgehärtet und wurden umfassend darauf vorbereitet, die wird das weniger jucken.

Interessanterweise scheint es plötzlich die "Nvidianer" auch nicht mehr zu jucken ;-)

[](-__-)[]
2006-10-27, 23:14:20
120 Watt.

Alles Andere ist wilde Panikmache! ATI meine auch gegenüber der CT, das die Verlustleistung nicht mehr steigen und später sinken wird.

Ein Intel Core 2 Duo E6600 liegt bei 65 Watt.

dargo
2006-10-27, 23:18:23
Da ist die NV 8800 mit ihren schätz ich mal 200Watt schon aus dem Rennen.
Es wurde schon oft genug im G80 Thread angedeutet, dass 200W völliger Unsinn sind. Gehe eher von 130-140W aus.

(-__-)[]']120 Watt.

Gar nicht mal so unrealistisch bei 80nm. Wobei noch zu wenige Daten zum R600 bekannt sind um das überhaupt beurteilen zu können.

(-__-)[]']
ATI meine auch gegenüber der CT, das die Verlustleistung nicht mehr steigen und später sinken wird.

Das soll sich aber erst ab dem R700 ändern. :wink:

(-__-)[]']
Ein Intel Core 2 Duo E6600 liegt bei 65 Watt.
TDP wohlgemerkt. :)

Gast
2006-10-27, 23:28:34
Das soll sich aber erst ab dem R700 ändern. :wink:




eigentlich schon beim R600-refresh.

dildo4u
2006-10-27, 23:32:12
(-__-)[]']
Ein Intel Core 2 Duo E6600 liegt bei 65 Watt.
Komischer Vergleich der Core 2 Duo wird in 65nm produziert und der R600 ist ca 3 mal so Komplex. :|
Wenn ATI unter 150W bleibt haben sie gute Arbeit geleistet.

dargo
2006-10-27, 23:33:39
eigentlich schon beim R600-refresh.
Natürlich, bei kleinerem Fertigungsprozess wird auch die Verlustleistung fallen. Die Äußerung über "sparsamere" Nachfolgerchips bezog sich aber eher auf den Nachfolger vom R600 da der schon fertig war. Ich gehe jetzt mal davon aus, mit Nachfolger ist kein Refreshchip gemeint.

Relic
2006-10-28, 02:43:13
Komischer Vergleich der Core 2 Duo wird in 65nm produziert und der R600 ist ca 3 mal so Komplex. :|
Wenn ATI unter 150W bleibt haben sie gute Arbeit geleistet.

Er ist noch viel komplexer. Du willst doch nicht bitte die Transistoren für den 4MB Cache als ähnlich komplex wie die Logiktransistoren eines R600 darstellen?

dildo4u
2006-10-28, 02:59:14
Er ist noch viel komplexer. Du willst doch nicht bitte die Transistoren für den 4MB Cache als ähnlich komplex wie die Logiktransistoren eines R600 darstellen?Ich glaub das spielt beim Verbrauch keine Rolle ob das Transistoren für Logik oder für den Cache sind.

Relic
2006-10-28, 03:17:46
Ich glaub das spielt beim Verbrauch keine Rolle ob das Transistoren für Logik oder für den Cache sind.

Da liegst du leider falsch, Cache verbraucht kaum(im Vergleich zu Logik) Strom.

Beispiel?
Ein AMD X2 mit 2x1MB verbraucht kaum mehr als einer mit 2x512kb auf gleichem Takt. Er ist aber durch die größere Fläche einfacher zu kühlen.

MikBach
2006-10-28, 11:53:01
(-__-)[]']120 Watt.
Da wir hier im Spekuforum sind: 180 Watt.
(-__-)[]']
Alles Andere ist wilde Panikmache! ATI meine auch gegenüber der CT, das die Verlustleistung nicht mehr steigen und später sinken wird.

Wirklich?
Ich glaube nicht daran.
Vielleicht meint ATI ja auch den Nachfolger des R600...:rolleyes:

Gruß M_B

[](-__-)[]
2006-10-28, 13:15:32
Komischer Vergleich der Core 2 Duo wird in 65nm produziert und der R600 ist ca 3 mal so Komplex. :|
Wenn ATI unter 150W bleibt haben sie gute Arbeit geleistet.

Sicherlich. Nur wollte ich damit nochmal hinweisen, was es bedeutet, 120 Watt zu kühlen. Der RAM ist ja diesbezüglich nicht das entscheidene, auf dem PCB.

dargo
2006-10-28, 13:49:10
(-__-)[]']Sicherlich. Nur wollte ich damit nochmal hinweisen, was es bedeutet, 120 Watt zu kühlen.
Es müssen auch keine 120W gekühlt werden. :wink:
Die reine GPU einer X1800XT oder X1900XT (bin mir nicht mehr sicher) verbraucht ~60W.

Ailuros
2006-10-28, 14:15:37
Nochmal im Vergleich zur Steigerung der Chipkomplexitaet und der Faehigkeiten der kommenden D3D10 GPUs, ist die Steigerung des Stromverbrauchs relativ klein.

Wem jetzt so und so viel Watt zu viel sind, gibt es immer noch kleinere und billigere Modelle. Wer jetzt trotz allem 8800GTX Leistung haben will aber mir nichts dir nichts nur noch 60W oder weniger Stromverbrauch von der GPU sehen will sollte sich wohl nach einem anderem Hobby umsehen.

R600 duerfte schaetzungsweise nach den bisher bekannten Infos mit ca. 600MHz ziemlich gut mit dem G80 konkurrieren, wenn der chip erstmal diese Frequenz erreichen wird. Meiner Meinung nach hat irgendein Vollidiot irgendwelche unrealistische Schaetzungen nach aussen sickern lassen. Wenn ein chip Probleme hat und noch zumindest einen oder mehr re-spins braucht, dann sollte es verstaendlich sein dass das bisherige Resultat selbst bei <400MHz einem Kochherd aehnelt.

dargo
2006-10-28, 17:47:15
Wem jetzt so und so viel Watt zu viel sind, gibt es immer noch kleinere und billigere Modelle. Wer jetzt trotz allem 8800GTX Leistung haben will aber mir nichts dir nichts nur noch 60W oder weniger Stromverbrauch von der GPU sehen will sollte sich wohl nach einem anderem Hobby umsehen.

Richtig. :biggrin:

Oder, wenn die Leistung noch nicht gebraucht wird auf die 65nm G8850GTX (?) warten. Wobei dann NV sicherlich wieder die Taktraten anheben wird. Es wird aber auch sicherlich eine 65nm G8850GTS (?) geben.

Gast
2006-10-28, 17:57:27
Richtig. :biggrin:

Oder, wenn die Leistung noch nicht gebraucht wird auf die 65nm G8850GTX (?) warten. Wobei dann NV sicherlich wieder die Taktraten anheben wird. Es wird aber auch sicherlich eine 65nm G8850GTS (?) geben.

Und dann kontert ATI...usw.
Mhh ich kann eigentlich nicht mehr glauben, das der R600 so viel Strom braucht.

The Jackal
2006-10-28, 18:14:35
Ich sehe das so. Spätestens wenn ATi und NV vorgeben, wie heiß das Gehäuse maximal im innerem sein darf (Intel 3,8GHz P4 max Gehäusetemperatur 38°C und trotzdem lief das ding nicht ohne zu drosseln), werden einige anfangen nachzudenken. Und wenn das HighEnd für die Großen dann nicht mehr rentabel genug ist, dann fangen die auch an nachzudenken.

Ich hoffe das mit dem G80 und dem R600 der punkt schon fast erreicht ist. Es gibt doch mit sicherheit bessere Lösungen das nur Rohpower. Haut mich nicht jetzt aber PowerVR hatte doch damals einen guten ansatz geliefert.

Iwan
2006-10-28, 18:55:02
Ich sehe das so. Spätestens wenn ATi und NV vorgeben, wie heiß das Gehäuse maximal im innerem sein darf (Intel 3,8GHz P4 max Gehäusetemperatur 38°C und trotzdem lief das ding nicht ohne zu drosseln), werden einige anfangen nachzudenken. Und wenn das HighEnd für die Großen dann nicht mehr rentabel genug ist, dann fangen die auch an nachzudenken.


high-end karten müssen ja nicht rentabel sein, die dienen eher dazu um benchmarks zu gewinnen was sich dann auf die verkäufe der mainstream und lowend karten auswirkt. naja gemeckert wird ja jede generation über den höheren stromverbrauch, aber trotzdem gibts noch genügend freakz die sich so eine karte kaufen. oder auch 2.

Agent_no1
2006-10-28, 23:17:42
Fakt ist doch, das sowieso alle Gamer hier die Dinger kaufen würden, selbst wenn sie 300Watt das Stück verbraten würden.
Jedesmal wird bei der Einführung einer neuen Grafikkartengeneration oder einer neuen CPU rumgebrüllt, wie grausig doch der Stromverbrauch geworden ist (was ja auch stimmt) und dass das schon nicht mehr zum hinnehmen ist. Es werden sogar zig Energietests von Usern oder erfahrenen Testern gemacht um aufzuzeigen, wieviel die Grafikkarte allein im 3D-Betrieb verbrät.

Doch das alles wird bereits nach kurzer Zeit schnurstraks ignoriert.

tja und wie läuft es dann letztenendlich ab? Einer kauft sich das Energiebiest, freut sich nen Kullerkeks über die Performance, alle anderen kaufen auch (weil sie ja nicht hinnehmen können, das sich nur einer das "Glück" teilen darf) und haben plötzlich ihre eigenen Argumentationen und Bedenken von damals völlig vergessen. "wen kümmert schon der Stromverbrauch" Es wird alles konsumiert, was nur irgendwie geil macht, ohne Rückblick auf andere Dinge (wie die eigene Argumentation von damals...)

Das war auch bei Windows XP schon so (mit den Überwachungsfeatures). "Sowas kommt mir nie ins Haus, Überwachungsstaat und so..." "Die Telefonaktivierung ist eine Zumutung/ ein Skandal.". Mittlerweile ist Windows XP das meist verwendetste Microsoft Betriebssystem überhaupt.

Auch bei Windows Vista wird man wieder die eigene Inkonsequenz spüren.
Das Gemotze ist groß (und da zähle ich mich zweifelsohne dazu), dass die "Sicherheitsfeatures" langsam Überhand nehmen. Eigentlich ist Vista ja nur Stuss und keiner will es wirklich, da es, zumindest für Gamer und Officeanwender, ja keine neuen wirklich relevanten Innovationen mit sich bringt, außer das ZwangsXtended 10 (DirectX 10).
Trotzdem wird sich die Masse draufstürzen und das zum größten Teil nur wegen der performancefressenden, unübersichtlichen, unproduktiven, Eyecandyüberladenen AeroGlass Oberfläche zulegen.
Darauf haben wir seit Jahren gewartet. Endlich dürfen wir für viel viel Geld unsere Performance für Skins verschwenden, die es schon seit Jahren für Windows XP kostenlos gibt.

Ohja ich habe das selbst schon von einigen Leuten anhören müssen. "Ach wer will schon Vista, alles nur Schund. Brauch ne MÖRDERKISTE ohne das es was neues zu bieten hat.........aber die Aero Glass Oberfläche sieht wirklich nice aus und die tollen Widgets sind auch optische Leckerbissen".

Wofür kauft ihr ein "Betriebs"-system??? Für reine tolle Optik oder produktiven Nutzen? Wenn ihr Optik wollt, guckt auf dem Fenster, aber mit dem Betriebssystem müssen manche Leute auch arbeiten oder sich zurechtfinden. Dann durfte ich mir nach der Aussage meiner Meinung ebenfalls anhören "ja du kannst ja auch die Aero Glass Oberfläche ausschalten, dann sieht das wieder aus wie Windows XP"
schlau sehr schlau....JA wer braucht denn dann bitteschön Vista???

Brüllen können die meisten, jedoch aber konsequent bei seiner Meinung zu bleiben (und das bis zum bitteren Ende) fällt offensichtlich vielen sehr sehr schwer.

Die meisten hier machen sich sowieso keine Gedanken über den Stromverbrauch ihres Rechners. Schließlich wohnt man ja noch zuhause bei Mutti, die keine Ahnung hat, was der Energietoaster ihres Kindes an monatlichen Stromkosten verschlingt. Und da es Mutti ja auch nicht weiß, wird sie ein 24/7 Betrieb für Downloads erst recht nicht stören...

Ich sage mir ganz klar, sollte Ati und Nvidia weiter diese Schiene fahren auf Energieeffizienz ihrer Chips zu schei*** und den Konsument letztendlich die eigene Kostenersparniss finanziell ausbaden zu lassen, war das für mich ganz klar die letzte 3D-Grafikkarte für mein System. Ich weiß was mein jetziger Rechner schon verschleudert und das möchte ich nicht mehr weiter steigern. (und meine Grafikkarte liegt mit dem Stromverbrauch momentan schon an der Spitze). Ich dachte eigentlich das die nun mal wieder versuchen, von ihrem Stromtrip nach der X1800XT wieder herunterzukommen. Stattdessen werden mit neuen schwindelerregenden Zahlen schon fast "geworben".

Das alles ist ja das Schöne an diesem Hardwaregeschäft. Die Firmen wissen, dass ihr so inkonsequent seid und das ihr nur schreien könnt, aber nicht zur Tat schreitet, daher werden die auch ewig auf ihr Erfolgskonzept weiterbauen, Geld an euch verdienen, laute serienmäßig verbaute Lüfter einsetzen (damit du deine Garantie gleich mit dem ersten Tag von deiner 500€ teuren Grafikkarte versemmeln kannst) und Strom "sinnlos" verschwenden lassen.

Nunja, wahrscheinlich stehe ich jedoch in diesem Thread mit dieser Meinung alleine dar, daher endet hier auch meine Moralpredigt...~_~

Demogod
2006-10-29, 05:11:46
öm eine cpu ist doch bestimmt technisch aufwändiger (komplexer) als eine gpu. auf einem gpu die sind doch alle einheiten einfach nur zb 12 mal kopiert.. (die shader dinger usw, ihr wisst schon)

boxleitnerb
2006-10-29, 10:55:27
@Agent_no1:
Nein, du stehst nicht alleine da. Jedoch würde ich gerne etwas hinzufügen:

Solange die Grafikkarte im Idle-Modus (fast) nichts verbraucht, ist es schon mal ein erheblicher Fortschritt. Denn wer lässt schon 24/7 3D-Anwendungen laufen?

Wieso ist es nicht endlich möglich, den 3D-Teil VOLLKOMMEN abzuschalten und einen einfachen 2D-Chip für die Ausgabe des Desktops zu benutzen? Bei Vista sollte man dann wählen können, ob man Aero will oder nicht. Und selbst wenn man sich für die 3D-Oberfläche entscheidet, brauch diese ja nur einen kleinen Bruchteil der Rechenkraft.

Ob meine Grafikkarte jetzt die paar Stunden in der Woche, die sie Spiele berechnen muss, 100 oder 200 Watt verbraucht, ist mir jetzt vom Stromkostenstandpunkt nicht so wichtig. Denn das ist im Vergleich zur restlichen Betriebszeit und den anderen Komponenten ein Tropfen auf den heissen Stein.

Viel mehr stört mich jedoch das Energieaufkommen wegen der Kühlung. Ich mags gern leise, und da muss man sich schon fast eine Wakü zulegen, die ja auch nicht gerade billig ist.
Und ich denke, genau das ist bei den allermeisten, die sich über den Stromverbrauch aufregen, das Hauptargument: Die Karte leise und anständig kühlen zu können.

Gast
2006-10-29, 10:56:22
öm eine cpu ist doch bestimmt technisch aufwändiger (komplexer) als eine gpu. auf einem gpu die sind doch alle einheiten einfach nur zb 12 mal kopiert.. (die shader dinger usw, ihr wisst schon)

Okay dann bau mal eine GPU mit etwa 400Mill Transis in 90Nm-Bereich ohne das sich irgendwelche Fehler einschleichen...

Gast
2006-10-29, 11:27:54
öm eine cpu ist doch bestimmt technisch aufwändiger (komplexer) als eine gpu. auf einem gpu die sind doch alle einheiten einfach nur zb 12 mal kopiert.. (die shader dinger usw, ihr wisst schon)

genau umgekehrt, eine cpu besteht heute zu 90% aus cache, was nur millionenfach kopierte speicherzellen sind. die cachezellen eignen sich auch noch sehr gut feinkörnige redundanz einzubauen, so dass das DIE auch bei dem einen oder anderen fehler noch vollständig funktionsfähig bleibt.

bei GPUs ist das deutlich schwieriger, diese bestehen zu großen teilen aus logiktransistoren.

zusätzlich schalten cachetransistoren nur relativ selten, während logiktransistoren vor allem bei hoher auslastung (was bei spezialchips wie GPUs in ihrem anwendungsgebiet eigentlich sein sollte) bei jedem takt schalten müssen.

Die gelbe Eule
2006-10-29, 13:29:36
Man nehme nur die Asus EAX X1800XT Top, welche ein extra Netzteil braucht. Es ist leider schade zu beobachten, das eine Karte in einem kleineren Fertigungsprozess eine immer höhere Verlustleistung hat, wogegen CPUs bei steigender Taktfrequenz weniger haben.
Es wird sich also auch ATi in die Riege einreihen, größere Netzteile vorauszusetzen, damit die Karte stabil bleibt.

Gast
2006-10-29, 13:52:13
Man nehme nur die Asus EAX X1800XT Top, welche ein extra Netzteil braucht.Die Karte braucht sicherlich kein extra Netzteil. Das ist eher ein sinnloser Gimmick von Asus um den Daus zu zeigen, dass ihre Karte soooo leistungsstark ist, dass sie ein eigenes Netzteil braucht.

Verwenden muss man es aber nicht. Einfach den PCIe-6pol-Stecker vom normalen ATX-Netzteil hinten reingesteckt und sie läuft auch ohne das externe NT.

Die gelbe Eule
2006-10-29, 13:53:57
Naja damals eine X1800XT mit den Taktraten zu fahren und dann die Temperaturen zu halten, war eher ein Kunststück. Das konntest nicht mit jeder stock XT versuchen, die gab schon ein paar MHz später auf, wie bei mir.

Gast
2006-10-29, 17:31:49
Man darf auch nicht vergessen, dass es nicht viele Firmen gibt, die überhaupt solch massenmarktfähige full custom Chips baut.
Das eine GPU "einfacher" ist, weil sie x-mal ein bestimmtes Rechenwerk hat würde ich auch nicht sagen wollen. Hier wird schließlich (hauptsächlich) mit Laufzeiten gearbeitet und die Daten sauber über einen Bus koordiniert zu verteilen ist auch nicht ohne. Es ist ja nicht immer so, dass alle Ergebnisse unabhängig wären (besonders wenn man an die DSP-artige Verwendung der GPU denkt, s. Folding@home Video Encoding).

The Jackal
2006-10-29, 17:52:15
Wie hoch ich die Warscheinlichkeit das Wasserkühlung im Konsumerbereich einzug erhällt?

Wie es aussieht wird mach spätestens mit der nächsten GraKa generation die GPU's nicht mehr mit Luft kühlen können. Ich glaube das die Gränze des machbaren im bereich der Luftkühlung für GraKa's jetzt definitiv erreicht ist(Im bezug auf das für den Konsumermarkt verträtbare DAU taugliche Systeme, Ausen vor Komplexe mehrteillige Kühlsysteme mit speziellen anforderungen auf die Gehäuse).

Gast
2006-10-29, 18:43:24
Wie hoch ich die Warscheinlichkeit das Wasserkühlung im Konsumerbereich einzug erhällt?Für die nächsten paar Jahre sehr gering.

Wie es aussieht wird mach spätestens mit der nächsten GraKa generation die GPU's nicht mehr mit Luft kühlen können.Das denke ich nicht.

Gast
2006-10-29, 19:28:24
Wie es aussieht wird mach spätestens mit der nächsten GraKa generation die GPU's nicht mehr mit Luft kühlen können.

man kann alles mit luft kühlen, die frage ist nur wie groß der kühlkörper sein muss.

bis jetzt hat man auch "nur" kupfer bzw. kupfer-alu-hybrid-kühlkörper, mit dem wechsle auf silber könnte man die wärmeleitung nochmals erhöhen.

Phoenix22
2006-10-30, 13:02:12
Man kann selbst bei späteren Generationen mit Luft kühlen, nur die Frage wird sein, ob die Firmen doch noch an strom sparsameren Chips bauen oder nicht (z.B. AMD mit EE-CPUs).
Es wird wahrscheinlich in der Zukunft aussehen, dass wir in der Luftkühlung Vollkupfer-Kühler oder Heatpipe Kühler benutzen müssen.
Man kann nur hoffen, ob die Verlustleistung bzw. Gesamtleistung nicht mehr größer wird und man versucht die Verlustleistung zu reduzieren.

StefanV
2006-10-30, 14:25:31
man kann alles mit luft kühlen, die frage ist nur wie groß der kühlkörper sein muss.

bis jetzt hat man auch "nur" kupfer bzw. kupfer-alu-hybrid-kühlkörper, mit dem wechsle auf silber könnte man die wärmeleitung nochmals erhöhen.
Wozu sollen wir Silber benutzen, wo wir doch Heatpipes haben, die die Wärme besser leiten als alles andere? :|

The Jackal
2006-10-30, 14:40:44
Die Heatpipe ist aus Kupfer und hat auch ein Wärmedurchgangskoeffizienten. Wenn man die Kontaktfläche der HP aus Silber fertigen würde hätte man ein 10-15% besseren Durchgangskoeffizienten. Das schlägt sich in einem besserem Wärmeabtransport, auf der Die, nieder.

Doch das ganze hat auch gränzen. Wenn die Verlustleistung zu hoch wird kann auch das Silber da nix machen. Zwar könnte dann die HP locker 3000W abtransportieren, doch die Übergangsschicht begränzt den Transport auf nur 200W(<<<Bezug auf die max. erlaubte Die Themperatur; bei höheren Themperaturen steigt ja zwangsläufig auch der transportierte Wärmestrom). Ales was dann über diesem Wert am Verlustleisung liegt bringt den Die zum überhitzen. Am einfachsten ist das vorzustellen wie eine Physikalisch ideale Thermoverglasung wo zwischen den beiden Scheiben ein Ideales Wakuum herst. Die eine Seite kann dann auch 0 K erreichen und trotzdem wird kein Wärmeaustausch statt finden.<<<rein ideale Physikalische Betrachtung ohne bezug auf reele gegebenheiten da kein ideales Wakuum noch 0 K erreicht werden können.

aylano
2006-10-30, 19:28:01
Man kann selbst bei späteren Generationen mit Luft kühlen, nur die Frage wird sein, ob die Firmen doch noch an strom sparsameren Chips bauen oder nicht (z.B. AMD mit EE-CPUs).
Ich denke schon.

Nur weil Nvida und ATI die Leistungskrone haben wollen, heißt es nicht, dass sie keine Energie-sparenden GPUs raubringen werden.

Siehe jetzt. Nivdia hat die schnellste und Stromfressenste Grafikkarte a la GX2 und gerade diese Firma hat einige relative schnelle lautlose Grafikkarten rausgebracht.

Mich wundert es nicht, dass der Strumverbrauch für Enthusiasten steigt, da eben die Leistung im Vordergrund ist.
Vorallem übertakten diese Leute sowieso ihre High-End-Grafikkarte und verbrauchen damit auch viel mehr Strom als im Standard-Takt.

Warum sollten diese Firmen nicht dem Enthusiasten Vorgreifen und gleich das letzte aus dem Produkt raushohlen???

Sieht man ja auch mit Intel und AMD.

AMD wird bald mit FX-74 knapp vor oder knapp hinter Intel-Quad-Core 2,66 Ghz sein.
Und nebenbei bietet AMD eine 2 Ghz 35 Watt CPU und bald bis X2 5000 (65watt) an.

Palpatin
2006-11-01, 17:45:20
Die sollen bitte den 2D verbrauch weiter senken. Von mir aus kann die Karte unter 3D 300 Watt saugen mein Rechner läuft vielleicht 25% im 3D Modus wenns hochkommt. Wenn die Karten im 2D Modus nur 5-10 Watt verbrauchen würden könnt ich gut mit 300-400 Watt im 3D Modus leben.

Black-Scorpion
2006-11-01, 17:54:50
Bleib mal etwas realistisch.
5-10W braucht schon der Speicher. ;)

ollix
2006-11-01, 18:15:06
Kann man den Speicher nicht auch teilweise abschalten - was brauch ich 512MiB im 2D Modus?

Palpatin
2006-11-02, 11:04:29
Ja eben das mein ich ja wozu brauch ich 512MB Speicher der mit 600 MHZ im 2D Modus läuft?

Coda
2006-11-02, 11:43:30
Für Vista ;)

The Jackal
2006-11-02, 16:47:42
Für Vista ;)

Ich würde dir gerne wiedersprechen.

Aber du hast aber recht. :ulol5:

Indiana
2006-11-02, 17:19:43
Nun ja. Ich merke in Vista auch mit Aero Glass-Oberfläche keinerlei Unterschied, ob meine X1800XL nun mit 650/650MHz oder eben nur mit 250/250 MHz und deutlich reduzierter Spannung läuft.
Und 512MB Ram braucht man für den Desktop natürlich auch nicht, da käme man wohl auch wirklich mit 64MB aus und könnte den Rest stillegen - sofern soetwas technisch mit der aktuellen Windows überhaupt realisierbar wäre. Ich denke nicht, daß irgendeine Windows-Version mit einer dynamischen Grafikkartenspeicher-Menge klarkäme...

Gast
2006-11-06, 17:57:58
Um Eurer Diskussion noch einen neuen Denkansatz zu geben:

Ich denke das der Zusammenschluß zwischen AMD und ATI langfristig zu "energiesparenderen" Grafikchips seitens ATI führen wird. AMD hat
hier, auch durch die Kooperation mit IBM, erhebliches Know How, daß
sich für ATI positiv auswirken wird.
(Strained Silicon und wie das alles heisst ;) ).

Es wäre schon sehr merkwürdig, wenn AMD und ATI hier getrennte Wege
gehen würden anstatt die Produktionsverfahren zu vereinheitlichen.
Denn gerade hierin sehe ich wesentliche Vorteile des Zusammenschlusses!

Mein Eindruck ist, daß AMD und Intel in dem Bereich einen Wissensvorsprung
von mehreren Jahren gegenüber ATI und nVidia haben.

So gesehen sieht die Zukunft für ATI rosig aus.
Bei nVidia sehe ich das Problem, daß sie sich dieses Wissen entweder
aneignen oder teuer einkaufen müssen.

Den R600 kann man noch nicht als Masstab nehmen.
Er wurde mehr oder weniger nur mit ATI-Wissen entwickelt.
Interessant wird, was danach kommt. ;)

Grüße,
Robin

Black-Scorpion
2006-11-06, 18:14:13
Nur fertigt AMD CPUs und keine GPUs.
Und das wird auch bestimmt noch eine ganze eile so bleiben.
AMD hat genug mit seinen CPUs und der Lieferbarkeit zu tun.

Gast
2006-11-06, 20:01:00
Jep, Anonym001 hat völlig Recht. In absehbarer Zeit wird es keine ATI-GPUs aus AMD-Fabs geben. Erstens kommt AMD schon kaum mit der Fertigung der CPUs nach und zweitens ist AMDs Fertigung sehr stark auf CPUs bzw. sogar speziell auf den K8 zugeschnitten. Da kann man nicht einfach mal eben so GPUs produzieren.

Gast
2006-11-06, 22:13:01
(Strained Silicon und wie das alles heisst ;) ).


strained silicon ermöglicht höhere taktfrequenzen, bringt aber kaum etwas im bezug auf den energieverbrauch, oder war der prescott sparsam? ;)

AnarchX
2006-11-06, 22:28:23
strained silicon ermöglicht höhere taktfrequenzen, bringt aber kaum etwas im bezug auf den energieverbrauch, oder war der prescott sparsam? ;)
Natürlich bringt es etwas beim Stromverbrauch, da man höhere Taktraten mit niedrigerem VCore erreichen kann.
Deshalb wird es auch schon von ATI verwendet:
http://img5.pcpop.com/ArticleImages/500x375/0/342/000342472.jpg
ATi stellt „Mobility Radeon X1700“ vor
[...]
So wird die X1700 zwar immer noch in 90 nm breiten Strukturen gefertigt, nun allerdings aber unter Einbeziehung der „Strained Silicon“-Technologie. Durch diese wird der Abstand zwischen den Transistorgittern vergrößert, der Strom kann einfacher fließen und man erreicht bei gleichem Stromverbrauch höhere Taktraten. So lassen sich laut ATi bei gleichbleibender Geschwindigkeit bis zu 20 Prozent Strom einsparen.

http://www.computerbase.de/news/hardware/grafikkarten/ati/2006/september/ati_mobility_radeon_x1700/

Gast
2006-11-06, 23:24:48
Nochmal:
Ob ich nun eine CPU oder GPU fertige, ist bezogen auf den
Produktionsprozess dasselbe. Klar sehen die Schaltkreise
unterschiedlich aus. Aber die verwendeten Materialien
brauchen sich nicht zu unterscheiden. Warum auch?
Genauso werden immer neue Transistortypen entwickelt,
die natürlich immer leistungsfähiger werden. Aus nichts
anderem besteht eine CPU/GPU.

Es geht NICHT darum, ATI-GPUs in AMD Fabriken zu produzieren.
Der Trend ist heute doch ganz klar, daß die Chipentwickler
(ATI, AMD, nVidia, Intel) den technischen Rahmen vorgeben,
unter dem dann Fabrikbetreiber (Chartered, etc.) zu produzieren
haben.

Ohne die ganze Materialforschung, Verkleinerung der
Strukturbreiten, Techniken wie Cool&Quiet (die auch
erstmal entwickelt werden mußten), wären wir heute
noch bei 8 Bit Computern.

Nehmen wir nur mal die Strukturbreiten!
Da arbeiten Intel und AMD bereits an 45nm, 65nm ist
so gut wie auf dem Markt, während ATI und nVidia
gerade mal bei 80nm angekommen sind.

Der zukünftige Technologietransfer zwischen ATI und AMD
sollte nicht unterschätzt werden.

Und warum wohl hat AMD eine Partnerschaft mit IBM?
Auch davon werden zukünftige ATI-GPUs (und AMD-CPUs)
profitieren.

Grüße,
Robin

Quasar
2006-11-06, 23:31:48
Robin,

So gleich sind die Verfahren nicht, denn CPUs haben im Gegensatz zu GPUs riesige Caches, GPUs dagegen eine wesentlich höhere Logikdichte.

AMD und Intel haben (u.a.) Erfahrung damit, gute Sprungvorhersagen zu bauen und Chips mit dem Cache/Logik-Verhältnis typischer CPUs zu bauen.

Ich denke nicht, dass sich das 1:1 oder sinnvoll diesem Verhältnis angenähert, aufeinander übertragen lässt.

Sunrise
2006-11-07, 05:40:09
Nochmal:
Ob ich nun eine CPU oder GPU fertige, ist bezogen auf den
Produktionsprozess dasselbe. Klar sehen die Schaltkreise
unterschiedlich aus. Aber die verwendeten Materialien
brauchen sich nicht zu unterscheiden. Warum auch?
Genauso werden immer neue Transistortypen entwickelt,
die natürlich immer leistungsfähiger werden. Aus nichts
anderem besteht eine CPU/GPU.

Strukturgröße, die verwendeten Materialien (Black Diamond, etc., Full-Copper (TSMC), mit/ohne High-K/Low-K/SOI/SSOI sind sich alle bestenfalls ähnlich, jedoch vor allem in Verbindung mit der Produktion von GPUs und CPUs, sicher nicht das Gleiche und schon garnicht ist es "dasselbe". Die Materialien sind wohl die einzigen Elemente in der ganzen Rechnung, welche möglicherweise "dieselben" sind, aber auch nicht immer, da die Forschung hier immer wieder neue Kombinationen, resp. neue Materialien gewinnt, die für bestimmte Prozesse (mit entsprechenden Charakteristika) nötig sind.

TSMCs und AMDs (APM/DFM) Prozesse haben zudem völlig verschiedene und nicht vergleichbare Prozess-Mentalitäten, denn bei AMD wird normalerweise nur auf einem einzigen Target (überaus stark optimiert, daher auch das APM-Programm, um alles 1:1 portieren zu können, ähnlich wie bei Intel) produziert, während TSMC (bei jeder neuen Strukturgröße, bei jeder neuen Half-Node, bzw. Full-Node) eine ganze Armada an neuen Targets für die Kunden bereitsstellen muss, damit überhaupt Kundeninteresse aufkommt.

Alleine bei 90nm/80nm (TSMC) gibt es 3 verschiedene Targets (und einen in den Techpapers komischerweise nicht erwähnten, exklusiven 80nm SOI-Prozess), bei 65nm werden es mindestens 4 werden, da hier offiziell jetzt SOI/SSOI dazukommt, bei 80nm war dies nur optional, je nach Design, verwendbar.

Diese Prozess-Targets der jeweiligen FABs, unterscheiden sich untereinander teilweise auch so stark, dass du ein Design, welches auf hohe Taktraten ausgelegt ist nicht einfach auf einem anderen Target laufen lassen kannst. Bei Grafikkarten ist dies praktisch immer der entsprechende GT-Prozess, während es bei CPU meist eher die Targets mit potentiell sehr hohen Yield-Raten (Ausbeute-optimiert) und Low-Voltage-Charakteristika sind.

Genausowenig kann man ein Design, das auf Libraries von TSMC ausgelegt und "kompiliert" wurde, direkt in AMDs APM portieren - und das liegt beileibe nicht nur an den "Schaltkreisen", sondern einfach daran, dass AMD z.B. SOI(u. SSOI) immer mit dabei hat (weil es Teil des Prozess-Targets ist), und dein kompletter Chip-Floorplan danach nichts mehr Wert wäre.

Nimm das noch dazu, was Quasar geschrieben hat und du wirst sehen - ganz so simpel, wie du es darstellst, ist es beileibe nicht - und auch ich kenne sicher nicht alle Details, weil viele davon natürlich Firmengeheimnisse sind, das eigentliche, über Jahre hinweg, angeeignete Know-How, das immer wieder gerne erwähnt wird.

Der zukünftige Technologietransfer zwischen ATI und AMD
sollte nicht unterschätzt werden.

Ein Technologietransfer "sollte" nie unterschätzt werden, die Frage ist aber eine andere. Wenn AMD in Zukunft (ähnlich, wie Intel das bereits im Prototypen-Stadium vorgestellt hat) alles integrieren will, dann müssen sie hier auch vollkommen neue Targets (und das dauert bei TSMC 8-12 Monate) validieren, damit diese Prozesse für diese Aufgaben auch gerüstet sind.

Dies alles klingt bei den vielen, die darüber berichten, immer ziemlich einfach, kostet aber sowohl enorm Zeit, Geld als auch Manpower, die Intel natürlich zu Genüge hat, AMD aber nicht in diesem Maße.

Natürlich werden sich beide (CPUs und GPUs) irgendwann einander nähern, ich sehe da aber keinen (jetzt noch nicht) nachvollziehbaren Grund, warum man die CPU-Produktion mit der GPU-Produktion vergleichen könnte/sollte. Nicht zu vergessen, dass du wahrscheinlich höllisch viele Taktdomains benötigen würdest, was wiederum die Arbeit (und die benötigte Zeit) enorm erschwert, da die Berechnungen komplexer sind.

Und warum wohl hat AMD eine Partnerschaft mit IBM?
Auch davon werden zukünftige ATI-GPUs (und AMD-CPUs)
profitieren.

AMD hat seit ewigen Gezeiten eine "Partnerschaft" mit IBM. Diese Partnerschafft alleine baut dir aber keine CPUs/GPUs und zaubert uns ZOMG! neue Wunder in die Welt (der Sarkasmus muss an dieser Stelle sein, nicht falsch verstehen). AMD sagt selbst, dass sie TSMC - und das wird noch Jahre anhalten - überhaupt nicht ersetzen können. Selbst wenn sie dies mit aller Macht wollten, sie haben keine Wahl. Erstens ist TSMC deutlich flexibler als AMD, und wird es auch noch eine ganze Weile sein, zweitens hat AMD momentan gerade so den verfügbaren (Wafer)-Platz, aktuelle CPUs zu fertigen und drittens - wie oben erwähnt - müssen erst alle Prozesse, resp. die Targets für entsprechend andere Aufgaben angepasst werden - und TSMC schläft dabei natürlich auch nicht, denn ATi und NV sind mit ihre größte Kundschaft. Dieses "Verhältnis" zueinander wird nicht urplötzlich aufgehoben, wenn überhaupt.

Nicht zu vergessen, dass alles (um das nochmal zu betonen) enorm Geld kostet, welches AMD einfach nicht hat.

PS: Man hat bereits am Beispiel von NV (NV40) und IBM gesehen, dass Firmen, die vor allem auf die Produktion von CPUs spezialisiert sind (und auch nicht die Erfahrung wie TSMC hier vorweisen können), in diesem Fall waren es 130nm, zusammen mit deren "Unreife" des eigenen Prozesses für schlechte Ausbeute und hohe Defektrate sprechen. Unter anderem deshalb ist NV auch von ihnen weg und produziert jetzt praktisch nur noch bei TSMC, auch wenn inoffiziell immer wieder das Gerücht herumgereicht wird, dass sowohl IBM, als auch Chartered jedesmal wieder bei NV anfragen, dies bei NV aber wohl auf wenig Gegenliebe stößt.