PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Taktfrequenzen bei Gpus


Gast
2008-07-11, 02:22:54
Mit viel Zuwachs kann man da rechnen?Wird man die Frequenzen von Cpus(3-4Gh) erreichen können(bei nicht exorbitantem Energieverbrauch und Aufwand für Kühlung),ist dies sinnvoll und wie lange würde das dauern?

Gast
2008-07-11, 02:24:12
Ich meine Chip- und Shadertakt.

tombman
2008-07-11, 02:30:21
Ist sinnvoller in die Breite zu wandern. Takt kostet zuviel Strom...

Gast
2008-07-11, 10:33:57
Ist sinnvoller in die Breite zu wandern. Takt kostet zuviel Strom...


Wer erzählt den sowas?

Sorkalm
2008-07-11, 10:37:29
Ist sinnvoller in die Breite zu wandern. Takt kostet zuviel Strom...

Naja, der Takt steigt über die Generationen auch an. Mit sich weiterentwickelten Fertigungsverfahren werden die Grenzen halt generell angehoben, so dass auch breite Chips davon profitieren...

BlackBirdSR
2008-07-11, 12:09:48
Wer erzählt den sowas?

Die Logik. Bei massiv parallelisierbaren Problemem lohnt es sich meistens die Anzahl der Berechnungen über mehr Einheiten zu steigern.
Höherer Takt bringt viele zusätzliche Probleme mit sich was Routing, Speedpath und Signalführung angeht.

Zumal es fast unmöglich wäre, die bisherigen Steigerungen durch Taktraten zu erreichen. Den Unterschied G70 zu GT200 hauptsächlich über die Taktrate zu erreichen würde alle bisherigen Grenzen sprengen.

Spasstiger
2008-07-11, 19:41:32
3 GHz Chiptakt sehen wir wahrscheinlich noch nichtmal in 10 Jahren, wenn man bedenkt, dass man schon 2002 bei über 300 MHz war und man bis heute erst bei ~800 MHz angelangt ist (Faktor 2,5 in 6 Jahren => 2014 haben wir evtl. 2 GHz, 2020 evtl. 5 GHz).
Der Shadertakt bei der Nvidia-Architektur wird wahrscheinlich auch nicht so bald über 2 GHz steigen.

Solange Moores Law gilt und somit die Integrationsdichte rasch weiter ansteigt, geht man bei GPUs idealerweise stärker in die Breite und belässt den Takt eher gleich (um den Energieverbrauch möglichst konstant über die Generationen zu halten).

AnarchX
2008-07-11, 19:50:42
Schauen wir mal was mit 4x nm machbar ist, 65+55nm scheint wohl generell etwas unter den Erwartungen beider IHVs zu sein, immerhin projezierte NV Anfang 2007 noch eine SD von ~2.5GHz für G92.

AMD scheint wohl auch ihre Fast14-Lizenz noch nicht angerührt zu haben.

Und eine GPU mit >2GHz TMUs und Co. steht wohl auch bald vor der Tür -> Larrabee.

OBrian
2008-07-12, 10:26:09
Und eine GPU mit >2GHz TMUs und Co. steht wohl auch bald vor der Tür -> Larrabee.Wobei da das "Erbgut" des Chips wohl hauptsächlich aus den CPU-Bereich kommt, möglicherweise ist der Kern auch extra auf hohen Takt ausgelegt (ähnlich dem Pentium 4, dessen große Stärke ja auch Streaming war und wobei der hohe Takt sehr geholfen hat - ich will damit aber nicht gesgt haben, daß die Architekturen ähnlich wären!). Und mit (gerüchteweise) nur 32 Kernen muß jeder natürlich mehr Rechenleistung haben als einer der vielen Shader bei Nvidia oder AMD, um den Gesamtchip auf etwa gleiches Niveau zu hieven.

Zudem hat Intel traditionell industrieweit mit Abstand die beste Fertigung (z.B. schon lange 45nm in Serie, während andere wie TSMC oder AMD gerade anfangen), können sich also auch etwas weiter aus dem Fenster hängen und die Chips etwas höher takten.

Spasstiger
2008-07-12, 18:21:03
Zudem hat Intel traditionell industrieweit mit Abstand die beste Fertigung (z.B. schon lange 45nm in Serie, während andere wie TSMC oder AMD gerade anfangen), können sich also auch etwas weiter aus dem Fenster hängen und die Chips etwas höher takten.
Bei kleineren Strukturen kann man aber auch günstiger in die Breite gehen. Und GPU-Aufgaben lassen sich bisher noch sehr gut parallelisieren. Problem ist nur, dass mehr Transistoren auch in einem höheren Verbrauch resultieren und somit kein Spielraum mehr für Takterhöhungen bleibt.

Mal schauen, ob sich das Larabee-Konzept als GPU etablieren kann.

Gast
2008-07-12, 19:23:54
Die Logik. Bei massiv parallelisierbaren Problemem lohnt es sich meistens die Anzahl der Berechnungen über mehr Einheiten zu steigern.
Höherer Takt bringt viele zusätzliche Probleme mit sich was Routing, Speedpath und Signalführung angeht.

Zumal es fast unmöglich wäre, die bisherigen Steigerungen durch Taktraten zu erreichen. Den Unterschied G70 zu GT200 hauptsächlich über die Taktrate zu erreichen würde alle bisherigen Grenzen sprengen.

Das hab ich gequotet:

"Ist sinnvoller in die Breite zu wandern. Takt kostet zuviel Strom..."

Die Problematik ist halt nicht so trivial. Neben technischen Aspekten gilt es auch die ökonomischen zu beachten...

Chris2CB
2008-07-13, 02:29:48
3 GHz Chiptakt sehen wir wahrscheinlich noch nichtmal in 10 Jahren, wenn man bedenkt, dass man schon 2002 bei über 300 MHz war und man bis heute erst bei ~800 MHz angelangt ist (Faktor 2,5 in 6 Jahren => 2014 haben wir evtl. 2 GHz, 2020 evtl. 5 GHz).
Der Shadertakt bei der Nvidia-Architektur wird wahrscheinlich auch nicht so bald über 2 GHz steigen.

Solange Moores Law gilt und somit die Integrationsdichte rasch weiter ansteigt, geht man bei GPUs idealerweise stärker in die Breite und belässt den Takt eher gleich (um den Energieverbrauch möglichst konstant über die Generationen zu halten).


Die Rechnung für die Taktfrequenz ist eigentlich noch schlimmer, 520mHz von 2004 Gegenüber 750mHz von heute ist gerade mal Faktor 1,45 in 4 Jahren. Also in 2014 eher 1,6gHz. Aber mal erhlich wer glaubt das?????? Eher werden wir in 6 Jahren 8Chips mit je 1gHz sehen, zumal die mHz Kurve immer mehr abflacht von 3870 auf 4870 gibts sogar nen Rückschritt, von 9800GTX zu 280GTX auch.


Wird jetzt Larabee bei TSMC oder Intel selbst gefertigt????

=Floi=
2008-07-13, 02:59:41
breite mal takt haut aber dann richtig rein und soviel langsamer getaktet ist ein übertakteter G200 auch nicht gerade (und im vergleich mit dem g80 erst recht nicht)

nv kann das auch ganz gut mit der vcore steuern. Bei intel ist es doch auch das selbe. Die richtig schnellen cpus brauchen auch 1,4-1,5 volt und nicht nur 1,1 volt

OC_Burner
2008-07-13, 06:10:14
Sollte man wenn man die Taktraten von z.B. 600Mhz auf 100MHz reduziert die Leistungsaufnahme der Transistoren nicht um mehr als das sechsfache senken können? Wenn ja warum dann nicht die sechsfache Anzahl an Transistoren verbauen um die Taktreduzierung entgegen zu wirken.

Mir geistert der Gedanke schon seid einer ganzen weile durch den Kopf. Vorallem bei CPUs. Denn 12x1Ghz Kerne sollten weniger verbrauchen als 4x3GHz Kerne. Mal hypotetisch angenommen ein Kern braucht mit 3GHz 25W dann benötigen 4 Kerne 100W. Wenn ein Kern mit 1GHz dann nur 5W braucht dann brauchen 12 Kerne 60W. Wenn es jetzt Software geben würde die extrem gut mit mehreren Kernen skalieren würde dann würde der 12 Kerner die selbe Leistung erbringen wie der 4 Kerner, dabei allerdings weniger verbrauchen. Habe ich mich da gedanklich verrannt?

=Floi=
2008-07-13, 08:00:12
1. sollte jemand der einen 4ghz quad besitzt diese frage nicht stellen, da der eine core mit 4ghz sehr sehr schnell ist und
2. gibt es da leider immer schlechtere skalierung je mehr core eingestzt werden, da ja auch das threading selbst verwaltet werden muß (bis ca. 16 core gibt es noch eine leistungssteigerung bzw. ist das ganze sinnvoll)

es gibt da einen aktuellen thread, den ich gerade nicht finde

florymonth
2008-07-13, 14:46:24
Mal eine andere Frage:Wie viele"Cores" sind bei Gpus sinnvoll bzw. machbar?Wäre eine Ati X8 bzw. Nvidia Gx8 denkbar in ein paar Jahren?Und wie viel Videoram werden Grafikkarten in den nächsten 5 Jahren haben?

Aquaschaf
2008-07-13, 14:53:47
Mal eine andere Frage:Wie viele"Cores" sind bei Gpus sinnvoll bzw. machbar?Wäre eine Ati X8 bzw. Nvidia Gx8 denkbar in ein paar Jahren?Und wie viel Videoram werden Grafikkarten in den nächsten 5 Jahren haben?

So viele Cores wie das zu berechnende Bild Pixel hat wäre eine obere Schranke, je nachdem was man unter einem Core versteht. In die Zukunft kann wohl keiner sehen, aber ich würde eher davon ausgehen dass die Speichermengen moderat wachsen. Langsamer als über die letzten Jahre.

Wenn es jetzt Software geben würde die extrem gut mit mehreren Kernen skalieren würde dann würde der 12 Kerner die selbe Leistung erbringen wie der 4 Kerner, dabei allerdings weniger verbrauchen. Habe ich mich da gedanklich verrannt?

Das ist richtig. Wenn es denn - um bei dem Beispiel zu bleiben - eine Software ist, die wirklich linear von 4 zu 12 Cores skaliert.

Coda
2008-07-13, 15:00:38
Sollte man wenn man die Taktraten von z.B. 600Mhz auf 100MHz reduziert die Leistungsaufnahme der Transistoren nicht um mehr als das sechsfache senken können? Wenn ja warum dann nicht die sechsfache Anzahl an Transistoren verbauen um die Taktreduzierung entgegen zu wirken.
Weil man mit 6x so viel Transistoren nicht die sechsfache Leistung erhält.

Mir geistert der Gedanke schon seid einer ganzen weile durch den Kopf. Vorallem bei CPUs. Denn 12x1Ghz Kerne sollten weniger verbrauchen als 4x3GHz Kerne. Mal hypotetisch angenommen ein Kern braucht mit 3GHz 25W dann benötigen 4 Kerne 100W. Wenn ein Kern mit 1GHz dann nur 5W braucht dann brauchen 12 Kerne 60W. Wenn es jetzt Software geben würde die extrem gut mit mehreren Kernen skalieren würde dann würde der 12 Kerner die selbe Leistung erbringen wie der 4 Kerner, dabei allerdings weniger verbrauchen. Habe ich mich da gedanklich verrannt?
Nö hast du nicht. Das Problem an der Stelle ist nur dass es die Software dafür abgesehen von sehr wenigen Ausnahmen einfach nicht gibt.

Spasstiger
2008-07-14, 08:42:07
Weil man mit 6x so viel Transistoren nicht die sechsfache Leistung erhält.
Und die Chips werden mindestens 6x so teuer, was in der Regel nicht mehr wirtschaftlich wäre. Vor allem, wenn die resultierende Leistung wegen der Taktsenkung nicht höher liegt.