PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gehen die Grafikkarten bald den selben Weg wie die Prozessoren?


janky
2006-01-08, 13:35:30
Ich mache mir jetzt schon seit längerem Gedanken, wie die Zukunft bei CPUs wie auch bei GPUs hinsichtlich Dual Core und SLI/Crossfire aussieht.

Wird es bald auch bei den Graafikkarten so sein, dass man nur noch mehr Leistung bekommt, indem man mehrere Karten zusammenschließt; das heißt, dass die Entwicklung Richtung Quad-SLI und so Früchte tragen wird und in 3-4 Jahren jede Mittelklassegrafikkarte im Dual-SLI läuft, während High End Grafikkarten nur noch im Quad-SLI oder sogar im achtfachen SLI laufen???

Wo soll das denn dann bitte hinführen, hinsichtlich Kühlungsproblemen (brach jeder eine Wasse4rkühlung???) und Stromverbrauch (1000 Watt BNetzteikle, bitte)?

Die Leistungssteiogerungen der Grafikkarten sind ja nun mit dieser Generation noch gestiegen, aber nicht mehr in dem Ausmaße wie zur Zeiten einer ATI Radeon 9700 Pro. Ich meine, dass irgendwann die nm-Grenze überschritten ist, viel kleiner wie 65 nm werden die die Chips wohl nicht mehr kriegen. Dareaus folgt: Leistungssteigerungen nur noch bedingt durch neuen RAM und durch höhere Taktfreqenzen möglich, dank 65 nm, und natürlich noch mehr Pixelpipelines sowie Vertexshader-Einheiten.

Die praktische Leistungsstigerung wird dann, wenn die Taktfrequenzen nicht mehr "hochgeprügelt" werden, wohl nur noch durch denm Einsatz von mehreren Chips verwirklicht werden können.

Gruß

janky ;-)

Gast
2006-01-08, 13:40:19
Im Gegensatz zu CPUs lassen sich Grafikchips immer noch sehr gut in der Breite skalieren...

Iwan
2006-01-08, 13:43:20
das die chips nicht kleiner werden als 65nm halte ich aber mal für ein ganz falsches gerücht, da wirds schon noch kleiner werden.

aber das die gpus über die breite skalieren, sprich mehr piplines als mehr takt, ist schon länger so.

Gast
2006-01-08, 13:45:29
Der Trend ist nicht zu übersehen, es wird mit Sicherheit vermehrt Grafikkarten geben, die mehrere Chips auf einer Platine vereinen.

Über die Verlustleistung braucht man sich keine allzu großen Sorgen machen, denn Dual(Core) CPUs/Grafikchips haben einen Vorteil: Sie brauchen nicht so hoch takten.

Als Beispiel sei ein fiktiver Prozessor genannt:
SingleCore 4 GHz bei 1,3V
DualCore 2x3 GHz bei jeweils 1,1V.

Die verminderte Taktrate der DualCore-CPU würde in diesem Fall auch eine deutlich verminderte Leistungsaufnahme ermöglichen, die aber durch den zweiten Kern locker ausgeglichen wird.

Einziger Knackpunkt ist die Tatsache, das es Software benötigt, die von mehreren Kernen profitieren kann.

Genau das gleiche ist bei den Grafikkarten der Fall, obwohl es dort scheinbar leichter fällt, auch ohne Softwareunterstützung die zusätzliche Leistung zu nutzen.
Als Beispiel sei die ASUS-Karte genannt, welche zwei GeForce 7800 GT-Chips auf einer Platine vereint und dennoch deutlich schneller ist, als normale 7800er GT oder gar GTX-Karten.

Die Entwicklung von Dual-Systemen hat schon seine Vorteile; beispielweise können bei einer DualCore CPU mehrere Dinge gleichzeitig und unabhängig voneinander berechnet werden, was vorallem der KI zugute kommen wird.

Bei den Grafikchips könnten die Aufgaben verteilt werden, so das jeder Grafikchip nur eine bestimmte Aufgabe erledigt.

Gast
2006-01-08, 13:50:45
Davon mal abgesehen: Der Trend wird meiner Meinung nach nicht dazu führen, das man 4 oder mehr Grafikkarten im Rechner hat, sondern das alles auf einer oder zwei Platinen untergebracht wird. Schließlich sind nur die wenigsten User dazu bereit, eine Karte mehrmals zu kaufen oder die Stromkosten dafür zu bezahlen.

Die Voodoo 5 6000 hat es damals vorgemacht; mit 4 Chips auf einer Platine.

Die Fertigung ist noch lange nicht am Ende; 65nm werden gerade bei den CPUs eingeführt, allerdings ist der nächste Schritt (45nm) schon in Sicht...

anddill
2006-01-08, 14:05:45
Der Trend ist doch schon lange da. Eine GF7800GTX hat doch schon 6 Pixelprozessoren. Und im Gegensatz zu Prozessoren kann man das Spielchen bei Grafikkarten fast bis ins Unendliche weitertreiben. Das einzige, was da an Software drauf angepaßt werden muß, ist der Grafiktreiber, und das ist ja kein Problem.

Das in mehrere Chips zu zerlegen ist Blödsinn. SLI / Crossfire ist nur Marketinggedöhns für die ganz Verrückten. Die nächste Generation ist sowieso wieder schneller als ein Multi-GPU System der Vorgängergeneration.

phil99
2006-01-09, 23:31:22
Ich denke mir, dass bei den Grafikchips, wie jetzt schon bei den Prozessoren die Spannung kontinuierlich abnehmen wird, weil man hier quadratisch Verlustleistung spart.
Was bei CPU's aber nur bedingt tauglich ist (Was will man hier mit 64 Cores ?) ist bei den Grafikkarten ja schon längst der Fall.
Hier werden ja mehrere Pixelprozessoren verbunden. Jeder ist halt für ein anderen Bildausschnitt zuständig oder für andere Effekte.
Ein weiterer sehr wichtiger Aspekt für CPU's und GPU's ist die Umstellung auf neue Materialien.
Es gibt ja schon Forschungen in die Richtung, wo für die gleiche Leistung weniger als 10% der Verlustleistung anfallen.
Allerdings dauert es noch einige Jahre bis die neue Technik die alte quasi überholt und ablöst.
Irgendwann werden nur noch Milivolts anliegen und auf einem Prozessor sind dann so 50 Miliarden Transistoren.
Irgendwann wird es auch Computer zu Billigstpreisen geben, die schneller sind als heutige Highendrechner.
Die werden dann noch so teuer sein, wie ein Taschenrechner heute, so 10 Euro.

Zool
2006-01-10, 09:14:06
Millivolt als Betriebspannung werden wir wohl nicht sehen. Da dann die Potentialbarrieren einfach zu gering sind und die Transistoren bei Raumtempearatur schon zufällig schalten (300K ~ 25meV). Die Spannung kann man vielleicht noch auf 0.5Volt drücken, da geht muß man aber sich schon was anderes als Si als Substrat suchen, selbst Ge hat nur eine Bandlücke von 0.7eV. Und die Betriebspannung muß überhalb der Bandlücke liegen.
Die Leistung kann neben der Reduzierung der Spannung durch kleiner Ströme reduziert werden, was wieder kleinere Strukturen nötig hat und da kommt man aber bei 20nm auch wieder an die Grenzen.

mapel110
2006-01-10, 09:23:43
Das in mehrere Chips zu zerlegen ist Blödsinn. SLI / Crossfire ist nur Marketinggedöhns für die ganz Verrückten. Die nächste Generation ist sowieso wieder schneller als ein Multi-GPU System der Vorgängergeneration.
Nö, das ist die Zukunft. Die nächsten 10-15 Jahre werden noch die Strukturen verkleinert, aber dann muss man sich was neues überlegen.
Und wenn man sich anschaut, wie lange es braucht, bis selbst das kleinste Pfurzspiel etwas unterstützt, ist der Zeitpunkt, Techniken wie SLI/Crossfire/Multichrom/(XGI hats auch in der Mache, weiß den Namen jetzt aber nicht) einzuführen, jedenfalls nicht verkehrt.
aber nicht mehr in dem Ausmaße wie zur Zeiten einer ATI Radeon 9700 Pro.
Die war auch eine Ausnahme. Sowas gibts nicht allzuoft bzw nur, wenn sich ein Hersteller sehr lange ausruht und das tat nvidia.
Genau das gleiche ist bei den Grafikkarten der Fall, obwohl es dort scheinbar leichter fällt, auch ohne Softwareunterstützung die zusätzliche Leistung zu nutzen.
Als Beispiel sei die ASUS-Karte genannt, welche zwei GeForce 7800 GT-Chips auf einer Platine vereint und dennoch deutlich schneller ist, als normale 7800er GT oder gar GTX-Karten.

Die Asus-Karte ich genauso auf Treiberprofile angewiesen, wie zwei einzelne Karten. Da gibts keinen Unterschied.

Gandharva
2006-01-10, 09:38:18
Nö, das ist die Zukunft. Die nächsten 10-15 Jahre werden noch die Strukturen verkleinert, aber dann muss man sich was neues überlegen.
Und wenn man sich anschaut, wie lange es braucht, bis selbst das kleinste Pfurzspiel etwas unterstützt, ist der Zeitpunkt, Techniken wie SLI/Crossfire/Multichrom/(XGI hats auch in der Mache, weiß den Namen jetzt aber nicht) einzuführen, jedenfalls nicht verkehrt.Nein, ist es nicht! Es wurde einzig dafür konzipiert um Benchmarks zu gewinnen und Gewinne zu maximieren.

mapel110
2006-01-10, 09:41:44
Nein, ist es nicht! Es wurde einzig dafür konzipiert um Benchmarks zu gewinnen und Gewinne zu maximieren.
Ach, tatsächlich. Deswegen machen das XGI und S3?! :O Da ists aber ziemlich erfolglos. :(

Coda
2006-01-10, 10:02:36
Die machen das auch nur um auf der Hypewelle zu schwimmen. Solang es Die-Shrinks gibt (was noch ein Weilchen so bleiben wird) ist das ganze Zeug für GPUs reichlich sinnlos.

Gandharva
2006-01-10, 10:06:52
Ach, tatsächlich. Deswegen machen das XGI und S3?! :O Da ists aber ziemlich erfolglos. :(S3 gibts imo nur weil VIA damit was Hauseigenes zum verwursten hat und XGI kämpft ums nackte überleben. Ja, wenns die auch machen, dann ist es wohl die Zukunft. Ich bitte Dich...

anddill
2006-01-10, 16:38:43
Genau. Der nächste Chip bekommt dann eben 128 Pipes und frißt SLI-Gespanne zum Frühstück.
Hat auch den Vorteil, daß man den Speicher nur einmal kaufen (und bezahlen) muß.

Gast
2006-01-10, 17:11:19
Nö, das ist die Zukunft.

Vorsicht. Im Hardwarebereich über "Zukunft" zu reden ist gefährlich. Aber wenn schon darüber spekuliert wird: Eine Technologie, die sich 5% oder weniger aller PC-Benutzer leisten, kann meiner Meinung nach keine Zukunft haben. SLI / Crossfire macht nur mit HighEnd-Karten Sinn*, von denen eine heute schon bis zu 700€ und mehr kostet. Für 700€ kaufen sich sehr viele Menschen einen Komplett-PC.

* "Sinn" insofern, dass eine HighEnd-Karte immer noch schneller ist als zwei Mainstream-Karten.

Ich würde mich über einen Artikel à la "Sinn und Unsinn - SLI / Crossfire" vom 3DCenter-Team freuen.

Gast
2006-01-10, 17:28:29
Meine Theorie ist übrigens, dass Heim-PCs in ferner Zukunft spieleuntauglich oder zumindest den Spiele-Konsolen weit hinterherhinken werden. Das P / L-Verhältnis wird einfach nicht mehr stimmen. Keiner wird 10.000€ in einen PC investieren (Quad-Core, 8fach-SLI, 16 GiB DDR5-Speicher?), wenn er für 1.000€ eine Konsole (PlayStation 5?) haben kann.

|MatMan|
2006-01-10, 19:29:57
das mit den Spielkonsolen wird schon lang erzählt, ca seit der PS1... eingetreten ist es bis jetzt nicht.
Ich denke, das liegt vor allem daran, dass Konsolen billig sein müssen (Herstellungskosten vielleicht 100-200$, wenn überhaupt) - es werden zwar Millionen abgesetzt, aber das trifft auf Grafikkarten auch zu.
Da eh die üblichen Hersteller (rot oder grün) den Grafikcore der Konsole entwickeln, können sie die 'gleiche' Technologie doch auch für den PC verkaufen (oder umgedreht). Ein exklusiv Monster Chip nur für Konsolen zu entwicklen macht von der wirtschaftlichen Seite her keinen Sinn.

Der Vorteil der Konsolen ist, dass die Hardware über die Zeit sehr viel besser ausgenutzt werden kann (da jede Konsole die gleiche Hardware hat) und dadurch 'mehr Leistung' raus kommt. Dafür muß so eine Konsole auch ein paar Jahre halten, während für den PC ständig was neues, schnelleres raus kommt...


onTopic: Grafikchips sind an der Grenze, was der Herstellungsprozess an Transistoren/ Takt zu läßt. Bei CPUs läßt sich mit an der Logik nicht mehr so viel machen um Leistungssprünge zu erzielen, da sich nicht viel parallelisieren lässt, deswegen wachsen auch die L2 Caches - die wissen nicht wohin mit den Transisitoren :wink:

Wenn sich Transistorcount oder Takt nicht weiter erhöhen lassen, nimmt man halt mehrere Cores, bei CPUs ist es fast Normalität, bei Grafikkarten denke ich wird es das auch werden (wohl eher auf einer Platine), es fehlt noch etwas Treiberentwicklung und wohl auch Unterstützung durch Spiele, vielleicht auch DirectX? :cool:

anddill
2006-01-10, 19:30:04
Meine Theorie ist übrigens, dass Heim-PCs in ferner Zukunft spieleuntauglich oder zumindest den Spiele-Konsolen weit hinterherhinken werden. Das P / L-Verhältnis wird einfach nicht mehr stimmen. Keiner wird 10.000€ in einen PC investieren (Quad-Core, 8fach-SLI, 16 GiB DDR5-Speicher?), wenn er für 1.000€ eine Konsole (PlayStation 5?) haben kann.

Ist ja wie in "Und täglich grüßt das Murmeltier". Wenn man den Markt schon eine Weile verfolgt, hat man diesen Spruch schon soooo oft gehört.
Der PC entwickelt sich kontinuierlich weiter, während die Konsolen in Sprüngen mitziehen. Immer nach einem Sprung sind die Konsolen leicht vorne, werden dann aber vom PC recht schnell eingeholt.

Gast
2006-01-10, 20:23:16
Ihr habt beide meine Aussage missverstanden.

Ich meine nicht, dass man mit PCs gar nicht mehr in der Lage sein wird zu spielen. Ich rede vom P / L-Verhältnis. HighEnd wird immer teurer und teurer, besonders wenn man auf Quantität setzt (mehrere CPUs bzw. CPU-Kerne und mehrere Grafikkarten bzw. GPUs). Wenn das also tatsächlich so weitergehen sollte, ist man doch mit einer 10-fach billigeren Konsole besser bedient, anstatt Unmengen Geld für den PC und zusätzlich fürs ständige Aufrüsten auszugeben. Von so einer Situation (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=269315) rede ich.

Vor zwei Jahren war die Situation noch vertretbar. Für 1.500€ bekam man ein HighEnd-System. Heute bezahlt man für HighEnd schon mindestens das Doppelte. Für 1.500€ bekommt man nur noch die Grafikkarten.

Paul Brain
2006-01-10, 20:40:17
Ihr habt beide meine Aussage missverstanden.

Ich meine nicht, dass man mit PCs gar nicht mehr in der Lage sein wird zu spielen. Ich rede vom P / L-Verhältnis. HighEnd wird immer teurer und teurer, besonders wenn man auf Quantität setzt (mehrere CPUs bzw. CPU-Kerne und mehrere Grafikkarten bzw. GPUs). Wenn das also tatsächlich so weitergehen sollte, ist man doch mit einer 10-fach billigeren Konsole besser bedient, anstatt Unmengen Geld für den PC und zusätzlich fürs ständige Aufrüsten auszugeben. Von so einer Situation (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=269315) rede ich.

Vor zwei Jahren war die Situation noch vertretbar. Für 1.500€ bekam man ein HighEnd-System. Heute bezahlt man für HighEnd schon mindestens das Doppelte. Für 1.500€ bekommt man nur noch die Grafikkarten.
Bledsinn. Alles wird billiger. Um das Geld, wo Du heute ein Mid-Range-System kaufen kannst, hast vor 5 Jahren viell. ausrangierte Niedrigst-Performance-Gebrauchtware bekommen.
Und selbst wenn High-End ein paar Prozent teurer werden sollte: Niemand "braucht" High-End zum Spielen, und in zwei Jahren ist jedes Mid-Range-System auf dem Level einer aktuellen Konsole. Wer immer das beste haben muß, zahlt eben auch dafür; dafür kann man das beim PC, anders als bei der Konsole, auch kaufen und sich freuen, was "besseres" zu haben als der Rest.

Monger
2006-01-10, 20:52:22
Die machen das auch nur um auf der Hypewelle zu schwimmen. Solang es Die-Shrinks gibt (was noch ein Weilchen so bleiben wird) ist das ganze Zeug für GPUs reichlich sinnlos.

Mal ganz abgesehen davon: sind wir denn heute überhaupt GPU limitiert?

Ich sehe eigentlich schon seit Jahren den Flaschenhals bei der CPU.

mapel110
2006-01-10, 21:14:22
Vorsicht. Im Hardwarebereich über "Zukunft" zu reden ist gefährlich. Aber wenn schon darüber spekuliert wird: Eine Technologie, die sich 5% oder weniger aller PC-Benutzer leisten, kann meiner Meinung nach keine Zukunft haben. SLI / Crossfire macht nur mit HighEnd-Karten Sinn*, von denen eine heute schon bis zu 700€ und mehr kostet. Für 700€ kaufen sich sehr viele Menschen einen Komplett-PC.

* "Sinn" insofern, dass eine HighEnd-Karte immer noch schneller ist als zwei Mainstream-Karten.

Wenn Fertigungstechniken nunmal endlich an ihre Grenzen stoßen und es keinen anderen Weg gibt, wird man nicht umhin kommen, mehrere GPUs einzusetzen und dann wirds auch massentauglich.


Ich würde mich über einen Artikel à la "Sinn und Unsinn - SLI / Crossfire" vom 3DCenter-Team freuen.
http://www.3dcenter.org/artikel/2004/11-08.php
Zwar eine Kolumne, aber lesenswert.
Mal ganz abgesehen davon: sind wir denn heute überhaupt GPU limitiert?

Ich sehe eigentlich schon seit Jahren den Flaschenhals bei der CPU.
Für 200 € einen Monitor mit 2048er Auflösung kaufen und man ist wieder GPU-limitiert. :D