PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GPUs in >2013 - Projektion


AnarchX
2008-08-26, 13:32:22
Auf der Nvision gab es nun eine aktuelle Projektion davon welche Leistungsdaten eine GPU in 2013 haben soll:
http://img510.imageshack.us/img510/3853/gpu2013wq6.jpg (http://imageshack.us)
http://www.heise.de/newsticker/Nvidia-setzt-auf-die-3D-Revolution--/meldung/114869

Im Vergleich dazu die Projektion von 2004 aus GPU Gems:
http://img262.imageshack.us/img262/2037/estimatepi3.jpg (http://imageshack.us)

HOT
2008-08-26, 13:35:52
Interessante Info - dann will NV auch AMDs Weg über kleinere Chips mit mehr Takt gehen.

AnarchX
2008-08-26, 13:38:21
Interessante Info - dann will NV auch AMDs Weg über kleinere Chips mit mehr Takt gehen.
Das untere Diagramm ist aus 2004!

Aber bei den oben genannten Peak-Werten sollte man wohl auch bedenken, dass diese wohl weniger erreichbar sind als bei heutigen GPUs, wenn nämlich ROPs und andere FF-Einheiten in die ALUs übergegangen sind.

Gast
2008-08-26, 19:37:37
1T/s wären bei 512Bit gut 8000MHz Speichertakt, da reicht wohl GDDR5 nicht mehr aus ;)

dargo
2008-08-26, 19:47:02
Das sind noch lange ~5 Jahre. Bis dahin haben wir schon locker GDDR6. :)
Und beim SI dürfte man ebenfalls schon bei mindestens 768Bit sein, eher 1024Bit.

stav0815
2008-08-27, 08:39:30
Das sind noch lange ~5 Jahre. Bis dahin haben wir schon locker GDDR6. :)
Und beim SI dürfte man ebenfalls schon bei mindestens 768Bit sein, eher 1024Bit.
Das glaubst du doch selbst nicht. Der Verdrahtungsaufwand ist schon bei 512-bit dermaßen hoch, dass es sich kaum noch lohnt. Und Verdrahtungskosten sinken nicht mit der Zeit sondern bleiben für ein Interface immer diesselben.

BlackBirdSR
2008-08-27, 14:37:06
Hier rücken wir dann schon eher in Regionen, wo kleinere aber extrem breit angebundene lokale Speicherzellen die nötige Banbdreite liefern könnten. Mal sehen.

dargo
2008-08-27, 15:08:06
Der Verdrahtungsaufwand ist schon bei 512-bit dermaßen hoch, dass es sich kaum noch lohnt. Und Verdrahtungskosten sinken nicht mit der Zeit sondern bleiben für ein Interface immer diesselben.
Jaja, die Kosten. Ich sehe gerade wie teuer das alles ist bei dem GT200. ;)

Godmode
2008-08-27, 16:17:40
Hier rücken wir dann schon eher in Regionen, wo kleinere aber extrem breit angebundene lokale Speicherzellen die nötige Banbdreite liefern könnten. Mal sehen.

Hört sich interessant an! Wieviel Silizum Fläche haben den momentan die größten GDDR3 Bausteine, bzw. sind Speicherbausteine 3-Dimensional?

AnarchX
2008-08-27, 16:19:52
Bei Computerbase gibt es noch die restlichen Folien zur "GPU" 2013:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/august/nvision_zukuenftige_gpus_spezialisierung/

user77
2008-08-27, 16:23:56
ATI: die 9700 pro hatte 256bit SI und jetz 5 jahre später haben wir mit der hd 4870 noch immer 256bit SI.

AnarchX
2008-08-27, 16:30:47
ATI: die 9700 pro hatte 256bit SI und jetz 5 jahre später haben wir mit der hd 4870 noch immer 256bit SI.
Der Vergleich ist nicht ganz richtig, die 9700 Pro war ja High-End, eben wie es heute die 4870X2 ist, macht also:

256-Bit@310MHz ~20GB/s vs 2x256-Bit@1800MHz ~230GB/s

... wobei natürlich bei aktuellen GPUs auch noch effizienter dank besseren Kompressionsalgorithmen mit der Bandbreite umgegangen wird.

Und auch bei der Projektion von NV kann man wohl ausgehen, dass hier die Bandbreite dann wohlmöglich über mehrere verteilte SIs erreicht wird oder wie BBSR es eben sieht über einen breit angebundenen On-Die-Speicher, wo Intel z.B. momentan auch massiv dran entwickelt:
http://www.tgdaily.com/html_tmp/content-view-38009-135.html

Thunder99
2008-08-28, 11:18:00
ATI: die 9700 pro hatte 256bit SI und jetz 5 jahre später haben wir mit der hd 4870 noch immer 256bit SI.
Haben die 512Bit der HD2900XT was gebracht außer Kosten? Nein, und ATI geht über GDDR5 den günstigeren Weg für mehr Bandbreite

CompuJoe
2008-08-28, 16:11:38
Kann ja auch sein das in Zukunft mehr und mehr auf eDRAM zurückgegriffen wird.
Damit währe das Problem mit der verdrahtung geschichte.

Oder der Speicher wandert mit auf den Träger der GPU womit die verdrahtung evtl auch einfacher wird.
Also nur noch Platine mit Spannungsversorgung und Anschlüssen, der Rest sitzt alles auf dem Chip.

dargo
2008-08-28, 19:53:59
Kann ja auch sein das in Zukunft mehr und mehr auf eDRAM zurückgegriffen wird.
Damit währe das Problem mit der verdrahtung geschichte.

Zu teuer. Ansonsten zu unflexibel. Wähle ich ein Spielsetting bei dem der eDRAM nicht mehr reicht kann man sich den auch gleich sparen.

CompuJoe
2008-08-28, 20:28:41
Was spricht dagegen das er billiger wird wenn er häufiger eingesetzt wird?
Oder halt die zweite Option.

The_Invisible
2008-08-28, 20:31:46
Das glaubst du doch selbst nicht. Der Verdrahtungsaufwand ist schon bei 512-bit dermaßen hoch, dass es sich kaum noch lohnt. Und Verdrahtungskosten sinken nicht mit der Zeit sondern bleiben für ein Interface immer diesselben.

hm, hat man das für 512bit auch nicht schon vorgepredigt?

mfg

haifisch1896
2008-08-28, 20:32:35
Oh Gott, während dem Eintippen zwei Leute vor mir fertig geworden. Ich beziehe mich hier auf eDRAM

War es nicht auch so, dass die Fertigung anders als bei normalen CPUs/GPUs läuft? Wenn ja, wie hat IBM diese Technik erfolgreich als L2 in die Power-CPUs bekommen?

Und bei den Fortschritten in der Fertigungstechnik wäre es für 2013 doch vielleicht sogar möglich, "mal eben" 20MB eDRAM ins gleiche Package zu pressen.
Oder dies sogar als Teil der Vermarktung zu nutzen. Sodaß Recheneinheiten und eDRAM gekoppelt sind. Halbe Einheiten, halber Speicher, entsprechend weniger Leistung.

dargo
2008-08-28, 21:08:45
20MB eDRAM sind für PC-Games bei heutigen Auflösungen (inkl. AA) schon viel zu wenig. Da müsste man schon in Richtung ~100MB gehen.

Gast
2008-08-28, 21:11:57
hm, hat man das für 512bit auch nicht schon vorgepredigt?

mfgStimmt! Und ATI hat auch zugehoert und verstanden ;)

Gast
2008-08-28, 21:16:24
Hier rücken wir dann schon eher in Regionen, wo kleinere aber extrem breit angebundene lokale Speicherzellen die nötige Banbdreite liefern könnten. Mal sehen.

Ich denke eher, daß die parallelen Speicher-Interfaces durch serielle abgelöst werden, so wie das auch bei allen Interfaces Einzug gehalten hat (USB, S-ATA, PCIe, HT, QPI)

Gast
2008-08-29, 10:36:52
Und wie willst du dann den Speicher entsprechend ansprechen? Wir sind ja mit dem Taktraten weit über denen, die die genannten Schnittstellen bieten.
Steuer mal 512MB Speicher mit einer Bandbreite von +100GB/s an, seriell... bei Speicherchips die eine festgelegte! PIN Anzahl haben.

Aquaschaf
2008-08-29, 11:12:54
Ich denke eher, daß die parallelen Speicher-Interfaces durch serielle abgelöst werden, so wie das auch bei allen Interfaces Einzug gehalten hat (USB, S-ATA, PCIe, HT, QPI)

RAM ist doch etwas völlig anderes als USB oder S-ATA..

Coda
2008-08-29, 12:32:53
Vor allem sind Hypertransport und Quickpath nicht seriell.

Bei PCIe ist das auch nur pro Lane so, mehrere davon sind für die Bandbreite trotzdem erforderlich. Auf Verdrahtungsebene wird also nichts gespart, außer dass das Serpentinen-Routing entfällt. Sowas in die Richtung implementiert GDDR5 jetzt auch schon - es gibt pro Link eine Autonegotiation für die Routing-Länge.

=Floi=
2008-09-01, 03:27:02
http://www.computerbase.de/bild/news/20578/3/
was ist denn die projection gpu für eine?

mich verblüfft vor allem, dass nv auch alle anderen parameter stark steigern will und nicht nur die reine rechenleistung für shader und co.

Coda
2008-09-01, 04:15:41
Das sind doch alte Vorhersagen.

mich verblüfft vor allem, dass nv auch alle anderen parameter stark steigern will und nicht nur die reine rechenleistung für shader und co.
Mich nicht. Es ist ein Märchen, dass Texture-Power so viel unwichtiger geworden ist. Man braucht immer mehr Parameter-Maps und die User wollen gescheites AF.

AnarchX
2009-03-12, 20:03:36
http://www.computerbase.de/bildstrecke/22659/5/

Das interessante daran dürfte wohl sein, dass Larrabee dieses Featureset wohl schon 2010 liefern könnte, natürlich nicht mit einer geringeren Rohleistung als NVs 2013er GPU.

Gast
2009-03-12, 21:03:55
Und wann machen sie den ersten Schritt ?
seit der 8800GTX is der Leistungssprung mehr als schwach

Die gelbe Eule
2009-03-12, 21:20:03
Mich würde interessieren, wie groß die Karten noch werden. Mittlerweile ist ja 8800GTX Länge bei High End standard. Werden es mehrere Cores, so müsste man ja auch mehr Fläche haben um effizient abzuführen.

AnarchX
2009-03-12, 21:22:54
Mit Dual-GPU-Packages könnte man z.B. schon mal einiges an Länge einsparen gegenüber einer Dual-GPU-Karte mit zwei getrennt aufgebrachten Dies. Mal sehen was wir bei RV870X2 sehen werden.

Gast
2009-03-12, 21:25:57
20MB eDRAM sind für PC-Games bei heutigen Auflösungen (inkl. AA) schon viel zu wenig. Da müsste man schon in Richtung ~100MB gehen.
Was bräuchte es denn für einen Herstellungsprozeß für 100MB eDRAM damit es nicht zu teuer wird und bis auf den Low-End Markt praktisch überall eingesetzt werden könnte? 32nm?

maddawn
2009-03-13, 06:40:25
Ich glaube nicht an die prophezeite Leistung für Grafikkarten im Jahr 2013. Die Leistungsaufnahme und Wäremeabgabe der aktuellen GPUs ist doch schon recht nahe am Limit dessen was man günstig und massentauglich wegkühlen kann und bezüglich Stromverbrauch noch Leuten andrehen kann.

HighEnd vor 5 Jahren 50W? HighEnd heute 300W? HighEnd in 5 Jahren realistisch maximal 500W...

Ailuros
2009-03-13, 07:41:51
Ich glaube nicht an die prophezeite Leistung für Grafikkarten im Jahr 2013. Die Leistungsaufnahme und Wäremeabgabe der aktuellen GPUs ist doch schon recht nahe am Limit dessen was man günstig und massentauglich wegkühlen kann und bezüglich Stromverbrauch noch Leuten andrehen kann.

Bis zu 5 Jahren im Voraus koennen Projektionen noch ziemlich nahe an der Realitaet liegen. Wenn Du Dir die Projektion in 2004 fuer die Zukunft ansiehst und in etwa 2009 einschaetzt, wird es nicht besonders schwer sein zu sehen dass sie nicht besonders daneben lagen damals.

Natuerlich lagen sie bei der Projektion fuer 10 Jahre damals total daneben, aber die sehr lange Zeitspanne war auch ziemlich gewagt. Von 2009 bis 2013 ist es um einiges leichter heutzutage einige Parameter einzuschaetzen. In 2004 gab es noch keinen GT3x0 und GT4x0 auf der roadmap.

HighEnd vor 5 Jahren 50W? HighEnd heute 300W? HighEnd in 5 Jahren realistisch maximal 500W...

GeForce 6800 Ultra/ 2004 = 72.09W

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_2.html#sect0

GeForce GTX285 / 2009 = 149.8W

http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx285ssc_5.html#sect0

***edit: und bevor mir jemand mit irgendwelchen weiteren nutzlosen Uebertreibungen kommt, die 6800 Ultra konnte man auch mit 2 GPUs in SLi in ein System stecken.

maddawn
2009-03-23, 23:16:39
Bis zu 5 Jahren im Voraus koennen Projektionen noch ziemlich nahe an der Realitaet liegen. Wenn Du Dir die Projektion in 2004 fuer die Zukunft ansiehst und in etwa 2009 einschaetzt, wird es nicht besonders schwer sein zu sehen dass sie nicht besonders daneben lagen damals.

Natuerlich lagen sie bei der Projektion fuer 10 Jahre damals total daneben, aber die sehr lange Zeitspanne war auch ziemlich gewagt. Von 2009 bis 2013 ist es um einiges leichter heutzutage einige Parameter einzuschaetzen. In 2004 gab es noch keinen GT3x0 und GT4x0 auf der roadmap.



GeForce 6800 Ultra/ 2004 = 72.09W

http://www.xbitlabs.com/articles/video/display/ati-vs-nv-power_2.html#sect0

GeForce GTX285 / 2009 = 149.8W

http://www.xbitlabs.com/articles/video/display/evga-geforce-gtx285ssc_5.html#sect0

***edit: und bevor mir jemand mit irgendwelchen weiteren nutzlosen Uebertreibungen kommt, die 6800 Ultra konnte man auch mit 2 GPUs in SLi in ein System stecken.

Die heutigen Spitzenmodelle sind ja wohl AMD 4870 X2 und NVidia Geforce 295 GTX und die sind wie euer Beitrag:
http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme
zeigt in Furmark sogar weit über 300W und die Grafikkarten sind alle nicht übertaktet was selbst diese Werte pulverisieren würde

Und das man damit nicht mehr weit vom Limit dessen ist was man mit Luft wegkühlen kann (auf wirtschaftlich sinnvoller Basis) wird keiner bestreiten. Der Fertigungsprozess wird sich in den kommenden 5 Jahren auch nur so verkleinern das man vielleicht die 4 fache Transistormenge auf der gleiche Chipfläche unterbringen kann.

Mag sein das ich ein Laie bin aber ich sehe keine kostant schnelle Entwicklung der GPU-Leistung in Zukunft sondern eine Verlangsamung.

Gast
2009-03-24, 02:29:21
Der Fertigungsprozess wird sich in den kommenden 5 Jahren auch nur so verkleinern das man vielleicht die 4 fache Transistormenge auf der gleiche Chipfläche unterbringen kann.

Ich denke ein bisschen mehr ist das schon, die High-End Chips sind immer noch bei 55nm.
40nm soll jetzt bald kommen, dann gibts 32nm (was Intel als nächsten Schritt bei CPUs einführt) 22nm und vielleicht 11nm (soll machbar sein).
Von 55nm auf 11nm der Schritt noch sehr groß, wenn ich mich nicht verrechnet hab, könnten sie damit 25 mal so viel auf der gleichen Fläche unterbringen :eek:
Und dann bleibt uns noch die Möglichkeit den Prozess weiter zu optimieren. Nachdem was ich so rausgelesen habe, ist ein neuer Prozess nur selten optimal und oft gibts mehrere Fertigungsmethoden, beispielweise für geringere Leistungsaufnahme (Leckströme) oder schnellere Schaltzeiten, irgendwie so.
Bei Intel sehen wir das auch ganz gut, die CPUs werden fast 2 jahre später noch besser, wenn sie ein neues Stepping bringen.

Ganz so schwarz sehe ich da nicht, wenn man am Limit angelangt ist, könnte vielleicht auch eine Architekturänderung eine weitere Leistungssteigerung bewirken - man weiß ja nie, ob die jetzige "perfekt" ist.
Mich wundert auch immer wieder, das Ati/nvidia einen Chip überarbeiten können, manchmal mit weniger Transisatoren und dann trotzdem noch gleiche+bessere Leistung erreichen.

Gast
2009-03-24, 03:35:38
Und dann bleibt uns noch die Möglichkeit den Prozess weiter zu optimieren. Nachdem was ich so rausgelesen habe, ist ein neuer Prozess nur selten optimal und oft gibts mehrere Fertigungsmethoden, beispielweise für geringere Leistungsaufnahme (Leckströme) oder schnellere Schaltzeiten, irgendwie so.
Bei Intel sehen wir das auch ganz gut, die CPUs werden fast 2 jahre später noch besser, wenn sie ein neues Stepping bringen.wie sehen wir das denn? Das siehst du höhstens, weil es sich im Nezt rumspricht, daß neuere Steppings 15% höher beim OC gehen. 15% ist nichts weltbewegendes was diese Thema hier angeht.

Ich frag mich, wenn "Multipackages" auf einer Karte Standard werden und man nichts anderes mehr kriegt, ob dann jeder mit Mikrorucklern kämpfen wird :uup:

Abgesehen davon sind Grakas die mehr als 100W in 3D ziehen und noch 50W auf dem Desktop absolut abtörnend. Wenn man die Lösungen in ihrer Gesamtheit betrachtet haben die momentanen Dualchip-Boliden genauso wie die 8800GTX und Konsorten so viele Baustellen offen, daß man sie nur als Technologiestudien betrachten kann.

Sie werfen uns den Mist sowieso schon mit solchen stock Kühlern, daß man das Zeug den Spinnern nur um die Ohren hauen kann. Hier wird von den Grenzen der Luftkühlung gesprochen. Die sind schon längst erreicht. Wer spielt denn hier mit Lüfterrauschen von 2.5 Sone und mehr?
Alles schwärmen von den Topmodellen als wenn die Zeit in der sie sich über die 9000er von NV schlappgelacht haben nie existiert hätte. sind wir alle schon so alt geworden daß wir schon halb taub sind?

Es ist doch schön :usweet: daß wir hier die Grakas gleich auseinanderreißen und fette Kupferkühler mit großen Lüftern dranschrauben, aber das ist alles mittlerweile sowas von realitätsfremd, daß man nur einen Schritt zurückgehen muß um festzustellen wie lächerlich das alles geworden ist. auch ein P4 über den wir uns jahrelang lustig gemacht haben selbst samt dem D960 war ein Chorknabe dagegen.

Wenn ihr mich fragt stecken die beiden gasnz schön in der Klemme denn sie haben nichts in der Hinterhand wie Intel damals mit dem Pentium-M Design oder AMD seinerzeit mit Athlon64.

Gast
2009-03-24, 03:57:18
WORD! :mad: Die letzten normalen Karten aus der "End" Klasse waren für mich die 8800GT und die 3870. Selbst wenn man jetzt zu der 3870 vergleichbares mit der 4670 bekommt, das ist nicht "End" oder nah End. Die Entwicklung steckt in einer Sackgasse. Man kann nicht unendlich die Leistung nur durch mehr Energieverbrauch und lautere Lüfter steigern :crazy2:

Selbst die Steigerung durch Multigpus scheint den Machern so wenig zu bringen daß sie die folgenden Frames auf Teufel komm raus asyncron ausgeben. Aktuell gibt es nur noch Schrott in der HighEnd Klasse. Selbst in der Spitzenklasse sieht es nicht besser aus. Nur Oberklasse und Mittelklasse liefert noch ein annehmbares Paket falls man kein Freak vom Dachboden ist. Mit mußte man auch mit einer X850XT-PE keine Angst haben als solcher zu gelten.

Ailuros
2009-03-24, 07:18:59
Die heutigen Spitzenmodelle sind ja wohl AMD 4870 X2 und NVidia Geforce 295 GTX und die sind wie euer Beitrag:
http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme
zeigt in Furmark sogar weit über 300W und die Grafikkarten sind alle nicht übertaktet was selbst diese Werte pulverisieren würde

Das "Euer" kannst Du Dir locker sparen. Ich hab Gott sei Dank meine eigene Meinung und diese ist total unabhaengig von dem was 3DCenter als Seite schreibt.

Die Projektion spricht von Leistungsteigerungen auf einem einzelnen chip.

Und das man damit nicht mehr weit vom Limit dessen ist was man mit Luft wegkühlen kann (auf wirtschaftlich sinnvoller Basis) wird keiner bestreiten. Der Fertigungsprozess wird sich in den kommenden 5 Jahren auch nur so verkleinern das man vielleicht die 4 fache Transistormenge auf der gleiche Chipfläche unterbringen kann.

Bis jetzt gab es fuer jede imaginaere Grenze der Vergangenheit eine Loesung.

Gast
2009-03-24, 08:44:30
Die Projektion spricht von Leistungsteigerungen auf einem einzelnen chip.Nö. Es kann auch ein GPU-Sockel gemeint sein.

Bis jetzt gab es fuer jede imaginaere Grenze der Vergangenheit eine Loesung.Eine welche die Karte nicht im Rauch aufgehen lies. Seit einigen Jahren schon sind 99% der mit einer Karte gelieferten Lösungen inakzeptabel.

Ailuros
2009-03-24, 08:56:55
Nö. Es kann auch ein GPU-Sockel gemeint sein.

Wenn ich mir nicht sicher darueber waere, wuerde ich auch nicht in so einem absoluten Ton darueber antworten.

Eine welche die Karte nicht im Rauch aufgehen lies. Seit einigen Jahren schon sind 99% der mit einer Karte gelieferten Lösungen inakzeptabel.

Es gab und gibt stets Loesungen fuer alle Geschmaecke und Geldbeutel. Die Situation hat sich seit der Geburt von GPUs nicht besonders geaendert. Keiner zwingt Dich Deine imaginaeren 99% zu kaufen.

So und jetzt bitte wieder zurueck zum eigentlichen Thema.

Giraffengustav75
2009-04-04, 10:47:46
Also mir kommen die Werte aber auch etwas zu optimistisch vor, wenn ich mir die derzeitige Entwicklung ansehe. Seit der 8800er Reihe scheint die Entwicklung wirklich verlangsamt...und die kamen schon Ende 2006(!) raus.

Und das mit der Wattaufnahme stimmt natürlich auch, da ist man längst in nicht akzeptablen Regionen vorgestoßen. Diese ist der Hauptgrund, dass die High-End-Karten vollkommen uninteressant für mich geworden sind. Schon verrückt, dass einem die 4670 mit ihren ~60 Watt unter Last fast schon mickrig vorkommt.

=Floi=
2009-04-04, 11:03:33
da muß ein GT300 nur die 3-fache leistung einer 285gtx haben und schon sieht die welt wieder anders aus. Unterm strich hat es auch seinen vorteil, dass sich diese entwicklung verlangsamt und abeschwächt hat.
Mit meiner 8800GTS512 bekomme ich noch immer guten support und die leistung reicht für vieles noch sehr gut.

Bei den kühlern wird sich in naher zukunft auch sicherlich etwas tun, sofern nicht jeder ct. zählt.

Daredevil
2009-04-04, 11:11:10
In der früheren Zeit sind die Hersteller auch nicht großartig auf Probleme wie Stromverbrauch oder Lautstärke gestoßen.
Ok es gab da mal eine Reihe bei Nvidia... ;D aber das hätte man auch einfach durch einen riesen Kühlkörper wie heute der Fall ist kompensieren können.
Heutige Karten laufen am Limit des Durchschnitts Verbrauchers wenn es im Stromverbrauch und Lautstärke geht, ich nehme da z.B. die HD4870 als Beispiel.
Sie ist heiß, sie schluckt massig Strom und sie der Referenzkühler ist verdammt Laut.

Ich denke nicht das es möglich ist diese 3 Komponenten zu unterbieten mit der Erwartung der Spieler welche heißt -> 1.5-2.0 fache Leistung.
Eine 9800pro war schlank, nicht zu Laut und an Strom hat da noch keiner gedacht, da konnte man mal eben massig aufbauen und eine viel schnellere x8xx herbeizaubern mit winzigem Kühler, heutzutage glaube ich das es eben nicht mehr so einfach ist.

Gast
2009-04-04, 11:15:51
In der früheren Zeit sind die Hersteller auch nicht großartig auf Probleme wie Stromverbrauch oder Lautstärke gestoßen.
Was ist die "frühere Zeit"?

Ok es gab da mal eine Reihe bei Nvidia... aber das hätte man auch einfach durch einen riesen Kühlkörper wie heute der Fall ist kompensieren können.Allerdings, deren Kühler war dermaßen ineffizient und der verbrauch im Vergleich zu heute ein derartiger Witz.
Heutzutage werden Karten passiv gekühlt, die mehr verbrauchen.

Ailuros
2009-04-04, 11:18:57
da muß ein GT300 nur die 3-fache leistung einer 285gtx haben und schon sieht die welt wieder anders aus.

Das wuenschen wir uns wohl viele; ich wuerde aber persoenlich gleich mitwuenschen dass so ein hypothetisches Teil auch bei =/>200W unter Last verbraucht.

Unterm strick hat es auch seinen vorteil, dass sich diese entwicklung verlangsahmt und abeschwächt hat.
Mit meiner 8800GTS512 bekomme ich noch immer guten support und die leistung reicht für vieles noch sehr gut.

Es heisst auch unter dem Strich dass jemand anders der heute vergleichbare Leistung auf einer GPU haben moechte diese um einiges billiger als damals kaufen kann und mit um einiges niedrigerem Stromverbrauch (siehe 55nm).

Bei den kühlern wird sich in naher zukunft auch sicherlich etwas tun, sofern nicht jeder ct. zählt.

Die wesentlichsten Aenderungen was den Stromverbrauch der naechsten Generationen betrifft werden wohl eher Architektur-bedingt sein. Man kann noch ziemlich vieles anstellen in dem man die Frequenz-Verwaltungen etwas flexibler gestaltet, man endlich powergating benutzt, Leckstroeme besser bekaempft usw.

In der weniger absehbahren Zukunft kommt es dann vielleicht so weit:

http://www.xbitlabs.com/news/other/display/20090403120624_Intel_Claims_New_Materials_Can_Trim_Consumption_of_Microprocessor s_by_90.html

(vorsicht beim letzten Satz....)

Gast
2009-04-04, 12:34:34
Muss die ganze GPU 2x Leistung bieten oder ist das auf einen Teil, aka Shaderleistung bezogen?
Denke bei der Speicherbandbreite bewegt sich ja nicht mehr viel, im AA Bereich ist MSAA mittlerweile auch da angekommen wo es Zeit für was neues ist. 4xMSAA + TSSAA reicht vollkommen in den hohen Auflösungen, aber hat man schon etwas um SSAO Performant zu bekommen?

dargo
2009-04-04, 12:46:41
TSSAA frisst imo immer noch extrem viel Leistung, hängt halt vom Game ab.

Zafi
2009-04-08, 04:11:45
Der Strombedarf bei High-End-Grafikkarten ist vermutlich bald kein Thema mehr. Auf der einen Seite reduziert man fleisig den Idle-Bedarf und auf der anderen Seite wird auch an effektiveren Transistoren geforscht. So hat Intel doch erst kürzlich einen Verbindungshalbleiter Transistor präsentiert, der nur halb soviel Spannung benötigt und nur ein zehntel Strombedarf besitzt, als vergleichbare aktuelle Elementhalbleiter Transistoren. Damit sind gleichzeitig auch größere Cores mit 10x mehr Transistoren einfacher umsetzbar, die aber dennoch nicht mehr Strom benötigen. Von Kühlung ganz zu schweigen. Denn die Menge der Transistoren resultiert in größere DIEs, welche sich durch ihre größere Fläche praktischerweise auch sehr viel besser kühlen lassen. Da braucht man sich dann wohl nicht wundern, wenn die neuesten High-End CPUs/GPUs mit einem kleinen passiven Kühler daherkommen. Alles in allem sehen wir also einer coolen und stromsparenden Zukunft entgegen.

EDIT: Wie ich die Zukunft sehe: Der Bedarf an High-End-Darstellungen nimmt ab, weil Fotorealismus praktisch jetzt schon erreicht ist. Statt mehr 3D gibt es nun mehr Phyisk und Volumen-Berechnungen. So wird beispielsweise bei Wasser nicht mehr nur die Oberfläche, sondern auch tatsächlich dessen Substanz und ihre Dynamik berechnet, und mit ihr dann auch die Auswirkungen auf das sichtbare Wasser. Dafür bedarf es keiner großen Speicher, aber dafür schneller Speicher und unendlich viel Rechenleistung. So kommt dann der totgeglaubte eDRAM doch wieder ins Spiel. Nicht für die Darstellung, sondern nur für die Physik-Berechnungen. Ein paar MByte sind da schon mehr als genug. Und je mehr Speicher, desto komplexere Berechnungen werden möglich. Die Grafikdarstellung darf sich weiterhin mit dem langsamen Framebuffer rumschlagen, für den auch in 10 Jahren noch eine 512bit Speicheranbindung genügen dürfte. Zumal die Taktraten bei Speicher auch in Zukunft noch durch die Decke gehen. Allein für dieses Jahr gab es ja schon Ankündigungen von DDR3 der mit über 3 GHz arbeitet, also was wird dann erst die nächsten Jahre auf uns zukommen. Gut denkbar, dass die 512bit Anbindungen dank hoher Taktraten wieder auf 256bit reduziert werden.

Ailuros
2009-04-08, 12:23:47
Muss die ganze GPU 2x Leistung bieten oder ist das auf einen Teil, aka Shaderleistung bezogen?

Zumindest 2x Leistung im Durchschnitt und dafuer reicht wohl nur eine grosse Steigerung der arithmetischen Leistung nicht aus. Das dumme mit der Projektion ist dass keiner weiss ob die Steigerung zwischen 2008 und 2013 eine glatte Linie ist oder ob sie sich anfangs maessieger steigert und spaeter (ca. 2010) noch radikaler nach oben.

Ist es der erste Fall, kann sich jeder kinderleicht ausrechnen wo die jeweiligen Raten in 2009 ungefaehr liegen werden.

Denke bei der Speicherbandbreite bewegt sich ja nicht mehr viel, im AA Bereich ist MSAA mittlerweile auch da angekommen wo es Zeit für was neues ist. 4xMSAA + TSSAA reicht vollkommen in den hohen Auflösungen, aber hat man schon etwas um SSAO Performant zu bekommen?

Schau Dir mal genau die Folie im ersten Post an und beachte sowohl die Texel- bzw. Pixel-Fuellraten als auch die Bandbreite. Es sieht alles andere als nach maessigen Steigerungen in diesen Feldern aus.

In den meisten Faellen reicht sogar 4xMSAA+ TMAA aus (unter der Vorraussetzung dass es auch geht); angenommen die jeweiligen Fuellraten steigen mit dem hier projezierten Rhythmus wird es wohl in der Zukunft einen Ueberschuss an Fuellraten bzw. Bandbreite fuer Supersampling in aelteren Spielen geben, aber wohl nicht fuer die zukuenftigen Spielen und schon gar nicht in hohen Aufloesungen.

Ailuros
2009-04-08, 12:27:03
EDIT: Wie ich die Zukunft sehe: Der Bedarf an High-End-Darstellungen nimmt ab, weil Fotorealismus praktisch jetzt schon erreicht ist. Statt mehr 3D gibt es nun mehr Phyisk und Volumen-Berechnungen. So wird beispielsweise bei Wasser nicht mehr nur die Oberfläche, sondern auch tatsächlich dessen Substanz und ihre Dynamik berechnet, und mit ihr dann auch die Auswirkungen auf das sichtbare Wasser. Dafür bedarf es keiner großen Speicher, aber dafür schneller Speicher und unendlich viel Rechenleistung. So kommt dann der totgeglaubte eDRAM doch wieder ins Spiel. Nicht für die Darstellung, sondern nur für die Physik-Berechnungen. Ein paar MByte sind da schon mehr als genug. Und je mehr Speicher, desto komplexere Berechnungen werden möglich. Die Grafikdarstellung darf sich weiterhin mit dem langsamen Framebuffer rumschlagen, für den auch in 10 Jahren noch eine 512bit Speicheranbindung genügen dürfte. Zumal die Taktraten bei Speicher auch in Zukunft noch durch die Decke gehen. Allein für dieses Jahr gab es ja schon Ankündigungen von DDR3 der mit über 3 GHz arbeitet, also was wird dann erst die nächsten Jahre auf uns zukommen. Gut denkbar, dass die 512bit Anbindungen dank hoher Taktraten wieder auf 256bit reduziert werden.

So lange sich die obrigen Kopfschmerzen durch groessere (und mehrere) on die caches loesen laesst, sehe ich immer noch keine Notwendigkeit fuer Transistoren-fressendes eDRAM. Als was anderes als ein grosser on die cache wuerde eDRAM sowieso nicht dienen, denn den gesamten Framebuffer theoretisch in eDRAM zu verpacken klingt mir keineswegs realistisch.

AnarchX
2009-04-08, 12:32:34
eDRAM ist doch ein alter Hut, wenn dann schon Die-Stacking.
Dann klebt man halt 512-1024MiB DRAM unter eine zukünftige High-End-GPU, wodurch man diesen Speicher auch mit >512-Bit anbinden kann.

RLZ
2009-04-08, 14:15:29
So wird beispielsweise bei Wasser nicht mehr nur die Oberfläche, sondern auch tatsächlich dessen Substanz und ihre Dynamik berechnet, und mit ihr dann auch die Auswirkungen auf das sichtbare Wasser. Dafür bedarf es keiner großen Speicher, aber dafür schneller Speicher und unendlich viel Rechenleistung.
Was bringt dich zu der Annahme so etwas würde nicht viel Speicher benötigen?

Zafi
2009-04-08, 14:22:20
eDRAM ist doch ein alter Hut, wenn dann schon Die-Stacking.
Dann klebt man halt 512-1024MiB DRAM unter eine zukünftige High-End-GPU, wodurch man diesen Speicher auch mit >512-Bit anbinden kann.

Viel zu aufwändig. Da die Komplexität der Umsetzung exponentiell zunimmt. Je breiter die Anbindung, desto mehr Verbindungen (Micro-Interconnects) und desto mehr was schief laufen kann. Wenn man also bedenkt dass die Hersteller so schon massig Ausschuss haben, dann reduziert man damit noch weiter das Angebot an High-End-Produkten, wodurch diese noch unverhältnismäßig teurer werden. Das kann man bei Low-Budget Notebook-GPUs versuchen, aber bei High-End wäre dies nicht nur riskant, sondern auch deutlich teurer als ein Framebuffer über Platine.

Darüberhinaus dient bei DIE-Stacking der größere Chip als Unterlage bzw. als Verbindung zur Platine (Pyramiden-Effekt). Im Falle der High-End GPU würde dies bedeutet, dass der Speicher zwischen GPU und Kühler platziert wird. Was die Kühlung deutlich verschlechtert und den Speicher hitzetechnisch enorm belastet. Und sellbst wenn man einen riesigen Speicherchip bastelt oder die GPU auf vielen kleinen Speicherchips thronen lässt, würde dies eine noch viel stärkere Hitze-Belastung für den Speicher darstellen, da er nun auf der Platine klebt und nicht auf dem Kühlkörper. In jedem Fall wäre dies eine Kühlungstechnische Katastrophe. Das kann man bei sparsamen Komponenten durchführen, aber nicht bei GPUs die +200 Watt Abwärme abführen müssen.

Der Nutzen eines solchen Aufbaus ist also ziemlich fragwürdig. Bleib bei eDRAM, dass hat eher Zukunft. Denn wenn eDRAM (egal wie alt der Hut ist) eingesetzt wird, dann immer nur ein relativ kleiner Speicher, so dass er sich zwar nicht für Grafikberechnung rentiert. Sehr wohl aber für Physikberechnungen, wo das Verhältnis zwischen Speichermenge und Rechenleistung deutlich zu Gunsten der Rechenleistung tendiert.

Was bringt dich zu der Annahme so etwas würde nicht viel Speicher benötigen?

EDIT: Ich hab mal nachgesehen. PhysX ist garnicht so groß, vorallem wenn man bedenkt, dass je Spiel nur eine bestimmte Version oder nur bestimmte Teile benötigt werden. Da reichen ein paar MByte eDRAM vollkommen aus, um die Ganze Software direkt in die GPU zu laden. Das mag zwar jetzt noch nicht interessant sein. Aber mit zunehmender Rechenleistung, wird dies auf jedenfall interessant. Die Alternative dazu könnte man natürlich auch den ganzen Framebuffer beschleunigen. Aber das wäre viel Aufwand, nur um der GPU ein paar (2 - 16) MByte schnellen Speicher zur Verfügung zu stellen.

AnarchX
2009-07-30, 16:41:18
Nvidia Chief Scientist: 11nm Graphics Chips with 5000 Stream Processors Due in 2015. (http://www.xbitlabs.com/news/video/display/20090730072951_Nvidia_Chief_Scientist_11nm_Graphics_Chips_with_5000_Stream_Proce ssors_Due_in_2015.html)

Mr. Dally refers to graphics processing units as “throughput processors” and claims that they will continue to evolve rather rapidly in the following years. Mr. Dally predicts that in 2015 graphics chips will have 5000 stream processing engines, will have about 20TFLOPs of computing power and will be made using 11nm fabrication process.


5000 * 2 FLOPs * 2GHz? :biggrin:

LovesuckZ
2009-07-30, 16:52:56
20 TFlops in 5 1/2 Jahren? Das klingt ziemlich unglaubwürdig für eine GPU. Heute sind sie bei ca. 1 TFlop. Mit dem spekulierten GT300 bei ca. 2,45 TFlops. Sie müssten innerhalb von 5 Jahren die Zahl verzehnfachen - also doppelt so schnell entwickeln, wie sie es jetzt tun.

AnarchX
2009-07-30, 16:57:06
Dafür wird wohl so manches an Fixed-Function-HW über Bord geworfen.

Vor 5 Jahren 2004 waren wir doch auch gerade mal bei einer 6800 Ultra (PS+VS ~100GFLOPs), mit GT300 steht hier in wenigen Monaten ein Faktor ~25. Da sehe ich Faktor 10 nicht als so unglaubwürdig groß.

Spasstiger
2009-07-30, 17:02:44
Nvidia Chief Scientist: 11nm Graphics Chips with 5000 Stream Processors Due in 2015. (http://www.xbitlabs.com/news/video/display/20090730072951_Nvidia_Chief_Scientist_11nm_Graphics_Chips_with_5000_Stream_Proce ssors_Due_in_2015.html)


5000 * 2 FLOPs * 2GHz? :biggrin:
Eigentlich klingt das ja ziemlich pessimistisch.
NV hat von Ende 2006 (G80) bis evtl. Ende 2009 (GT300) die Rechenleistung von 518 GFlops bis ~2,4 GFlops gesteigert, also im Schnitt ein Faktor 1,67 pro Jahr. Von 2006 bis 2015 hochgerechnet bedeutet das ein Faktor 1,67^9=101. Und 101*0,518 GFlops wären über 50 TFlops.
D.h. die Entwicklung schreitet langsamer voran als vom G80 bis zum GT300.

AnarchX
2009-07-30, 17:20:13
Zumal die Projektion im Eingangsposting 20+ TFLOPs schon für 2013 vorsah und nun scheint man dies eher 2015 einzuordnen, wo man dann schon wieder mindestens eine Verdopplung der 20 TFLOPS erwartet hätte.

Mit 11nm könnte man ja 5000 RV7xx-SPs auf ~25mm² und 5000 GT2xx-SPs auf 120mm² unterbringen. ;D

Coda
2009-07-30, 17:34:44
Ich bin mir auch nicht sicher ob die großen Halbleiterhersteller Moore's Law wirklich bis zum "Ende" durchhalten können.

Spasstiger
2009-07-30, 17:41:48
Ich bin mir auch nicht sicher ob die großen Halbleiterhersteller Moore's Law wirklich bis zum "Ende" durchhalten können.
Notfalls muss der Herr Moore seine Prognose wieder korrigieren. ;)

Aus den genannten Zahlen kann ich nur den Schluss ziehen, dass NV langfristig zu kleineren High-End-GPUs übergehen möchte. Offenbar rechnet man damit, dass die nachfolgenden Fertigungsprozesse deutlich teurer werden bzw. deutlich geringere Yields abwerfen.

_DrillSarge]I[
2009-07-30, 17:47:08
Ich bin mir auch nicht sicher ob die großen Halbleiterhersteller Moore's Law wirklich bis zum "Ende" durchhalten können.
das kann man auch nur, wenn immer genug ressourcen für entwicklung&forschung da sind. die diversen "schwachstellen" in den chips (oder auch in der software etc.) der hersteller sind ja nicht zum spaß da.

The_Invisible
2009-07-30, 17:50:21
na hoffentlich gibts bis dann schon eine neue konsolengeneration ;)

mfg

Gast
2009-07-30, 19:34:17
Notfalls muss der Herr Moore seine Prognose wieder korrigieren. ;)


Ich glaube, dem ist sein Gesetz inzwischen ziemlich egal. http://en.wikipedia.org/wiki/Gordon_Moore
Mit 80 hat man anderes im Kopf (falls man noch was im Kopf hat..)

Spasstiger
2009-07-30, 21:01:16
Ich glaube, dem ist sein Gesetz inzwischen ziemlich egal. http://en.wikipedia.org/wiki/Gordon_Moore
Mit 80 hat man anderes im Kopf (falls man noch was im Kopf hat..)
Was hast du gegen Gordon Moore, dass du ihn dermaßen beleidigst?
Wie ich eben gesehen habe, hat Gordon Moore vor zwei Jahren das Ende seines Gesetzes vorhergesagt: http://www.wired.com/epicenter/2007/09/idf-gordon-mo-1/
10-15 Jahre sollte demnach sein Gesetz noch gültig sein.
Gordon Moore beschäftigt sich auch mit aktuellen Themen, hier spricht er über SSDs: http://www.youtube.com/watch?v=6T6jeJOumIk

Gast
2009-07-31, 20:02:13
na hoffentlich gibts bis dann schon eine neue konsolengeneration ;)

mfg

Bitte bedenken das neue Grafik GPUs nicht automatisch dazu führen, das die Grafik Qualität in Spielen ansteigt. Siehe aktuelle Generation, die nichtmal 8xAF oder volles Anisotropes Filtert, MipMaps oder gar durchgehend 2xAA kennt.
Next Gen = Current Gen mit mehr Shaderaliasing ;)

Spasstiger
2009-07-31, 20:08:04
Next Gen = Current Gen mit mehr Shaderaliasing ;)
Aliasing und dessen Verhinderung ist aber ein Punkt, der zunehmend an Beachtung gewinnt.
Hier eine D3D11-Techdemo von Nvidia, bei der ein Feature namens "Scattering Antialiasing" Anwendung findet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7408986#post7408986

reunion
2009-07-31, 20:12:50
Aliasing und dessen Verhinderung ist aber ein Punkt, der zunehmend an Beachtung gewinnt.
Hier eine D3D11-Techdemo von Nvidia, bei der ein Feature namens "Scattering Antialiasing" Anwendung findet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7408986#post7408986

Ja, zunehmend ein Punkt für die Programmierer von Spielen. Weniger für die IHVs.

hardtech
2009-08-01, 11:22:18
hat irgendwer schon mal daran gedacht, dass spiele plattform übergreifend entwickelt werden?

die abstände der releases neuer konsolen werden größer. d.h. der bedarf nach mehr rechenleistung im pc-bereich stagniert, weil neue spiele aufgrund der "alten" konsolen und dem damit verbundenen zwang zur kompatibilität nicht mehr power brauchen.
bereits jetzt sieht man, dass günstige karten um die 120 euro fast jedes spiel mit aa/af mit zufriedenstellenden fps-raten berechnen können.

daher glaube ich auch nicht an die getroffene prognose!

Thunder99
2009-08-02, 10:46:33
Das ist oder wird ein Problem,
da die neue Konsolengeneration auf sich warten lässt kann es sich mehr als die Wirtschaftskrise auf die IHV´s auswirken.

Entweder, die neuen Konsolen kommen früher raus (Mitte/Ende 2010?) oder es muss wieder PC-Exklusive Spiele geben, damit der Markt angekurbelt wird !

Gast
2009-08-02, 16:59:11
Es wundert mich sowieso, dass weder Nvidia noch AMD einige Spielestudios übernehmen um PC- bzw. Herstellerexklusive Games zu entwickeln. Microsoft, Sony und Nintendo unterhalten doch auch eigene Spieleentwickler um die eigenen Plattformen attraktiver zu gestalten.

mapel110
2009-08-02, 17:02:40
Es wundert mich sowieso, dass weder Nvidia noch AMD einige Spielestudios übernehmen um PC- bzw. Herstellerexklusive Games zu entwickeln. Microsoft, Sony und Nintendo unterhalten doch auch eigene Spieleentwickler um die eigenen Plattformen attraktiver zu gestalten.
Zu viel Risiko. Microsoft kann ja hier und da auf Millionenverluste scheißen, nvidia und vor allem AMD können das derzeit nicht.
Das Risiko ist deutlich kleiner, wenn man einfach Dev-Support leistet. nvidia macht das hervorragend, während man immer wieder hört, dass ATI hier geizt.

crux2005
2009-08-02, 20:46:20
AMD/ATi geizt nicht nur da. Schon länger ist (imho) die PR Abteilung in Mittel Europa viel schlechter als die von nVidia. Wer braucht schon PR, wenn es quasi die fanboys machen?! Aber es soll sich in der nahen Zukunft bessern... :hoff:

Sorkalm
2009-08-02, 21:52:04
Wenn man mal in die letzten Monate schaut, scheint sich zumindest die Verbindung zu den Developers schon verbessert zu haben. Jedenfalls gabs Andeutungen in die Richtung.

Spasstiger
2009-08-02, 22:31:15
Könnte es sein, dass mit den 20 Teraflops im Jahr 2015 die Rechenleistung bei doppelter Präzision gemeint ist? Immerhin ging es ja bei der Rede um Prozessoren im Allgemeinen ohne einen speziellen Bezug auf Grafikrendering. Und im General-Purpose-Bereich vergleicht man üblicherweise die Double-Precision-Rechenleistung.
20 TFlops passen jedenfalls nicht direkt zu den 5000 SPs @ 3 GHz, das wären dann 1,33 FP-Operationen pro SP und Takt.

/EDIT: Nach den Prognosen der Rechenleistung und der Speicherbandbreite schätze ich in 11 nm übrigens die Diesize auf 150 bis maximal 300 mm² (~ 200 mm² erscheinen mir realistisch). Das wäre dann in jedem Fall eine Abkehr von den großen Dice.

Ailuros
2009-08-04, 13:25:00
Könnte es sein, dass mit den 20 Teraflops im Jahr 2015 die Rechenleistung bei doppelter Präzision gemeint ist? Immerhin ging es ja bei der Rede um Prozessoren im Allgemeinen ohne einen speziellen Bezug auf Grafikrendering. Und im General-Purpose-Bereich vergleicht man üblicherweise die Double-Precision-Rechenleistung.
20 TFlops passen jedenfalls nicht direkt zu den 5000 SPs @ 3 GHz, das wären dann 1,33 FP-Operationen pro SP und Takt.

Ist doch ganz einfach 1 FLOP + mini FLOP ;D

/EDIT: Nach den Prognosen der Rechenleistung und der Speicherbandbreite schätze ich in 11 nm übrigens die Diesize auf 150 bis maximal 300 mm² (~ 200 mm² erscheinen mir realistisch). Das wäre dann in jedem Fall eine Abkehr von den großen Dice.

Noe also wirklich ich wuerde liebend gern mal lesen wie Du auf die angeblichen 200-300mm2 genau gekommen bist.

=Floi=
2009-08-04, 18:00:52
bleib mal bei 2 ghz und den 2flop. 10tf DP sind ja auch schon viel. :D
nv wird ebene infach die entwicklungsgeschwindigkeit reduzieren und die 5000SPs brauchen ja auch strom. durch den gesenkten takt wird man sicherlich imens strom sparen und sich größere probleme mit der taktbarkeit ersparen.


mal abwarten was dann wirklich kommt und die prognose könnte ja nur der refresh sein ;)

AnarchX
2009-08-25, 08:36:21
Nvidia CEO Jen-Hsun Huang has predicted that GPU computing will experience a rapid performance boost over the next six years. According to Huang, GPU compute is likely to increase its current capabilities by 570x, while 'pure' CPU performance will progress by a limited 3x.
http://www.tgdaily.com/content/view/43745/135/

Spasstiger
2009-08-25, 14:06:57
Faktor 570 in sechs Jahren? Schon arg optimistisch, auch wenn die Double-Precision-Rechenleistung gemeint sein dürfte.
Das wäre dann eine Steigerung von den heutigen 90 GFlops einer GTX 285 auf über 50 TFlops in sechs Jahren.

Sorkalm
2009-08-25, 14:49:53
570% heutige Leistung bei GPUs vgl. mit 3x so viel Leistung bei CPUs würde ich ja durchgehen lassen ... das klingt mir aber sehr unglaubwürdig. Auf welchen konkreten Sachverhalt hat man es denn da abgesehen?

AnarchX
2009-08-27, 14:57:59
Damit es hier nicht unkommentiert bleibt:
http://forum.beyond3d.com/showpost.php?p=1326438&postcount=5

Diese 570x bezieht sich auf den Leistungsunterschied zwischen einer CPU in 2009 und einer GPU in 2015:

50 (soviel mal schneller ist laut NV eine aktuelle GPU gegenüber einer CPU) *1,5^6 = 570

Damit läge die reine Steigerung der GPU-Leistung nur bei 11,4x, was gegenüber Dailys Projektion und der Projektion für 2013 aus dem Startposting deutlich pessimistischer aussieht.

=Floi=
2009-08-27, 15:22:10
eine cpu mit einer gpu vergleichen, zeigt doch schon seine unfähigkeit ;D

LovesuckZ
2009-08-27, 15:45:15
Mit was soll er es sonst vergleichen, wenn es um "Co-Processing" geht?

BlackBirdSR
2009-08-27, 16:22:36
Ausserdem geht es hier um die "pure" CPU-Leistung. Damit dürfte wohl ALU/Gleitkommaleistung ohne Vektorcode gemeint sein. Es dürfte nicht schwer fallen, hier nur 300% Steigerung zu glauben. Was will man denn noch groß Verbessern, dass Taktnormalisiert so eine hohe Steigerung erzielen soll?

Wenn man dann aber Caches, Multiprocessing, Platform und Co-Prozessoren hinzunimmt, dürfte die Sache natürlich etwas anders aussehen. Es ist mit nichten so, dass wir gerade den Niedergang der CPU erleben.

Interessant wird es erst dann, wenn eine GPU alltägliche Aufgaben mit der Geschwindigkeit eines aktuellen Prozessors erledigen kann UND dabei keine 250W umsetzt.

LovesuckZ
2009-08-27, 19:31:40
Was sind "allträgliche Aufgaben"? Wenn man z.B Atom <> ION vergleicht, dann übernimmt ION heute und in Zukunft vermehrt alltägliche Aufgaben - Video-En/Decodierung, Umwandlung von Dateien (Computeshader), bald dann auch Flash-Beschleunigung.

Gast
2009-08-27, 19:42:24
Warum sollte ich Flash beschleunigen wollen? Mir reicht's wenn es in der Fps-Rate dargestellt wird, die der Ersteller beabsichtig hat.

Fast-Forward ist bähbäh

LovesuckZ
2009-08-27, 19:48:30
Und wenn die CPU dafür nicht ausreicht? Willst dann immer noch keine Beschleunigung?

Gast
2009-08-27, 20:02:34
Tut sie doch schon - und 2013 erst recht.
Genau dasselbe wie erst mit DVD, dann HD, jetzt Flash. Bald alles tote Themen

LovesuckZ
2009-08-27, 20:10:06
Ein Atom reicht z.B nicht aus - sowie anscheinend auch ein ARM zu schwach dafür ist.
Warum sollten man solche Arbeiten auf die CPU verlagern, wenn die GPU wesentlich besser geeignet ist? Tegra und Konsorten ist eine interessante herangehenweise, dass x84 Prozessoren nicht benötigt werden. Warum sich CPUs mit vielen, vielen Kernen einbauen, wenn eine kleine GPU für fast alle Aufgaben ausreicht? Selbst als Spieler muss man sich nicht bald fragen, warum man mehr als 4 Kerne benötigt.

Gast
2009-08-27, 21:04:03
Aber ein Dualcore-Atom reicht für (fast) alles, wie deine kleine GPU - und hat eine TDP von <10 Watt. Warum dazu noch eine GPU mit vielen vielen Kernen einbauen, wenn eine kleine Dualcore-CPU für fast alle Aufgaben ausreicht?

Du siehst: Die Katze beisst sich in den Schwanz. Die CPU ist im Vorteil, denn auf ihr läuft das Betriebssystem, daher ist sie momentan unverzichtbar. Für die GPU muss immer etwas gefunden werden, wofür man sie denn nun unbedingt braucht. Zuerst war's die DVD (~1997), seit 2005 die HD-Scheiben und nun sind's, mit der zusätzlichen Einschränkung "bei mobilen Niedrigleistungs-CPUs" Flash-Videos.

LovesuckZ
2009-08-27, 21:25:13
Aber ein Dualcore-Atom reicht für (fast) alles, wie deine kleine GPU - und hat eine TDP von <10 Watt. Warum dazu noch eine GPU mit vielen vielen Kernen einbauen, wenn eine kleine Dualcore-CPU für fast alle Aufgaben ausreicht?

Sie reicht eben nicht "für fast alle Aufgaben" aus - vorallen nicht der Atom.


Du siehst: Die Katze beisst sich in den Schwanz. Die CPU ist im Vorteil, denn auf ihr läuft das Betriebssystem, daher ist sie momentan unverzichtbar. Für die GPU muss immer etwas gefunden werden, wofür man sie denn nun unbedingt braucht. Zuerst war's die DVD (~1997), seit 2005 die HD-Scheiben und nun sind's, mit der zusätzlichen Einschränkung "bei mobilen Niedrigleistungs-CPUs" Flash-Videos.

Nein, eben nicht. Die CPU wird weiterhin benötigt - aber nicht mehr in dem Maße. Ein Dual-Core Atom reicht in Beziehung mit einem ION für alles aus. Alleine dagegen ist der Atom nicht gerade vielseitig.
Klar, wer ein Quad-Core i7 hat, muss sich um Videobeschleunigung keine Sorgen machen - aber den kann sich auch nicht jeder leisten.

StefanV
2009-08-27, 21:27:09
Mit Dual-GPU-Packages könnte man z.B. schon mal einiges an Länge einsparen gegenüber einer Dual-GPU-Karte mit zwei getrennt aufgebrachten Dies. Mal sehen was wir bei RV870X2 sehen werden.
Das wär aber völliger unsinn!

Stell dir mal die GTX295 mit einem MCM Package vor.
1024bit SI bzw 896bit, die verdrahtet werden muss, über 300W, die zu einem Chip müssen, muss ich mehr sagen??

Gast
2009-08-27, 21:57:50
Sie reicht eben nicht "für fast alle Aufgaben" aus - vorallen nicht der Atom.
Deine "kleine GPU" aber auch nicht:
"Warum sich CPUs mit vielen, vielen Kernen einbauen, wenn eine kleine GPU für fast alle Aufgaben ausreicht?" sondern nur "fast". Wo ist also genau der Unterschied? In beiden Fällen hat man einen PC, mit dem man "fast" alles machen kann.
Nein, eben nicht. Die CPU wird weiterhin benötigt - aber nicht mehr in dem Maße. Ein Dual-Core Atom reicht in Beziehung mit einem ION für alles aus. Alleine dagegen ist der Atom nicht gerade vielseitig.
Die Paarung mit einem Chipsatz ändert nichts an der Versatitliät einer CPU.
Klar, wer ein Quad-Core i7 hat, muss sich um Videobeschleunigung keine Sorgen machen - aber den kann sich auch nicht jeder leisten.
Wer einen Athlon II X2 750 hat, ebenfalls nicht - und den kann sich jeder leisten.

LovesuckZ
2009-08-27, 22:14:58
Deine "kleine GPU" aber auch nicht:
"Warum sich CPUs mit vielen, vielen Kernen einbauen, wenn eine kleine GPU für fast alle Aufgaben ausreicht?" sondern nur "fast". Wo ist also genau der Unterschied? In beiden Fällen hat man einen PC, mit dem man "fast" alles machen kann.

Sehe hier:


Tut sie doch schon - und 2013 erst recht.
Genau dasselbe wie erst mit DVD, dann HD, jetzt Flash. Bald alles tote Themen

2013 werden Notebooks mit CoC Modulen ausgestattet sein. Da wird ein fetter Prozessor mit einem Mainboard nicht mehr benötigt. Heute ist der Atom nicht leistungsfähig - mit einer entsprechenden GPU dagegen schon.


Die Paarung mit einem Chipsatz ändert nichts an der Versatitliät einer CPU.

Das steht nicht zur Debatte. Die CPU selbst erledigt seine Aufgaben in dem Fall doch "unabhängig" vom Chipsatz. Ob ION oder GMA950 - man muss bei beiden 15 min zur Encodierung eines Videos ins iPhone Format warten. Wenn man jedoch eine GPU beschleunigte Anwendung mit ION nimmt, dann wartet man nur noch 2min. Erst durch den Chipsatz ist die Schwäche der CPU nicht mehr tragend.


Wer einen Athlon II X2 750 hat, ebenfalls nicht - und den kann sich jeder leisten.

Auch dann nimmt durch GPU Procession die Bedeutung von der Abhängigkeit ab. Der Prozessor könnte sogar overkill sein, weil eine entsprechende GPU wesentlich schneller in einer Vielzahl der Anwendungsfälle und der Stromverbrauch und die Kosten mit einer anderen Konstellation niedriger wären.

AnarchX
2009-10-28, 07:46:57
http://img62.imageshack.us/img62/7714/12567082927392337055.jpg (http://img62.imageshack.us/i/12567082927392337055.jpg/)
http://itbbs.pconline.com.cn/diy/10701383.html

Ailuros
2009-10-28, 08:06:32
This section is a projection based on Moore's Law and does not represent a committed roadmap

Fair enough ;)

AnarchX
2009-10-28, 08:47:50
Mehr als das kann zu diesem Zeitpunkt natürlich nicht sein, aber interessant das man offenbar über CPUs in den zukünftigen GPUs nachdenkt.

Simon Moon
2009-10-28, 08:50:48
http://www.tgdaily.com/content/view/43745/135/
GPU compute is likely to increase its current capabilities by 570x, while 'pure' CPU performance will progress by a limited 3x.

Ist der 3x nicht etwas gar pessimistisch für eine CPU? Durch Projekte wie Fusion hat die CPU in der Zukunft doch auch in der Relation zu jetzt viel mehr parallele Einheiten.

Ailuros
2009-10-28, 09:02:10
Mehr als das kann zu diesem Zeitpunkt natürlich nicht sein, aber interessant das man offenbar über CPUs in den zukünftigen GPUs nachdenkt.

Single chip deutet natuerlich auf eine Art Ultra-Monster-SoC IMO. Nur geht mir hiermit jegliche Vorstellung fuer die Zukunft aus, oder ich verpasse viel zu viel.

Wuerden sie heute rein theoretisch einen GF100 und eine quad-core CPU auf einem SoC kombinieren wuerde ich liebend gerne wissen wie gross das Monstrum waere, unter welchem Herstellungsprozess man so etwas angreifen wuerde und wie man den ganzen Spass bei immer noch bei 300W bleiben wuerde insgesamt.

Ich interpretiere das Zeug womoeglich falsch. Die SP/DP FLOP counts sind wohl uebrigens fuer den gesamten chip und nicht nur die GPU Einheiten.

AnarchX
2009-10-28, 10:50:18
Wuerden sie heute rein theoretisch einen GF100 und eine quad-core CPU auf einem SoC kombinieren wuerde ich liebend gerne wissen wie gross das Monstrum waere, unter welchem Herstellungsprozess man so etwas angreifen wuerde und wie man den ganzen Spass bei immer noch bei 300W bleiben wuerde insgesamt.

Kommt wohl ganz auf die CPU-IP drauf an, aber mit ARM oder VIA x86 wäre wohl das ganze unter 300W möglich, wenn auch man natürlich nicht mit schnellen AMD und Intel CPUs mithalten könnte. Aber im Endeffekt sind diese CPUs im 2017er SoC wohl eher für Kontrollaufgaben gedacht.

Ailuros
2009-10-28, 11:35:48
Kommt wohl ganz auf die CPU-IP drauf an, aber mit ARM oder VIA x86 wäre wohl das ganze unter 300W möglich, wenn auch man natürlich nicht mit schnellen AMD und Intel CPUs mithalten könnte. Aber im Endeffekt sind diese CPUs im 2017er SoC wohl eher für Kontrollaufgaben gedacht.

Eine high end GPU braucht auch eine high end CPU. Die Hypothese hat fuer die heutlichen Verhaeltnisse weder Haende noch Fuesse. Anders Tegra1 duerfte insgesamt als SoC um die 145mm2@65LP wiegen. Wenn sie H1 2010 Tegra2 ankuendigen kannst Du Dir locker die Masche zwischen die area, Stromverbrauch, benutzter hw und sehr niedrigen Frequenzen gerne vergleichen. Dabei ist Tegra noch einige Lichtjahre von ION entfernt was die Leistung betrifft.

Coda
2009-11-10, 16:16:54
Was ich ja nicht verstehe ist warum sie mit 3 FPUs/Throughput Core rechnen.

AnarchX
2011-12-21, 12:59:11
Neueste Leistungsprojektionen von der GTC 2011 Asia: http://www.4gamer.net/games/076/G007660/20111215082/

~ 10 TFLOPs für eine 100W Konsole.
Das könnte wohl bis zu 40-50 TFLOPs für eine PC-GraKa bedeuten.

Für ~ 7 Jahre nicht gerade eine besonders optimistische Prognose.
Vor ~ 7 Jahren (R520/G70) war man gerade mal knapp über 100 GFLOPs, und morgen wird wohl eine 3879 GFLOPs GPU vorgestellt.

Da heißt es wohl noch ein paar Dekaden warten bis zum PetaFLOP-Heim-PC.:D

Nightspider
2011-12-21, 13:00:44
Es war ja zu erwarten, das die Steigerung stagniert bzw. deutlich abschwächt.

AnarchX
2011-12-21, 13:06:43
Da hat man bei NV für 2013 einiges mehr erwartet: http://www.computerbase.de/bildstrecke/22659/7/
Da wird es diesmal nicht mit "Within 10%": http://www.computerbase.de/bildstrecke/22659/3/ ;D

hardtech
2011-12-21, 15:05:09
Logische folge ist dann, seine neue 28nm graka länger als gewohnt zu behalten, da nach release lange nix wirklich bahnbrechendes kommt...