PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : G80 ist mehr CPU als eine GPU


AnarchX
2007-01-16, 13:33:21
INQ: G80 is more CPU than GPU
A WELL-CONNECTED source says Nvidia's G80 is as programmable as the average CPU. Nvidia’s flagship chip powering the Geforce 8800 GTX and GTS has, he said, almost everything that a CPU needs.[...]
http://www.theinquirer.net/default.aspx?article=36798

Vielleicht hat man mit der Architektur von G80 in Zukunft bei nVidia noch so einiges vor.
Wer brauch schon eine CPU mit integrierter Grafik, wenn man eine GPU hat die man als CPU verwenden kann. ;)

reunion
2007-01-16, 13:53:27
Marketing. :rolleyes:
Natürlich nähern sich die GPUs mit D3D10 den CPUs weiter an, allerdings sind diese deshalb noch lange kein vollwertiger Ersatz für eine CPU. Einen GPU ist ein bleibt ein Streamprozessor. Und da du schon darauf anspielst: Glaubst du AMD/ATi entwicklen dieses "Fusion" genannte Projekt umsonst? Das hat schon einen Sinn.

Gmax
2007-01-16, 13:59:53
INQ: G80 is more CPU than GPU

http://www.theinquirer.net/default.aspx?article=36798

Vielleicht hat man mit der Architektur von G80 in Zukunft bei nVidia noch so einiges vor.
Wer brauch schon eine CPU mit integrierter Grafik, wenn man eine GPU hat die man als CPU verwenden kann. ;)

Nun, nachdem jetzt einige Leute von 3dlabs bei nv arbeiten, war doch sowas zu erwarten.

Botcruscher
2007-01-16, 14:13:05
Almost bedeutet dann wohl alles oder nix.:rolleyes:
Ich erinnere nur an die Projekt von Seti auf R520. NV war ja bis jetzt nicht dafür zu gebrauchen.

BlackBirdSR
2007-01-16, 14:16:13
INQ: G80 is more CPU than GPU

http://www.theinquirer.net/default.aspx?article=36798

Vielleicht hat man mit der Architektur von G80 in Zukunft bei nVidia noch so einiges vor.
Wer brauch schon eine CPU mit integrierter Grafik, wenn man eine GPU hat die man als CPU verwenden kann. ;)

Naja ich würde auch erstmal auf "Marketing" tippen.
Immerhin hätten wir eine CPU mit folgenden Eigenschaften:

Relativ schlechte Verbindung zum Hauptspeicher, aber sehr schnelle Anbindung des lokalen Speichers. Trotzdem hohe Zugriffslatenzen.

Nur einfache Genauigkeit bei Berechnungen möglich. Relatisch schlechte Performance bei Sprüngen im Code. Programmierbar nur wenn ein Treiber zwischengeschaltet ist. Also bisher keine Möglichkeit das System zu booten.

Ausführungseinheiten zahlreich aber wahrscheinlich hohe Ausführungslatenz.

Solche Sachen eben. Ich würde trotzdem gerne sehen wieviele Instruktionen so eine GPU bei WinRar oder Photoshop ausführen könnte.
Man stelle sich all die Mühen vor die sich AMD und Intel aufdrücken um ihre CPUs optimal anzupassen. Und trotzdem erreicht ein K8 im Schnitt eine IPC von höchstens 1 Befehl pro Takt. Nur so als Richtwert.
Wäre eine GPU hier bei 1.5 oder gar 2, so könnte man AMD und Intel wohl vergessen.

Selbst im ultra-optimierten Spec2000 sieht die Sache nicht besser aus.
Ein PPC970 G5 erreicht FP/INT ~ 0.60 IPC
IBMs mächtiger Power 5 bringt es im FP-Test immerhin auf 1.5 Befehle pro Takt
Intel Prescott ~ 0.4
Intel Core2D ~ 1.0
IA64 FP ~ 1.3
AMD Opteron ~ 0.6

IVN
2007-01-16, 14:22:58
Naja ich würde auch erstmal auf "Marketing" tippen.
Immerhin hätten wir eine CPU mit folgenden Eigenschaften:

Relativ schlechte Verbindung zum Hauptspeicher, aber sehr schnelle Anbindung des lokalen Speichers. Trotzdem hohe Zugriffslatenzen.

Nur einfache Genauigkeit bei Berechnungen möglich. Relatisch schlechte Performance bei Sprüngen im Code. Programmierbar nur wenn ein Treiber zwischengeschaltet ist. Also bisher keine Möglichkeit das System zu booten.

Ausführungseinheiten zahlreich aber wahrscheinlich hohe Ausführungslatenz.

Solche Sachen eben. Ich würde trotzdem gerne sehen wieviele Instruktionen so eine GPU bei WinRar oder Photoshop ausführen könnte.
Man stelle sich all die Mühen vor die sich AMD und Intel aufdrücken um ihre CPUs optimal anzupassen. Und trotzdem erreicht ein K8 im Schnitt eine IPC von 1 Befehl pro Takt. Nur so als Richtwert.
Wäre eine GPU hier bei 1.5 oder gar 2, so könnte man AMD und Intel wohl vergessen.
Wieso?
Wenn man den niedrigen Takt der GPUs berücksichtigt, ist das immer noch sehr wenig.

AnarchX
2007-01-16, 14:26:29
Relativ schlechte Verbindung zum Hauptspeicher, aber sehr schnelle Anbindung des lokalen Speichers. Trotzdem hohe Zugriffslatenzen.


Eine direkte Anbindung über CSI oder HT sollte hier doch Abhilfe schaffen können?

Aber natürlich gibt es noch auch ein paar andere Probleme, wie du sie aufzählst.

Mal sehen, was G80 in dem Aufgabengebiet einer CPU wirklich schaffen kann, wenn die Entwicklung mit CUDA am laufen ist.
Da sollte man ja bald etwas erfahren.

BlackBirdSR
2007-01-16, 14:27:36
Wieso?
Wenn man den niedrigen Takt der GPUs berücksichtigt, ist das immer noch sehr wenig.

Eine GPU mit ca 1.5GHz und einer 4x so hohen Rechenleistung im Durschnitt, würde AMD und Intel schwer zusetzen. Taktraten lassen sich steigern, und mehrere Kerne sind auch kein größeres Problem mehr.

könnte Nvidia die 4-fache Menge an Befehlen durch einen Kern schicken die Intel und AMD mit all ihren Tricks nicht erreichen, dann wäre es einfach vorbei mit AMD und Intel. Einfach schon deren daraus folgender Unfähigkeit wegen.
Nur als Verdeutlichung wie unrealistisch ich es sehe, dass eine GPU in nächster Zeit auch nur an diese 1 IPC rankommt bei x86 Code.

reunion
2007-01-16, 14:47:42
Eine GPU mit ca 1.5GHz und einer 4x so hohen Rechenleistung im Durschnitt, würde AMD und Intel schwer zusetzen. Taktraten lassen sich steigern, und mehrere Kerne sind auch kein größeres Problem mehr.

könnte Nvidia die 4-fache Menge an Befehlen durch einen Kern schicken die Intel und AMD mit all ihren Tricks nicht erreichen, dann wäre es einfach vorbei mit AMD und Intel. Einfach schon deren daraus folgender Unfähigkeit wegen.
Nur als Verdeutlichung wie unrealistisch ich es sehe, dass eine GPU in nächster Zeit auch nur an diese 1 IPC rankommt bei x86 Code.

ACK. AMD und Intel setzten ein vielfaches an Ingenieuren, aber auch an finanziellen Mitteln ein, um x86-Code möglichst schnell auszuführen - und das schon lange bevor es überhaupt einen 3D-Beschleuniger, geschweige denn soetwas wie einen programmierbare GPU gab. Hier wird mit enormen Aufwand schon seit Jahrzehnten darauf hingearbeitet, die Aufgaben einer CPU möglichst effizient abzuarbeiten.

Wer ernsthaft glaubt, dass ein G80 oder irgend eine andere GPU hier auch nur den Hauch einer Chance hat, mit einer modernen CPU mitzuhalten, dem unterstelle ich naivität. Eine GPU ist ein Streamprozessor: irrsinnig schnell bei speziell darauf ausgelegten Arrays gleicher Daten, aber hoffnungslos unterlegen bei unvorhersehbaren Code - und genau hier liegt die Stärke eine CPU.

deekey777
2007-01-16, 17:04:13
Wieso Spekulation, wenn wir einen Grafikchips-Bereich haben?
:|

Fudo versucht malwieder seinem Ruf gerecht zu werden, unser Lieblingsredakteur zu sein. :biggrin:
Der G80 ist und bleibt ein Grafikchip, aber eine sehr programmierbarer (CUDA und so), hoffentlich bleibt seine Rechenkraft nicht mehr auf die Grafik beschränkt.
Lustigerweise habe ich Demirug gestern gefragt, ob was im Busch in Sachen mit Videotranscoding auf GPUs sei. Da ist nichts. Von ATi wurde viel versprochen und nichts geliefert.

------------------------
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=306492

Andre´
2007-01-16, 17:04:42
ACK. AMD und Intel setzten ein vielfaches an Ingenieuren, aber auch an finanziellen Mitteln ein, um x86-Code möglichst schnell auszuführen - und das schon lange bevor es überhaupt einen 3D-Beschleuniger, geschweige denn soetwas wie einen programmierbare GPU gab. Hier wird mit enormen Aufwand schon seit Jahrzehnten darauf hingearbeitet, die Aufgaben einer CPU möglichst effizient abzuarbeiten.

Wer ernsthaft glaubt, dass ein G80 oder irgend eine andere GPU hier auch nur den Hauch einer Chance hat, mit einer modernen CPU mitzuhalten, dem unterstelle ich naivität. Eine GPU ist ein Streamprozessor: irrsinnig schnell bei speziell darauf ausgelegten Arrays gleicher Daten, aber hoffnungslos unterlegen bei unvorhersehbaren Code - und genau hier liegt die Stärke eine CPU.

Jo ramkommen werden sie nicht aber es ist gut vorstellbar aber ich finde das dort noch viel entwicklung reingesteckt werden muss.
Den wer will schon einen Prozessor der abundzu mal fehler produziert!

Denn schaut man mal an wie viele fehler eine gpu im gegensatz zu CPU macht dann wird eine Klar wieso das nicht so schnell realisierbar ist.

StefanV
2007-01-16, 17:19:51
INQ: G80 is more CPU than GPU

http://www.theinquirer.net/default.aspx?article=36798

Vielleicht hat man mit der Architektur von G80 in Zukunft bei nVidia noch so einiges vor.
Wer brauch schon eine CPU mit integrierter Grafik, wenn man eine GPU hat die man als CPU verwenden kann. ;)
Sorry, aber zu diesem Artikel kann ich nur sagen:
Ach nee, wirklich?! Hätt ich jetzt echt _NICHT_ gedacht, das die G80 SOWAS kann...

Da muss ich doch mal Andreas Stiller (http://www.heise.de/ct/06/26/026/) in den Raum schmeißen...


Achtung, dieses Posting enthält Ironie und Sarkasmus


Hm, anscheinend wurde mein Posting missverstanden...

Was ich meinte ist, das es eigentlich logisch/bekannt ist, das man eine GPU auch für andere Zwecke benutzen kann wie zum Beispiel die Berechnung von KI (anm. Physikchips halte ich für nicht so sinnvoll, wie Chips für die KI Berechnung, da gerade das das ist, was aktuelle Rechner dermaßen in die Knie zwingt)...
Von daher sagt dieser Artikel eigentlich nur, was wir alle schon seit einigen Monaten wissen, das Grafikkarten eben nicht nur Grafikkarten sind und auch nicht (mehr) nur als solche verkauft werden, wie man an dem Link sieht, daneben gibts ja auch einen Folding@Home Client für AMD GPUs...
Aber wie irgendwo schonmal angemerkt, sind solche Streaming Chips unbrauchbar als GP CPU, das sind eben Spezialchips für spezielle Aufgaben und das werden sie auch immer bleben...

BlackBirdSR
2007-01-16, 18:02:45
Sorry, aber zu diesem Artikel kann ich nur sagen:
Ach nee, wirklich?! Hätt ich jetzt echt _NICHT_ gedacht, das die G80 SOWAS kann...

Da muss ich doch mal Andreas Stiller (http://www.heise.de/ct/06/26/026/) in den Raum schmeißen...


Achtung, dieses Posting enthält Ironie und Sarkasmus


Achtung: Diese Postings könnten auch mit etwas mehr Niveau versehen werden. Daher diese nun sofort damit ausstatten. Danke

Gast
2007-01-17, 12:31:58
Den wer will schon einen Prozessor der abundzu mal fehler produziert!

Denn schaut man mal an wie viele fehler eine gpu im gegensatz zu CPU macht dann wird eine Klar wieso das nicht so schnell realisierbar ist.Inwiefern macht eine GPU denn viele Fehler?

Andre´
2007-01-17, 12:36:03
Inwiefern macht eine GPU denn viele Fehler?

Wenn man vergleiht wie schnell eine GPu im gegensatzt zur Cpu fehler machen kann.

Ich will damit nicht sagen dass sie oft fehlberechnungen macht, aber es kommt vor und dass darf bei einer "CPU" nicht passieren, oder willst du evll einen server der mal nen Fehler macht??

Gast
2007-01-17, 12:46:34
Wieso sollte eine GPU, die innerhalb der Spezifikation betrieben wird, überhaupt Fehlberechnungen machen? Wenn die Dinger vom Hersteller ordentlich getestet werden, sehe ich das Risiko nicht höher als bei einer CPU.

AnarchX
2007-01-24, 11:18:00
Nvidia moves one step closer to its own CPUs
Can we call them GCPUs?

Rather, it is nearly US$ (not CAN$) three million just poured by Nvidia into a tiny Canadian outfit called Acceleware Corp, based in cold Calgary.

Acceleware is heavily involved in high-performance computing tasks acceleration using Nvidia GPUs, mainly for the electromagnetic (cellphone, microwave, IC), seismic (oil exploration - remember the company's location!), biomedical, industrial and military markets. They argue that, for many of these apps, the acceleration possible on specific tasks can reach between 10x and 40x - and that was on accelerator cards similar to the old 7900GTX. The new G80 generation should provide further boost.[...]
http://www.theinquirer.net/default.aspx?article=37163

Nachdem nun bald Intel auf im diskreten Grafikmarkt mitmischen will, verdichtet sich doch immer mehr der Anschein das wohl nV in Zukunft ihre Entwicklungen nicht nur als GPUs einsetzt.

Spasstiger
2007-01-24, 11:32:33
Irgendwann haben wir wohl nur noch kleine Multi-Purpose-Chips, die sich in nahezu beliebig hoher Zahl zusammenschließen lassen können und alle Rechenaufgaben übernehmen, die für irgendwelche Aufgaben anfallen. Zumindest scheint das die mittelfristige Tendenz zu sein.

Die Vorteile für die Hardwarehersteller liegen auf der Hand, man kann billiger produzieren, kann alles aus einer Hand anbieten, die Verlustleistung nimmt proportional mit der Rechenleistung zu und nicht evtl. überproportional, man kann über der Anzahl an Cores die verschiedenen Segmente (Low-End, Mainstream, High-End) klar festmachen, zur Verfügung stehende Recheneinheiten werden effizienter genutzt (ähnlich wie bei Unified-Shader).

Allerdings erlegt man mit diesem Konzept den Softwareentwicklern eine schwere Bürde auf.

Gast
2007-01-24, 16:37:01
Also ich fänds echt sweet wenn Nvidia in Zukunft auch performente CPUs anbieten würde, nicht nur dass man dann zwoischen 3 Herstellern wählen könnte, als auch dass dies die Entwicklung beschleunigen würde sowie den Preis warscheinlich senken. Und wenn Nvidia in den Markt einsteigen sollte müssen sie schon mit etwas außergewöhnlichem auftrumpfen, sonst werden sie wohl keine Chance haben und ebenso schnell wieder verschwinden wie sie gekommen sind.

Eventuell hängt aber auch Nvidias Zukunft davon ab ob sie mit einer CPU kommen oder nicht, denn nachdem jetzt Intel mit GPUs kommt wie es aussieht wird der Konkurrenzkampf nicht kleiner. Und der Kleinste bzw. Schwächste fliegt ja bekanntlich :(

MfG

Deinorius
2007-01-27, 14:46:25
Lustigerweise habe ich Demirug gestern gefragt, ob was im Busch in Sachen mit Videotranscoding auf GPUs sei. Da ist nichts. Von ATi wurde viel versprochen und nichts geliefert. Darauf sollte man so oder so besser verzichten.
Bestenfalls würde man nur Eigenkreationen von bestehenden Codecs bekommen und das kann hinsichtlich der Bildqualität nur nach hinten losgehen.
Da wäre die immense Leistung nur noch zweitrangig.

Viel besser wäre es, wenn man bestehende Codecs für SM 3.0 oder SM4 programmieren würde, basierend auf passender Programmiersprache, unabhängig vom Hersteller.
Ist folgende Hardware vorhanden, wird sie genutzt. Warum nicht so?

Hauwech
2007-02-18, 16:08:15
Bin mir nicht ganz sicher ob es hier richtig ist...

Zu der Sache mit nur einfacher Genauigkeit die Blackbird angesprochen hat:

Habe ich mal in gekürzter Form zu der Meldung "Schneller rechnen mit CUDA" aus dem News Forum geklaut.

http://developer.download.nvidia.com/compute/cuda/0_8/NVIDIA_CUDA_SDK_releasenotes_readme_win32_linux.zip

>Q: Does CUDA support Double Precision Floating Point arithmetic?

>A: CUDA supports the C "double" data type. However on G80
> (e.g. GeForce 8800) GPUs, these types will get demoted to 32-bit
> floats. NVIDIA GPUs supporting double precision in hardware will
> become available in late 2007.

Ist da was dran oder einfach nur Marketing bla bla? Und inwiefern hat das eventuell Auswirkungen auf den Einsatz im wissenschaftlichen Sektor den Nvidia mit CUDA laut der Heise Meldung anscheinend ohnehin ansprechen will?

tokugawa
2007-02-18, 17:00:15
Was genau meinst du mit "Marketing-Blabla"? Die Ankündigung dass Ende 2007 die NVIDIA GPUs in Hardware double precision unterstützen?

Dass es kommen wird, ist keine Frage, die Frage ist wann... Ankündigungen dieser Art sind immer mit Vorsicht zu genießen (haben aber trotzdem wenig mit Marketing zu tun). Überhaupt ist zumindest der Research-Bereich von NVIDIA ziemlich marketingfrei - davon kann man sich auf diversen wissenschaftlichen Konferenzen und Workshops selbst ein Bild machen (wo ja ATI und NVIDIA manchmal ja sogar zusammen präsentieren).


Und was genau für Auswirkungen meinst du im wissenschaftlichen Bereich? "Wissenschaftlicher Bereich" ist so riesig dass du das schon spezifizieren mußt. Der wissenschaftliche Bereich der Echtzeitgrafik/Realtime Rendering verwendet ja schon seit jeher Consumer-Hardware und da nicht unoft NVIDIA GeForces.

Mit CUDA sind sicher Anwendungen in anderen Bereichen - eventuell in Nicht-Computergrafik-Bereichen möglich.

Hauwech
2007-02-20, 16:03:04
Vielleicht falsch ausgedrückt. Ich meinte es eher in dem Sinne von ankündigen kann man halt viel, nur ob und wann es kommt, ist immer noch eine andere Sache. Da du dich in dem Bereich sehr gut auskennst, wie bewertest du die Sache mit dem double precision in deinem Bereich? Etwas, worauf du lange gewartest hast und womit man jetzt "wirklich" arbeiten kann oder eher ein nice-to-have?

Nvidia will ja mit CUDA schon jetzt die von ihnen angesprochenen Bereiche "erobern" wo anscheinend die jetzige Präzision ausreicht. Wie sieht es da mit anderen Bereichen aus wo sie jetzt eben nicht ausreichen, aus? Ich bin in der Beziehung absoluter Laie und kenne die Anforderungen von den verschiedenen Bereichen wo halt double precision ein Muss ist, eben nicht. Da wäre ich mal für ein paar Beispiele dankbar :).

Woran ich im ersten Moment einfach mal gedacht hatte, waren zB die ganzen @home Geschichten, sprich "Anwendungen für die breite Masse". Nicht schlagen wenn das absoluter Quatsch ist. :)

Dalai-lamer
2007-02-20, 17:42:05
Ich hoffe ich habe das nciht ganz falsch verstanden.

Der CELL(PS3 CPU) ist doch auch eine Streaming CPU.

Also ist es doch wohl möglich eine streaming CPU wie eine aktuelle Grafikkarte als CPU zu nutzen oder ?

Es jubeln ja immer alle wie stark der CELL als CPU sein soll :p

BlackBirdSR
2007-02-20, 17:55:52
Ich hoffe ich habe das nciht ganz falsch verstanden.

Der CELL(PS3 CPU) ist doch auch eine Streaming CPU.

Also ist es doch wohl möglich eine streaming CPU wie eine aktuelle Grafikkarte als CPU zu nutzen oder ?

Es jubeln ja immer alle wie stark der CELL als CPU sein soll :p

Das liegt daran, dass im Cell ein relativ schwacher PowerPC-Kern als MPU fungiert. Dieser erledigt die Aufgaben einer traditionellen CPU.

Die Ankündigung für den G90? bereits mit 64Bit breiten Pfaden/Einheiten aufzuwarten ist sicherlich sehr interessant. Eine CPU als zentrale Steuereinheit wird man damit wohl nicht ersetzen. Aber man könnte in naher Zukunft mit Nachfolgern heutiger Designs sehr viele Aufgaben übernehmen. Besonders im Bereich Rendering/Content-Creation, Scientific etc.

PCGH_Carsten
2007-02-20, 18:12:19
Die Ankündigung für den G90? bereits mit 64Bit breiten Pfaden/Einheiten aufzuwarten ist sicherlich sehr interessant.
Ehrlich gesagt glaube ich nicht daran, dass dessen Recheneinheiten dies "single-cycle" können werden, ergo keine "echten" 64-Bit-ALUs, sondern eher vernetzte Rechenwerke sind.

Gast
2007-02-20, 18:56:52
Für FP64-HDR bräucht man doch diese 64-Bit-ALUs oder?
Vielleicht ist ja der G90 gar schon D3D11 kompatibel...

Black-Scorpion
2007-02-20, 19:37:54
Warum nicht gleich D3D15? :rolleyes:

Gast
2007-02-21, 07:14:43
Warum nicht gleich D3D15? :rolleyes:

Warum nicht einfach mal still sein, wenn man nichts als unqualifiziertes Fanboygebrabel von sich geben kann? :rolleyes:

Das NV relativ früh neue Features anbietet hat man ja schon am NV40 gesehen. Wenn der R600 schon D3D10.1 kompatibel ist, warum sollte NV nicht mit der GeForce9 den nächsten Schritt gehen, aber imo werden wohl die D3D-Schritte in Zukunft wohl eh nicht mehr so grundlegend wie früher sein.
(Wobei ich mir nicht sicher bin überhaupt schon die D3D11 Specs festgelegt wurden, aber imo würde FP64 doch da reinpassen.)

PCGH_Carsten
2007-02-21, 09:22:12
Für FP64-HDR bräucht man doch diese 64-Bit-ALUs oder?
Vielleicht ist ja der G90 gar schon D3D11 kompatibel...
Für FP64 brauchst du ALUs, die FP64-genau rechnen können. Wie die das anstellen, ist erstmal völlig wurscht - ebenso, wieviele Takte sie dafür brauchen.

Das ist lediglich ein Performance-Faktor.

robbitop
2007-02-21, 09:30:36
Ehrlich gesagt glaube ich nicht daran, dass dessen Recheneinheiten dies "single-cycle" können werden, ergo keine "echten" 64-Bit-ALUs, sondern eher vernetzte Rechenwerke sind.
Ein sehr guter Einwand Carsten. Das erinnert mich an den Delta Chrome, der FP24 in 2 Takten erledigt hat und FP16 in einem. Allerdings müsste einiges an Controlllogik dennoch mit 64 Bit Werten umgehen können und die Register müssten erweitert werden.
Das würde aber nicht so viel kosten, wie alles auf 64 bit aufzuweiten. Für die GPU Aufgaben (welche ja das Hauptgeschäft sind) ist dieses Feature sowieso noch sinnfrei.

robbitop
2007-02-21, 09:32:53
Für FP64-HDR bräucht man doch diese 64-Bit-ALUs oder?
Vielleicht ist ja der G90 gar schon D3D11 kompatibel...
Meinst du bei FP64 HDR 64 Bit pro Komponente oder insgesamt?
Insgesamt gabs das ja schon ab NV40. Pro Komponente wäre das vermutlich mittelfristig etwas überdimensioniert.

Gast
2007-02-21, 10:22:42
Meinst du bei FP64 HDR 64 Bit pro Komponente oder insgesamt?
Insgesamt gabs das ja schon ab NV40. Pro Komponente wäre das vermutlich mittelfristig etwas überdimensioniert.

Natürlich pro Komponente.

Wobei aber Carstens Überlegung mehr Sinn macht für eine GPU, die noch 2007 kommt, aber auf der anderen Seite könnte man halt mit 64Bit-ALUs CUDA wohl ein ganzes Stück vorranbringen, den Devs schon die Möglichkeit geben an FP64-HDR zu arbeiten und eben dieses FP64-HDR für GPU-beschleunigtes Offline-Rendering anbieten.

robbitop
2007-02-21, 10:37:04
Natürlich pro Komponente.

Wobei aber Carstens Überlegung mehr Sinn macht für eine GPU, die noch 2007 kommt, aber auf der anderen Seite könnte man halt mit 64Bit-ALUs CUDA wohl ein ganzes Stück vorranbringen, den Devs schon die Möglichkeit geben an FP64-HDR zu arbeiten und eben dieses FP64-HDR für GPU-beschleunigtes Offline-Rendering anbieten.
FP64-HDR ist, mit Verlaub, überdimensioniert. Dazu müßten die ROPs sinnvollerweise auch FP64 Blending unterstützen.
Für CUDA und die Forschung würde erstmal ein double cycle FP64 reichen. Das sollte schnell genug sein. Man sollte das Transistorbudget erstmal für andere Dinge nutzen.
Bei der Texturfilterung ist es auch so. FP16 Filterung ist pro bi Sample auch double cycle. (da es noch keine Verbreitung in Spielen findet, reicht es erstmal zum Implementieren aus. Die Performance kommt später)

Gast
2007-02-21, 11:00:38
FP64 HDRR ist mehr als überdimensioniert, das kommt wohl frühestens mit dem G100 oder wie auch immer sie den nennen möchten
die gpus sind dafür 1. zu langsam und zweitens würd FP32 locker reichen

wär ja schon schön wenn die devs mal fp16 durchgängig nutzen würden anstatt fx12 oder irgendwelche bloomfilter zu nehmen

die G80 ALUs können doch 32bit genau rechenen oder?
können die rops auch fp32 blending?

Black-Scorpion
2007-02-21, 14:16:00
Warum nicht einfach mal still sein, wenn man nichts als unqualifiziertes Fanboygebrabel von sich geben kann? :rolleyes:
Dann verrate uns doch mal ein paar Einzelheiten von D3D11.
Wie soll NV oder jeder andere Hersteller eine D3D11 GPU entwickeln wenn nichts davon bekannt geschweige spezifiziert ist.
Was dabei rauskommt wenn man es versucht hat die FX ja deutlich bewiesen.

Gast
2007-02-21, 14:27:25
Dann verrate uns doch mal ein paar Einzelheiten von D3D11.
Wie soll NV oder jeder andere Hersteller eine D3D11 GPU entwickeln wenn nichts davon bekannt geschweige spezifiziert ist.
Was dabei rauskommt wenn man es versucht hat die FX ja deutlich bewiesen.

Natürlich ist die D3D11-Spezifikation noch veröffentlich wurden, aber das muss eben nicht heißen das bestimmte Eckdaten nicht schon feststehen. ;)
Wie jeder, der der deutschen Sprache mächtig ist, erkennen kann hab ich oben eine Vermutung geäußert.
Wenn du dagegen einen Einwand hast, kann man das auch auf andere Art äußern, als wie du es oben tatest. ;)

Gast
2007-02-21, 16:09:47
können die rops auch fp32 blending?Ja, das ist Vorraussetzung für D3D10.

robbitop
2007-02-21, 16:17:31
können die rops auch fp32 blending?
AFAIK ja. Allerdings kostet das. ;)

Aquaschaf
2007-02-21, 18:19:36
Wie soll NV oder jeder andere Hersteller eine D3D11 GPU entwickeln wenn nichts davon bekannt geschweige spezifiziert ist.

Es funktioniert doch umgekehrt. Die Spezifikationen sind zu weiten Teilen der kleinste gemeinsame Nenner dessen was die Hersteller bieten können.

Black-Scorpion
2007-02-21, 20:44:41
Es funktioniert doch umgekehrt. Die Spezifikationen sind zu weiten Teilen der kleinste gemeinsame Nenner dessen was die Hersteller bieten können.
Erstmal gibt M$ an was sie gerne wollen.
Dann wird entschieden ob und was genau die Hersteller bieten und danach wird die Spec festgelegt.
Bevor M$ nicht einmal damit anfängt wird es ein Hersteller wohl erst recht nicht.