PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Coda
2009-09-30, 23:18:51
Wenn du nach dem Lesesn dieses Threads nicht weisst, wen er meint solltest du vllt. besser schlafen gehen.
Falls das eine Anspielung sein soll: Ich hab keine Löschrechte.

master_blaster
2009-09-30, 23:19:15
War bei NV bis jetzt halt so.
Findet denn überhaupt noch eine Unterscheidung zwischen Consumer- und Profikarten statt? Der Herr Moderator meinte ja, es sei alles das Selbe ...

Edit:
Falls das eine Anspielung sein soll: Ich hab keine Löschrechte.
Eine Anspielung schon, aber nicht auf dich, ;).

S940
2009-09-30, 23:20:01
Warum ist man den Umweg über shader model 2 gegangen, wenn man doch direkt D3D11-kompatible Karten hätte entwickeln können ;)
Ok, entgültig überzeugt :freak:
Nein, C wird bisher auch nicht vollständig unterstützt. Es ist noch mehr.
Ok, bedanke mich dann für Eure Aufklärung, nun ist alles einigermaßen klar ;-)

Thx

Alex

Aquaschaf
2009-09-30, 23:20:04
Mehr Geld pro Chip kriegen sie mit den professionellen Produktion. Man schaue sich an was eine Tesla c1060 im Vergleich zu einer GTX280 kostet.

tombman
2009-09-30, 23:24:37
...While the bulk of NVIDIA's revenue today comes from 3D graphics, NVIDIA believes that Tegra (mobile) and Tesla are the future growth segments for the company. This hints at a very troubling future for GPU makers - are we soon approaching the Atom-ization of graphics cards?

Will 2010 be the beginning of good enough performance in PC games? Display resolutions have pretty much stagnated, PC games are first developed on consoles which have inferior hardware and thus don't have as GPU requirements. The fact that NVIDIA is looking to Tegra and Tesla to grow the company is very telling...
Tja, der denkt wohl das selbe wie ich :(

ks
2009-09-30, 23:24:59
Falls nicht schon bekannt: http://www.golem.de/0909/70179.html

Gast
2009-09-30, 23:25:23
Die Vorstellung heute hatte doch fast nichts mit dem Produkt "GeForce" zutun, da ging es doch nur um die Profesionelen Zielgruppe!

Die Gamer Vorstellung wird noch kommen, bald... und sicher nicht irgend mal in 2010

Gast
2009-09-30, 23:27:40
Falls nicht schon bekannt: http://www.golem.de/0909/70179.html

wie kommen die auf 4 Teraflops???

Sonyfreak
2009-09-30, 23:28:54
http://www.bilderkiste.org/show/original/7ed8121e288d8d405055378c09bb0528/123.png

Wie ist eigentlich dieses "Configurable 16 or 48KB Shared Memory bzw. L1 Cache" gemeint? Wirds da zwei Versionen geben oder wie? Oder ist damit gemeint, dass der Speicher zwischen diesem Shared Memory und dem L1 Cache variabel getrennt werden kann?

Wenn ich mir das eben Geschriebene durchdenke, müsste es eigentlich die zweite Variante sein.

mfg.

Sonyfreak

S940
2009-09-30, 23:29:59
wie kommen die auf 4 Teraflops???
Naja, ist doch nur "gechätzt" :freak:

dildo4u
2009-09-30, 23:32:08
wie kommen die auf 4 Teraflops???
"So soll eine Matrizenmultiplikation mit doppelter Genauigkeit viermal schneller als auf einem GT200 laufen, was überschlagsmässig eine Rechenleistung im Bereich von 4 Teraflops und damit wiederum dem Doppelten eines RV870 bedeuten würde"

http://www.computerbase.de/bildstrecke/27042/8/

Nightspider
2009-09-30, 23:35:49
wie kommen die auf 4 Teraflops???

Video anschauen!

Coda
2009-09-30, 23:36:16
Oder ist damit gemeint, dass der Speicher zwischen diesem Shared Memory und dem L1 Cache variabel getrennt werden kann?
Jepp, genau das.

S940
2009-09-30, 23:39:52
"So soll eine Matrizenmultiplikation mit doppelter Genauigkeit viermal schneller als auf einem GT200 laufen, was überschlagsmässig eine Rechenleistung im Bereich von 4 Teraflops und damit wiederum dem Doppelten eines RV870 bedeuten würde"

http://www.computerbase.de/bildstrecke/27042/8/
Ähh .. da hat einer die falsche als Basis genommen. Die nehmen da anscheinend die 1 GFLOPs der GT200 .. das ist aber nur single-precision, nicht double.

Gipsel hat die FLOPs erst vor ein paar Seiten erklärt, spar ich mir, könnte ich eh nicht besser ;-)

Ergo -> Falschmeldung.

LovesuckZ
2009-09-30, 23:40:13
He just held Fermi up and the camera flashes in the room just exploded. "We have a small surprise for you -- [our engineers] worked around the clock to get us a working system." That demo is coming up.
http://blogs.nvidia.com/gtc/

Na, da hat der Theo wirklich recht gehabt.

/edit: Und der Webcast funktioniert nicht. :(

Gipsel
2009-09-30, 23:43:23
Wie ist eigentlich dieses "Configurable 16 or 48KB Shared Memory bzw. L1 Cache" gemeint? Wirds da zwei Versionen geben oder wie? Oder ist damit gemeint, dass der Speicher zwischen diesem Shared Memory und dem L1 Cache variabel getrennt werden kann?

Wenn ich mir das eben geschriebene durchdenke, müsste es eigentlich die zweite Variante sein.
Genau. Wobei eigenartig ist, daß das nicht auch 32/32kB getrennt werden kann, da DX11 CS 32kB shared memory erfordern. Da muß das also mit 48kB shared memory konfiguriert werden, was Performance verschenkt (wegen kleinerem Cache).
"So soll eine Matrizenmultiplikation mit doppelter Genauigkeit viermal schneller als auf einem GT200 laufen, was überschlagsmässig eine Rechenleistung im Bereich von 4 Teraflops und damit wiederum dem Doppelten eines RV870 bedeuten würde"

http://www.computerbase.de/bildstrecke/27042/8/
Was natürlich nur von einem Idioten ohne Ahnung geschrieben werden konnte.

DP läuft auf eine GTX285 mit unter 90 GFlops Peak, eine Matrix-Multiplikation mit etwa der Hälfte davon. Deswegen ist auch der im von Ailuros verlinktem Whitepaper angeblich erreichte Speedup von 4,2 gegenüber GT200 bei DP-Matrixmultiplikationen alles andere als überwältigend. Das bekommt RV870 auch locker hin (das schafft man schon fast mit einem RV790). Also irgendwas paßt da noch nicht zusammen. Angeblich Faktor 8-10 gestiegene Rohleistung, deutlich verbessertes Cachesystem (für Matrixmultiplikationen extrem wichtig und bisher limitierend für die Performance) aber nur Faktor 4 Speedup? Kann eigentlich nicht sein.

Godmode
2009-09-30, 23:43:26
http://blogs.nvidia.com/gtc/

Na, da hat der Theo wirklich recht gehabt.

/edit: Und der Webcast funktioniert nicht. :(

Das selbe bei mir HTTP Error...

edit: jetzt gehts

Undertaker
2009-09-30, 23:46:06
Hier gehts :)

http://www.abload.de/img/unbenanntqa2u.png

horn 12
2009-09-30, 23:46:51
Wie schnell könnte dann die GT300 wirklich werden, dopplet so schnell wie GTX285 oder weitaus mehr ?

Ailuros
2009-09-30, 23:49:56
Wie schnell könnte dann die GT300 wirklich werden, dopplet so schnell wie GTX285 oder weitaus mehr ?

Ich bezweifle dass es momentan irgend jemand ausser NV selber beantworten kann und selbst dann traue ich jeglicher subjektiven Aussage nicht.

Gast
2009-09-30, 23:52:24
ich würde nicht zu viel erwarten... GTX285 50%+ würde ich mal sagen (wie es halt so immer ist von GPU zu GPU)

Nightspider
2009-09-30, 23:54:21
ich würde nicht zu viel erwarten... GTX285 50%+ würde ich mal sagen (wie es halt so immer ist von GPU zu GPU)

Ich hoffe auf +120%. Mein Gefühl sagt mir 80-100%.

:freak:

PS: Fermi wär nen toller Nick oder :freak:

joke :freak:

mapel110
2009-09-30, 23:54:53
Beta version coming out Oct. 15.

Also die Entwicklungsumgebung Nexus wird schon mal nicht lange auf sich warten lassen. Heißt das, nvidia wird ab dem Zeitpunkt Fermi auch an Entwickler verschicken?

Ailuros
2009-09-30, 23:55:17
ich würde nicht zu viel erwarten... GTX285 50%+ würde ich mal sagen (wie es halt so immer ist von GPU zu GPU)

Dieser Wert wird mit Absicht von der neliz/charlie/cj Fraktion verbreitet ohne genauere Daten und basierend nur auf einem bloeden synthetischen Wert der herumfliesst.

Gast
2009-09-30, 23:59:37
wenn es wirklich 100%+ wären würde NV keine Dual GPU karte benötigen und man muss einfach sagen das NV bei der Entwicklung des Fermi die Gamer Zielgruppe wohl nicht bevorzugt hat... leider...

Dimon
2009-10-01, 00:01:41
wenn es wirklich 100%+ wären würde NV keine Dual GPU karte benötigen und man muss einfach sagen das NV bei der Entwicklung des Fermi die Gamer Zielgruppe wohl nicht bevorzugt hat... leider...

Nana mal abwarten ;)

Gast
2009-10-01, 00:01:49
und 50%+ im Durchschnitt ist übrigens ein guter Wert!

Ailuros
2009-10-01, 00:06:32
wenn es wirklich 100%+ wären würde NV keine Dual GPU karte benötigen und man muss einfach sagen das NV bei der Entwicklung des Fermi die Gamer Zielgruppe wohl nicht bevorzugt hat... leider...

Wenn dem wirklich so ist, mach ich mir (obwohl es mir wohl wenige glauben werden) auch keine besondere Sorgen. Es wird einfach eine 5870 ins System geklatscht und aus damit.

puntarenas
2009-10-01, 00:08:55
und 50%+ im Durchschnitt ist übrigens ein guter Wert!
Dann muss so ein Ding aber noch anderweitig punkten, also Idle/Load-Verbrauch, meinetwegen Multimonitorgeschichten und vielleicht das eine oder andere Bildqualitätsfeature zur Aufmöbelung von Konsolenkost. Sonst fände ich 50% im Schnitt schon etwas mager aus Gamersicht. Allerdings hat Nvidia seit G80 wohl keineswegs Däumchen gedreht, die richten den Laden neu aus und wollen weniger von der sinkenden PC-Spieleplattform abhängig sein.

Sonyfreak
2009-10-01, 00:10:09
Jepp, genau das.OK, dankeschön.
Genau. Wobei eigenartig ist, daß das nicht auch 32/32kB getrennt werden kann, da DX11 CS 32kB shared memory erfordern. Da muß das also mit 48kB shared memory konfiguriert werden, was Performance verschenkt (wegen kleinerem Cache).Hmm, vielleicht haben sie sich ja irgendwas dabei gedacht.

mfg.

Sonyfreak

Gast
2009-10-01, 00:14:29
G80 ---> G200 ca. 50%

RV790 ---> RV870 ca. 50%

gerade auf computerbase nachgeschaut 1900 4AA/16AF

50% ist doch die normale steigerung, weis nicht was ihr habt!

Gast
2009-10-01, 00:18:49
und schauen wir mal beim über G80 mal die steigerung an

G71 ---> G80 80% (4xAA)

G71 ---> G80 50% (ohne AA)

nur bei AA konnte der G80 von den üblichen 50% abweichen...

Nightspider
2009-10-01, 00:27:20
Bilder von der Karte aus der Präsentation von NV:

http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Video-und-erste-G300-Fotos/Grafikkarte/News/

Ailuros
2009-10-01, 00:29:11
Diese Werte sind so verdammt verdreht dass es nicht mehr schoen ist. Der Unterschied zwischen G8x und G7x ist nicht nur um einiges groesser dank der Entkoppelung von texturing und ALUs in G8x aber wenn man auch noch die Optimierungen beim G7x ausschaltet und sich in hohen Aufloesungen mit AA bewegt ist der Unterschied weit ueber 50%.

So und jetzt bitte zurueck zu GF100 und nein mir ist 50% ueber einer 285 nicht gut genug persoenlich. Dafuer reicht mir auch eine 5870 bei kleinerem Preis.

dildo4u
2009-10-01, 00:29:55
Der Stream sollte später als Video online gestellt werden.Es gab ne Live Demo mit der Karte.

Dimon
2009-10-01, 00:35:03
Hmm na hoffentlich liegt die Steigerung der Performance bei ca. 80-100% sonst wird es wohl keine Revolution, wei beim G7x auf G8x...

Dural
2009-10-01, 00:40:07
http://img3.imageshack.us/img3/4237/g300i.jpg

LovesuckZ
2009-10-01, 00:40:41
Der Stream sollte später als Video online gestellt werden.Es gab ne Live Demo mit der Karte.

Er hat auch eine Anmerkung bezüglich Gaming-Graphics gemacht. Aber leider war ich einen Tick zu spät im Webcast.

/edit: Da nVidia anscheinend über eine Software-Pipeline Tesselation durchführt - wie kann man das mit der AMD Variante einordnen?

Nightspider
2009-10-01, 00:41:10
http://img3.imageshack.us/img3/4237/g300i.jpg

Hör auf meinen Avatar so nackt zu entblößen zu phöser Schufft, du !

Ailuros
2009-10-01, 00:42:11
Hör auf meinen Avatar so nackt zu entblößen zu phöser Schufft, du !

Und was ist das boese Auge in der Mitte hm?

Dural
2009-10-01, 00:44:11
cache?

Ailuros
2009-10-01, 00:45:41
cache?

Nach dem primitiven Diagramm im whitepaper duerfte der blaue Balken die L2 cache sein. Das Viereck in der Mitte dann auch?

Nightspider
2009-10-01, 00:47:08
Und was ist das boese Auge in der Mitte hm?

NV it's watching you! :freak:

Dural
2009-10-01, 00:59:25
http://www.youtube.com/watch?v=KGS_CrdDKjk

seh ich richtig? ein 8-Pin PCI-E Stromanschluss?

http://img35.imageshack.us/img35/1517/fermi.jpg

Ailuros
2009-10-01, 01:39:53
Junge Du hast Augen! Ich kann bei bestem Willen nicht solche Kleinigkeiten auf so einem Bild ausmachen.

xiao didi *
2009-10-01, 02:03:43
Hier etwas größer:
http://666kb.com/i/bcuk65w03655y5dyw.jpg
Lässt sich leider dennoch nur erahnen.

Coda
2009-10-01, 02:04:18
http://img3.imageshack.us/img3/4237/g300i.jpg
Falls der Die-Shot wirklich stimmt, hat sich da wirklich einiges getan. Die Streamprozessoren sehen überhaupt nicht mehr aus wie bei G80-GT200

ich würde nicht zu viel erwarten... GTX285 50%+ würde ich mal sagen (wie es halt so immer ist von GPU zu GPU)
Immer? Das erste Mal als das überhaupt so war, war zwischen G80->GT200. Ansonsten gab es immer eine solide Verdopplung.

DP läuft auf eine GTX285 mit unter 90 GFlops Peak, eine Matrix-Multiplikation mit etwa der Hälfte davon. Deswegen ist auch der im von Ailuros verlinktem Whitepaper angeblich erreichte Speedup von 4,2 gegenüber GT200 bei DP-Matrixmultiplikationen alles andere als überwältigend. Das bekommt RV870 auch locker hin (das schafft man schon fast mit einem RV790). Also irgendwas paßt da noch nicht zusammen. Angeblich Faktor 8-10 gestiegene Rohleistung, deutlich verbessertes Cachesystem (für Matrixmultiplikationen extrem wichtig und bisher limitierend für die Performance) aber nur Faktor 4 Speedup? Kann eigentlich nicht sein.
DP läuft mit halber Geschwindigkeit bei Fermi.

Schon ohne Taktsteigerung wäre die theoretische Rohleistung >8x so hoch wie bei GT200.

Ailuros
2009-10-01, 02:07:03
8 pin + 6 pin

AnarchX
2009-10-01, 02:21:03
Hier scheint es nur ein 8-Pin:
http://img39.imageshack.us/img39/1594/2z6yrzn.jpg

Zudem wirkt die Karte auch kürzer als 10.5", weshalb wohl auch der Stromanschluss nicht seitlich ist.

Coda
2009-10-01, 02:22:40
Da steht Tesla drauf wenn mich nicht alles täuscht. Scheint so als sei Fermi nur ein Codename?

Es gab übrigens Demos, also geh ich stark davon aus dass es auch lauffähige Chips gibt.

Ailuros
2009-10-01, 02:25:09
Tatsaechlich zum 8-pin.

Coda,

Ich sehe kein Tesla auf dem Ding. Sieht eher nach einem merkwuerdigem NV logo aus.

***edit: http://www.bit-tech.net/news/hardware/2009/09/30/first-fermi-card-pictured/1

Oder eben doch 8+6

Nightspider
2009-10-01, 02:25:23
Wer hofft alles, das dies die kleine Version ist ? :D

Ich will nen langes Monster mit fetter Kupfer Konstruktion :ulol:

Coda
2009-10-01, 02:27:29
Doch, doch da steht eindeutig "Tesla" wo die vielen Lichtreflexionen sind.

xiao didi *
2009-10-01, 02:27:32
Ich sehe kein Tesla auf dem Ding. Sieht eher nach einem merkwuerdigem NV logo aus.
Sieht recht eindeutig nach Tesla aus. :uponder:

Nightspider
2009-10-01, 02:29:39
Mach die Klotzen uff du Arschkrambe! ;)

http://www.abload.de/img/teslaj88z.jpg

Coda
2009-10-01, 02:30:18
Das letzte ist auf jeden Fall ein A, also ist es nicht Fermi ;)

xiao didi *
2009-10-01, 02:33:01
Hat einer mal ausgerechnet wieviele Transistoren der L2-Cache kostet?

Edit: Obwohl...bei 3 Milliarden wird das unwesentlich sein.
Nevermind.

Ailuros
2009-10-01, 02:41:19
Rys sagte gerade bei B3D folgendes:

As for FMA, in graphics mode the driver will issue one for every existing MADD, which is problematic.

More precision in an FMA at the MUL stage.


http://forum.beyond3d.com/showthread.php?t=55289&page=2

Kann das mal jemand aufklaeren?

Gipsel
2009-10-01, 03:08:37
Rys sagte gerade bei B3D folgendes:

http://forum.beyond3d.com/showthread.php?t=55289&page=2

Kann das mal jemand aufklaeren?
Na, es kann was anderes rauskommen, das könnte ein Problem sein.

Wenn es allerdings ein wirkliches Problem ist (und nicht nur einen minimal anderen nicht mit bloßem Auge unterscheidbaren Farbwert ergibt), dann gehört der Programmierer des Shaders erschlagen, dann würde es nämlich auf aktueller Hardware nur so vor sich hinrauschen und flimmern.

Kann man aber im Prinzip ganz einfach so lösen, daß ein FMA-Befehl ein Flag "verhalte dich wie MADD" gesetzt bekommt, und dann alle zusätzlich erzeugten Bits einfach nullt. Das kann zumindest das DP-FMA bei RV870 (die SP-Variante dann wahrscheinlich auch) und ist hardwaretechnisch nicht wirklich schwierig.

Und falls irgendwer die Diskussion dort verfolgt, ob die Integer-Einheit in einem "CUDA-Core" jetzt wirklich eine eigene Einheit separat zur Fließkommaeinheit ist, dann kann man sich ja mal fragen, wie viele Bits man für die ganzen FMAs denn eigenlich benötigt ;)
kleiner Tipp:
2 * (24 + 32) = 112
53 + 53 = 106
Beim fetten hat ATI im Vergleich etwas gespart, was für SP-FMAs aber noch reichen kann.

Interessant finde ich übrigens, daß laut Jawed bei B3D schon RV770 bis zu acht concurrent Kernels in Hardware unterstützt (http://forum.beyond3d.com/showthread.php?p=1342189#post1342189) (nv erwähnt für Fermi den erstmaligen Support, und auch nur für einen Kontext, was bei ATI unklar ist; die Probleme, die Jawed anspricht, treffen für compute shader nicht zu). Ich hatte Dir ja schon mal geschrieben, daß das eigentlich total einfach sein müßte. Dummerweise wird sowas bei ATI immer erst sehr verspätet oder auch gar nicht für Programmierer nutzbar gemacht.

Coda
2009-10-01, 03:44:33
Anscheinend läuft Tesselation über die Shader und ist nicht fixed function. Da bin ich ja mal über die Performance gespannt...

Zum Vergleich:
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png
http://www.beyond3d.com/images/reviews/g80-arch/g80-diag-big.png

WTF, nach dem Diagram hat das Ding tatsächlich 256 TMUS X-D

mapel110
2009-10-01, 04:24:32
Charlie am Lästern bei Beyond3D. Liest sich amüsant.

One of the biggest problems is that NV itself doesn't have enough working silicon to characterize the #(*$&ing parts. Yields are beyond abysmal, and they so badly botched the entire tapeout and early silicon process that they can't even get good numbers out of it. Epic fail there NV.

The target is 750 +/- a bit. Will they get there? I doubt it, G200 missed targets by 10+% and 7 months, and this one is more rushed, plus has about 5 very critical risk areas. I would be shocked if they came close. Then again, Dear Leader wants to beat 5870, so beat 5870 they will, even if they only get 30 cards. That would be one for each of the 27 sites still under their thumb, one for the glass case by the entrance, one for JHH, and one for Newegg to 'prove' they are real. Think X800XTX-PE.
Da ist jemand ziemlich angepisst von dem Monster-Chip. ^^

Gast
2009-10-01, 04:39:41
Anscheinend läuft Tesselation über die Shader und ist nicht fixed function. Da bin ich ja mal über die Performance gespannt...



Ist das nun gut oder schlecht? Eigentlich sollte ja eine dedizierte HW-T. besser sein ..... ka.

Coda
2009-10-01, 06:27:20
Charlie am Lästern bei Beyond3D. Liest sich amüsant.

Da ist jemand ziemlich angepisst von dem Monster-Chip. ^^
Nimmt den Menschen eigentlich noch jemand ernst :|

Ich hab in Vergangenheit bemerkt, dass die die am größten das Maul aufreißen eigentlich am wenigsten wissen.

Ailuros
2009-10-01, 07:14:06
Danke Gipsel.

Coda,

Das mit den TMUs ist leider nur Rys' Schaetzung und ich bezweifle dass er Recht hat. Ich war gestern abend im B3D IRC Kanal und leider darf man ja angeblich laut der Kanal Regeln nichts oeffentlich weiterblubbern ueber jegliches Gespraech. Das Ganze war so witzig gestern dass ich mir den Bauch halten musste vom vielen lachen.

Leider sind meine Verdaechte wer von wem und warum informiert wird wahr. Tatsaechlich sollte man manche Spinner einfach links liegen lassen ueberhaupt wenn man vom einen IHV dafuer bezahlt wird. Deutlich/undeutlich genug und es wird ja auch indirekt im relevanten Thread von Rys angedeutet.

Da auch jemand spaeter von AMD selber zu der Party kam (na wehr wohl) wurde es natuerlich noch witziger. Aber da er oeffentlich sich objektiver zeigen muss kam das Eingestaendnis dass NV fuer ihren eigentlichen Zielmarkt ein voll getroffenes Produkt hat und dass wenn sie ihre Zielfrequenzen erreichen auch schneller sein werden als Cypress. Er ist sich zuversichtlich dass es 128 TMUs sind obwohl er sich nicht darueber aeusserte (andere fragten blah blah Du sagtest doch gestern...) und er ist meistens sehr gut informiert.

Ein bisschen steif war er schon als er mich sah, aber es war schon immer so. Da er mich damals mir nichts dir nichts als das schwarze Schaf aus seiner Bude indirekt auf Hexenjagd schickte kann man sich nicht wohl fuehlen ueberhaupt wenn man so anstaendig und still ist und sich nie dagegen gewehrt hat.

Summa summarum: AMD ist mit Sicherheit nicht ueber Fermi ueberrascht. NV hat aber wiederrum fast mit Sicherheit Probleme das Ding in grossen Volumen herzustellen und es wird natuerlich auch IMO eine Zeit dauern bis anstaendige Volumen auf die Regale kommen. Mir tut nur der Intel Kerl leid der sich der gestrigen Laesterei und Ueberulkschaft der Bande ueber LRB sich sicher nicht wohl fuehlte. Man muss nicht alles zu Ernst nehmen und wenn man fuer seine Meinung nicht bezahlt wird kann man auch ohne Gewissensbisse mitlachen.

Armaq
2009-10-01, 07:40:35
Das Ding ist kein Grafikchip. Alle die auf eine eine super performante 3D-Grafiklösung gehofft haben dürfen enttäuscht sein. Nvidia baut keine 3D-Beschleuniger mehr. DX11 ist auch gar nicht erwähnt, wobei diese Art von Programmierbarkeit das wohl beinhaltet.

Edit: Da es sich um Profi-Hardware handelt, möchte ich allen Nvidia-Käufern schonmal eine Budgeterhöhung anraten. Das Ding wird teuer.

reunion
2009-10-01, 07:49:02
Sehe ich ähnlich. Was bleibt ist ein "supercomputer in a box". NV hat halt keine CPUs und will jetzt wohl eine Art Zwitter bauen. Alles was man zur Spieleleistung weiß, ist, dass der Tesslator nicht in Hardware vorhanden ist, was sicherlich kein Vorteil ist. Sonst nichts weiter als tolle GPGPU-Features. Schön, nützt mir aber null.

Gast
2009-10-01, 07:56:14
"So soll eine Matrizenmultiplikation mit doppelter Genauigkeit viermal schneller als auf einem GT200 laufen, was überschlagsmässig eine Rechenleistung im Bereich von 4 Teraflops und damit wiederum dem Doppelten eines RV870 bedeuten würde"

http://www.computerbase.de/bildstrecke/27042/8/

2,7*2 = 4. alles klar

Gast
2009-10-01, 08:46:50
NV kann aber nix für CB-Aussagen. :rolleyes: Auf der Folie stehts ja richtig: Es sind 4,2x die Rohleistung des GT 200 bei DP.

James Ryan
2009-10-01, 08:48:04
Das Ding ist kein Grafikchip. Alle die auf eine eine super performante 3D-Grafiklösung gehofft haben dürfen enttäuscht sein. Nvidia baut keine 3D-Beschleuniger mehr. DX11 ist auch gar nicht erwähnt, wobei diese Art von Programmierbarkeit das wohl beinhaltet.

Edit: Da es sich um Profi-Hardware handelt, möchte ich allen Nvidia-Käufern schonmal eine Budgeterhöhung anraten. Das Ding wird teuer.

Das ist deine Meinung, kein Fakt!

Wer sagt denn, dass sich gute GPGPU-Leistung und gute Spieleperfomance gegenseitig ausschließen? :confused:

MfG :cool:

Botcruscher@work
2009-10-01, 09:13:29
Wer sagt denn, dass sich gute GPGPU-Leistung und gute Spieleperfomance gegenseitig ausschließen?


Als Gamer benötigt man die ganzen GPGPU-Funktionen einfach nicht. Das ganze Zeug kostet aber weiterhin massig Transistoren, was sich eben auf Geschwindigkeit und Preis niederschlägt. Eine "Spielegrafikkarte" wäre also immer schneller und/oder günstiger.

Aus Gamersicht ist meine Meinung zu dem Chip damit einfach umschrieben: WTF?! Die Spieler sind zwar weiterhin Hauptzielgruppe und finanzieren das ganze, wandern aber irgendwie weit in den Hintergrund. Wozu brauch ich einen ungenutzen Supercomputer mit dem man auch spielen kann?

Gast
2009-10-01, 09:18:25
Dumme Frage, aber wozu der L1-/L2-Cache? Besitzt das Teil einen dedizierten Bereich ähnlich einer Northbridge?

S940
2009-10-01, 09:23:45
Aus Gamersicht ist meine Meinung zu dem Chip damit einfach umschrieben: WTF?! Die Spieler sind zwar weiterhin Hauptzielgruppe und finanzieren das ganze, wandern aber irgendwie weit in den Hintergrund. Wozu brauch ich einen ungenutzen Supercomputer mit dem man auch spielen kann?
Solange es weiterhin die schnellste single GPU Karte wird, wirds genügend geben, die dafür Geld für so ein Teil auf den Tisch legen.

Kurz: Solange es den Grafikbetrieb nicht über Gebühr behindert ... wieso nicht.

@Gast:
Was verstehst Du unter Northbridge ? Das Teil hat Speicherkontroller und ein PCIe Interface ... reicht Dir das ? ;-)

Gast
2009-10-01, 09:24:15
Mehr (hochauflösende) Bilder der Tesla-Karte und Jensen inkl. Die ;P
http://www.pcpop.com/doc/0/448/448052.shtml

Aquaschaf
2009-10-01, 09:28:30
Dumme Frage, aber wozu der L1-/L2-Cache? Besitzt das Teil einen dedizierten Bereich ähnlich einer Northbridge?

Zugriffe auf den GPU-eigenen Speicher haben eine sehr hohe Latenz. Dazu erreicht man nur einen Bruchteil der maximalen Bandbreite, wenn das Zugriffsmuster nicht ganz regelmäßig ist. Für Grafikbeschleunigung ist das kein Problem, für andere Anwendungen schon. Der Cache kann die Situation in einigen Fällen ziemlich entschärfen.

Tarkin
2009-10-01, 09:29:05
Nimmt den Menschen eigentlich noch jemand ernst :|

Ich hab in Vergangenheit bemerkt, dass die die am größten das Maul aufreißen eigentlich am wenigsten wissen.

Charlie lag schon öfter richtig als die meisten anderen "News" Seiten die nur irgendwelche Forum-Postings oder Fudzilla Nachrichten abschreiben... oder möchtest du abstreiten, dass bei nvidia momentan die Kacke am Dampfen ist?

Möchte nur daran erinnern, dass das letzte mal als nvidia so eine "Show" abgezogen hat, wir uns 5 Monate später über nv30 Witze amüsieren durften.

James Ryan
2009-10-01, 09:32:21
Mehr (hochauflösende) Bilder der Tesla-Karte und Jensen inkl. Die ;P
http://www.pcpop.com/doc/0/448/448052.shtml

Kein Triple-SLI mehr? Nur noch ein SLI-Stecker auf der Karte!

MfG :cool:

Gast
2009-10-01, 09:34:24
sehe ich das richtig:

RV870 <-> GF100

68000 MTexel <-> 83200 MTexel (basierend auf den bisherigen Infos: 650MHz+128TMU ) = +22%

27200 MPixel <-> 31200 MPixel ( 48 ROPs; 650MHz ) = +14,7%

153,6GB/sec <-> 201,6 GB/sec ( basierend auf den infos von Rys, es wundert mich aber das Nvidia kein schnelleres RAM einsetzen will ) = +31%

FLOPs und FLOPs lasse ich mal weg. Die GT200 und RV770 haben gezeigt, das das nicht so wichtig ist.

Ergo bleibt wohl ein Plus von ca. 25% zur 5870 wenn die bisher bekannt gewordenen Specs des GF100 so stimmen.

N0Thing
2009-10-01, 09:36:29
Hmm na hoffentlich liegt die Steigerung der Performance bei ca. 80-100% sonst wird es wohl keine Revolution, wei beim G7x auf G8x...

Nach einer Revolution hört sich der Chip für mich schon an, nur wohl keine bahnbrechende Steigerung der Leistung in Spielen, aber selbst das muß man erstmal abwarten.

Als Gamer benötigt man die ganzen GPGPU-Funktionen einfach nicht. Das ganze Zeug kostet aber weiterhin massig Transistoren, was sich eben auf Geschwindigkeit und Preis niederschlägt. Eine "Spielegrafikkarte" wäre also immer schneller und/oder günstiger.

Aus Gamersicht ist meine Meinung zu dem Chip damit einfach umschrieben: WTF?! Die Spieler sind zwar weiterhin Hauptzielgruppe und finanzieren das ganze, wandern aber irgendwie weit in den Hintergrund. Wozu brauch ich einen ungenutzen Supercomputer mit dem man auch spielen kann?


Für Spieler kommen die GPGPU-Fähigkeiten vielleicht zu früh, vielleicht wird es für Gamer auch noch lange Zeit irrelevant sein. Aber vielleicht sorgt der Chip auch dafür, daß sich Spieleentwickler schneller darauf verlegen Spiele mit einer glaubwürdigen Welt zu kreieren, z.B. Wind in Spiele einzubauen, die die ganze Vegetation realistisch beeinflußt. Oder ein Ragdollsystem, bei dem keine Schaufensterpuppen durch die gegen trudeln, sondern auch mal etwas wie Körperspannung simuliert wird. Crysis sieht zwar schön aus, ist aber dennoch im Vergleich zur echten Welt tot.

Naja, ich glaube selber nicht so recht daran, daß ich sowas innerhalb der nächsten zwei Jahre sehen werde, aber man kann ja hoffen. ^^

cipoint
2009-10-01, 09:38:41
Dumme Frage, aber wozu der L1-/L2-Cache? Besitzt das Teil einen dedizierten Bereich ähnlich einer Northbridge?

Wenn ich mich nicht irre, sind die Caches für Compute-Shaders vorgeschrieben. ATI hat dem RV870 ja auch Cache spendiert, 2,56MiB L1 und 512KiB L2.

OgrEGT
2009-10-01, 09:47:20
Mehr (hochauflösende) Bilder der Tesla-Karte und Jensen inkl. Die ;P
http://www.pcpop.com/doc/0/448/448052.shtml

Aha... hier sieht man auf der oberen Längsseite den 6-Pin PCIe Stecker.
Also 6+8 Pin = 75W (PCIe) + 75W (6-Pin) + 150W (8-Pin) = 300W X-D

2B-Maverick
2009-10-01, 09:48:35
Ich finde solche GPGPU-Karten unheimlich faszinierend.
Leider - und das meine ich ernst - habe ich momentan keine Verwendung dafür!
Mein Physik-Studium mit Computer-Simulationen ist leider lange hinter mir... und momentan weiss ich echt nicht wofür ich so ein Ding gebrauchen könnte :confused:

Aber: Henne und Ei: GPU-Power gibts nun genug... nun kann das Ei (die Software kommen)

Wer verrät mir denn, was da für Otto-Normal-User ausser Spiele-Physik bei rausspringen könnte?
Und wobei dann NVidia evtl. einen Vorteil gegenüber ATI hätte Aufgrund der neuen Architektur?
Denn ATIs DP-Rechenleistung ist ja per-se auch nicht so übel.

edit: und bitte nicht wieder mit Video-Encoding kommen - das mache ich per Software-Lösung - ist zwar lahm aber dafür mit Super Qualität

Gast
2009-10-01, 09:49:37
Ich vermute ja das es ein reiner Marketing Gag ist und die Karte so noch garnicht existiert.... Ich bin wirklich mal gespannt ob und wann NV die Karte bringen wird. Ich bin mir sicher das es nicht mehr dieses Jahr wird (evtl. Paperlaunch...)

MiamiNice
2009-10-01, 09:53:29
Sehe das auch so. Einen Minicomputer in der Grafikkarte brauche ich nicht und will ich auch nicht finanzieren. Wen NV wirklich nur um 20% schneller ist als die ATI dafür die ATI aber nur die Hälfte kostet wird dieses Jahr, trotz allem ATI hasses eine 5870x2 verbaut.

Sascha1971
2009-10-01, 09:53:46
Ich vermute ja das es ein reiner Marketing Gag ist und die Karte so noch garnicht existiert.... Ich bin wirklich mal gespannt ob und wann NV die Karte bringen wird. Ich bin mir sicher das es nicht mehr dieses Jahr wird (evtl. Paperlaunch...)


Wäre ehrlich gesagt auch ne super Taktik.
Das würde erstmal viele High End Fans davon abhalten die ATI KArte zu kaufen, weil sie jetzt sich erstmal die neue NV anschauen wollen.

igg
2009-10-01, 09:55:10
Charlie lag schon öfter richtig als die meisten anderen "News" Seiten die nur irgendwelche Forum-Postings oder Fudzilla Nachrichten abschreiben... oder möchtest du abstreiten, dass bei nvidia momentan die Kacke am Dampfen ist?
Die einzige Kacke die dampft ist die in deiner Hose, seit du die Architektur gesehen hast (wo ist eigentlicn Nagus?). Begreifst du eigentlich was Fermi ist? Unabhängig davon, wie gut die Gaming-Leistung ausfällt, hat Nvidia damit einen extrem guten Grundstein für die kommenden Jahre gelegt. Und ATI? Die stehen mit reinen Gamerkarten da. Mach dir mal Gedanken darüber, welche Märkte in Zukunft über den Erfolg von Architekturen entscheiden.

S940
2009-10-01, 09:56:40
Ich wärme mal die FLOPs Diskussion wieder auf:


Da ja schon Spekulationen für GF100 rumgeistern, eine HD5870 kann in DP:

FMA: 544 GFlops
MUL: 544 GFlops
ADD: 544 GFlops

Mit den spekulierten Werten des GF100 bei 1.7GHz kommt man auf:

FMA: 870 GFlops
MUL: 435 GFlops
ADD: 435 GFlops

Da liegen also keine Welten zwischen nv und ATI, wie momentan zu GTX285 mit nur:

FMA: 89 GFlops
MUL: 44 GFlops
ADD: 44 GFlops

Und zum Vergleich noch eine HD4890:

MADD: 272 GFlops
MUL: 136 GFlops
ADD: 272 GFlops

Mit dem 4,2x Faktor aus der Präsentation wäre man bei:

GTX285*4,2:

FMA: 374 GFlops
MUL: 185 GFlops
ADD: 185 GFlops

Das wäre doch verdammt miserabel ... wo ist der Fehler ?
ECC ? (Sehr) schlechte Taktfrequenzen ?

Edit: DP läuft mit halber Geschwindigkeit bei Fermi.

Aber wenn SP dann nur die doppelte Geschwindigkeit haben sollte ... wäre das noch langsamer als die GT200 .. das kanns doch auch nicht sein.

ciao

Alex

N0Thing
2009-10-01, 09:58:07
Und ATI? Die stehen mit reinen Gamerkarten da. Mach dir mal Gedanken darüber, welche Märkte in Zukunft über den Erfolg von Architekturen entscheiden.


Zu ATI gehört ja auch AMD, deshalb dürfte da der Bedarf an GPGPU anders bewertet werden. ;)

2B-Maverick
2009-10-01, 09:58:20
Die einzige Kacke die dampft ist die in deiner Hose, seit du die Architektur gesehen hast (wo ist eigentlicn Nagus?). Begreifst du eigentlich was Fermi ist? Unabhängig davon, wie gut die Gaming-Leistung ausfällt, hat Nvidia damit einen extrem guten Grundstein für die kommenden Jahre gelegt. Und ATI? Die stehen mit reinen Gamerkarten da. Mach dir mal Gedanken darüber, welche Märkte in Zukunft über den Erfolg von Architekturen entscheiden.

Ist es denn wirklich so, dass ATI da so stark zurückhängt in der Architektur?
Die DP-Leistung bei ATI ist doch gar nicht so übel....

MiamiNice
2009-10-01, 10:01:20
Die einzige Kacke die dampft ist die in deiner Hose, seit du die Architektur gesehen hast (wo ist eigentlicn Nagus?). Begreifst du eigentlich was Fermi ist? Unabhängig davon, wie gut die Gaming-Leistung ausfällt, hat Nvidia damit einen extrem guten Grundstein für die kommenden Jahre gelegt. Und ATI? Die stehen mit reinen Gamerkarten da. Mach dir mal Gedanken darüber, welche Märkte in Zukunft über den Erfolg von Architekturen entscheiden.

Meinst Du Spiele werden aussterben? Die meisten Grafikkarten die extra verkauft werden dürften wohl zum spielen gekauft werden. Für Offics und Co. kauft man keine neue Karte. NV wäre m.M.n. gut damit beraten den Minicomputer in eine extra Karte zu verpacken und Grafikkarte Grafikkarte sein zu lassen.

reunion
2009-10-01, 10:05:48
Die einzige Kacke die dampft ist die in deiner Hose, seit du die Architektur gesehen hast (wo ist eigentlicn Nagus?). Begreifst du eigentlich was Fermi ist? Unabhängig davon, wie gut die Gaming-Leistung ausfällt, hat Nvidia damit einen extrem guten Grundstein für die kommenden Jahre gelegt. Und ATI? Die stehen mit reinen Gamerkarten da. Mach dir mal Gedanken darüber, welche Märkte in Zukunft über den Erfolg von Architekturen entscheiden.

NV machte im letzten Quartal ganze 10M Umsatz im Tesla-Segment. Das ist lächerlich wenig im Vergleich zu den anderen Segmenten. Also ich würde den Ball schon etwas flach halten. Ob sich das lohnt wird sich erst zeigen müssen. Die Konkurrenz ist mit Larrabee, Cell bzw. Cell ähnlichen Ansätzen und nicht zuletzt die CPUs selbst nicht gerade gering. Und das AMD mit einer reinen Gamerkarte dasteht halte ich für ein Gerücht. NV hat bei der Leistung in so manchen Punkten gerade mal das Niveau von AMD erreicht. Sicherlich gibt es ein paar nette zusätzliche Kniffe, aber übertreiben kann man es auch. Das Problem bei AMD ist eher die Software. Im übrigen hat AMD nicht nur Grafikkarten und ist deshalb nicht wie NV derart darauf angewiesen eine "Supercomputer-Karte" zu bauen.

AnarchX
2009-10-01, 10:07:57
Mehr (hochauflösende) Bilder der Tesla-Karte und Jensen inkl. Die ;P
http://www.pcpop.com/doc/0/448/448052.shtml
Also ein A1-Stepping von Ende August.

reunion
2009-10-01, 10:09:54
Charlie lag schon öfter richtig als die meisten anderen "News" Seiten die nur irgendwelche Forum-Postings oder Fudzilla Nachrichten abschreiben... oder möchtest du abstreiten, dass bei nvidia momentan die Kacke am Dampfen ist?

Möchte nur daran erinnern, dass das letzte mal als nvidia so eine "Show" abgezogen hat, wir uns 5 Monate später über nv30 Witze amüsieren durften.

Was man Charlie auf jeden Fall zugute halten muss ist das er der einzige war der von beginn an 2010 gesagt hat, und er wird wohl recht behalten. Er scheibt halt seine Beiträge auch so das man sich zwangsläufig fragt was ihm NV eigentlich angetan hat.

Gast
2009-10-01, 10:11:40
Wäre ehrlich gesagt auch ne super Taktik.
Das würde erstmal viele High End Fans davon abhalten die ATI KArte zu kaufen, weil sie jetzt sich erstmal die neue NV anschauen wollen.

oder im gegenzteil viele "Highend-Fans" dazu bringen die 5870er zu kaufen... wer will schon 4-6 monate warten und nur um dann vielleicht was besseres zu sehen... nach all dem welche infos bis jetzt rausgegeben wurden, schaut das ding besonders vielversprechend für gamer aus > sonst würde da wohl mehr wirbel drum gemacht.

btw, are you ready? ;)

Simon
2009-10-01, 10:12:01
NV wäre m.M.n. gut damit beraten den Minicomputer in eine extra Karte zu verpacken und Grafikkarte Grafikkarte sein zu lassen.
Dann bräuchten sie noch eine zweite Entwicklung: Grafikkarte und "minicomputer". Und das wird dann richtig teuer :freak:

V2.0
2009-10-01, 10:18:56
Wartet doch den GeForce-Launch hab. Für das was sie gestern auf dem Techday angesprochen haben ist das Ding schon ein großer Schritt.

Gast
2009-10-01, 10:19:14
Wen NV wirklich nur um 20% schneller ist als die ATI dafür die ATI aber nur die Hälfte kostet wird dieses Jahr, trotz allem ATI hasses eine 5870x2 verbaut.

Wie krank muss man sein, um sowas zu sagen?

Tarkin
2009-10-01, 10:19:19
Sehe das so wie reunion ... Nvidia versucht in andere Segmenten vorzudringen und vernachlässigen dabei das eigentliche Hauptgeschäft massivst.

Ihnen bleibt im Prinzip auch nichts anderes übrig... Intel und AMD werden Grafik und GPUs verschmelzen - da bleibt mittelfristig nicht mehr viel Geschäft für nvidia übrig. Das Chipsatz und Low End GPU Geschäft wird ihnen irgendwann komplett wegbrechen (vor allem bei Notebooks und bei Apple Computern). Und im High-End ist ATi sehr stark geworden. Es ist vorprogrammiert, dass nvidia Marktanteile verliert.

Ich finde Fermi ist ein daher ein ziemlich "mutiges" Experiment. Jedenfalls wird wohl AMD freie Bahn haben in nächster Zeit.

Gast
2009-10-01, 10:19:46
Lässt sich die neue Karte auch gut für Raytracing nutzen?
Währe auch ein Spiel mit einer komletten Raytracing engine nun denkbar bzw. Flüssig und in der entsprechenden Qualität machbar?

Thunder99
2009-10-01, 10:22:41
Kein Triple-SLI mehr? Nur noch ein SLI-Stecker auf der Karte!

MfG :cool:
Nein:

http://pics.computerbase.de/2/7/0/4/2/11.jpg

AnarchX
2009-10-01, 10:22:47
@ Gast
Für Raytracing scheint Fermi auf jeden Fall besser geeignet zu sein, als vorherige GPUs.
Aber ein komplettes Raytracing-Spiel macht hier nicht viel Sinn, da noch viele Transitoren in Rasterizing-Logik investiert sind und auch so die Rohleistung noch lange nicht für den Qualitätsstandard heutiger Raster-Spiele reicht.

Botcruscher@work
2009-10-01, 10:23:32
Solange es weiterhin die schnellste single GPU Karte wird, wirds genügend geben, die dafür Geld für so ein Teil auf den Tisch legen.
Kurz: Solange es den Grafikbetrieb nicht über Gebühr behindert ... wieso nicht.


Das es die schnellste Singlekarte wird ist bei der Karte und den zu erwartenden Kosten Minimalkriterium. Nicht behindert ist ja relativ, mit bezahlen muss man es immer.

Am Ende zählt eh die Leistung auf dem Platz und der Preis. Also mal die ersten Balken abwarten.

N0Thing
2009-10-01, 10:25:38
Sehe das so wie reunion ... Nvidia versucht in andere Segmenten vorzudringen und vernachlässigen dabei das eigentliche Hauptgeschäft massivst.

Hm, das wird sich erst noch zeigen müssen. Am Ende wird es für Spieler auf die Leistung in Kombination mit der Preisgestaltung ankommen. Und darüber kann man zur Zeit ja noch nichtmal ernsthaft spekulieren.

AnarchX
2009-10-01, 10:29:26
Bei Anandtech gibt es Aussagen vom ehemaligen GeForce Manager darüber, was man bei GT200 falsch gemacht hat und daraus gelernt hat:
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=7

Thunder99
2009-10-01, 10:29:28
Wenn die Tesla Variante 6+8 PCI-E Stecker hat, kann man spekulieren das dies nur für die 3GB+ Karten gedacht ist (prof Bereich). Immerhin braucht auch GDDR5 entsprechend Saft

Consumer 6+6Pin?

Thunder99
2009-10-01, 10:29:56
doppelpost, sry

AnarchX
2009-10-01, 10:31:34
Eigentlich ist die TDP eines GDDR5-Chips kaum höher bzw. gleich hoch, wie die eines schnellen GDDR3-Chips.
Zumal bei Tesla/Quadro Fermis wohl eher <=1GHz GDDR5 zum Einsatz kommen wird.

Ailuros
2009-10-01, 10:31:37
Charlie lag schon öfter richtig als die meisten anderen "News" Seiten die nur irgendwelche Forum-Postings oder Fudzilla Nachrichten abschreiben... oder möchtest du abstreiten, dass bei nvidia momentan die Kacke am Dampfen ist?

Möchte nur daran erinnern, dass das letzte mal als nvidia so eine "Show" abgezogen hat, wir uns 5 Monate später über nv30 Witze amüsieren durften.

Ich kann Dir sagen woher Charlie einen Anteil seines Einkommens bekommt und natuerlich wird es Dir nicht gefallen.

Sehe das so wie reunion ... Nvidia versucht in andere Segmenten vorzudringen und vernachlässigen dabei das eigentliche Hauptgeschäft massivst.

Ihnen bleibt im Prinzip auch nichts anderes übrig... Intel und AMD werden Grafik und GPUs verschmelzen - da bleibt mittelfristig nicht mehr viel Geschäft für nvidia übrig. Das Chipsatz und Low End GPU Geschäft wird ihnen irgendwann komplett wegbrechen (vor allem bei Notebooks und bei Apple Computern). Und im High-End ist ATi sehr stark geworden. Es ist vorprogrammiert, dass nvidia Marktanteile verliert.

Ich finde Fermi ist ein daher ein ziemlich "mutiges" Experiment. Jedenfalls wird wohl AMD freie Bahn haben in nächster Zeit.

Gewagt ist es mit Sicherheit, aber ich hab bis jetzt noch keine einzige Indizie dass Intel selber etwas anstaendiges auf die Beine stellen kann was Grafik betrifft und wenn AMD so weiter macht wie bis jetzt wird aus ihrem CPU Kerngeschaeft langfristig ein GPU Kerngeschaeft. Es kann sich so viel aendern im Verlauf der Jahre dass ich es nicht wage irgendwelche Vorhersagen zu machen.

Generell um groessere Schritte zu machen muss man auch ein gewisses Risiko eingehen. Entweder man gewinnt davon oder faellt platt auf die Nase. Zumindest hat NVIDIA den Mut sich gegen Intel zu stellen anstatt sich wie ATI von AMD einfach aufkaufen zu lassen.

Soundwave1983
2009-10-01, 10:32:06
Hm, das wird sich erst noch zeigen müssen.

Logisch, außer den nV Leuten weiß kein Mensch wie das Ding in Spielen abschneidet, auch wenn sich anscheinend einige gegenteiliges einbilden.
Von vernachlässigt kann man sprechen, wenn es Benchmarks gibt und das Teil sich zur teuren aber vergleichsweise lahmen Krücke entpuppt, bis dahin stehen alle im Dunkeln.

puntarenas
2009-10-01, 10:32:54
Nvidia gibt also nicht mehr viel auf den PC als Spieleplattform, Konsolenports frühstückt auch aktuelle Hardware schon ausreichend ab und die Leistungsanforderungen steigen auch die nächsten Jahre nicht mehr wie zuvor. Also ein Produkt, mit dem Frankreich Atomwaffentests simulieren kann und Mercedes Crash-Test-Dummies einspart, eine Umorientierung.

Außerdem stehen im Hintergrund ja immer noch Intels Larabee und Raytracing bzw. eine Kombination aus Raytracing und Rendering in den Startlöchern. Die neue Generation legt also in vielerlei Hinsicht Grundlagen für die Zukunft und ich frage mich, ob das auch schon eine erste Bewerbung im Wettstreit um die kommende Konsolengeneration ist?

Spannend ist das allemal, viel interessanter als GT200 lang mal breit. Was vielleicht fehlt ist im Moment noch der Markt.

Gast
2009-10-01, 10:37:09
Also ein Produkt, mit dem Frankreich Atomwaffentests simulieren kann und Mercedes Crash-Test-Dummies einspart, eine Umorientierung.


Damit verliert man aber die Berechtigung das Ding Otto normalo zum "rumspielen" zu verkaufen. Für Speziallösungen könnte man auch gleich eine angepaste Karte entwickeln. So ein Zwitter ist em Ende für jeden nachteilig.

MiamiNice
2009-10-01, 10:39:08
Wie krank muss man sein, um sowas zu sagen?

Sehr krank! Ausserdem muss man ne starke Antipathie gegen Rot haben.

Dann bräuchten sie noch eine zweite Entwicklung: Grafikkarte und "minicomputer". Und das wird dann richtig teuer :freak:

Ja schon, aber das ist als Kunde nicht mein Problem. Ich möchte die für mich sinnlose Entwicklung in den Minicomputer nicht mit bezahlen. Im Prinzip bin ich schon bereit einen Teil davon zu bezahlen, aber nicht wen der Beschleuniger über 500€ kostet und nur ein wenig schnller als die Konkurenz ist deren Karten nur 300€ kosten. Alles was die da an Ressourcen "verschwendet" wird, hätte man auch gut in wichtigere Bereiche einer Grafikkarte investieren können. Überleg mal das Teil wäre voll auf Grafikpower ausgelegt bei der Grösse, bin zwar kein Experte aber das würde sicher derbe abrocken. Dafür würde ich auch gerne 600€ auf dem Tisch legen.

Ailuros
2009-10-01, 10:41:20
Nvidia gibt also nicht mehr viel auf den PC als Spieleplattform, Konsolenports frühstückt auch aktuelle Hardware schon ausreichend ab und die Leistungsanforderungen steigen auch die nächsten Jahre nicht mehr wie zuvor. Also ein Produkt, mit dem Frankreich Atomwaffentests simulieren kann und Mercedes Crash-Test-Dummies einspart, eine Umorientierung.

Außerdem stehen im Hintergrund ja immer noch Intels Larabee und Raytracing bzw. eine Kombination aus Raytracing und Rendering in den Startlöchern. Die neue Generation legt also in vielerlei Hinsicht Grundlagen für die Zukunft und ich frage mich, ob das auch schon eine erste Bewerbung im Wettstreit um die kommende Konsolengeneration ist?

Spannend ist das allemal, viel interessanter als GT200 lang mal breit. Was vielleicht fehlt ist im Moment noch der Markt.

LRB spielt seit langer Zeit keine Rolle mehr was die Konsolen-Hersteller betrifft IMO.

puntarenas
2009-10-01, 10:41:51
Damit verliert man aber die Berechtigung das Ding Otto normalo zum "rumspielen" zu verkaufen. Für Speziallösungen könnte man auch gleich eine angepaste Karte entwickeln. So ein Zwitter ist em Ende für jeden nachteilig.
Wieso? Nvidia kann nicht nach Belieben quersubventionieren, da AMD mit günstigen Karten am Markt ist. Über die Berechtigung für so ein Monster als Spielekarte entscheidet immer noch das Preis-/Leistungsverhältnis und bei Geizhals kann ich im Moment ebensowenig finden, wie Benches bei PCGH.

Andererseits ist Nvidia ein Aktienunternehmen, in dem Design ist Musik drin. Schöne Zukunftsaussichten (Phantasie), fröhliche Geldgeber. :smile:

LRB spielt seit langer Zeit keine Rolle mehr was die Konsolen-Hersteller betrifft IMO.
Umso besser für Nvidia?!

Crazy_Chris
2009-10-01, 10:43:21
Wenn das Ding wirklich voll C++ kompatibel ist dann kann man da doch im Prinzip jede zukünftige API drauf abbilden. Also auch DirectX 12, 13 oder 14. Das ist dann zwar ein Softwarelösung die sicher nicht alzu performant ist ist aber ansonsten durchbricht man damit doch jede Beschränkung. :eek: Das Ding kann man doch garnicht mehr als GPU im klassischen Sinne bezeichnen. :)

dildo4u
2009-10-01, 10:44:21
Sehr krank! Ausserdem muss man ne starke Antipathie gegen Rot haben.



Ja schon, aber das ist als Kunde nicht mein Problem. Ich möchte die für mich sinnlose Entwicklung in den Minicomputer nicht mit bezahlen. Im Prinzip bin ich schon bereit einen Teil davon zu bezahlen, aber nicht wen der Beschleuniger über 500€ kostet und nur ein wenig schnller als die Konkurenz ist deren Karten nur 300€ kosten. Alles was die da an Ressourcen "verschwendet" wird, hätte man auch gut in wichtigere Bereiche einer Grafikkarte investieren können. Überleg mal das Teil wäre voll auf Grafikpower ausgelegt bei der Grösse, bin zwar kein Experte aber das würde sicher derbe abrocken. Dafür würde ich auch gerne 600€ auf dem Tisch legen.


GPU's müssen schon Heute bei Games mher können als nur Grafik,siehe PhysX(bzw. Open-Source Physik) und gerade da wurden die Bremsen gelöst.
Crytek hat doch auch gesagt bis die nästen Renderingmethoden in Echtzeit nutzbar sind,wirds nur in dem Bereich sichtbare Fortschritte geben.



Mike told us that the capabilities of DirectX9 [when properly
optimized] are brilliant for customers that want to develop a title
for current generation of consoles and PCs. The customers that are
targeting next-generation console cycle and the PC should build upon
the strengths of DirectX 11 API, given that most of next-generation
console hardware will be locked down sometime next year, and pushed
out in 2012-2013 frame. We got the same feedback from Epic in the
matter of Unreal Engine 4, and the time will tell can CryTek develop
into a successful engine developer as well. So far, the work on Crysis
2 is progressing with more impact on gameplay than ever before.

Our take is that CryEngine 3 simply blew our minds with the realistic
water physics and effects on the "camera" viewpoint... it was really
interesting to feel the immersion effect, so the guys and girls in
CryTek are looking good to win the award for the best looking water of
them all.

http://www.brightsideofnews.com/news/2009/9/11/cryteks-cryengine-30-set-to-debut-next-month.aspx

ATI's Lösung ist fast nutzlos für Consumer,es wird wieder nur Aufsätze auf DX9 Engines geben bis die nästen Konsolen kommen.Niemand kann 20-30Mio in ein technisch aufwändiges Game stecken wenn er keine Konsolenversion hat siehe Crytek(Crysis 2),id(Rage) und Epic.(Gears2)

reunion
2009-10-01, 10:50:22
Ja schon, aber das ist als Kunde nicht mein Problem. Ich möchte die für mich sinnlose Entwicklung in den Minicomputer nicht mit bezahlen. Im Prinzip bin ich schon bereit einen Teil davon zu bezahlen, aber nicht wen der Beschleuniger über 500€ kostet und nur ein wenig schnller als die Konkurenz ist deren Karten nur 300€ kosten. Alles was die da an Ressourcen "verschwendet" wird, hätte man auch gut in wichtigere Bereiche einer Grafikkarte investieren können. Überleg mal das Teil wäre voll auf Grafikpower ausgelegt bei der Grösse, bin zwar kein Experte aber das würde sicher derbe abrocken. Dafür würde ich auch gerne 600€ auf dem Tisch legen.

NV wird die Karte schon so anbieten das sie auch verkauft wird. Hat man ja bei GT200 auch gemacht. Was soll man auch sonst machen?

Gast
2009-10-01, 10:53:45
NV machte im letzten Quartal ganze 10M Umsatz im Tesla-Segment. Das ist lächerlich wenig im Vergleich zu den anderen Segmenten.

Ouch! Link?

S940
2009-10-01, 10:56:09
Bei Anandtech gibt es Aussagen vom ehemaligen GeForce Manager darüber, was man bei GT200 falsch gemacht hat und daraus gelernt hat:
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=7
The biggest lesson RV770 taught NVIDIA was to be quicker to migrate to new manufacturing processes. Not NV30 quick, but definitely not as slow as GT200. Internal policies are now in place to ensure this.
Da frag ich mich ehrlich, ob man bei nV wirklich übersehen hat, dass es ein Unterschied macht, ob man mit nem Monster Die oder einem kleineren Design in einem nageneuen Prozess startet ...
Nachdem Charlies Aussagen mehr oder minder bestätigt wurden, werden auch die Yield Infos stimmen...

AMD hat beim 770 Start nicht umsonst gesagt, dass ihre Mittelklasse Strategie das Nutzen neuer Prozesse vereinfacht.

Dazu kommt noch, dass das nun eine neue Architektur ist, da werden noch viele Bugs versteckt sein.

ciao

Alex

Soundwave1983
2009-10-01, 10:58:27
Nachdem Charlies Aussagen mehr oder minder bestätigt wurden, werden auch die Yield Infos stimmen...

Wenn man Ailuros glauben schenken darf (und das darf man IMHO ganz bestimmt :biggrin: ) dann ist diese Yield-Geschichte genauso falsch wie sie alt ist.

reunion
2009-10-01, 11:03:14
Ouch! Link?

AnandTech:

Last quarter the Tesla business unit made $10M. That's not a whole lot of money for a company that, at its peak, grossed $1B in a single quarter. NVIDIA believes that Fermi is when that will all change. To borrow a horrendously overused phrase, Fermi is the inflection point for NVIDIA's Tesla sales.
[..]
If the TAM for GPUs in HPC is so big, why did NVIDIA only make $10M last quarter? If you ask NVIDIA it has to do with focus and sales.

According to NVIDIA, over the past couple of years NVIDIA's Tesla sales efforts have been scattered. The focus was on selling to any customers that could potentially see a speedup, trying to gain some traction for the Tesla business.

Jen-Hsun did some yelling and now NVIDIA is a bit more focused in that department. If Tesla revenues increase linearly from this point, that's simply not going to be enough. I asked NVIDIA if exponential growth for Tesla was in the cards and if so, when would it happen. The answer was yes and with Fermi.

We'll see how that plays out, but if Fermi doesn't significantly increase Tesla revenues then we know that NVIDIA is in serious trouble.


http://www.anandtech.com/video/showdoc.aspx?i=3651&p=8

Gast
2009-10-01, 11:03:18
Sehr krank! Ausserdem muss man ne starke Antipathie gegen Rot haben.


Für einen 29-jährigen ist das aber eine äusserst kindische Krankheit.

Soundwave1983
2009-10-01, 11:07:25
Für einen 29-jährigen ist das aber eine äusserst kindische Krankheit.

Sehe ich auch so, genauso wie Antipathie gegen Grün. ;)

Ailuros
2009-10-01, 11:10:49
Umso besser für Nvidia?!

Nicht nur NVIDIA natuerlich.

Ailuros
2009-10-01, 11:14:18
AnandTech:



http://www.anandtech.com/video/showdoc.aspx?i=3651&p=8

Schoen reunion; nachdem Du jetzt gar nichts bewiesen hast da NVIDIA ziemlich "frisch" im Servermarkt ist (und AMD sowieso nichts damit zu tun hat) versuch jetzt mal Zahlen fuer den gesamten Profi-Markt aufzusuchen.

Intel hat uebrigens den Servermarkt viel mehr im Auge als den workstation Markt.

reunion
2009-10-01, 11:17:57
Schoen reunion; nachdem Du jetzt gar nichts bewiesen hast da NVIDIA ziemlich "frisch" im Servermarkt ist (und AMD sowieso nichts damit zu tun hat) versuch jetzt mal Zahlen fuer den gesamten Profi-Markt aufzusuchen.

Intel hat uebrigens den Servermarkt viel mehr im Auge als den workstation Markt.

Es hat niemand bestritten das Potential vorhanden ist, sonst würde auch keiner da derart viel investieren. Aber bis jetzt sind die Erfolge sehr überschaubar.

Gast
2009-10-01, 11:28:45
hier, eine kleine präsentation zu "Fermi"

http://www.nvidia.com/object/fermi_architecture.html

ob das ding auch kaffee machen kann?!

puntarenas
2009-10-01, 11:28:56
LRB spielt seit langer Zeit keine Rolle mehr was die Konsolen-Hersteller betrifft IMO.
Nicht nur NVIDIA natuerlich.
Ich meinte eher im Zusammenhang, dass Intel ja antreten wollte, Raytraycing-Rendering-Zwitter massiv zu pushen und hier hätte Nvidia im Zweifel wohl momentan einen Vorteil gegenüber AMD. Wenn Intel erst nochmal zurück ins Labor muss, könnte die Bahn zwar frei sein, aber andererseits das Interesse an den Vorzügen der neuen Architektur geringer. Zwispältig, wäre doch schön gewesen - Intel bereitet die Bahn und Nvidia kommt aus dem Windschatten. Außerdem konnte Nvidia zu einem frühen Zeitpunkt der Entwicklung vermutlich nicht ahnen, dass Intel solche Probleme haben wird.

These: Der PC stirbt als Spieleplattform, sogar der Windows-PC in seiner jetztigen Form stirbt insgesamt (Cloud-Computing, Thin-Clients, ...). Schön für Nvidia, denn mangels x86-Lizenz ist man sowieso in einer Sackgasse. Fragt sich halt, ob die Zukunft schnell genug hereinbricht. IBM beispielsweise will Moblin pushen, könnte man auf Fermi(-Abkömmlingen) auch gleich ein ganzes Betriebssystem ausführen?

Nochmal zur Nutzung auf Konsolen, könnten ein oder zwei dieser Chips auf einer "Playstation 4" zusätzliche PowerPC oder x86-Einheiten komplett überflüssig machen?

igg
2009-10-01, 11:34:11
These: Der PC stirbt als Spieleplattform, sogar der Windows-PC in seiner jetztigen Form stirbt insgesamt (Cloud-Computing, Thin-Clients, ...).
...
Nochmal zur Nutzung auf Konsolen, könnten ein oder zwei dieser Chips auf einer "Playstation 4" zusätzliche PowerPC oder x86-Einheiten komplett überflüssig machen?
Zum Beispiel

Ailuros
2009-10-01, 11:41:10
Es hat niemand bestritten das Potential vorhanden ist, sonst würde auch keiner da derart viel investieren. Aber bis jetzt sind die Erfolge sehr überschaubar.

Es ist auch nichts Neues dass der gesamte Profi Markt eigentlich low volume high margin ist; und ja natuerlich laesst sich ein grosser Brocken von Kosten hier amortisieren.

Wenn man konstant einen >80% Marktanteil in diesem Markt hat, ist es schon Grund genug nichts von dem Anteil so leicht verschenken zu wollen. Ueberhaupt wenn Intel mit einer angeblich flexibleren Architektur und wichtigen Aenderungen im Bereich sw mit ihren ppt slides schon seit Jahren wedelt.

---------------------------------------------------------------------

Ausgezeichnetes Teil von Damien Triolet (leider nur franzoesisch momentan):

http://www.hardware.fr/articles/772-1/nvidia-fermi-revolution-gpu-computing.html

Ailuros
2009-10-01, 11:47:16
Ich meinte eher im Zusammenhang, dass Intel ja antreten wollte, Raytraycing-Rendering-Zwitter massiv zu pushen und hier hätte Nvidia im Zweifel wohl momentan einen Vorteil gegenüber AMD. Wenn Intel erst nochmal zurück ins Labor muss, könnte die Bahn zwar frei sein, aber andererseits das Interesse an den Vorzügen der neuen Architektur geringer. Zwispältig, wäre doch schön gewesen - Intel bereitet die Bahn und Nvidia kommt aus dem Windschatten. Außerdem konnte Nvidia zu einem frühen Zeitpunkt der Entwicklung vermutlich nicht ahnen, dass Intel solche Probleme haben wird.

These: Der PC stirbt als Spieleplattform, sogar der Windows-PC in seiner jetztigen Form stirbt insgesamt (Cloud-Computing, Thin-Clients, ...). Schön für Nvidia, denn mangels x86-Lizenz ist man sowieso in einer Sackgasse. Fragt sich halt, ob die Zukunft schnell genug hereinbricht. IBM beispielsweise will Moblin pushen, könnte man auf Fermi(-Abkömmlingen) auch gleich ein ganzes Betriebssystem ausführen?

Nochmal zur Nutzung auf Konsolen, könnten ein oder zwei dieser Chips auf einer "Playstation 4" zusätzliche PowerPC oder x86-Einheiten komplett überflüssig machen?

Ich verstehe schon was Du meinst, nur glaube ich nicht dass selbst langfristig eine CPU eine GPU ersetzen werden wird oder anders rum. Verdammt uebervereinfacht bis zum Punkt wo eine GPU so effizient ist wie eine CPU mit nur einer Aufgabe oder anders rum eine CPU so effizient wie ein GPU mit zich tausenden Aufgaben koennten Jahrzehnte vergehen.

APIs wie OpenCL dienen in meinem Hinterkopf eher eine bessere Verwaltung der Resourcen in einem System zu generieren als die ein der beiden Einheiten aussterben zu lassen. Nimm Dir als Beispiel Photoshop; versuch CS4 mit einer <DX9.0 GPU einmal und einmal mit einer jeglichen >DX9.0 GPU mit zumindest 512MB onboard ram. Ist es nicht Bloedsinn bei solch einer Applikation dass die GPU nur dumm rumhockt und sich langweilt?

***edit: um zu erlaeutern was ich vorher meinte...da ich in zukuenftigen Konsolen von Intel LRB nichts erwarte koennen sich den Konsolen-Kuchen AMD/NVIDIA wie bisher untereinander aufteilen.

mapel110
2009-10-01, 11:51:21
Grundlagen CPU ist bei mir sehr lange her, aber bei Fermi fehlt doch noch sehr viel, was eine aktuelle CPU hat. Von Sprungvorhersagen oder ähnlichem hab ich beispielsweise bei Fermi nichts gelesen. Da wird wohl alles Brute Force durchgejagt?! Allein deswegen sollte eine CPU für general purpose auch die nächsten Jahre noch besser sein.

Vor allem muss man ja erstmal auf nvidias Compiler gespannt sein, wie viel der aus einem Code machen kann.

/edit
Was Konsolen angeht, so ist die Planung für die nächste Generation doch schon abgeschlossen oder kurz davor?! Wenn man bedenkt, dass heutige GPUs und CPUs sehr lange Entwicklungsphasen haben.

Spasstiger
2009-10-01, 11:58:21
Sehe ich das richtig, dass jetzt pro SM bei Single Precision statt 8 MADD-Ops + 8 MUL-Ops nun 32 FMA-Ops möglich sind?
Die Single-Precision-Rechenleistung müsste dann bei geschätzten 1,6 GHz maximal 1,6 (Takt in GHz) * 16 (Anzahl SMs) * 32 (FMA-Ops pro SM) * 2 (Flop/FMA) GFlops = 1638,4 GFlops betragen. Hinzu kommen noch die Flops der SFUs.

AnarchX
2009-10-01, 12:04:31
Sehe ich das richtig, dass jetzt pro SM bei Single Precision statt 8 MADD-Ops + 8 MUL-Ops nun 32 FMA-Ops möglich sind?
Die Single-Precision-Rechenleistung müsste dann bei geschätzten 1,6 GHz maximal 1,6 (Takt in GHz) * 16 (Anzahl SMs) * 32 (FMA-Ops pro SM) * 2 (Flop/FMA) GFlops = 1638,4 GFlops betragen. Hinzu kommen noch die Flops der SFUs.
Das ist korrekt, wobei bei GT200 die MULs trotz ~90%iger nutzbarkeit für normales Shading wohl eher selten bereitstanden, was man auch am Leistungsvergleich GTS 250 vs GTX 260 sieht.

btw.
Ausgehend vom Die-Shot und einer angenommenen Die-Size von ~500mm², könnte man wohl mit der Größe eines RV870 (334mm²) einen Fermi mit 256-320SPs und 256-Bit auf die Beine stellen.
Mit entsprechender Taktung könnte man hier wohl eine konkurrenzfähige SKU auf die Beine stellen. Wobei es momentan nicht vor Q2 2010 nach weiteren Fermis aussieht. Und bis dahin gibt es vielleicht schon wieder einen taktoptimierten RV870 mit >=1GHz.

Ailuros
2009-10-01, 12:08:25
Ein sehr schoener Post von DemoCoder auf B3D der mal eine andere Perskeptive bietet:

HPC is a niche market. No way companies building out massive cloud infrastructure (Google, Microsoft, Amazon, Rackspace, et al) are going to go with GPUs. It's too risky and too incompatible when going with cheap, commodity, x86 hardware (even if inefficient at tasks NV does well).

By most accounts, Google's cluster is about 1 million servers. NVidia sells far more than 1mil GPUs to consumers. If you add up all of the server-side customers and HPC installations, it won't come close to the revenue numbers they pull in from retail/OEM.

Sure, HPC margins might be higher, but overall, concentrating on GPGPU at the expense of retail/OEM/mobile would doom the company into bit-player status.

In short, there is no way Fermi is built on some insane business model. Well, there is, but then Jensen should be shot. I think the reality is, NV is just evolving their architecture, and this is where it took them. They are not going to reboot it into an ATI-like architecture, they're going to continue to refine it and see where it takes them.

I think they added DP and ECC not as a major focus, but because they had spare transistor budget to do it, and customers were asking. It's a risk, but why is no one postulating that AMD is forsaking graphics by adding DP when it did?

The markers are just trumping up DP and ECC as major bullet points at this point, I wouldn't real too much into it.


http://forum.beyond3d.com/showpost.php?p=1342562&postcount=117

Dural
2009-10-01, 12:10:14
http://www.youtube.com/watch?v=dVsvvcn1AUE

ich hab mitlerweilen ein sehr ungutes Gefühl was die Grafikleistung des Fermi anbelangt... 50% zu 285 wären OK...

und dann noch A1 Stepping von August, denke das wir erst A2 oder sogar A3 im Handel sehen werden...

mictasm
2009-10-01, 12:16:45
Und das Gefühl kommt aus dem Video, in dem nichts darüber zu sehen ist?

Irgendwie gibt es hier ein Missverständnis, da ist doch (noch) keine neue Grafikkartengeneration vorgestellt worden. Kann man zum jetzigen Zeitpunkt überhaupt schon Rückschlüsse auf die Leistungsfähigkeit im Bereich Spielegrafik ziehen?

RLZ
2009-10-01, 12:21:24
Ich meinte eher im Zusammenhang, dass Intel ja antreten wollte, Raytraycing-Rendering-Zwitter massiv zu pushen und hier hätte Nvidia im Zweifel wohl momentan einen Vorteil gegenüber AMD.
Abgesehen von den Pohl Auftritten sehe ich eher, dass Nvidia Raytracing pusht. Im Gegensatz zu Intel bietet man sogar schon die passende API an...

Dural
2009-10-01, 12:25:11
Und das Gefühl kommt aus dem Video, in dem nichts darüber zu sehen ist?

Irgendwie gibt es hier ein Missverständnis, da ist doch (noch) keine neue Grafikkartengeneration vorgestellt worden. Kann man zum jetzigen Zeitpunkt überhaupt schon Rückschlüsse auf die Leistungsfähigkeit im Bereich Spielegrafik ziehen?

Ja richtig es wurde KEINE Grafikkarten GPU vorgestellt, hast du dich schon mal gefragt wie so? gerade in hinblick auf den RV870 bezogen wäre eine ganz kleine Leistungs-Ausblick auf die Grafikleistung sicher nicht verkehrt gewessen...

NV hat gestern eindeutig klar gemacht: Wir bringen "mehr" als nur ein RV870 und es geht ihnen nicht mehr nur um die Grafikleistung (OK das kann man auch schon seit dem GT200 sagen...)

Ailuros
2009-10-01, 12:28:01
http://www.pcpop.com/doc/0/448/448052.shtml

http://img5.pcpop.com/ArticleImages/500x375/1/1238/001238703.jpg

Leider hab ich keine Ahnung ob Jensen Wurstfinger hat oder nicht um den DIE einzuschaetzen. Jemand mit Adler-augen vielleicht? :D

Spasstiger
2009-10-01, 12:29:52
Ich denke mal, dass man aufgrund der Fertigungsprobleme noch keine endgültigen Spezifikationen für die Grafikkarten festlegen konnte. Und da die SP-Rechenleistung auf dem Papier im Vergleich zu AMD auch nicht berauschend ausfällt, präsentiert man eben das, wo man die Stärken des Fermi/GT300/GF100 sieht.

Hat AMD beim Cypress eigentlich keine mehrstufige Cache-Architektur? Sind doch afaik auch L1- und L2-Caches verbaut.

http://www.pcpop.com/doc/0/448/448052.shtml

http://img5.pcpop.com/ArticleImages/500x375/1/1238/001238703.jpg

Leider hab ich keine Ahnung ob Jensen Wurstfinger hat oder nicht um den DIE einzuschaetzen. Jemand mit Adler-augen vielleicht? :D
Da müsste man erstmal den Heatspreader vom Träger entfernen, um irgendwelche Schätzungen anstellen zu können. Alleine aus der Pinanordnung auf dem Träger kann man nicht auf die Diegröße schließen.
Beim GT200 sah es so aus: http://www.pcgameshardware.de/aid,679763/Reale-Chipgroessen-von-G80-GT200-und-GT200b-nachgemessen/Grafikkarte/News/bildergalerie/?iid=992942

Godmode
2009-10-01, 12:31:24
http://www.pcpop.com/doc/0/448/448052.shtml

http://img5.pcpop.com/ArticleImages/500x375/1/1238/001238703.jpg

Leider hab ich keine Ahnung ob Jensen Wurstfinger hat oder nicht um den DIE einzuschaetzen. Jemand mit Adler-augen vielleicht? :D

IMO ist das die Rückseite.

cipoint
2009-10-01, 12:36:28
hier, eine kleine präsentation zu "Fermi"

http://www.nvidia.com/object/fermi_architecture.html

ob das ding auch kaffee machen kann?!

Bei der Abwärme, sicher! :freak:

Botcruscher
2009-10-01, 12:45:07
Ein sehr schoener Post von DemoCoder auf B3D der mal eine andere Perskeptive bietet:
...No way companies building out massive cloud infrastructure (Google, Microsoft, Amazon, Rackspace, et al) are going to go with GPUs...
http://forum.beyond3d.com/showpost.php?p=1342562&postcount=117

Halte ich für unrealsitisch. Man lagert nicht mal eben bestehenden Code auf eine Wolke von GPUs aus. Also bleiben wieder nur angepaste Anwendungen, von den der Spieler garnichts hat. Die zielgruppe dafür ist sehr eingeschränkt aber immerhin mit genug (finanzielem) Potenzial.

Trotzdem wird man früher oder später zum Auslagern, der GPGPU Sachen in einen eigenen Chip, gezwungen sein.

Ihm
2009-10-01, 12:47:07
Grundlagen CPU ist bei mir sehr lange her, aber bei Fermi fehlt doch noch sehr viel, was eine aktuelle CPU hat. Von Sprungvorhersagen oder ähnlichem hab ich beispielsweise bei Fermi nichts gelesen. Da wird wohl alles Brute Force durchgejagt?! Allein deswegen sollte eine CPU für general purpose auch die nächsten Jahre noch besser sein.

Vor allem muss man ja erstmal auf nvidias Compiler gespannt sein, wie viel der aus einem Code machen kann.

/edit
Was Konsolen angeht, so ist die Planung für die nächste Generation doch schon abgeschlossen oder kurz davor?! Wenn man bedenkt, dass heutige GPUs und CPUs sehr lange Entwicklungsphasen haben.


Improved Conditional Performance through Predication

"In the Fermi ISA, the native hardware predication support used for divergent thread management is now available at the instruction level. Predication enables short conditional code segments to execute efficiently with no branch instruction overhead."

http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiComputeArchitectureWhitepaper.pdf


Der CUDA-Compiler ist im CUDA-Paket schon enthalten, und dieses liegt schon in Version 2.3 vor.

Die Frage ist nur:
Muss man C++ Code jetzt überhaupt nicht mehr per CUDA anpassen?
Wenn nicht, dann würde mich das Ergebnis auch brennend interessieren.

Ansonsten:
Die Spieleleistung ist mir persönlich ziemlich egal. Wenn das Teil in Sachen GPGPU wirklich einen grossen Schritt nach vorne macht und einige Dinge, die ich an der G80/G200 Architektur noch problematisch fand, verbessert wurden, dann aber Holla die Waldfee. :uroll:

Spasstiger
2009-10-01, 12:47:54
Halte ich für unrealsitisch. Man lagert nicht mal eben bestehenden Code auf eine Wolke von GPUs aus. Also bleiben wieder nur angepaste Anwendungen, von den der Spieler garnichts hat. Die zielgruppe dafür ist sehr eingeschränkt aber immerhin mit genug (finanzielem) Potenzial.
Hm, irgendwie hast du den Text nicht gelesen. "No way" bedeutet übrigens soviel wie "Auf gar keinen Fall".

Hübie
2009-10-01, 12:53:50
Wahrscheinlich treten wir langsam in die Phase ein, wo wir einen Übergang vom Rasterizer zum Ryatracer sehen werden. Wenn ich mich recht entsinne gibt es von Crytek schon erste Bemühungen Raytracing mit Rasterizing zu kombinieren.
Aber angesichts der Tatsache, dass man auf den nVidia-Chip noch eine Weile warten muss und bis dahin die ATi-Preise gut gefallen sind ist es wenig sinnvoll darauf zu warten wenn man ohnehin aufrüsten möchte (prä-HD4000/G92-User).
Nerds und Freaks lass ich hier mal aussen vor... manche kaufen ja Grafikkarten nur zum benchen und Schwanz vergleichen. ;)

bye Hübie

Edit: Mal ehrlich was macht ihr alle mit euren GRAFIK(!)karten??? Ich zocke. Das ist der einzige Grund warum ich einen großen Rechner habe! Zocken! Zocken! Zocken!
Der Rest geht auch auf nem Lappy. Und illegal Videos konvertieren geht per Graka zwar schneller ist aber Zweckentfremdung und Geldverbrennung.

Aquaschaf
2009-10-01, 12:57:33
Improved Conditional Performance through Predication

Predication kann G80 (und die Chips von AMD/ATI) aber auch schon. An dem Punkt ist unklar was sich verbessert haben soll.

Ailuros
2009-10-01, 12:57:40
So schnell sehe ich keinen RT Anteil in Spielen und sehe als Laie auch noch keine Notwendigkeit dafuer. Ja ok wenn jetzt ein ISV die Entwicklung in 2010 anfaengt und das Ding in 2014/5 fertig ist dann ist mir die Leistung auf einem GF100 auch ziemlich wurscht.

RT brauchen sie hauptsaechlich fuer grosse Firmen die es fuer professionelle Vorstellungen brauchen wie z.B. die Autoindustrie.

Edit: Mal ehrlich was macht ihr alle mit euren GRAFIK(!)karten??? Ich zocke. Das ist der einzige Grund warum ich einen großen Rechner habe! Zocken! Zocken! Zocken!
Der Rest geht auch auf nem Lappy. Und illegal Videos konvertieren geht per Graka zwar schneller ist aber Zweckentfremdung und Geldverbrennung.

Aber wenn mir langfristig (nicht heute) die eine oder andere GPU schneller ausfaellt bei Anwendungen wie die von Adobe (praktisch alle heh), Nero und dergleichen wird bei jeglichem Allzweck-PC in der Zukunft die bessere GPGPU Unterstuetzung vielleicht doch als Kaufsargument mitzaehlen. Heute ist die ganze Geschichte noch am Anfang aber wenn der Trend zunimmt dann ist es mir lieber dass wenn ich gerade mal nicht zocke dass die GPU auf der ich X Euro investiert habe nicht nur dumm rumhockt und dabei ist es auch egal ob es sich um eine IGP oder GPU handelt.

Deshalb plant natuerlich auch Intel einen Weg zu finden Larabee in ueberzukuenftige SoCs irgendwann mal zu integrieren.

Gast
2009-10-01, 13:01:16
Und was ist nun mit dem Geforce-Ableger davon ? Kommt der nun auch noch ? Ist das jetzt der Gt300 ? Oder ist der GT300 der Geforce Ableger ? Auf alle Fälle ist DAS keine Desktop Karte und wird nicht erschwinglich sein !

Aquaschaf
2009-10-01, 13:05:24
Hat AMD beim Cypress eigentlich keine mehrstufige Cache-Architektur? Sind doch afaik auch L1- und L2-Caches verbaut.

Das frage ich mich auch. Bei genauerem Nachdenken ist der Architektur-Vorteil für GPGPU von Nvidia auch bei der neuen Generation nicht so klar. Leider gibt es zur Architektur von RV870 in dieser Hinsicht noch nicht genug Informationen.

Nightspider
2009-10-01, 13:07:05
Ich könnte mir schon vorstellen das CryTek RayTracing bei der Wasserdarstellung in der CryEngine 3.0 integriert hat.
Vor 2 Wochen gab es doch Berichte das CryTek bei Crysis 2 das Level der Wasserdarstellung auf ein neues Niveau anhebt.

Vielleicht testen sie auch nur damit für Crysis 3 (anno 2011-2012 denk ich mal).

Gast
2009-10-01, 13:12:48
mal etwas OT:

Leonidas ist bei den GF100 News ja ziemlich verhalten. Nur zw. 1400 - 1900 MFlops und dazu zw. 170 - 230 GB/sec.

1400MFlops und 170GB/sec als untere Marke sind IMHO schon sehr wenig.

Aquaschaf
2009-10-01, 13:14:33
Ich könnte mir schon vorstellen das CryTek RayTracing bei der Wasserdarstellung in der CryEngine 3.0 integriert hat.

Nein, ganz sicher nicht.

Ailuros
2009-10-01, 13:16:51
http://www.fudzilla.com/content/view/15758/1/

Hmmm....:rolleyes:

mal etwas OT:

Leonidas ist bei den GF100 News ja ziemlich verhalten. Nur zw. 1400 - 1900 MFlops und dazu zw. 170 - 230 GB/sec.

1400MFlops und 170GB/sec als untere Marke sind IMHO schon sehr wenig.

Leo hat das Zeug wohl leider etwas zu vorzeitig gepostet. Wenn ich immer noch von MADD auf GT300 lese...

Ihm
2009-10-01, 13:19:26
Predication kann G80 (und die Chips von AMD/ATI) aber auch schon. An dem Punkt ist unklar was sich verbessert haben soll.

Es wurde nichts verbessert. Die Sprungvorhersage ist Teil des neuen PTX 2.0 Befehlsatzes (ein Assembler). Das ist Neu.
Die Sprungvorhersage bei ATI, seit R520, betraf soweit ich mich erinnern kann nur das Speichermanagement.

Nightspider
2009-10-01, 13:19:36
Nein, ganz sicher nicht.

Ach du arbeitest wohl auch bei CryTek ? :conf:

Edit:

Nagut, nach den Interview von CryTek steht uns RT erst in 2-4 Jahren bevor:
http://www.pcgameshardware.de/aid,639752/Zukunft-der-3D-Grafik-Crytek-Chef-Yerli-ueber-Raytracing-und-Rasterization/Cevat-Yerli/News/

Also bei Crysis 3:ugly:

Hübie
2009-10-01, 13:24:49
So schnell sehe ich keinen RT Anteil in Spielen und sehe als Laie auch noch keine Notwendigkeit dafuer. Ja ok wenn jetzt ein ISV die Entwicklung in 2010 anfaengt und das Ding in 2014/5 fertig ist dann ist mir die Leistung auf einem GF100 auch ziemlich wurscht.

RT brauchen sie hauptsaechlich fuer grosse Firmen die es fuer professionelle Vorstellungen brauchen wie z.B. die Autoindustrie.



Aber wenn mir langfristig (nicht heute) die eine oder andere GPU schneller ausfaellt bei Anwendungen wie die von Adobe (praktisch alle heh), Nero und dergleichen wird bei jeglichem Allzweck-PC in der Zukunft die bessere GPGPU Unterstuetzung vielleicht doch als Kaufsargument mitzaehlen. Heute ist die ganze Geschichte noch am Anfang aber wenn der Trend zunimmt dann ist es mir lieber dass wenn ich gerade mal nicht zocke dass die GPU auf der ich X Euro investiert habe nicht nur dumm rumhockt und dabei ist es auch egal ob es sich um eine IGP oder GPU handelt.

Deshalb plant natuerlich auch Intel einen Weg zu finden Larabee in ueberzukuenftige SoCs irgendwann mal zu integrieren.

Wenn langfristig eine GPU schneller als die andere ausfällt, dann möchte ich aber einen einheitlichen Standard um mich nicht binden zu müssen. Und auch wenn langfristig raytracing sich durchsetzt möchte ich auch dort eine vernünftige Plattform.
Das ist leider (m.E.) bei nVidia nicht der Fall. Weil sie Angst haben alles zu verlieren oder sich eben den Aktionären ggü. erklären müssen. Wahrscheinlich aber beides. Das ist nicht der richtige Weg für den Endkunden. Das müssten selbst Fanboys einsehen.
Wie gesagt war mir nVidia bisher zu teuer (fürs Gebotene) und ich bin wahrlich gespannt was ein 3Mrd-Transistormonster bei geizhals.at ausspuckt :rolleyes::redface:

tombman
2009-10-01, 13:25:42
Bilder von der Karte aus der Präsentation von NV:

http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Video-und-erste-G300-Fotos/Grafikkarte/News/
http://www.pcgameshardware.de/screenshots/original/2009/09/Nvidia_Fermi_PCGH_7.JPG

???

:idea:

BY THE POWER OF GRAYSCULL!!!!

http://www.velveteenmind.com/velveteenmind/images/2007/10/14/heman.jpg

;D;D;D

Gibts schon benchmarks mit absoluten Zahlen?

Aquaschaf
2009-10-01, 13:34:03
Es wurde nichts verbessert. Die Sprungvorhersage ist Teil des neuen PTX 2.0 Befehlsatzes (ein Assembler). Das ist Neu.
Die Sprungvorhersage bei ATI, seit R520, betraf soweit ich mich erinnern kann nur das Speichermanagement.

Ähm, Predication ist etwas ganz anderes als Sprungvorhersage. Und beim Speichermanagement wirfst du auch Sachen durcheinander. Meinst du dabei vielleicht out-of-order-execution? Auch das hat nichts mit Sprungvorhersage zu tun.

Ach du arbeitest wohl auch bei CryTek ? :conf:

Nein, aber ich weiß genug von der Funktion einer Grafikengine um sagen zu können dass das Quatsch wäre.

PHuV
2009-10-01, 13:36:03
Gibts schon benchmarks mit absoluten Zahlen?

Darauf wirst Du noch eine Weile warten müssen. Wenn Du die diversen Statements und Artikel genau verfolgt hast, war dort zu lesen, daß dieser Chip und die Fertigung noch stark optimiert werden müssen. Deshalb wurden dann auch nur Benchmarkwerte für CUDA angegeben, weil hier wohl alles schon recht zuverlässig läuft.

Noebbie
2009-10-01, 13:37:43
Habe den Thread und die Informationen diesbezüglich seit gestern abend nicht mehr verfolgt.

Aber im Prinzip heißt das doch jetzt kurz und knapp:

Da kommt was Revolutionäres & Neues, aber nicht mehr dieses Jahr.

Oder?

pest
2009-10-01, 13:39:27
"can it play Crysis@max?" "No, but it can multiply a matrix 4 times faster than gt200" :freak:

scnr

Hübie
2009-10-01, 13:40:13
Ich habe die Lösung all unserer Zockerprobleme: Hier (http://gamecity.org/blog/crysisliveannounce) gibts geile Grafik ohne Aliasing und inklsuvie flimmerfreien Filter in Crysis! ;D
@Aquaschaf: Wieso sollte das Unsinn sein? Gerade bei transparenten Objekten kann man Raytracing doch gut nutzen und die Stärken aufzeigen (Lichtbrechung etc.).
Des weiteren würde die Perfromance nicht so stark wegbrechen.
Wer sich noch an das Fallout3-Problem erinnert weiß was ich meine ;)

bye Hübie

Aquaschaf
2009-10-01, 13:42:38
@Aquaschaf: Wieso sollte das Unsinn sein? Gerade bei transparenten Objekten kann man Raytracing doch gut nutzen und die Stärken aufzeigen (Lichtbrechung etc.).
Des weiteren würde die Perfromance nicht so stark wegbrechen.

Die Performance würde weitaus mehr einbrechen als bei den Rasterization-Methoden die man einsetzt um Wasser darzustellen.

Dural
2009-10-01, 13:48:28
....dass man bestehende Anwendungen und Performance-Messlatten nicht beeinträchtige, wenn man etwas neues versucht, so Huang weiter.


na das hört sich doch mal gut an, mal schauen was am ende dabei raus kommt!

Gast
2009-10-01, 13:51:34
Gibts schon benchmarks mit absoluten Zahlen?

Zitat von PCGH:

"Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein."

Link: http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Weitere-Bilder-und-Informationen/Grafikkarte/News/

Wenige Monate? Hm, ich bin froh, dass das ATI so nicht gemacht hat.

Spasstiger
2009-10-01, 13:53:41
Ich hab mal eine Vergleichstabelle aufgestellt. Passt das so?

http://www.abload.de/img/gpu_vergleichqzmc.png

Die Special-Function-Units habe ich außen vor gelassen.

Hübie
2009-10-01, 13:58:13
Die Performance würde weitaus mehr einbrechen als bei den Rasterization-Methoden die man einsetzt um Wasser darzustellen.

Ja aber mit den Berechnung die noch unter Wasser stattfinden doch nicht oder habe ich Raytracing falsch verstanden? Das soll doch die große Stärke sein. Das es eben nicht wegbricht sondern 100%ig skaliert und bei großen Mengen eben nicht deutlich mehr Rechenleistung benötigt.

Gipsel
2009-10-01, 14:04:55
Ich hab mal eine Vergleichstabelle aufgestellt. Passt das so?

http://www.abload.de/img/gpu_vergleichqzmc.png

Die Special-Function-Units habe ich außen vor gelassen.
Nein, RV870 macht auch FMAs und die SFUs können bei GT300/Fermi wohl (auch offiziell) nicht mehr parallel genutzt werden, das war ja bisher sowieso auch eher gemogelt.

Insgesamt unterstützt RV870 wohl auch komplett IEEE754-2008 inklusive der verschiedenen Rundungsmodi und schnellen denorms für SP und DP. Und um eine vorher bereits aufgekommene Frage zu beantworten, natürlich hat RV870 ebenfalls ein mehrstufiges Cache-System, daß allerdings etwas anders aufgebaut ist als bei nv. Man hat kein gemeinsames 64kB SRAM-Array, daß 16/48 oder 48/16 zwischen shared memory und L1-Cache aufgeteilt werden kann (irgendwie unklar, da DX11 32kB erfordert), sondern hat einen festen 32kB LDS (shared memory) pro SIMD und zusätzlich 16kB L1-Texture-Cache (praktisch read only) sowie noch 8kB L1 Cache für allgemeines shading (write back). Den L2 gibt es natürlich wie bei nvidia auch und ist im Prinzip mit 128kB pro Speichercontroller (512kB gesamt) auch ähnlich groß (Fermi 768kB).

Für schnelle globale Synchronisation (atomic operations) benutzt ATI nicht den L2, sondern einen extra Speicherbereich (64kB), den Global Data Share (sollte auch ähnlich schnell sein wie der L2 bei nv). Den gibt es zwar auch schon bei RV770 (32kB), allerdings wird er mit RV870 erstmals für Programmierer nutzbar (war undokumentiert, nur der Treiber konnte damit was anstellen). Außerdem sieht es wohl so aus, daß die ATI-Hardware ebenfalls die simultane Abarbeitung von verschiedenen Kerneln erlaubt (ebenfalls schon seit RV770, allerdings wieder unzugänglich für den Programmierer).

Spasstiger
2009-10-01, 14:07:11
Nein, RV870 macht auch FMAs
Bei single- und double-precision?

und die SFUs können bei GT300/Fermi wohl (auch offiziell) nicht mehr parallel genutzt werden, das war ja bisher sowieso auch eher gemogelt.
SFUs hab ich in der Tabelle eh außen vor gelassen.

fdk
2009-10-01, 14:10:51
Nach der r&d Mammutaufgabe "gt300" steht nVidia nun vor dem Problem die Vorzüge dieses kolossalen numbercrunchers anzupreisen. Immerhin kennt die große Mehrheit der Konsumenten Anwendungen wie Photoshop nur indirekt (Vom cover der aktuellen Fernsehzeitschrift etwa :rolleyes:). Ich hoffe doch sehr das es da in den nächsten Jahren & zunehmender Verbreitung von openCL & direct compute noch einiges mehr geben wird was von dieser Rohpower profitiert (Kompression etc.) - am besten out of the box damit es auch bei Opa Hannes & co. ankommt. Ansonsten verkauft sich das ganze Ding doch arg uner Wert an den homeuser der content nunmal hauptsächlich konsumiert und nicht erstellt.
Ganz im sinne von
"Kann er Kaffee kochen?"
"Nein, aber er liefert ihnen eine Fluidsimulation des Einschenkens und der Diffusion der Milch in Echtzeit :cool:)."

Gast
2009-10-01, 14:11:00
Wie hoch wären die Energiekosten eines Fermi HPC Systems im vergl. zu den jetzt bestehenden System, wobei hier wohl noch die tatsächliche Rechenleistung eines Fermi HPC Systems zum vergleichen fehlt

Gast
2009-10-01, 14:12:06
na das hört sich doch mal gut an, mal schauen was am ende dabei raus kommt!

Messlatte ist ja die GT200 nicht der RV870. Also schneller sollte der GF100 schon sein als eine GT200, oder?

Ailuros
2009-10-01, 14:15:29
Photoshop CS4 profitiert momentan eher vom onboard Grafikspeicher einer GPU als dem Unterschied zwischen einer =/>SM3.0 IGP oder high end GPU.

Spasstiger,

Gipsel meint den MUL oder anders den dritten FLOP einer GT200. Er hat auch schon einen sehr schoenen Vergleich zwischen Cypress und GF100 fuer DP hier im Forum gemacht und in nur ADD oder nur MUL Faellen hat Cypress sogar einen relativen Vorteil was die FLOPs betrifft.

Gast
2009-10-01, 14:16:50
Zitat von PCGH:

"Man habe derzeit funktionierendes Silizum im Labor (wie bereits anhand der Live-Demo des Fermi zu erahnen war) und arbeite mit Hochdruck daran, die Chips für die Massenproduktion zu optimieren. Von diesem Stadium an dauere es in der Regel noch "wenige Monate" bis zur Produktveröffentlichung. In den Händlerregalen dürften größere Mengen Fermi-basierter Chips daher wohl nicht mehr zu finden sein."

Link: http://www.pcgameshardware.de/aid,696334/G300-Fermi-Nvidia-fokussiert-GPU-Computing-mit-Next-Gen-Grafikkarte-Update-Weitere-Bilder-und-Informationen/Grafikkarte/News/

Wenige Monate? Hm, ich bin froh, dass das ATI so nicht gemacht hat.


Frage: handelt es sich bei den vorgestellten GF100 GPUs um A1 Silikon oder doch schon um was neueres? der Text oben lässt ja vermuten, das noch min. 1 Respin notwendig ist um Serientauglich zu sein.

KonKorT
2009-10-01, 14:22:54
Ich hab mal eine Vergleichstabelle aufgestellt. Passt das so?
Die Shaderdomäne konnte sogar noch etwas höher als 1,6 GHz takten und ich will nicht ausschließen, dass bei der Speichergröße auch 3 GiB eingesetzt werden. Ansonsten passt das schon ganz gut. ;)

Gipsel
2009-10-01, 14:29:21
Bei single- und double-precision?
Solange keine genaue Dokumentation dazu veröffentlicht ist, bleibt das etwas im Unklaren.

Auf den Präsentationsfolien zum RV870 wird nur allgemein "fused multiply add" erwähnt, aber nicht zwischen SP und DP unterschieden. DP macht definitiv FMAs (für RV8xx setzt der Treiber ein Featureflag namens "FUSED_FP64", außerdem würde sonst der Durchsatz der Einheiten keinen Sinn machen: ein FMA benötigt 4 Slots, ein MUL nur 2). In den (bisher undokumentierten) neuen Befehlen für RV870 in IL (entspricht nvidias PTX) gibt es FMA-Befehle sowohl für DP, als auch für SP. Es ist also halbwegs wahrscheinlich, daß RV870 auch in SP FMAs kann (was sollten sonst die Befehle?).

Hübie
2009-10-01, 14:32:43
Unglaublich was hier manche schon herausfinden :) Sind hier Spieleprogrammierer oder Hardwareentwickler??

bye Hübie

Gipsel
2009-10-01, 14:53:55
Unglaublich was hier manche schon herausfinden :) Sind hier Spieleprogrammierer oder Hardwareentwickler??
GPGPU-Programmierer mit kleinen Projekten, die entweder DP-intensiv (ATI rocks, wenn man kein FMA braucht) oder branch- und integerintensiv (ATI rocks too) sind. Ist bloß wirklich Sch***e zu programmieren, wenn irgendwas nicht mit dem einfachen Brook+ funktioniert (was aber wirklich einfach zu benutzen und gut für's "rapid prototyping" ist).

Habe ja deswegen schon vor Monaten hier erwähnt, daß meiner Meinung nach bei RV770 vs GT200 der Nachteil von ATI bei GPGPU hauptsächlich auf Software-Seite liegt. Die Hardware kann nämlich eigentlich ziemlich viel. Bei nvidia kann man es aber auch nutzen, bei ATI entweder gar nicht, oder man muß Kopfstände machen.

Ihm
2009-10-01, 15:12:58
Ähm, Predication ist etwas ganz anderes als Sprungvorhersage. Und beim Speichermanagement wirfst du auch Sachen durcheinander. Meinst du dabei vielleicht out-of-order-execution? Auch das hat nichts mit Sprungvorhersage zu tun.

Den Unterschied bitte erklären, von daher: OoOE habe ich nicht gemeint.

Hübie
2009-10-01, 15:24:47
Naja was Software angeht bin ich ganz deiner Meinung. Das sehe ich schon an dem mieserablen CCC. Auch die Veröffentlichung der Opensource-Treiber schob sich ewig hin und ist nicht sehr gut dokumentiert. Die halten sich da in der Tat bedeckter als andere (Intel, nVidia etc..).

Aber vielleicht muss man einfach nur mal auf deren Gehör stoßen und hoffen das es gerade geöffnet ist.
Bei AMD habe ich ein wenig das Gefühl das die zu wenig in Foren präsent sind (siehe Interviewabend auf P3D der nie so statt fand). Na am Kunden ist doch heutzutage das Motto. Postive Belege gibt es genügend (Kekshersteller gehen sogar auf die Strasse um zu testen!).

bye Hübie

Nightspider
2009-10-01, 15:26:32
Mal sehen ob die Leistung genauso glänzen kann wie die Karte selbst:

http://www.abload.de/img/001238705pjxh.jpg

More Pixx:
http://www.pcpop.com/doc/0/448/448052.shtml

Aquaschaf
2009-10-01, 15:57:43
Den Unterschied bitte erklären, von daher: OoOE habe ich nicht gemeint.

http://en.wikipedia.org/wiki/Branch_prediction
http://en.wikipedia.org/wiki/Branch_predication

In kurz: Sprungvorhersage heißt man benutzt eine Heuristik um das Ergebnis eines Sprungs zu erraten, führt den erratenen Pfad aus und hofft dass man richtig liegt. Wenn man falsch geraten hat macht man die "falschen" Befehle die man ausgeführt hat rückgängig und führt den anderen Pfad aus.
Bei branch predication vermeidet man einen Sprung gänzlich. Predicated instructions haben ein zusätzliches Bit. Wenn das Bit gesetzt ist, dann werden sie ausgeführt und wenn es nicht gesetzt wird, dann passiert nichts. Wenn die Bedingung überprüft wird von deren Ergebnis abhängt ob die Befehle ausgeführt werden oder nicht, werden die Bits gesetzt.

Das Ziel bei letzterem ist ein ganz anderes als bei Sprungvorhersage. GPU-Prozessoren funktionieren nach dem SIMD-Prinzip. Für Gruppen von Threads müssen immer die selben Instruktionen ausgeführt werden. Gibt es nun bedingte Sprünge deren Ergebnis sich innerhalb einer Gruppe unterscheiden, dann müssen alle Pfade für alle Threads ausgeführt werden. Sehr schlecht. Wenn von einem bedingten Sprung nur wenige Befehle abhängen, dann kann man dieses Problem mit predicated instructions umgehen.

Zum Speichercontroller: out-of-order-execution macht dort Sinn als dass es am besten ist Speicher in Blöcken zu lesen. D.h. wenn man Speicherzugriffe umordnen kann, dann gewinnt man Effizienz. Und ich wüsste nicht wie Sprungvorhersage damit im Zusammenhang stehen kann.

Gipsel
2009-10-01, 15:59:09
[..]Die halten sich da in der Tat bedeckter als andere (Intel, nVidia etc..).
Aber vielleicht muss man einfach nur mal auf deren Gehör stoßen und hoffen das es gerade geöffnet ist.
Bei AMD habe ich ein wenig das Gefühl das die zu wenig in Foren präsent sind (siehe Interviewabend auf P3D der nie so statt fand).
Ich habe das Gefühl, daß bei AMD/ATI an dem Stream-Kram nur eine Handvoll Leute sitzen, während bei nv sprichwörtlich hunderte von Entwicklern damit beschäftigt sind. Die paar ATI-Leute sind schon vollauf damit beschäftigt, irgendwie den OpenCL-Treiber zusammenzustricken und das neue OpenCL-SDK zumindest mit der grundlegenden Funktionalität auszustatten. Für alles darüber hinaus Gehende hat man offensichtlich keine Resourcen.

Nur ein Beispiel, ATI hat als erster Hersteller double precision Fähigkeiten bei GPUs eingeführt (RV670, Leistung ~15% über GTX285-Niveau ;)). Das ist jetzt etwa zwei Jahre her. Inzwischen gab es RV770 (Leistung 2,4 mal RV670), RV740 und jetzt schließlich RV870 (Leistung 2,27 mal RV770, mehr als Faktor 6 über GTX285), mit dem diese Fähigkeiten in Hardware aufgebohrt wurden (FMA, Denorms, Rundungsmodi, höherer Durchsatz für MULs), die Hardwareentwickler haben also ihre Hausaufgaben gemacht. Aber glaubst Du, man kann zwei Jahre nach Einführung der dazu fähigen Hardware auch nur eine simple Wurzel in DP mit den verfügbaren SDKs berechnen? Fehlanzeige! Und laut ATI wird auch die DP-Erweiterung für OpenCL noch eine Weile nicht unterstützt werden, da genau diese Standardfunktionen noch immer nicht implementiert sind. Tja, an sowas scheitert es dann natürlich.

Ailuros
2009-10-01, 16:12:51
Messlatten raus:

http://pc.watch.impress.co.jp/img/pcw/docs/318/660/06.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/06.jpg.html

cipoint
2009-10-01, 16:19:24
Messlatten raus:

http://pc.watch.impress.co.jp/img/pcw/docs/318/660/06.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/06.jpg.html

Bringt nicht. Erstens gibt es keine Referenzlänge auf dem Foto und zweitens, selbst wenn, die DIE-Größe wird man an dem Foto nicht ablesen können.

Gast
2009-10-01, 16:21:30
Also ich finde den Chip einfach geil. Leider denke ich das dieses Monster auch astronomisch viel kosten wird. Rein von den Daten her wird Nvidia mit einer Einzelkarte auch gegen eine 5870 X2 antreten können. Ich schätze mal das Topmodell wird um die 600 Euro kosten. Die GPGPU Leistung wird unglaublich sein:)

Henroldus
2009-10-01, 16:26:56
Messlatten raus:

http://pc.watch.impress.co.jp/img/pcw/docs/318/660/06.jpg

http://pc.watch.impress.co.jp/img/pcw/docs/318/660/html/06.jpg.html
hmm, parallele diskussion bilingual?
http://forum.beyond3d.com/showpost.php?p=1342649&postcount=147

Thunder99
2009-10-01, 16:30:32
@Gipsel

warum sagt das niemand AMD? Bzw warum merken die es selber nicht was ihnen da an Leistung verschenken?
Evt sieht AMD nicht den Markt dafür? Dann sollten sie mal ihre Marktbeobachter austauschen :freak:

Oder gibt es nicht genug fähige Programierer/Entwickler?

Spasstiger
2009-10-01, 16:32:02
Wieso sollte man aus der Pinverteilung auf der Trägerunterseite auf die Diegröße schließen können? Aber falls es doch irgendwie relevant ist: Das innere Pinfeld könnte eine Fläche zwischen 400 und 600 mm² haben. Der obere Knöchel meines Daumens ist jedenfalls rund 24 - 25 mm breit und das innere Pinfeld sieht etwas schmäler aus als der Daumenknöchel auf dem Bild.

AnarchX
2009-10-01, 16:41:04
So sah die Pinverteilung bei GT200 aus:
http://www.beyond3d.com/content/reviews/51/7

Trotz 384-Bit benötigt man wegen des GDDR5 wohl einige Pins mehr.

Gipsel
2009-10-01, 16:47:34
@Gipsel

warum sagt das niemand AMD?
Das habe nicht nur ich schon längst getan.
Bzw warum merken die es selber nicht was ihnen da an Leistung verschenken?
Evt sieht AMD nicht den Markt dafür? Dann sollten sie mal ihre Marktbeobachter austauschen :freak:

Oder gibt es nicht genug fähige Programierer/Entwickler?
Das Problem wird das obere Management sein. Die schätzen den Markt dafür (anders als nv) als sehr klein ein, ergo gibt es auch nur ein kleines Budget. Und von dem kann man nun mal nicht viele gute Leute bezahlen. Ganz einfach. Offensichtlich will man sich aber trotzdem nicht die Blöße geben, bei der Hardware abgehängt zu werden, so daß im Prinzip alles, was sich transistormäßig halbwegs billig implementieren läßt, auch drin ist. Es fällt schon auf, daß die Prioritäten der Hardwareentwicklung deutlich anders aussehen, als die beim Software-Support. Oder aber das Grunddesign der Hardware wurde schon deutlich vor der Richtungsänderung festgezurrt.

ShadowXX
2009-10-01, 16:58:44
selten so einen schwachsinn gelesen ... selbst zwei gegenwärtige 5870er würden einen einzelnen gt300 von der performance her vernichten. einfach ab und zu mal lesen was gipsel schreibt, der hat nämlich im unterschied zu 98% hier nicht nur ahnung bzw. "ahnung", sondern auch erfahrung.
Gipsel hat nur die GFlops miteinander verglichen...

Damit kann man aber nicht die Leistungsfähigkeit der beiden Chips in 3D Games vergleichen....wenn man das könnte, dann müsste schon eine 4870 schneller als eine GTX285 sein, ist Sie aber wie wir wissen nicht.

Anders gesagt: AMD GFlops != nV GFlops.

Was allerdings richtig ist, ist das wir momentan viel zu wenig über den GT300/GF100 wissen um einschätzen zu können wie schnell er insgesamt werden wird (gerade die Taktung wird da auch viel ausmachen).

Momentan kann es quasi alles sein, von 10% schneller als der 5870 über 80% schneller als der 5870 bis hin zu 10% langsamer als der 5870......

reunion
2009-10-01, 17:20:17
Gipsel hat nur die GFlops miteinander verglichen...


Wobei sich das mit DP bei AMD deutlich entschärft, da man dann nicht mehr das Problem hat eine Vec5-ALU vollbekommen zu müssen.

tombman
2009-10-01, 17:49:47
Gibts die ganzen Reden der Konferenz in voller Länge irgendwo zu sehen?
Oder zumindest die von Jensen?

Leonidas
2009-10-01, 17:52:52
Leonidas ist bei den GF100 News ja ziemlich verhalten. Nur zw. 1400 - 1900 MFlops und dazu zw. 170 - 230 GB/sec.

1400MFlops und 170GB/sec als untere Marke sind IMHO schon sehr wenig.



Leo hat das Zeug wohl leider etwas zu vorzeitig gepostet. Wenn ich immer noch von MADD auf GT300 lese...



Ok, ungenau formuliert. Aber die Rechung stimmt als solche: Die theoretische Rechenleistung ist gegenüber ATI nicht berühmt. Ist in diesem Thread aber auch schon vor 15 Seiten festgestellt worden. Genauso wurde festgestellt, daß das bei NV ja auch in der aktuellen Generation so war und das die NV-Karten bislang nicht davon abgehalten hat, in der Realität schnell zu sein.

AnarchX
2009-10-01, 17:54:54
Gibts die ganzen Reden der Konferenz in voller Länge irgendwo zu sehen?
Oder zumindest die von Jensen?
http://www.nvidia.com/object/gpu_technology_conference.html
... einfach den Webcast zur Opening Keynote anschauen.

Spasstiger
2009-10-01, 18:02:48
Welche Überraschungen können denn jetzt noch auf uns zukommen, was die Fermi-basierenden GeForces angeht?
Eigene Taktdomäne für die TMUs?
Dynamische Taktraten ähnlich Intels Turbomode?
Neue Qualitätsmodi wie SGSSAA?

P.S.: Wie groß ist jetzt der L2-Cache beim Cypress genau? 4*128 KiB insgesamt? Oder 4*128 KiB pro SIMD-Array? Der Fermi hat ja 768 KiB L2-Cache pro SM, also 16*768 KiB = 12 MiB insgesamt.

Majestic
2009-10-01, 18:48:21
GPGPU-Programmierer mit kleinen Projekten, die entweder DP-intensiv (ATI rocks, wenn man kein FMA braucht) oder branch- und integerintensiv (ATI rocks too) sind. Ist bloß wirklich Sch***e zu programmieren, wenn irgendwas nicht mit dem einfachen Brook+ funktioniert (was aber wirklich einfach zu benutzen und gut für's "rapid prototyping" ist).

Habe ja deswegen schon vor Monaten hier erwähnt, daß meiner Meinung nach bei RV770 vs GT200 der Nachteil von ATI bei GPGPU hauptsächlich auf Software-Seite liegt. Die Hardware kann nämlich eigentlich ziemlich viel. Bei nvidia kann man es aber auch nutzen, bei ATI entweder gar nicht, oder man muß Kopfstände machen.

Und für Leute (wie mich) die gar keine Ahnung von GPGPU haben....:freak:
Kann der RV770 in der Rechenleistung mit dem GT200 Chip mithalten, oder sind die Bereiche wo beide ihre Vorzüge bzw Nachteile haben so verschieden das man sie nicht vergleichen kann. Coda erwähnt in einem Post das der Chip der HD5870 in etwa auf G80 Niveau läge?!

AnarchX
2009-10-01, 18:53:14
Der Fermi hat ja 768 KiB L2-Cache pro SM, also 16*768 KiB = 12 MiB insgesamt.
Es sind für alle SM 768 KiB unified:
Fermi features a 768 KB
unified L2 cache that
services all load, store, and
texture requests.

... unter "Memory Subsystem Innovations".

Eben etwas mehr als bei Cypress mit 512KiB.

reunion
2009-10-01, 18:55:13
12MiB wäre auch etwas sehr viel. :ugly:

AnarchX
2009-10-01, 18:56:16
12MiB wäre auch etwas sehr viel. :ugly:
Hätte man auf Raterizer und ROPs verzichtet, hätte man die vielleicht unterbringen können. ;)

Spasstiger
2009-10-01, 19:01:34
Es sind für alle SM 768 KiB unified:

... unter "Memory Subsystem Innovations".

Eben etwas mehr als bei Cypress mit 512KiB.
Ok, dann wundert mich, warum man im Whitepaper den L2-Cache "per SM" mit 768 KiB angibt. Schreibfehler? Optimistische Auslegung des "shared"-Prinzips?
12 MiB statt 768 KiB L2-Cache würden ca. 570 Millionen Transistoren mehr bedeuten.

Odal
2009-10-01, 19:03:21
Und für Leute (wie mich) die gar keine Ahnung von GPGPU haben....:freak:
Kann der RV770 in der Rechenleistung mit dem GT200 Chip mithalten, oder sind die Bereiche wo beide ihre Vorzüge bzw Nachteile haben so verschieden das man sie nicht vergleichen kann. Coda erwähnt in einem Post das der Chip der HD5870 in etwa auf G80 Niveau läge?!

das hat er doch geschrieben, in der theorie ist die GPGPU leistung von RV770 sehr gut aber praktisch mangelt es an dokumentation und komfortabler API um das volle potential auszuschöpfen

Nightspider
2009-10-01, 19:04:03
Kann man mit dem zusätzlichen Cache Vorteile bei zB. AA ziehen, indem Bandbreite und Latenz gespart werden kann ?

Vllt kann NV da ja einiges in dieser Hinsicht auslagern oder ?

Gast
2009-10-01, 19:06:03
Eigene Taktdomäne für die TMUs?


Möglich, aber imo unwahrscheinlich, TMUs sind eigentlich "nur" Load-units und müssen als solche eigentlich synchron laufen.


Dynamische Taktraten ähnlich Intels Turbomode?

Dynamische Taktraten gibt es doch schon lange, der unterschied bei Intels Turbomode ist lediglich dass die Nenntaktfrequenz <100% ist.

Neue Qualitätsmodi wie SGSSAA?

Eine reine Treibersache, das wäre auch mit alten GPUs kein wirkliches problem.


BTW: Nvidia bezeichnet die TMUs jetzt ja als Load/Store-Units.

Eine klassische TMU ist allerdings nur eine Load-Unit, das Store wird ja mit den ROPs gemacht. Ist das eventuell ein Hinweis, dass Nvidia komplett auf ROPs verzichtet und die neuen TMUs deren Aufgaben übernehmen?

Gast
2009-10-01, 19:07:24
Kann man mit dem zusätzlichen Cache Vorteile bei zB. AA ziehen, indem Bandbreite und Latenz gespart werden kann ?

Vllt kann NV da ja einiges in dieser Hinsicht auslagern oder ?


Gegenfrage: Wird der GEFORCE-Ableger dieser TESAL-Karte überhaupt diesen Cache als Standard mitbringen ? Im großen und ganzen wird die Geforce300 Reihe auf diese TESLA wohl basieren, aber vielleicht wird sie beschnitten ?!

Spasstiger
2009-10-01, 19:12:02
Möglich, aber imo unwahrscheinlich, TMUs sind eigentlich "nur" Load-units und müssen als solche eigentlich synchron laufen.
Unter TMUs verstehe ich vor allem die Texturfiltereinheiten. Und Texturfilterung ist ja eher eine ALU-Aufgabe. Klar müssen die Texel auch geladen werden.

BTW: Nvidia bezeichnet die TMUs jetzt ja als Load/Store-Units.
Die Texturfiltereinheiten sind dediziert von den Load/Store-Units:
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png (siehe 10 und 11)

Eine klassische TMU ist allerdings nur eine Load-Unit, das Store wird ja mit den ROPs gemacht. Ist das eventuell ein Hinweis, dass Nvidia komplett auf ROPs verzichtet und die neuen TMUs deren Aufgaben übernehmen?
Nein, siehe obiges Schaubild. Das Store dient dazu, die Shared-Caches in den SMs zu füttern, die wiederum in DX11 vorgeschrieben sind. Wichtig für die Compute Shader. Fürs Rasterizing hat man wie gehabt dedizierte ROPs.

Nightspider
2009-10-01, 19:17:15
Gegenfrage: Wird der GEFORCE-Ableger dieser TESAL-Karte überhaupt diesen Cache als Standard mitbringen ? Im großen und ganzen wird die Geforce300 Reihe auf diese TESLA wohl basieren, aber vielleicht wird sie beschnitten ?!

Geforce und Tesla werden nicht getrennt.

Nvidia sagt selbst das man den neuen Grafikchip erweitert hat und nicht 2 Richtungen einschlägt.
Zumindest noch nicht.

Gast
2009-10-01, 19:21:21
Geforce und Tesla werden nicht getrennt.

Nvidia sagt selbst das man den neuen Grafikchip erweitert hat und nicht 2 Richtungen einschlägt.
Zumindest noch nicht.


Wo steht das ? Hast du da vielleicht mal einen Link für mich bitte ? Wäre sehr nett.

Nightspider
2009-10-01, 19:30:40
Wo steht das ? Hast du da vielleicht mal einen Link für mich bitte ? Wäre sehr nett.

Ne, keine Ahnung wo ich das gelesen habe.
Wortwörtlich war es nicht dasselbe aber daraus konnte man eindeutig ableiten das Fermi kein Extra-Chip sondern ein erweiterer Grafikkern wird und das die Entwicklung wohl in der Hinsicht weitergeht und die GPU noch mehr erweiter wird.

Gast
2009-10-01, 19:35:44
Im Forum de Luxx wird behauptet, dass PCB nicht funktionstüchtig sei, sondern recycelt.

http://www.hardwareluxx.de/community/showpost.php?p=12991799&postcount=1770

http://i35.tinypic.com/10yqrmt.jpg

Das kann ich mir aber nicht vorstellen, selbst wenn die rote Linie etwas verwundert.

reunion
2009-10-01, 19:45:31
Hm, wie sind denn die Stromanschlüssen angelötet? Sieht tatsächlich sehr seltsam aus.

y33H@
2009-10-01, 19:45:38
Das muss dann aber ein PCB sein, welches auf keiner aktuellen Karte zum Einsatz kommt. Ich kann mich an kein solches PCB erinnern. Allerdings sieht die ganze Karte (Schrauben und Lötstellen insbesondere) arg strange aus.

Armaq
2009-10-01, 19:46:16
Ich traue Nvidia durchaus eine realistische Einschätzung ihrer eigenen Lage zu. Sie wissen, dass nur mit GPUs kein Geld zu verdienen ist - in Zukunft.

Auch wenn ich es persönlich Schade finde, da die Abwärtskompabilität bei Nvidia gefühlt besser ist. Zudem kommen Dinge hinzu wie Batman und NfS - daran gebe ich ATI mindestens Teilschuld, weil sie es versäumen, sich um solche Dinge zu bemühen.

In 5 Jahren gibt es vielleicht keine reinen PC-Grafikkarten mehr, sondern Konsolenderivate.

Gast
2009-10-01, 19:47:01
Das kann ich mir aber nicht vorstellen, selbst wenn die rote Linie etwas verwundert.


Auffällig ist vor allem, dass die Lötstellen am PCB nicht zu den Stromanschlüssen passen.

BTW: Ich bin eigentlich überzeugt dass die gezeigte Karte nicht funktionsfähig ist, es gibt eigentlich keinen Grund eine funktionsfähige Karte zu zeigen und etwaige Schäden zu riskieren wenn man nicht wirklich die Funktionalität zeigen will.

Hübie
2009-10-01, 19:48:51
Wäre auch etwas zu kostenintensiv in 2 Richtungen zu entwickeln. Der jetztige Tesla ist ne GTX285 ohne Monitoranschlüsse. Nichtmal die Kühllösung ist ne andere (warum auch).

Solang das nicht in "aus Scheiße Bonbon machen" endet ist das auch völlig legitim. Das selbe gilt ja für Quadro.

bye Hübie
@Armaq: "Damals" war es Aufgabe der Spieleentwickler Dinge wie FSAA und Bugfreiheit herzustellen...:rolleyes:

LovesuckZ
2009-10-01, 19:48:59
Das muss dann aber ein PCB sein, welches auf keiner aktuellen Karte zum Einsatz kommt. Ich kann mich an kein solches PCB erinnern. Allerdings sieht die ganze Karte (Schrauben und Lötstellen insbesondere) arg strange aus.

Wird wohl ein PCB einer heutigen Tesla-Karte sein. Die Stromanschlüsse passen überhaupt nicht.

reunion
2009-10-01, 19:49:30
BTW: Ich bin eigentlich überzeugt dass die gezeigte Karte nicht funktionsfähig ist, es gibt eigentlich keinen Grund eine funktionsfähige Karte zu zeigen und etwaige Schäden zu riskieren wenn man nicht wirklich die Funktionalität zeigen will.

Ja, aber das ist nicht bloß eine nicht funktionsfähige Karte, das ist offensichtlich ein Fake. Irgend ein PCB mit Kühler zu zeigen und das dann als neue Karte zu verkaufen ist schon etwas frech. Das nährt dann auch Gerüchte das man noch nicht viel hat zum herzeigen.

S940
2009-10-01, 19:52:10
Das Obst im Möbelhaus ist auch aus Pappe - frech ? ;-)

2B-Maverick
2009-10-01, 19:54:19
Das Obst im Möbelhaus ist auch aus Pappe - frech ? ;-)

nö, die wollen das Obst aber auch seltenst verkaufen! :tongue:

y33H@
2009-10-01, 19:54:52
Irgend ein PCB mit Kühler zu zeigen und das dann als neue Karte zu verkaufen ist schon etwas frech.Hat Jensen gesagt, dass sei eine echte, lauffähige Karte?

Botcruscher
2009-10-01, 19:55:32
In 5 Jahren gibt es vielleicht keine reinen PC-Grafikkarten mehr, sondern Konsolenderivate.

Konsolen irgendwas fällt schon aufgrund des Lebenszyklus einer Konsole aus.

LovesuckZ
2009-10-01, 19:57:02
Hat Jensen gesagt, dass sei eine echte, lauffähige Karte?

Hm, dann hätte er nur den Chip zeigen brauchen, oder? :freak:
Ja, er hat es gesagt.
Die Demo-Hardware erreichte 5x mehr Leistung als Tesla C1060 (oder so) in DP.

reunion
2009-10-01, 19:58:49
Hat Jensen gesagt, dass sei eine echte, lauffähige Karte?

Er hat gesagt das ist Fermi, nicht das ist ein PCB das wir nicht wegwerfen wollten und deshalb haben wir einen schönen Klavierlack-Kühler draufgeschnallt und Stromanschlüsse angeklebt damit es echt aussieht. Im übrigen ging es genau darum bei der Präsentation. Wenn man nichts hat kann man auch nichts zeigen. Aber die Leute einfach zu verarschen ist schon etwas stange.

Ailuros
2009-10-01, 20:10:26
hmm, parallele diskussion bilingual?
http://forum.beyond3d.com/showpost.php?p=1342649&postcount=147

Eigentlich trilingual da ich in einem lokalen Forum auch noch herumschwirre.

Gast
2009-10-01, 20:29:14
Aber die Leute einfach zu verarschen ist schon etwas stange.

Vielleicht sind manche negative Gerüchte doch nicht so weit hergeholt. Wenn Nvidia schon betonen muss, dass sie ein Stück lauffähiges Silicium haben, dann werde ich skeptisch.

S940
2009-10-01, 20:31:44
Er hat gesagt das ist Fermi, nicht das ist ein PCB das wir nicht wegwerfen wollten und deshalb haben wir einen schönen Klavierlack-Kühler draufgeschnallt und Stromanschlüsse angeklebt damit es echt aussieht. Im übrigen ging es genau darum bei der Präsentation. Wenn man nichts hat kann man auch nichts zeigen. Aber die Leute einfach zu verarschen ist schon etwas stange.
Auch wieder wahr .... hat er ja gesagt ... gut:

Damit gründet nV also eine neue Unterart des Produktlaunches, neben dem beliebten Paperlaunch gibts jetzt auch den Pappkameradenlaunch ^^

ciao

Alex

Ailuros
2009-10-01, 20:37:21
Woher kommt nochmal der Quark dass es im demo nicht Fermi lief? Beweisen kann ich es zwar nicht aber mehr als einer Herren die es gestern abend im B3D IRC Kanal bestaetigten sind alles andere als unzuverlaessig.

Wie dem auch sei damit wir eins klar setzen die GF100 auf der gestern vorgezeigt wurde traegt nicht den finalen Produktionschip. NVIDIA ist momentan einen kleinen Schritt weiter als vor Monaten AMD als sie ihren wafer vorzeigten.

Von einem Launchtermin war gestern bei NVIDIA nie die Rede.

Blacksoul
2009-10-01, 20:39:04
Auch wieder wahr .... hat er ja gesagt ... gut:

Damit gründet nV also eine neue Unterart des Produktlaunches, neben dem beliebten Paperlaunch gibts jetzt auch den Pappkameradenlaunch ^^

ciao

Alex

Definitiv eine Methode, die man von 3dfx übernommen hat. (y) Erinnert halt ein wenig an die Voodoo 5 6000 mit 4x4-PCB.


t.b.d

LovesuckZ
2009-10-01, 20:41:53
Also die Demo-Hardware war bestimmt real - sonst hätte nVidia wohl ein besseres Ergebnis gefaket.
Die Kartenaktion ist natürlich sehr lächerlich.

z.B auch hier:
http://i34.tinypic.com/s4cmmp.jpg]

Ailuros
2009-10-01, 20:44:21
http://www.brightsideofnews.com/news/2009/10/1/nvidia-gt300-real-power-consumption-revealed-not-300w!.aspx

Die Haelfte davon ist zwar stuss denn es wird keine 6GB desktop GPUs geben, aber einiges stimmt schon.

Dural
2009-10-01, 20:48:46
als ich das erste mal ein besseres Foto von der Fermi Karte sah vielen mir auch gleich sehr komische sachen auf...

Die Karte sieht auf den ersten Blick wirklich wie ein Fake aus, viele bauteile fehlen, PCI-E Stromstecker haben keine Stecker-Aretierung, die Kabel fallen so ja gleich raus ;-) eine Tesla Karte mit DVI Ausagen?!? und und und...

EDIT:

Auf dem Foto gleich oben sieht man ja sogar das die Lüftungsöffnungen bei der PCI Blende hinten zu sind... lol

Gast
2009-10-01, 20:49:04
Woher kommt nochmal der Quark dass es im demo nicht Fermi lief?


Das hat wiederum keiner angezweifelt. Es ging um die "präsentierte" Karte. Und wenn sie es nötig haben, etwas so schnell zusammenzuschustern, ist das halt, wie wurde es genannt... "strange".


Von einem Launchtermin war gestern bei NVIDIA nie die Rede.

Ja, leider. Ein eher schlechtes Zeichen, oder? Gestern war auch seitens der Medien ja so etwas wie Aufregung zu spüren, jetzt kommt mir alles etwas ernüchtert vor.

Allerdings hat doch eine Zeitschrift/Seite gesprochen, dass man wegen der NDA nichts sagen könne, dass es aber bald Neuigkeiten gäbe. Kommt vielleicht doch noch was nach?

tombman
2009-10-01, 20:50:31
Und kommt das Consumer-Teil echt erst im März?

Gast
2009-10-01, 20:52:29
Und kommt das Consumer-Teil echt erst im März?
ja, wenn alles glatt läuft

Gast
2009-10-01, 20:52:37
Ich habe den Link dazu gefunden:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/nvidias_antwort_atis_hd5k-serie_ende_november/

Ende November 2009 also und CB weiß was, allerdings besteht NDA. Vielleicht doch nur ein Pokern? Ich glaube langsam, CB weiß genauso wenig, wie alle anderen.

LovesuckZ
2009-10-01, 20:53:23
Wenn man heute schon lauffähiges A1 hat, dann kommt man natürlich nicht erst im März 2010. :rolleyes:

/edit: Computerbase.de hat nur von Fudzilla.com abgeschrieben. Und die meinen, dass Fermi spätesten am Black Friday draußen wären, wenn alles gut gehe.

Gast
2009-10-01, 20:59:22
Wenn man heute schon lauffähiges A1 hat, dann kommt man natürlich nicht erst im März 2010. :rolleyes:


3 Stück aus 2 Wafer ;D

LovesuckZ
2009-10-01, 21:00:31
Klar, die Wahrscheinlichkeit ist auch so groß, dass 98% kaputt sind. :rolleyes:

Gast
2009-10-01, 21:01:08
Aber Fudzilla hat doch nicht richtig unterschieden ob das der shrink der aktuellen Karten (GT21x) sein wird oder doch tatsächlich die GT300 (erinnere ich mich dunkel). Das habe ich aber nicht so genau verfolgt.

Coda
2009-10-01, 21:02:32
Coda erwähnt in einem Post das der Chip der HD5870 in etwa auf G80 Niveau läge?!
Nicht von der Rechenleistung, sondern von den Fähigkeiten. Er kann natürlich zusätzlich noch DP, hat einen global store und kann offenbar mehrere Contexts gleichzeitig verarbeiten.

Wobei sich das mit DP bei AMD deutlich entschärft, da man dann nicht mehr das Problem hat eine Vec5-ALU vollbekommen zu müssen.
DP ist nur im professionellen Umfeld wichtig, dort braucht man aber gescheite Software und viele wollen wohl auch ECC. Außerdem haben sie immer noch keine IEEE754-DP-Unterstützung für transzendente Funktionen wenn mich nicht alles täuscht.

Ailuros
2009-10-01, 21:03:51
Ja, leider. Ein eher schlechtes Zeichen, oder? Gestern war auch seitens der Medien ja so etwas wie Aufregung zu spüren, jetzt kommt mir alles etwas ernüchtert vor.

Jensen wurde gefragt und er sagte "Tuesday" nur in welchem Jahre eben nicht (nein es ist kein Scherz...)

Allerdings hat doch eine Zeitschrift/Seite gesprochen, dass man wegen der NDA nichts sagen könne, dass es aber bald Neuigkeiten gäbe. Kommt vielleicht doch noch was nach?

Wenn alles nach Plan laeuft (blah blah blah) werden sie irgendwo Ende November ankuendigen.

Das ganze hat nichts mit persoenlichen Bevorzugungen eines jeden zu tun oder irgendwelchen bloeden Entschuldigungen, sondern dass je hoeher die Chipkomplexitaet desto schwerer wird es tatsaechlich.

Schau Dir LRB an; Intel hat keinerlei Probleme mit 45nm wie TSMC mit 40G der chip ist nur einen Schnitt komplizierter als Cypress jedoch wenn sie Glueck haben koennen sich das Ding irgendwo im Herbst 2010 veroeffentlichen und dabei hat LRB vereinfacht nur eine Frequenz (nicht wirklich wahr denn GPUs haben zahllose variable clock domains; aber auf jeden Fall keine >2x so hohe Unterschiede wie auf GeForces). Wenn sie es bis H2 10 schaffen sollten dann sollte es aber auch zumindest um $100 billiger sein als eine 5850.

Und wenn's schon sein muss AMD hat hochkomplizierte chips seit R600 mit Absicht aufgegeben. Haetten sich auch an einem >3Mrd Transistoren chip gefunkelt bezweifle ich dass sie selbst das erste tape out bis jetzt geschafft haetten. Fuer den Gamer wie mich ist AMD's Strategie insgesamt auch die bessere. Erstens weil es keine Verspaetungen mehr gibt und zweitens weil AMD somit schafft die Preise bis zur Laecherlichkeit zu reduzieren.

Spasstiger
2009-10-01, 21:05:59
Also die Demo-Hardware war bestimmt real - sonst hätte nVidia wohl ein besseres Ergebnis gefaket.
Man braucht keine reale Hardware, um Benchmarks anzustellen. Nvidia kann das Logikdesign sehr wohl auch simulieren (und tut es auch) und gewisse Zielvorgaben für die Taktraten dürfte man sich ebenfalls gesteckt haben.

Coda
2009-10-01, 21:10:08
Du meinst sie haben ein Video gezeigt? Ich weiß nicht ob sie so dreist sind, aber evtl. hast du recht ;)

Spasstiger
2009-10-01, 21:16:43
Du meinst sie haben ein Video gezeigt? Ich weiß nicht ob sie so dreist sind, aber evtl. hast du recht ;)
Von einem Video hab ich nix gewusst. Aber Fermi kann man wohl eher nicht in Echtzeit simulieren, da bräuchte man schon gewaltige Rechenkapazitäten. Ich hatte mal die Möglichkeit, solch einen Hardwaresimulator bei IBM live zu sehen, hab mir aber erzählen lassen, dass das einfach nur ein Serverraum mit vielen Rechenschränken ist, und deshalb die Besichtigung des Hardwarelabors vorgezogen.

LovesuckZ
2009-10-01, 21:17:03
Man braucht keine reale Hardware, um Benchmarks anzustellen. Nvidia kann das Logikdesign sehr wohl auch simulieren (und tut es auch) und gewisse Zielvorgaben für die Taktraten dürfte man sich ebenfalls gesteckt haben.

Dann hätte ich ein Video mit der 8fachen Leistungssteigerung gezeigt.

Gipsel
2009-10-01, 21:18:20
Coda erwähnt in einem Post das der Chip der HD5870 in etwa auf G80 Niveau läge?!
Nicht von der Rechenleistung, sondern von den Fähigkeiten. Er kann natürlich zusätzlich noch DP, hat einen global store und kann offenbar mehrere Contexts gleichzeitig verarbeiten.
Dann hättest Du auch gleich schreiben können, daß er oberhalb von GT200 liegt ;)
Außerdem haben sie immer noch keine IEEE754-DP-Unterstützung für transzendente Funktionen wenn mich nicht alles täuscht.Das ist aber "nur" Software, womit wir wieder bei meiner These wären :rolleyes:

Aquaschaf
2009-10-01, 21:19:38
Nicht von der Rechenleistung, sondern von den Fähigkeiten. Er kann natürlich zusätzlich noch DP, hat einen global store und kann offenbar mehrere Contexts gleichzeitig verarbeiten.

Und atomare Operationen hat G80 auch noch nicht.

Spasstiger
2009-10-01, 21:20:13
Dann hätte ich ein Video mit der 8fachen Leistungssteigerung gezeigt.
Um welches Video und welche eventuelle Aufzeichnung einer Präsentation gehts eigentlich? Link? Ich kenne nur die Folien und hat man wohl die Werte reingeschrieben, die die Hardware tatsächlich bringt (sei es durch einen Test mit realer Hardware oder durch einen Test mit simulierter Hardware).