Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Sentionline
2009-09-29, 11:38:29
GT300: Neue Gerüchte zu Nvidias DirectX-11-Chip mit Codenamen Fermi (http://www.pcgameshardware.de/aid,696154/GT300-Neue-Geruechte-zu-Nvidias-DirectX-11-Chip-mit-Codenamen-Fermi/Grafikkarte/News/)
...Der Chip soll eher einer Revolution als einer Evolution gleichen...es wird sogar gemunkelt, dass diese Karte mit den Hemlock-Modellen (Radeon HD 5870 X2) mithalten kann...
Ich sichte einen großen Asteroiden! :eek:

igg
2009-09-29, 11:44:11
Nvidia plane zudem eine Dual-GPU-Version der Karte. In Sachen Leistungsaufnahme soll der GT300 allerdings die 300-Watt-Marke brechen - bisher schafft dies nur die Asus Mars mit exorbitanten Bauteilen und zwei GTX-285-GPUs.
Soso, 300-Watt-Marke brechen und dann noch eine Dual-GPU?

reunion
2009-09-29, 11:49:10
GT300: Neue Gerüchte zu Nvidias DirectX-11-Chip mit Codenamen Fermi (http://www.pcgameshardware.de/aid,696154/GT300-Neue-Geruechte-zu-Nvidias-DirectX-11-Chip-mit-Codenamen-Fermi/Grafikkarte/News/)

Ich sichte einen großen Asteroiden! :eek:

Da ist wohl eher der Wunsch Vater des Gedanken. :)
Die Gerüchte sind wertlos.

Sentionline
2009-09-29, 11:51:08
Die Gerüchte sind wertlos.
Für dich als ATi Fan sowieso. Wir werden sehen, welcher Hersteller die größeren Töne gespuckt hat...;)

reunion
2009-09-29, 12:00:55
Für dich als ATi Fan sowieso. Wir werden sehen, welcher Hersteller die größeren Töne gespuckt hat...;)

Sprach der NV-Fanboy hoch 10. Das Ganze wurde von VR-Zone abgeschrieben, welche wiederrum von Fuad abgeschrieben haben. Siehe die Quellen. Traurig das man solche Abschreibübungen überhaupt noch verlinkt. Das ist wertloses geblubbere, da kann dir noch so lange einer abgehen.

Sentionline
2009-09-29, 12:05:12
Ja, bei der G80 wars auch wertloser Müll. Aufgrund der Qualität des NV40 & G7x. Von dem Gegenschlag damals 2006 hat sich Ati noch immer nicht wirklich erholt ;)

MorPheuZ
2009-09-29, 12:09:46
Soso, 300-Watt-Marke brechen und dann noch eine Dual-GPU?

Scheisse! Ich will keinen Föhn...:redface:

Nightspider
2009-09-29, 12:17:38
Scheisse! Ich will keinen Föhn...:redface:

Der Winter soll kalt werden. :D

reunion
2009-09-29, 12:23:23
Scheisse! Ich will keinen Föhn...:redface:

Es wird auch kein Fön, GT300 dürfte ziemlich stromsparend werden, das Gerücht ist BS.

Ja, bei der G80 wars auch wertloser Müll. Aufgrund der Qualität des NV40 & G7x. Von dem Gegenschlag damals 2006 hat sich Ati noch immer nicht wirklich erholt ;)

Themenbezug? Irgendwas?

Ailuros
2009-09-29, 12:39:02
Stromverbrauch liegt mehr oder weniger je nach Fall auf 285 Nivaeau fuer single chip, die bisherige Busbreite ist falsch und sonst kann man ihnen zumindest was den computing Bereich betrifft (mehr gibt es ja noch nicht) wirklich den Hut und den Skalp abnehmen :D

tombman
2009-09-29, 13:09:56
GT300: Neue Gerüchte zu Nvidias DirectX-11-Chip mit Codenamen Fermi (http://www.pcgameshardware.de/aid,696154/GT300-Neue-Geruechte-zu-Nvidias-DirectX-11-Chip-mit-Codenamen-Fermi/Grafikkarte/News/)

...Der Chip soll eher einer Revolution als einer Evolution gleichen...es wird sogar gemunkelt, dass diese Karte mit den Hemlock-Modellen (Radeon HD 5870 X2) mithalten kann...
Ich sichte einen großen Asteroiden! :eek:
So ein Pech, wenn man unfähig beim Übersetzen ist...da steht NIX von "mithalten" mit Hemlock :rolleyes:
Das ist das Original der "Übersetzung" (nicht der "Information")
It is unknown as to how the GT300 will compete with Hemlock (5870 X2) - although Fudzilla suggest a dual-GT300 version is being planned.
Peinlich...

Sentionline
2009-09-29, 13:24:27
Ich hab nur die PCGH Seite gelesen...:rolleyes:

Ja holt die Steine raus für den unwissenden :ulol5:

G!ZMo
2009-09-29, 13:32:17
Soso, 300-Watt-Marke brechen und dann noch eine Dual-GPU?
Naja ich würde bei den 300W ja auf die Dual-GPU-Variante tippen, wenn die Single-GPU etwa so viel wie eine GTX285 verbraucht.

Ailuros
2009-09-29, 14:03:01
G(Tesla)200
G(Fermi)100

***edit: obwohl es stets eine Frage der Definierung und des Anwendungsgebiets ist, ist MIMD IMHO immer noch uebertrieben.

igg
2009-09-29, 14:20:17
Wieso kennt neliz Benchmark-Zahlen und wir nicht :(

Ailuros
2009-09-29, 14:32:11
Wieso kennt neliz Benchmark-Zahlen und wir nicht :(

http://forum.beyond3d.com/showpost.php?p=1341721&postcount=2593

*seufz*

X.Perry_Mental
2009-09-29, 15:09:28
G(Tesla)200
G(Fermi)100
Auch wenns hier zumindest 1/2 OT ist: Was war eigentlich mit G(T)100 los, warum hate s den nie (zu kaufen) gegeben?

mapel110
2009-09-29, 15:11:13
Auch wenns hier zumindest 1/2 OT ist: Was war eigentlich mit G(T)100 los, warum hate s den nie (zu kaufen) gegeben?
Weil er G80 hieß?! :ugly:
Vielleicht sollte man die Code-Namen-Spiele aufgeben und nur noch von "Next-Gen-High-End" kurz NGHE sprechen. ^^

X.Perry_Mental
2009-09-29, 15:17:34
Weil er G80 hieß?! :ugly:
Vielleicht sollte man die Code-Namen-Spiele aufgeben und nur noch von "Next-Gen-High-End" kurz NGHE sprechen. ^^
Verstehe ich so nicht. Die Reihenfolge nach (in diesem Marktsegment) erscheinen ist

G80
G92
G(T)200
G(T)200b

Wenn jetzt die G(F)-Reihe mit 100 losgeht, scheint es mir, dass da vor G(T)200 der Logik nach eine G(T)100 fehlen würde.

AnarchX
2009-09-29, 15:25:21
G(T)1xx:
erste Generation von USA-GPUs, G8x und G9x

G(T)2xx:
zweite Generation von USA-GPUs, G200 und GT21x, wenn auch hier im Produktportfolio keine Konsistenz besteht (z.B. G92 als GTS 250)

G(F)1xx:
erste Generation einer US-Architektur, die sich wohlmöglich noch etwas mehr in Richtung GPGPU orientiert

Da waren Ailuros' Informationen, dass G2xx vor G1xx kommt wohl nicht so verkehrt, nur fehlte hier eben wohl ein weiterer Buchstabe im Codename.

Ailuros
2009-09-29, 15:28:08
Auch wenns hier zumindest 1/2 OT ist: Was war eigentlich mit G(T)100 los, warum hate s den nie (zu kaufen) gegeben?

Es ist ein und dasselbe. Gott aus der Bratpfanne wurde halt ein Kuscheltier (Tesla ---> Fermi).....Kleinigkeiten ;)

Noebbie
2009-09-29, 15:29:07
Und Fermi digitiert dann zu.... ?

Fermon? :freak:

Gast
2009-09-29, 16:42:45
aber wie so bleiben die nicht einfach bei Tesla??? GeForce gibt es ja auch schon seit Jahren...

san.salvador
2009-09-29, 16:48:50
Geforce ist ja auch kein Codename, sondern Marketing.

Ailuros
2009-09-29, 16:49:27
aber wie so bleiben die nicht einfach bei Tesla??? GeForce gibt es ja auch schon seit Jahren...

Weil Fermi als CUDA Codename durchaus den Titel einer neuen Generation verdient.

Gast
2009-09-29, 17:01:43
grössere änderungen als zwischen GeForce 256 und GTX 295 ??? ;-)

Gast
2009-09-29, 17:28:23
es ist doch offensichtlich dass der chip nicht mehr in 40nm kommt, weil die angepeilten taktraten nicht drin sind.
weiß nicht was sich nv dabei gedacht hat ... scheinbar hat man die hoffnung auf 32nm kontern zu können, was einigermaßen absurd ist. ati wird nicht ewig auf 40 stehen bleiben und hat warhscheinlich bei der mem bw noch luft in mehr als einer dimension

dass die paar karten, die es im moment gibt, wenig verbrauchen glaub ich gern ... ailuros scheint ja schon zahlen zur performance gesehen zu haben - bloß: sind das so gemessene oder projezierte zahlen?

V2.0
2009-09-29, 17:30:26
es ist doch offensichtlich dass der chip nicht mehr in 40nm kommt, weil die angepeilten taktraten nicht drin sind.
weiß nicht was sich nv dabei gedacht hat ... scheinbar hat man die hoffnung auf 32nm kontern zu können, was einigermaßen absurd ist. ati wird nicht ewig auf 40 stehen bleiben und hat warhscheinlich bei der mem bw noch luft in mehr als einer dimension

dass die paar karten, die es im moment gibt, wenig verbrauchen glaub ich gern ... ailuros scheint ja schon zahlen zur performance gesehen zu haben - bloß: sind das so gemessene oder projezierte zahlen?

Da gerade erst die ersten 32nm Tape-Outs frühstens anstehen, sind es...

Coda
2009-09-29, 17:35:40
es ist doch offensichtlich dass der chip nicht mehr in 40nm kommt
Natürlich kommt er in 40nm.

Gast
2009-09-29, 17:39:12
könnte doch sein dass schon 40nm muster irgendwo verbaut wurden. gibt ja alles heutzutage.

KonKorT
2009-09-29, 17:45:30
Der zum Einsatz kommende Fertigungsprozess wird bereits sehr früh festgelegt. Und natürlich hat der GF100 sein Tape-Out in 40 Nanometer gemacht und wird auch in jenem Prozess so in den nächsten Monaten auf den Markt kommen.

Gast
2009-09-29, 17:53:57
na wenn du das so sicher weißt, dann brauch ich ja nicht weiter fragen, dann ist ja alles geklärt ^^

Coda
2009-09-29, 18:23:30
Er weiß es sicher, weil es etwas vergleichbares nie gab. Keine Firma buttert Abermillionen in ein Chip-Tapeout nur um es nachher komplett zu stonieren.

Vorher kommt dann noch sowas wie R600 auf den Markt.

LovesuckZ
2009-09-29, 18:27:38
Selbst der NV30 ist auf den Markt gekommen - zwei Monate vor dem NV35.

Ailuros
2009-09-29, 19:41:50
es ist doch offensichtlich dass der chip nicht mehr in 40nm kommt, weil die angepeilten taktraten nicht drin sind.
weiß nicht was sich nv dabei gedacht hat ... scheinbar hat man die hoffnung auf 32nm kontern zu können, was einigermaßen absurd ist. ati wird nicht ewig auf 40 stehen bleiben und hat warhscheinlich bei der mem bw noch luft in mehr als einer dimension

dass die paar karten, die es im moment gibt, wenig verbrauchen glaub ich gern ... ailuros scheint ja schon zahlen zur performance gesehen zu haben - bloß: sind das so gemessene oder projezierte zahlen?


GF100 liegt unter 40G TSMC in Produktion.

Gast
2009-09-29, 20:55:43
es ist doch offensichtlich dass der chip nicht mehr in 40nm kommt, weil die angepeilten taktraten nicht drin sind.
weiß nicht was sich nv dabei gedacht hat ... scheinbar hat man die hoffnung auf 32nm kontern zu können, was einigermaßen absurd ist. ati wird nicht ewig auf 40 stehen bleiben und hat warhscheinlich bei der mem bw noch luft in mehr als einer dimension

dass die paar karten, die es im moment gibt, wenig verbrauchen glaub ich gern ... ailuros scheint ja schon zahlen zur performance gesehen zu haben - bloß: sind das so gemessene oder projezierte zahlen?

1. 32nm kommt wohl frühestens H2 2010
2. nach dieser theorie hätten wir den G200a in 65nm nie gesehen ;)

Ailuros
2009-09-30, 08:49:29
Sehr geehrter Herr Gast,

Da Du erstmal nicht weisst wer genau Deine Beitraege loescht, halte Dich davon ab zu jeglichen Schlussfolgerungen zu kommen. Es gibt guten Grund warum Deine Beitraege geloescht wurden und dieser hat nichts mit Deiner Meinung zu tun sondern wie Du Dich ausdrueckst. Aendere etwas daran und Deine Posts bleiben stehen oder mach weiter so und ich garantier Dir persoenlich dass ich fuer einen IP Bann sorgen werde.

Wenn es nach mir ginge wuerde keiner von Euch unregistriert posten koennen; eben genau weil es leichter ist sich hinter seinem Zeigefinger zu verstecken.

Tarkin
2009-09-30, 09:21:41
zwei Kommentare in aktuellen 5850 Reviews:

Kyle von Hardocp schreibt: (http://hardocp.com/article/2009/09/29/amds_ati_radeon_hd_5850_video_card_review/8)

"If you are waiting for NVIDIA to jump out of the GPU closet with a 5800 killer and put the fear into you for making a 5800 series purchase for Halloween, we suggest paper dragons are not that scary. We feel as though it will be mid-to-late Q1’10 before we see anything pop out of NVIDIA’s sleeve besides its arm. We are seeing rumors of a Q4’09 soft launch of next-gen parts, but no hardware till next year and NVIDIA has given us no reason to believe otherwise...."

und Anandtech schreibt (zumindest indirekt bzgl. G300): (http://www.anandtech.com/video/showdoc.aspx?i=3650&p=14)

"Ultimately AMD is going to be spending at least the next few months in a very comfortable situation. ..."

Armaq
2009-09-30, 09:46:30
Klingt übel für Nvidia.

Gast
2009-09-30, 09:51:02
Kyle von Hardocp schreibt: (http://hardocp.com/article/2009/09/29/amds_ati_radeon_hd_5850_video_card_review/8)

"If you are waiting for NVIDIA to jump out of the GPU closet with a 5800 killer and put the fear into you for making a 5800 series purchase for Halloween, we suggest paper dragons are not that scary. We feel as though it will be mid-to-late Q1’10 before we see anything pop out of NVIDIA’s sleeve besides its arm. We are seeing rumors of a Q4’09 soft launch of next-gen parts, but no hardware till next year and NVIDIA has given us no reason to believe otherwise...."

und Anandtech schreibt (zumindest indirekt bzgl. G300): (http://www.anandtech.com/video/showdoc.aspx?i=3650&p=14)

"Ultimately AMD is going to be spending at least the next few months in a very comfortable situation. ..."

hört sich übel an, wenn es so kommt.
OT: Was wohl die ganzen Nvidia-Fanboys zu einem richtigen reinrassigen Paperlaunch von Nvidia sagen werden?

igg
2009-09-30, 09:59:13
OT: Was wohl die ganzen Nvidia-Fanboys zu einem richtigen reinrassigen Paperlaunch von Nvidia sagen werden?
Vorfreude ist die schönste Freude :)

bloub
2009-09-30, 10:18:45
hört sich übel an, wenn es so kommt.
OT: Was wohl die ganzen Nvidia-Fanboys zu einem richtigen reinrassigen Paperlaunch von Nvidia sagen werden?

wahrscheinlich das gleiche was die ati-fanboys zum paperlaunch der 58xx serie gesagt haben ;).

Sentionline
2009-09-30, 10:19:15
"Ultimately AMD is going to be spending at least the next few months in a very comfortable situation. ..."
Oh man. Kaum 10 Minuten ist der Chip raus wird es als vermeindlich göttlicher Chip für die nächsten Jahre gekürt. Ab jetzt ruckelt die Nvidia Welt...späterstens nach dem Statement...

Nvidia gibt wenigstens keine Statements ab bis sie was Handfestes haben. Dafür sind deren Chips für Jahre vorreiter. Sieht man ja an der G92. 3 Jahre alt und AMD braucht 3 Chipgenerationen um da hin zu kommen ;D

/edit
wahrscheinlich das gleiche was die ati-fanboys zum paperlaunch der 58xx serie gesagt haben ;).
Vorbestellen? :freak:

w0mbat
2009-09-30, 10:27:20
@Sentionline: Kann es sein dass dein Herz sehr stark für NV schlägt? "Next few month" |= nächsten Jahre, "comfortable situation" |= göttlicher Chip.

Es ist nicht von der Hand zu weißen, dass NV bis zum GF100 Lauch nicht die beste Position hat. Und der G92 wurde schon mit dem RV770 geschlagen, also die 2. Generation danach. Der RV670 war ja nur ein R600 "done right", wirklich ist es also nur 1. Generation gewesen.

V2.0
2009-09-30, 10:35:32
Und welchen Wert hat GF100, wenn er der einzige DX11 Chip ist. Dieses Monster kann gerade mit Hemlock (eher nicht in der Leistung aber vom Preis) und der 5870/5890 konkurrueren. Alles ab 5850 ist ne andere Preisklasse.

Sentionline
2009-09-30, 10:40:24
Kann es sein dass dein Herz sehr stark für NV schlägt?
Tut nix zur Sache.

Es ist nicht von der Hand zu weißen, dass NV bis zum GF100 Lauch nicht die beste Position hat.
Ja, alle aktuellen NV-Chips sind seid dem RV870 zum Low-Range degradiert, weil taugt nix. :freak:

Und der G92 wurde schon mit dem RV770 geschlagen, also die 2. Generation danach. Der RV670 war ja nur ein R600 "done right", wirklich ist es also nur 1. Generation gewesen.
Geschichtsstunde?

05-2007: R600(2900XT) - Performance auf 8800GTS 320 Level (Release 02-2007)
11-2007: RV670(HD3870) - Performance auf 8800GTS 640 Level (Release 12-2006)
12-2007: Release G92 @ 8800GT
06-2008: RV770(HD4870) - Performance auf 8800GTS 512 Level (Release 12-2007)
04-2009: RV790(HD4890) - Performance auf GTX280 Level (Release 06-2008)
seid 03-2009: G92 in Form einer GTS250. Performacelevel RV770
Soll ATi mal versuchen den RV670 bis ins Jahr 2010 zu ziehen. Das wird amüsant.

Nvidia muss nicht direkt nach dem RV870 release aufs Gaspedal. Weil überlegenheit in der Vergangenheit schon demonstriert.

igg
2009-09-30, 10:42:37
Sieht so aus als wäre das Diagramm von Rys (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7563342&postcount=2747) doch kein Witz:
http://forum.beyond3d.com/showpost.php?p=1342069&postcount=2708

Ziemlich mutig von ihm. Nvidia kennt seine Identität sicher.

Ailuros
2009-09-30, 10:46:10
Wieso soll das mit der Verfuegbarkeit etwas Neues ueberhaupt sein?

Sieht so aus als wäre das Diagramm von Rys (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7563342&postcount=2747) doch kein Witz:
http://forum.beyond3d.com/showpost.php?p=1342069&postcount=2708

Ziemlich mutig von ihm. Nvidia kennt seine Identität sicher.

Rys wird nichts ohne den Segen von NVIDIA veroeffentlichen. Was soll daran mutig sein?

Hübie
2009-09-30, 11:01:28
Ich denke doch, dass es auch ein Stück weit Taktik ist einige Infos in kleinen Portionen zu verteilen. Also soviel Mut gehört da auch net zu. Bisher ist mir nichts bekanntgeworden, dass jemand für sowas heftig verknackt oder bestraft wurde ;)
Ich schenke dem Gerücht, dass der Fermi an eine X² heranreicht auch gerne glauben, denn bisher hat ATi nur mit Dualkarten das Highend-Segment abdecken können. Warum also nicht auch dieses mal?

bye Hübie

Ailuros
2009-09-30, 11:09:23
Ich denke doch, dass es auch ein Stück weit Taktik ist einige Infos in kleinen Portionen zu verteilen. Also soviel Mut gehört da auch net zu. Bisher ist mir nichts bekanntgeworden, dass jemand für sowas heftig verknackt oder bestraft wurde ;)

NVIDIA will dass Rys und jeglicher Rys zum Zeitpunkt X veroeffentlicht.

Ich schenke dem Gerücht, dass der Fermi an eine X² heranreicht auch gerne glauben, denn bisher hat ATi nur mit Dualkarten das Highend-Segment abdecken können. Warum also nicht auch dieses mal?

bye Hübie

Ich glaube es erst wenn ich es sehe. Wenn die GPU Leistung nur von sturen GFLOPs abhaengig waere vielleicht schon aber eine 5870X2 hat ziemlich monstroese Texel-/Pixel-Fuellraten und insgesamt Bandbreite dass ich insgesamt immer noch meine Vorbehaltungen habe.

Hemlock:

2*80TMUs * 850MHz = 136 GTexels/s
2*32 ROPs * 850MHz = 54,4 GPixels/s
2*153.6GB = 307.2 GB/s

Hübie
2009-09-30, 11:14:21
Naja aber die wollen auch effizient genutzt sein. Bei den meisten Spielen liegt mit Sicherheit noch so einiges Brach, das stimmt. Aber an Leistungswunder glaube ich nicht mehr.
Ich definiere meinen Kauf eh primär über den Preis, weshalb ich lange nicht mehr bei nVidia bin.

bye Hübie

Sentionline
2009-09-30, 11:17:29
Der letzte Patzer den sich Nvidia erlaubt hat war doch der Fx, und das liegt wirklich ewig zurück. Seiddem haben die schon einiges an Performanceversprechen gehalten. Medienrummel NV40 und G80 so als bleistift. Ist aber nicht immer so, das die bei jedem Release ihren Chip groß an die Glocke hängen. Sollte der Termin näher rücken, wirds dann mit dem G100 aber zeit, das die Glocken läuten. Und das wird es.

mfg

w0mbat
2009-09-30, 11:18:49
Tut nix zur Sache.

Genau :freak:


Ja, alle aktuellen NV-Chips sind seid dem RV870 zum Low-Range degradiert, weil taugt nix. :freak:

Wieso immer dieser Sarkasmus? Wo habe ich geschrieben dass alles NV-Chips jetzt Low-Range wären? Genau, nirgends! Aber du musst mal wieder aufdrehen.


Geschichtsstunde?

05-2007: R600(2900XT) - Performance auf 8800GTS 320 Level (Release 02-2007)
11-2007: RV670(HD3870) - Performance auf 8800GTS 640 Level (Release 12-2006)
12-2007: Release G92 @ 8800GT
06-2008: RV770(HD4870) - Performance auf GTX260+ Level (Release 12-2007)
04-2009: RV790(HD4890) - Performance auf GTX275 Level (Release 06-2008)
seid 03-2009: G92 in Form einer GTS250. Performacelevel RV740
Soll ATi mal versuchen den RV670 bis ins Jahr 2010 zu ziehen. Das wird amüsant.

Nvidia muss nicht direkt nach dem RV870 release aufs Gaspedal. Weil überlegenheit in der Vergangenheit schon demonstriert.

Sentionline
2009-09-30, 11:24:47
Jo, hast Recht! Hab wohl einige unterschlagen :smile:

Freu mich trotzdem auf die G100. ;D

/edit2
Äh, müsste der Titel jetzt nicht geändert werden: GT300 ->> GF100 ?

w0mbat
2009-09-30, 11:28:20
Eher GF100.

Ailuros
2009-09-30, 11:30:19
Eher GF100.

Turtle :P

LovesuckZ
2009-09-30, 11:37:48
Nvidia to show DX 11 Fermi today (http://www.fudzilla.com/content/view/15741/1/)
We expect that Nvidia CEO Jensen Huang will demonstrate the card at the GTC keynote that should start at 1.00 PM Pacific time or roughly 10 PM Central European time.

:)

Gast
2009-09-30, 11:47:16
den stream dazu gibts hier btw
http://www.nvidia.com/object/gpu_technology_conference.html

Ailuros
2009-09-30, 11:50:40
Fermi has a lot of cache and supports instructions that use to be common only for CPU and many people believe that this is a hybrid between a graphics card and a CPU. This might be the direction that Nvidia will be heading.

So wuerde ich es nicht beschreiben. Es ist erstmal beschissen formuliert. Ja man hat sehr viel in den GPGPU Bereich investiert hauptsaechlich durch architektur-bedingte Aenderungen und es kam das meiste was sich Entwickler wuenschen koennten in das Ding rein. Dieses ist aber meilenweit entfernt von einer hybriden C-GPU.

Und wenn's schon sein muss Fermi braucht sich IMO wirklich nicht vor LRB verstecken; eher das Gegenteil.

X.Perry_Mental
2009-09-30, 11:52:07
GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores [renamed into CUDA Cores]
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision

Quelle & weitere Infos: BSN*
(http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx)

Godmode
2009-09-30, 11:57:30
GPU specifications
This is the meat part you always want to read fist. So, here it how it goes:
* 3.0 billion transistors
* 40nm TSMC
* 384-bit memory interface
* 512 shader cores [renamed into CUDA Cores]
* 32 CUDA cores per Shader Cluster
* 1MB L1 cache memory [divided into 16KB Cache - Shared Memory]
* 768KB L2 unified cache memory
* Up to 6GB GDDR5 memory
* Half Speed IEEE 754 Double Precision

Quelle & weitere Infos: BSN*
(http://www.brightsideofnews.com/news/2009/9/30/nvidia-gt300s-fermi-architecture-unveiled-512-cores2c-up-to-6gb-gddr5.aspx)

bäh, 384bit....:mad:

James Ryan
2009-09-30, 11:58:11
384 Bit Speicherinterface?
Wozu dieser Rückschritt?
Klar, die Bandbreite dürfte mit GDDR5 reichen, aber die Speichermenge wäre wohl im Referenzdesign "nur" 1,5 GB groß.
IMO zu wenig für so eine Karte!

MfG :cool:

AnarchX
2009-09-30, 11:59:28
bäh, 384bit....:mad:

Wohlmöglich kommt es noch "schlimmer":
Fermi architecture operates at 512 Fused Multiply-Add [FMA] operations per clock in single precision mode, or 256 FMA per clock if you're doing double precision.
Soetwas schrieben die Chinesen schon vor einiger Zeit und auch Rys Bild sieht nach dem Verschwinden der MULs aus.

Also wohl:
512 * 2 FLOPs * 1,6GHz = 1,6 TFLOPs

Wobei natürlich die FLOPs hier wohl noch etwas mächtiger sind, als bei einem GT2xx.

tombman
2009-09-30, 12:04:14
Holy Crap!!!

3 Milliarden Transen :massa:

Und das Kränkste:
Now, you've read that correctly - Ferni comes with a support for native execution of C++. For the first time in history, a GPU can run C++ code with no major issues or performance penalties and when you add Fortran or C to that, it is easy to see that GPGPU-wise, nVidia did a huge job.
Oh-My-God :eek:

So lol, die wollen Larrabee schon im Mutterleib töten ;D

p.s.: jo, die 384 bit sind blöd: nur 1.5 Gb Karten. Die Bandbreite wird wegen DDR5 ausreichen. Naja, vielleicht wirds auch 3Gb Consumerkarten geben :/

Gipsel
2009-09-30, 12:06:53
Wohlmöglich kommt es noch "schlimmer":

Soetwas schrieben die Chinesen schon vor einiger Zeit und auch Rys Bild sieht nach dem Verschwinden der MULs aus.

Also wohl:
512 * 2 FLOPs * 1,6GHz = 1,6 TFLOPs

Wobei natürlich die FLOPs hier wohl noch etwas mächtiger sind, als bei einem GT2xx.
Also wenn man ehrlich ist, konnte man die extra-MULs bisher sowieso kaum nutzen (bei G80/G92 praktisch gar nicht, bei GT200 zumindest selten). Eine GTx285 hatte also ehrlicherwesie auch nur eine MADD-Peakleistung von 708GFlops. Das ist also eine Steigerung auf Faktor 2,25 oder so, und das noch mit FMA statt MADD. Das sollte man auf keinen Fall klein reden. Und die double Precision-Leistung hätte sich doch glatt mal verneunfacht ;)

tombman
2009-09-30, 12:11:19
Wie schauen die Flops im Vergleich zur HD5870 aus?

Ailuros
2009-09-30, 12:14:06
AnarchX,

Die ALU Frequenz koennte noch ein Stueck hoeher ausfallen und sonst hat Gipsel recht.

256 FMA ops/clock DP vs. 30 FMA ops/clock DP @GT200. Bei gleicher Frequenz eine Steigerung von ~8.5 und mit der Frequenz-steigerung an die 10x.

C++ steht im BSN Artikel drin hm? Wie waere es noch mit dkanter's kleinem feuchten Traum?

Wie schauen die Flops im Vergleich zur HD5870 aus?

Wenn FLOPs von sich alleine nur die Leistung definieren wuerden....

Wenn's aber schon sein muss:

5850 = 2088 MAD GFLOPs/s
GTX285 = 708 MAD GFLOPs/s

~ vergleichbare Leistung mit der 5850 im Schnitt vielleicht 10-15% schneller

GF100 = 1741 FMA GFLOPs/s = 2.45x GTX285 in MAD FLOPs

AnarchX
2009-09-30, 12:19:18
AnarchX,

Die ALU Frequenz koennte noch ein Stueck hoeher ausfallen und sonst hat Gipsel recht.

Wohlmöglich soetwas: TMUs 700-1000MHz dynamisch, ALUs 1600-2000MHz dynamisch?
Entsprechend eben dem Workload auf der GPU und der Gesamtleistungsaufnahme.

LovesuckZ
2009-09-30, 12:21:21
256 FMA ops/clock DP vs. 30 FMA ops/clock DP @GT200. Bei gleicher Frequenz eine Steigerung von ~8.5 und mit der Frequenz-steigerung an die 10x.


Heftig - aber wirklich. Selbst wenn DP für uns normale Menschen nicht wirklich von Bedeutung ist, ist der Sprung ziemlich abartig.

Sonyfreak
2009-09-30, 12:24:28
Klingt ja schon mal ganz schick. Wenn der Chip keine sonstigen internen Limitierungen hat, darf man wohl von einer Leistungsverdoppelung im Vergleich zur Vorgängergeneration ausgehen oder?

mfg.

Sonyfreak

reunion
2009-09-30, 12:24:57
Heftig - aber wirklich. Selbst wenn DP für uns normale Menschen nicht wirklich von Bedeutung ist, ist der Sprung ziemlich abartig.

Man hatte auch einiges aufzuholen.

reunion
2009-09-30, 12:26:03
Wie schauen die Flops im Vergleich zur HD5870 aus?

Wie sollen sie denn ausschauen?

GT300: 1.6TFLOPs
Cypress: 2.72 TFLOPs

Natürlich wieder mit dem Vorteil der besseren Auslastung bei NV. Aber das reicht trotzdem wohl kaum. Aber NV geht es eh hauptsächlich um GPGPU wie es aussieht.

LovesuckZ
2009-09-30, 12:29:44
Wie sollen sie denn ausschauen?

GT300: 1.6TFLOPs
Cypress: 2.72 TFLOPs

Natürlich wieder mit dem Vorteil der besseren Auslastung bei NV. Aber das reicht trotzdem wohl kaum. Aber NV geht es eh hauptsächlich um GPGPU wie es aussieht.

Reicht nicht? Das klingt ja gerade so, als ob AMD mit der 5870 plötzlich 2,72x so schnell als die GTX285 wäre. ;)

Man hatte auch einiges aufzuholen.

Natürlich - nun ist man sogar vor AMD. Das ist ja das abartige daran. Der Sprung ist fast schon unglaublich groß.

Szenario21
2009-09-30, 12:29:54
3GB Karten werden sicher kommen. Vielleicht trauen sich auch einige mit 6GB Karten auf den Markt, aber ob das dann noch was bringt...

Ich habe zwar keine Ahnung davon, aber was bedeutet Halfspeed IEEE 754 double precision?

Half Speed hört sich für mich irgendwie nachteilig an.

Ailuros
2009-09-30, 12:30:52
Man hatte auch einiges aufzuholen.

Du meinst ueberholen; anders zeig mir eine Loesung in absehbarer Zeit die ein 2:1 Verhaeltnis haben wird. Im besten Fall 5:1.

Wie sollen sie denn ausschauen?

GT300: 1.6TFLOPs
Cypress: 2.72 TFLOPs

Natürlich wieder mit dem Vorteil der besseren Auslastung bei NV. Aber das reicht trotzdem wohl kaum. Aber NV geht es eh hauptsächlich um GPGPU wie es aussieht.

LOL ok :D Siehe weiter oben.

Gast
2009-09-30, 12:31:59
Ich habe zwar keine Ahnung davon, aber was bedeutet Halfspeed IEEE 754 double precision?

Half Speed hört sich für mich irgendwie nachteilig an.

Die Einheiten oder Datenpfade sind keine 64-Bit breit und es braucht 2 Takte, um eine Operation mit 64Bit fertig zu stellen. Das haben die CPUs dem Fermi noch vorraus, dafür aber nur 2-8 Ops/Clock und kein Fused bisher

Hey jetzt schließt Nvidia zum Rendition auf*g*

reunion
2009-09-30, 12:32:30
Reicht nicht? Das klingt ja gerade so, als ob AMD mit der 5870 plötzlich 2,72x so schnell als die GTX285 wäre. ;)


Wenn man nur die arithmetische Leistung misst ist der Vorsprung sicherlich beachtlich. Aber ich habe ja geschrieben das NV natürlich die bessere Auslastung erreicht.

Szenario21
2009-09-30, 12:37:16
Die Einheiten oder Datenpfade sind keine 64-Bit breit und es braucht 2 Takte, um eine Operation mit 64Bit fertig zu stellen.

Hmm warum wurde dann noch nicht auf 64bit umgestellt bei GPUs?
Gibt es dafür einen vernünftigen Grund?
Hatte Carmack nicht schon vor Jahren so etwas gefordert oder ging es da um 64bit Farbtiefe?

Sascha1971
2009-09-30, 12:40:07
3 Mrd. Transistoren und bis zu 6 GB GDDR5

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/gt300_3_mrd_transistoren_6_gb_gddr5/


Was soll den das Teil kosten ? :eek:

V2.0
2009-09-30, 12:42:31
Man stelle sich mal ne 256Bit Performancekarte dazu vor. Die könnte schon RV870 jagen.

Ailuros
2009-09-30, 12:44:12
3 Mrd. Transistoren und bis zu 6 GB GDDR5

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/gt300_3_mrd_transistoren_6_gb_gddr5/


Was soll den das Teil kosten ? :eek:

6GB ist sowieso nur die maximale Speichermenge die es nur im Profi Markt geben wird.

Aber 1.5 bzw. 3GB desktop Versionen sollte es schon geben. Die zweite kann auf jeden Fall nicht teurer sein als Hemlock.

Henroldus
2009-09-30, 12:46:34
3 Mrd. Transistoren und bis zu 6 GB GDDR5

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/september/gt300_3_mrd_transistoren_6_gb_gddr5/


Was soll den das Teil kosten ? :eek:
6GB GDDR5 :freak:,
das kann doch niemand bezahlen, zumal die Speicherpreise seit Wochen schon anziehen.Dramexchange.com/ (http://www.dramexchange.com/)
mit einem 512Bit Speicherinterface wäre allerdings nicht so ein schneller(teuerer) Speicher wie bei der 5870 notwendig.
über 2GB ist IMO Overkill

RLZ
2009-09-30, 12:47:38
256 FMA ops/clock DP vs. 30 FMA ops/clock DP @GT200. Bei gleicher Frequenz eine Steigerung von ~8.5 und mit der Frequenz-steigerung an die 10x.
Wayne interessieren DP. :biggrin:
Wie sieht die Int32 Leistung aus? Immer noch um Faktor 4 kleiner als Int24?

mapel110
2009-09-30, 12:48:30
Also geht nvidia beim Speicherinterface tatsächlich wieder zurück?

Gast_mboeller
2009-09-30, 12:49:42
Die ALU Frequenz koennte noch ein Stueck hoeher ausfallen und sonst hat Gipsel recht.


Glaube ich nicht wirklich. Der Verbrauch soll ja niedriger sein als beim GTX285 obwohl die GF100 mehr als doppelt so viele ALUs hat.


Übrigens,

sehe ich das richtig, das der GF100 nur 64 TMUs hat? 16 Cluster mit je 32 ALUs würde doch nur 64 TMUs ergeben. Wenn ja, wäre das dann wohl das Nadelöhr des GF100. Nvidia müsste die TMUs schon mit >1000MHz laufen lassen um mit 1 5870 mithalten zu können.

AnarchX
2009-09-30, 12:51:25
sehe ich das richtig, das der GF100 nur 64 TMUs hat? 16 Cluster mit je 32 ALUs würde doch nur 64 TMUs ergeben. .
Bisher hatte seit G80 jeder Cluster 8 TFs verbaut. Also müsste GF100 wohl 128 davon haben.

Gast
2009-09-30, 12:52:21
Bisher hatte seit G80 jeder Cluster 8 TFs verbaut. Also müsste GF100 wohl 128 davon haben.

Ok, dann passt es ja.

Ailuros
2009-09-30, 12:54:59
Glaube ich nicht wirklich. Der Verbrauch soll ja niedriger sein als beim GTX285 obwohl die GF100 mehr als doppelt so viele ALUs hat.

Der Verbrauch wird je nach Fall </= 285 sein und ja und es sind mehr als doppelt so viele ALUs und nein das hat nichts damit zu tun. Wenn mich jemand nicht auf die Palme getrieben hat ist es bei 2.6x ALU:TMU.


Übrigens,

sehe ich das richtig, das der GF100 nur 64 TMUs hat? 16 Cluster mit je 32 ALUs würde doch nur 64 TMUs ergeben. Wenn ja, wäre das dann wohl das Nadelöhr des GF100. Nvidia müsste die TMUs schon mit >1000MHz laufen lassen um mit 1 5870 mithalten zu können.

Wie viele TMUs haben denn GFs seit November 2006 pro cluster? (Ok die G80 war eine Ausnahme wegen den 32TA/64TF Zahlen).

***edit: wobei mir ehrlich gesagt 64TA/128TF lieber waere ;)

pervert
2009-09-30, 12:57:40
Kann man schon absehen wieviele ROPs es werden?

Ailuros
2009-09-30, 12:59:12
Kann man schon absehen wieviele ROPs es werden?

870 + 50%

AnarchX
2009-09-30, 13:02:16
Wenn mich jemand nicht auf die Palme getrieben hat ist es bei 2.6x ALU:TMU.

Was dann wohl nicht soviel mehr wäre als bei Cypress und nicht die erhoffte Steigerung gegenüber GT200 im Faktor 2.

Oder hieß es "up to 1GHz TMU and up to 2,6GHz ALU"?:D

pervert
2009-09-30, 13:03:00
870 * 50%

Sorry, aber ich habe nicht alle Daten und Werte die so herumschwirren in Kopf, geht es etwas genauer? :)
Werden die wohl leistungsfähig genug sein um so einen Reinfall wie beim G92 zu verhindern?
Mit welchem Speichertakt kann man wohl rechnen? 2400 MHz oder mehr?

AnarchX
2009-09-30, 13:10:28
It really has changed. I can't say (well I could) if Theo's right or not, but GF100 is not terribly GT200-like in places. All will be revealed later today anyway, not long to go now.
http://forum.beyond3d.com/showpost.php?p=1342120&postcount=2723

tombman
2009-09-30, 13:11:00
Wird Fermi überhaupt das sein, das wir in den consumer Karten bekommen werden?
Oder wird Fermi bei der GTX380 abgespeckt?

Ailuros
2009-09-30, 13:12:12
Was dann wohl nicht soviel mehr wäre als bei Cypress und nicht die erhoffte Steigerung gegenüber GT200 im Faktor 2.

Oder hieß es "up to 1GHz TMU and up to 2,6GHz ALU"?:D

Arun hat sich zumindest ein blaues Auge verdient ;)

Sorry, aber ich habe nicht alle Daten und Werte die so herumschwirren in Kopf, geht es etwas genauer?

Nein. Wenn Du nicht weisst wieviele ROPs ein Cypress hat dann hat Deine originale Frage auch keinen Wert.

Werden die wohl leistungsfähig genug sein um so einen Reinfall wie beim G92 zu verhindern?

G92 war eine Performance und keine high end GPU. Hat Dir jemand damals erzaehlt dass Du damit in 2560*1600 +AA genauso fluessig spielen wirst wie auf einer G80?

Mit welchem Speichertakt kann man wohl rechnen?

1200MHz.

MiamiNice
2009-09-30, 13:13:38
Was ist den mit dem wichtigsten, der Spieleperformance? Ist das Teil brauchbar oder nicht?

Henroldus
2009-09-30, 13:14:28
1200MHz.
nicht bei einem 512Bit breitem Bus, das wäre die doppelte Bandbreite der 5870 und somit Overkill
entweder PCB teuer oder Speicher, aber nicht beides
für 600$ werden sie die Karte nicht los
Was ist den mit dem wichtigsten, der Spieleperformance? Ist das Teil brauchbar oder nicht?
Die Gretchenfrage :tongue:

Ailuros
2009-09-30, 13:15:51
nicht bei einem 512Bit breitem Bus, das wäre die doppelte Bandbreite der 5870 und somit Overkill

Sagt wer? Ich wuerde eher wetten dass GF100@384bit genauso an Bandbreite drosselt wie Cypress.

pervert
2009-09-30, 13:17:15
Nein. Wenn Du nicht weisst wieviele ROPs ein Cypress hat dann hat Deine originale Frage auch keinen Wert.

G92 war eine Performance und keine high end GPU. Hat Dir jemand damals erzaehlt dass Du damit in 2560*1600 +AA genauso fluessig spielen wirst wie auf einer G80?

Sorry, dass ich nicht so einen Durchblick habe wie DU ;)

Zu Punkt 2: Nein, das hat niemand, aber das G92 eigentlich unterhalb einer 8800GTX angesiedelt sein sollte hat die große Masse nie so ganz verstanden gehabt und letztlich waren die Karten auf dieser Basis auch die Ablöse für die 8800GTX - nur eben keine gute!
Wer sagt also, dass NVidia nicht mal wieder auf ähnliche Weise sparen könnte anstatt Leistung satt zu bieten?
384bit jedenfalls klingen für mich auch nicht gerade nach overkill...

Henroldus
2009-09-30, 13:21:58
Sagt wer? Ich wuerde eher wetten dass GF100@384bit genauso an Bandbreite drosselt wie Cypress.
Speculatius
wenn der GF100 dort genauso drosselt gestehst Du ihm also eine 50% höhere Leistung als Cypress zu? ;)

Ailuros
2009-09-30, 13:22:38
Sorry, dass ich nicht so einen Durchblick habe wie DU ;)

Es mag bloed klingen aber die Anzahl der ROPs ist nirgends bis jetzt bekannt; wie schwer ist es einen 5870 Artikel nachzuschlagen?

Zu Punkt 2: Nein, das hat niemand, aber das G92 eigentlich unterhalb einer 8800GTX angesiedelt sein sollte hat die große Masse nie so ganz verstanden gehabt und letztlich waren die Karten auf dieser Basis auch die Ablöse für die 8800GTX - nur eben keine gute!
Wer sagt also, dass NVidia nicht mal wieder auf ähnliche Weise sparen könnte anstatt Leistung satt zu bieten?
384bit jedenfalls klingen für mich auch nicht gerade nach overkill...

G80 = 6*64
G92 = 4*64
G100 = 6*64

Theoretisch 1200MHz@384bit = 230,40 GB/s

Ailuros
2009-09-30, 13:24:38
Speculatius
wenn der GF100 dort genauso drosselt gestehst Du ihm also eine 50% höhere Leistung als Cypress zu? ;)

Ich weiss noch nichts was die Leistung betrifft aber GF100 hat so oder so um einiges hoehere Ansprueche als Cypress und gehoert nicht in die gleiche Kategorie.

pervert
2009-09-30, 13:25:15
Es mag bloed klingen aber die Anzahl der ROPs ist nirgends bis jetzt bekannt; wie schwer ist es einen 5870 Artikel nachzuschlagen?
Es klingt auch blöd, sorry! Nachgeschlagen hatte ich, schlau bin ich genauso wie zuvor. Auf Rätselraten und Verunglimpfung habe ich auch keine Lust.
Danke.

Theoretisch 1200MHz@384bit = 230,40 GB/s
Das auszurechnen schaffe ich auch noch ;)

MiamiNice
2009-09-30, 13:25:20
Die Gretchenfrage :tongue:

Würde bedeuten das es NV unangenehm ist Benches zu veröffentlichen. Ist das Teil wirklich so mies?

Sonyfreak
2009-09-30, 13:27:12
Theoretisch 1200MHz@384bit = 230,40 GB/s48*4*1200=225GB/s wenn ich richtig rechne.

mfg.

Sonyfreak

Ailuros
2009-09-30, 13:27:41
Es klingt auch blöd, sorry! Nachgeschlagen hatte ich, schlau bin ich genauso wie zuvor. Auf Rätselraten und Verunglimpfung habe ich auch keine Lust.
Danke.

Und ich bin Dir auch nicht verpflichtet in keiner Art Dir jeden Gefallen zu machen ok? Wenn Du zu faul bist nur einen einzigen review aufzuschlagen kann ich Dir auch nicht weiterhelfen. Und wenn Dir das auch nicht passen sollte, verlang Dein Geld zurueck und keine Ursache heh.

48*4*1200=225GB/s wenn ich richtig rechne.

mfg.

Sonyfreak


Hmmm HD5870 = 153,6GB (1200MHz GDDR5@256bit)

Godmode
2009-09-30, 13:32:19
Was hast Du für ein Problem?

Ich habe eine simple Frage gestellt, Du machst mich an und ich beschwere mich zurecht!

Wenn Du es nicht weißt oder es keine Infos gibt aus denen sich vernünftiges erahnen lässt, kann man das auch so schreiben!

Ganz einfach nett und freundlich!

RV870 = 32 ROPs * 50% = 16 ROPs

pervert
2009-09-30, 13:35:05
Soweit kann ich auch rechnen, nur halte ich das für unrealistisch wenig. Daher mein Unverständnis.
Aber danke für den Versuch.
Ich dachte eher so an 48, naja warte mal lieber bis heute abend, muss ich keine dummen Fragen mehr stellen und passende Antworten bekommen :rolleyes:

boxleitnerb
2009-09-30, 13:36:00
Kommt auf den Takt an, aber ich denke auch es ist arg wenig.

X.Perry_Mental
2009-09-30, 13:36:00
RV870 = 32 ROPs * 50% = 16 ROPs
Klingt furchtbar wenig. Hätte es vielleicht 870 + 50% heissen sollen? 48 würde passender klingen.

Ailuros
2009-09-30, 13:37:06
Ja dummerweise haette ich + und nicht * tippen sollen.

pervert
2009-09-30, 13:39:07
Ohja, "dummerweise" wäre DANN alles klar gewesen. Und nichts Überraschendes dazu.

Sehr undiplomatisch formuliert, besonders für einen Mod.

S940
2009-09-30, 13:44:42
Aha .. also ne GPU, die auch wie eine/viele CPU(s) funktionieren kann. Toll.

Das klingt verdammt nach Larrabee, nur umgekehrt.

Bin ja mal gespannt, was hinten rauskommt, aber vorerst finde ich, dass beides weder Fisch noch Fleisch ist.

Sicherlicherlich geht sowas, aber optimal ist das sicherlich nicht, wenn man alles mit einem einzigen Kerndesign erschlagen will.

AMDs Fusion Ansatz überzeugt mich im Moment noch am meisten: CPU+GPU, nicht CPU und halbwegs GPU bzw. umgekehrt.

Naja, mal die Präsentation abwarten, was da alles für bunte Balken gezeigt werden :)

ciao

Alex

reunion
2009-09-30, 13:48:30
Du meinst ueberholen; anders zeig mir eine Loesung in absehbarer Zeit die ein 2:1 Verhaeltnis haben wird. Im besten Fall 5:1.


Entscheidend ist aber nicht das Verhältnis sondern die absoluten Werte.

LovesuckZ
2009-09-30, 13:49:18
Entscheidend ist aber nicht das Verhältnis sondern die absoluten Werte.

Und die werden bei nVidia höher sein.

Ailuros
2009-09-30, 13:51:42
Entscheidend ist aber nicht das Verhältnis sondern die absoluten Werte.

Ach ja? 870 vs. 544 GFLOPs. Von den Moeglichkeiten im Servermarkt will ich gar nicht anfangen.

reunion
2009-09-30, 13:55:49
Ach ja? 870 vs. 544 GFLOPs. Von den Moeglichkeiten im Servermarkt will ich gar nicht anfangen.

Ja. Ich habe ja nicht behauptet das es deswegen höher ist. Aber 1:2 oder 1:5 sagt wenig aus. Und von den Möglichkeiten im Servermarkt habe ich wenig.

Ailuros
2009-09-30, 13:56:56
Ja.

Bei welchen Faehigkeiten? :naughty:

reunion
2009-09-30, 13:59:29
Bei welchen Faehigkeiten? :naughty:

Ist ja schon gut, ich habe schon verstanden. Trotzdem bin ich ein Spieler und keine Serverfarm. Und da bleibt momentan das fehlende MUL und das 384bit SI. Das wurde vor kurzem noch anders erwartet. Mal sehen wie der Chip wird und vorallem wann er denn nun kommt.

igg
2009-09-30, 13:59:36
C++ steht im BSN Artikel drin hm? Wie waere es noch mit dkanter's kleinem feuchten Traum?
C++ nativ? Wow :eek:

Feuchten Traum - da kommt noch mehr? Wovon hat dkanter denn geträumt?

Ailuros
2009-09-30, 14:04:21
Ist ja schon gut, ich habe schon verstanden. Trotzdem bin ich ein Spieler und keine Serverfarm. Und da bleibt momentan das fehlende MUL und das 384bit SI. Das wurde vor kurzem noch anders erwartet. Mal sehen wie der Chip wird und vorallem wann er denn nun kommt.

Wer sagte dass es fehlt? Man kann es nur nicht fuer general shading benutzen, was aber zur heutigen Realitaet auch nichts mehr aendert.

Ja ja das 384bit SI; GF100 wird natuerlich als Bandbreiten-limitiert abgestempelt waehrend 5870 wirklich am anderen Ende zu einer wuerdigen Leistung die analog zu den Steigerungen der Einheiten ist resultiert oder?

C++ nativ? Wow :eek:

Feuchten Traum - da kommt noch mehr? Wovon hat dkanter denn geträumt?

BSN hat's ja auch schon erwaehnt. ECC memory.

Neocroth
2009-09-30, 14:10:27
sorry, das mit dem C++ nativ glaub ich nicht, Tim.

C++ ist kein Befehlssatz sondern eine Sprache. Das heißt höchstens, man bringt Funktionsbibliotheken und einen Compiler mit, über welche C++ auf die GT300-GPU kompiliert wird. Eine GPU wird niemals C++ nativ ausführen können, genau so wenig wie eine CPU das kann. Ergo klingt das ganze wirklich eher nach einem feuchten Wunschtraum oder im besten Fall nach falsch verstanden und noch falscher abgeschrieben.

Und selbst dann wird der Code angepasst werden müssen. C++ Code != C++ Code.

reunion
2009-09-30, 14:11:55
Eben. Was ist denn CUDA heute? Eine C++ ähnliche Sprache.

Neocroth
2009-09-30, 14:14:50
Eben. Was ist denn CUDA heute? Eine C++ ähnliche Sprache.

Soweit ich weiß ist es ein Subset von C mit nVidia-eigenen Extensions. Da ich aber nie selbst was mit CUDA zu tun hatte, bitte ich um Korrektur falls ich Bullshit erzähle ;)

reunion
2009-09-30, 14:15:06
Wer sagte dass es fehlt? Man kann es nur nicht fuer general shading benutzen, was aber zur heutigen Realitaet auch nichts mehr aendert.

Es scheint anscheinend nicht mehr auf. Bei GT200 konnte man es angeblich schon noch hin und wieder nutzen. Das sagtest du selbst öfter.


Ja ja das 384bit SI; GF100 wird natuerlich als Bandbreiten-limitiert abgestempelt waehrend 5870 wirklich am anderen Ende zu einer wuerdigen Leistung die analog zu den Steigerungen der Einheiten ist resultiert oder?


Nein, aber trotzdem ist das eine Überraschung. Damit wird GT300 auch nur 50% mehr Bandbreite haben wie der ach so Bandbreitenlimitierte Cypress. Und GT300 soll ja auch ein Stück schneller werden.

Gast
2009-09-30, 14:19:04
Was ist eigentlich genau der Unterschied zwischen FMA und MADD?

Gipsel
2009-09-30, 14:31:50
Was ist eigentlich genau der Unterschied zwischen FMA und MADD?
Bei einer Multiplikation verdoppelt sich allgemein die Breite des Resultats:
9 * 8 = 72 (zwei einstellige Zahlen ergeben eine zweistellige Zahl)

Das Ergebnis wird bei Fließkommazahlen üblicherweise wieder auf die gleiche Anzahl von Stellen gerundet, bei Floats also 24 Bits (der Exponent spielt dabei keine Rolle). Bei der Kombination von Multiplikation und Addition (MADD) findet diese Rundung ebenfalls vor der Addition statt, bei einem FMA nicht. Für ein FMA muß also die doppelte Breite des Ergebnisses der Multiplikation voll mitgenommen werden, was es etwas aufwendiger, aber auch genauer macht.

Wichtig wird das bei Sachen, wenn bei der Operation a*b-c, der Wert c ungefähr genauso groß ist wie a*b. Wenn das passiert, ist FMA einem MADD von der Genauigkeit klar überlegen. Dies tritt oft bei iterativen Näherungsverfahren (z.B. Newton-Verfahren für Wurzel oder Division) auf. Mit einem FMA kann man da recht einfach korrekt gerundete Werte erhalten, nur mit einem MADD nicht.

Neocroth
2009-09-30, 14:33:55
Was ist eigentlich genau der Unterschied zwischen FMA und MADD?

Beim FMA sind Multiplikation und Addition als x*y+z verschmolzen (fused). Zwei Parameter werden multipliziert und mit dem dritten addiert. Der Vorteil von FMA zu MADD (x*y)+z ist dass bei FMA mit höherer Genauigkeit gerechnet werden kann und nur einmal gerundet wird. Dadurch lässt sich ein FMA (bei richtiger Umsetzung in der Hardware) schneller ausführen als ein MADD.


Wichtig wird das bei Sachen, wenn bei der Operation a*b-c, der Wert c ungefähr genauso groß ist wie a*b. Wenn das passiert, ist FMA einem MADD von der Genauigkeit klar überlegen. Dies tritt oft bei iterativen Näherungsverfahren (z.B. Newton-Verfahren für Wurzel oder Division) auf.


Richtig, über FMA kann sowohl die Division als auch Wurzel effektiv implementiert werden, da die erste Rundung wegfällt und damit die Genauigkeit für die folgende Addition gegeben ist.

V2.0
2009-09-30, 14:38:29
Nein, aber trotzdem ist das eine Überraschung. Damit wird GT300 auch nur 50% mehr Bandbreite haben wie der ach so Bandbreitenlimitierte Cypress. Und GT300 soll ja auch ein Stück schneller werden.

Nur gingen die bisherigen NV-Chips recht großzügig mit der Bandbreite um, evtl. hat man da auch was getan, so dass 50% eben nicht 50% sind.

Gast
2009-09-30, 14:44:51
G80: 384Bit mit 1080MHz GDDR3 = 104GB/s
GT200: 512Bit mit 1242MHz GDDR3 = 160GB/s
GT300: 384Bit mit 2500MHz GDDR5 = 240GB/s

immer ein Plus von 50%...

RV870 X2 Leistung ist doch reines Wunsch denken... ich sage im Durchschnitt ca. 20-30% vor einem RV870!

Aber wisst ihr was, ich wäre damit schon sehr zufriden!

V2.0
2009-09-30, 14:46:11
Eher 20% unter ner X2.

Gipsel
2009-09-30, 14:48:20
Der Vorteil von FMA zu MADD (x*y)+z ist dass bei FMA mit höherer Genauigkeit gerechnet werden kann und nur einmal gerundet wird. Dadurch lässt sich ein FMA (bei richtiger Umsetzung in der Hardware) schneller ausführen als ein MADD.
Der Vorteil der einmaligen Rundung stimmt, aber schneller ausführen läßt es sich deswegen nicht, es ist sogar deutlich aufwendiger als ein einfaches MADD. Genau deswegen konnten GPUs früher auch nur MADDs ;)

Übrigens, damit das jetzt nicht zu einseitig wird, auch RV870 kann FMAs (im Gegensatz zu RV770) in DP und SP, nur ist bisher nicht hundertprozentig klar, mit welchem Durchsatz für SP.

Da ja schon Spekulationen für GF100 rumgeistern, eine HD5870 kann in DP:

FMA: 544 GFlops
MUL: 544 GFlops
ADD: 544 GFlops

Mit den spekulierten Werten des GF100 bei 1.7GHz kommt man auf:

FMA: 870 GFlops
MUL: 435 GFlops
ADD: 435 GFlops

Da liegen also keine Welten zwischen nv und ATI, wie momentan zu GTX285 mit nur:

FMA: 89 GFlops
MUL: 44 GFlops
ADD: 44 GFlops

Und zum Vergleich noch eine HD4890:

MADD: 272 GFlops
MUL: 136 GFlops
ADD: 272 GFlops

So, jetzt aber genug von den reinen Flops!

Neocroth
2009-09-30, 14:52:54
Der Vorteil der einmaligen Rundung stimmt, aber schneller ausführen läßt es sich deswegen nicht, es ist sogar deutlich aufwendiger als ein einfaches MADD. Genau deswegen konnten GPUs früher auch nur MADDs ;)

Übrigens, damit das jetzt nicht zu einseitig wird, auch RV870 kann FMAs (im Gegensatz zu RV770) in DP und SP, nur ist bisher nicht hundertprozentig klar, mit welchem Durchsatz für SP.


Soweit ich weiß ist die Umsetzung in Hardware komplizierter, aber durch das Wegfallen der Rundung entsteht ein Performance-Vorteil (im Falle dass die Register breit genug sind - wie ich schon geschrieben habe: "bei richtiger Umsetzung in der Hardware").

EDIT: bin mir inzwischen nicht mehr sicher... kann auch sein dass nur die Umsetzung der Division/Sqrt performanter war...?

Gipsel
2009-09-30, 15:02:10
Soweit ich weiß ist die Umsetzung in Hardware komplizierter, aber durch das Wegfallen der Rundung entsteht ein Performance-Vorteil (im Falle dass die Register breit genug sind - wie ich schon geschrieben habe: "bei richtiger Umsetzung in der Hardware").
Nun, bei einem MADD rundet man ja nicht wirklich, man berechnet "einfach" weniger Bits der Mantisse, der Multiplikator muß also bei DP nur 54 Bits ausspucken statt 108 (und 24 statt 48 bei SP).

Es gibt keinen Performance-Vorteil der FMAs. Das ist aufwendiger, man muß mehr Bits erzeugen und bei der Addition berücksichtigen (prinzipiell 108 Bit Addierer für DP). Dadurch geht die maximale Frequenz für eine FMA-Einheit bei ansonsten vergleichbarer Bauweise (was natürlich nicht passiert) gegenüber einem MADD etwas zurück.

Der Vorteil der FMAs liegt ausschließlich auf der Software-Seite. Na gut, bei Itanium (und GPUs) spart man dadurch die Divisionseinheit, weil das einfach in Software mit FMAs gemacht wird. Ändert aber nichts an der grundlegenden Aussage.

Neocroth
2009-09-30, 15:10:44
Es gibt keinen Performance-Vorteil der FMAs. Das ist aufwendiger, man muß mehr Bits erzeugen und bei der Addition berücksichtigen (prinzipiell 108 Bit Addierer für DP). Dadurch geht die maximale Frequenz für eine FMA-Einheit bei ansonsten vergleichbarer Bauweise (was natürlich nicht passiert) gegenüber einem MADD etwas zurück.


Klingt logisch... trotzdem hab ich irgendwo im Hinterkopf einen Performance-Vorteil. Wie siehts bei Division/Wurzel aus? Kommt hier der Performance-Vorteil ebenfalls nur in DP zum Tragen?

Ailuros
2009-09-30, 15:28:33
Es scheint anscheinend nicht mehr auf. Bei GT200 konnte man es angeblich schon noch hin und wieder nutzen. Das sagtest du selbst öfter.

Unter GPGPU wohl ja. Fraglich ob es auch dort benutzt wurde.

Nein, aber trotzdem ist das eine Überraschung. Damit wird GT300 auch nur 50% mehr Bandbreite haben wie der ach so Bandbreitenlimitierte Cypress. Und GT300 soll ja auch ein Stück schneller werden.

Ich hab im Grund nie erwartet dass die ersten Exemplare dieser Generation NICHT Bandbreiten-limitiert sein werden. Es war gar nicht so lange her als ich bei B3D im Forum mit Carsten plauderte und mein Gefuehl dass die Bandbreite doch nicht so stark steigen wuerde wie jeder erwartet geaeussert. Das idiotische an der Affaere ist dass jeder von einem 512bit plauderte und ich von 210-230 GB/s gehoert hatte. Dally sprach selber in seinem PCGH Interview von einer eher maessigen Bandbreiten-Steigerung.

Cypress sowohl auch Fermi werden wohl schon in der Mehrzahl die Ansprueche an Bandbreite decken koennen aber nie und nimmer glaube ich dass keiner von den beiden ihre maximale Fuellraten voll ausnutzen koennen.

USS-VOYAGER
2009-09-30, 15:31:23
noch heute wollen sie den gt300 zeigen http://www.hartware.de/news_47701.html

Gast
2009-09-30, 15:35:25
Nein, aber trotzdem ist das eine Überraschung. Damit wird GT300 auch nur 50% mehr Bandbreite haben wie der ach so Bandbreitenlimitierte Cypress. Und GT300 soll ja auch ein Stück schneller werden.

Und pro TMU ist man sogar noch Bandbreitenlimitierter als Cypress:

128 / 80 = 1,6
384bit/256bit = 1,5

=> es macht überhaupt damit IMHO keinen Sinn die TMUs in einer eigenen Clockdomain schneller laufen zu lassen.

1.7GHz <-> 1.6GHz alt, passt also, nur 6% Steigerung zw. 55nm und 40nm. Damit sind die überall erwarteten 2GHz+ wohl Geschichte.

Coda
2009-09-30, 15:37:16
sorry, das mit dem C++ nativ glaub ich nicht, Tim.

C++ ist kein Befehlssatz sondern eine Sprache. Das heißt höchstens, man bringt Funktionsbibliotheken und einen Compiler mit, über welche C++ auf die GT300-GPU kompiliert wird. Eine GPU wird niemals C++ nativ ausführen können, genau so wenig wie eine CPU das kann. Ergo klingt das ganze wirklich eher nach einem feuchten Wunschtraum oder im besten Fall nach falsch verstanden und noch falscher abgeschrieben.

Und selbst dann wird der Code angepasst werden müssen. C++ Code != C++ Code.
Es geht darum C++ auf die GPU zu kompilieren, und das funktioniert bei derzeitigen Chips nicht, weil Pointer nicht unterstützt werden.

Eben. Was ist denn CUDA heute? Eine C++ ähnliche Sprache.
Es fehlt einiges.

Ailuros
2009-09-30, 15:39:16
Und pro TMU ist man sogar noch Bandbreitenlimitierter als Cypress:

128 / 80 = 1,6
384bit/256bit = 1,5

=> es macht überhaupt damit IMHO keinen Sinn die TMUs in einer eigenen Clockdomain schneller laufen zu lassen.

1.7GHz <-> 1.6GHz alt, passt also, nur 6% Steigerung zw. 55nm und 40nm. Damit sind die überall erwarteten 2GHz+ wohl Geschichte.

Nur laufen die 128 und 80 TMUs nicht auf gleicher Frequenz und ich komm auf eine um einiges kleinere Relation als 1.6 fuer die Fuellraten (sowohl Texel und Pixel Fuellraten).

Coda
2009-09-30, 15:40:42
Das ist wieder mal so eine Milchmädchenrechnung.

Gast
2009-09-30, 15:52:22
Nur laufen die 128 und 80 TMUs nicht auf gleicher Frequenz und ich komm auf eine um einiges kleinere Relation als 1.6 fuer die Fuellraten (sowohl Texel und Pixel Fuellraten).


Bei Nvidia laufen die TMU's also langsamer als bei AMD. Gut

Damit sind die ganzen Gerüchte die du bezüglich einer eigenen TMU-domain gestreut hast also falsch gewesen. Schön das das damit geklärt ist.

tombman
2009-09-30, 15:53:48
Es geht darum C++ auf die GPU zu kompilieren, und das funktioniert bei derzeitigen Chips nicht, weil Pointer nicht unterstützt werden.
Und Fermi kann das jetzt oder auch nicht?

Ailuros
2009-09-30, 15:55:56
Bei Nvidia laufen die TMU's also langsamer als bei AMD. Gut

Damit sind die ganzen Gerüchte die du bezüglich einer eigenen TMU-domain gestreut hast also falsch gewesen. Schön das das damit geklärt ist.

Sie originierte eigentlich von Arun (worauf er sogar Gift genehmen haette) und ich brauch mich nirgends dafuer entschuldigen. Ich hab nie gesagt dass ich keine Fehler mache; im Gegenteil ich bin sogar stolz darauf. Gerade weil es Leuten wie Dir Grund gibt Charakter zu zeigen.

Gipsel
2009-09-30, 15:57:14
Klingt logisch... trotzdem hab ich irgendwo im Hinterkopf einen Performance-Vorteil. Wie siehts bei Division/Wurzel aus? Kommt hier der Performance-Vorteil ebenfalls nur in DP zum Tragen?
Nun für SP haben GPUs SFUs, die das direkt erledigen (wie allgemein auch x86-CPUs).
Bei Division/Wurzel hat man bei MADDs den Nachteil, nur sehr schwer (aufwendig) überhaupt korrekt gerundete Resultate herauszubekommen (0,5 ulp), mit FMA ist das einfach eine zusätzliche Newton-Markstein-Iteration von der letzten Näherung mit 1 ulp. Wenn man das mit MADD macht, ändert sich am Resultat nichts mehr, man bleibt bei maximal 1 ulp Abweichung, während mit FMA ein korrekt gerundetes Ergebnis garantiert werden kann. Für GPUs ist 1 ulp (das letzte Bit kann falsch sein) im allgemeinen akzeptabel. Wenn man GPGPU für irgendwelche wissenschaftlichen Anwendungen macht und die Ergebnisse überall gleich sein sollen, ist es das eventuell nicht. Deswegen baut kein CPU-Hersteller überhaupt MADDs ein.
[zu extra MULs bei GT200] Unter GPGPU wohl ja. Fraglich ob es auch dort benutzt wurde.
Hmm, da braucht man wohl schon speziell gestrickte Fälle. Zumindest um die von nv behauptete 90% Nutzbarkeit zu belegen. Im realen Leben dürfte das deutlich niedriger liegen.
1.7GHz <-> 1.6GHz alt, passt also, nur 6% Steigerung zw. 55nm und 40nm. Damit sind die überall erwarteten 2GHz+ wohl Geschichte.
Eine GTX285 läuft nur mit 1,476 GHz, der ursprüngliche GT200 sogar nur mit 1,3 GHz ;)

Coda
2009-09-30, 16:01:45
Das zusätzliche MUL steht zur Verfügung wenn man gerade keine transzendenten Funktionen ausführt und keine Interpolation von Vertexdaten stattfindet.

Letztes ist bei GPGPU aus Prinzip nicht vorhanden, also kann man es dort auch öfter nutzen.

Neocroth
2009-09-30, 16:02:41
Es geht darum C++ auf die GPU zu kompilieren, und das funktioniert bei derzeitigen Chips nicht, weil Pointer nicht unterstützt werden.


Die Grundaussage war mir schon klar, nur ist "C++ Code läuft nativ auf dem GT300" einfach Bullshit.

The front end of the compiler processes CUDA source files according to C++
syntax rules. Full C++ is supported for the host code. However, only the C subset
of C++ is fully supported for the device code; C++ specific features such as classes,
inheritance, or declaration of variables within basic blocks are not. As a
consequence of the use of C++ syntax rules, void pointers (e.g. returned by
malloc()) cannot be assigned to non-void pointers without a typecast.

Verstehe daher nicht, was du meinst, dass Pointer nicht auf aktuellen GPUs unterstützt werden.

Wenn mit der News gemeint ist, dass in CUDA nun vollständig in C++ programmiert werden kann - ok. Aber "nativ" läuft weder C++ noch C noch Fortran oder sonstwas auf einer GPU.

Nun für SP haben GPUs SFUs, die das direkt erledigen (wie allgemein auch x86-CPUs).
Bei Division/Wurzel hat man bei MADDs den Nachteil, nur sehr schwer (aufwendig) überhaupt korrekt gerundete Resultate herauszubekommen (0,5 ulp), mit FMA ist das einfach eine zusätzliche Newton-Markstein-Iteration von der letzten Näherung mit 1 ulp. Wenn man das mit MADD macht, ändert sich am Resultat nichts mehr, man bleibt bei maximal 1 ulp Abweichung, während mit FMA ein korrekt gerundetes Ergebnis garantiert werden kann. Für GPUs ist 1 ulp (das letzte Bit kann falsch sein) im allgemeinen akzeptabel. Wenn man GPGPU für irgendwelche wissenschaftlichen Anwendungen macht und die Ergebnisse überall gleich sein sollen, ist es das eventuell nicht. Deswegen baut kein CPU-Hersteller überhaupt MADDs ein.

OK, klingt plausibel. Im Wesentlichen bleibt also die höhere Genauigkeit, im SP spielt das Ganze keine Rolle.

|MatMan|
2009-09-30, 16:03:08
Es geht darum C++ auf die GPU zu kompilieren, und das funktioniert bei derzeitigen Chips nicht, weil Pointer nicht unterstützt werden.

Es fehlt einiges.
Was benötigt man denn an Hardware um Pointer zu unterstützen?

Was fehlt denn sonst noch (an Hardware-Features) um einen C++ Compiler für eine GPU zu bauen? Ist der Großteil des Aufwandes nicht reine Softwarearbeit?

Coda
2009-09-30, 16:03:44
Die Grundaussage war mir schon klar, nur ist "C++ Code läuft nativ auf dem GT300" einfach Bullshit.
Och komm schon. Es ist doch wohl offensichtlich, dass damit das Kompilat gemeint ist und nicht der Source-Code.

Was benötigt man denn an Hardware um Pointer zu unterstützen?
Man braucht einen eindeutigen globalen Speicherraum für alle Speicher.

Verstehe daher nicht, was du meinst, dass Pointer nicht auf aktuellen GPUs unterstützt werden.
Verstehst du auch was da steht? CUDA-2.0-Device-Code kann KEINE Pointer verwenden und darum auch keine Klassen, keine virtuellen Funktionen und auch sonst nichts von C++. Das ist ein Faktum.

|MatMan|
2009-09-30, 16:08:27
Man braucht einen eindeutigen globalen Speicherraum für alle Speicher.
Das heißt man müsste zwischen den Clustern/Warps/... Threads? synchroniseren?! Das killt doch total die Performance :confused:

Coda
2009-09-30, 16:08:53
Wieso muss man das? Es gibt weiterhin local storage. Der wird nur wahrscheinlich in den VRAM entsprechend eingeblendet. Bei Zugriffen von anderen Threads auf diesen Speicherbereich müsste man synchronisieren, vorher nicht.

Natürlich ist es klar, dass man seine C++-Programme weiterhin entsprechend auslegen muss, damit sie gute Performance auf einer GPU zeigen.

|MatMan|
2009-09-30, 16:13:03
Ja wenn/da der local storage nicht zum globalen Speicherraum gehört. Aber was ist mit L1 und L2 Cache?

Oder wo liegt das Problem/die Schwierigkeit einen globalen Speicherraum umzusetzen?

Coda
2009-09-30, 16:13:56
Ja wenn/da der local storage nicht zum globalen Speicherraum gehört.
Doch, das tut er dann.

Aber was ist mit L1 und L2 Cache?
Caches sind doch ohnehin transparent.

Oder wo liegt das Problem/die Schwierigkeit einen globalen Speicherraum umzusetzen?
Man braucht MMUs in den Clustern und Synchronisation innerhalb der GPU.

Neocroth
2009-09-30, 16:18:24
Verstehst du auch was da steht? CUDA-2.0-Device-Code kann KEINE Pointer verwenden und darum auch keine Klassen, keine virtuellen Funktionen und auch sonst nichts von C++. Das ist ein Faktum.

ups, verlesen. Mein Fehler :redface:

Gast
2009-09-30, 16:26:51
Eine GTX285 läuft nur mit 1,476 GHz, der ursprüngliche GT200 sogar nur mit 1,3 GHz ;)

OK, falsch im Kopf gehabt. :(

Sogar der Vergleich zu einer G92b würde nichts bringen, die haben ~1.8 GHz Shadertakt.

Godmode
2009-09-30, 16:31:17
Der Die-Shot auf der Hauptseite von Nvidia könnte wohl schon GT300 sein?

http://www.nvidia.com/page/home.html

MuLuNGuS
2009-09-30, 16:39:02
Die Grundaussage war mir schon klar, nur ist "C++ Code läuft nativ auf dem GT300" einfach Bullshit.


natürlich läuft das c++ kompilat "nativ" auf der gpu, sagt doch keiner das die gpu c++ wie ein interpreter abhandelt.

AnarchX
2009-09-30, 17:08:33
Der Die-Shot auf der Hauptseite von Nvidia könnte wohl schon GT300 sein?

http://www.nvidia.com/page/home.html

Viel zu wenige SPs, das ist G92(b): http://www.notebookcheck.com/typo3temp/pics/f268cbaa7f.jpg

Godmode
2009-09-30, 17:28:43
Viel zu wenige SPs, das ist G92(b): http://www.notebookcheck.com/typo3temp/pics/f268cbaa7f.jpg

Habs mir nicht so genau angschaut, da ich da sowiso nix erkenne, aber du hast schon recht!

Undertaker
2009-09-30, 19:35:08
Nein, aber trotzdem ist das eine Überraschung. Damit wird GT300 auch nur 50% mehr Bandbreite haben wie der ach so Bandbreitenlimitierte Cypress. Und GT300 soll ja auch ein Stück schneller werden.

Wäre 50% Mehrleistung zu Cypress nicht schon weit mehr, als man überhaupt so erwartet? Wenn die Bandbreite wirklich limitiert und beide ähnlich effizient damit umgehen, hat der GT300 mit 50% mehr Luft nach oben doch ein sehr nettes Polster...

dildo4u
2009-09-30, 19:39:21
Wäre 50% Mehrleistung zu Cypress nicht schon weit mehr, als man überhaupt so erwartet? Wenn die Bandbreite wirklich limitiert und beide ähnlich effizient damit umgehen, hat der GT300 mit 50% mehr Luft nach oben doch ein sehr nettes Polster...
Vorallem kann NV diesmal "dank" 384bit,viel länger beim Preise senken mithalten.
Wenn NV bei 500$ einsteigt ist AMD schon extrem unter Druck,selbst wenn die Karte "nur" 30-40% schneller ist.

Gast
2009-09-30, 19:40:15
Es ist auf jedenfall lobenswert das Nvidia jetzt Schluß mit den unsäglichen Spekulationen macht und den Usern sagt, ja wir haben eine D3D11 Chip und wann ungefähr mit ihm zu rechnen ist. Ich werde auf jedenfall jetzt auf Nvidias Anwort auf die 5xxx Reihe warten und mich dann entscheiden. Sieht aber schwer danach aus das es nach 1 1/2 Jahren Ati zurück zu Nvidia geht.

tombman
2009-09-30, 19:53:08
Noch habens gar nix gesagt :)

w0mbat
2009-09-30, 19:53:43
Wo hat NV Schluss mit den Spekus gemacht und wer hat daran gezweifelt dass die einen DX11 Chip haben? Vor allem, wo sagten sie wann er kommt?

Der_Korken
2009-09-30, 19:54:34
Eigentlich sind 384Bit SI gar nicht mal so dumm. Es wurde ja schon gesagt, dass man im Vergleich zum RV870 immer noch 50% mehr rausholen kann. Außerdem hält man sich damit das 512bit-SI für einen möglichen GT400 (oder wie auch immer der nächste High-End-Chip heißt) frei, denn ich glaube nicht, dass in naher Zukunft viel schnellerer Speicher erscheint als momentan verfügbar ist. Mit einem 512bit-SI hätte man bereits jetzt das Pulver verschossen und läuft wie beim GT200 Gefahr, viel Geld bei den Produktionskosten zu verlieren.

reunion
2009-09-30, 20:00:49
Damit kann man GT300 ja schon sehr gut abschätzen:

~650/1700/1200
512 SPs FMA
128 TMUs
48 ROPs
384bit SI
1.5GB GDDR5

Macht also:

1.74TFLOPs
83,2GTex/s
31,2GPix/s
230GB/s

Im Vergleich dazu GT200b:

650/1476/1242
240SPs MADD + MUL
80 TMUs
32 ROPs
512bit SI
1GB GDDR3

1.062TFLOPs
52GTex/s
20.8GPix/s
159GB/s

Natürlich kann man ev. Verbesserungen der Effizienz hier nicht berücksichtigen, und außerdem hat GT300 durch das wegfallen der MUL die leichter auszulastenden ALUs.

AnarchX
2009-09-30, 20:08:45
Wodurch auch klar wird, warum NV eine Dual-GPU-SKU benötigt.

Ausserhalb von D3D11- und D310.1-Titeln oder vielleicht 8xMSAA Benchmarks wird es da wohl eher schwierig gegenüber der GTX 285 einen Faktor 2 zu erreichen.

Undertaker
2009-09-30, 20:13:43
Wie sind denn die Auswirkungen der verbesserten Caches etc. zu bewerten? Und wenn das MUL bisher kaum genutzt wurde, wäre die Steigerung ja doch >2?

edit: Reunion hats ja schon geschrieben...

dildo4u
2009-09-30, 20:13:50
Damit kann man GT300 ja schon sehr gut abschätzen:

~650/1700/1200
512 SPs FMA
128 TMUs
48 ROPs
384bit SI
1.5GB GDDR5

Macht also:

1.74TFLOPs
83,2GTex/s
31,2GPix/s
230GB/s

Im Vergleich dazu GT200b:

650/1476/1242
240SPs MADD + MUL
80 TMUs
32 ROPs
512bit SI
1GB GDDR3

1.062TFLOPs
52GTex/s
20.8GPix/s
159GB/s

Natürlich kann man ev. Verbesserungen der Effizienz hier nicht berücksichtigen, und außerdem hat GT300 durch das wegfallen der MUL die leichter auszulastenden ALUs.
Warum sollte die Core Takt nicht erhöt werden?Von 65 auf 55nm wurde auch erhöt.

Ailuros
2009-09-30, 20:18:03
Eine neue Architektur heisst u.a. dass man sich den neuen Daten anpasst. Zwar liegt nichts besonders falsches am obrigen, aber es laesst den Eindruck dass der Neuling nur ueber 60+% mehr Arithmetik faehig ist.

Ausserhalb von D3D11- und D310.1-Titeln oder vielleicht 8xMSAA Benchmarks wird es da wohl eher schwierig gegenüber der GTX 285 einen Faktor 2 zu erreichen.

Ich hab bis jetzt noch nichts gehoert oder gesehen dass auf deutliche 8xMSAA Leistungsteigerungen deutet; es kann alles oder gar nichts heissen denn ueber 3D ist bis jetzt nur minimal bekannt.

Warum sollte die Core Takt nicht erhöt werden?Von 65 auf 55nm wurde auch erhöt.

Weil ich NV's Taktik geil finde. Man schiebt jedem einen kleinen Fehler zu und man weiss dann genau wer was weiterleakt ROFL :D

reunion
2009-09-30, 20:19:33
Warum sollte die Core Takt nicht erhöt werden?Von 65 auf 55nm wurde auch erhöt.

Er wurde bei einer neuen Architektur von NV in der Vergangenheit aber auch schon wieder gesenkt. Mehr als max. 700Mhz würde ich nicht erwarten.

|MatMan|
2009-09-30, 20:19:33
@reunion:
Vielleicht sollte man zum besseren Vergleich beim GT200 das MUL weglassen, also 0,708 TFLOPs annehmen. (Das ist IMO eh eher Marketing als alles andere um nicht mit zu kleinen FLOP-Zahlen dazustehen.) Die Steigerung der Rechenleistung sieht sonst mit ~70% geringer aus als sie im Endeffekt ist

dargo
2009-09-30, 20:20:30
Warum sollte die Core Takt nicht erhöt werden?Von 65 auf 55nm wurde auch erhöt.
Das ist doch kaum vergleichbar. Schau dir doch die "Breite" vom GT300 an. Außerdem sind afaik 700Mhz Coretakt eh das Ziel.

Edit:
Sind die 384Bit SI schon bombensicher? Finde ich ehrlich gesagt schade. Weniger wegen der Bandbreite, vielmehr wegen der möglichen Speicherausstattung und demensprechend dem Preis.
Hatte schon fest mit 2GB Vram gerechnet. Und jetzt hat man die Wahl zwischen 1,5 und 3GB. Ersteres finde ich minimal zu knapp für mein Ziel, letzteres totaler Overkill (ich krieg ja selbst mit GTA IV @max. und 3360x2100 1xAA keine 2GB voll :D). Auch dann beim Preis. Ich meine, zusätzlich 1,5GB Vram dürften ~100-120€ Aufpreis bedeuten oder?

Edit 2:
Auf der anderen Seite - sollten die 384Bit zutreffen nehme ich mal an, dass NV dann die gleiche Schiene wie beim G80 fährt - die abgespeckte Version mit 320Bit SI. Dann wären wiederum 1,28 und 2,56GB Vram möglich. Ich hoffe nur, dass NV die Karte nicht zu stark "kastriert". Die 2,56 GB Variante könnte beim vernünftigen Preis wieder interessant werden. :)

LovesuckZ
2009-09-30, 20:35:28
Ich bin gespannt, ob man eine Live-Demo abhält. Wenn dies passieren sollte, hätte Theo recht gehabt. Wird spannend.

Sonyfreak
2009-09-30, 20:39:19
Ich bin mal gespannt, ob Nvidia auch neue BQ-Features einbaut. Eine funktionsfähige Implementation von RGSSAA wäre super. Über einen 32xAF Modus würde ich mich auch sehr freuen. Oder haben sich die Grünen eventuell sogar ganz was neues ausgedacht? :confused:

Naja ich hoffe mal auf die Präsentation. :freak:

mfg.

Sonyfreak

tombman
2009-09-30, 20:53:53
Wo würde denn eine Rede/Präsentation a ehesten enthüllt/geleaked werden?

LovesuckZ
2009-09-30, 20:55:57
Bei der Eröffnungskeynote des CEO's von nVidia auf der von nVidia geführten GPU Technologie Konferenz. Aber ich könnte mich auch irren.

/edit: Hoppla - da habe ich mich glatt verlesen. Auf nVidia.com wirst du wahrscheinlich alle Folien, Analysen etc. finden. Außerdem hat nVidia NDA Folien herausgegeben. Das sollte wohl auch in den nächsten 24h enthüllt werden.

dildo4u
2009-09-30, 20:56:01
Laut der NV Seite gibts ein öffentlichen Stream.

Get prepared for the webcast

http://www.nvidia.com/object/gpu_technology_conference.html

S940
2009-09-30, 21:02:45
Ja Danke, wissen wir. Das wurde schon ein paar mal gepostet .. mitlesen schadet nicht.

Undertaker
2009-09-30, 21:07:56
Um 10 sollte es losgehen.... :)

tombman
2009-09-30, 21:08:03
Hmm, scheiß pacific-time... -9 Stunden nervt :)

Fudzi ist sich gaaanz sicher:
http://www.fudzilla.com/content/view/15756/1/

Noebbie
2009-09-30, 21:44:31
Ich spekuliere mal damit, dass ich es dann erfahre, wenn ich in den Thread reinschaue. Einer von euch gibt mir dann den Link. :D

Ailuros
2009-09-30, 21:49:38
Ich spekuliere mal damit, dass ich es dann erfahre, wenn ich in den Thread reinschaue. Einer von euch gibt mir dann den Link. :D


GF100 Performance Table (http://computerpowertest.com/)

Godmode
2009-09-30, 21:52:13
GF100 Performance Table (http://computerpowertest.com/)

Du Pöser! :P

edit: Der Webcast müsste gleich starten!

Ailuros
2009-09-30, 21:58:49
Du Pöser! :P

edit: Der Webcast müsste gleich starten!


http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf

Godmode
2009-09-30, 22:01:00
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf

Very nice, thx :)

Ailuros
2009-09-30, 22:02:50
Very nice, thx :)

http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=1

Gipsel
2009-09-30, 22:04:58
Das zusätzliche MUL steht zur Verfügung wenn man gerade keine transzendenten Funktionen ausführt und keine Interpolation von Vertexdaten stattfindet.

Letztes ist bei GPGPU aus Prinzip nicht vorhanden, also kann man es dort auch öfter nutzen.
Ich weiß, was die Doku sagt. Ich erwähnte ja explizit, daß es laut nv meist funktionieren sollte. Trotzdem ist festzustellen, daß es in der Praxis dann doch oft aus irgendeinem Grund nicht klappt und die GTX-Karten kaum schneller als hoch getaktete G92 sind. Es gibt offensichtlich mehr Einschränkungen, als dokumentiert.

dildo4u
2009-09-30, 22:10:28
http://www.nvidia.com/object/fermi_architecture.html

NVIDIA's Fermi: Architected for Tesla, 3 Billion Transistors in 2010

http://www.anandtech.com/video/showdoc.aspx?i=3651

igg
2009-09-30, 22:12:40
Das Teil ist beeindruckend, keine Frage. Wieviel sich daraus in der Praxis für den anspruchsvollen Durchschnittsanwender & Gamer umsetzen lässt, steht auf einem anderen Blatt.

ATI hat zb mit Eyefinity gezeigt, wie wann mit wenig technischen Fortschritt aber durchdachten Anwendungsszenarien einen praktischen Mehrwert schafft.

Schneekönig
2009-09-30, 22:17:17
Alle Specs im Nvidia-Dokument soweit gelistet und viel erklärt, hat sich auch einiges bewahrheitet! Hmm, aber habe ich es übersehen oder steht da echt nichts von DirectX11 in dem Nvidia-Dokument ? Oder kann man einfach davon ausgehen ?

Sorkalm
2009-09-30, 22:17:30
Das Teil ist beeindruckend, keine Frage. Wieviel sich daraus in der Praxis für den anspruchsvollen Durchschnittsanwender & Gamer umsetzen lässt, steht auf einem anderen Blatt.

Tja, mal gucken. Nvidia scheint sehr viel auf die GPU-Computing-Karte zu setzen. Hoffentlich bleibt die 3D-Leistung dabei nicht so stark "stecken".

@Schneekönig: DirectX 11 ist für die Zielgruppe dieses Dokuments vermutlich sehr unrelevant.

Gast
2009-09-30, 22:18:06
http://www.nvidia.com/object/fermi_architecture.html

NVIDIA's Fermi: Architected for Tesla, 3 Billion Transistors in 2010

http://www.anandtech.com/video/showdoc.aspx?i=3651

also wenn das alles ist und die nichtmal mit irgendwelchen handfesten zahlen rausrücken dann kann man sich glaub ich schon vorstellen was das wird ... are you ready?

Coda
2009-09-30, 22:18:36
ATI hat zb mit Eyefinity gezeigt, wie wann mit wenig technischen Fortschritt aber durchdachten Anwendungsszenarien einen praktischen Mehrwert schafft.
Jetzt mal wirklich: Wer braucht das? In meiner Welt haben die meisten nichtmal zwei Monitore.

Nicht, dass ich es nicht gut finde, dass die Karte es unterstützen, aber ich bin echt erstaunt, dass das so viele hervorheben. Drei Monitore wäre für mich evtl. interessant, das bekomme ich mit einer normalen Karte nicht hin. Aber 6 ist schon sehr esoterisch.

tombman
2009-09-30, 22:19:24
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf
While G80 was a pioneering architecture in GPU computing, and GT200 a major
refinement, their designs were nevertheless deeply rooted in the world of graphics. The Fermi
architecture represents a new direction for NVIDIA.
:eek:

Das wars dann mit Grafikkarten für gamer- habe ich schon früher gesagt: Intel und AMD werden FUSIONierte Cpu-Gpus für die Massen und Konsolenumsetzungen bauen und Nvidia wird Spezialhardwareerzeuger für number crunshing :(

AnarchX
2009-09-30, 22:21:19
TA/TFs sind offenbar 16 Load/Store-Units gewichen. Fragt sich wieviel TMUs das entspricht und auf welchem Takt diese laufen, bei G80 bis GT21x liefen ja Teile der TPCs auf halbem Shadertakt.

mapel110
2009-09-30, 22:24:37
467mm^2 laut Anand. Knapp unter GT200.

Coda
2009-09-30, 22:25:00
Das wars dann mit Grafikkarten für gamer
Jetzt wart's doch erstmal ab. Meine Güte, für Spiele braucht man die Rechenpower doch genauso, und die Flexibilität erzeugt auch dort höhere Performance.

Wenn das Ergebnis dann enttäuschend wird, kann man immer noch jammern.

Schneekönig
2009-09-30, 22:26:25
Zitat von Nvidia:

"Fermi is 2.7x faster than GT200."

Wahnsinn!!! Kommt jetzt nur noch darauf an, bei welchen Applikationen!

S940
2009-09-30, 22:27:05
http://www.realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=1
Klingt ja nicht so rosig:
The lack of details is partially due to the fact that products based on Fermi will not be out for several months – and even this timeline is unclear.
:(

Hoffentlich meint er da nur die HPC Spezialkarten.

ciao

Alex

Ailuros
2009-09-30, 22:27:22
Es handelt sich bei all den Vorstellungen lediglich um die neuen architekturellen Aspekte des GPGPU/ computing Anteils von GF100. Wer interessiert ist, Kanter's Artikel als Beispiel ist eine sehr gute Lektuere.

Wer nicht Geduld eben bis zum naechsten Schritt.

Klingt ja nicht so rosig: :(

Hoffentlich meint er da nur die HPC Spezialkarten.
ciao

Alex

Was fuer Spezialkarten? Nochmal hoffentlich zum allerletztem Mal und ich hab es schon so oft hier in diesem Thread erwaehnt dass man es irgendwann schnallen koennte: KEINE ANSTAENDIGE VERFUEGBARKEIT VOR Q1 2010. Im Notfall nagel ich den Satz ins Thema des threads.

TA/TFs sind offenbar 16 Load/Store-Units gewichen. Fragt sich wieviel TMUs das entspricht und auf welchem Takt diese laufen, bei G80 bis GT21x liefen ja Teile der TPCs auf halbem Shadertakt.


Wie kommst Du darauf?

Gast
2009-09-30, 22:27:28
irgendwer muss doch die technolgischen fortschritte die entwickeln, die ati dann mit der nächsten generation kopieren kann. das dauert halt....

Coda
2009-09-30, 22:28:51
irgendwer muss doch die technolgischen fortschritte die entwickeln, die ati dann mit der nächsten generation kopieren kann. das dauert halt....
Was GPGPU angeht ist das leider so, ja. HD5000 ist da im wesentlichen immer noch auf G80-Niveau.

AMD muss sich im Moment aber auch auf ihr Kerngeschäft konzentrieren und das ist nunmal primär 3D-Grafik.

Aquaschaf
2009-09-30, 22:31:21
http://www.nvidia.com/content/PDF/fermi_white_papers/NVIDIAFermiArchitectureWhitepaper.pdf

Hui, das sieht sehr cool aus für GPGPU :) Ich kann es gar nicht abwarten auszuprobieren wie darauf bestimmter Code läuft. Damit haben sie nun im HPC/GPGPU-Bereich endgültig ein technologisches Monopol. Im Vergleich dazu ist RV870 ziemlich uninteressant.

dildo4u
2009-09-30, 22:31:22
Larrabee ist Flexibler oder?Kann NV mit passenden Compilern und aufs selbe Kompatibilitäts Level kommen?Wenn ja wird Intel whol grad aus allen Wolken fallen.*g*

Ailuros
2009-09-30, 22:33:57
Nagus,

Entweder Du hoerst auf zu trollen oder ich schlag Dir Deinen verdammten Schaedel ein klar oder nicht?

Larrabee ist Flexibler oder?Kann NV mit passenden Compilern und aufs selbe Kompatibilitäts Level kommen?Wenn ja wird Intel whol grad aus allen Wolken fallen.*g*

Wieso flexibler?

mictasm
2009-09-30, 22:34:09
Jetzt mal wirklich: Wer braucht das? In meiner Welt haben die meisten nichtmal zwei Monitore.

Nicht, dass ich es nicht gut finde, dass die Karte es unterstützen, aber ich bin echt erstaunt, dass das so viele hervorheben. Drei Monitore wäre für mich evtl. interessant, das bekomme ich mit einer normalen Karte nicht hin. Aber 6 ist schon sehr esoterisch.

Und dann noch unbedingt einen Monitor mit Displayport, damit 3x digital auch funktioniert. Da sollte man wirklich die Kirche im Dorf lassen. Das "neue Feature" ist nur halbherzig umgesetzt.

StefanV
2009-09-30, 22:34:48
Das ist doch der Punkt, beide haben sich irgendwelche Nischen gesucht, in denen sie stark sind und was sie können.
AMD hat sich dieses mal die Ansteuerung der Monitore gewidmet und die Anzahl an möglichen Ausgängen (deutlich) erhöht, was auch zur Folge hat, das Matrox jetzt wirklich ein gewaltiges Problem hat, nVidia hat sich mehr auf GP-Computing konzentriert.

Jetzt müssen wir nur noch abwarten und schauen, wie sich beide im RL, bei Spielen schlagen, ob hier einer wirklich so viel besser ist...

Nightspider
2009-09-30, 22:35:46
Ich glaub Universitäten werden die neuen Hauptabnehmer von Fermi. ;D

Coda
2009-09-30, 22:36:39
Larrabee ist Flexibler oder?
Kommt drauf an. Bei Larrabee muss man sich auch noch manuell darum kümmern mit Vektoren zu rechnen um die volle Performance zu bekommen. Fermi versteckt das viel eher vor einem.

Andererseits hat man dort vollwertigen virtuelle Speicherverwaltung inkl. Page-Faults. Bei Fermi ist das wohl nicht der Fall.

Gast
2009-09-30, 22:37:17
toll neben mir auf dem tisch ist eine 5870 die jetzt irgend wie ziemlich "alt" ausschaut... :(

LovesuckZ
2009-09-30, 22:37:49
TA/TFs sind offenbar 16 Load/Store-Units gewichen. Fragt sich wieviel TMUs das entspricht und auf welchem Takt diese laufen, bei G80 bis GT21x liefen ja Teile der TPCs auf halbem Shadertakt.

Laut Rys habe Fermi 16 TMUs pro Cluster...
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png

/edit: Und Fermi soll eine "hot clock domain" haben.

PHuV
2009-09-30, 22:38:04
:eek:

Das wars dann mit Grafikkarten für gamer- habe ich schon früher gesagt: Intel und AMD werden FUSIONierte Cpu-Gpus für die Massen und Konsolenumsetzungen bauen und Nvidia wird Spezialhardwareerzeuger für number crunshing :(

Jetzt warte doch erst mal ab. Wer sagt den, das nicht beides miteinander vereinbar ist? Die GT200-Serie hat doch gut bewiesen, daß beides kein Widerspruch sein muß.

Die Präsentation zeigt, daß sich ATI warm anziehen muß. Die theoretischen Werte sehen echt fett aus. Aber Bildchen malen kann jeder, die Praxis zählt. :cool: Ich habe schon zu oft erlebt, daß die Marketing-Fuzzies irgendwelche Sachen beschreiben, was nicht der Realität entspricht.

Ailuros
2009-09-30, 22:38:28
Ich glaub Universitäten werden die neuen Hauptabnehmer von Fermi. ;D

Ich bin keine Universitaet :P Ich werde mir nur so ein Ding besorgen wenn es auch anstaendige 3D Leistung und Bildqualitaet aufweisst.

Der Rest ist pure Technologie-Interesse fuer ein paar laienhafte freaks wie ich ;)

mictasm
2009-09-30, 22:38:31
toll neben mir auf dem tisch ist eine 5870 die jetzt irgend wie ziemlich "alt" ausschaut... :(

lol, und total überraschend... aber trotzdem erstmal abwarten.

tombman
2009-09-30, 22:39:11
http://www.abload.de/img/fermimtxw.jpg (http://www.abload.de/image.php?img=fermimtxw.jpg)

:)

PHuV
2009-09-30, 22:41:03
Aha, ich wußte es, der Film war nur eine Vorbereitung für die Realität. ;)

igg
2009-09-30, 22:42:38
Hm, Nvidia spricht also von 2010 (zumindest in dem AnandTech Artikel). Also wirds wohl nichts mehr mit Dezember.

Ailuros
2009-09-30, 22:44:31
Laut Rys habe Fermi 16 TMUs pro Cluster...
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png

/edit: Und Fermi soll eine "hot clock domain" haben.

Moment *vom Hocker fall* 256TMUs? Na dann gute Nacht bei der Bandbreite pfffff

Nightspider
2009-09-30, 22:44:41
Passt vllt ganz am Rande auch zum Thema:

Nvidia liebt die Filmindustrie
Sony Pictures Imageworks nutzt Nvidia Quadro Grafikchips

http://hartware.net/news_47698.html

AnarchX
2009-09-30, 22:46:05
Laut Rys habe Fermi 16 TMUs pro Cluster...
http://www.beyond3d.com/images/reviews/gf100-arch/gf100-big.png

Was aber auch nur eine Vermutung sein könnte. 256 TMUs @ 650MHz wäre doch eher Overkill für die verfügbare Rechenleistung.


/edit: Und Fermi soll eine "hot clock domain" haben.
... gleichbedeutend mit der Shadertakt.

Coda
2009-09-30, 22:47:40
Moment *vom Hocker fall* 256TMUs? Na dann gute Nacht bei der Bandbreite pfffff
Ich habe irgendwie das Gefühl, dass man TMUs und diese Load/Store-Units nicht gleichsetzen kann.

LovesuckZ
2009-09-30, 22:47:47
Hm, Nvidia spricht also von 2010 (zumindest in dem AnandTech Artikel). Also wirds wohl nichts mehr mit Dezember.

Nein, der Autor spricht von breiter Verfügbarkeit. Es ist also noch ungewiss, ob man dieses Jahr noch eine Karte kaufen kann.

dildo4u
2009-09-30, 22:48:27
Folien wo man die Transistoranzahl mit der Konkurrenz vergleicht (HÄ? Sonst noch Schmerzen nVidia?)

Ich sehe im Nvidia pdf nur G80 und GT200,besser mal runter kommen und den Ragemodus abschalten.

ScottManDeath
2009-09-30, 22:48:36
Kommt drauf an. Bei Larrabee muss man sich auch noch manuell darum kümmern mit Vektoren zu rechnen um die volle Performance zu bekommen. Fermi versteckt das viel eher vor einem.

Andererseits hat man dort vollwertigen virtuelle Speicherverwaltung inkl. Page-Faults. Bei Fermi ist das wohl nicht der Fall.




Secondly, fine grained exception handling has been added. Previously there was no real exception handling. Now, each individual vector lane (which Nvidia calls a thread) can trigger an exception handler, which is needed for the try and catch methods commonly used in C++. This is entirely non-trivial - to trigger an exception the state for the vector lane must be safely moved somewhere, so that when the exception handler starts it can inspect the state.
What is interesting is that the two features mentioned above can be cleverly combined to achieve the third major programmability change - enabling the GPU itself to make calls. The ability to save state prior to an exception can be re-used to save the caller’s state, and then the indirect branching can be used to target a function which has already been loaded into the address space. Recursive calls are supported as well, although Nvidia has not currently disclosed the ABI and calling conventions. This is a pretty substantial step forward in terms of programmability, again moving away from a simplistic GPU model towards a more full featured environment.


Damit koennte man seinen eigenen virtual memory handler fuer z.b. Clipmaps bauen, wenn das ganze uber eine API verfuegbar gemacht wird.

Ailuros
2009-09-30, 22:50:03
Ich habe irgendwie das Gefühl, dass man TMUs und diese Load/Store-Units nicht gleichsetzen kann.

Das Gefuehl hab ich auch und als ich vorgestern mit Rys sprach waren wir uns ueber 8TMUs/SM einig.

Gast
2009-09-30, 22:52:13
und vom Fermi, GeForce karten waren IMMER früher im Handle als Tesla / Quadro Karten

Dezember könnte schon hin kommen und wenn nicht halt Januar

S940
2009-09-30, 22:58:24
Mal ne blöde Frage, was bringt einem jetzt die C++ Kompatibilität ?
Hat man jetzt jahrelang an CUDA und OpenCL gebastelt, worauf nV jetzt auffällt, dass C++ doch viel besser ist ?
Hätten Ihnen ja auch früher kommen können ...

Mir ist klar, dass es natürlich jetzt verlockend ist, bestehende Apps "einfach" durch den CUDA C++ Compiler zu jagen, aber die Erfahrung lehrt, dass da immernoch genügend Pferdefüsse lauern werden ..

ciao

Alex

tombman
2009-09-30, 22:59:04
Jo, die Hoffnung stirbt zuletzt ;D

Aber, falls die echt im März mit GTX380 ankommen wollen, haben sie IMO verloren. Kein E. wartet 6 Monate :rolleyes:

Weil ansonsten kann AMD ja auch den HYPER-Chip ankündigen mit 10 Teraflops und VR-HELM support :ugly: Release 2011 ...

Ailuros
2009-09-30, 22:59:55
Der Zweck von C++? Faulen Entwicklern unter den Armen zu helfen? oooops :eek:

Gast
2009-09-30, 23:00:07
toll neben mir auf dem tisch ist eine 5870 die jetzt irgend wie ziemlich "alt" ausschaut... :(
Wenn du nur zocken willst (wie 98 % der anwender) sieht deine Karte nicht alt aus.;)

Coda
2009-09-30, 23:00:51
Mal ne blöde Frage, was bringt einem jetzt die C++ Kompatibilität ?
Hat man jetzt jahrelang an CUDA und OpenCL gebastelt, worauf nV jetzt auffällt, dass C++ doch viel besser ist ?
Hätten Ihnen ja auch früher kommen können ...
C for CUDA ist ein Subset von C++. Es war früher eben noch nicht machbar C++ zu unterstützen. Das C++ für Fermi wird wohl auch weiterhin durch den CUDA-Compiler gehen und entsprechende Annotationen (Block-Size etc.) haben müssen.

Mir ist klar, dass es natürlich jetzt verlockend ist, bestehende Apps "einfach" durch den CUDA C++ Compiler zu jagen, aber die Erfahrung lehrt, dass da immernoch genügend Pferdefüsse lauern werden ..
Bestehende Apps werden nicht auf CUDA portiert werden. Das ergibt auch keinen Sinn.

Es geht darum es Entwicklern für neue Projekte einfacher zu machen, indem man eine voll objektorientierte Sprache unterstützen kann.

Aquaschaf
2009-09-30, 23:02:45
Mal ne blöde Frage, was bringt einem jetzt die C++ Kompatibilität? Hat man jetzt jahrelang an CUDA und OpenCL gebastelt, worauf nV jetzt auffällt, dass C++ doch viel besser ist?

"C for CUDA" wird erweitert. Bereits geschriebene Anwendungen laufen genauso, sollten für die neuen Karten aber noch einmal kompiliert werden. Und OpenCL wird natürlich weiter unterstützt. Wo ist das Problem?

Mir ist klar, dass es natürlich jetzt verlockend ist, bestehende Apps "einfach" durch den CUDA C++ Compiler zu jagen, aber die Erfahrung lehrt, dass da immernoch genügend Pferdefüsse lauern werden ..

Das zu tun wäre genauso hirnrissig wie eine sequentielle für x86 kompilierte Anwendung auf Larrabee auszuführen.

Ich würde sagen ein 1A PR-Ablenkungsmanöver. Wenn das mal nicht in die Hose geht.

Bei mir funktioniert es ;) Meine nächste Karte kaufe ich genauso in Hinsicht auf GPGPU wie auf Spiele. Etwas RV870-basiertes wird es nun aller Wahrscheinlichkeit nicht werden. Und das wäre nicht anders wenn man in diesem Whitepaper die Hälfte der Architekturverbesserungen weglassen würde.

Nightspider
2009-09-30, 23:06:58
Abwarten. Noch steht nichts fest. Vielleicht kommen die Karten auch im Dezember.

Die Yield-Raten sind nach Angaben Nvidia längst nicht so schlecht wie die Presse behauptet.

Gast
2009-09-30, 23:07:02
noch ein mal, 2010 wurde NUR für Fermi genannt (Tesla/Quadro zeugs)

Die normalen GeForce Karten waren immer einiges früher auf dem Markt!

S940
2009-09-30, 23:07:36
"C for CUDA" wird erweitert. Bereits geschriebene Anwendungen laufen genauso, sollten für die neuen Karten aber noch einmal kompiliert werden. Und OpenCL wird natürlich weiter unterstützt. Wo ist das Problem?
Mein Problem ist, dass ich mich frage, wieso nV den CUDA Umweg nahm, und nicht gleich an C++ gebastelt hat. Sooo schlimm schauts im Whitepaper ja nicht aus. Ein paar Caches, Kohärenz ...

Wenn dahinter natürlich Riesenanstrengungen liegen, dann seh ich selbstverständlich ein.

Aber wenn nicht dann :confused:

Thx an Coda für die Antwort.

ciao

Alex

Ailuros
2009-09-30, 23:08:08
noch ein mal, 2010 wurde NUR für Fermi genannt (Tesla/Quadro zeugs)

Die normalen GeForce Karten waren immer einiges früher auf dem Markt!

Es ist ein und das selbe. Fermi/GF100/GeForce 380.

Coda
2009-09-30, 23:08:10
Mein Problem ist, dass ich mich frage, wieso nV den CUDA Umweg nahm, und nicht gleich an C++ gebastelt hat.
Weil die GPU es nicht konnte. Und nein, es sind dafür nicht nur ein paar Caches nötig. Da muss man schon R&D investieren.

Zatoichi
2009-09-30, 23:10:07
Solange es keine Benches von Spielen gibt für mich uninteressant. Die Präsentation war ja auch wohl eher für Fachleute als für Spieler gedacht.

dildo4u
2009-09-30, 23:10:28
Mein Problem ist, dass ich mich frage, wieso nV den CUDA Umweg nahm, und nicht gleich an C++ gebastelt hat. Sooo schlimm schauts im Whitepaper ja nicht aus. Ein paar Caches, Kohärenz ...

Wenn dahinter natürlich Riesenanstrengungen liegen, dann seh ich selbstverständlich ein.

Aber wenn nicht dann :confused:

ciao

Alex
Diese umfangreiche Kompatibilität kostet Transistoren ganz einfach,G80 und GT200(teils Zwischenschritt) war noch Spielzeug.Der Markt für GPU's in die Richtung die Fermin jetzt geht,hat sich imo erst in den letzten 2 Jahren erweitert.

Aquaschaf
2009-09-30, 23:12:07
Mein Problem ist, dass ich mich frage, wieso nV den CUDA Umweg nahm, und nicht gleich an C++ gebastelt hat. Sooo schlimm schauts im Whitepaper ja nicht aus. Ein paar Caches, Kohärenz ...

Ich glaube du hast eine leichte Verwirrung in Hinsicht auf den Begriff 'CUDA' :) CUDA ist keine Programmiersprache, sondern das was bei Nvidia sowohl hinter OpenCL als auch "C for CUDA" werkelt.

Und "so einfach" ist es auch nicht. Außerdem sind das wirklich Features die zwar für GPGPU interessant sind, für Grafikbeschleunigung aber gar keine Vorteile mehr bringen.

Zatoichi
2009-09-30, 23:12:57
hach es ist toll wenn ein ein treuer nvidia Moderator immer wieder negative Postings löscht.. es lebe die Meinugsfreiheit. HURRA!

Was?? Es gibt hier Nvidia Moderatoren?? Geh schlafen, ist wohl besser.

S940
2009-09-30, 23:13:27
Weil die GPU es nicht konnte. Und nein, es sind dafür nicht nur ein paar Caches nötig. Da muss man schon R&D investieren.
Ja lol, das ist klar, aber wieso haben sie die GPU nicht fråher umgekrempelt ?
Der ganze CUDA Stack war auch nicht ohne R&D zu haben.

Aber gut ... wenn der C++ da jetzt drauf aufbaut, und CUDA nicht nutzlos wird, ok ;-)

Ist dann wohl ein ähnlicher Schritt wie von C -> C++, oder ?

Edit @Aquaschaf:
Ja mit CUDA meine ich C for CUDA ;-)

ciao

Alex

LovesuckZ
2009-09-30, 23:14:03
Vorallen hat nVidia überhaupt keine Aussagen über Spiele-Leistung gemacht. Man kann also sagen, es ist ein Paperlaunch, der überhaupt nicht auf den Gamingmarkt abzielt.

Aus dem Block von nVidia:
Most striking, Oak Ridge National Laboratory will build a new supercomputer using NVIDIA GPUs based on the Fermi architecture that will be 10 times more powerful than today’s fastest supercomputer. Wow.

Ob die 6 Monate warten wollen?

Undertaker
2009-09-30, 23:14:03
noch ein mal, 2010 wurde NUR für Fermi genannt (Tesla/Quadro zeugs)

Die normalen GeForce Karten waren immer einiges früher auf dem Markt!

Das sollten sie zumindest, sobald der RV870 und auch der RV840 verfügbar sind, sogar dringendst. Im Bereich >150€ hat man sonst schlicht kein adäquates Gegenstück in der Hand, ein Juniper dürfte in der Produktion nur den Bruchteil eines GT200(b) kosten...

Herstellerunabhängig sollte man auf einen baldigen und sehr überzeugenden GT300 hoffen, damit die Konkurrenz im GPU-Bereich nicht verloren geht - mit all den zu befürchtenden Folgen.

igg
2009-09-30, 23:15:16
Es ist ein und das selbe. Fermi/GF100/GeForce 380.
vor einigen wochen hat man noch von g300 und gt300 geschrieben

Aquaschaf
2009-09-30, 23:16:08
Ja lol, das ist klar, aber wieso haben sie die GPU nicht fråher umgekrempelt ?

Warum ist man den Umweg über shader model 2 gegangen, wenn man doch direkt D3D11-kompatible Karten hätte entwickeln können ;)

Coda
2009-09-30, 23:16:14
Ist dann wohl ein ähnlicher Schritt wie von C -> C++, oder ?
Nein, C wird bisher auch nicht vollständig unterstützt. Es ist noch mehr.

master_blaster
2009-09-30, 23:17:36
Was?? Es gibt hier Nvidia Moderatoren?? Geh schlafen, ist wohl besser.
Wenn du nach dem Lesesn dieses Threads nicht weisst, wen er meint solltest du vllt. besser schlafen gehen.

PS: Warum sollten die Consumerkarten zuerst erscheinen? Bei einer GPGPU empfinde ich es als logischer, nicht zuerst die Heimanwender zu beliefern ...

dildo4u
2009-09-30, 23:18:14
PS: Warum sollten die Consumerkarten zuerst erscheinen? Bei einer GPGPU empfinde ich es als logischer, nicht zuerst die Heimanwender zu beliefern ...
War bei NV bis jetzt halt so.