PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

AnarchX
2009-01-06, 09:39:19
GTX 480:
http://img59.imageshack.us/img59/7622/4801bigg.jpg
http://www.hexus.net/content/item.php?item=22654


GTX 470:
http://thumbnails25.imagebam.com/7017/381b8270166808.gif (http://www.imagebam.com/image/381b8270166808) http://thumbnails13.imagebam.com/7017/f8655670166809.gif (http://www.imagebam.com/image/f8655670166809)
http://www.xtremesystems.org/forums/showpost.php?p=4266128&postcount=1514


The wait is almost over! The world's fastest PC graphics gaming technology will be unveiled at PAX 2010. Visit: www.nvidia.com/paxeast
http://twitter.com/NVIDIAGeForce

GeForce GF100 Architektur-Previews:
http://img42.imageshack.us/img42/9618/d11ob.jpg
http://img94.imageshack.us/img94/5245/50338730.jpg
(TMUs @ Shadertakt/hot clock? (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170&page=329))

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/bericht_nvidia_gf100_technische_details/
http://www.pcgameshardware.de/aid,703239/Fermi-GF100-im-Technik-TUeV-Kommentare-zu-Architekturdetails-Bildqualitaet-und-Benchmarks/Grafikkarte/Test/

http://www.anandtech.com/video/showdoc.aspx?i=3721
http://www.pcper.com/article.php?aid=858
http://www.firingsquad.com/hardware/nvidia_gf100_architecture_overview/
http://www.guru3d.com/article/nvidia-gf100-fermi-technology-preview/
http://alienbabeltech.com/main/?p=14600
http://www.hothardware.com/News/NVIDIA-GF100-Architecture-and-Feature-Preview

http://img56.imageshack.us/img56/8522/cuda2220071013yq2.jpg (http://imageshack.us)

http://img69.imageshack.us/img69/7351/nvidiafermidieshot53990.jpg (http://img69.imageshack.us/i/nvidiafermidieshot53990.jpg/)

nahezu gesicherte Fakten:

40nm Fertigung @ TSMC
GDDR5 @ >256-Bit

Spekulationen:

grundlegende Veränderungen im Bereich des Shadercores gegenüber vorherigen GeForce-GPUs
intelligentes Powermanagement

3.0B transistors @ TSMC, 40nm
2 x 16-way FMA SM, IEEE754-2008, 16 SMs
Each SM has four SFUs
384-bit GDDR5
~650/1700/4200MHz (base/hot/mem)
8 pixels clock address and filter per SM
48 ROPs, 8Z/C clock
64KiB L1/smem per SM (48/16 or 16/48 per clock config, not user programmable as far as I know, at least not yet)
Unified 768 KiB L2 (not partitioned now, so a write to L2 from any SM is visible to all others immediately)
Unified memory space (hardware TLB, 1TiB address, 40-bit if my brain's working)
http://forum.beyond3d.com/showthread.php?t=55289

http://www.nvidia.com/object/fermi_architecture.html

Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010.
http://www.nvidia.com/object/io_1258360868914.html

GeForce 300 Teaser:
http://img29.imageshack.us/img29/4835/435992197730426.jpg (http://img29.imageshack.us/i/435992197730426.jpg/)
http://twitpic.com/pyhdf

GF100 supports a brand new 32x anti-aliasing mode for ultra high-quality gaming!
http://twitter.com/NVIDIAGeForce

Fun Fact of the Week: GeForce GTX 480 and GeForce GTX 470 will be the names of the first two GPUs shipped based on our new GF100 chip!
http://twitter.com/NVIDIAGeForce

We received word from an Nvidia partner that Fermi will go into production starting in the 3rd week of February, and be available in "low quantities" starting mid-march.
http://www.tomshardware.com/news/nvidia-fermi-gpu,9420.html

Fermi Press Event @ CES 2010:
http://vimeo.com/8754848
http://vimeo.com/8754676
http://vimeo.com/8754728
http://vimeo.com/8754813
http://vimeo.com/8754874

Fermi @ Tesla 20:
http://www.nvidia.com/object/io_1258360868914.html
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/november/nvidia_tesla-fermi-grafikkarten/
http://www.heise.de/newsticker/meldung/SC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html

http://i47.tinypic.com/hry4ae.jpg
http://www.nvidia.com/docs/IO/43395/BD-04983-001_v01.pdf

El-Philippe
2009-01-09, 02:44:11
Wie funktioniert das eigentlich mit der CUDA unterstützung ?
Braucht man für da auch wie bei Direct X angepasste Hardware, oder erledigt das der Treiber, und ist ein jetzt auch zb. ein G80 CUDA 2.0 kompatibel ?

Coda
2009-01-09, 17:50:39
CUDA 2.0 kompatibel ist G80, das ist primär eine Verbesserung der API ggü. 1.1. Was er allerdings nicht kann sind bestimmte Features (die waren auch schon in 1.1 drin), z.B. atomic adds.

Gast
2009-01-09, 18:47:42
Ich hoffe doch mal DX11 ist an Bord. Die Karte wird dann der Nachfolger meiner GTX260. Und dazu noch Windows 7*g*. Schade das man die Zeit nicht vordrehen kann. Derweil kram ich mal meine alten PCGames und Gamestars raus aus dem Jahre 1995 und bin erstaunt wie geil sich alles verändert hat.

PEACE

Ailuros
2009-01-09, 19:09:36
Ich hoffe doch mal DX11 ist an Bord.

Steht im Threadtitel und bis jetzt hat es wohl noch keiner bezweifeln wollen oder?

Gast
2009-01-10, 07:19:00
Ein guter Leistungssprung ist wichtig, Dx11,12,13 oder shader 5 sind nur Werbefeatures für Unwissende

boxleitnerb
2009-01-10, 09:37:02
Würd ich nicht sagen. Früher hab ich auch gedacht, dass SM3 nicht so wichtig ist, die X800XT war sogar oft schneller als die 6800 Ultra. Bringt mir nur nix, wenn die Spiele gar nicht mehr starten. Klar wechseln die meisten bis dahin ihre Karte, aber das muss nicht immer so sein. Und die alte Karte könnte in einen Zweitrechner wandern, der dann bei ner LAN-Party nichtmal niedrige Settings fahren kann, weil das Spiel ohne SM3/DX11/whatever nicht startet.

Kommt aber immer drauf an, wie die Technik in der Industrie unterstützt wird. PS1.4 war wirklich eine Totgeburt auf der 8500, obwohl es ein guter Schritt auf 2.0 war. Beeindruckend, aber wenns dann nur Max Payne (noch was?) unterstützt nicht als Argument zu gebrauchen.

=Floi=
2009-01-10, 10:07:43
Die entwickler müssen ja auch die spiele programmieren und dafür brauchen sie eben hardware die das kann. Am G80 sieht man auch sehr eindrucksvoll, dass die lebensdauer so einer karte durchaus länger sein kann. Features sind doch sehr wichtig.
Was du höchstens anprangern kannst ist die dauer bis es wirklich viele spiele unterstützen. Dank der konsolen dauert es aber wesentlich länger.

Gast
2009-01-10, 10:57:24
Was wird das Teil wohl an Strom ziehen wenn es auf einer 40 nm Linie produziert wird (rein theoretisch jetzt und geschätzt , wenn man sich die Vergangenheit anschaut, wie das mit NV-Karten so war...) ? Das was sie mit 40 nm sparen, kompensieren sie ja wieder mit neuen Features.
Wie groß scheint da das neue DirectX11-Instruktionsfeld im Chip zu sein ?

MfG

Ailuros
2009-01-11, 18:22:14
Was wird das Teil wohl an Strom ziehen wenn es auf einer 40 nm Linie produziert wird (rein theoretisch jetzt und geschätzt , wenn man sich die Vergangenheit anschaut, wie das mit NV-Karten so war...) ? Das was sie mit 40 nm sparen, kompensieren sie ja wieder mit neuen Features.


Wenn ich das Konzept hinter GT3x0 richtig verstanden habe, sollte das Leistung pro Watt Verhaeltnis ziemlich gut sein.

w0mbat
2009-01-16, 22:44:40
Nvidia GT300 mit DirectX 11 ab Q4/2009 (http://www.hardware-infos.com/news.php?news=2663)

Aus der Spekulation ist nun Gewissheit geworden: Zumindest bestätigte eine Nvidia-nahe Quelle uns gegenüber, dass der GT300 zum einen für das vierte Quartal 2009 weiter vorgesehen sei und zum anderen DirectX 11 unterstützen werde.
Damit nicht genug, ergänzte man, dass der Chip wie zuvor das GT21x-Lineup in 40 Nanometer breiten Strukturen gefertigt würde.

Angesprochen auf die evolutionären Neuerungen des Chips, verriet man uns, dass beispielsweise die Recheneinheiten keine Single Instruction Multiple Data (SIMD)-Einheiten mehr wären, sondern Multiply Instruction Multiple Data (MIMD)-Einheiten, die Clusterorganisation selber dynamischer würde und dass man das Prinzip der Crossbar aufgegriffen hätte und neue Buffer hinzugefügt hätte. Ferner soll ein stark verändertes Power- und Speichermanagement zum Einsatz kommen.
Intern soll es schon erste, lauffähige Karten zu Testzwecken geben, die allerdings natürlich nur mit einem Bruchteil der Taktfrequenz betrieben werden, wie sie später im Handel vorzufinden sein werden.

GT300, so verriet man uns abschließend, ist der "wahre" Nachfolger des G80, während der GT200 im weitesten Sinne nichts weiter als ein breiterer G80 mit verbesserten GPGPU-Computing-Eigenschaften sei.
Man darf also gespannt sein, was Nvidias erster DirectX-11-Chip imstande sein wird, zu leisten.


Was sagen die Experten dazu?

LovesuckZ
2009-01-16, 22:47:28
Nichts.
Ich bezweifel, dass die Jungs dort irgendwelche "Firmennahenquellen" haben.

Gast
2009-01-16, 23:00:27
Sehe ich genauso. Als hätten gerade die Nvidia- oder AMD-nahe Quellen. Lachhaft.

KonKorT
2009-01-17, 01:37:59
Ich kann Euch versichern, dass all' die in der News genannten Infos aus seriösen, herstellernahen Quellen kommen.

Ich kann Eure Skepsis sehr gut nachvollziehen. Warum gerade so viele Insider den Kontakt in letzter Zeit zu Hardware-Infos gesucht haben, kann ich mir selbst nur so erklären, dass die Seite zurzeit die ideale Plattform bietet. Sie ist nicht riesengroß, aber doch dem ein oder anderen geläufig.

Und wie das im Leben ist: Hat man dann mal einen guten Kontakt erst einmal ausfindig gemacht, sind der zweite und dritte etc. nicht weit.

samm
2009-01-17, 02:48:40
((Psst, MIMD steht für multiple instruction etc. ;) ))

Ailuros
2009-01-17, 07:29:17
Ich kann Euch versichern, dass all' die in der News genannten Infos aus seriösen, herstellernahen Quellen kommen.

Ich kann Eure Skepsis sehr gut nachvollziehen. Warum gerade so viele Insider den Kontakt in letzter Zeit zu Hardware-Infos gesucht haben, kann ich mir selbst nur so erklären, dass die Seite zurzeit die ideale Plattform bietet. Sie ist nicht riesengroß, aber doch dem ein oder anderen geläufig.

Und wie das im Leben ist: Hat man dann mal einen guten Kontakt erst einmal ausfindig gemacht, sind der zweite und dritte etc. nicht weit.

Ich mach es mal einfach:

Ferner soll ein stark verändertes Power- und Speichermanagement zum Einsatz kommen.

Ich wuerde mal gerne eine Erlaeuterung zum obrigen lesen; ob oeffentlich oder via PM ist eigentlich egal.

Am Ende was Ihr in dem newsblurb gepostet habt ist alles was bisher schon seit geraumer Zeit hier in diesen Foren geschrieben wurde. Die Aufforderung liegt dann eben darin dass man auch wissen sollte was hinter jedem buntem "buzzword" genau steckt.

Gast
2009-01-17, 10:50:19
Am Ende was Ihr in dem newsblurb gepostet habt ist alles was bisher schon seit geraumer Zeit hier in diesen Foren geschrieben wurde.

Gut erkannt!
Diese Website sammelt nur Gerüchte/Spekulationen aus irgendwelchen Foren und dichtet die dann herstellernahen Quellen an.

igg
2009-01-17, 11:49:27
Although Nvidia has been slated for its GPU rebranding more than once, we've been informed by our sources that the company is now working on an entirely new range of graphics cards which are very different to the products currently in the market.

From what we've been told, the new cards are going to look very different and for those that were around a few years ago, this is meant to be something of a blast from the past. Much in the way that Intel went back to its Pentium III roots to create the Core 2 series of processors, Nvidia has taken a long hard look at what it did in the past. (Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11479&Itemid=34))
Ob das auch den GT300 betrifft?

MuLuNGuS
2009-01-17, 12:24:26
(Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11479&Itemid=34))
Ob das auch den GT300 betrifft?

otwt == only time will tell

KonKorT
2009-01-17, 12:34:50
Ich wuerde mal gerne eine Erlaeuterung zum obrigen lesen; ob oeffentlich oder via PM ist eigentlich egal.

Habe Dir eine PN geschickt.


Gut erkannt!
Diese Website sammelt nur Gerüchte/Spekulationen aus irgendwelchen Foren und dichtet die dann herstellernahen Quellen an.

Dass sich die genannten Informationen oftmals ein wenig mit denen überschneiden, die zuvor als Gerücht in Foren etc. auftauchten, hängt damit zusammen, dass ich nach diesen explizit nachfragen kann.

Aber ich denke es sind auch einige ganz neue Sachen dabei, wie zum Beispiel dass die Clusterorganisation dynamischer wird, das Prinzip der Crossbar aufgegriffen wurde, neue Buffer hinzugefügt wurden und ein neues Speichermanagement zum Einsatz kommt. Korrigiert mich, wenn ich falsch liege, aber das habe ich bisher noch in keinem Forum gelesen.

Die Befugnis, diese Informationen zu erläutern, habe ich (noch) nicht.

An Eurer Stelle würde ich einfach mal froh sein, dass endlich einmal eine deutsche Hardware-Seite versucht, Insiderinfos vor Fudzilla, Expreview, The Inquirer und co. auszugraben. Stattdessen wird dann alles in Frage gestellt.
Gut, ich verstehe das, wie ich schon schrieb. Was soll ich aber Euch noch dazu sagen? Entweder Ihr glaubt es oder Ihr glaubt es eben nicht. Später werden wir es alle sehen.

Ich betreibe das Projekt als Hobby. Ich muss damit nicht mein Brot verdienen und habe auch keine Banner auf der Seite, die pro Klick bezahlt werden.

GeneralHanno
2009-01-17, 12:43:34
auf jeden fall wird der GT300 ein weiterer schritt in richtung GPGPU (a la larrabee) sein (halt für CUDA 3.0 wichtig). das überarbeitete speichermanagement klingt nach dual-GPU @ shared-ram ...

Gast
2009-01-17, 12:51:50
Dass sich die genannten Informationen oftmals ein wenig mit denen überschneiden, die zuvor als Gerücht in Foren etc. auftauchten, hängt damit zusammen, dass ich nach diesen explizit nachfragen kann.



Und andere Webseiten können das nicht?
Solange deine "Infos" nicht von anderen Seiten unabhängig bestätigt werden bleibe ich dabei, daß du dir diese Gerüchte selbst aus Forenspekulationen zusammenbastelst und sie angeblichen herstellernahen Quellen andichtest.

dargo
2009-01-17, 12:54:45
das überarbeitete speichermanagement klingt nach dual-GPU @ shared-ram ...
Für mich klingt es eher nach - man will den Speicherverbrauch in Regionen bringen wo ATI heute ist. Eventuell zusätzlich effizientere Nutzung der Speicherbandbreite.

KonKorT
2009-01-17, 13:01:12
Und andere Webseiten können das nicht?
Solange deine "Infos" nicht von anderen Seiten unabhängig bestätigt werden bleibe ich dabei, daß du dir diese Gerüchte selbst aus Forenspekulationen zusammenbastelst und sie angeblichen herstellernahen Quellen andichtest.

Ich vermute das andere Webseiten nicht die Kontakte haben. Es handelt sich nämlich (logischerweise) nicht um normale Pressevertreter. Da hast Du vollkommen recht: Die wissen soetwas auf keinen Fall und werden nur ein paar Wochen vor dem Launch eingestimmt, was sie vor dem Mikro oder eben per Mail sagen/schreiben müssen.
Immer kurz vor den Launches kriegste von denen ein paar bunte Bilderchen und bestenfalls (häufig zu größeren Launches) kleine, technische Hinweise als PDF-Dokument. Wenn man da mal was über künftige Produkte erfragt, erscheint es mir, als käme immer eine vorlagengerechte Antwort zurück, die sinngemäß heißt: "Über zukünftige Produkte können wir Ihnen keine Infos herausgeben." ;)

N1truX
2009-01-17, 13:29:33
Und andere Webseiten können das nicht?
Solange deine "Infos" nicht von anderen Seiten unabhängig bestätigt werden bleibe ich dabei, daß du dir diese Gerüchte selbst aus Forenspekulationen zusammenbastelst und sie angeblichen herstellernahen Quellen andichtest.
Andere Websites machen sich nicht den Aufwand. PCGH testet alles vor sich hin und tippt Pressemitteilungen ab, genauso wie 75-90% der anderen Seiten in Deutschland. Es gibt nur wenige - oftmals weniger bekannte - Insiderseiten die an wirklich exklusive Infos kommen.

Naja BTT

Gast
2009-01-17, 13:40:25
und was sind MIMD-Einheiten jetzt genau?

Spasstiger
2009-01-17, 14:15:19
und was sind MIMD-Einheiten jetzt genau?
Multiple Instruction Multiple Data.

Der G80 und der GT200 setzen auf SIMD-Einheiten, Single Instruction Multiple Data. Beim GT200 hat man z.B. 24 Streamprozessoren pro SIMD-Einheit. D.h. auf diesen 24 Streamprozessoren kann zur gleichen Zeit auch stets nur die gleiche Operation ausgeführt werden - z.B. eine Addition - allerdings mit verschiedenen Daten.
MIMD-Einheiten können auf jedem Streamprozessor eine beliebige Operation mit beliebigen Daten ausführen unabhängig von den anderen Streamprozessoren. Dadurch können die Streamprozessoren besser ausgelastet werden.

dargo
2009-01-17, 14:19:44
Der G80 und der GT200 setzen auf SIMD-Einheiten, Single Instruction Multiple Data. Beim GT200 hat man z.B. 24 Streamprozessoren pro SIMD-Einheit. D.h. auf diesen 24 Streamprozessoren kann zur gleichen Zeit auch stets nur die gleiche Operation ausgeführt werden - z.B. eine Addition - allerdings mit verschiedenen Daten.
MIMD-Einheiten können auf jedem Streamprozessor eine beliebige Operation mit beliebigen Daten ausführen unabhängig von den anderen Streamprozessoren. Dadurch können die Streamprozessoren besser ausgelastet werden.
In der Theorie hört sich das natürlich sehr gut an. Die Frage ist nur inwieweit die SIMD-Einheiten in der Praxis "gebremst" haben?

KonKorT
2009-01-17, 14:24:34
Kann nicht sogar schon pro Streaming Multiprozessor (8 SPs) gleichzeitig dieselbe Operation ausgeführt werden? Immerhin gibt es auch Grafikchips im Nvidia-Portfolio mit nur 8 SPs.

Spasstiger
2009-01-17, 14:31:30
Kann nicht sogar schon pro Streaming Multiprozessor (8 SPs) gleichzeitig dieselbe Operation ausgeführt werden? Immerhin gibt es auch Grafikchips im Nvidia-Portfolio mit nur 8 SPs.
Hm, das kann auch sein. Hab entsprechende Dokumente bisher nicht gelesen.

Gast
2009-01-17, 14:32:52
Was sagen die Experten dazu?
MIMD?
Nvidia schafft es ja momentan schon die Einheiten fast vollständig auszulasten und betreibt dafür eigentlich schon zuviel Aufwand. Jetzt sollen sie auch noch MIMD Einheiten und noch komplexe Verwaltungslogik einbauen um vielleicht 5% Leistung rauszuholen? Das wäre Irrsinn.

Spasstiger
2009-01-17, 14:37:21
MIMD?
Nvidia schafft es ja momentan schon die Einheiten fast vollständig auszulasten und betreibt dafür eigentlich schon zuviel Aufwand. Jetzt sollen sie auch noch MIMD Einheiten und noch komplexe Verwaltungslogik einbauen um vielleicht 5% Leistung rauszuholen? Das wäre Irrsinn.
Es geht wohl um GPGPU. Beim Rendering ist der aktuelle SIMD-Ansatz natürlich völlig ausreichend, weil ja auf zigtausenden Pixel immer die gleiche Operation angewandt wird. Beim Physikberechnungen mit vielen Abhängigkeiten kann das schon ganz anders aussehen.

Sorkalm
2009-01-17, 14:48:57
Es geht wohl um GPGPU. Beim Rendering ist der aktuelle SIMD-Ansatz natürlich völlig ausreichend, weil ja auf zigtausenden Pixel immer die gleiche Operation angewandt wird. Beim Physikberechnungen mit vielen Abhängigkeiten kann das schon ganz anders aussehen.

Stellt sich zusätzlich auch noch die Frage, welche Features unter DirectX 11 auch stark von MIMD-Einheiten profitieren könnten. Immerhin wird die Architektur ja auch in diese Richtung ausgelegt sein (neben GPGPU).

Coda
2009-01-17, 14:56:08
Es geht wohl um GPGPU. Beim Rendering ist der aktuelle SIMD-Ansatz natürlich völlig ausreichend, weil ja auf zigtausenden Pixel immer die gleiche Operation angewandt wird. Beim Physikberechnungen mit vielen Abhängigkeiten kann das schon ganz anders aussehen.
Bei allem Respekt. Versteh erstmal wie G80 überhaupt funktioniert bevor du solche Aussagen wagst.

Physik hat nicht viele Abhängigkeiten, so wie es auf GPUs gerechnet wird, sonst würde es gar nicht funktionieren. Das ist auch einer der Gründe warum der PhysX-Solver nicht "perfekt" ist und auch mal was sehr schnelles durch eine Wand lässt.

Fetza
2009-01-17, 15:20:19
Physik hat nicht viele Abhängigkeiten, so wie es auf GPUs gerechnet wird, sonst würde es gar nicht funktionieren.

Läuft das nicht dem prinzip gute physikeffekte zu realisieren zuwieder?

Spasstiger
2009-01-17, 15:30:21
Bei allem Respekt. Versteh erstmal wie G80 überhaupt funktioniert bevor du solche Aussagen wagst.
Vielleicht weiß ich bald mehr. Ein Komilitone wird einen Vortrag über Feldberechnungen mit Hilfe von CUDA halten und geht dabei auch auf die Funktionsweise des G92 ein.

Physik hat nicht viele Abhängigkeiten, so wie es auf GPUs gerechnet wird, sonst würde es gar nicht funktionieren. Das ist auch einer der Gründe warum der PhysX-Solver nicht "perfekt" ist und auch mal was sehr schnelles durch eine Wand lässt.
Ich gehe ja nicht von heutiger GPU-Physik aus, sondern von zukünftiger. Und da sollte natürlich die Kollisionsabfrage und die Interaktion mit der Umgebung besser werden als heute.

Gast
2009-01-17, 16:29:50
Es geht wohl um GPGPU. Beim Rendering ist der aktuelle SIMD-Ansatz natürlich völlig ausreichend, weil ja auf zigtausenden Pixel immer die gleiche Operation angewandt wird. Beim Physikberechnungen mit vielen Abhängigkeiten kann das schon ganz anders aussehen.
Die G80-Architektur geht, wie Cuda schon "angedeutet" hat, wesentlich weiter...
Wenn NV wirklich alles auf die GPGPU Karte setzt, sollten sie spätestens mit dem Release der Karten in der Lage sein PhysX auch auf GPUs anderer Hersteller laufen zu lassen. Sonst steht ihnen eine sehr harte Zeit wegen einer massiven Fehlinvestition bevor. Im PC Markt kann sich kein Spielehersteller mehr eine Spezialbehandlung für einen GPU Hersteller erlauben (von subventionierten Projekten mal abgesehen).

Ailuros
2009-01-17, 17:34:08
MIMD?
Nvidia schafft es ja momentan schon die Einheiten fast vollständig auszulasten und betreibt dafür eigentlich schon zuviel Aufwand. Jetzt sollen sie auch noch MIMD Einheiten und noch komplexe Verwaltungslogik einbauen um vielleicht 5% Leistung rauszuholen? Das wäre Irrsinn.

Die angeblichen 5% gelten aber garantiert nicht fuer alles GPGPU hm? Von dem abgesehen MIMD hat (wie schon oefters erwaehnt) sowohl Vor- als auch Nachteile.

KonKorT,

Ich hab eine einfache Frage gestellt fuer die ich via PM eine Antwort erwartet habe. Keine Antwort auf eine so einfache Frage bestaetigt leider meinen Verdacht.

Das gute am Ende ist dass ich bis jetzt nicht auf Einzelheiten gekommen bin obwohl es wirklich kein Problem gewesen waere, trotz NDA welches erst Ende Jahres auslaeuft.

Aber ich denke es sind auch einige ganz neue Sachen dabei, wie zum Beispiel dass die Clusterorganisation dynamischer wird, das Prinzip der Crossbar aufgegriffen wurde, neue Buffer hinzugefügt wurden und ein neues Speichermanagement zum Einsatz kommt. Korrigiert mich, wenn ich falsch liege, aber das habe ich bisher noch in keinem Forum gelesen.

Das Ganze ist so generell dass es fast nichts aussagt. Mit MIMD z.B. wird die Cluster-Organisation so oder so "dynamischer".


An Eurer Stelle würde ich einfach mal froh sein, dass endlich einmal eine deutsche Hardware-Seite versucht, Insiderinfos vor Fudzilla, Expreview, The Inquirer und co. auszugraben.

Nichts persoenliches aber ich hab generell etwas gegen trash tabloid Seiten.


Ich betreibe das Projekt als Hobby. Ich muss damit nicht mein Brot verdienen und habe auch keine Banner auf der Seite, die pro Klick bezahlt werden.

Tatsaechlich. Ich haette auch nichts dagegen wenn es anders waere.

Gast
2009-01-17, 18:52:14
Die G80-Architektur geht, wie Cuda schon "angedeutet" hat, wesentlich weiter...
Wenn NV wirklich alles auf die GPGPU Karte setzt, sollten sie spätestens mit dem Release der Karten in der Lage sein PhysX auch auf GPUs anderer Hersteller laufen zu lassen.

Es liegt doch ganz alleine bei AMD, für ihre Karten PhysX Treiber zu bringen oder irre ich da?

Gaestle
2009-01-18, 13:21:01
Es liegt doch ganz alleine bei AMD, für ihre Karten PhysX Treiber zu bringen oder irre ich da?

Möglicherweise müssen auch Lizenzfragen geklärt werden und dann sitzen immer zwei Parteien am Tisch: Lizenznehmer (z.B. ATI - wenn sie es wollen) und Lizenzgeber (Nvidia - wenn sie es wollen).

Gast
2009-01-18, 13:44:17
Möglicherweise müssen auch Lizenzfragen geklärt werden und dann sitzen immer zwei Parteien am Tisch: Lizenznehmer (z.B. ATI - wenn sie es wollen) und Lizenzgeber (Nvidia - wenn sie es wollen).

AMD hat dankend abgelehnt,find ich gut

reunion
2009-01-18, 13:55:19
AMD wäre auch blöd sich darauf einzulassen. Wenn die Vergangenheit etwas gezeigt hat, dann, dass ein nicht offener Standard keine Chance hat. Würde man sich darauf einlassen wäre man nur von nV abhängig.

LovesuckZ
2009-01-18, 14:01:24
"Offener Standard"? Wundert mich, dass sich Direct3D durchgesetzt hat... :rolleyes:

reunion
2009-01-18, 14:08:31
Direct3D ist ein offener Standard. Alle Hersteller können über die Specs beraten, MS entscheidet.

LovesuckZ
2009-01-18, 14:11:09
Microsoft entscheidet - soviel zu offener Standard.
Und wo ist hier der Unterschied zum "nicht offenem Standard" PhysX?

reunion
2009-01-18, 14:16:00
Microsoft entscheidet - soviel zu offener Standard.

Irgendjemand muss entscheiden.


Und wo ist hier der Unterschied zum "nicht offenem Standard" PhysX?

Das eine Partei Kläger und Richter ist.

LovesuckZ
2009-01-18, 14:17:12
Und wo ist der Unterschied zu Direct3D? Fakt ist, Microsoft hat das letzte Wort, was in die Spezifikation aufgenommen wird. Somit kann es kein offener Standard sein.

reunion
2009-01-18, 14:18:51
Dann gibt es keinen offenen Standard laut dir - auch gut. Es sollte jedenfalls klar gewesen sein worauf ich hinaus wollte.

Coda
2009-01-18, 14:39:27
Ich glaube sogar, dass nicht nur Microsoft bei Direct3D entscheidet. Sie hören aber zumindest sehr stark auf die IHVs.

thacrazze
2009-01-18, 15:19:54
Eine Standard ist nur dann offen, wenn die Spezifikation offen zugänglich ist. Das ist weder bei Direct3D noch bei PhysX so.

Coda
2009-01-18, 15:23:44
Für die IHVs ist die Spezifikation offen zugänglich. Wer braucht die sonst noch?

Natürlich ist Direct3D kein völlig offener Standard. Man kann es trotzdem nicht mit PhysX vergleichen was das angeht. NVIDIA würde niemals auf ATI hören.

Gast
2009-01-18, 15:41:12
Der G80 und der GT200 setzen auf SIMD-Einheiten, Single Instruction Multiple Data. Beim GT200 hat man z.B. 24 Streamprozessoren pro SIMD-Einheit. D.h. auf diesen 24 Streamprozessoren kann zur gleichen Zeit auch stets nur die gleiche Operation ausgeführt werden - z.B. eine Addition - allerdings mit verschiedenen Daten.

stimmt nicht ganz. alles was nach G80 kam hat 8-way-SIMD-einheiten, bei G8x/9x jeweils 2/cluster (ich glaub im lowcost teilweise auch nur eine), bei G2xx 3 pro cluster.

die einzelnen 8er SIMDs rechnen auch ständig an unterschiedlichen aufgaben, allerdings immer 4 takte hintereinander am selben Warp. daher kommt auch die branching-granulität von 32 threads bei aktuellen karten.

Gast
2009-01-18, 15:43:21
Es liegt doch ganz alleine bei AMD, für ihre Karten PhysX Treiber zu bringen oder irre ich da?
Es liegt auch ganz allein bei NVidia eine PhysX Version zu bringen, die auf OpenCL oder CS basiert.

Ailuros
2009-01-18, 15:51:30
Direct3D ist ein offener Standard. Alle Hersteller können über die Specs beraten, MS entscheidet.

Haarspalterei: Entscheidungen werden von Microsoft und IHVs getroffen.

Gast
2009-01-18, 17:47:46
Es liegt auch ganz allein bei NVidia eine PhysX Version zu bringen, die auf OpenCL oder CS basiert.

Warum sollten sie PhysX langsamer machen? CUDA ist die ideale Plattform für PhysX.

Gast
2009-01-18, 18:18:46
Warum sollten sie PhysX langsamer machen? CUDA ist die ideale Plattform für PhysX.
Warum sollte PhysX auf OpenCL oder CS langsamer sein?

Gast
2009-01-18, 18:26:33
Weil eine weitere Softwareschicht dazwischenliegt, OpenCL setzt bei Nvidia ebenfalls auf CUDA auf.

Gast
2009-01-18, 18:34:15
Es liegt auch ganz allein bei NVidia eine PhysX Version zu bringen, die auf OpenCL oder CS basiert.

es liegt nur an nvidia die PhysX-spezifikationen offenzulegen, wie nun ein anderer IHV das ganze auf seiner hardware umsetzt kann NV egal sein.

Gast
2009-01-18, 19:12:38
Weil eine weitere Softwareschicht dazwischenliegt, OpenCL setzt bei Nvidia ebenfalls auf CUDA auf.
Die wieviel Leistung kostet? Nur weil da eine ist, heisst nicht, dass sie relevant Leistung kostet....

Und das dumme Gespräch ein anderer Hersteller soll doch bitte nVidias Arbeit machen ist sehr realitätsfremd. Sie treten mit GPU-PhysX als Softwareanbieter auf. Entweder sie konvertieren es auf andere Plattformen oder lassen es sein. Die Lauffähigkeit nur auf ihren eigenen Karten zu begrenzen hinterlässt bei jedem Entwickler, der Geld damit verdienen muss, nur Unverständnis.

Gast
2009-01-18, 19:46:18
Die wieviel Leistung kostet? Nur weil da eine ist, heisst nicht, dass sie relevant Leistung kostet....

Und das dumme Gespräch ein anderer Hersteller soll doch bitte nVidias Arbeit machen ist sehr realitätsfremd. Sie treten mit GPU-PhysX als Softwareanbieter auf. Entweder sie konvertieren es auf andere Plattformen oder lassen es sein. Die Lauffähigkeit nur auf ihren eigenen Karten zu begrenzen hinterlässt bei jedem Entwickler, der Geld damit verdienen muss, nur Unverständnis.


PhysX läuft auf jeder Menge Plattformen, aber AMD muss den Treiber schon selbst schreiben, wenn die GPU-PhysX anbieten wollen.

Black-Scorpion
2009-01-18, 19:51:18
Und wie heißen die anderen Hersteller die PhysX Treiber anbieten?
nV blockt grundsätzlich alles ab was nicht von ihnen ist, aber andere sollen ihr Zeug unterstützen?

Gast
2009-01-18, 20:01:00
Und wie heißen die anderen Hersteller die PhysX Treiber anbieten?

PhysX läuft auf zig verschiedenen plattformen ua. x86, cell, xbox360. und genau das ist der vorteil für NV, PhysX läuft fast überall wenn ein softwarehersteller PhysX einsetzt dann beschränkt er sich damit nicht auf NV-hardware. auf der läuft es möglicherweise schneller, was für NV natürlich einen vorteil darstellt.

Black-Scorpion
2009-01-18, 20:13:22
Das ganze läuft auch so über die CPU.
Ist also ein Super Argument dafür Treiber zu schreiben.
Und die anderen GPU Hersteller werden sich hüten nV zu unterstützen und sich von denen abhängig zu machen.

deekey777
2009-01-18, 20:14:50
Vielleicht weiß ich bald mehr. Ein Komilitone wird einen Vortrag über Feldberechnungen mit Hilfe von CUDA halten und geht dabei auch auf die Funktionsweise des G92 ein. ...
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242

Mehr geht nicht.:)

Weil eine weitere Softwareschicht dazwischenliegt, OpenCL setzt bei Nvidia ebenfalls auf CUDA auf.


CUDA API

PhysX läuft auf jeder Menge Plattformen, aber AMD muss den Treiber schon selbst schreiben, wenn die GPU-PhysX anbieten wollen.
Was für einen Treiber?
Alles, was nötig ist, ist ein "Wrapper", der den PhysX-Code ins IL übersetzt.
Aber das ist eh Vergangenheit. Die neuen Spiele werden in den meisten Fällen die PPU gar nicht mehr unsterstützen. Und da stellt sich die Frage: Was genau wird heute zB bei Mirror's Edge benutzt? Wohl CUDA, denn damit kompiliert man entweder einen GPU-Code (PTX) oder einen x86-Code (C).

Coda
2009-01-18, 20:29:52
Weil eine weitere Softwareschicht dazwischenliegt, OpenCL setzt bei Nvidia ebenfalls auf CUDA auf.
Nur das Backend wird gemeinsam genützt. Das ist ja auch sehr sinnvoll. Leistung kostet das nicht.

|MatMan|
2009-01-19, 00:51:21
Alles, was nötig ist, ist ein "Wrapper", der den PhysX-Code ins IL übersetzt.
Aber das ist eh Vergangenheit. Die neuen Spiele werden in den meisten Fällen die PPU gar nicht mehr unsterstützen. Und da stellt sich die Frage: Was genau wird heute zB bei Mirror's Edge benutzt? Wohl CUDA, denn damit kompiliert man entweder einen GPU-Code (PTX) oder einen x86-Code (C).
Ist das wirklich so? Hast du dazu eine Quelle? Wird PhysX so hardware-nah programmiert? Kann ich mir kaum vorstellen - da wäre ja praktisch keine Plattformunabhängigkeit der PhysX "API" vorhanden, was IMO eigentlich einer der größten Vorteile des Paketes ist.

Oder meinst du dass die "Physik-Engine" von Mirror's Edge direkt in CUDA geschrieben ist? Dann hat das aber nix mit PhysX zu tun...

Coda
2009-01-19, 01:07:01
Ist das wirklich so? Hast du dazu eine Quelle? Wird PhysX so hardware-nah programmiert?
Nein. Man verwendet ganz normal die PhysX-API. Das Hardware-Zeug ist alles versteckt. Es gehen nur nicht alle Dinge mit der Hardware.

Von CUDA sieht man da gar nichts.

ATI müsste PhysX komplett neu programmieren und zwar 100% kompatibel durch reverse engineering um einen PhysX-"Treiber" anzubieten. Das ist praktisch unmöglich.

Oder sie bieten eine 100% zu CUDA kompatible Lib an. Wobei dann wohl immer noch der NVIDIA-PhysX-Treiber die Device-ID ablehnen würde.

AnarchX
2009-01-19, 08:35:33
ATI müsste PhysX komplett neu programmieren und zwar 100% kompatibel durch reverse engineering um einen PhysX-"Treiber" anzubieten. Das ist praktisch unmöglich.

Für $50k gibt es doch den Source von PhysX:
http://developer.nvidia.com/object/physx.html

Ailuros
2009-01-19, 11:01:37
Etwas OT oder vielleicht auch nicht; ich bin mir zwar nicht sicher ob das Zeug fuer die erste D3D11 Generation gedacht ist oder spaeter, aber NV scheint tatsaechlich an interessanten Erweiterungen fuer Multisampling zu forschen. Ich hab schon seit geraumer Zeit nicht mehr in Patenten herumgewuehlt, aber es gibt zwei Patente darueber. Das eine handelt um polygon interior Daten bei Multisampling und das andere um temporales antialiasing mit Multisampling, ohne natuerlich die monstroesen Unkosten vom Supersampling in beiden Faellen.

Ich habe als Laie ein ziemlich schlechtes Verstaendnis von dem ganzen mathematischen Humbug; ein Profi koennte dann schon entziffern ob das Zeug etwas wert ist oder nicht.

Gaestle
2009-01-19, 14:13:29
Naja, falls OpenCL und/oder Compute Shaders ein Erfolg werden, entwickeln sich dann vielleicht Lösungen abseits von PhysX, die herstellerunabhängig(er) sind?

Gast
2009-01-19, 15:50:01
Gibs ne einfache Erklärung was Dx11 bringt ?

HarryHirsch
2009-01-19, 15:59:40
Gibs ne einfache Erklärung was Dx11 bringt ?

Ich glaub Effekte und so lassen sich leichter realisieren.

deekey777
2009-01-19, 16:00:54
Gibs ne einfache Erklärung was Dx11 bringt ?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=418276
Naja, falls OpenCL und/oder Compute Shaders ein Erfolg werden, entwickeln sich dann vielleicht Lösungen abseits von PhysX, die herstellerunabhängig(er) sind?
Es gibt eine Ansicht, dass CUDA abseits der Consumer-Software weiterleben wird.
Bsp: Du baust ein Rechenzentrum mit CUDA-fähigen Grafikkarten auf, warum willst du OpenCL nutzen, wenn dir CUDA das Leben einfacher macht?
Wenn du dagegen einen Videoconverter schreibst und ein breites Publikum erreichen willst, wirst du dann OpenCL oder CS nutzen.

Gast
2009-01-19, 16:29:10
PhysX läuft auf zig verschiedenen plattformen ua. x86, cell, xbox360. und genau das ist der vorteil für NV, PhysX läuft fast
Für GPU Physik braucht man besonderen Content, sonst ist es witzlos. Der wird aber bestimmt nicht für NV only erstellt. Dann lässt man ihn halt weg und NV scheitert...

Coda
2009-01-19, 16:36:55
Für $50k gibt es doch den Source von PhysX:
http://developer.nvidia.com/object/physx.html
Fragt sich ob das wirklich auch die Hardware-Runtime betrifft und wie die EULA aussieht.

Gast
2009-01-19, 16:48:27
Für GPU Physik braucht man besonderen Content,

Seit wann denn das?
Content ist Content, egal ob PhysX auf x86, Cell, XBox oder GPU läuft.

Coda
2009-01-19, 16:49:49
Ja, nur läuft Content der für Hardware vorgesehen ist nur noch mit SPF auf der CPU.

Gast
2009-01-19, 17:15:16
Für GPU Physik braucht man besonderen Content, sonst ist es witzlos.


wieso? gerade das wäre für NV alles andere als gut, sonst bekommen sie die gleichen probleme wie die PhysX-hardware, nämlich mehr effekte die kaum einer zu würdigen weiß bei schlechterer performance, die aber jeder bemerkt.

aus NV-sicht ist es doch viel besser wenn eben keinen extra content gibt der nur mit hardware ordentlich läuft. dann gibt es eben balkenlängen von 30fps bei ATI und plötzlich 60fps bei NV, mit eigentlich schwächeren karten, genau davon profitiert NV.

Gast
2009-01-19, 17:30:58
Ja, nur läuft Content der für Hardware vorgesehen ist nur noch mit SPF auf der CPU.


Auch PhysX lässt sich entsprechend skalieren.
Es verlangt ja auch keiner, daß man Crysis auf einer GF8400 in maximalen Details spielen kann.

Gaestle
2009-01-19, 21:16:36
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=418276

Es gibt eine Ansicht, dass CUDA abseits der Consumer-Software weiterleben wird.
Bsp: Du baust ein Rechenzentrum mit CUDA-fähigen Grafikkarten auf, warum willst du OpenCL nutzen, wenn dir CUDA das Leben einfacher macht?
Wenn du dagegen einen Videoconverter schreibst und ein breites Publikum erreichen willst, wirst du dann OpenCL oder CS nutzen.

Ja, natürlich, aber PhysX ist doch Gamerzeug, oder nicht? Eine breitere Anwenderschicht für Physik als die Gamer sehe ich nicht. Office braucht ja keine Physik. Und DX11 ist ja auch besonders für Gamer wichtig (natürlich für andere auch, aber für die aktuelle Gamerszene ist es fast existenziell, da derzeit nur vergleichsweise wenig mit anderen Paketen -z.B. OpenGL- gemacht wird).
Und ist PhysX = CUDA? Wohl nicht, denn CUDA ist doch deutlich mehr als Physik.

Von daher könnten entsprechende DX11-Anwendungen (die herstellerunabhängig von GPUs beschleunigt werden) möglicherweise PhysX mit der Zeit verdrängen. Vielleicht gibt es mit DX12 oder DX13 (or whatever) auch eine Physik-"Abteilung", so wie früher DirectSound.

Alles Speku, alles IMHO, ohne Quellen zur Industrie.

Gast
2009-01-19, 22:06:33
Ja, natürlich, aber PhysX ist doch Gamerzeug, oder nicht? Eine breitere Anwenderschicht für Physik als die Gamer sehe ich nicht. Office braucht ja keine Physik. Und DX11 ist ja auch besonders für Gamer wichtig (natürlich für andere auch, aber für die aktuelle Gamerszene ist es fast existenziell, da derzeit nur vergleichsweise wenig mit anderen Paketen -z.B. OpenGL- gemacht wird).
Und ist PhysX = CUDA? CUDA ist doch mehr als Physik.

Von daher könnten entsprechende DX11-Anwendungen (die herstellerunabhängig von GPUs beschleunigt werden) möglicherweise PhysX mit der Zeit verdrängen. Vielleicht gibt es mit DX12 oder DX13 (or whatever) auch eine Physik-"Abteilung", so wie früher DirectSound.

Alles Speku, alles IMHO, ohne Quellen zur Industrie.
er sagte das schon richtig, für cuda gibt es noch andere anwenderfälle z.b. medizin, forschung, mathematik, evnt. datenbankanwendungen mit der zeit, alles was rechenintensiv ist und stark parallelisierbar.

Gaestle
2009-01-20, 14:29:36
Ja klar, nur wozu brauche ich eine hardwarespezifische (CUDA-) Schnittstelle, wenn ich es auch generalisiert mit Computer Shaders oder OpenCL haben kann (vorausgesetzt, CS bzw. OpenCL funktioniert).


Ich würde vermuten, dass NV CUDA entweder:

a) deutlich über "CS" bzw. OpenCL hinaus entwickeln wird (wobei dann immer noch nicht sicher ist, dass eventuell mit späteren DX- bzw. OCL-Varianten nicht das gleiche Funktionsset angeboten wird, dieses würde dann zwar später kommen, dafür aber IHV-unabhängig sein, was für die CUDA-Akzeptanz bei den Entwicklern sicher nicht günstig wäre)
oder
b) CUDA als Sonderanwendung zugunsten von CS oder OpenCL aufgeben wird, möglicherweise besteht ja nur der Name weiter

Coda
2009-01-20, 14:54:08
Auch PhysX lässt sich entsprechend skalieren.
Es verlangt ja auch keiner, daß man Crysis auf einer GF8400 in maximalen Details spielen kann.
Aufpassen:

PhysX-Hardware ist derzeit immer noch um einiges schneller als Software -> Der Content der so viel Leistung braucht würde nur auf NVIDIA-Systemen laufen

Check?

"Skalieren" ist so ein schönes Wort, nur erstellt sich Content leider nicht von selber. Hat man ja an den misserablen ersten HW-PhysX-Spielen gesehen.

Gast
2009-01-20, 15:58:01
PhysX-Hardware ist derzeit immer noch um einiges schneller als Software -> Der Content der so viel Leistung braucht würde nur auf NVIDIA-Systemen laufen


nur braucht es diesen extra content nicht unbedingt, auch ohne diesen ist hardware-physx deutlich schneller, ohne dabei in software unbrauchbar zu werden --> lange balken bei nvidia --> kunde kauft nvidia.

r@h
2009-01-21, 06:59:50
Ich glaube sogar, dass nicht nur Microsoft bei Direct3D entscheidet. Sie hören aber zumindest sehr stark auf die IHVs.
Ja... mal auf den einen, mal auf den anderen.
So wie es gerade für sie selbst am besten passt...
(siehe XBox-Debakel)

Aber wir wollen ja nicht (schon wieder ;-) "abdriften".

Razor

klutob
2009-01-21, 10:39:28
Seltener Fall, das ich hier etwas beitragen kann. :)
Hatte am Di ein interessantes Gespräch mit einem Boarddesigner von Nvidia und ihn nebenbei ein wenig zur zukünftigen Planung bei NV befragt.

Es wird keinen GT300-Chip geben, die nächste beiden High-End Modelle mit D3D11 und neuer Architektur kommen im 3Q diesen Jahres, mit dem genauen Codenamen wollte er nicht rausrücken.
Der DIE wird ein wenig kleiner sein als der des GT200 - die momentan maximale DIE-Größe liegt bei 26x24mm aus Packagegründen (bei einem größerem Chip müsste man einen Keramikträger -> Sockelsystem = teuer) verwenden und des Boarddesigns (Kartenlänge).
Es wird wieder eine Dualkonfig des neuen Brands erhältlich sein mit einem offiziellen Verbrauch von >300W (3Slot PCIe Spec). Eine Verbrauchsgrenze sieht man derzeit noch nicht am Markthorizont. :( Momentan ist man bei etwa 375W für den OEM-Bereich.
Hybrid-SLI ist tot - erstens aus Softwaregründen (Windows) sowie wegen der höheren Kosten am Bracket der Graka (Monitorsensing). Den Idle-Verbrauch möchte man durch Abschalten der VRAM-Partitionen und ganzer Chipteile langfristig (verschieben des Framebuffer in den VRAM) gegen 0W fahren.
Cuda/D3D11-OpenCL wird zukünftig immer mehr das Chipdesign beeinflußen.

edit:
Der GT200 besitzt real ~250 Streamprozessoren, bei Markteinführung der GTX260/280 hat man ihn nur wegen fehlender Konkurenz auf das bekannte Maß zurückgestutzt und den dadurch erhöhten Gewinn aus dem verbesserten Yield dankend mitgenommen.

Spasstiger
2009-01-21, 10:53:10
edit:
Der GT200 besitzt real ~250 Streamprozessoren, bei Markteinführung der GTX260/280 hat man ihn nur wegen fehlender Konkurenz auf das bekannte Maß zurückgestutzt und den dadurch erhöhten Gewinn aus dem verbesserten Yield dankend mitgenommen.
250 Streamprozessoren sprechen für einen Redundanz-SP pro Shadercluster. Ich denke aber nicht, dass das Design für einen Betrieb von 25 SPs pro Cluster ausgelegt ist, da 25 kein Vielfaches von 8 ist.
Solche Redundanz-SPs sind reine Yield-steigernde Maßnahmen. Bei derart großen Chips wie dem GT200 ist das auch verständlich.

Ailuros
2009-01-21, 11:00:48
Es wird keinen GT300-Chip geben, die nächste beiden High-End Modelle mit D3D11 und neuer Architektur kommen im 3Q diesen Jahres, mit dem genauen Codenamen wollte er nicht rausrücken.

Q3? Errrr.......

Der DIE wird ein wenig kleiner sein als der des GT200 - die momentan maximale DIE-Größe liegt bei 26x24mm aus Packagegründen (bei einem größerem Chip müsste man einen Keramikträger -> Sockelsystem = teuer) verwenden und des Boarddesigns (Kartenlänge).
Es wird wieder eine Dualkonfig des neuen Brands erhältlich sein mit einem offiziellen Verbrauch von >300W (3Slot PCIe Spec). Eine Verbrauchsgrenze sieht man derzeit noch nicht am Markthorizont. :( Momentan ist man bei etwa 375W für den OEM-Bereich.

Langfristig ja zum zweiten Paragraph, aber wohl schwer unter 40nm.

edit:
Der GT200 besitzt real ~250 Streamprozessoren, bei Markteinführung der GTX260/280 hat man ihn nur wegen fehlender Konkurenz auf das bekannte Maß zurückgestutzt und den dadurch erhöhten Gewinn aus dem verbesserten Yield dankend mitgenommen.

Die 8+8+9 These klingt zwar interessant, aber ich wuerde gerne mal erklaert bekommen wer so bloed waere so etwas zu bauen.

250 Streamprozessoren sprechen für einen Redundanz-SP pro Shadercluster. Ich denke aber nicht, dass das Design für einen Betrieb von 25 SPs pro Cluster ausgelegt ist, da 25 kein Vielfaches von 8 ist.
Solche Redundanz-SPs sind reine Yield-steigernde Maßnahmen. Bei derart großen Chips wie dem GT200 ist das auch verständlich.

Frueher gab es auch Geruechte ueber >128SPs auf G80; hier zaehlte jemand einfach SF Einheiten mit.

9+9+9 ist zwar theoretisch weniger albern wie 8+8+9, aber moeglich erscheint mir es auch nicht.

klutob
2009-01-21, 11:16:33
@ Spasstiger/Ailuros die Zahl bewegte sich im 250er Bereich, ich kann mich nur nicht mehr an den genauen Wert erinnern (zu stark alkoholisiert). ;D
Der Tenor war, daß speziell die GTX260 vom Start weg als 216SP-Variante hätte angeboten werden können.


Q3? Errrr.......

Zumindest soll zu dieser Zeit das Produkt technisch fertig entwickelt sein.


Langfristig ja zum zweiten Paragraph, aber wohl schwer unter 40nm.


Was meinst du mit diesem Satz genau?

Gast
2009-01-21, 11:43:06
Der GT200 besitzt real ~250 Streamprozessoren, bei Markteinführung der GTX260/280 hat man ihn nur wegen fehlender Konkurenz auf das bekannte Maß zurückgestutzt und den dadurch erhöhten Gewinn aus dem verbesserten Yield dankend mitgenommen.

wenn es wirklich so wäre hätte man pro SIMD 9 statt 8 recheneinheiten, käme also insgesamt auf 270. allerdings könnte man niemals alle gleichzeitig ansteuern.

weitere möglichkeit wäre natürlich, dass es einen weiteren cluster gibt, damit hätte man dann 264 recheneinheiten, aber ich denke dass wäre auf einem DIE-shot schon aufgefallen.

an mangelnder konkurrenz kann es wohl kaum liegen, im gegenteil, man war wohl überrascht wie gut ATI mithalten kann.

Gast
2009-01-21, 11:59:36
die "dummheit" sowas zu designen ist vielleicht weise voraussicht. wenn klar war dass der chip riesig wird, hat man evnt. mehr in redundanzen investiert.

deekey777
2009-01-21, 12:17:09
Der GT200 besitzt real 270 SPs, von denen 30 DP-fähig sind.
Wer's nicht glaubt, dann soll er nicht glauben. :biggrin:
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=9

Ailuros
2009-01-21, 12:24:10
@ Spasstiger/Ailuros die Zahl bewegte sich im 250er Bereich, ich kann mich nur nicht mehr an den genauen Wert erinnern (zu stark alkoholisiert). ;D
Der Tenor war, daß speziell die GTX260 vom Start weg als 216SP-Variante hätte angeboten werden können.

Dafuer muessten es 9+9+9/cluster sein.

9*(8+8+8)=216
8*(8+8+8)=192
8*(9+9+9)=216

Wie man den dritten hypothetischen Fall ansteuern will, will ich mir gar nicht vorstellen... :rolleyes:

Zumindest soll zu dieser Zeit das Produkt technisch fertig entwickelt sein.

Man kann mit "technisch fertig entwickelt" zwar viel meinen, aber so wie es NV versteht, wehe wenn das Ding nicht schon in Q2 fertig entwickelt ist.

Was meinst du mit diesem Satz genau?

Dass der chip zu gross ist fuer jegliche "GX2" Uebungen unter 40nm. Es gibt natuerlich auch heute zwei monstroese 55nm dies fuer die 295, aber man hat momentan auch nichts besseres gegen die 4870X2 zu bieten. Wenn sich NVIDIA nicht sicher sein sollte dass ein einziger GT3x0 nicht genug sein sollte die Konkurrenz deutlich zu schlagen, waere es eigentlich sinnlos weiter auf die single high end chip Masche zu beruhen.

***edit:

Der GT200 besitzt real 270 SPs, von denen 30 DP-fähig sind.
Wer's nicht glaubt, dann soll er nicht glauben. :biggrin:
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=9

ROFL :D eben....

Spasstiger
2009-01-21, 14:38:22
Der GT200 besitzt real 270 SPs, von denen 30 DP-fähig sind.
Wer's nicht glaubt, dann soll er nicht glauben. :biggrin:
http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=9
Das wäre natürlich die langweiligste aber auch wahrscheinlichste Erklärung. Auch ein PCB-Designer kennt nicht unbedingt Implementierungsdetails wie die Double-Precision-Einheiten. Vielleicht hat er da einfach was missverstanden.

Wenn man die DP-Einheiten einrechnet, hat auch die GTX 260-192 eigentlich 216 SPs. Die GTX 260-216 hat nach dieser Rechenweise 243 SPs.

AnarchX
2009-01-22, 08:36:02
Content:
CRYSIS + WARHEAD+ WARS


Add Content:
* Added global illumination effects
* Added dx11 replacement textures and caustics special effects
* Added ray tracing special effects
* Formal support dx11 rendering, with the 2009 Q2, Nvidia GT300 dx11 display chip release
* Support for CUDA 3.0 game physics calculations, physical visual upgrade to an unprecedented highest
http://bbs.chiphell.com/viewthread.php?tid=38436&extra=page%3D1
... offenbar aus den Releasenotes der Crysis Maximum Edition (http://www.gamestop.com/Catalog/ProductDetails.aspx?product_id=73806).
:|

Ailuros
2009-01-22, 09:25:12
Ich bin entweder blind oder ich sehe keine release notes auf dem zweiten link. Wie dem auch sei was Q2 betrifft, siehe Post #93; es hat aber wohl nichts mit einem "release" zu tun. Dev-samples werden sehr frueh an Entwickler verschickt, und Q2 klingt durchaus realistisch fuer so etwas.

KonKorT
2009-01-22, 09:53:52
Ja, Q2 für erste GT300-Dev-Samples könnte in der Tat stimmen. Das war seinerzeit beim G80 nicht anders.

reunion
2009-01-22, 10:00:10
Der Text spricht aber eindeutig nicht von Samples oder sonstigem, sondern von einem Patch der offensichtlich DX11-Support mit dem GT300 Release bringen sollte. Also entweder ist das ein Fake oder das GT300 Release wurde eben Verschoben.

Gast
2009-01-22, 10:24:42
Der Text spricht aber eindeutig nicht von Samples oder sonstigem, sondern von einem Patch der offensichtlich DX11-Support mit dem GT300 Release bringen sollte. Also entweder ist das ein Fake oder das GT300 Release wurde eben Verschoben.

Du meinst, dass die den GT300 zwei Quartale vorziehen? DAS wäre zumindest ein wirklich guter Grund, den GT212 doch nicht zu veröffentlichen (wie ja letztens spekuliert wurde). Dazu fällt mir nur noch Goethe ein: "Die Botschaft hör ich wohl, allein mir fehlt der Glaube."

reunion
2009-01-22, 10:26:26
Du meinst, dass die den GT300 zwei Quartale vorziehen? DAS wäre zumindest ein wirklich guter Grund, den GT212 doch nicht zu veröffentlichen (wie ja letztens spekuliert wurde). Dazu fällt mir nur noch Goethe ein: "Die Botschaft hör ich wohl, allein mir fehlt der Glaube."

Nein, ich meinte das er ursprünglich mal für Q2 geplant war und dann auf Q4 verschoben wurde. Die GT21X-Serie kommt sicherlich noch davor, dafür gibt es schon zu viele Hinweise.

igg
2009-01-22, 13:59:47
Ja, Q2 für erste GT300-Dev-Samples könnte in der Tat stimmen. Das war seinerzeit beim G80 nicht anders.
Wobei ich mich frage wie der konkrete G80 dann so lange ein Geheimnis bleiben konnte.

Coda
2009-01-22, 15:19:46
http://bbs.chiphell.com/viewthread.php?tid=38436&extra=page%3D1
... offenbar aus den Releasenotes der Crysis Maximum Edition (http://www.gamestop.com/Catalog/ProductDetails.aspx?product_id=73806).
:|
Ray-Tracing. Alles klar :rolleyes:

Und was sind bitte "DX11 replacement textures". Er kann nichtmal "displacement" schreiben.

Spasstiger
2009-01-22, 15:28:54
Ray-Tracing. Alles klar :rolleyes:
Es gibt doch schon eine Raytracing-Schatten-Demo:
http://www.humus.name/index.php?page=3D&ID=53

Ok, nur mit Kugeln. Aber läuft dafür auch auf SM2.0-Hardware.

Und ein Komilitone hat einen Raytracer in CUDA geschrieben. Allerdings zur Simulation der Ausbreitung von elektromagnetischen Wellen und nicht für 3D-Grafik. Rennt wohl ziemlich flott im Vergleich zur CPU-Variante.

Coda
2009-01-22, 15:30:32
Das baust du aber nicht mal eben in eine bestehende Engine ein. Ich kann dir auch einen CUDA-Raytracer schreiben.

Spasstiger
2009-01-22, 16:02:05
Das baust du aber nicht mal eben in eine bestehende Engine ein.
Ist denn eine indirekte Beleuchtung per Raytracing auf Shaderbasis ergänzend zum Shadowmapping denkbar?

Coda
2009-01-22, 16:02:35
Nein. Dafür bräuchte man ja Photon Mapping. Das ist ja noch um Magnituden blödsinniger.

Das Humus-Demo was du da gepostet hast hat nichtmal eine Beschleunigungsstruktur. Das wäre bei einer Szene wie Crysis sie bietet bei Laufzeiten von Minuten - selbst auf der GPU.

Ailuros
2009-01-23, 07:54:58
Nein, ich meinte das er ursprünglich mal für Q2 geplant war und dann auf Q4 verschoben wurde. Die GT21X-Serie kommt sicherlich noch davor, dafür gibt es schon zu viele Hinweise.

Und wie stellst Du Dir das genau vor? Man plante seit einiger Zeit sofort von 55nm/GT20x auf 40nm auf einen verdammt grossen core mit einer total neuen Architektur fuer einen Herstellungsprozess der so frisch ist dass sich selbst ATI nicht zuerst mit einem performance chip dafuer wagt?

Denk mal nach wie lange vor dem release ein IHV sich entscheiden muss fuer welchen Herstellungsprozess Architektur X ausgelegt werden muss und erzaehl mir dann wieso dieses Sinn machen wuerde.

Afaik hatte NV stets geplant zuerst mit einem GT2x0 refresh 40nm zu beruehren und dann erst sich mit dem naechsten Monster-die sich aufs Glatteis zu wagen.

Ailuros
2009-01-23, 08:08:38
Wobei ich mich frage wie der konkrete G80 dann so lange ein Geheimnis bleiben konnte.

Am 13 Juni 2006 bekam ich eine e-mail wo drin stand dass ALLES was bis dahin ueber G80 erwaehnt/spekuliert wurde nichts mit der Realitaet zu tun hat. Mehr wollte mir der Herr damals auch nicht sagen und die ersten zuverlaessigen Infos kamen erst Mitte September 2006, lediglich 2 Monate vor dem Launch.

Im Fall von GT3x0 sind sie ein bisschen plauder-freudiger aber es ist nur generelles Zeug womit man sich nur mit lebendiger Phantasie etwas zusammenreimen koennte. Ich hab mir den wichtigsten Teil schon erklaeren lassen, denn als Laie verstehe ich auch nicht jegliche Einzelheit auf Anhieb. Patente die dieses Zeug betreffen wurden noch nicht veroeffentlicht.

KonKorT
2009-01-23, 12:42:47
Am 13 Juni 2006 bekam ich eine e-mail wo drin stand dass ALLES was bis dahin ueber G80 erwaehnt/spekuliert wurde nichts mit der Realitaet zu tun hat. Mehr wollte mir der Herr damals auch nicht sagen und die ersten zuverlaessigen Infos kamen erst Mitte September 2006, lediglich 2 Monate vor dem Launch.

Im Fall von GT3x0 sind sie ein bisschen plauder-freudiger aber es ist nur generelles Zeug womit man sich nur mit lebendiger Phantasie etwas zusammenreimen koennte. Ich hab mir den wichtigsten Teil schon erklaeren lassen, denn als Laie verstehe ich auch nicht jegliche Einzelheit auf Anhieb. Patente die dieses Zeug betreffen wurden noch nicht veroeffentlicht.

Wie kommst Du als Privatperson an so exklusive Infos heran? Persönlicher Kontakt?

Ailuros
2009-01-23, 13:10:08
Wie kommst Du als Privatperson an so exklusive Infos heran? Persönlicher Kontakt?

Ich bin schon seit der 3dfx Era mit vielen von den Kerlen befreundet; damals war die Mehrzahl dieser zwischen 19-25 Jahre alt. Heutzutage arbeiten viele von diesen als hochrangige Angestellte bei AMD, Intel, IMG, NVIDIA usw.

Zwischen 2004 und 2006 war ich Mitglied vom NVIDIA focus group und ein eher nutzloses NDA das ich damals unterschrieb laeuft glaub ich Ende dieses Jahres aus.

Coda
2009-01-23, 16:09:22
www.ece.ubc.ca/~aamodt/papers/wwlfung.micro2007.pdf

Es könnte sein, dass sie sowas machen um "MIMD" zu simulieren. Die ALUs blieben dann eigentlich SIMD, aber bei einer branch divergence versucht die Scheduler-Logik trotzdem die NOPs zu füllen.

Ailuros
2009-01-24, 14:05:51
www.ece.ubc.ca/~aamodt/papers/wwlfung.micro2007.pdf

Es könnte sein, dass sie sowas machen um "MIMD" zu simulieren. Die ALUs blieben dann eigentlich SIMD, aber bei einer branch divergence versucht die Scheduler-Logik trotzdem die NOPs zu füllen.

MPMD ;)

Coda
2009-01-24, 20:23:43
Sicher?

DavChrFen
2009-01-28, 01:04:01
Wie sieht es denn mit 64-bit-floating-point-Berechnungen aus? Ich dachte NVidia wollte mittelfristig in das Supercomputing-Geschäft einsteigen, um neben Grakas noch ein anderes Standbein zu haben.

Coda
2009-01-28, 01:26:15
Hat doch schon GT200, oder was meinst du?

aths
2009-01-28, 11:18:13
Nvidia hat mir zumindest beim GT200 was von SIMT erzählt (Single Instruction, Multiple Threads.) Wie das funktionieren soll, habe ich trotz Nachfrage nicht verstanden. Erst mal zu warten bis man 8 Threads hat, die dieselbe Operation brauchen, erscheint mir recht aufwändig.

deekey777
2009-01-28, 12:53:00
Nvidia hat mir zumindest beim GT200 was von SIMT erzählt (Single Instruction, Multiple Threads.) Wie das funktionieren soll, habe ich trotz Nachfrage nicht verstanden. Erst mal zu warten bis man 8 Threads hat, die dieselbe Operation brauchen, erscheint mir recht aufwändig.
Es sind gar 32.

http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=7

Ailuros
2009-01-28, 13:28:57
Falls tatsaechlich NV so weit gegangen ist und MIMD oder MPMD Einheiten benutzt hat, dann duerfte auch der heutige Speichercontroller nichts mehr taugen. Ausser den paar generellen verstreuten "hints" bis jetzt (die sowieso nicht viel taugen) hat ja auch keiner bis jetzt etwas genaueres ueber den chip.

Hauptsaechlich gegen jegliche MIMD These spricht dass diese angeblich viel mehr die area verbraten sollen. Mag zwar stimmen, aber es bleibt die Frage die Arun schon bei B3D gestellt hat wieso IMG keine solche Probleme hatte reine MIMD Einheiten fuer SGX zu benutzen.

Man spricht u.a. auch von Aenderungen im triangle-setup, wobei es mich nicht wundern sollte wenn es weiterhin bei dieser merkwuerdigen "unter Vorrraussetzungen 1Tri/Takt, sonst 1Tri/2 Takte" Logik bleiben koennte.

Generell glaube ich nicht dass NV fast "jeden" Transistor umgekrempelt hat a la G80 fuer GT3x0. Komischerweise widerspricht das uebliche "off the record" Gelaber dem vorigen. Wenn ich ueber ALUs, TMUs, MCs, tri-setup, Frequenz- und Logik Verwaltung usw. hoere bleibt praktisch nicht mehr viel uebrig.

Am wichtigsten ist ob die monstroese R&D Investition in GT3x0 und der anscheinend wieder brutal grosse die diesmal behaupten kann, dass single chip fuer high end die bessere Loesung ist.

Gast
2009-01-28, 13:33:43
Nvidia hat mir zumindest beim GT200 was von SIMT erzählt (Single Instruction, Multiple Threads.) Wie das funktionieren soll, habe ich trotz Nachfrage nicht verstanden.

nvidia bezeichnet die einzelnen "datenobjekte" als threads, somit dürfte SIMT nichts anderes als SIMD auf nvidish heißen ;)

Coda
2009-01-28, 14:33:26
Nvidia hat mir zumindest beim GT200 was von SIMT erzählt (Single Instruction, Multiple Threads.) Wie das funktionieren soll, habe ich trotz Nachfrage nicht verstanden.
Der Rasterizer sowie der Input-Assembler erzeugen Warps bestehend aus 32 Threads respektive 8 Quads. Die warten dann natürlich erstmal in einem FIFO auf ihre Ausführung.

Erst mal zu warten bis man 8 Threads hat, die dieselbe Operation brauchen, erscheint mir recht aufwändig.
Es sind bei einer GT200 bis zu 30720 Threads/960 Warps gleichzeitig "in flight". Da ist das eher kein Problem ;)

Spasstiger
2009-02-03, 17:13:23
Ist eigentlich zu erwarten, dass NV die 8xMSAA-Performance deutlich verbessert? Oder hat das bei den Kaliforniern eher keine Priorität? Beim GT200 hat man ja zumindest schonmal die z-Füllrate auf 8xMSAA optimiert (wobei die z-Füllrate gegenüber AMD nie ein Nachteil war).

Gast
2009-02-03, 17:36:11
Beim GT200 hat man ja zumindest schonmal die z-Füllrate auf 8xMSAA optimiert (wobei die z-Füllrate gegenüber AMD nie ein Nachteil war).

man hat beim GT200 garnichts wirklich für die 8xMSAA-performance getan, man hat das problem nur dank 32 ROPs etwas hinausgezögert.

spätestens mit dem umstieg auf GDDR5 wird aber NV wohl oder übel die ROPs überarbeiten müssen (G80-G200 ist mit den internen timings komplett auf GDDR3 ausgerichtet und würde mit GDDR5 nicht ordentlich laufen), ich denke dann wird man auch die 8x-schwäche mit ausbügeln.

reunion
2009-02-03, 18:55:53
Am wichtigsten ist ob die monstroese R&D Investition in GT3x0 und der anscheinend wieder brutal grosse die diesmal behaupten kann, dass single chip fuer high end die bessere Loesung ist.

Wenn es nV schafft auch nur annähernd die Effizienz von AMD zu erreichen, dann ist ein großer Single-Chip natürlich klar überlegen.

LovesuckZ
2009-02-03, 19:01:17
Wenn es nV schafft auch nur annähernd die Effizienz von AMD zu erreichen, dann ist ein großer Single-Chip natürlich klar überlegen.

Hat man doch schon - G92(b). :rolleyes:

reunion
2009-02-03, 19:08:11
G92 ist aber kein großer Single-Chip und außerdem fehlen wichtige Features.

LovesuckZ
2009-02-04, 21:36:25
G92 ist aber kein großer Single-Chip und außerdem fehlen wichtige Features.

Der G92 ist der 5. größte Single-Chip. Ausserdem hast du keine Ahnung, was beide für ihre zukünftigen Chips planen und umsetzen. Man kann also nur von heute reden und da hat nVidia nunmal einen gleichwertigen Chip.

Schlammsau
2009-02-04, 21:44:54
Hat man doch schon - G92(b). :rolleyes:

An einen RV770Pro kommt er ran ja, aber nicht an die Leistung eines RV770XT! Und dabei ist er sogar noch ein wenig grösser.

http://www.abload.de/img/g92blfd5.gif

LovesuckZ
2009-02-04, 22:40:49
Ja, dann hast du recht. Er hat natürlich mit ca. 10% größerer Fläche und ca. 15% weniger Leistung nicht ein ähnliches Verhältnis. Wie konnte ich mich nur so irren. :rolleyes:

reunion
2009-02-05, 08:13:07
Der G92 ist der 5. größte Single-Chip.

Und weiter? GT200 ist annähernd doppelt so groß.


Ausserdem hast du keine Ahnung, was beide für ihre zukünftigen Chips planen und umsetzen. Man kann also nur von heute reden und da hat nVidia nunmal einen gleichwertigen Chip.

Du bist ja richtig besessen. Mir ging es einzig und alleine darum das ein großer Single-Chip (bei gleicher Architektur) der wesentlich effizientere Weg ist als zwei kleine Chips mittels SLi/CF-Verbindung. Und wie du selbst schon sagst weiß man nicht wie die zukünftigen Chips aussehen, deshalb mein Hinweis was die Effizienz betrifft. Aber war ja klar dass das schon zu viel war für deine zarte Nv-Seele und du dich auf irgend etwas versteifen musst

Spasstiger
2009-02-05, 09:27:15
Der G92b bietet für anspruchsvolle Settings weniger Performance pro Fläche als der GT200b.

In 1680x1050 mit 8xMSAA ist die GTX 285 laut Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet) im Mittel 2,24-mal so schnell wie eine 9800 GTX+. In 1680x1050 mit 4xAA liegt der Leistungsvorteil noch bei einem Faktor 1,66. In 1680x1050 mit 16xS-AA ist die GTX 285 laut der PCGH (http://www.pcgameshardware.de/aid,672945/Test/Benchmark/Geforce_GTX_285_-_Test_der_neuen_Nvidia-Grafikkarte/?page=15) gar um bis zu einem Faktor 20 schneller als die 9800 GTX+ (2 fps min. vs. 43 fps min.).

Also selbst wenn man mal davon ausgeht, dass man eine GTX 285 nicht voll ausfahren würde und nur 1680x1050 mit 4xAA in allen Spielen nutzt, hat sie immer noch einen Leistungsvorteil von 66% gegenüber der 9800 GTX+. Der GT200b hat dabei eine um 70% größere Diefläche als der G92b (470 mm² vs. 276 mm²). Also selbst bei diesem Setting, wo das Potential des GT200b nicht ausgereizt wird, erreicht er schon die gleiche Performance pro Fläche wie der G92b.

ATI ist mit dem RV770 gegenüber dem G92b und dem GT200b um ca. 30% überlegen, was die Performance pro Fläche angeht. Dafür, dass alle drei Chips mit der gleichen minimalen Strukturbreite gefertigt werden, sind 30% Effizienzvorteil gegenüber den beiden Konkurrenzlösungen schon eine Klasse für sich. Wobei gegenüber dem G92b auch deutlich mehr als 30% Leistungsvorteil pro Fläche rausspringen, wenn man sehr hohe Auflösungen oder 8xMSAA nutzt.

robbitop@work
2009-02-05, 09:41:36
Bei der Z/Colorfillrate vom G8x/9x/2xx glaube ich auch weiterhin nicht daran, dass explizit die ROPs schuld sind. 1/2 Tri/clk ist ab einer gewissen Rasterleistungsanforderung einfach zu wenig. Und daran hat man nicht gearbeitet.

robbitop@work
2009-02-05, 09:47:50
In 1680x1050 mit 8xMSAA ist die GTX 285 laut Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet) im Mittel 2,24-mal so schnell wie eine 9800 GTX+. In 1680x1050 mit 4xAA liegt der Leistungsvorteil noch bei einem Faktor 1,66. In 1680x1050 mit 16xS-AA ist die GTX 285 laut der PCGH (http://www.pcgameshardware.de/aid,672945/Test/Benchmark/Geforce_GTX_285_-_Test_der_neuen_Nvidia-Grafikkarte/?page=15) gar um bis zu einem Faktor 20 schneller als die 9800 GTX
Die GTX+ mit 512 MiB? VRAM anyone? ;) Die MSAA Skalierung zeigt, dass GT200 auch in 8xMSAA unverhältnismäßig stark einbricht. Etwas weniger als G92. Das kann aber auch an der deutlich gesteigerten Bandbreite liegen.

Gast
2009-02-05, 09:59:30
Bei der Z/Colorfillrate vom G8x/9x/2xx glaube ich auch weiterhin nicht daran, dass explizit die ROPs schuld sind. 1/2 Tri/clk ist ab einer gewissen Rasterleistungsanforderung einfach zu wenig. Und daran hat man nicht gearbeitet.

und warum schneiden dann ausgerechnet die GPUs mit mehr ROPs besser ab?

reunion
2009-02-05, 10:00:13
Bei der Z/Colorfillrate vom G8x/9x/2xx glaube ich auch weiterhin nicht daran, dass explizit die ROPs schuld sind. 1/2 Tri/clk ist ab einer gewissen Rasterleistungsanforderung einfach zu wenig. Und daran hat man nicht gearbeitet.

Wie erklärst du dir dann das vorallem Chips mit wenig ROPs überproportional betroffen sind? So zwingt 8AA G92 mit Abstand am stärksten in die Knie, dann G80 und zum Schluss GT200 mit 32 ROPs, wo 8AA gar nicht mal mehr so langsam ist.

Gast
2009-02-05, 10:01:35
An einen RV770Pro kommt er ran ja, aber nicht an die Leistung eines RV770XT! Und dabei ist er sogar noch ein wenig grösser.


würde man einen stromverbrauch wie bei RV770XT zulassen könnte er höchstwahrscheinlich durchausmithalten.

aus marketingsicht wäre das ganze natürlich dämlich, da er damit der 260GTX viel zu nahe kommen würde.

Spasstiger
2009-02-05, 10:02:11
Die GTX+ mit 512 MiB? VRAM anyone? ;)
Lovesuckz besteht doch darauf, dass eine 9800 GTX+ 1024 MiB langsamer ist als seine übertaktete 8800 GT 512 MiB. ;)

Auf jeden Fall sehe ich nicht, dass der G92b effizienter mit seiner Chipfläche umgeht als der GT200b.

Schlammsau
2009-02-05, 10:13:41
würde man einen stromverbrauch wie bei RV770XT zulassen könnte er höchstwahrscheinlich durchausmithalten.

aus marketingsicht wäre das ganze natürlich dämlich, da er damit der 260GTX viel zu nahe kommen würde.

Denke ich nicht, da der höhere Stromverbrauch hauptsächlich durch den DDR5 VRAM Zustande kommt.

AnarchX
2009-02-05, 10:41:58
Denke ich nicht, da der höhere Stromverbrauch hauptsächlich durch den DDR5 VRAM Zustande kommt.
GDDR5 ist sparsamer als GDDR3.

Schlammsau
2009-02-05, 10:48:33
GDDR5 ist sparsamer als GDDR3.

Hast ja recht, es ist nicht direkt der Speicher, aber ich glaube der Speicherkontroller. Oder verwechsle ich da was?

robbitop@work
2009-02-05, 10:50:34
Wie erklärst du dir dann das vorallem Chips mit wenig ROPs überproportional betroffen sind? So zwingt 8AA G92 mit Abstand am stärksten in die Knie, dann G80 und zum Schluss GT200 mit 32 ROPs, wo 8AA gar nicht mal mehr so langsam ist.
Bandbreite und VRAM. Außerdem gibt es, wie du weißt, nicht den Flaschenhals. Es ist immer ein System aus mehreren wechselnden und sich beeinflussenden Flaschenhälsen.

LovesuckZ
2009-02-05, 10:51:40
Lovesuckz besteht doch darauf, dass eine 9800 GTX+ 1024 MiB langsamer ist als seine übertaktete 8800 GT 512 MiB. ;)

Kannst du das auch beweisen? ;) Wäre mir neu, dass ich mich mit Razor's Aussagen Schmücke...


Auf jeden Fall sehe ich nicht, dass der G92b effizienter mit seiner Chipfläche umgeht als der GT200b.

Solange es keine Vergleiche mit einer 1024mb Version gibt, sind solche Aussagen haltlos.

Spasstiger
2009-02-05, 10:52:35
GDDR5 ist sparsamer als GDDR3.
Er ist nur bei gleicher Datenrate sparsamer als GDDR3. Da GDDR5 aber deutlich höhere Datenraten als GDDR3 aufweist, ist auch der Verbrauch höher.

Schlammsau
2009-02-05, 10:52:59
Kannst du das auch beweisen? ;) Wäre mir neu, dass ich mich mit Razor's Aussagen Schmücke...

^^ stimmt, die Behauptung hat Razor in die Welt gesetzt!

robbitop@work
2009-02-05, 10:54:18
Auf jeden Fall sehe ich nicht, dass der G92b effizienter mit seiner Chipfläche umgeht als der GT200b.
Am effizientesten ging G80 mit seiner Chipfläche um, sofern man den Fertigungsprozess in den Kontext setzt. Sehr ausbalanciert war natürlich auch die 9600 GT.
GT200b-Performance hätte man, ausgehend vom G80, auch mit 1 Mrd Transistoren hinbekommen und mittels effizienterer Packdichte bei Shrinks (G92 war da lausig) auch mit deutlich weniger Fläche.
Da muss NV wieder hin, wenn es bergauf gehen soll. Möglichst schon mit GT21x.

Was mich aber wundert, ist dass GT200 anscheinend sogar weniger Leistung aufnimmt als RV770. Trotz höherer Transistoranzahl. Der RV770 scheint mit voller Macht auf seine 775 MHz geprügelt worden zu sein.

Spasstiger
2009-02-05, 10:54:21
Kannst du das auch beweisen? ;) Wäre mir neu, dass ich mich mit Razor's Aussagen Schmücke...
Ach, verdammt. Hab ich euch doch glatt verwechselt. Ihr habt ja auch einen recht ähnlichen Diskussionsstil und ihr verteidigt beide eure favorisierten Grafikkarten bis aufs Blut. ;)

reunion
2009-02-05, 11:18:05
Auf jeden Fall sehe ich nicht, dass der G92b effizienter mit seiner Chipfläche umgeht als der GT200b.

Naja, wenn du das linear berechnest nicht, aber normalerweise besteht da kein linearer Zusammenhang. Ein Chip mit 70% mehr Fläche ist bei gleicher Architektur normalerweise locker in der Lage um mehr als 100% schneller zu sein als der andere Chip. Deshalb steigt eben auch die Effizienz mit der Die-Größe, da nicht alles mitskaliert werden muss. Da bei GT200 aber eben auch einiges für die DP-ALUs drauf geht, ist nur eine lineare Steigerung mit der Die-Größe im Vergleich zu G92 möglich.

reunion
2009-02-05, 11:22:28
Was mich aber wundert, ist dass GT200 anscheinend sogar weniger Leistung aufnimmt als RV770. Trotz höherer Transistoranzahl. Der RV770 scheint mit voller Macht auf seine 775 MHz geprügelt worden zu sein.

Die Aussage ist so nicht haltbar. Wenn du dich auf GTX295 vs. 4870 X2 beziehst, dann solltest du schon bedenken das nV den Chip nach drei Respins alleine in 55nm mit nur 1.03V betreibt. Die 55nm Chips auf der GTX285 laufen mit bis zu 1.18V. Außerdem ist natürlich ein ROP-Cluster deaktiviert und die Taktraten sind niedriger.

Gast
2009-02-05, 11:28:26
Bandbreite und VRAM.

ein einbruch der fillrate auf 1/5 ausgehend von 4xMSAA auf 8xMSAA hat garnantiert nichts mit bandbreite und VRAM zu tun.

wenn deine theorie stimmen würde und die 8xMS-schwäche am trisetup liegen würde, dann müsste GT200 übrigens relativ noch stärker einbrechen, da das Trisetup seit G80 unverändert ist.

Spasstiger
2009-02-05, 11:42:12
Naja, wenn du das linear berechnest nicht, aber normalerweise besteht da kein linearer Zusammenhang. Ein Chip mit 70% mehr Fläche ist bei gleicher Architektur normalerweise locker in der Lage um mehr als 100% schneller zu sein als der andere Chip.
Ein optimal ausbalanciertes Chipdesign skaliert in seiner Performance 1:1 mit der Fläche.

reunion
2009-02-05, 11:46:27
Ein optimal ausbalanciertes Chipdesign skaliert in seiner Performance 1:1 mit der Fläche.

Theoretisch natürlich, aber da man Dinge wie 2D-Kern, UVD, HDMI-Audiocontroller, Tri-Setup, etc. normalerweise nicht mitskaliert in diesem Fall eben nicht. Bei einem RV770 machen ALUs/TMUs bsw. nur 50% der Die-Fläche aus. Wenn ich also deren Anzahl verdopple wird das Die nur um 50% größer.

Außerdem gibt es ja genügend Beispiele welche das untermauern.

Spasstiger
2009-02-05, 11:52:53
Bei einem RV770 machen ALUs/TMUs bsw. nur 50% der Die-Fläche aus. Wenn ich also deren Anzahl verdopple wird das Die nur um 50% größer.
Die Performance wird dann aber auch nur um 50% steigen.

Bestes Beispiel ist der R580. Gegenüber dem R520 wurde die Anzahl von Shadereinheiten verdreifacht. Die Transistorzahl und näherungsweise auch die Diefläche wuchs dabei nur um 20%. Der Performancevorteil war allerdings auch kaum größer als diese 20%.

reunion
2009-02-05, 12:02:14
Die Performance wird dann aber auch nur um 50% steigen.

Woher willst du das wissen?


Bestes Beispiel ist der R580. Gegenüber dem R520 wurde die Anzahl von Shadereinheiten verdreifacht. Die Transistorzahl und näherungsweise auch die Diefläche wuchs dabei nur um 20%. Der Performancevorteil war allerdings auch kaum größer als diese 20%.

Die Performance war speziell bei neueren Spielen nicht selten doppelt so hoch.
Aber wenn du Beispiele willst bitte:

G71: 196mm²
G73: 127mm²

R430: 240mm²
RV410: 156mm²

Bei beiden Beispielen wurden beide Chips im gleichen Fertigungsverfahren gefertigt und ersterer hat jeweils exakt die doppelte Anzahl an Ausführungseinheiten, ist also bei gleichen Taktraten exakt doppelt so schnell. Umso größer der Chip, umso höher seine Leistung/mm².

Spasstiger
2009-02-05, 12:20:25
Die Budget-Chips sind auch nicht optimal ausbalanciert. Wir reden hier von Chips, die jeweils eine zeitlang das Spitzenmodell darstellten.

Und zeige mir mal ein Spiele-Beispiel, wo der R580 doppelt so schnell sein soll wie der R520. Ich kenn dieses Verhalten nur von einer R5xx-Techdemo.
Selbst in Crysis bei hohen Details, was auf diesen Chips nicht mehr flüssig läuft, ist die X1900 XT 512 MiB nur um knapp 50% schneller als die X1800 XT PE 512 MiB:
http://www.3dcenter.org/dateien/abbildungen/18_cry-hoch.png
http://www.3dcenter.org/artikel/die-leistungsf%C3%A4higkeit-alter-grafikkartengenerationen/crysis

Bei spielbaren Settings liegt die X1900 XT in Crysis nur um 25% vorne. Ein größerer Vorteil, der auch von Praxisrelevanz ist, tut sich auch in anderen Spielen nicht auf.

reunion
2009-02-05, 12:43:43
Die Budget-Chips sind auch nicht optimal ausbalanciert. Wir reden hier von Chips, die jeweils eine zeitlang das Spitzenmodell darstellten.

Tun wir das? Weshalb? Und warum sollte man Budget-Chips "nicht optimal ausbalancieren"? Das ist doch absurd.


Und zeige mir mal ein Spiele-Beispiel, wo der R580 doppelt so schnell sein soll wie der R520.

Bitte:
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=193&Itemid=29&limit=1&limitstart=3

Aber warum versteifst du dich so auf R580 vs. R520? Es gibt dutzende Beispiele die zeigen das man für doppelte Leistung weit weniger als die doppelte Die-Fläche benötigt, und das ist aus vorher genannten Gründen ja auch völlig logisch. Das "Grundgerüst" muss man eben bei allen Chips mitschleppen. Auch ein GT200 wäre ohne die DP-ALUs wesentlich kleiner und würde in Spielen natürlich keine Leistung verlieren, sondern sich höchstens höher takten lassen.

AnarchX
2009-02-05, 13:57:42
Er ist nur bei gleicher Datenrate sparsamer als GDDR3. Da GDDR5 aber deutlich höhere Datenraten als GDDR3 aufweist, ist auch der Verbrauch höher.
Das ist nicht korrekt, GDDR5 hat eine deutlich niedrigere Spannung als schneller GDDR3 - 1.5V vs 1.8/1.9V. Laut Samsung und AMD hat ein GDDR5-Modul eine TDP von 2.5W, High-End GDDR3 liegt dagegen schon fast bei 3W.
Wie oft muss ich denn das noch erklären...

Gast
2009-02-05, 14:06:53
Das ist nicht korrekt, GDDR5 hat eine deutlich niedrigere Spannung als schneller GDDR3 - 1.5V vs 1.8/1.9V. Laut Samsung und AMD hat ein GDDR5-Modul eine TDP von 2.5W, High-End GDDR3 liegt dagegen schon fast bei 3W.
Wie oft muss ich denn das noch erklären...

Das hatten wir doch vor einigen Monaten schon einmal... ist nicht mal dabei rausgekommen, dass man bei einer hd 4870 enorm Strom einsparen kann, in dem man den Speicher runtertaktet? Hab da grad 30 Watt im Kopf. War glaub auf Computerbase.

Gast
2009-02-05, 14:09:02
ist nicht mal dabei rausgekommen, dass man bei einer hd 4870 enorm Strom einsparen kann, in dem man den Speicher runtertaktet? Hab da grad 30 Watt im Kopf. War glaub auf Computerbase.

das liegt aber höchstens am hitzköpfigen speichercontroller, nicht am speicher selbst.

Gast
2009-02-05, 14:12:16
Was mich aber wundert, ist dass GT200 anscheinend sogar weniger Leistung aufnimmt als RV770. Trotz höherer Transistoranzahl. Der RV770 scheint mit voller Macht auf seine 775 MHz geprügelt worden zu sein.

Und vor allem trotz höherer Auslastung, also mehr schaltender Transistoren zu jedem Zeitpunkt. Beim RV770 scheint ein einzelner 55nm Transistor fast doppelt soviel Leistung zu fressen wie beim GT200.

=Floi=
2009-02-05, 14:16:03
http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/juli/hd_4800_stromsparen/
Das ist schon ein beeindruckendes ergebnis.

edit
bei ati kann man ja auch mehr saft geben um auf höhere taktraten zu kommen. Ein 500mhz @1,0volt RV770 bringt ja nicht das was man will.

robbitop@work
2009-02-05, 14:43:16
ein einbruch der fillrate auf 1/5 ausgehend von 4xMSAA auf 8xMSAA hat garnantiert nichts mit bandbreite und VRAM zu tun.
Sage ich auch nicht. Lediglich, dass der G80 weniger in 8xMSAA einbricht als der G92 wegen VRAM und Bandbreite.

wenn deine theorie stimmen würde und die 8xMS-schwäche am trisetup liegen würde, dann müsste GT200 übrigens relativ noch stärker einbrechen, da das Trisetup seit G80 unverändert ist.
Man muss differenzieren. Es gibt nicht nur einen Flaschenhals. Nie. Der GT200 hat mehr Bandbreite und mehr VRAM als der G80. Und bricht deshalb nur einen Tick weniger ein. Aber immernoch zu viel. Es sollte aufgrund der Höhe der Z/Color-Fillrate klar sein, dass es nicht die ROPs sein müßten. Wirklich beweisen lässt sich ohne entsprechende Tools jedoch nichts von alledem.


Die Aussage ist so nicht haltbar. Wenn du dich auf GTX295 vs. 4870 X2 beziehst, dann solltest du schon bedenken das nV den Chip nach drei Respins alleine in 55nm mit nur 1.03V betreibt. Die 55nm Chips auf der GTX285 laufen mit bis zu 1.18V. Außerdem ist natürlich ein ROP-Cluster deaktiviert und die Taktraten sind niedriger.
Anscheinend verbaucht die 260-216 auch weniger als die 4870.


Die Performance wird dann aber auch nur um 50% steigen.

Bestes Beispiel ist der R580. Gegenüber dem R520 wurde die Anzahl von Shadereinheiten verdreifacht. Die Transistorzahl und näherungsweise auch die Diefläche wuchs dabei nur um 20%. Der Performancevorteil war allerdings auch kaum größer als diese 20%.
Das stimmt schon, was reunion sagt. Die delta 20% waren nur anfangs, als die Shaderlast noch nicht so hoch lag. In CoD4 habe ich damals bspw mal knappe 100 % delta gemessen. Sollte ja auch klar sein, wenn die Shaderlast steigt, dass sich der Flaschenhals verschiebt.

reunion
2009-02-05, 14:53:24
Anscheinend verbaucht die 260-216 auch weniger als die 4870.


Das ist aber kein voller GT200.

Ailuros
2009-02-05, 15:09:22
Wenn es nV schafft auch nur annähernd die Effizienz von AMD zu erreichen, dann ist ein großer Single-Chip natürlich klar überlegen.

Das ist mir zu verdammt vereinfacht und die meisten von Euch sind leider fuer 1.5 Seiten auf dem falschen Ball. Die wichtige Frage ist ob AMD in ihre D3D11 chips noch zusaetzliche Logik fuer GPGPU gesteckt hat oder nicht. Anstatt nur sinnlos GFLOPs unter DP zu zaehlen waere es zur Abwechslung auch mal nett, wenn man die zusaetzlichen DP Faehigkeiten eines GT200 mitberechnen wuerde.

Eure jeglichen Vergleiche die G92 und GT200 betreffen sind absolut nutzlos unter dieser Perspektive. Kommt mir jetzt jeman an mit standhaften Punkten dass A, B, C Faehigkeiten auf GT200 nutzlos sind um sie auch fuer die naechste Generation zu behalten, kann ich natuerlich gerne das Ganze auf einer anderen Basis diskuttieren.

Da aber RV870 nicht nur GT3x0 sondern auch Larabee als Vergleichsmass haben wird, wuerde ich nicht so einfach 1+2 addieren und auf der Eintagsfliege des RV770 ewig herumtanzen ohne einen Schritt weiterzudenken.

IHVs konzentrieren sich immer mehr auf GPGPU und das natuerlich aus gutem Grund, sonst muessen sich bald unter Umstaenden ueber den Buckel schauen was die CPUs betrifft. Wir brauchen also eine Grund-architektur fuer eine zukuenftige GPU die ebenso gut mit GPGPU als auch mit stinknormalem 3D rendering umgehen kann. Ueberhaupt fuer die Profi-Maerkte wo AMD bis jetzt noch keinen besonderen Durchbruch machen konnte.

Ich kann mir schwer vorstellen dass LRB nicht gut sein wird mit GPGPU und der erste der hier bedroht ist ist NVIDIA. Mit so hohen Marktanteilen wird es auch kein Wunder sein. Kann sich hier NV weiterhin ueber Wasser halten und kann auch in der Zukunft Gewinne aus diesen Maerkten ziehen, koennen monstroes grosse dies locker das R&D fuer alle Maerkte finanzieren. LRB wird ja auch kein besonders kleiner "die" sein; ueberhaupt da sie konstant die Anzahl der "many-cores" nach oben skalieren werden.

robbitop@work
2009-02-05, 15:20:06
Das ist aber kein voller GT200.
Er hat aber eine leicht höhere Leistungsfähgikeit. Jedenfalls verbraucht ein RV770 für sein schmales Transistorbudget nicht so wenig, wie ihm zuzutrauen wäre.

Gast
2009-02-05, 15:39:52
[url]
bei ati kann man ja auch mehr saft geben um auf höhere taktraten zu kommen.

Nö kann man nicht, der RV770 auf der 4870 reagiert fast gar nicht auf mehr Spannung, ein ganz deutlicher Beweiss dafür das der RV770 auf der 4870 von AMD so ziemlich am Limit getaktet wurde, der sehr hohe Strom Verbrauch für so eine "kleine" GPU ist ein weiteres zeichen dafür.


Die GTX 285 hat übrigens 1,15Volt und die GTX 280 hat 1,18Volt

LovesuckZ
2009-02-05, 15:54:12
Der Stromverbrauch hängt eben nicht von der Die-Größe ab, sondern von der Anzahl der Transistoren. Und mit ca. 960 Millionen hat man nunmal die GPU mit den zweitmeisten Transistoren.

Gast
2009-02-05, 16:09:15
Hab ich was anderes geschrieben? Im Vergleich zum G200 ist der RV770 halt einfach klein, da zwischen passt fast ein Kompletter G94!

drmaniac
2009-02-05, 16:22:19
was hat das alles eigentlich mit dem GT300 noch zu tun... ;) ?


.

Gaestle
2009-02-05, 16:45:57
Und was mit CUDA 3.0 (besonders die RV770-Diskussion)?

reunion
2009-02-05, 17:01:42
Das ist mir zu verdammt vereinfacht und die meisten von Euch sind leider fuer 1.5 Seiten auf dem falschen Ball. Die wichtige Frage ist ob AMD in ihre D3D11 chips noch zusaetzliche Logik fuer GPGPU gesteckt hat oder nicht. Anstatt nur sinnlos GFLOPs unter DP zu zaehlen waere es zur Abwechslung auch mal nett, wenn man die zusaetzlichen DP Faehigkeiten eines GT200 mitberechnen wuerde.

Wer braucht die zusätzliche DP-Fähigkeit denn wirklich? Und wie willst du diese einrechnen? Bis auf ein paar Spezialfälle sollte die DP-Fähigkeit von RV770 vollkommen ausreichen und das mit mehr Speed. Aber wenn wir schon dabei sind können wir auch gleich D3D10.1 und den Tesslator bei RV770 "einrechnen".

Coda
2009-02-05, 17:05:26
Gerade dort wo man mal DP benötigt ist höchste Genauigkeit gefragt.

Gast
2009-02-05, 17:20:14
Das mag sein. Aber da die maßgebliche Software für solche Anwendungen die Graka noch gar nicht nutzen kann und es wohl ein paar Generationen Softwarepflege braucht, bevor das möglich ist, ist dieses Feature wohl ziemlich uninteressant, vom aktuellen Standpunkt aus. Wenn die Software soweit ist, ist die aktuelle Generation schon lange Geschichte.

deekey777
2009-02-05, 17:21:34
Das mag sein. Aber da die maßgebliche Software für solche Anwendungen die Graka noch gar nicht nutzen kann und es wohl ein paar Generationen Softwarepflege braucht, bevor das möglich ist, ist dieses Feature wohl ziemlich uninteressant, vom aktuellen Standpunkt aus. Wenn die Software soweit ist, ist die aktuelle Generation schon lange Geschichte.

Natürlich kann die Software (CUDA) diese nutzen.

igg
2009-02-05, 17:22:30
Wenn die Software soweit ist, ist die aktuelle Generation schon lange Geschichte.
Das mag sein, aber die Frage ist welche Plattformen sich dann bereits so positioniert haben, dass die Entwickler sich daran orientieren.

Gast
2009-02-05, 22:27:06
Man muss differenzieren. Es gibt nicht nur einen Flaschenhals.

es gibt sogar fast immer genau einen flaschenhals, andernfalls hätten wir ein perfekt ausgelastetes system, was wohl ziemlich unwahrscheinlich ist.

Coda
2009-02-05, 22:28:38
Dieser kann sich in einer Szene aber je nach Pipelinekonfiguration/Shader stark verschieben.

Aber ich vermute wie gesagt, dass die 8xMSAA-Schwäche einfach daran liegt, dass das Framebufferformat unoptimiert dafür ist.

Ailuros
2009-02-06, 07:48:28
Wer braucht die zusätzliche DP-Fähigkeit denn wirklich? Und wie willst du diese einrechnen?

Nochmal wir reden hier ueber D3D11, GPGPU, Compute Shader, CUDA 3.0, OpenCL usw.

Bis auf ein paar Spezialfälle sollte die DP-Fähigkeit von RV770 vollkommen ausreichen und das mit mehr Speed.

Leistung stets mit begrenzten Faehigkeiten; und es tut mir aufrichtig leid aber jegliche "Spezialfaelle" sind eben von besonderer Interesse in Profi-Maerkten. Man braucht eben leider hoehere Genauigkeit mit DP.

Selbstverstaendlich koennte AMD all dies uebersehen; die wichtigere Frage ist ob AMD am Ende ein Interesse hat einen besseren Marktanteil im Profi-Markt zu erringen oder den ganzen Tango Intel<->NVIDIA am Ende zu ueberlassen. Ich persoenlich wuerde nein sagen, denn an einem Wille fuer Innovation fehlte es den ATI Kerlen bis jetzt nicht.

Aber wenn wir schon dabei sind können wir auch gleich D3D10.1 und den Tesslator bei RV770 "einrechnen".

D3D11-GT300-RV870-LRB...im Notfall beim tippen den Threadtitel so oft durchlesen bis es endlich richtig sitzt.

***edit:

Etwas Material von allen IHVs fuer diejenigen die es noch nicht gelesen haben:

http://s08.idav.ucdavis.edu/

Gast
2009-02-13, 04:35:41
wie stehn die Chancen dass die Karte endlich mal wieder ein Leistungssprung >50% in Games bringt...und ich mein nicht in riesen Auflösungen?

Gab doch letztens News das NV Verluste macht,kein Wunder,denn seit 2 Jahren gabs keine Leistungssprung

Coda
2009-02-13, 05:35:53
Dafür ist viel eher die allgemeine Finanzkriese verantwortlich

Gast
2009-02-13, 07:05:52
..........Leistung stets mit begrenzten Faehigkeiten; und es tut mir aufrichtig leid aber jegliche "Spezialfaelle" sind eben von besonderer Interesse in Profi-Maerkten. Man braucht eben leider hoehere Genauigkeit mit DP.

Selbstverstaendlich koennte AMD all dies uebersehen; die wichtigere Frage ist ob AMD am Ende ein Interesse hat einen besseren Marktanteil im Profi-Markt zu erringen oder den ganzen Tango Intel<->NVIDIA am Ende zu ueberlassen..............
Die ATi Karten = performance
ATi liegt mMn grade noch im Rahmen auch für nicht "Profis" und steigt mit ihren x800er Modellen noch in tiefere Gewässer des Profi-Sektors.
Das einzige was nicht auf dauer in diesem Konzept erfolgreich weiter werkeln kann, ist der immens starke Preis für soviel Leistung.
Aber wie wir schon wissen, dies dient ja nur dem einen -mehr Marktanteile. (imo bisher erfolgreich und Tendenz steigend 2xxx:down:/3xxx schon besser/4xxx:up: )

Das heißt nichts, aber sie könnten auf dem richtigen Weg sein.
Das einzige was mich an der These stört: geht AMD weiter den get performance - lose imagequality weg und schafft es noch 1-2 Generationen damit steigenden Absatz zu finden, wird das auch auf NV schlagen. Und wer in den nächsten Jahren den wirtschaftlichen Aspekt vor Augen verliert, könnte ganz schnell auch den Boden unter den füßen verlieren, soviel steht fest.

Da spielt auch LBR vorwiegend erstmal gar keine Rolle.

MFG Carsten

Ailuros
2009-02-13, 09:13:49
Die ATi Karten = performance
ATi liegt mMn grade noch im Rahmen auch für nicht "Profis" und steigt mit ihren x800er Modellen noch in tiefere Gewässer des Profi-Sektors.
Das einzige was nicht auf dauer in diesem Konzept erfolgreich weiter werkeln kann, ist der immens starke Preis für soviel Leistung.
Aber wie wir schon wissen, dies dient ja nur dem einen -mehr Marktanteile. (imo bisher erfolgreich und Tendenz steigend 2xxx:down:/3xxx schon besser/4xxx:up: )

Das heißt nichts, aber sie könnten auf dem richtigen Weg sein.
Das einzige was mich an der These stört: geht AMD weiter den get performance - lose imagequality weg und schafft es noch 1-2 Generationen damit steigenden Absatz zu finden, wird das auch auf NV schlagen. Und wer in den nächsten Jahren den wirtschaftlichen Aspekt vor Augen verliert, könnte ganz schnell auch den Boden unter den füßen verlieren, soviel steht fest.

Nach JPR kamen 90% von professionellen GPUs von NVIDIA fuer Q3 2008. Natuerlich wird AMD etwas von dem Prozentual mit den RV770 basierten FireGL und Co und vielleicht auch Nachfolgern abnagen koennen, aber wieviel gerade? Wenn ich eine theoretische Relation von 90:10 fuer das Rekordsquartal Q3/08' nehme hat AMD gute Chancen unter aeusserst idealen Vorraussetzungen eine ca. 70:30 Relation zu erreichen, was aber auch verdammt optimistisch ist.

Der Markt selber wird bestimmen was er genau braucht und nicht ein einziger IHV der immer noch ein ziemlich mickriges Prozentual in diesem Markt hat. Je kleiner die Marktanteil-Steigerung seitens AMD desto mehr muessen sie sich ueber die Schulter schauen langfristig wenn sie ueberhaupt der Markt stark interessieren sollte.

Insgesamt sieht es bei AMD generell nicht danach aus dass sie weitere Resourcen in irgend ein Geschaeft in absehbarer Zeit schuetten werden und obwohl es nach aussen aussehen koennte dass man alles moegliche tut um jegliche Grafik-Angelegenheit so gut wie moeglich zu erhalten, wird alles moegliche entbehrt und man arbeitet nur mit dem absoluten Minimum.

Mal was anderes hat der Verkauf der Handheld Sektion von AMD an Qualcolmm irgendetwas besonderes finanziell gebracht oder hat die spezifische Abteilung monstroese Resourcen verbraucht dass sie keinen relativ guten Umsatz aus diesem Markt gemacht haetten? Man ueberlaesst also den Markt freiwillig IMG und NVIDIA, waehrend Projektionen fuer 2012 von ca. 500M Handy SoCs von bis zu 40% von diesen 3D Beschleunigung haben soll, die handhelds von den grossen drei Herstellern erstmal gar nicht mitgerechnet. Mir tun nur die Bitboys Kerle leid, da dass ATi Schild immer noch frisch angeklebt war und man musste schon wieder auf Qualcolmm aendern.

Die Herren im obrigen Management von AMD sind immer noch verdammt naiv; die Kerle im ATI Team versuchen zwar ihr allerbestes aber die finale Entscheidungen treffen sie leider nicht. Es ist gar nicht so lange her wo es hiess dass sie nicht verstehen koennen wieso sie sich vor NVIDIA hueten sollten, da ihre Beziehungen mit NV ausgezeichnet waren. In der Zwischenzeit sind sie aufgewacht und haben eingesehen dass NV nicht den geringsten Skrupel hat fuer jeglichen Schlag unter dem Guertel; und natuerlich wissen sie auch in der Zwischenzeit dass das Rennen gegen Huang und seine Bande nicht so leicht sein wird wie sich manche vorstellten.

AMD muss einsehen dass CPUs zwar ihr Kerngeschaeft ist, aber ATI braucht einen um weiter besseren Stoss um noch gewinnreicher zu werden.

Da spielt auch LBR vorwiegend erstmal gar keine Rolle.

Intel's Problem was die insgesamte Philosophie seitens Grafik betrifft ist noch schlimmer. Zwar fehlt es in ihnen bei weitem nicht an Resourcen, aber ich habe Angst dass sie einen tieferen Dornroeschen-Schlaf als das obere Management von AMD schlafen.

Tatsaechlich ist LRB noch nicht erhaeltlich, aber es faellt mir schwer zu glauben dass das Ding nicht sehr konkurrenzfaehig in Sachen GPGPU sein wird. Hier wird langfristig erstmal NV's Marktanteil bedroht und um einiges mehr als AMD je zu Stande sein koennte. Der insgesamte Grafik-Markt von oben bis unten (Server/Workstation bis zu mobile/PDA) wird sich so langsam mehr und mehr auf GPGPU konzentrieren und hier hatte Apple gute Gruende sowohl OpenCL als offenen Standard freizugeben als auch IMG IP einzukaufen.

Um auf's eigentliche Thema des Threads zurueckzukommen: wie sehen denn die Ausgaben fuer R&D seitens NV in ihrem letzten finanziellen Bericht genau aus und noch spezifischer was haben sie genau in irgendwo um die 3 Mrd. Transistoren fuer GT3x0 genau eingepackt?

Entweder spinnen die NV engineers total und stehen vor einem noch groesserem "Fehlschlag" wie GT200, oder sie haben eben einfach besser fuer die Zukunft investiert.

V2.0
2009-02-13, 09:20:10
Die Profibereich word aber bald due Intel massiv unter Druck geraten, so dass AMD evtl. gut beraten ist sich da nicht wieter zu engagieren. NV wird dafür Chips bauen müssen, die für den Consumermarkt zu fett sind. Dort kann ATI weiter ausbauen und Anteile gewinnen.

Ich erwarte her, dass NV einen dicken Fehlschlag hinlegt, als dass AMD/ATI Probleme bekommen. NV ist zu arrogant um dauerhaft überleben zu können.

Ailuros
2009-02-13, 09:34:45
Die Profibereich word aber bald due Intel massiv unter Druck geraten, so dass AMD evtl. gut beraten ist sich da nicht wieter zu engagieren. NV wird dafür Chips bauen müssen, die für den Consumermarkt zu fett sind. Dort kann ATI weiter ausbauen und Anteile gewinnen.

Ich erwarte her, dass NV einen dicken Fehlschlag hinlegt, als dass AMD/ATI Probleme bekommen. NV ist zu arrogant um dauerhaft überleben zu können.

Dass NVIDIA dank ihrer Arroganz nicht ueberleben wird, ist das tollste Argument ueberhaupt.

Wie gross schaetzt Du ueberhaupt einen LRB chip ein?

reunion
2009-02-13, 10:08:05
Nach JPR kamen 90% von professionellen GPUs von NVIDIA fuer Q3 2008. Natuerlich wird AMD etwas von dem Prozentual mit den RV770 basierten FireGL und Co und vielleicht auch Nachfolgern abnagen koennen, aber wieviel gerade? Wenn ich eine theoretische Relation von 90:10 fuer das Rekordsquartal Q3/08' nehme hat AMD gute Chancen unter aeusserst idealen Vorraussetzungen eine ca. 70:30 Relation zu erreichen, was aber auch verdammt optimistisch ist.

Der Markt selber wird bestimmen was er genau braucht und nicht ein einziger IHV der immer noch ein ziemlich mickriges Prozentual in diesem Markt hat. Je kleiner die Marktanteil-Steigerung seitens AMD desto mehr muessen sie sich ueber die Schulter schauen langfristig wenn sie ueberhaupt der Markt stark interessieren sollte.

NV war in diesem Markt schon immer deutlich vor ATi, und da hier vorallem Beständigkeit zählt erwarte ich auch keine besonderen Verschiebungen der Marktanteile. AMD sollte mal lieber schauen endlich im wesentlich wichtigeren Notebookmarkt, wo man über 7 Jahre klarer Marktführer war den Spieß wieder umzudrehen.


Insgesamt sieht es bei AMD generell nicht danach aus dass sie weitere Resourcen in irgend ein Geschaeft in absehbarer Zeit schuetten werden und obwohl es nach aussen aussehen koennte dass man alles moegliche tut um jegliche Grafik-Angelegenheit so gut wie moeglich zu erhalten, wird alles moegliche entbehrt und man arbeitet nur mit dem absoluten Minimum.

Angesichts der aktuellen Bilanzen plus der Finanzkrise sollte klar sein das AMD hier finanziell sehr zurückhaltend agieren muss. Man kann nicht auf Dauer mit Verlusten wirtschaften.


Mal was anderes hat der Verkauf der Handheld Sektion von AMD an Qualcolmm irgendetwas besonderes finanziell gebracht oder hat die spezifische Abteilung monstroese Resourcen verbraucht dass sie keinen relativ guten Umsatz aus diesem Markt gemacht haetten? Man ueberlaesst also den Markt freiwillig IMG und NVIDIA, waehrend Projektionen fuer 2012 von ca. 500M Handy SoCs von bis zu 40% von diesen 3D Beschleunigung haben soll, die handhelds von den grossen drei Herstellern erstmal gar nicht mitgerechnet. Mir tun nur die Bitboys Kerle leid, da dass ATi Schild immer noch frisch angeklebt war und man musste schon wieder auf Qualcolmm aendern.


AMD muss sich auf das Kerngeschäft konzentrieren, die Sparte war einfach vor den Aktionären nicht mehr haltbar. Du magst zwar recht haben mit deinen Prognosen, aber in den letzten Quartalen seit der AMD-Übernahme schrieb diese Sparte laufend hohe Verluste.

Gast
2009-02-13, 10:31:57
AMD sollte mal lieber schau endlich im wesentlich wichtigeren Notebookmarkt, wo man über 7 Jahre klarer Marktführer war den Spieß wieder umzudrehen.


Dazu müssen sie erst einmal den Energieverbrauch ihrer Chips in den Griff bekommen, da lagen sie nämlich auch mal vor NVidia, aber seit den R5xx ist das vorbei.

dargo
2009-02-13, 10:57:14
wie stehn die Chancen dass die Karte endlich mal wieder ein Leistungssprung >50% in Games bringt...und ich mein nicht in riesen Auflösungen?

Was CPU-/ und GPU-Limits bedeutet ist dir bekannt?

Undertaker
2009-02-13, 11:05:23
Ich denk mal er meint Fälle wie hier:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/14/#abschnitt_crysis_warhead

Da gibt es nach wie vor keine Single-GPU, die z.B. gegenüber meiner 8800GT eine Performanceverdoppelung bringen würde - unter AA/AF mag das anders aussehen, aber dafür fehlt in diesem Spiel so oder so die Leistung. Ich brauche mehr Rohpower und keine effizienteren Filter :(

dargo
2009-02-13, 11:17:18
@Undertaker
Selber Schuld kann ich da nur sagen wenn du dich an Enthusiast bzw. Very High orientierst.

1. Crysis = Mster Config
2. Warhead = Config von Jake Dunn

So einfach kann die Lösung sein. Gut... das wird wahrscheinlich nicht viel daran ändern, dass es für dich keine SingleGPU-Lösung gibt die > doppelt so schnell ist wie eine G8800GT.

Hugo
2009-02-13, 11:28:16
Um auf's eigentliche Thema des Threads zurueckzukommen: wie sehen denn die Ausgaben fuer R&D seitens NV in ihrem letzten finanziellen Bericht genau aus und noch spezifischer was haben sie genau in irgendwo um die 3 Mrd. Transistoren fuer GT3x0 genau eingepackt?

Entweder spinnen die NV engineers total und stehen vor einem noch groesserem "Fehlschlag" wie GT200, oder sie haben eben einfach besser fuer die Zukunft investiert.


verstehe ich dich richtig, dass GT300 ca 3Mrd Transitoren :eek: schwer sein wird?

Ich erwarte einen sehr guten GT300. Ich vergleich die jetzige Situation von NV eher mit dem NV30 debakel. Man hatte sich sehr auf GF3/4 ausgeruht und ATI bei der 9700 unterschätzt. Ähnlich wie sie den RV770 unterschätzt haben, nur mit dem Unterschied, dass der GT200 ein sehr guter Chip ist, der die RV770 locker im Griff hat nur halt zu teuer ist.

Also ich denke NV hat sich auf den Hosenboden gestzt und bringt nen sehr guten GT300. Sie hatten ja genaug Zeit. Seit dem G80 is ja technisch nicht viel neues gekommen. Da werden sie die ganzen Resourcen wohl in das GT300 Design gesteckt haben. oder nicht?


Dass NVIDIA dank ihrer Arroganz nicht ueberleben wird, ist das tollste Argument ueberhaupt.

Wie gross schaetzt Du ueberhaupt einen LRB chip ein?


ich schätze den LRB >450mm²

Gast
2009-02-13, 11:55:07
Man hatte sich sehr auf GF3/4 ausgeruht und ATI bei der 9700 unterschätzt.

Man hat nicht den R300 unterschätzt, sondern die DX9 Spezifikation anders erwartet als sie letztendlich kam.

Ailuros
2009-02-13, 12:05:17
NV war in diesem Markt schon immer deutlich vor ATi, und da hier vorallem Beständigkeit zählt erwarte ich auch keine besonderen Verschiebungen der Marktanteile. AMD sollte mal lieber schauen endlich im wesentlich wichtigeren Notebookmarkt, wo man über 7 Jahre klarer Marktführer war den Spieß wieder umzudrehen.........

Angesichts der aktuellen Bilanzen plus der Finanzkrise sollte klar sein das AMD hier finanziell sehr zurückhaltend agieren muss. Man kann nicht auf Dauer mit Verlusten wirtschaften.

Es ist schoen wenn ich mit Dir ab und zu uebereinstimmen kann :)

AMD muss sich auf das Kerngeschäft konzentrieren, die Sparte war einfach vor den Aktionären nicht mehr haltbar. Du magst zwar recht haben mit deinen Prognosen, aber in den letzten Quartalen seit der AMD-Übernahme schrieb diese Sparte laufend hohe Verluste.

Das obrige war wohl etwas voreilig LOL :D

Spass beiseite es ist ja normal dass man zu Verlusten kommt wenn man versucht grosse semis mit fetten Versprechungen und tragisch niedrigen Preisen heranzulotzen. Weder der erste noch der zweiter Generation Imageon war der Rede wert. Ein IHV mit der Erfahrung von ATi haette wissen sollen dass man sich u.a. auch an der Konkurrenz orientiert; gut beim ersten Imageon hatte man einen voodoo-artigen multimedia chip das ging ja noch halbwegs, aber fuer die zweite Generation haette man schon wirklich einen richtigen Xenos-Ableger liefern koennen (stets ohne eDRAM).

Die Philosophie bei Qualcolmm bzw. ex-Bitboys die ich hier und da lese hat sich auch nicht besonders geaendert. Der Markt braucht nur Beschleuniger fuer advanced UIs und danach die Sintflut; da koennen sie sich lange darueber beschweren dass IMG anscheinend nur mit Marketing-Gefusel ihre Deals gewinnen. Bescheidene designs bedeutet auch leider bescheidene Ambitionen und auch hier treiben leider so viel wie moegliche Features bei dem kleinst moeglichen Stromverbrauch von high end bis budget diesen Markt an.

verstehe ich dich richtig, dass GT300 ca 3Mrd Transitoren :eek: schwer sein wird?

Wenn der die fast so gross wie GT200 sein soll und dass unter 40nm, klingt das nach weniger Transistoren?

Ich erwarte einen sehr guten GT300.

Nichts ist je garantiert; ich dachte dasselbe auch bei GT200 aber da der Vergleich mit RV770 etwas zwielichtig aussieht, warte ich lieber ab denn die alle bisherigen Infos fuer RV870 scheinen fuer die Muelltonne zu sein.


Also ich denke NV hat sich auf den Hosenboden gestzt und bringt nen sehr guten GT300. Sie hatten ja genaug Zeit. Seit dem G80 is ja technisch nicht viel neues gekommen. Da werden sie die ganzen Resourcen wohl in das GT300 Design gesteckt haben. oder nicht?

Kirk blubberte etwas von 1Mrd $ fuer R&D fuer das gesamte Jahr (2009).

ich schätze den LRB >450mm²

Unter 45nm kann es durchaus stimmen. Mehr als das duerfte extrem schwer sein, da der Stromverbrauch durch die Decke jagen wuerde.

Man hat nicht den R300 unterschätzt, sondern die DX9 Spezifikation anders erwartet als sie letztendlich kam.

Das ist eine Perskeptive; die andere Perspektive waere dass andere IHVs (und nicht nur ATI; zaehl mal alle IHVs die mit der gleichen Praezision wie ATi ankamen) eine bessere Loesung fuer D3D9.0 waehlten.

Undertaker
2009-02-13, 12:15:53
@Undertaker
Selber Schuld kann ich da nur sagen wenn du dich an Enthusiast bzw. Very High orientierst.

1. Crysis = Mster Config
2. Warhead = Config von Jake Dunn

So einfach kann die Lösung sein. Gut... das wird wahrscheinlich nicht viel daran ändern, dass es für dich keine SingleGPU-Lösung gibt die > doppelt so schnell ist wie eine G8800GT.

Du sagst es ja schon selbst, das wird zwar die FPS allgemein erhöhen, aber eher nicht die allgemeinen Relationen ohne AA/AF verändern - und dafür sehe ich selbst mit getweakter Config in meiner präferierten Auflösung (1920x1200/1080) noch keine Spielräume. Eine vom P/L gut liegende GTX260² liefert nicht einmal 50%+ im erwähnten Szenario... Schon schade :(

AnarchX
2009-02-13, 12:39:52
Wenn der die fast so gross wie GT200 sein soll und dass unter 40nm, klingt das nach weniger Transistoren?

Beziehst du dich auf den Post aus dem B3D?

Ich kann mir ehrlich gesagt, wenn NV die generelle Effizienz gegenüber GT200 erhöhen will, nicht vorstellen, dass man im Q4 schon so an die Grenzen des 40nm Prozesses geht.

Eine andere Möglichkeit wäre ja, dass die Single-Chip-High-End-Präferenz nur unter eine bestimmten Bedingung gilt, nämlich bis man eine bessere Lösung hat und vielleicht ist GT300 der Beginn dieser neuen Strategie und bringt ein entsprechendes Multi-Die-Konzept mit sich.

AffenJack
2009-02-13, 12:45:54
Wieso sollte man in q4 nicht an die grenzen von 40nm gehen? Q4 2010 dürfte die 32nm generation kommen, wenn die fertigung sich nicht verschiebt, in der zwischenzeit wird man wohl kaum was größeres als gt300 bringen. Das design muss schon ne zeit lang überleben.

Ailuros
2009-02-13, 12:46:19
Beziehst du dich auf den Post aus dem B3D?

Nein; ich hoere es schon seit einiger Zeit und bei direkter Anfrage bekam ich nur ein albernes Grinsen LOL.

Ich kann mir ehrlich gesagt, wenn NV die generelle Effizienz gegenüber GT200 erhöhen will, nicht vorstellen, dass man im Q4 schon so an die Grenzen des 40nm Prozesses geht.

NV koennte locker wieder die gesamte Welt verarschen wie vor dem G80. Trotzdem soll GT3x nicht besonders viel mit GT200 zu tun haben. Dass sich aber NV umdreht und auf sich auf mainstream GPUs konzentriert und den high end Markt mit dual-Dingsbumsen bedient kann ich nicht glauben. Das einzig moegliche in meinem Hinterkopf ist dass jemand nicht deutlich genug gefragt hat welcher GT200 genau gemeint ist, denn zwischen 480 und 580mm2 liegt schon ein gewisser Unterschied.

Eine andere Möglichkeit wäre ja, dass die Single-Chip-High-End-Präferenz nur unter eine bestimmten Bedingung gilt, nämlich bis man eine bessere Lösung hat und vielleicht ist GT300 der Beginn dieser neuen Strategie und bringt ein entsprechendes Multi-Die-Konzept mit sich.

Siehe oben.

Wieso sollte man in q4 nicht an die grenzen von 40nm gehen? Q4 2010 dürfte die 32nm generation kommen, wenn die fertigung sich nicht verschiebt, in der zwischenzeit wird man wohl kaum was größeres als gt300 bringen. Das design muss schon ne zeit lang überleben.

Weil das Risiko verdammt gross ist wenn man theoretisch einen >550mm2 die unter 40nm bedenkt. Und das letzte was NV sehen moechte sind selbst die kleinsten Verspaetungen fuer D3D11. Das heisst aber nicht unbedingt dass es NV nicht schaffen wird. Wenn der GT212 zu seiner projezierten Zeit seinen tape out haben wird, werden jegliche Spekulationen fuer einen fast 2x so grossen chip leichter sein.

Hugo
2009-02-13, 13:30:41
Wenn der die fast so gross wie GT200 sein soll und dass unter 40nm, klingt das nach weniger Transistoren?


das ist das erste mal dass ich höre, dass GT300 gleich groß zu GT200 sein soll ;)
ich gehe davon aus dass er mehr Transistoren haben wird als GT200. Dachte so an 2.2 - 2,5 Mrd.


Unter 45nm kann es durchaus stimmen. Mehr als das duerfte extrem schwer sein, da der Stromverbrauch durch die Decke jagen wuerde.


ich denke der LRB wird mehr verbrauchen als GT300 oder RV870 und der Die wird auch größer sein.


Das ist eine Perskeptive; die andere Perspektive waere dass andere IHVs (und nicht nur ATI; zaehl mal alle IHVs die mit der gleichen Praezision wie ATi ankamen) eine bessere Loesung fuer D3D9.0 waehlten.

Ich hatte mal gehört MS hätte kurzfristig die Spezifikationen für D3D9.0 zugunsten von ATI geändert und dadurch lagen einige Recheneinheiten beim NV30 brach.


Nichts ist je garantiert; ich dachte dasselbe auch bei GT200 aber da der Vergleich mit RV770 etwas zwielichtig aussieht, warte ich lieber ab denn die alle bisherigen Infos fuer RV870 scheinen fuer die Muelltonne zu sein.


man kann ja nicht sagen dass GT200 schlecht ist. ;) Er ist halt mit zusätlichen Features ausgestattet, die die Gamer nicht benötigen.
ATI hat sich auf Games konzentriert und man sieht was rausgekommen ist. Der RV770 ist ein guter Chip. Er hat ja auch fast 1Mrd Trans. was man nicht vergessen sollte.
NV ist seit NV30 beim Herstellungsprozess sehr konservativ, was ja bis jetzt immer sehr gut klappte.
Hätten sie den GT200 sofort in 55nm ausgeliefert hätte er nicht so einen schlechten Ruf abbekommen. Was meiner Meinung nach zu unrecht ist.
Hätte NV die 1,4Mrd Trans nur fürs Gaming genutzt und alles GPGPU rausgeschmissen, wäre bestimmt der erwartete High End Chip rausgekommen.
Abr sie haben eben noch den Prof-Sektor den sie nicht vernachlässigen wollten. Was meiner Meinung nach voll i.O. geht.
Wenn sie sich auf absehbare Zeit mit LRB rumschlagen müssen, haben sie beim GT200 alles richtig gemacht.

Ailuros
2009-02-13, 13:49:27
das ist das erste mal dass ich höre, dass GT300 gleich groß zu GT200 sein soll ;)
ich gehe davon aus dass er mehr Transistoren haben wird als GT200. Dachte so an 2.2 - 2,5 Mrd.

Afaik GT212@40nm <300mm2, 1.8M

ich denke der LRB wird mehr verbrauchen als GT300 oder RV870 und der Die wird auch größer sein.

So sieht es leider momentan aus.

Ich hatte mal gehört MS hätte kurzfristig die Spezifikationen für D3D9.0 zugunsten von ATI geändert und dadurch lagen einige Recheneinheiten beim NV30 brach.

Das Board hat ausser Microsoft jeweils einen Representativen von jedem IHV (inkl. auch Intel) wo die meisten IHVs eine Stimme haben. NV war der einzige IHV der FX12 als gute Idee empfand, waehrend die Mehrzahl der anderen IHVs fuer FP24 stimmten. Schau Dir die ersten DX9 GPUs von allen IHVs der Zeit an und es ist leicht zu sehen dass die meisten FP24 unterstuetzen. Die beste der vorgeschlagenen Ideen gewinnt normalerweise und obwohl ein API eine lange Zeit vor dessen Veroeffentlichung von Microsoft + IHVs bestimmt wird, haben die IHVs nicht immer genug Zeit fuer grosse Aenderungen.

Hätten sie den GT200 sofort in 55nm ausgeliefert hätte er nicht so einen schlechten Ruf abbekommen. Was meiner Meinung nach zu unrecht ist.
Hätte NV die 1,4Mrd Trans nur fürs Gaming genutzt und alles GPGPU rausgeschmissen, wäre bestimmt der erwartete High End Chip rausgekommen.
Abr sie haben eben noch den Prof-Sektor den sie nicht vernachlässigen wollten. Was meiner Meinung nach voll i.O. geht.
Wenn sie sich auf absehbare Zeit mit LRB rumschlagen müssen, haben sie beim GT200 alles richtig gemacht.

GT200 war von Anfang an fuer 65nm ausgelegt. Obwohl es unendliche interne Debatten gab ob man das Ding doch noch veroeffentlichen soll, haetten sie nichts als Antwort auf RV770 gehabt was auch nicht gerade ideal gewesen waere. Als chip hat GT200 tatsaechlich nichts falsches, nur ist eben dank dem zusaetzlichen DP/GPGPU Zeug das Leistungs/mm2 Ratio im Vergleich zu RV770 eher miserabel.

GT3x0 hat als direktes Ziel LRB und unter dem Gedanken dass der letzte sich gut in Profi-Maerkten behaupten koennte hat NV noch mehr in die Richtung mit dem D3D11 investiert. Ganz oben auf der Liste der Prioritaeten fuer NV stand Stromverbrauch und dicht dahinter so viel wie moeglich ff hw zu entbehren um die insgesamte Programmierbarkeit weiter zu erhoehen. Umsonst kommt das Ganze leider nicht; bleibt lediglich die wichtige Frage wieviel ff verschwunden ist und ob sich die insgesamte Effizienz gegenueber der vorigen Generation radikal gesteigert hat.

V2.0
2009-02-13, 14:15:36
Dass NVIDIA dank ihrer Arroganz nicht ueberleben wird, ist das tollste Argument ueberhaupt.

Wie gross schaetzt Du ueberhaupt einen LRB chip ein?

Groß. In 45nm größer als seine Mitbewerber und stromhungriger. In GPGPU konkurrenzfähig, im "normalen" Desktopbereich eher nicht so stark.

Aber Intel ist Intel. Die werden das Ding in den Profimarkt drücken. Zwischen Intel mit LRB und NV mit G300 ist imho kaum noch Platz für AMD. So gesehen ist es schlau evtl. einen weniger GPGPU fixierten Chip zu bauen, der noch mehr FF enthält, aber evtl. unter den bei der Vorstellung aktuellen Spielen Vorteile hat. Ist er dazu noch sparsam kommt man auch im Mobilemarkt wieder besser ins Rennen.

Ailuros
2009-02-13, 14:32:58
Groß. In 45nm größer als seine Mitbewerber und stromhungriger. In GPGPU konkurrenzfähig, im "normalen" Desktopbereich eher nicht so stark.

Aber Intel ist Intel. Die werden das Ding in den Profimarkt drücken. Zwischen Intel mit LRB und NV mit G300 ist imho kaum noch Platz für AMD. So gesehen ist es schlau evtl. einen weniger GPGPU fixierten Chip zu bauen, der noch mehr FF enthält, aber evtl. unter den bei der Vorstellung aktuellen Spielen Vorteile hat. Ist er dazu noch sparsam kommt man auch im Mobilemarkt wieder besser ins Rennen.

Tja das dumme ist nur dass wenn ich mich nicht verdammt und ich meine VERDAMMT verrechnet habe, wird langfristig GPGPU lebenswichtig fuer jegliche GPU egal wie klein diese ist.

Klar passiert so was nicht ueber Nacht aber man muss stets fuer die Zukunft vorsorgen und ich persoenlich glaube nicht dass AMD in diesem Bereich fuer RV870 zu stark vernachlaessigt hat. Deshalb sage ich ja auch dass jegliche bisherige Spekulation fuer RV870 fuer die Muelltonne sein sollte.

Wenn AMD generell so weitermachen wuerde wie hier manche zu glauben vermoegen werden konstant die Anzahl der Maerkte fuer ATI schrumpfen und es wird langfristig auch keine besondere Optionen der fuer das Wachstum dieser Abteilung sorgen wuerde.

Deshalb komm ich nochmal auf meinen originalen Punkt zurueck: kann es sein dass die meisten von Euch den RV870 unterschaetzen und dass der Vergleich GT3x0<->RV870 nicht mehr so rosig fuer ATI aussehen wird als GT200<->RV770?

[fu]121Ah
2009-02-13, 15:33:40
Tja das dumme ist nur dass wenn ich mich nicht verdammt und ich meine VERDAMMT verrechnet habe, wird langfristig GPGPU lebenswichtig fuer jegliche GPU egal wie klein diese ist.

Klar passiert so was nicht ueber Nacht aber man muss stets fuer die Zukunft vorsorgen und ich persoenlich glaube nicht dass AMD in diesem Bereich fuer RV870 zu stark vernachlaessigt hat. Deshalb sage ich ja auch dass jegliche bisherige Spekulation fuer RV870 fuer die Muelltonne sein sollte.

Wenn AMD generell so weitermachen wuerde wie hier manche zu glauben vermoegen werden konstant die Anzahl der Maerkte fuer ATI schrumpfen und es wird langfristig auch keine besondere Optionen der fuer das Wachstum dieser Abteilung sorgen wuerde.

Deshalb komm ich nochmal auf meinen originalen Punkt zurueck: kann es sein dass die meisten von Euch den RV870 unterschaetzen und dass der Vergleich GT3x0<->RV870 nicht mehr so rosig fuer ATI aussehen wird als GT200<->RV770?
dem ist nicht viel hinzuzufügen. generell wird der rv870 wohl eher unterschätzt, allgemein betrachtet schätze ich die GPGPU Fähigkeit und unabhängigkeit von FF bei ATI nicht als so schlecht ein, wie vielleicht oft suggeriert wird - Unabhängigkeit von FF in dem Zusammenhang, dass das Design nicht statischer als das von NV ist.

Abgesehen davon gebe ich AMD noch einen Trumpf mit in die Hand, und zwar ein funktionierender x86 Prozess(or). was man daraus macht, ist die andere Frage. Ich werfe dies ein, da ja LRB offensichtlich gewissermassen x86 kompatibel ist, die frage ist dann, wie wird geproggt.

Gast
2009-02-13, 16:37:41
Das ist eine Perskeptive; die andere Perspektive waere dass andere IHVs (und nicht nur ATI; zaehl mal alle IHVs die mit der gleichen Praezision wie ATi ankamen) eine bessere Loesung fuer D3D9.0 waehlten.

Mit D3D9 wurde in der finalen Spec zum ersten Mal eine Mindest-Rechenpräzision festgelegt, als Nv die Entwicklung der GFFX abgeschlossen hatte, war davon noch nichts zu sehen. Es ist halt nicht immer von Vorteil, zeitlich der Konkurrenz weit voraus zu sein.

Hugo
2009-02-13, 16:43:21
Deshalb komm ich nochmal auf meinen originalen Punkt zurueck: kann es sein dass die meisten von Euch den RV870 unterschaetzen und dass der Vergleich GT3x0<->RV870 nicht mehr so rosig fuer ATI aussehen wird als GT200<->RV770?

Wie kann ich dich verstehen?
Wenn wir RV870 unterschätzen heißt es doch er ist besser als wirdenken. Sollte es nicht dann besser für ATI aussehen?

Coda
2009-02-13, 16:56:15
Ich denke er meint überschätzen.

Hugo
2009-02-13, 17:00:38
GT200 war von Anfang an fuer 65nm ausgelegt. Obwohl es unendliche interne Debatten gab ob man das Ding doch noch veroeffentlichen soll, haetten sie nichts als Antwort auf RV770 gehabt was auch nicht gerade ideal gewesen waere. Als chip hat GT200 tatsaechlich nichts falsches, nur ist eben dank dem zusaetzlichen DP/GPGPU Zeug das Leistungs/mm2 Ratio im Vergleich zu RV770 eher miserabel.

einwas versteh ich bis heute nicht. Hätte NV den GT200 nicht gebracht, was hätten sie den nda gemacht? Sie haben ja letztes jahr nur den GT200 gebracht

reunion
2009-02-13, 17:02:11
Es gab interne Debatten ob man den 65nm GT200 überhaupt noch bringen sollte oder nicht gleich auf 55nm setzt.

Ich denke er meint überschätzen.

Natürlich meint er überschätzen. Es wäre schon mehr als erstaunlich wenn AMD diesen Effizienzvorteil mit dem bisschen an Ressourcen halten könnte. Angesichts der momentanen finanziellen Lage von AMD und der im Vergleich zu nV lächerlich wirkenden R&D-Ausgaben ist eigentlich schon der status quo für nV ziemlich erbärmlich.

AnarchX
2009-02-13, 17:08:08
Eigentlich hätte die 65nm Version wohl schon Ende 2007 auf den Markt gebracht werden sollen, wenn man die Ankündigung zu DP im ersten CUDA-FAQ in Betracht zieht.
Wobei das auch der G90 gewesen sein kann, der in einer Schublade verschwunden sein soll...

Hugo
2009-02-13, 17:35:40
Eigentlich hätte die 65nm Version wohl schon Ende 2007 auf den Markt gebracht werden sollen, wenn man die Ankündigung zu DP im ersten CUDA-FAQ in Betracht zieht.
Wobei das auch der G90 gewesen sein kann, der in einer Schublade verschwunden sein soll...

wie hätte denn der G90 aussehen sollen?
Irgendwo hab ich mal gelesen NV hätte soviel in der Schublade sie könnten auf alles von ATI reagieren.
Is ihnen der Schlüssel abgebrochen ? ;-)


EAngesichts der momentanen finanziellen Lage von AMD und der im Vergleich zu nV lächerlich wirkenden R&D-Ausgaben ist eigentlich schon der status quo für nV ziemlich erbärmlich.

Ich finde nicht dass NV zweiter ist ;)
Das kann man sehen wie man will. Sie haben den schnellsten Chip was will man mehr. Er ist nur zu teuer

Gast
2009-02-13, 17:40:20
Wie kann ich dich verstehen?
Wenn wir RV870 unterschätzen heißt es doch er ist besser als wirdenken. Sollte es nicht dann besser für ATI aussehen?
Unterschätzen: Die meisten denken es wird eine GPU wie RV770 mit nicht so erweiterten GPGPU-Fähigkeiten wie zb der RV770 im Vergleich zum GT200
Vergleich RV870 vs. GT300 nicht so rosig: Aufgrund obigen Umstandes kann AMD nicht mehr so stark im gaming-Bereich von der GPU-Fokussierung punkten

LovesuckZ
2009-02-13, 17:46:13
Natürlich meint er überschätzen. Es wäre schon mehr als erstaunlich wenn AMD diesen Effizienzvorteil mit dem bisschen an Ressourcen halten könnte. Angesichts der momentanen finanziellen Lage von AMD und der im Vergleich zu nV lächerlich wirkenden R&D-Ausgaben ist eigentlich schon der status quo für nV ziemlich erbärmlich.

nVidia hat Geld verdient als man Geld verdienen konnte. Es zeigt, dass man Geld nur mit margenreichen Produkten einnehmen kann - und das bedeutet nicht, billig zu produzieren und billig zu verkaufen.
Ist es nicht erstaunlich, dass nVidia am meisten verdient hat als du dich fragend hier geschrieben hast, wie sie nur mit 330mm^2 konkurrieren könnten? AMD verkauft jetzt 260mm^2 für 90€, nVidia hat 330€ für 200€ verkauft. Der jetzige Zeitpunkt ist nicht "ziemlich erbärmlich" sondern nur ein Resultat aus AMD's Unvermögen langfristig zu planen. Immerhin ist der G92b nicht schlechter als der rv770 und mit einer 8800gts-512 und 330mm^2 hat man 4850 Leistung für den fast doppelten Einstiegspreis verkauft - bei nicht deutlich mehr Produktionskosten.

reunion
2009-02-13, 18:15:20
nVidia hat Geld verdient als man Geld verdienen konnte.

Tja, den Zeitpunkt einer Wirtschaftskrise kann sich niemand aussuchen. Im Q3 konnte man noch alleine durch RV770 die Bilanz von $38mio Verlust auf 47mio Gewinn umdrehen.


Es zeigt, dass man Geld nur mit margenreichen Produkten einnehmen kann - und das bedeutet nicht, billig zu produzieren und billig zu verkaufen.

Entweder hohe Margen oder hohe Stückzahlen - am besten natürlich beides. Jedenfalls ist es noch immer besser billig zu produzieren und billig zu verkaufen (und so mittels Stückzahlen ans Ziel zu kommen) als teuer zu produzieren und billig verkaufen zu müssen.


Ist es nicht erstaunlich, dass nVidia am meisten verdient hat als du dich fragend hier geschrieben hast, wie sie nur mit 330mm^2 konkurrieren könnten?

Nein, da sie die niedrigen Margen mit hohen Stückzahlen ausgleichen konnten.


AMD verkauft jetzt 260mm^2 für 90€, nVidia hat 330€ für 200€ verkauft. Der jetzige Zeitpunkt ist nicht "ziemlich erbärmlich" sondern nur ein Resultat aus AMD's Unvermögen langfristig zu planen.

Natürlich nVs verhältnismäßig schlechte Konkurrenzfähigkeit ist "ein Resultat aus AMD's Unvermögen langfristig zu planen". Das muss man nicht verstehen oder? AMD hat es geschafft mit einem Bruchteil der Ressourcen einen sehr konkurrenzfähigen Chip zu designen. Das halte ich für beachtlich.


Immerhin ist der G92b nicht schlechter als der rv770 und mit einer 8800gts-512 und 330mm^2 hat man 4850 Leistung für den fast doppelten Einstiegspreis verkauft - bei nicht deutlich mehr Produktionskosten.

G92b ist langsamer als RV770 und größer.

LovesuckZ
2009-02-13, 18:38:39
Tja, den Zeitpunkt einer Wirtschaftskrise kann sich niemand aussuchen. Im Q3 konnte man noch alleine durch RV770 die Bilanz von $38mio Verlust auf 47mio Gewinn umdrehen.

Falsch, in der Grafikkartenabteilung fließt weitaus mehr ein als nur Desktopgrafikkarten.


Entweder hohe Margen oder hohe Stückzahlen - am besten natürlich beides. Jedenfalls ist es noch immer besser billig zu produzieren und billig zu verkaufen (und so mittels Stückzahlen ans Ziel zu kommen) als teuer zu produzieren und billig verkaufen zu müssen.

Sie produzieren nicht billig - jedenfalls nicht im Vergleich zu den Karten, die früher in dem Segment verkauft wurden. Und das, was billig zu produzieren ist, wird für ein Appel und Ei verkauft.


Nein, da sie die niedrigen Margen mit hohen Stückzahlen ausgleichen konnten.

Wenn also der G92 niedrige Marge gehabt hätte, wie bezeichnet man den Status des rv770? Mit Null?


Natürlich nVs verhältnismäßig schlechte Konkurrenzfähigkeit ist "ein Resultat aus AMD's Unvermögen langfristig zu planen". Das muss man nicht verstehen oder? AMD hat es geschafft mit einem Bruchteil der Ressourcen einen sehr konkurrenzfähigen Chip zu designen. Das halte ich für beachtlich.

"Ein Bruchteil der Ressourcen"? Vergessen wir hier r600 und rv670? Beides Chips, die schlussendlich für AMD ein Flop waren. Und das man mit dem rv770 die Leistung eines G80 erreicht hat, ist in keinster Weise beachtlich.
Und wie soll mit diesem Markt weitergehen? Sollten die nächsten Karten nicht unverhaltensmäßig schnell werden, müssen sie wieder für ein Appel und Ei verkauft werden. Wo ist da die Strategie von AMD, nachdem sie den Markt komplett um drei Stufen heruntergeschraubt haben? Hohe Preise garantieren Margensicherheit und langfristige Strategien. Heute sieht man nur, dass umsatzmäßig nichts mehr zu holen.



G92b ist langsamer als RV770 und größer.

Dafür war er wesentlich billiger im Gesamtkonzept - ein einfacher Shrink, der seine ganzen Kosten schon längst durch den G92 eingespielt hat.

reunion
2009-02-13, 18:55:55
Falsch, in der Grafikkartenabteilung fließt weitaus mehr ein als nur Desktopgrafikkarten.

RV770 war das einzig neue Produkt welches einen Unterschied zum Q2 ausmachen konnte.


Sie produzieren nicht billig - jedenfalls nicht im Vergleich zu den Karten, die früher in dem Segment verkauft wurden. Und das, was billig zu produzieren ist, wird für ein Appel und Ei verkauft.

Sie produzieren billig im Vergleich zu Konkurrenz und das ist das entscheidende. Das eine solche Situation einen Preiskampf auslöst ist wenig verwunderlich.


Wenn also der G92 niedrige Marge gehabt hätte, wie bezeichnet man den Status des rv770? Mit Null?

Man sollte die zeitliche Komponente nicht vergessen.


"Ein Bruchteil der Ressourcen"? Vergessen wir hier r600 und rv670? Beides Chips, die schlussendlich für AMD ein Flop waren.

Ich verstehe bei besten Willen den Zusammenhang nicht. Damit meinte ich einen Bruchteil der finanziellen Mittel.


Und das man mit dem rv770 die Leistung eines G80 erreicht hat, ist in keinster Weise beachtlich.

Aus Sicht der Leistung/mm² sehr wohl. RV770 war nie als High-End-Chip geplant.


Und wie soll mit diesem Markt weitergehen? Sollten die nächsten Karten nicht unverhaltensmäßig schnell werden, müssen sie wieder für ein Appel und Ei verkauft werden. Wo ist da die Strategie von AMD, nachdem sie den Markt komplett um drei Stufen heruntergeschraubt haben? Hohe Preise garantieren Margensicherheit und langfristige Strategien. Heute sieht man nur, dass umsatzmäßig nichts mehr zu holen.

Ein hoher Marktanteil garantiert Marktmacht. Unbezahlbar wenn man der Underdog ist.


Dafür war er wesentlich billiger im Gesamtkonzept - ein einfacher Shrink, der seine ganzen Kosten schon längst durch den G92 eingespielt hat.

Er war früher am Markt. War ja auch kaum mehr als ein G80-Shrink.

LovesuckZ
2009-02-13, 19:15:41
RV770 war das einzig neue Produkt welches einen Unterschied zum Q2 ausmachen konnte.

Da es keine genaue Aufsplittung gibt, ist es falsch. Genauso gut könnten auch die verstärkten Konsolenverkäufe zu dem guten Ergebnis geführt haben.


Sie produzieren billig im Vergleich zu Konkurrenz und das ist das entscheidende. Das eine solche Situation einen Preiskampf auslöst ist wenig verwunderlich.

Sie produzieren billiger zur Konkurrenz, aber nicht zu den Produkten, die früher in dem Preissegment verkauft wurden. Und dieser Preiskampf ist daran schuld, dass billig zu produzierende Produkte keine Marge mehr abwerfen. Dies scheint eine Strategie einer Firma zu sein, die denkt, dass man am nächsten morgen nicht mehr existiert.


Man sollte die zeitliche Komponente nicht vergessen.

Dezember 2007 gegen Juli 2008. Du meinst also, dass AMD mit dem rv770 wesentlich billiger produzieren konnte als nVidia mit dem G92 auf der 8800GT für 250€ und der 8800GTX für 320€? Ich glaube, die zeitliche Komponente spielt keine Rolle in der Tatsache, dass der G92 wesentlich margenreicher war als der rv770.


Ich verstehe bei besten Willen den Zusammenhang nicht. Damit meinte ich einen Bruchteil der finanziellen Mittel.

Dieser "Bruchteil" ist deswegen schon falsch, weil ein G92 in der Entwicklung wesentlich weniger fordernder war als eine starke Umstrukturierung des rv670 zum rv770.



Aus Sicht der Leistung/mm² sehr wohl. RV770 war nie als High-End-Chip geplant.


Aus Sicht der Leistung/mm^2 spielt man in einer Liga mit dem G92b - der rv770 ist daher nicht übermäßig toll. Und das man gerade mal G80 Niveau nach 1 3/4 erreicht hat, ist auch keine besondere Leistung.
Und High-End definiert sich nicht über die Produktionskosten. G92 kostete bis zu 400€ und ist 26% größer als der rv770. High-End oder kein High-End? :confused:


Ein hoher Marktanteil garantiert Marktmacht. Unbezahlbar wenn man der Underdog ist.

Nur solange, wie es die Unternehmung gibt.


Er war früher am Markt. War ja auch kaum mehr als ein G80-Shrink.

Früher am Markt, kaum größer und in der selben Leistungsliga. Man hat also rv770 Niveau schon ein 3/4 Jahr früher erreicht und das zu einem "Bruchteil der Kosten". Beachtlich, nicht? ;)

Gast
2009-02-13, 19:32:05
G92b ist langsamer als RV770 und größer.

Eine 9800GTX+ hält problemlos mit einer HD4850 mit, also ist deine pauschalisierte Aussage falsch.

Schlammsau
2009-02-13, 19:45:55
Eine 9800GTX+ hält problemlos mit einer HD4850 mit, also ist deine pauschalisierte Aussage falsch.

Der RV770Pro ist aber kein RV770XT! ;)

Gast
2009-02-13, 20:05:52
RV770 in Form der HD4870 1024mb hält locker mit der mehrmals refreshten "GTX260+² was weiß ich" mit,bei 250mm² Die-Size

Gast
2009-02-13, 20:25:32
Der RV770Pro ist aber kein RV770XT! ;)

Erstens war nur die Rede von RV770 und zweitens sind die Chips identisch. Lesen sollte man können!

Undertaker
2009-02-13, 21:58:49
Die Frage einer solchen Diskussion wäre, wie ein 1024MB GDDR5 G92B gegen dem RV770 stünde ;) Vermutlich knapp dahinter, aber dennoch in Anbetracht des eigentlichen Alters der Architektur recht beachtlich.

Ailuros
2009-02-14, 07:51:26
Ich denke er meint überschätzen.

Nein ich meinte unterschaetzen. Schau Dir die bisherigen Geruechte ueber RV870 genau an.


Natürlich meint er überschätzen. Es wäre schon mehr als erstaunlich wenn AMD diesen Effizienzvorteil mit dem bisschen an Ressourcen halten könnte. Angesichts der momentanen finanziellen Lage von AMD und der im Vergleich zu nV lächerlich wirkenden R&D-Ausgaben ist eigentlich schon der status quo für nV ziemlich erbärmlich.

Nein. Mein originaler Gedanke war dass sich ATI wohl doch nicht so bescheiden zeigen wird wie Ihr alle erwartet. Bin ich der einzige der aus ATi's oeffentlichen Aussagen herauslesen kann dass sie NICHT erwarten dass sie den heutigen Leistungs/mm2 Vorteil langfristig erhalten werden?

Ich sage hiermit nicht dass NV nicht um einiges viel mehr in R&D investiert hat, aber mir fehlt es aber auch verdammt schwer zu glauben dass ATi vorhat D3D11 mit einem RV770-Nachwuchs anzusteuern. Legt mal Eure pro/contra Differenzen zur Seite und erklaert mir warum sowohl RV770 und GT200 (und relevante Vorgaenger) nicht besonders optimal sind fuer sehr flexibles multi-threading z.B. Je flexibler eine Architektur wird (na siehe wohl LRB), desto besser wird sie bei Entwicklern anschlagen. Ich bin zwar nur ein Laie, aber als engineer waere mein erster Gedanke was ich genau anstellen koennte um einem jeglichen LRB nur wenige Vorteile zu ueberlassen.

Uebrigens hoert bitte mit der albernen G92/RV770 Debatte auf, oder oeffnet einen speziellen Thread dafuer. Merci bien.

V2.0
2009-02-14, 16:54:10
Ich sehe da zwie mögliche Gedankengänge für AMD.

Der eine wäre es zu versuchen sich wirklich voll gegen NV/Intel zu stellen und ihre Chips sofort ebenso flexibel zu machen.
Die andere wäre für den ersten DX11 Chip weniger stark GPGPU fähig zu sein, aber dafür (unter Nutzung von mehr FF Units) einen kleineren Chip zu haben, der in den meisten Consumeranwendungen möglichst nah an den dicken Brummern der Konkurrenz liegt.

Captain Future
2009-02-14, 17:42:50
Die andere wäre für den ersten DX11 Chip weniger stark GPGPU fähig zu sein, aber dafür (unter Nutzung von mehr FF Units) einen kleineren Chip zu haben, der in den meisten Consumeranwendungen möglichst nah an den dicken Brummern der Konkurrenz liegt.
Ist das nicht das, was sie jetzt schon machen?

Nightspider
2009-02-15, 20:31:27
Die Frage einer solchen Diskussion wäre, wie ein 1024MB GDDR5 G92B gegen dem RV770 stünde ;) Vermutlich knapp dahinter, aber dennoch in Anbetracht des eigentlichen Alters der Architektur recht beachtlich.

Oder gleich nen G92c @40nm...mit 2,2 Ghz Shadertakt oder mehr :eek:

Schließlich werden 9800GTX+ Karten mit fast 2 Ghz Shadertakt verkauft...da ist noch Spielraum ;)
Dürfte dann mit 1024 MB GDDR5 schneller wie ne GTX260 sein.

Ailuros
2009-02-16, 11:02:02
Ich sehe da zwie mögliche Gedankengänge für AMD.

Der eine wäre es zu versuchen sich wirklich voll gegen NV/Intel zu stellen und ihre Chips sofort ebenso flexibel zu machen.

Es geht sowohl um Flexibilitaet als zusaetzliche Faehigkeiten fuer GPGPU. Es muss ja uebrigens nicht nur darum gehen was Intel oder NV auftischen werden, sondern dass was der Markt wirklich brauchen wird in absehbarer Zeit. AMD hat uebrigens nie angezeigt dass sie kein Interesse an GPGPU haben oder dass sie keine Zufkunft darin sehen. Wenn man schon an Architekturen an Fusion werkelt, ist jeglicher OpenCL Hintergedanke verdammt wichtig.

Die andere wäre für den ersten DX11 Chip weniger stark GPGPU fähig zu sein, aber dafür (unter Nutzung von mehr FF Units) einen kleineren Chip zu haben, der in den meisten Consumeranwendungen möglichst nah an den dicken Brummern der Konkurrenz liegt.

Komischerweise ist SGX der einzige USC in seinen Anwendungs-gebieten, hat MIMD Einheiten und liegt u.a. verdammt nahe an D3D11, ist aber der kleinste insgesamt die mit dem kleinsten Stromverbrauch. Sehr viel mehr als TMUs duerfte das Ding nicht an fixed function hw insgesamt haben.

Bist Du sicher dass Du das Ganze nicht vom falschen Ende anpackst?

V2.0
2009-02-16, 15:11:16
Im der finalen Umsetzung wahrscheinlich, in der grundsätzlichen Strategie eher nicht.

Ailuros
2009-02-17, 07:22:51
Im der finalen Umsetzung wahrscheinlich, in der grundsätzlichen Strategie eher nicht.

ROTFLMAO ;D *grunz*

V2.0
2009-02-17, 07:43:30
Du kannst lachen was Du willst, aber ich sehe keinen dicken High-End-Chip von ATI.

Ailuros
2009-02-17, 09:13:14
Du kannst lachen was Du willst, aber ich sehe keinen dicken High-End-Chip von ATI.

Ich musste so stark lachen weil wohl nur Du Deinen vorigen Beitrag verstehen kannst.

Es war nie die Rede von einem "dicken high end chip" von AMD. RV870 zeigt von sich alleine schon dass es sich lediglich um einen Performance chip wie schon seit einiger Zeit. Ich sage lediglich dass der Unterschied fuer die D3D11 Generation was Leistung/mm2 hoechstwahrscheinlich nicht so gross sein wird wie zwischen GT200/RV770.

Das Resultat seitens AMD wird keinesfalls ueber 500qmm einnehmen aber es wird wohl auch nicht sooooo mickrig sein wie sich manche vorstellen moechten.

[fu]121Ah
2009-02-17, 09:23:25
ich seh den rv870 auch nicht so schwach wie oft erwartet. es handelt sich dabei nicht um den xfach verschobenen original r700, sondern im hintergrund wird eine neue architektur einstand finden.

wichtige punkte:

mcm sollte funktionieren/möglich sein (low end, igp on die - das design geht in die richtung)
ich sehe mehrere taktdomänen in meiner glaskugel
ein weiterer schritt in die programmierbare richtung - evnt. abkehr von den vec5 alus und reduzieren der fixed function units.
die taktdomänen müssen den leistungsverlust durch den wegfall der fixed function units ausgleichen (hoher takt z.b. für die "generischen" recheneinheiten (obs dann SIMD oder MIMD wird..)

am ende alles, auf das du uns schon beim gt300 eingeschworen hast, ich denke ati wird denselben weg gehen.

ich denke NICHT, dass ati die einfache lösung verfolgen wird, dem rv770 die paar register, befehle und anpassungen zu verpassen, welche für DX11 notwendig sind. Ich denke es wird mehr überarbeitet als man glauben mag. die R600 architektur ist auf dem höhepunkt.

Coda
2009-02-17, 09:29:11
Bissel mehr Konjunktiv wäre manchmal angebracht.

[fu]121Ah
2009-02-17, 09:34:45
Bissel mehr Konjunktiv wäre manchmal angebracht.
meinst du mich? ich dachte der saaachte seitenhieb mit der glaskugel reicht :wink:

V2.0
2009-02-17, 09:37:27
Ich musste so stark lachen weil wohl nur Du Deinen vorigen Beitrag verstehen kannst.

Es war nie die Rede von einem "dicken high end chip" von AMD. RV870 zeigt von sich alleine schon dass es sich lediglich um einen Performance chip wie schon seit einiger Zeit. Ich sage lediglich dass der Unterschied fuer die D3D11 Generation was Leistung/mm2 hoechstwahrscheinlich nicht so gross sein wird wie zwischen GT200/RV770.

Das Resultat seitens AMD wird keinesfalls ueber 500qmm einnehmen aber es wird wohl auch nicht sooooo mickrig sein wie sich manche vorstellen moechten.

Eigentlich sind wir uns einig, oder?

ICh gehe auch nicht von mickrig aus, aber ich gehe schon davon aus, dass man an manchen Stellen Verzicht übt (eigene DP Units z.B.).

Ailuros
2009-02-17, 10:15:13
Eigentlich sind wir uns einig, oder?

ICh gehe auch nicht von mickrig aus, aber ich gehe schon davon aus, dass man an manchen Stellen Verzicht übt (eigene DP Units z.B.).

Es reicht die Transistoren-Rechnung zu erhoehen wenn AMD die DP-Faehigkeiten in den ALUs erhoeht hat; ich will sowieso bezweifeln dass GT3x0 getrennte DP Einheiten haben wird und es hat auch niemand etwas relevantes erwaehnt.

121Ah;7111000']ich seh den rv870 auch nicht so schwach wie oft erwartet. es handelt sich dabei nicht um den xfach verschobenen original r700, sondern im hintergrund wird eine neue architektur einstand finden.

Es ist praktisch der originale R700 mit Aenderungen.

mcm sollte funktionieren/möglich sein (low end, igp on die - das design geht in die richtung)
ich sehe mehrere taktdomänen in meiner glaskugel
ein weiterer schritt in die programmierbare richtung - evnt. abkehr von den vec5 alus und reduzieren der fixed function units.
die taktdomänen müssen den leistungsverlust durch den wegfall der fixed function units ausgleichen (hoher takt z.b. für die "generischen" recheneinheiten (obs dann SIMD oder MIMD wird..)

Gibt es keine Glaskugeln die mit Rechtschreibung kommen?

am ende alles, auf das du uns schon beim gt300 eingeschworen hast, ich denke ati wird denselben weg gehen.

Ach ja? Ich hab sehr wenig bis gar nichts ueber GT3x0 bis jetzt erzaehlt.

ich denke NICHT, dass ati die einfache lösung verfolgen wird, dem rv770 die paar register, befehle und anpassungen zu verpassen, welche für DX11 notwendig sind. Ich denke es wird mehr überarbeitet als man glauben mag. die R600 architektur ist auf dem höhepunkt.

Kein Einwand ;)

[fu]121Ah
2009-02-17, 10:54:12
Es ist praktisch der originale R700 mit Aenderungen.

na dann lass ich mich überraschen.

Gibt es keine Glaskugeln die mit Rechtschreibung kommen?

was hast du daran auszusetzen? gross/klein? darauf geb ich nix. sorry.

Ach ja? Ich hab sehr wenig bis gar nichts ueber GT3x0 bis jetzt erzaehlt.

hehe, ich finde deine infos trotzdem die besten.

Kein Einwand ;)
wow, etwas was ich schreibe wird nicht sofort in der luft zerrissen - ein wunder ;)

Ailuros
2009-02-17, 11:12:45
121Ah;7111115']na dann lass ich mich überraschen.

Kein IHV waere so bloed eine existierende Architektur total aus dem Fenster zu werfen und schon gar nicht wenn Resourcen wertvoller als je sind bei der Krise.

was hast du daran auszusetzen? gross/klein? darauf geb ich nix. sorry.

War nur ein albener Scherz.

hehe, ich finde deine infos trotzdem die besten.

Na lass uns mal nicht uebertreiben. Ich versuche links und rechts Anteile an Infos aufzuschnappen und versuche dann die Teile des Puzzles zusammenzuschieben. Oefters als manche bemerken lieg man dann leider auf dem falschen Pfad. Jegliche "off the record" GT3x0 Aussagen bis jetzt klingen aeusserst begeistert, aber es ist auch ziemlich normal fuer NV, denn einen aehnlichen Klang hatte die Begeisterung vor dem NV30 ebenso wie auch vor dem G80.

Ist GT3x0 tatsaechlich ueber 550mm2 gross unter 40nm, gehen sie ein ziemlich fettes Risiko ein.

BlackBirdSR
2009-02-17, 11:33:53
Ist GT3x0 tatsaechlich ueber 550mm2 gross unter 40nm, gehen sie ein ziemlich fettes Risiko ein.

Ich habe immer im Hinterkopf, wie lange Intel Berichten zu Folge für Montecito (1.7 Milliarden, ca. 600mm^2 90nm) gebraucht hat, um die Yields akzeptabel zu bekommen. Und dabei hat der nur ca. 70Millionen Transistoren für Logik, der Rest besteht fast ausschleißlich aus (unkritischerem) Cache.

Ailuros
2009-02-17, 11:53:48
Ich habe immer im Hinterkopf, wie lange Intel Berichten zu Folge für Montecito (1.7 Milliarden, ca. 600mm^2 90nm) gebraucht hat, um die Yields akzeptabel zu bekommen. Und dabei hat der nur ca. 70Millionen Transistoren für Logik, der Rest besteht fast ausschleißlich aus (unkritischerem) Cache.

Intel wird es auch nicht besonders leicht haben mit LRB.

aylano
2009-02-17, 15:25:11
Ich habe immer im Hinterkopf, wie lange Intel Berichten zu Folge für Montecito (1.7 Milliarden, ca. 600mm^2 90nm) gebraucht hat, um die Yields akzeptabel zu bekommen.
Wie lange brauchten die?

Ailuros
2009-02-21, 07:40:42
Etwa mehr spekulatives Futter fuer GT3x0 (da bis jetzt noch nichts relevantes aufgetaucht ist):

wie waere es mit einem chip der wichtige Basis-Funktionen praktisch nicht mehr zentralisiert, sondern dass diese von jedem einzelnen core sprich cluster unabhaengig angesprochen werden? Jeder core fragt fuer Daten X zu verschiedenen Zeitpunkten an um bessere Skalierung zu erreichen.

=Floi=
2009-02-22, 19:08:05
wieviel gflop soll er denn mit den angedachten ~3mrd transistoren leisten können?

GeneralHanno
2009-02-22, 21:38:26
wenn der GT300 ähnlich revolutionär wie der G80 seiner zeit werden soll, dann sagen gflop relativ wenig aus ;)

KonKorT
2009-02-22, 22:56:58
Ich habe heute gehört, dass man intern zurzeit das Verhältnis zwischen den Einheiten abwiegt und dass die Entwicklung hervorragend laufen würde.
Das Tape-Out soll wohl schon greifbar sein. Leider nichts konkretes.

Gast
2009-02-22, 23:11:00
Ich habe heute gehört, dass man intern zurzeit das Verhältnis zwischen den Einheiten abwiegt und dass die Entwicklung hervorragend laufen würde.

ersteres bestimmt nicht mehr, ansonsten wäre ein tapeout noch in weiter ferne.

was man im jetzigen stadium eventuell noch anpassen könnte wäre das verhältnis der taktdomänen.

KonKorT
2009-02-22, 23:14:29
Nein, es wurde definitiv von Einheiten gesprochen. Und "greifbar" beim Tape-Out kann vieles heißen.
Einen Launch vor Q4 wollte man mir nicht bestätigen.

Ailuros
2009-02-23, 08:10:45
wenn der GT300 ähnlich revolutionär wie der G80 seiner zeit werden soll, dann sagen gflop relativ wenig aus ;)

Gleiches gilt auch fuer die Anzahl der Einheiten eventuell in solch einem Fall; persoenlich glaube ich nicht dass GT3x0 ueberhaupt keine Elemente mehr vom G8x0 benutzt, deshalb ist die Beschreibung "revolutionaer" auch davon abhaengig wieviele genau wiedergebraucht wurde. Ein GT2x0 mit mehr Einheiten und D3D11 Faehigkeiten dazugeklatscht scheint es nicht zu sein.

ersteres bestimmt nicht mehr, ansonsten wäre ein tapeout noch in weiter ferne.

was man im jetzigen stadium eventuell noch anpassen könnte wäre das verhältnis der taktdomänen.

Es waren wohl auch keine hw Anpassungen gemeint.

iceman.s
2009-03-20, 19:11:00
Mal eine Frage. Gibt es schon Meldungen welche Fortschritte SLI bei der GT300 machen wird?

Ich denke es wird Zeit für einen neuen Ansatz, der vermutlich eh früher oder später realisiert werden muss. Da ja CPU und GPU von ihrer Architektur immer näher rücken. Also weg mit SLI, willkommen SLI2 oder wie es auch immer heißen mag.

Warum kein QPI bzw. HT artige Technik benutzen um mehrere GPU zu verbinden? Im Prinzip müsste es doch mit dem Multithreading im DX11 möglich seien, Aufgaben auf verschiedene GPU zu verteilen. Dadurch dürften einige Ressourcen frei werden, weil man sich mit Glück, doppelte Arbeit sparen kann. Für echte Multi Chip/Die Lösungen dürfte das der einzige Weg sein. Die GPU müssen sich untereinander das Schreiben und Lesen in ihrem lokalen Speicher gewähren. Ein Shader läuft auf GPU0 ein anderer unabhängiger auf GPU1 und am Ende läuft alles zusammen. So sollte es nach meiner Meinung sein.

Aber ob man das auf reiner Treiberbasis hinbekommen kann? Vermutlich wird man die Unterstützung der Spielentwickler benötigen, oder?

Was denkt ihr?

Nightspider
2009-03-20, 19:16:02
Infos gibts keine.

Ich persöhnlich glaube aber das die SLI-Brücken durch einen Nachfolger ersetzt werden und dann gegebenfalls durch Adapter mit ältere Karten verbunden werden können.

Ailuros
2009-03-23, 10:23:47
Mal eine Frage. Gibt es schon Meldungen welche Fortschritte SLI bei der GT300 machen wird?

Sie koennten sich theoretisch AFR entbehren. Irgend ein halbwegs logischer Vorschlag fuer einen IMR der Geometrie ebenso gut skaliert und keine interframe Latenz vorzeigt (damit solch eine Alternative erstmal Sinn macht)?

Ich denke es wird Zeit für einen neuen Ansatz, der vermutlich eh früher oder später realisiert werden muss. Da ja CPU und GPU von ihrer Architektur immer näher rücken. Also weg mit SLI, willkommen SLI2 oder wie es auch immer heißen mag.

Kommt ganz drauf an was man mit "naeher ruecken" genau meint. Sagen wir mal ganz einfach dass Larabee von allen D3D11 GPUs als Design am naehesten an einer CPU theoretisch liegen wird. Dieses heisst keinesfalls dass Larabee eine CPU je ersetzen kann, sonst wuerde man 2 LRB GPUs in ein System schnallen und aus damit. Larabee ist und bleibt eine echte GPU und es macht dank der many-core Grundlage des Designs keinen Sinn mehrere solcher GPUs in einem System zu skalieren.

Da Du Dir anscheinend vorstellst dass ein hypothetisches "SLi2" CPU und GPU fuer graphic processing benuetzen koennte, kannst Du es gleich vergessen.

Fuer jegliche GPGPU Aufgaben koennte theoretisch ein API wie OpenCL, CUDA, D3D11 die vorhandenden CPU und GPU Resourcen besser ausnutzten, aber GPGPU hat wohl nichts mit Spielen zu tun.

Warum kein QPI bzw. HT artige Technik benutzen um mehrere GPU zu verbinden? Im Prinzip müsste es doch mit dem Multithreading im DX11 möglich seien, Aufgaben auf verschiedene GPU zu verteilen. Dadurch dürften einige Ressourcen frei werden, weil man sich mit Glück, doppelte Arbeit sparen kann. Für echte Multi Chip/Die Lösungen dürfte das der einzige Weg sein. Die GPU müssen sich untereinander das Schreiben und Lesen in ihrem lokalen Speicher gewähren. Ein Shader läuft auf GPU0 ein anderer unabhängiger auf GPU1 und am Ende läuft alles zusammen. So sollte es nach meiner Meinung sein.

Ich glaube Du solltest ein paar Artikel ueber die heutigen CPUs und GPUs und deren fundamentalen Unterschieden durchlesen.

Aber ob man das auf reiner Treiberbasis hinbekommen kann? Vermutlich wird man die Unterstützung der Spielentwickler benötigen, oder?

Was denkt ihr?

Siehe oben.

GT300 ist nach einer ziemlich freien Definierung eher ein "many-core" als ein "many-cluster" Design, bleibt aber nach wie vor eine waschreine GPU.

Infos gibts keine.

Lies mal den letzten Satz oben.

***edit:

Eine gute Einleitung zu einer Serie von Artikeln: http://www.beyond3d.com/content/articles/108/1

iceman.s
2009-03-24, 08:14:57
Sie koennten sich theoretisch AFR entbehren. Irgend ein halbwegs logischer Vorschlag fuer einen IMR der Geometrie ebenso gut skaliert und keine interframe Latenz vorzeigt (damit solch eine Alternative erstmal Sinn macht)?

Keine Ahnung.



Kommt ganz drauf an was man mit "naeher ruecken" genau meint. Sagen wir mal ganz einfach dass Larabee von allen D3D11 GPUs als Design am naehesten an einer CPU theoretisch liegen wird. Dieses heisst keinesfalls dass Larabee eine CPU je ersetzen kann, sonst wuerde man 2 LRB GPUs in ein System schnallen und aus damit. Larabee ist und bleibt eine echte GPU und es macht dank der many-core Grundlage des Designs keinen Sinn mehrere solcher GPUs in einem System zu skalieren.

Da Du Dir anscheinend vorstellst dass ein hypothetisches "SLi2" CPU und GPU fuer graphic processing benuetzen koennte, kannst Du es gleich vergessen.

Fuer jegliche GPGPU Aufgaben koennte theoretisch ein API wie OpenCL, CUDA, D3D11 die vorhandenden CPU und GPU Resourcen besser ausnutzten, aber GPGPU hat wohl nichts mit Spielen zu tun.

Das hast du mich jetzt falsch verstanden. Mir ging es wirklich nur um SLI bzw CF und eine bessere Nutzung mehrerer GPU durch so ein Interface. Ich verlange ja auch nicht, das die alten Methoden sterben. Ich würde es nur gern sehen, das Nvidia oder ATI(AMD) zusätzlich neue Methoden mit der DX11 Generation einführen.



Ich glaube Du solltest ein paar Artikel ueber die heutigen CPUs und GPUs und deren fundamentalen Unterschieden durchlesen.

Ich verstehe schon den Unterschied. Das entschuldigt aber nicht, das es sich die GPU Hersteller manchmal sehr einfach machen mit ihren Lösungen für Probleme.



Siehe oben.

GT300 ist nach einer ziemlich freien Definierung eher ein "many-core" als ein "many-cluster" Design, bleibt aber nach wie vor eine waschreine GPU.



Lies mal den letzten Satz oben.

***edit:

Eine gute Einleitung zu einer Serie von Artikeln: http://www.beyond3d.com/content/articles/108/1
Aber die Grenzen zwischen GPU und CPU verwischen immer mehr. Was aber nicht heißt, das sie sich mal vereinen werden. GPU entwickeln sich immer mehr zu Beschleuniger für bestimmte Berechnungen und CPU's können immer mehr Aufgaben einer einfachen GPU übernehmen, siehe Fusion.

Ailuros
2009-03-24, 08:44:17
Keine Ahnung.

SFR skaliert bei weitem nicht so gut auf IMRs und es kommen noch andere Kopfschmerzen dazu wie z.B. shadowmaps. Ausser AFR haben beide IHVs nichts besseres vorzuschlagen und dieses hat nunmal auch seine Nachteile.


Das hast du mich jetzt falsch verstanden. Mir ging es wirklich nur um SLI bzw CF und eine bessere Nutzung mehrerer GPU durch so ein Interface. Ich verlange ja auch nicht, das die alten Methoden sterben. Ich würde es nur gern sehen, das Nvidia oder ATI(AMD) zusätzlich neue Methoden mit der DX11 Generation einführen.

Nur gibt es keine Alternativen zu AFR so wie es momentan aussieht. Gut beide koennte ein paar Aspekte besser optimieren mit der Zeit, aber zu fundamentalen Aenderungen werden diese auch nicht fuehren. Das Problem der interframe Latenz bei AFR bleibt.

Ich verstehe schon den Unterschied. Das entschuldigt aber nicht, das es sich die GPU Hersteller manchmal sehr einfach machen mit ihren Lösungen für Probleme.

Je komplizierter die Loesung desto mehr kostet sie auch und dieses wird sich auch im finalen Preis jeglicher SKU wiederspiegeln.

Aber die Grenzen zwischen GPU und CPU verwischen immer mehr.

Aber nicht so wie Du es meinen koenntest. Die Tatsache dass heutige GPUs auch GP (general purpose) bearbeiten koennen, heisst nicht dass eine GPU ploetzlich kein dedizierter Grafik Prozessor mehr ist. Selbst die zukuenftigen CPUs werden weiterhin GP Prozessoren sein, wie auch die zukuenftigen GPUs dedizierte Grafik HW.

Was aber nicht heißt, das sie sich mal vereinen werden. GPU entwickeln sich immer mehr zu Beschleuniger für bestimmte Berechnungen und CPU's können immer mehr Aufgaben einer einfachen GPU übernehmen, siehe Fusion.

Welche zukuenftige CPU genau wird GPU Aufgaben genau aufnehmen? Fusion ist lediglich ein zukuenftiger SoC wie sie Intel schon in Produktion geschickt hat, wo man auf einem die (system on chip) sowohl eine oder mehrere CPU cores und eine oder mehrere GPU cores haben kann. Die fundamentale Trennung zwischen CPU und GPU bleibt auch hier und alles was ein zukuenftiger SoC abloesen wird sind die heutigen IGPs.

Ein IGP ist durch die Bandbreite des Busses begrenzt und in einem SoC kaempfen CPU und GPU um die vorhandene Bandbreite der UMA. Das Resultat ist in beiden Faellen so begrenzt was Speichermenge und Bandbreite betrifft dass es schwer irgend etwas anderes als IGPs bzw. budget GPUs ersetzen koennte.

Deshalb sage ich auch dass es vielleicht eine gute Idee waere wenn Du ein paar gut informierte Artikel ueber heutige CPUs und GPUs durchlesen solltest.

PCGH_Carsten
2009-03-24, 11:46:31
Zum Multicore-Konzept des GT3x0 - siehe auch:
olick-current-and-next-generation-parallelism-in-games.pdf, Seite 110 ff.
Besonders die Grafik auf Seite 118. ;)

Ailuros
2009-03-24, 12:16:24
Zum Multicore-Konzept des GT3x0 - siehe auch:
olick-current-and-next-generation-parallelism-in-games.pdf, Seite 110 ff.
Besonders die Grafik auf Seite 118. ;)

Link fehlt...