PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GPU Technology Conference 2010


Gast
2010-09-21, 17:07:11
http://www.nvidia.com/object/gpu_technology_conference.html

Live Stream zur Keynote mit Jen-Hsun Huang: http://livesmooth.istreamplanet.com/nvidia100921/ (Beginn ~18 Uhr)

Coda
2010-09-21, 18:33:37
CUDA für x86. Wohl der Druck von OpenCL.

Das wird allerdings interessant was PhysX angeht ;)

Hugo78
2010-09-21, 19:11:19
3DS iray rockt :D

Nasenbaer
2010-09-21, 19:23:13
3DS iray rockt :D
Also ich finds lahm was die da als Weltneuheit verkaufen. Es gibt schon seit Jahren Renderer, die wohl nach diesem oder einem sehr ähnlichen Prinzip rendern.

Kerkythea (http://www.kerkythea.net/joomla/) und Indigo (http://www.indigorenderer.com/) sind mir jedenfalls bekannt und sind zum Teil sogar kostenlos. :rolleyes:
Einzig die GPU-Beschleunigung scheint das neue daran zu sein. Da auf der IRay-Seite allerdings nicht zum Verfahren zu finden war, kann ich das natürlich nicht mit Sicherheit sagen.

dildo4u
2010-09-21, 19:45:54
http://www.abload.de/img/nvnm35.jpg

Gast
2010-09-21, 19:46:17
http://img829.imageshack.us/img829/7180/nvroadmapkopie.jpg (http://img829.imageshack.us/i/nvroadmapkopie.jpg/)

Hugo78
2010-09-21, 19:46:37
Also ich finds lahm was die da als Weltneuheit verkaufen. Es gibt schon seit Jahren Renderer, die wohl nach diesem oder einem sehr ähnlichen Prinzip rendern.


Es geht nicht allein darum wie sie es machen, sondern in welcher Zeit.
Sicher bekommt man das selbe Ergebniss auch mit anderer Software hin, das dauert dann halt nur 2 Tage oder länger... hier dauerts es ein paar sekunden, und per cloud rendert man in Echtzeit.

Das ist fett...

Gast
2010-09-21, 19:49:01
Mal sehen ob sie die 8 TFLOPs DP für eine ~250W GPU in 2013 einhalten können. ;)

dildo4u
2010-09-21, 19:50:56
Es geht nicht allein darum wie sie es machen, sondern in welcher Zeit.
Sicher bekommt man das selbe Ergebniss auch mit anderer Software hin, das dauert dann halt nur 2 Tage oder länger... hier dauerts es ein paar sekunden, und per cloud rendert man in Echtzeit.

Das ist fett...
Jup die Ausmaße kann man sich noch gar nicht ausmalen,ich würd NV Aktien kaufen,ein Film wie Avatar könnte x fach besser aussehen,weil der Regisseur in kurzen Zeit X Varianten einer
fertig beleuchteten Szene probieren kann.

Dural
2010-09-21, 20:17:22
seit wann kann den der G80 DP...

das müsste wenn schon GT200 sein, aber der kam erst im 2008 und nicht im 2007

peinlich peinlich!

Edit:

ok, der ist ja auch auf der null linie...

Gast
2010-09-21, 20:37:59
seit wann kann den der G80 DP...

das müsste wenn schon GT200 sein, aber der kam erst im 2008 und nicht im 2007

peinlich peinlich!

Edit:

ok, der ist ja auch auf der null linie...

Sie schreiben Tesla, das ist definitiv GT200. Bei G80 gab es noch keine Tesla. Wurde die vielleicht ähnlich wie bei Fermi so viel früher vorgestellt? Oder man will nur den Zweijahresrythmus zeigen und denkt sich die blöden Journalisten checken das eh nicht. :D

Coda
2010-09-21, 20:55:11
Es gab G80 Tesla.

Gast
2010-09-21, 20:56:31
Und G80 Tesla hatte auch kein DP.

Coda
2010-09-21, 20:58:12
Sie meinen wohl GT200 Tesla, aber dann stimmt 2007 nicht.

Nasenbaer
2010-09-21, 21:09:32
Es geht nicht allein darum wie sie es machen, sondern in welcher Zeit.
Sicher bekommt man das selbe Ergebniss auch mit anderer Software hin, das dauert dann halt nur 2 Tage oder länger... hier dauerts es ein paar sekunden, und per cloud rendert man in Echtzeit.

Das ist fett...
Es dauert nicht nur ein paar Sekunden. Diese unbiased Renderer haben alle das Problem, dass man viele Iterationen benötigt um ein einigermaßen rauschfreies Bild zu bekommen. Durch spezielle Filter kann man das Rauschen im Bildraum nachträglich reduzieren um die Iterationszahl zu drücken aber auch mit Fermi oder Cloud ist man noch lange nicht echtzeitfähig (was min. 25fps bedeuten würde).
Gerade Cloud ist doch das ausgelutschteste Buzzword der letzten Monate. Finde erstmal tausende User, die ne Fermi haben und sich an der Cloud beteiligen.

Bucklew
2010-09-21, 21:23:18
Es dauert nicht nur ein paar Sekunden. Diese unbiased Renderer haben alle das Problem, dass man viele Iterationen benötigt um ein einigermaßen rauschfreies Bild zu bekommen. Durch spezielle Filter kann man das Rauschen im Bildraum nachträglich reduzieren um die Iterationszahl zu drücken aber auch mit Fermi oder Cloud ist man noch lange nicht echtzeitfähig (was min. 25fps bedeuten würde).
Echtzeit wäre mit vielen Fermikarten wohl schon drin, natürlich zu Lasten der Bildqualität. Es wird immer einen Kompromis aus Bildqualität und Rechenzeit geben müssen.

Hugo78
2010-09-22, 06:48:41
Gerade Cloud ist doch das ausgelutschteste Buzzword der letzten Monate. Finde erstmal tausende User, die ne Fermi haben und sich an der Cloud beteiligen.

Ehmm, es geht hier nicht um ein "Hobby Cloud" ...

Als Autodesk ihre browserbasierte Vorschau gezeigt haben, waren da 36 (?!) GPUs in einem Servercenter.

Und im Verhältniss zu der Komplexität der Szene und der bisherigen Berechnungsgeschwindigkeit dafür, war das schon "Echtzeit", wenn auch keine 25fps.
Aber flüssig mal ebend schnell die Perspektive ändern, war vorher undenkbar.

Und ich wette, wenn der Code von iray noch besser wird, und/oder man 100+ Fermis rechnen lassen kann, hat man auch Raytracing in Echtzeit mit den 25fps.

Vom kommenden Kepler und Maxwell ganz zuschweigen.

Nasenbaer
2010-09-22, 11:09:36
Ehmm, es geht hier nicht um ein "Hobby Cloud" ...

Als Autodesk ihre browserbasierte Vorschau gezeigt haben, waren da 36 (?!) GPUs in einem Servercenter.

Und im Verhältniss zu der Komplexität der Szene und der bisherigen Berechnungsgeschwindigkeit dafür, war das schon "Echtzeit", wenn auch keine 25fps.
Aber flüssig mal ebend schnell die Perspektive ändern, war vorher undenkbar.

Und ich wette, wenn der Code von iray noch besser wird, und/oder man 100+ Fermis rechnen lassen kann, hat man auch Raytracing in Echtzeit mit den 25fps.

Vom kommenden Kepler und Maxwell ganz zuschweigen.
Laut diesem Video gibt's sowas aber bereits: http://www.youtube.com/watch?v=V-aKiNMzf24

Ob das nun authentisch ist kann ich nicht sagen aber ich unterstelle den Erstellern mal keine arglistige Täuschung ohne jegliche Anhaltspunkte.

Und Echtzeit ist nunmal ein mehr oder minder fest zementierter Begriff in der Computergraphik und dafür sind nunmal ~25fps nötig.
Wenn ich eine Sekunde für ein aussagekräftiges Rendering benötige und dabei diese Lichtberechnungspräsision habe, dann ist das ohne Zweifel beeindruckend und durchaus ein Meilenstein (mit Blender benötige ich auch für meine einfachen 08/15-Szenen gut ne Minute für ein einfaches Preview) aber es ist dann trotzdem noch nicht einmal ein Rendering mit interaktiven Frameraten.

Ich will das gezeigte keinesfalls schlecht machen aber man muss auch kritisch an die Sache rangehen. Das ist ne nvidia Hausmesse, sprich ne große Werbeshow, und die Mental Images GmbH wurde wohl 2007 bereits von nvidia übernommen.

deekey777
2010-09-22, 11:20:49
CUDA für x86.
Ich dachte, der CUDA-Compiler kann schon SSE-Code kompilieren. Oder ganz andere Baustelle?
Es wird interessant sein, wer schneller sein wird: OpenCL (AMD soll da noch nicht sehr optimal sein, Intel noch nicht feritg) oder CUDA for x86?


Das wird allerdings interessant was PhysX angeht ;)

PhysX bekommt endlich vernünftigen CPU-Code.
Man greift den CPU-Code ab, übersetzt diesen zu IL und das Zeug läuft auf Radeons.

X-D

GTC 2010
Nvidia: DX11-Tesselation ist Trumpf - beeindruckende Demoszenen (http://www.pcgameshardware.de/aid,775500/Nvidia-DX11-Tesselation-ist-Trumpf-beeindruckende-Demoszenen/Grafikkarte/News/)
Die nächste Demo lief auf mehreren zusammegeschalteten Fermi-Einheiten und zeigte volumetrischen grünen Nebel, zusammengesetzt aus einer Million Voxels und mithilfe realer strömungsmechanischer Gleichungen berechnet - Geschwindigkeitsänderungen und Verwirbelungen inklusive. "Hier laufen 20 Billionen Operationen beziehungsweise eine Milliarde Threads pro Sekunde ab", freute sich Jen-Hsun Huang.
Das ist gar nicht so wenig.

dildo4u
2010-09-22, 15:13:49
GTC 2010
Nvidia: DX11-Tesselation ist Trumpf - beeindruckende Demoszenen (http://www.pcgameshardware.de/aid,775500/Nvidia-DX11-Tesselation-ist-Trumpf-beeindruckende-Demoszenen/Grafikkarte/News/)

Das ist gar nicht so wenig.
Video dazu.
http://www.hardwareclips.com/video/796/GTC-2010-DX11-Techdemos-von-Nvidia

LovesuckZ
2010-09-22, 15:21:15
Scheint hier wohl untergegangen zu sein:
Aber Ubisoft arbeitet nun mit nVidia zusammen, um HAWX aufzufrischen. Tessellation für das Terrain. Demnach sollte der Boden ziemlich gut aussehen.

Nightspider
2010-09-22, 15:24:41
Scheint hier wohl untergegangen zu sein:
Aber Ubisoft arbeitet nun mit nVidia zusammen, um HAWX aufzufrischen. Tessellation für das Terrain. Demnach sollte der Boden ziemlich gut aussehen.

Du meinst sicherlich HAWX 2 oder?

mapel110
2010-09-23, 04:41:05
http://www.golem.de/1009/78179.html
Golem hats zusammengefasst, was Huang über das Fermi-Desaster gesagt hat. Managementfehler und ein total kaputter Chip am Anfang.

Gast
2010-09-23, 05:55:33
http://www.golem.de/1009/78179.html
Golem hats zusammengefasst, was Huang über das Fermi-Desaster gesagt hat. Managementfehler und ein total kaputter Chip am Anfang.

LOL.

Vom aktuellen Trend zu CPU/GPU-Integration hält Huang darüber hinaus wenig.

Weil:

Den gegenwärtigen Integrationsbemühungen von AMD (Fusion) und Intel (Sandy Bridge) erteilte Huang eine Absage: "Jetzt ist Zeit für Innovation, nicht für Integration". Noch seien GPUs zu stromhungrig, um sie mit ausreichendem Rechentempo mit CPUs zu verschmelzen. Zudem seien die Voraussetzungen bei den Mitbewerbern ungleich: "Intel macht viel bessere CPUs, und AMD macht viel bessere GPUs" sagte Jen-Hsun Huang. Daher sei es keine gute Idee, ausgerechnet diese Komponenten jetzt zu einer zu machen.

Besonders der fettmarkierte Teil gefällt. Zeigt zumindest, dass er mit Vollblut gedanklich nur bei den eigenen Produkten ist. :ulol:

nVidia geht diesbezüglich der Arsch auf Grundeis. Gerade im Low-End-Bereich interessiert kein Schwein sich für PhysX, HQ-AF oder Tessellation. In spätestens 3 Jahren steckt in keinem "Nicht-Gamer-Notebook" und in keinem Office-Rechner mehr eine dedizierte (nVidia-) GPU. Dem Sandy Bridge Preview (http://www.anandtech.com/show/3871/the-sandy-bridge-preview-three-wins-in-a-row/7) nach zu urteilen hat Intel es ja jetzt schon geschafft, eine integrierte GPU auf HD 5450-Niveau in ihre CPUs einzupflanzen. Das ist immerhin eine 50 €-Grafikkarte, die man sich zukünftig sparen kann und in ein paar Jahren kann's (gerade bei AMD) nur besser werden. Dedizierte Low-End-GPUs erkläre ich hiermit für bald tot.

Hugo78
2010-09-23, 07:23:57
http://www.golem.de/1009/78179.html
Golem hats zusammengefasst, was Huang über das Fermi-Desaster gesagt hat. Managementfehler und ein total kaputter Chip am Anfang.

Och bitte, baut sonst noch wer 3 Mrd. Transistoren Chips in 40nm?
Da gibt es eine zentrale Neuentwicklung, die nicht gleich funktioniert hat, das wurde behoben und der tieferen Ursache auf den Grund gegangen.

Wie Golem selber schreibt.
Das halbe Jahr für das Redesign eines Fabrics in einer GPU erscheint dabei dann sogar noch als sehr kurzer Zeitraum.

N0Thing
2010-09-23, 08:03:21
Och bitte, baut sonst noch wer 3 Mrd. Transistoren Chips in 40nm?
Da gibt es eine zentrale Neuentwicklung, die nicht gleich funktioniert hat, das wurde behoben und der tieferen Ursache auf den Grund gegangen

Beschwer dich bei Jen-Hsun Huang, wenn es dir nicht gefällt, wenn er von völlig kaputten Verbindungen spricht. ;)
Wäre alles glatt gegangen, wäre der Fermi noch im letzten Jahr mit wahrscheinlich besseren Daten auf den Markt gekommen. Dabei spielt es keine Rolle ob sonst noch jemand einen Chip mit 3 Mrd. Transistoren entworfen hat, oder nicht.

Bucklew
2010-09-23, 09:35:19
Och bitte, baut sonst noch wer 3 Mrd. Transistoren Chips in 40nm?
Da gibt es eine zentrale Neuentwicklung, die nicht gleich funktioniert hat, das wurde behoben und der tieferen Ursache auf den Grund gegangen.
Der Grund stimmt aber ;)

Hugo78
2010-09-23, 09:44:47
Beschwer dich bei Jen-Hsun Huang, wenn es dir nicht gefällt, wenn er von völlig kaputten Verbindungen spricht. ;)

Ja ebend, er redet nicht von einem "total kaputter Chip".

Er erklärt im Video, dass nur das Verdindungsstück, nicht so funktioniert hat, wie gedacht.
Das ergibt einen völlig anderen Sinn.
Der im Gegensatz zu dem verkürzten Kommentar von mapel110 überhaupt nicht so negativ klingt.

Im Gegenteil er beschreibt eine völlig normale Situation, die überall auftritt, wenn man was neues ausprobiert, was auch in den theoretischen Modellen / Simulationen funktioniert, aber dann in der Realität zum Problem wird.
Ebend weil man Neuland betritt.

Gast
2010-09-23, 09:53:43
Das hatte wohl eher weniger mit Neuland zu tun, als eher das Nvidia massiv die Design-Regeln für 40nm von TSMC missachtet hat. Ob nun gewollt oder wie von Jensen dargestellt aus Unfähigkeit ist eine andere Frage.
Bei AMD hat man sich an die Vorschriften von TSMC gehalten und konnte einen produktionsreifen 334mm² 40nm Die schon Mitte 2009 vorweisen.

Bucklew
2010-09-23, 09:57:07
Bei AMD hat man sich an die Vorschriften von TSMC gehalten und konnte einen produktionsreifen 334mm² 40nm Die schon Mitte 2009 vorweisen.
Die Änderungen am Cypress im Vergleich zur Vorgängergeneration waren auch deutlich kleiner als zwischen GT200 und Fermi.

Hugo78
2010-09-23, 09:58:30
Das hatte wohl eher weniger mit Neuland zu tun, als eher das Nvidia massiv die Design-Regeln für 40nm von TSMC missachtet hat. Ob nun gewollt oder wie von Jensen dargestellt aus Unfähigkeit ist eine andere Frage.
Bei AMD hat man sich an die Vorschriften von TSMC gehalten und konnte einen produktionsreifen 334mm² 40nm Die schon Mitte 2009 vorweisen.

Oh ja klar, mal wieder eine rein einseitig, negative Spekulation.
Aber das kennt man ja nicht anders von "Gästen".

Btw... hardwareluxx.de hat den Inhalt besser aufgearbeitet.
http://www.hardwareluxx.de/index.php/news/allgemein/vor-ortmessen/16624-gtc-2010-mit-jen-hsun-huang-im-gespraech.html
Diese Tools können aber nicht alle physikalischen Gegebenheiten abdecken und so entstand eine enorme Diskrepanz zwischen den aus den Tools bekannten Werten und der Realität.

Black-Scorpion
2010-09-23, 10:34:39
Och bitte, baut sonst noch wer 3 Mrd. Transistoren Chips in 40nm?
Da gibt es eine zentrale Neuentwicklung, die nicht gleich funktioniert hat, das wurde behoben und der tieferen Ursache auf den Grund gegangen.

Wie Golem selber schreibt.
Erstens hat er ganz sicher den besseren Durchblick wie du. Zweitens wurden die Fehler nicht behoben sondern ein weiterer Chip entwickelt. wenn die Fehler behoben wären gäbe es endlich einen vollen GF100 mit weniger Verbrauch.

Bucklew
2010-09-23, 11:02:33
Erstens hat er ganz sicher den besseren Durchblick wie du. Zweitens wurden die Fehler nicht behoben sondern ein weiterer Chip entwickelt.
Natürlich wurde der Fehler behoben, sonst würde heute kein einziger GF100-Chip funktionieren :rolleyes:

LovesuckZ
2010-09-23, 11:13:29
Da alle anderen Chips mit A1 kommen, hat nVidia doch aus den Problemen gelernt.
Und da sich Fermi deutlich vom GT200 unterscheidet, kann so ein Problem auftreten. Der Aufbau und die Kommunikation zwischen SM und Speicher wurde deutlich überarbeitet.

aylano
2010-09-23, 11:18:36
Die Änderungen am Cypress im Vergleich zur Vorgängergeneration waren auch deutlich kleiner als zwischen GT200 und Fermi.
Und warum wurde dann GT212 gecancelt??

Jetzt tut man so, als ob es nur Fermi war, aber davor wurde GT212 gecancelt und GT200 / GT200b kamen trotz sehr guter Fertigung verspätet am Markt.

Natürlich wurde der Fehler behoben, sonst würde heute kein einziger GF100-Chip funktionieren :rolleyes:
Richtig, Charlie hatte recht.

Black-Scorpion
2010-09-23, 11:20:13
Natürlich wurde der Fehler behoben, sonst würde heute kein einziger GF100-Chip funktionieren :rolleyes:
Einer wurde behoben und die anderen sind noch da.

LovesuckZ
2010-09-23, 11:23:51
Und warum wurde dann GT212 gecancelt??

Warum konnte man rv740 fast garnicht und Cypress erst richtig im Jahr 2010 kaufen? Vielleicht war im 1. Halbjahr garnichts und im 2. Halbjahr alles über 166mm^2 nicht produzierbar? Ach nein, dass wäre zu einfach. :freak:


Jetzt tut man so, als ob es nur Fermi war, aber davor wurde GT212 gecancelt und GT200 / GT200b kamen trotz sehr guter Fertigung verspätet am Markt.


GT200 und GT200b kamen pünktlich. Keine Ahnung, woher der Irrglaube kommt, dass diese verspätet wären.

aylano
2010-09-23, 11:47:46
Warum konnte man rv740 fast garnicht und Cypress erst richtig im Jahr 2010 kaufen? Vielleicht war im 1. Halbjahr garnichts und im 2. Halbjahr alles über 166mm^2 nicht produzierbar? Ach nein, dass wäre zu einfach.
Tja, also kannte man das Problem schon vorher. Aber man tut hier so, als ob es bei Fermi als erstes passierte und es dann bei GF104 dann so perfekt löste.


GT200 und GT200b kamen pünktlich. Keine Ahnung, woher der Irrglaube kommt, dass diese verspätet wären.
Alle redeten von GT200b im Herbst. Gekommmen ist er später. Zwar auch im B2-Stepping, aber richtig gut war er erst im B3 Stepping.
Ailuros hat ja oft genug berichtet, dass GT200 eigentlich früher hätte kommen sollen.

LovesuckZ
2010-09-23, 11:52:44
Alle redeten von GT200b im Herbst. Gekommmen ist er später. Zwar auch im B2-Stepping, aber richtig gut war er erst im B3 Stepping.

Das nennt man Gerüchte. Eine GT200x2 sollte auch nicht kommen. :freak:


Ailuros hat ja oft genug berichtet, dass GT200 eigentlich früher hätte kommen sollen.

Aha. Natürlich. nVidia's erstes 65nm Design kam im November 2007 auf dem Markt. AMD's erstes 55nm Design auch. GT200 und rv770 auf dem selben Fertigungsprozeß wie der Vorgänger im Juni 2008.

NVidia war also zu spät. AMD aber nicht? :freak:

Tja, also kannte man das Problem schon vorher. Aber man tut hier so, als ob es bei Fermi als erstes passierte und es dann bei GF104 dann so perfekt löste.

Hä? Im 1. Halbjahr 2009 war es nicht möglich annährend irgendwas in 40nm zu produzieren. nVidia's Low-End ging erst im zweiten Halbjahr in großen Stückzahlen zum Kunden und erst im Jahr 2010 größere Dies.

aylano
2010-09-23, 11:59:32
Das nennt man Gerüchte. Eine GT200x2 sollte auch nicht kommen. :freak:

Ja, das B3-Stepping ist ein Gericht. Stimmt.


Aha. Natürlich. nVidia's erstes 65nm Design kam im November 2007 auf dem Markt. AMD's erstes 55nm Design auch. GT200 und rv770 auf dem selben Fertigungsprozeß wie der Vorgänger im Juni 2008.

NVidia war also zu spät. AMD aber nicht? :freak:
Ist mein Text wirklich so schwer zu verstehen?
AMD hatte ich nicht einmal erwähnt;)


Hä? Im 1. Halbjahr 2009 war es nicht möglich annährend irgendwas in 40nm zu produzieren. nVidia's Low-End ging erst im zweiten Halbjahr in großen Stückzahlen zum Kunden und erst im Jahr 2010 größere Dies.
Es geht nicht um eine Stückzahlen-Produktion, sondern dass sie die Probleme schon 2009 sehr lange kannte und schon genug Erfahrungen mit GT21x hatten.

LovesuckZ
2010-09-23, 12:03:57
Ja, das B3-Stepping ist ein Gericht. Stimmt.

B2 gab es im Herbst auf GTX260 Karten zu kaufen. :freak:


Ist mein Text wirklich so schwer zu verstehen?
AMD hatte ich nicht einmal erwähnt;)

Dein Text ist nicht schwer zu verstehen, er ist einfach falsch.
Die Wahrheit zeigt, dass nVidia und AMD im selben Abstand neue Designs gebracht haben.


Es geht nicht um eine Stückzahlen-Produktion, sondern dass sie die Probleme schon 2009 sehr lange kannte und schon genug Erfahrungen mit GT21x hatten.

Probleme? Das Tape-Out des GF100 war im August 2009. Die zur Produktion gebrachten GT21x Karten liefen problemlos. Ein GT212 kam nie zum Tape-Out. Wie sollten sie also von ihm etwas lernen? Und anscheinend gingen sie davon aus, dass ihre Erfahrungen mit GT21x ausreichend seien und ebenfalls auf das neue Design zu übertragen.
Viel interessanter ist, dass sie innerhalb von ca. 5 Monaten ihre Erfahrungen in GF104/106/108 einbauten.

aylano
2010-09-23, 12:22:12
B2 gab es im Herbst auf GTX260 Karten zu kaufen. :freak:

Eben, Text nicht verstanden.
B2 war nur eben noch nicht gut, sodass B3 hermusste.


Dein Text ist nicht schwer zu verstehen, er ist einfach falsch.
Die Wahrheit zeigt, dass nVidia und AMD im selben Abstand neue Designs gebracht haben.
Hier gehts eben nicht um AMD. Sondern um die Probleme und Verzögerungen von Nvidias letzten GPUs.
Wann AMD ihre Designs im A1-Stepping rausbringt ist völlig wurscht. Das ist nur eine Tpyische Art um die Fehler schönzureden.

Was anderes ist ja eh von dir nicht zu warten.

Die Probleme (nichterreichen von Takt-Ziel) und Verzögerungen von Fermi hielt ich eben schon Anfang 2009 möglich, während du trotz Fermi-Dummy noch immer von einem Fermi-Start in Nov 2009 ausgingst.

Grundsätzlich war ich schon ab RV770 sehr gespannt, wie der Umstieg auf 40nm passieren wird, da RV770 eben erheblich kleiner war.
Und genau die Größe der Die bzw. schlechte Performance-pro-mm² war eben das Problem von Fermi.

Es hat keinen Sinn die Probleme schönzureden.
Denn bis Kepler werden die Architektur nicht von Grund auf komplett erneuern, sodass es wieder die nichtzu-Unterschätzende Möglichkeit einer Einführungs-Verspätung von Kepler @ 28nm geben kann.

Es kommt eben auch drauf an, wie groß die Performance/mm² Unterschied nach der HD 6000er-Einführung sein wird.

Bucklew
2010-09-23, 12:27:12
Jetzt tut man so, als ob es nur Fermi war, aber davor wurde GT212 gecancelt und GT200 / GT200b kamen trotz sehr guter Fertigung verspätet am Markt.
GT212 hatte andere Gründe (die auch u.A. natürlich mit den Problemen bei 40nm zusammenhing).

Wann hätte GT200 denn erscheinen sollen?

Richtig, Charlie hatte recht.
Womit?

Einer wurde behoben und die anderen sind noch da.
Welche?

aylano
2010-09-23, 13:13:47
GT212 hatte andere Gründe (die auch u.A. natürlich mit den Problemen bei 40nm zusammenhing).

Wenn eine Architektur sehr Fehler-anfällig ist, dann ist die Wahrscheinlichkeit groß, dass immer irgendwas aus immer unterschiedlichen etwas passiert, sodass es dann recht schnell zu Verzögerungen kommt oder das Taktziel nicht erreicht wird.


Womit?

Charlie sagte zwar nicht so wie du, dass alle GF100 nicht funktionierten, aber halt fast alle nicht.

Bucklew
2010-09-23, 13:33:54
Charlie sagte zwar nicht so wie du, dass alle GF100 nicht funktionierten, aber halt fast alle nicht.
Das war schlicht falsch. Die Chips funktionierten (auch in großer Menge), solange man eben gewisse Funktionen nicht genutzt wurden. Das war das beschriebene Problem.

Und wann hätte jetzt GT200 erscheinen sollen?

Gast
2010-09-23, 13:37:02
Und wann hätte jetzt GT200 erscheinen sollen?
Ende 2007, wie es im CUDA-FAQ im Bezug auf DP-fähige GPUs angekündigt wurde.

aylano
2010-09-23, 14:15:05
Das war schlicht falsch.

Also, ist deine Aussage falsch, dass damals kein Fermi funktionierte.

Warum sollten dann die anderen Aussagen von dir richtig sein?

Die Chips funktionierten (auch in großer Menge), solange man eben gewisse Funktionen nicht genutzt wurden. Das war das beschriebene Problem.
Wenn beim Auto eine gewisse Funktion nicht funktioniert und es dann nicht zur Massen-Produktion kommt, dann bedeutet das in der Regel, dass es nicht funktioniert.

Aber da das Problem ja eh schon lange gelöst ist, und eigentlich eh alles nicht so schlimm war, kann man natürlich weiterhin ignorieren, dass es immer noch keinen Voll-Fermi gibt.
Im Telsa- & Quadro-Markt muss Nvidia nicht auf North-Island warten;)

Coda
2010-09-23, 14:53:19
Können wir das Thema evtl. abhaken? Ich denke nicht dass wir hier noch zu einem Konsenz kommen, vor allem da sich jeder eh dabei denkt was er will.

Bucklew
2010-09-23, 18:30:50
Also, ist deine Aussage falsch, dass damals kein Fermi funktionierte.
HAbe ich nie geschrieben.

Warum sollten dann die anderen Aussagen von dir richtig sein?
Welche?

Wenn beim Auto eine gewisse Funktion nicht funktioniert und es dann nicht zur Massen-Produktion kommt, dann bedeutet das in der Regel, dass es nicht funktioniert.
Dazu kann auch die Klimaanlage noch nicht funktionieren, der Rest des Autos funktioniert genauso. Und das war beim Fermi nicht anders. Solange man gewisse Beschränkungen erfüllt hat, liefen auch die allerersten Chips.

Aber da das Problem ja eh schon lange gelöst ist, und eigentlich eh alles nicht so schlimm war, kann man natürlich weiterhin ignorieren, dass es immer noch keinen Voll-Fermi gibt.
Im Telsa- & Quadro-Markt muss Nvidia nicht auf North-Island warten;)
Der fehlende Voll-Fermi hat (speziell im Quadro/Tesla Markt) produktions- und verkaufstechnische Gründe.

Black-Scorpion
2010-09-23, 19:55:06
GT212 hatte andere Gründe (die auch u.A. natürlich mit den Problemen bei 40nm zusammenhing).

Wann hätte GT200 denn erscheinen sollen?


Womit?


Welche?
Takt und Verbrauch. Und nein das hängt nicht alles nur am Prozess.

Bucklew
2010-09-23, 19:59:34
Takt und Verbrauch. Und nein das hängt nicht alles nur am Prozess.
Und was sind dann die "wahren" Gründe?

Dural
2010-09-23, 20:06:55
GT200 war wohl immer für 2008 geplant, 2007 halt ich für ein gerücht / fehlinfo!

Fakt ist das der G92 für ende 2007 geplant und gekommen ist, da wäre es nicht gerade klug zeit gleich ein so rissen Chip wie der GT200 zu bringen.

GT200 hätte wohl Q1 2008 kommen sollen, jetzt wurde es halt ende Q2 2008... und 6 Monate später ein B3 von A2 aus ist von der zeitspanne her ja mal nicht so schlecht!

Eigentlich gibt es so wie so keine verspätung in der Chip Entwiklung, die teams haben einen festen termin an dem sie abschlissen müssen, es sei den es gibt plötzlich probleme die man nicht vorher gesehen hat oder die fertigung macht probleme wie zb. beim GF100

deekey777
2010-09-23, 20:16:19
B2 gab es im Herbst auf GTX260 Karten zu kaufen. :freak:



...
Könntest du das mit Links belegen? Denn irgendwie habe ich da Erinnerungslücken. Denn GT200B2-Chips wurden tatsächlich verbaut und zwar entweder auf Quadros oder auf Teslas (also spätestens Mitte Oktober), aber auf den Desktopprodukten (GTX260, 260 216) tauchten sie so zur Zeit, als GTX295/285/275 mit GT200B3 kamen, und jeder mied sie wie der Teufel das Weihwasser.

Dural
2010-09-23, 20:19:36
in asien tauchten 2008 GTX260 mit B2 auf, ob die so jemals in den handel kamen weis ich nicht!

Quadro soll es mit B2 gegeben haben, davon hab ich aber nie einen beweis gesehen...

aylano
2010-09-23, 20:37:56
HAbe ich nie geschrieben.

Sicher, siehe letzte Seite.


Welche?

Hat ja eh keinen Sinn, da du recht haben musst.
Und wenn ich was bringe, dann überzeugt dich das sowieso nicht.

Nachdem das Fermi-Desaster offensichtlich wurde, hat man schnell noch einen neuen Nike-name genommen und dann hat man nachher eh wieder recht, weil das der Nikename vorher nicht sagte.


Der fehlende Voll-Fermi hat (speziell im Quadro/Tesla Markt) produktions- und verkaufstechnische Gründe.
Und was ist das für ein unsinnige Aussage.
Also, kann man es doch nicht produzieren, obwohl die Chips ja eh funktionieren. Aber eigentlich ist ja eh alles in Ordnung und Nvidia wartet auf den gefürchteten FirePro-RV970.
Vielleicht kannst du dich mal entscheiden.

Bucklew
2010-09-23, 20:40:59
Sicher, siehe letzte Seite.
Konkret?

Hat ja eh keinen Sinn, da du recht haben musst.
Und wenn ich was bringe, dann überzeugt dich das sowieso nicht.
Na, dann ist es wohl nicht überzeugend genug. Da solltest du mal drüber nachdenken ;)

Nachdem das Fermi-Desaster offensichtlich wurde, hat man schnell noch einen neuen Nike-name genommen und dann hat man nachher eh wieder recht, weil das der Nikename vorher nicht sagte.
Spar dir die Flames, ich war hier nie vorher angemeldet.

Und was ist das für ein unsinnige Aussage.
Also, kann man es doch nicht produzieren, obwohl die Chips ja eh funktionieren. Aber eigentlich ist ja eh alles in Ordnung und Nvidia wartet auf den gefürchteten FirePro-RV970.
Vielleicht kannst du dich mal entscheiden.
Offensichtlich hast du von der Produktion von heutigen Computerships, dem Binning und den daraus resultierenden Problemen keine Ahnung. Dann erübrigt sich natürlich die Diskussion.

Coda
2010-09-23, 20:46:06
Red ich eigentlich gegen ne Wand? Hört auf mit der sinnlosen Diskussion.

Das Thema ist "GPU Technology Conference 2010". Und da gibt es genügend Stoff zum diskuttieren. Es geht nicht um warum Fermi wie, wo und weshalb nicht so funktionierte wie er soll.

Und falls ihr weitermachen wollt, dann bitte ich die Moderation das in einen anderen Thread zu stopfen. Da könnt ihr euch von mir aus dann den ganzen Tag den Kopf einschlagen. Es wird sowieso zu keiner Einigung kommen.

aylano
2010-09-24, 00:27:38
Konkret?

Natürlich bis du nicht fähig/gewillt selber nachzulesen/schauen.

Natürlich wurde der Fehler behoben, sonst würde heute
kein einziger GF100-Chip funktionieren :rolleyes:

Charlie sagte zwar nicht so wie du, dass alle GF100 nicht funktionierten, aber halt fast alle nicht.
Das war schlicht falsch. Die Chips funktionierten (auch in großer Menge), solange man eben gewisse Funktionen nicht genutzt wurden.
Also, ist deine Aussage falsch, dass damals kein Fermi funktionierte.
HAbe ich nie geschrieben.


Einmal funktionierten sie nicht, einmal irgendwie doch und dann hast das ja eh nicht so gesagt.
Tja, gute Grundlagen zum "diskutieren".

Na, dann ist es wohl nicht überzeugend genug. Da solltest du mal drüber nachdenken ;)
Das ist ja das Problem mit Leuten, die immer exakte Beweise brauchen, da man sie sonst nicht "überzeugen" kann.

Red ich eigentlich gegen ne Wand? Hört auf mit der sinnlosen Diskussion.

Das Thema ist "GPU Technology Conference 2010". Und da gibt es genügend Stoff zum diskuttieren
Eine Diskussion wird aber nicht besser, wenn über das Thema gespammt öh diskutiert wird.
Und wenn man auf eine Aussage eingeht, dann artet es bei üblich verdächtigen immer Aus.
Das Prarade-Beispiel ist ja ber Fermi-GF100-Thread wo über hunderten Seiten Fermi schöngeredet öh ich meine diskutiert wurde.

Leider wird dieser Stiel toleriert.

Und falls ihr weitermachen wollt, dann bitte ich die Moderation das in einen anderen Thread zu stopfen.
Nö, für mich ist es beendet.

Bucklew
2010-09-24, 01:04:34
Natürlich bis du nicht fähig/gewillt selber nachzulesen/schauen.

Einmal funktionierten sie nicht, einmal irgendwie doch und dann hast das ja eh nicht so gesagt.
Tja, gute Grundlagen zum "diskutieren".
Ach so, funktionieren ist für dich eine schwarz/weiß Angelegenheit, das erklärt natürlich einiges. Also funktioniert dein Auto nicht mehr, wenn die Scheinwerferlampe durchgebrannt ist?

Tut mir ja leid für dich, aber funktionsfähig zu sein ist auch oftmals eine Grauzone irgendwo zwischen "läuft gar nicht" und "funktioniert 100%ig".

Das ist ja das Problem mit Leuten, die immer exakte Beweise brauchen, da man sie sonst nicht "überzeugen" kann.
Ich warte auf diese "überzeugenden" Beweise von dir. Bisher war noch nichts überzeugend ;)

Leider wird dieser Stiel toleriert.
Der Besenstiel?

AnarchX
2010-10-11, 10:06:53
NVIDIA GTC 2010 Wrapup: http://www.anandtech.com/show/3972/nvidia-gtc-2010-wrapup