Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Was du mit deinen anderen zwei Sätzen bezwecken willst erschließt sich mir nicht. Wer sich eine HD5800 kauft wird wohl nur in den wenigsten Fällen wenig später nochmal zuschlagen. Und auf eine mangelnde Verfügbarkeit wird man sich nicht lange ausruhen können. Das ändert an meinen Aussagen genau nichts.
Wenn du dich mir die Ehre zukommen lässt und mir dennoch antwortest, so wiederhole ich mich gerne.
Das Produkt GTX 380, was noch nicht gelauncht wurde hat bisher keine Konkurrenz.
HD 5870 spielt in einer anderen Liga, mit welcher GTX 300 dieses Produkt gemessen werden muss ist bisher unklar.
Das mit dem später einkaufen weil man schon was hat:
Das denken sich 4870 X2 Besitzer auch, was sollen die mit einer 5870? Ergibt weniger schöne Benchergebnisse.
Oder warum sollten GTX 285 Besitzer umsteigen, die paar % sind egal.
Trotz deines Konstrukts gibt es Abnehmer für die 5870. Und trotz deines Konstruktes wird es Abnehmer für 5870 X2 und GTX 380 und GTX 390 geben.
Es gibt immer Abnehmer, wenn Preis/Lobeshymne der Presse stimmt.
tombman
2009-10-06, 19:46:21
Das stand nicht zur Diskussion. Nachfrage und Angebot regeln den Preis. Und man kann sie (im Vergleich zu nv) kaufen. Bitte bei sauberer Argumentationen bleiben.
Das kannst du nicht trennen. Wenn ein Stück Brot im Krieg 1000€ kostet, kannst auch nicht sagen, die Bevölkerung hat genug zu essen ;)
Das ist dann eben NICHT verfügbar. 50€ und mehr Deppensteuer macht das Produkt quasi "nicht verfügbar"...
@mods, bitte killt die Verfügbarkeitsdebatte und macht nicht noch selbst mit :)
Ailuros
2009-10-06, 19:49:33
Momentan gibt's nichts besseres zu besprechen, sonst haette ich schon laengst abgelenkt.
tombman
2009-10-06, 19:51:22
Momentan gibt's nichts besseres zu besprechen, sonst haette ich schon laengst abgelenkt.
Nice, Regeln biegen wenns paßt ;)
Allerdings gibt es tatsächlich nix besseres zu bereden- dachte mir schon, daß das der Grund ist :ugly:
Wo ist Fudo, wenn man ihn braucht :D
reunion
2009-10-06, 19:53:53
Wenn du dich mir die Ehre zukommen lässt und mir dennoch antwortest, so wiederhole ich mich gerne.
Ich bin mir nie für eine Antwort zu schade wenn es der Diskussionspartner wert ist.
Das Produkt GTX 380, was noch nicht gelauncht wurde hat bisher keine Konkurrenz.
HD 5870 spielt in einer anderen Liga, mit welcher GTX 300 dieses Produkt gemessen werden muss ist bisher unklar.
Genau genommen weiß man nicht viel über GT300. Man kann aber wohl annehmen dass das Topmodell schneller wird als eine 5870, ja.
Das mit dem später einkaufen weil man schon was hat:
Das denken sich 4870 X2 Besitzer auch, was sollen die mit einer 5870? Ergibt weniger schöne Benchergebnisse.
Oder warum sollten GTX 285 Besitzer umsteigen, die paar % sind egal.
Der typische HD5800 Käufer hat sicherlich keine GTX285 oder 4870 X2. Klar gibt es auch die Fraktion "brauche immer das beste". Aber das sind Ausnahmen.
Trotz deines Konstrukts gibt es Abnehmer für die 5870. Und trotz deines Konstruktes wird es Abnehmer für 5870 X2 und GTX 380 und GTX 390 geben.
Es gibt immer Abnehmer, wenn Preis/Lobeshymne der Presse stimmt.
Natürlich gibt es immer Abnehmer. Die Frage ist nur wieviel. Und NVs Ziel muss es natürlich sein möglichst viele Karten zu verkaufen.
Ailuros
2009-10-06, 19:55:12
Nice, Regeln biegen wenns paßt ;)
Allerdings gibt es tatsächlich nix besseres zu bereden- dachte mir schon, daß das der Grund ist :ugly:
Wo ist Fudo, wenn man ihn braucht :D
http://www.fudzilla.com/content/view/15835/1/
Wo hab ich schonmal davon gehoert?
Ist denn davon auszugehen, dass Nvidia schon hinter den NDA-verschlossenen Türen mehr verraten hat oder sitzt die ganze Welt wartend da?
Ailuros
2009-10-06, 20:20:23
Ist denn davon auszugehen, dass Nvidia schon hinter den NDA-verschlossenen Türen mehr verraten hat oder sitzt die ganze Welt wartend da?
Also irgend jemand schiesst Fudo das ganze Papageien-Material schon zu. Zaehl mal die NV relativen Links taeglich in den letzten Tagen.
Könnte ja auch sein, dass er es sich aus den Fingern saugt, wie andere ;)
Ailuros
2009-10-06, 20:23:36
Könnte ja auch sein, dass er es sich aus den Fingern saugt, wie andere ;)
Definitiv nicht; es ist kein Zufall glaubs mir.
Ich wiederhole es noch einmal, aber vor ein, zwei Tagen wurde hier gesagt, dass nvidia kurz vor einer wichtigen Mitteilung bzgl. Fermi wäre. Als Termin wurde der heutige Dienstag genannt. War das nur ein weiteres, nicht haltbares Gerücht oder kommt noch was?
Ailuros
2009-10-06, 20:45:47
Heutige Dienstag? Als jemand Jensen "wann" fragte sagte er ohne weitere Erlaeuterung "am Dienstag". Im welchen Jahr weiss noch keiner ;)
Heutige Dienstag? Als jemand Jensen "wann" fragte sagte er ohne weitere Erlaeuterung "am Dienstag". Im welchen Jahr weiss noch keiner ;)
Ok, das erklärt wieso Fudzilla immer von Dienstag geschrieben hat (1 (http://www.fudzilla.com/content/view/15812/38/), 2 (http://www.fudzilla.com/content/view/15784/34/)). Habe mir sowas schon fast gedacht, aber Fud schien sich von diesem Dienstag sehr gewiss zu sein.
ich versteh die ganze Aufregung über die Verfügbarkeit nicht.
NV hat doch nur Technologie gezeigt, sogar nur für GPGPU nix für Spieler. Keinen Launch der Karten, Taktraten oder gar Benchmarks. Sie haben nix angedeutet oder versprochen
also cool down...
anddill
2009-10-06, 21:35:54
Könntet Ihr bitte die Verfügbarkeitsdiskussion zu den HD5XX0-Karten im entsprechenden Thread fortsetzen?
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=466779
DavChrFen
2009-10-06, 21:44:44
Wenn aber wirklich heute was von NVidia durchsickern sollte, dann rechne ich damit, dass das zu einer fernünftigen USA-Zeit geschieht und deswegen bei uns mitten in der Nacht ist. Die HPC-Konferenz ist ja schon am Vormittag losgegeangen und bei uns um 22:00. Wenn die was am Abend sagen, dann wissen wir das erst in der Früh.
tombman
2009-10-06, 21:47:33
fernünftigen
holy crap :eek:
==
Dort ist es erst 13 Uhr mittags...
LovesuckZ
2009-10-06, 21:49:43
Heute kommt nichts. Fuad hat sich einfach verschrieben.
G!ZMo
2009-10-06, 22:06:35
Er wird wohl einfach auf den falschen Dienstag getippt haben. ;D
tombman
2009-10-06, 22:28:03
I woart auf des Taxi, oba es kummt ned, kummt ned...
I woart auf des Brumman von an Mercedes Diesel, oba es brummt ned ...
http://www.youtube.com/watch?v=TWgqkaSTrnA
:(
Slipknot79
2009-10-07, 00:11:16
I woart auf des Taxi, oba es kummt ned, kummt ned...
I woart auf des Brumman von an Mercedes Diesel, oba es brummt ned ...
http://www.youtube.com/watch?v=TWgqkaSTrnA
:(
No serwas :eek: was hast wieder reingeschmiessen?
tombman
2009-10-07, 00:32:59
No serwas :eek: was hast wieder reingeschmiessen?
Sag blos du bist für diesen 1983er Klassikerscheiß schon zu jung? ;D
Ersetze "Taxi" durch "Fermi" :)
BlackBirdSR
2009-10-07, 06:13:17
So wie ich das sehe, haben sich ATI und Nvidia jeweils einen Clown ausgesucht, den man nach belieben manipulieren kann.
AMD hat sich Charly geschnappt, der traditionell eh schon etwas gegen die Marktführer gestellt ist, während man sich bei Nvidia den News-geilen Fuad an die Leine gelegt hat.
Inwiefern hier ein Geldfluss involviert ist, ist irrelevant. Tatsache ist, dass wir hier eine absichtlich manipulierte Berichterstattung haben, wie man sie sonst nicht so offensichtlich hat. Fraglich ist, wer den ganzen scheiß glauben soll?
Auf der anderen Seite: Nvidia weißß die Diskussionen um Fermi anzuheißen und in Gang zu halten, womit Leute wie wie direkt ausgenutzt werden, um Nachteile abzuschwächen.
Fühlen wir uns nicht toll?
Auf der anderen Seite: Nvidia weißß die Diskussionen um Fermi anzuheißen und in Gang zu halten, womit Leute wie wie direkt ausgenutzt werden, um Nachteile abzuschwächen.
Fühlen wir uns nicht toll?
Wie so oft bei solchen Diskussionen wünsche ich mir mehr Beachtung von Immanuel Kant und dessen Einsetzen für Aufklärung bzw. wirkliches Denken:
"A u f k l ä r u n g i s t d e r A u s g a n g d e s M e n s c h e n a u s s e i n e r s e l b s t v e r s c h u l d e t e n U n m ü n d i g k e i t. U n m ü n d i g k e i t ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. S e l b s t v e r s c h u l d e t ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines andern zu bedienen. Sapere aude ! Habe Mut, dich deines e i g e n e n Verstandes zu bedienen ! ist also der Wahlspruch der Aufklärung."
http://www.studienarbeiten.de/heureka/philosophie/klassiker/kant/aufklaerung.htm
In diesem Sinne würde ich mich freuen, wenn vor allem die Newsseiten mal ihren kritischen Verstand (sofern vorhanden) auch nutzen würden.
So wie ich das sehe, haben sich ATI und Nvidia jeweils einen Clown ausgesucht, den man nach belieben manipulieren kann.
AMD hat sich Charly geschnappt, der traditionell eh schon etwas gegen die Marktführer gestellt ist, während man sich bei Nvidia den News-geilen Fuad an die Leine gelegt hat.
Inwiefern hier ein Geldfluss involviert ist, ist irrelevant. Tatsache ist, dass wir hier eine absichtlich manipulierte Berichterstattung haben, wie man sie sonst nicht so offensichtlich hat. Fraglich ist, wer den ganzen scheiß glauben soll?
Auf der anderen Seite: Nvidia weißß die Diskussionen um Fermi anzuheißen und in Gang zu halten, womit Leute wie wie direkt ausgenutzt werden, um Nachteile abzuschwächen.
Fühlen wir uns nicht toll?
das allerschlimmste bei dieser ganzen sache ist, dass 95% aller anderen newsseiten 1:1 abschreiben ohne nachzudenken.
Ich glaube, dass ich GOTY früher sehen würde als irgendwelche informationsreichen Fermi News ;)
also doch zwei chips??? wohlmöglich einer für Tesla und einer für die GeForce Karten!?!Das wäre imho eine Katastrophe. Es ist mir schlicht nicht möglich eine extrem teure Tesla zu kaufen. Auf Double-Precision möchte ich aber auch auf keinen Fall verzichten. Langfristig ist es aus NVs Sicht sicherlich nicht unerwünscht, dass die Leute bei entsprechendem Bedarf die Tesla-Produkte kaufen. Zur Zeit würde ich an deren Stelle aber lieber an das Erreichen eines größeren Marktanteils denken. Außerdem würde ich mal behaupten, dass diejenigen, die die entsprechende Kohle haben, auch trotz Verfügbarkeit von billigen Geforce-Karten zur Tesla greifen. Mit einer getrennten Produktpolitik würde man aber viele Studenten und anderweitig Interessierte von der Nutzung ausschließen.
PCGH schreibt im von dir verlinkten Artikel:Neu ist jedoch, dass für den Spielermarkt oder den Mainstream die Anzahl der DFMA-Einheiten unabhängig von den für Spiele und auch für Spieler-Physx wichtigen SDFMA-Einheiten [Anm: was soll das "D" da an zweiter Stelle?] reduziert werden und so den Chip deutlich "entschlacken" (rein aus Spielersicht) kann.Das passt aber nicht ganz mit meiner Auffassung zusammen, dass es in Fermi keine dedizierten DP-Einheiten gibt und man sie demnach auch nicht weglassen kann.
Ich hoffe stark, dass nicht nur eine kastrierte Spielzeug-Variante als Geforce verkauft wird. Ich möchte die GPGPU-Fähigkeiten nutzen und dennoch ab und an mal ein Spiel zocken. Die Teslas kann man ja nichtmal als Grafikkarte verwenden. In Value- und Mainstream-Abkömmlingen können sie gerne machen, wozu sie lustig sind, aber die High-End-SKU soll doch bitte ein vollwertiger Chip sein. Dafür bin ich dann gerne bereit, auch etwas mehr auszugeben.Er wird wohl einfach auf den falschen Dienstag getippt haben. ;DJensen sprach doch von einer Veröffentlichung an einem Dienstag, ohne aber ein näheres Datum zu nennen. Zumindest hat Ailuros das vor einigen Seiten geschrieben. Vielleicht hat Fuad das falsch interpretiert.toll. weil ja so viele hier in diesem forum reaktoren bauen... das bringts für uns gamer wirklich ENORMWir sind hier nicht bei Gamestar. Dieses Forum beschäftigt sich eben nicht ausschließlich mit den Bedürfnissen spielender Otto-Normal-DAUs. Nichts gegen PC-Spiele, betreibe das Hobby ja selbst, aber einen Chip abwerten, nur weil er Vorteile bietet, für die dir auf Anhieb keine Verwendungsmöglichkeit einfällt, ist auch nicht gerade so toll. Wäre es dir lieber, wenn du einen um DP-Funktionalität kastrierten Chip bekommen würdest, aber trotzdem den für Grafikkarten dieser Leistungsklasse üblichen Preis dafür zahlen müsstest? Preissenkungen kannst du bei zwei Entwicklungszweigen eher nicht erwarten. Und eine künstliche Limitierung hätte für niemanden einen Vorteil.
Wenn du dich aber gern in der Nutzung deines Eigentums einschränken lässt, kannst du ja auch ATI-Karte kaufen. Die betreiben das in breitem Umfang fast schon in Perfektion. ;D
PulsarS
2009-10-07, 10:00:48
Wir sind hier nicht bei Gamestar. Dieses Forum beschäftigt sich eben nicht ausschließlich mit den Bedürfnissen spielender Otto-Normal-DAUs. Nichts gegen PC-Spiele, betreibe das Hobby ja selbst, aber einen Chip abwerten, nur weil er Vorteile bietet, für die dir auf Anhieb keine Verwendungsmöglichkeit einfällt, ist auch nicht gerade so toll.
Ich denke niemand will hier den Fermi abwerten, weil er Zusatzfunktionen bietet, die vielleicht in zukunft von Vorteil sein könnten.
Das Wichtigste ist aber immer noch die Spieleleistung und nach diesem Gesichspunkt werden die meisten Grafikkarten verkauft/gekauft.
Wenn die Performance bei Spielen nicht stimmen sollte, dann hätte NV ein Riesenproblem beim Umsatz, da die Zielgruppe verfehlt würde.
Wenn du dich aber gern in der Nutzung deines Eigentums einschränken lässt, kannst du ja auch ATI-Karte kaufen. Die betreiben das in breitem Umfang fast schon in Perfektion. ;D
Kannst du demnächst deine geistigen Ergüsse irgend woanders loswerden?
Danke.
Es gehen ja momentan Gerüchte um der GT300 wird als Gamer-Karte abgespeckt.
Was genau kann Nvidia da problemlos weglassen?
Ganze Einheiten, zB ALUs wegzulassen macht ja gar keinen Sinn.
Ailuros
2009-10-07, 10:09:17
Es gehen ja momentan Gerüchte um der GT300 wird als Gamer-Karte abgespeckt.
Was genau kann Nvidia da problemlos weglassen?
Ganze Einheiten, zB ALUs wegzulassen macht ja gar keinen Sinn.
Ich weiss es noch nicht aber wenn ich Carsten bei B3D nicht falsch verstanden habe sind nicht alle SPs ueber DP faehig sondern lediglich 16 in einem cluster.
Angenommen dieses stimmt kann man beruhigt auf mainstream oder kleineren GPUs die DP faehigen SPs weglassen und somit noch etwas dazusparen. In dem Fall hat man eben nur noch 16SPs/cluster und maximal 256SPs insgesamt und von da ab skaliert man nach unten.
Wobei man die DP fähigen ja auch gegen die nur SP-fähigen ersetzen könnte oder zum teilweisen ausgleich mehr SP-fähige einbauen.
Ailuros
2009-10-07, 10:23:42
Wobei man die DP fähigen ja auch gegen die nur SP-fähigen ersetzen könnte oder zum teilweisen ausgleich mehr SP-fähige einbauen.
Ja aber wuerde das nicht eine zweischienige Entwicklung suggestieren?
Wobei man die DP fähigen ja auch gegen die nur SP-fähigen ersetzen könnte oder zum teilweisen ausgleich mehr SP-fähige einbauen.Kann es nicht sein, dass ein FMA-Core pro Takt ein FMA in 64 Bit oder zwei FMAs in 32 Bit schafft?
Riplex
2009-10-07, 12:19:57
Nvidia zieht sich vom Highend Grafikkartenmarkt zurück ? Ist das ein Fake oder nur um in der Presse zu bleiben ?
http://winfuture.de/news,50429.html
tombman
2009-10-07, 12:22:59
Lol, das glaub ich erst, wenn ich es sehe- hatten die ein Schwätzchen mit Charlie, oder was ging da ab? :D
mictasm
2009-10-07, 12:23:02
Falsche Schlüsse aus einem Blob gezogen... man man man...
G!ZMo@w0rk
2009-10-07, 12:23:50
Nvidia zieht sich vom Highend Grafikkartenmarkt zurück ? Ist das ein Fake oder nur um in der Presse zu bleiben ?
http://winfuture.de/news,50429.html
lol Quelle: semiaccurate.com...
Das ist wohl eher ein feuchter Wunschtraum von Charlie. *facepalm*
Nvidia zieht sich vom Highend Grafikkartenmarkt zurück ? Ist das ein Fake oder nur um in der Presse zu bleiben ?
Wenn du eine neue Highend-Karte für Q4/09 bzw Q1/10 hast und zudem die Konkurrenz eine neue Serie mit gleicher Performance platziert hat, wieso sollte NV dann noch 275/285 weiterhin in Mengen auf den Markt werfen?
tombman
2009-10-07, 12:27:32
Charlie prophezeit doch schon lang den Untergang von Nvidia :rolleyes:
Selbst wenn Nvidia mal für ne Zeit weg vom Fenster wäre, dann aber mit Tesla ordentlich Geld verdient, wäre es doch blöd, superschnelle Chips nicht auch an Enthusiasten zu verkaufen...
PulsarS
2009-10-07, 12:28:59
Lol, das glaub ich erst, wenn ich es sehe- hatten die ein Schwätzchen mit Charlie, oder was ging da ab? :D
Könnte gut sein.
Abwegig ist es allerdings nicht.
NV kann zur Zeit preislich nicht mit ATI mithalten.
Wenn das stimmt, dann wäre es wirklich schade :(
Hoffentlich wird Fermi wenigstens gut.
Riplex
2009-10-07, 12:30:12
Also so wie ich den Artikel verstehe, hätte Nvidia zwar die Performance um AMD schlagen zu können, nur kann keiner die Grafikkarten bezahlen.
reunion
2009-10-07, 12:35:09
Wenn du eine neue Highend-Karte für Q4/09 bzw Q1/10 hast und zudem die Konkurrenz eine neue Serie mit gleicher Performance platziert hat, wieso sollte NV dann noch 275/285 weiterhin in Mengen auf den Markt werfen?
Damit man bis Q4/09 bzw Q1/10 auch noch was verkauft? Bzw. wird GT300 kaum 275/285 Karten preismäßig ersetzen. Das macht nur dann Sinn wenn man die Karten mit Verlust verkaufen müsste um konkurrieren zu können und deshalb lässt man es gleich bleiben. Und selbst dann ist es fragwürdig der Konkurrenz den Markt zu überlassen. Eher hat man sich ganz einfach verschätzt mit der jetzigen Nachfrage.
Tarkin
2009-10-07, 12:40:47
Wird wohl nicht mehr lange dauern und der eine oder andere nvidia Partner wechselt das Lager...
möchte ich wetten.
Riplex
2009-10-07, 12:43:18
Also sowas bringt mich echt in zum Kochen. Mit solchen Meldungen kaufen sich doch nur noch mehr Leute AMD Karten. Offentlich kommt bald ne Stellungsnahme von Nvidia.
Aus dem SemiAccurate Forum von Charlie:
So short answer, no crystal ball, just groundwork and an understanding of the industry. OK, maybe a little crystal ball.
Er gibt da ja sozusagen zu das er bischen in der Kristallkugel geschaut hat... naja ich denk ist Panikmache um die User dazu zu bringen ATI zu kaufen.
pervert
2009-10-07, 12:47:35
Ich frage mich langsam ernsthaft warum Nvidia diese Dreckschleuder semisuckers nicht mal verklagt. Diese permanente penetrante und vorallem überwiegend geschäftsschädigende Berichterstattung ist sicher an der Grenze der Legalität, oder was meint Ihr? Mir gehts jedenfalls ziemlich auf die Nerven, diese Typen haben doch nen Schaden.
Das ist ja 10x schlimmer als jegliche Boulevardpresse.
PulsarS
2009-10-07, 12:48:21
Also sowas bringt mich echt in zum Kochen. Mit solchen Meldungen kaufen sich doch nur noch mehr Leute AMD Karten.
Das ist ja nicht so tragisch, wenn NV mit dem Fermi kontern kann.
Wenn NV nicht kontern kann (preislich gesehen), dann sieht es schlecht für uns aus, da ATI sicherlich die Preisgestaltung überdenken könnte.
DAS wäre übel!
Offentlich kommt bald ne Stellungsnahme von Nvidia.
Ja, das hoffe ich auch.
AnarchX
2009-10-07, 12:49:23
Damit man bis Q4/09 bzw Q1/10 auch noch was verkauft? Bzw. wird GT300 kaum 275/285 Karten preismäßig ersetzen.
Es kann durchaus vermutet werden, dass NV die Herstellung für G200 entsprechend zurückgefahren hat, dass man zum angedachten Q3/Q4-Launch keine größeren Lagerbestände hat, was wohl damals bei G80 zum G92-Launch ein erhebliches Problem war.
Dass GeForce sich wohl möglich verspätet ist natürlich ein anderes Problem.
Vielleicht kommt als Überbrückung eine GT215-Dual-Karte.:D
Oder anders gesagt NV hat die Hosen unten.
Wenn man die Gerüchte über D12U hört, dann sieht es wohl so aus, dass sie unanständig hohe Spannungen brauchen um die angestrebten Taktraten halbwegs zu erreichen, zum Ausgleich dürfte die Kühlung wohl ein NV30-Fön-Revival sein. Alternativ können Sie einen weiteren Respin versuchen, dann wird aber die erste D12 Karte nicht vor Q2/2010 im Handel sein.
Von den kleineran D12 GPUs gibt es keinerlei Anzeichen. Keine Tape-Out-Gerüchte, nichts. Selbst wenn diese Chips noch im 4Q/09 Tape-Out hätten so braucht NV doch meist 2-3 Respins, ergo werden diese Karten frühstens im Q3/10 verfügbar.
Abgesehen von den kleinen GT21X hat NV momentan nichts auf der Pfanne und auch die werden im 1Q/10 von der DX11 Generation von ATI entweret. Disaster wäre eine nette Umschreibung der Situation.
Und dazu ist halt immer noch die Frage was Fermi als GPU kann.
Gleichzeitig hat AMD noch einige Trümpfe im Ärmel. :D
Ailuros
2009-10-07, 13:13:13
Es gibt einen relevanten Thread hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=466908 und bitte antwortet in diesem zum Thema.
Dural
2009-10-07, 13:18:48
Oder anders gesagt NV hat die Hosen unten.
Wenn man die Gerüchte über D12U hört, dann sieht es wohl so aus, dass sie unanständig hohe Spannungen brauchen um die angestrebten Taktraten halbwegs zu erreichen, zum Ausgleich dürfte die Kühlung wohl ein NV30-Fön-Revival sein. Alternativ können Sie einen weiteren Respin versuchen, dann wird aber die erste D12 Karte nicht vor Q2/2010 im Handel sein.
Von den kleineran D12 GPUs gibt es keinerlei Anzeichen. Keine Tape-Out-Gerüchte, nichts. Selbst wenn diese Chips noch im 4Q/09 Tape-Out hätten so braucht NV doch meist 2-3 Respins, ergo werden diese Karten frühstens im Q3/10 verfügbar.
Abgesehen von den kleinen GT21X hat NV momentan nichts auf der Pfanne und auch die werden im 1Q/10 von der DX11 Generation von ATI entweret. Disaster wäre eine nette Umschreibung der Situation.
Und dazu ist halt immer noch die Frage was Fermi als GPU kann.
Gleichzeitig hat AMD noch einige Trümpfe im Ärmel. :D
Was soll AMD den in der hand haben, Fakt ist doch das sie eine 2,1Miliarden grosse GPU haben die gerade mal 30% vor einer GTX285 ist... schon nur die vorstellung das ein GT200 in 40nm immer noch recht weit oben spielen dürfte stellt den RV870 nicht gerade gut da... klar DX11 fehlt...
Nur so als Erinnerung, ATI stand damals ca. 6Monate ohne DX10 GPU da und haben dann den "Kracher" 2900XT gebracht... Nach einigen aussagen hier zu urteilen dürfte ATI ja schon längst keine GPUs mehr machen....
Wenn Fermin "zeitnah" kommt, wie von NV bestätigt und er halbwegs die Leistung hat die im zugesprochen wird dürfte AMD blad ein kleineres Absatz problem haben und die Preise runter nehmen müssen...
Ailuros
2009-10-07, 13:45:28
Bitte fuehrt die Debatte ueber Verfuerbarkeiten und/oder Charlie's neuestem newsblurb hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=466908 weiter. Alles andere wird geloescht.
Gipsel
2009-10-07, 14:12:06
Kann es nicht sein, dass ein FMA-Core pro Takt ein FMA in 64 Bit oder zwei FMAs in 32 Bit schafft?
Eher nicht. Wenn man sich die bisher verfügbaren Informationen ein wenig zusammenbastelt, dann sieht das so aus, daß 1 Core 1 SP-FMA pro Takt kann, aber schon für eine 32x32=64 Bit Integer-Multiplikation 2 Takte benötigt. Für DP-FMA, spucken wohl 2 Cores zusammen maximal 1 FMA pro Takt aus (ein SM mit 32 Cores macht 16 DP-FMA pro Takt). Dagegen daß 16 Cores DP können und die anderen 16 nicht spricht ganz einfach, daß mit einer DP-Operation alle 32 Cores belegt werden, es können keine 16 Cores mit DP beschäftigt werden und die anderen SP-Arbeit bekommen. Außerdem hätte nvidia das uns sicherlich schon auf die Nase gebunden, wenn Fermi 1024 SP-FMAs und 512 DP-FMAs pro Takt könnte ;)
Wie das intern genau geregelt ist, weiß momentan nur nvidia. Davon hängt es ab, ob man durch Beschneiden der Multiplier-Resourcen (Addierer sind im Verhältnis recht billig) DP z.B. auf die Hälfte des Durchsatzes einschränken kann, oder ob es dann gar nicht mehr geht.
Was mich in dem Zusammenhang auch interessiert (ich habe da ja schon mal einen längeren Post zu gemacht), ist wie nv das mit den Registerfiles gelöst hat. Im Prinzip könnten sie die Anzahl der Read- und Writeports einfach verdoppelt haben, um die 64Bit für DP zur Verfügung stellen zu können. Dann würde zumindest alles mit den Peak-Raten funktionieren. Im schlimmsten Fall sind die aber gleich geblieben, so daß vielleicht mal kurzzeitig (wenige Instruktionen) 16 DP-FMAs pro SM ausgespuckt werden können, dauerhaft aber nur 8 DP-FMAs rauskommen. Dafür spricht ein wenig, daß die Int32-Multiplikation von vornherein als Half-Rate angegeben ist, aber irgendein Beweis ist das natürlich noch lange nicht. Außerdem würde es einen schon ein wenig wundern, daß dann so viel Hardware in den Einheiten verschwendet wurde.
Die vom Aufwand billigste Lösung wäre übrigens, daß ein DP-FMA zwei Kerne belegt, aber genau wie die 32Bit Integer-Multiplikation auch noch doppelt so lange benötigt (2 Takte pro Halbwarp = 4 Takte pro Warp). Dann kommt man mit den schmal angebundenen Registerfiles aus, benötigt von vornherein nur die Hälfte an Multiplier-Hardware in den Cores, steht aber auch nur bei 4:1 SP zu DP Leistung (oder es gibt eine Neuauflage des missing MULs ;)). Also vom Standpunkt des Designs ist das eigentlich sogar die effizienteste Lösung, da immer praktisch alles genutzt wird und nicht die Hälfte jeden Cores rumidelt und der Mehraufwand hält sich in Grenzen. Aber da nvidia die Transistorzahlen mehr als verdoppelt hat, glaube ich eigentlich schon, daß die Cores etwas mehr aufgebohrt wurden.
Also zusammengefaßt, ich bin momentan noch ein wenig am Grübeln, ob ein Fermi-SM die 16 DP-FMAs/Takt (256/Takt der ganze Chip) wirklich dauerhaft durchhalten kann, oder ob da irgendwas dann doch begrenzt.
PS:
ATI könnte mit der Auslegung der Registerfiles auch 2:1 machen (2DP-FMAs pro VLIW-Einheit), da fehlt es aber einfach an den Einheiten. Nvidias Problem ist einfach, daß die bisherige Auslegung einfach nicht so gut zu DP paßt. Dem kann man natürlich abhelfen, die Frage ist nur, wie weit nv da gegangen ist und was es ihnen an Aufwand wert war.
Ailuros
2009-10-07, 14:16:42
Eher nicht. Wenn man sich die bisher verfügbaren Informationen ein wenig zusammenbastelt, dann sieht das so aus, daß 1 Core 1 SP-FMA pro Takt kann, aber schon für eine 32x32=64 Bit Integer-Multiplikation 2 Takte benötigt. Für DP-FMA, spucken wohl 2 Cores zusammen maximal 1 FMA pro Takt aus (ein SM mit 32 Cores macht 16 DP-FMA pro Takt). Dagegen daß 16 Cores DP können und die anderen 16 nicht spricht ganz einfach, daß mit einer DP-Operation alle 32 Cores belegt werden, es können keine 16 Cores mit DP beschäftigt werden und die ander SP-Arbeit bekommen. Außerdem hätte nvidia das uns sicherlich schon auf die Nase gebunden, wenn Fermi 1024 SP-FMAs und 512 DP-FMAs pro Takt könnte ;)
Hmmm ok dumme Frage: macht zwar mehr Sinn als jegliche andere bisherige Theorie nur spart man damit keine Transistoren oder hab ich etwas falsch verstanden?
Spasstiger
2009-10-07, 14:28:56
Kann es nicht sein, dass ein FMA-Core pro Takt ein FMA in 64 Bit oder zwei FMAs in 32 Bit schafft?
Nein, die (Floating-Point-)ALUs sind 32-Bit breit:
http://www.abload.de/img/fermi_vs_gt200eabq.png
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7578813#post7578813
Ein Streaming-Multiprozessor jagt pro Takt 32 32-Bit-FMADs oder 16 64-Bit-FMADs durch.
Abgesehen von den kleinen GT21X hat NV momentan nichts auf der Pfanne und auch die werden im 1Q/10 von der DX11 Generation von ATI entweret. Disaster wäre eine nette Umschreibung der Situation.
Und dazu ist halt immer noch die Frage was Fermi als GPU kann.
Gleichzeitig hat AMD noch einige Trümpfe im Ärmel. :DWelche denn?
Als Nvidia mit dem G80 anmarschierte, bot ATI – und auch das nur verspätet – mit Ach und Krach gerade mal 8800-GTS-Leistung. GT300 (oder GF100, ich weiß nicht wie der Chip nun offiziell heißen soll) dürfte die 5870-Leistung schon übertreffen. Bereits 2004 redete Huang von 64-Bit-Berechnungen, der neue Chip bringt pro Takt mehr MAD-Operationen in 64 Bit als noch GT200 in 32 Bit. Das ist ein Fortschritt der für Spiele vorerst irrelevant ist, Nvidia aber im GPGPU-Sektor gut aufstellt.
dildo4u
2009-10-07, 14:36:17
Supercomputer mit Fermi-FLOPS 10x schneller als Roadrunner
http://www.pcgameshardware.de/aid,696825/Supercomputer-mit-Fermi-FLOPS-10x-schneller-als-Roadrunner/Technologie/News/
Endlich mal ein Chip der es mit Cell aufnehmen kann hat ja gedauert.Die Leistungsangabe im Artikel stimmt übrigenz nicht,ein PowerCell 8i hat 107GF DP Leistung.
"beträgt die DP-Performance pro physischem Prozessor also etwa 107 GFLOPS"
http://www.heise.de/newsticker/meldung/IBM-kuendigt-HPC-Blade-QS22-mit-Cell-Derivat-PowerXCell-8i-an-207529.html
Gipsel
2009-10-07, 14:37:46
Hmmm ok dumme Frage: macht zwar mehr Sinn als jegliche andere bisherige Theorie nur spart man damit keine Transistoren oder hab ich etwas falsch verstanden?
Wo nvidia Transistoren gespart haben kann (oder auch bei abgespeckten Versionen könnte), steht in den folgenden Absätzen ;)
Allerdings ist ein anderes Core-Design schon einiges Aufwand, selbst wenn nv sagt, Fermi sei modular. Aber das heißt wahrscheinlich eher, daß man ein paar SMs weglassen könnte. Aber wie wärs mit einer Hälfte eines SMs? Sprich nur noch 16 Cores pro SM, 16 L/S-Einheiten (oder auch nur 8, wenn man mit Half-Rate leben kann) und 4 SFUs und dann auch nur noch ein Scheduler davor, noch die Hälfte der TMUs rauskicken, 256 Bit Speicherinterface dranpappen und fertig ist der Performance-Chip mit <~Cypress-Größe, 256Cores und vielleicht ~GTX280-Niveau ;)
Also zusammengefaßt, ich bin momentan noch ein wenig am Grübeln, ob ein Fermi-SM die 16 DP-FMAs/Takt (256/Takt der ganze Chip) wirklich dauerhaft durchhalten kann, oder ob da irgendwas dann doch begrenzt.Die Details zu den neuen Cuda-Cores sind mir nicht bekannt, meine Überlegung ist etwa so: In SP braucht man 23 bzw 24 Bit Mantisse (wenn die führende 1 mitgezählt wird.) Bei DP sind es 52 oder 53 Bit. Da passen locker zwei SP-Mantissen rein. Ließe sich nicht ein Rechenwerk bauen, was entweder zwei kurze Mantissen oder eine lange bearbeiten kann? Das würde auch in Bezug auf die Register und Datenpfade passen, da der Datendurchsatz bei 1x DP oder 2x SP pro Takt identisch ist.
Gipsel
2009-10-07, 14:46:25
Endlich mal ein Chip der es mit Cell aufnehmen kann hat ja gedauert.Die angabe im Arktiele stimmt nich ein Power Cell hat 107GF DP Leistung.
Cell war eine totale Krücke was DP angeht. Die PowerXCell 8i sind zwar nicht mehr so übel, aber ein komplettes Chassis (mit 14 Einschüben) produziert weniger SP und auch DP-Leistung als ein Rechner mit sechs HD5870 (und ja, es gibt Leute, die bauen sich sowas zusammen) und wird wohl auch weniger produzieren als zwei von den Fermi-basierten Tesla S1070-Nachfolgern.
Ailuros
2009-10-07, 14:47:19
Wo nvidia Transistoren gespart haben kann (oder auch bei abgespeckten Versionen könnte), steht in den folgenden Absätzen ;)
Ich hab zwar den ganzen Post durchgelesen aber sei Dir nicht so sicher dass ich alles verstanden habe :redface:
Allerdings ist ein anderes Core-Design schon einiges Aufwand, selbst wenn nv sagt, Fermi sei modular. Aber das heißt wahrscheinlich eher, daß man ein paar SMs weglassen könnte. Aber wie wärs mit einer Hälfte eines SMs? Sprich nur noch 16 Cores pro SM, 16 L/S-Einheiten (oder auch nur 8, wenn man mit Half-Rate leben kann) und 4 SFUs und dann auch nur noch ein Scheduler davor, noch die Hälfte der TMUs rauskicken, 256 Bit Speicherinterface dranpappen und fertig ist der Performance-Chip mit <~Cypress-Größe, 256Cores und vielleicht ~GTX280-Niveau ;)
So eine Theorie macht auch ziemlich viel Sinn; so weit so gut aber ich sehe - egal was NV behauptet - keine fundamentale Einsparungen damit. Waere es tatsaechlich so dass 16 von den 32SPs ueber nur SP faehig sind und die restlichen ueber SP+DP, wenn man dann die letzteren weglaesst wuerde man auch einiges an Transistoren sparen. Sonst sehe ich ehrlich nichts fundamental unterschiedliches im Vergleich zur bisherigen GPU Skalierung in den mainstream und budget Segmenten des Markts.
dildo4u
2009-10-07, 14:49:09
Cell war eine totale Krücke was DP angeht. Die PowerXCell 8i sind zwar nicht mehr so übel, aber ein komplettes Chassis (mit 14 Einschüben) produziert weniger SP und auch DP-Leistung als ein Rechner mit sechs HD5870 (und ja, es gibt Leute, die bauen sich sowas zusammen) und wird wohl auch weniger produzieren als zwei von den Fermi-basierten Tesla S1070-Nachfolgern.[/url]
PowerXCell 8i ist im Vergleich zu anderen Desktop CPU verdammt schnell,wenn die Anwendnung passt sonst würde die CPU nicht im ersten TF Cluster sitzen.ATI DX11 Karte passt imo nicht in den Vergleich,weil man lange nicht so viele Freiheiten wie bei Cell bzw Fermi hat.
tombman
2009-10-07, 14:51:34
Supercomputer mit Fermi-FLOPS 10x schneller als Roadrunner
http://www.pcgameshardware.de/aid,696825/Supercomputer-mit-Fermi-FLOPS-10x-schneller-als-Roadrunner/Technologie/News/
Tjo, das wird für die ein Schock werden, wenn Nvidia demnächst zusperrt- hoffentlich ruft Charlie dort an um die zu "warnen" ;D;D
Als Projekt wäre das natürlich DER Hammer für Nvidia, wenn ihre Chips im schnellsten Rechner der Welt wären :)
PR ohne Ende :D
Gipsel
2009-10-07, 14:52:44
Die Details zu den neuen Cuda-Cores sind mir nicht bekannt, meine Überlegung ist etwa so: In SP braucht man 23 bzw 24 Bit Mantisse (wenn die führende 1 mitgezählt wird.) Bei DP sind es 52 oder 53 Bit. Da passen locker zwei SP-Mantissen rein. Ließe sich nicht ein Rechenwerk bauen, was entweder zwei kurze Mantissen oder eine lange bearbeiten kann? Das würde auch in Bezug auf die Register und Datenpfade passen, da der Datendurchsatz bei 1x DP oder 2x SP pro Takt identisch ist.
Dummerweise steigt der Aufwand etwa quadratisch mit der Länge der Mantisse. Deswegen ist ein DP-Multiplier grob 4 mal so aufwendig wie einer für SP. Deswegen bietet ein 4:1-Design mit dem geringsten Aufwand die höchste Leistung, insbesondere, da SP bei Spielen noch wichtiger ist.
Bei CPUs spielen ja noch andere Sachen eine Rolle, z.B brächte man für viemal so hohe SP-Leistung doppelt so breite Register für SP wie für DP. Dieser Mehraufwand lohnt sich da nicht. GPUs sind aber von vornherein auf SP ausgelegt. Da ist 4:1 zuerst mal die logische Entscheidung, da 2:1 fast doppelt so viel Hardware in den Einheiten kostet.
Gipsel
2009-10-07, 14:54:40
PowerXCell 8i ist im Vergleich zu anderen Desktop CPU verdammt schnell,wenn die Anwendnung passt sonst würde die CPU nicht im ersten TF Cluster sitzen.ATI DX11 Karte passt imo nicht in den Vergleich,weil man lange nicht so viele Freiheiten wie bei Cell bzw Fermi hat.
Wenn die Anwendung paßt, läßt eine moderne GPU jeden Cell-Chip sowas von stehen. ;)
Stell Dir einen Cell mal lieber nicht als CPU vor. Die integrierten PowerPC-Kerne sind schon nicht die schnellsten. Und wenn man für die SPEs programmiert (da kommt ja die Leistung her), kann man es eigentlich oft auch für eine GPU machen :rolleyes:
dildo4u
2009-10-07, 14:56:29
Wenn die Anwendung paßt, läßt eine moderne GPU jeden Cell-Chip sowas von stehen. ;)
Cell kann aber mher als jede aktuelle GPU.Im Vergleich kann Fermi da dann endlich mithalten?
2B-Maverick
2009-10-07, 14:59:28
Kurze Frage bzgl. ECC:
Fermi hat ja ECC... ATI hat aber auch eine Überwachung auf Speicherfehler (nur für Übertragung der Daten???)
Wo liegt da der Nachteil bei ATI? Bemerkt ATI evtl. kein Umkippen eines Bits sobald es im Speicher ist?
Gipsel
2009-10-07, 14:59:41
Cell kann aber mher als jede aktuelle GPU.Im Vergleich kann Fermi da dann endlich mithalten?
Was kann Cell denn mehr?
Also die letzten Vergleiche, die ich gesehen habe, attestieren den Cells z.B. geringere Kompatibilität zu den IEEE-754 Normen als beide, RV870 und Fermi.
Und frage mal einen Playstation-Programmierer, wie das mit Cell so geht ;)
san.salvador
2009-10-07, 15:01:18
Cell kann aber mher als jede aktuelle GPU.Im Vergleich kann Fermi da dann endlich mithalten?
Wieso hat sich dann Sony dafür entschieden, zu den sieben Cells doch noch eine verkrüppelte Geforce in die PS3 zu schrauben?
LovesuckZ
2009-10-07, 15:02:05
Kurze Frage bzgl. ECC:
Fermi hat ja ECC... ATI hat aber auch eine Überwachung auf Speicherfehler (nur für Übertragung der Daten???)
Wo liegt da der Nachteil bei ATI? Bemerkt ATI evtl. kein Umkippen eines Bits sobald es im Speicher ist?
Es wird wohl nicht automatisch korrigiert. Jedenfalls ist der Eindruck, den ich vom nVidia Video habe und der den Unterschied zu AMD darstellt.
mapel110
2009-10-07, 15:02:33
Wieso hat sich dann Sony dafür entschieden, zu den sieben Cells doch noch eine verkrüppelte Geforce in die PS3 zu schrauben?
Weil zwischen "können" und "schnell können" immer noch ein gewaltiger Unterschied bestehen kann.
Gipsel
2009-10-07, 15:04:13
Wieso hat sich dann Sony dafür entschieden, zu den sieben Cells doch noch eine verkrüppelte Geforce in die PS3 zu schrauben?
Weil Cell zu langsam war ;)
Man muß aber zugeben, daß sich bei den neuen PowerXCells die DP-Leistung schon gebessert hat. Nur für eine Spielkonsole ist das herzlich uninteressant. Das Hauptproblem bei der PS3 ist, daß sich der SPE-Kram nicht einfach programmieren läßt. Serieller Code läuft nur auf den PowerPC-Kernen.
san.salvador
2009-10-07, 15:05:08
Weil zwischen "können" und "schnell können" immer noch ein gewaltiger Unterschied bestehen kann.
Ich kanns jetzt nicht technisch untermauern, aber glaubst du - wie Dildo - wirklich, dass Cell universeller einsetzbar ist als eine GPU?
Das kann ich nicht ganz nachvollziehen.
dildo4u
2009-10-07, 15:10:24
Ich kanns jetzt nicht technisch untermauern, aber glaubst du - wie Dildo - wirklich, dass Cell universeller einsetzbar ist als eine GPU?
Das kann ich nicht ganz nachvollziehen.
Cell wird z.b für KI,Gameplay Physik,(Merke nicht Effekt Physik(Phys X GPU),Collision Detection etc genutzt.
Gamephysik auf den SPU's.
Game developers using Havok Physics and Havok Animation products to develop for PS3 will be able to harness the full power of all the SPUs, while maintaining the complete flexibility of the Havok SDK. Havok architecture now scales strongly across all SPUs and runs between 5 and 10 times faster than Havok 4.0 for a typical game scene on the PS3.
http://www.gamersreports.com/news/4863/havok-4-5-announced-ps3-now-supported/
Deshalb ja meine Frage ob Fermi Cell komplett ersetzen könnte.
Wer unbedingt JETZT SOFORT eine Grafikkarte braucht die maximale Qualität und aktuell wichtige Features bietet, kauft halt ne gute GTX260 (http://geizhals.at/deutschland/?cat=gra16_512;asuch=gtx260;sort=p&xf=354_55) für 130 Euro und stellt sich dann in die Fermi Warteschlange ohne etwas zu verpassen. Jedenfalls gewichte ich persönlich Physx+NV Qualität höher als DX10.1/DX11 für die nächsten 6 Monate.
Du vergisst einen möglichen Taktvorteil und Effizienzsteigerungen.Was Grafik-Berechnungen angeht, ist der GT200 bereits nahe des Effizienz-Maximums.
Ich sehe Nvidias Entscheidung strategisch (also langfristig.) Über kurz oder lang wird Starrkopf Intel den Larrabee oder ein vergleichbares Design als 3D-taugliche Lösung vorstellen. Über kurz oder lang könnte es darauf hinauslaufen, dass eine PC-Plattform eine Multicore-CPU hat und man nach Bedarf (mindestens) einen Coprozessor nutzt, der seinen eigenen Speicher anspricht. Dieser Coprozessor kann als Grafikkarte genutzt werden, als Folding-Beschleuniger oder was auch immer. Der Office-PC benötigt nur die CPU, die vielleicht noch einen kleinen Grafik-Core integriert hat und auf dem Mainboard integrierte Bildsignal-Wandler. Gamer-PCs, in der Industrie oder in der Wissenschaft verwendete PCs nutzen hingegen einen Coprozessor.
Die Grafikkarte wie wir sie lange kannten, wird überflüssig. Für Office und einfaches Gaming reichen integrierte Lösungen. Wer einen multiparallelen Coprozessor entwickelt, sollte langfristig mehr anbieten als eine nur als 3D-Beschleuniger nutzbare GPU.
Gipsel
2009-10-07, 15:33:54
CEs gibt ein Grund warum aktuelle GPUs z.b noch nicht für die eigentlich Gamephysik genutzt werden,die Genauigkeit der Berechnungen reicht nicht.
Das ist Blödsinn. Der Cell in der PS3 kann praktisch auch nur SP (DP ist grottenlahm) und das reicht auch für Spiele vollkommen aus. Die Genauigkeit ist überhaupt kein Problem.
Warum das auf dem PC nur für Effekte eingesetzt wird, liegt ganz einfach daran, daß anders als bei einer Konsole nicht garantiert ist, daß es auf jedem Rechner gleich berechnet wird. Und über die Probleme bei Online-Spielen und spielbeeinflussender Physik muß ich wohl nicht reden :rolleyes:
Edit:
Ich kann Dir auch Pressemeldungen raussuchen, wo Havok die Vorteile der Berechnung auf GPUs mittels OpenCL anpreist ;)
dildo4u
2009-10-07, 15:38:56
Das ist Blödsinn. Der Cell in der PS3 kann praktisch auch nur SP (DP ist grottenlahm) und das reicht auch für Spiele vollkommen aus. Die Genauigkeit ist überhaupt kein Problem.
Warum das auf dem PC nur für Effekte eingesetzt wird, liegt ganz einfach daran, daß anders als bei einer Konsole nicht garantiert ist, daß es auf jedem Rechner gleich berechnet wird. Und über die Probleme bei Online-Spielen und spielbeeinflussender Physik muß ich wohl nicht reden :rolleyes:
Oh ok danke für die Aufklärung aber zeigt mal wieder,das alte Problem des PC's die Basis nach unten(Ohne dicke GPU) muss auch bedient werden.Nur kommt schon eine GTX 285 bei Batman an's Limit,das noch ohne Gamephysik auf der GPU.
http://www.pcgameshardware.de/aid,695425/Batman-Arkham-Asylum-mit-Physx-Vergleichsbilder-und-Video-aus-der-Vollversion-Update-Benchmarks/Action-Spiel/Test/
Ailuros
2009-10-07, 15:41:26
Oh ok danke für die Aufklärung aber zeigt mal wieder,das alte Problem des PC's die Basis nach unten(Ohne dicke GPU) muss auch bedient werden.Nur kommt schon eine GTX 285 bei Batman an's Limit das noch ohne Gamephysik auf der GPU.
Also ich kann kein Limit sehen wenn man Batman ohne physics auf einer GT200 oder RV7x0 bzw. RV870 spielt.
***edit: in dem PCGH Link sehe ich eine GTX285 in 1920*1200, 4xAA/16xAF (physX off) bei 97 fps Durchschnitt und minimum bei 59 fps. Was verpass ich gerade?
Gipsel
2009-10-07, 15:44:09
Oh ok danke für die Aufklärung aber zeigt mal wieder,das alte Problem des PC's die Basis nach unten(Ohne dicke GPU) muss auch bedient werden.Nur kommt schon eine GTX 285 bei Batman an's Limit,das noch ohne Gamephysik auf der GPU.
http://www.pcgameshardware.de/aid,695425/Batman-Arkham-Asylum-mit-Physx-Vergleichsbilder-und-Video-aus-der-Vollversion-Update-Benchmarks/Action-Spiel/Test/
Also ich kann kein Limit sehen wenn man Batman ohne physics auf einer GT200 oder RV7x0 bzw. RV870 spielt.
Außerdem dürfte man auf einer PS3 auch wohl kaum so eine Grafik zu Gesicht bekommen :rolleyes:
dildo4u
2009-10-07, 15:44:59
Also ich kann kein Limit sehen wenn man Batman ohne physics auf einer GT200 oder RV7x0 bzw. RV870 spielt.
Benchgrafik weiter unten: Von 59 auf 25fps min fps bei 1.680 x 1.050 mit Phys X darum gings ja.Die GPU hat da schon genug mit der Effket Physik zu tun.
Außerdem dürfte man auf einer PS3 auch wohl kaum so eine Grafik zu Gesicht bekommen :rolleyes:
Doch geht noch deutlich besser siehe Sig.
Ailuros
2009-10-07, 15:48:12
Von 59 auf 25fps min fps bei 1.680 x 1.050 mit Phys X darum gings ja.Die GPU hat da schon genug mit der Effket Physik zu tun.
Ja natuerlich; nur sagtest Du dass eine 285 schon an ihr Limit ohne physics kommt.
dildo4u
2009-10-07, 15:50:25
Ja natuerlich; nur sagtest Du dass eine 285 schon an ihr Limit ohne physics kommt.
Ohne Gamephysik auf der GPU.Phys X berechnet nur die Effekt Physik und damit kommt die 285 schon ans Limit,ohne das die eigentlich für's Spiel relevante Physik auf der GPU läuft.
Gipsel
2009-10-07, 15:55:00
Ohne Gamephysik.Phys X berechnet nur die Effekt Physik und damit kommt die 285 schon ans Limit,ohne das die eigentlich Spiel relevante Physik auf der GPU läuft.
Mensch, die Spielphysik ist doch viel weniger, als das, was mit PhysX dann noch drangeklatscht wird!
Und das eine PS3 bessere Grafik als ein High-End PC zaubert (das wäre dazu nämlich nötig), kann ja wohl kaum Dein Ernst sein. Und ja, ich habe die Bilder in Deiner Sig gesehen.
Edit:
Der RSX ist G7x basiert, ist also nur SM3 kompatibel, hat nur 256MB VRAM (da passen gar keine sehr hochauflösenden Texturen rein), und kann z.B. auch keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets, d.h. man muß sich zwischen HDR und AA entscheiden.
dildo4u
2009-10-07, 16:04:14
Mensch, die Spielphysik ist doch viel weniger, als das, was mit PhysX dann noch drangeklatscht wird!
Und das eine PS3 bessere Grafik als ein High-End PC zaubert (das wäre dazu nämlich nötig), kann ja wohl kaum Dein Ernst sein. Und ja, ich habe die Bilder in Deiner Sig gesehen.
Edit:
Der RSX ist G7x basiert, ist also nur SM3 kompatibel, hat nur 256MB VRAM (da passen gar keine sehr hochauflösenden Texturen rein), und kann z.B. auch keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets, d.h. man muß sich zwischen HDR und AA entscheiden.
Das Zauberwort heisst Streaming von Texturen.
http://i38.tinypic.com/dbl16b.jpg
http://i36.tinypic.com/aazw9u.jpg
http://img29.imageshack.us/img29/904/uncharted2amongthieves1r.jpg
Aber egal soll nicht zu viel OT werden.
Gipsel
2009-10-07, 16:07:03
Das Zauberwort heisst Streaming von Texturen
Woher willst Du die denn streamen, der Arbeitsspeicher ist doch auch nur 256MB, von der Disc? :rolleyes:
Außerdem ist das ja nicht der einzige Punkt, wenn man die G70- mit der G80- und GT200-Generation vergleicht,kommt man sehr schnell zu dem Schluß, daß alles vor G80 deutlich unterlegen ist.
dildo4u
2009-10-07, 16:08:33
Woher willst Du die denn streamen, der Arbeitsspeicher ist doch auch nur 256MB, von der Disc? :rolleyes:
Ja die UE3.0 nutzt Streaming von DVD z.b auf der Xbox 360 auch bei Gears 1 und 2,UT3,Mass Effect etc.
Auf der PS3 nutzt es z.b Uncharted 1 und 2,die Engine ist eine Eigenentwicklung.
"High performance texture streaming system, which seamlessly handles both static and dynamic objects while maintaining constant memory usage."
http://www.unrealtechnology.com/features.php?ref=rendering
"Das Spiel hatte zum Beispiel deutliche Probleme mit dem Textur-Streaming, wodurch das Gameplay verlangsamt werden konnte oder sogar die Konsole einfror, wenn das DVD-Laufwerk nicht schnell genug neue Daten liefern konnte – ein Problem, das die Festplatteninstallation der NXE nur geringfügig verbessert."
„Die Jungs vom Entwicklerteam haben eine Liste mit allem gemacht, was sie verbessern wollten. Und sie haben es einfach abgehakt: Die Fahrstuhl-Ladezeiten, die Texturen-Pop-Ups... man kann die Fortschritte bei der Grafik sehen.“
"Das kann man tatsächlich. Auf der Messe wurde die Xbox-360-Version gezeigt. Sowohl in den RPG- als auch in den Shooter-Sektionen gab es sehr wenig erkennbare Anzeichen für irgendeine Art von Streaming-Problemen. Die Auflösung war definitiv auf 720p festgesetzt und obwohl so ziemlich alle auf der gamescom verwendeten LCD-Geräte sehr schlecht kalibriert waren (ein ultra-scharfer Kontrast machte die Analyse schwierig), scheint es, als würde Mass Effect 2 zudem 2x MSAA Anti-Aliasing verwenden."
http://www.eurogamer.de/articles/technische-upgrades-von-mass-effect-2-beeindrucken-blog-eintrag
Ich finde es erstaunlich wieviele Leute hier nicht ganz genau zu wissen glauben zu wievielen Prozent man die MUL-Einheit bei GT2xx nutzen oder nicht nutzen kann. Was ist eigentlich die Begründung dafür warum man sie nicht immer nutzen kann? Was macht sie während man sie nicht nutzen kann? Da müssen ja ganz schön viele Programmierer unter uns sein die das ausgiebig untersucht haben, sofern sich nicht jeder die Zahlen aus der Nase zieht. Als G80 kam hieß es eine ALU kann MADD+MUL. Wenig später dann plötzlich das MUL sei nur zeitweise nutzbar, dann kamen neue Treiber und es hieß das MUL sei jetzt nutzbar. Dann doch wieder nicht. Dann kam GT200 und es hieß das MUL sei jetzt auch vollständig für general shading nutzbar, auf einmal sind es nur mehr max. 15%. Da lachen ja die Hühner.Es ist MUL+MAD (nicht andersherum.) Beim G80 scheint das MUL ungefähr wie das MUL der G70-Pipeline genutzt zu werden: Braucht man es an der Stelle, kann es eine Multiplikation durchführen, ansonsten leitet es einfach nur die Daten weiter in die nächste Stage.
Ob das MUL beim GT200 irgendwie entkoppelt wurde, weiß ich nicht. Wahrscheinlich nicht. Rechnet man A*B*C+D, kann man es nutzen. Rechnet man nur B*C+D, kann man es nicht nutzen. (Rechnet man nur B*C, kann man auch das ADD nicht nutzen, braucht man nur C+D, kann man beide MULs nicht nutzen.)
Das Rechenwerk scheint außerdem irgendwie so auszusehen: [A*/SFU/Tex]B*C+D, so dass das erste MUL sowieso nicht anderweitig im Shader nutzbar ist, wenn die SFU oder Tex-Unit genutzt wird.
Was NV macht ist vollkommen logisch und nachvollziehbar, aber vorallem aus marktwirtschaftlichen Gründen unbedingt notwendig: Man muss potentielle Käufer davon abhalten sich die Konkurrenzprodukte zu kaufen. Man muss mit allen Mitteln jetzt in der Presse bleiben.Oder wie zu GF4-Ti-Zeiten zum Radeon-9700-Launch einen angeblichen Wundertreiber veröffentlichen, der angeblich 50% Performance bringen soll. Tatsächlich brachte der Treiber im 4. Test des 3DMarks 2001 50% mehr Frames.
Wurde endlich die ganze Performance vom NV25 entfesselt? Hat das Treiber-Team endlich die wahre Rechenleistung der Shader erschließen können?
Nee, das war Shader-Replacement. Zum Beispiel wurden die Vertexshader, die für das Wiegen der Baumwipfel sorgen, mit anderen Shadern ersetzt welche zwar auch für eine Bewegung sorgen – aber nicht für die, die Madonion programmiert hatte.
Nach solchen Schoten ist man natürlich besonders vorsichtig. Klar ist, dass Nvidia jetzt versucht, DX11 runterzuspielen – wenn sie es dann selbst haben, ist es natürlich eine noch nie dagewesene Revolution und bringt jetzt endlich den Durchbruch im Visual Computing.
Edit:
Der RSX ist G7x basiert, ist also nur SM3 kompatibel, hat nur 256MB VRAM (da passen gar keine sehr hochauflösenden Texturen rein), und kann z.B. auch keine Multisample-Kantenglättung in Kombination mit FP16-Rendertargets, d.h. man muß sich zwischen HDR und AA entscheiden.AA ist möglich, aber nur Supersampling-AA.
Cell kann aber mher als jede aktuelle GPU.Im Vergleich kann Fermi da dann endlich mithalten?
Sowas wie Multiplikation mit Integertypen mit mehr als 16Bit? :freak:
Cell und GPUs sind bisher nicht wirklich vergleichbar.
Dummerweise steigt der Aufwand etwa quadratisch mit der Länge der Mantisse. Deswegen ist ein DP-Multiplier grob 4 mal so aufwendig wie einer für SP. Deswegen bietet ein 4:1-Design mit dem geringsten Aufwand die höchste Leistung, insbesondere, da SP bei Spielen noch wichtiger ist.
Bei CPUs spielen ja noch andere Sachen eine Rolle, z.B brächte man für viemal so hohe SP-Leistung doppelt so breite Register für SP wie für DP. Dieser Mehraufwand lohnt sich da nicht. GPUs sind aber von vornherein auf SP ausgelegt. Da ist 4:1 zuerst mal die logische Entscheidung, da 2:1 fast doppelt so viel Hardware in den Einheiten kostet.Ich denke, das Verhältnis von SP- zu DP-Leistung ist 2:1 beim GF100?
Soweit ich weiß, kostet es vier Takte um auf einer (leicht erweiterten) Floating-Unit mit einfache Genauigkeit eine Multiplikation in doppelter Genauigkeit auszuführen. Nun sind es beim GF100 keine normalen FP-MADs, sondern FMA-Units, die sowieso eine höhere interne Genauigkeit haben – wenn diese nur für DP-Rechnungen genutzt wird, sollte es (meinem wahrscheinlich nicht sehr tiefem) Verständnis der Rechenwerke möglich sein, SP-DP-Leistung im 2:1-Verhältnis zu bieten.
pervert
2009-10-07, 16:48:29
Woher willst Du die denn streamen, der Arbeitsspeicher ist doch auch nur 256MB, von der Disc? :rolleyes:
Warum nicht? Wurde doch schon bei der PS1 so gemacht, oder? Nebenbei hat eine PS3 ja noch ne HD ;) So schwer kann das nicht sein, ab und an ein wenig nachzuladen. Sollte sich wohl jemand finden der das programmieren kann. Bei CoD6 wird auch gestreamed, fragt doch mal beim Entwickler nach ob der das nur auf der X360 macht...?
Aquaschaf
2009-10-07, 16:55:51
Endlich mal ein Chip der es mit Cell aufnehmen kann
Wenn es um effektive Rechenleistung geht kann es jede GPU seit G80 mit Cell aufnehmen. Und bei DP-Rechenleistung auch jede "normale" CPU.
So schwer kann das nicht sein, ab und an ein wenig nachzuladen.
Äh, doch. Das ist es. Du weißt dass zwischen den Zugriffszeiten von HD und RAM ein paar Größenordnungen liegen? Das heißt: natürlich benutzt man Streaming von HD oder vom optischen Laufwerk. Aber damit kann man immer noch viel weniger machen, als wenn einfach mehr RAM da wäre.
LovesuckZ
2009-10-07, 16:59:43
Nach solchen Schoten ist man natürlich besonders vorsichtig. Klar ist, dass Nvidia jetzt versucht, DX11 runterzuspielen – wenn sie es dann selbst haben, ist es natürlich eine noch nie dagewesene Revolution und bringt jetzt endlich den Durchbruch im Visual Computing.
Erstaunlich, wie sich Unwahrheiten irgendwann so oft rumgesprochen haben, dass sie als Wahrheit angenommen werden.
dildo4u
2009-10-07, 17:26:15
Wenn es um effektive Rechenleistung geht kann es jede GPU seit G80 mit Cell aufnehmen. Und bei DP-Rechenleistung auch jede "normale" CPU.
Warum wird (Power)Cell 8 dann beim Roadrunner verbaut?Dieser Cluster wird doch für Berechnungen die DP erfordern genutzt oder?
"and to be the world's first TOP500 Linpack sustained 1.0 petaflops system."
"in November 2008, it reached a top performance of 1.456 petaflops, retaining its top spot in the TOP500 list"
http://en.wikipedia.org/wiki/IBM_Roadrunner
Warum ist das kein reiner Intel Xeon oder AMD Opteron Cluster?
Weil der, im Gegensatz zum PS3-Cell, deutlich mehr DP-Leistung hat? Steht eh alles im Thread.
Noch eine andere Sache, du verwechselst ständig gutes Artwork und Design mit Grafik. Letztere ist auf der PS3 auf 2006er Niveau.
dildo4u
2009-10-07, 17:39:59
Weil der, im Gegensatz zum PS3-Cell, deutlich mehr DP-Leistung hat? Steht eh alles im Thread.
Mir gings ja um den Power Cell 8 im Vergleich zu Intel Xeon,Opteron CPU's und jetzt Fermi.Um die Leistung und welcher Chip sie wirklich nutzen kann.Es geht um die neuen Chips nicht um Chips von 2006.(Cell in der PS3)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7581917&postcount=3807
Aquaschaf
2009-10-07, 17:56:36
Warum wird (Power)Cell 8 dann beim Roadrunner verbaut?Dieser Cluster wird doch für Berechnungen die DP erfordern genutzt oder?
Einen Großrechner zu bauen ist etwas sehr anderes als ein System mit nur einem oder ein paar Chips. Da spielen viele andere Faktoren neben der Performance eine Rolle.
Gipsel
2009-10-07, 18:29:50
Ich denke, das Verhältnis von SP- zu DP-Leistung ist 2:1 beim GF100?
So hat es nvidia verlauten lassen. Die Frage die ich mir stelle ist, ob es auch unter allen Umständen 2:1 bleibt, oder ob bestimmte Flaschenhälse das einbremsen können.
Soweit ich weiß, kostet es vier Takte um auf einer (leicht erweiterten) Floating-Unit mit einfache Genauigkeit eine Multiplikation in doppelter Genauigkeit auszuführen. Nun sind es beim GF100 keine normalen FP-MADs, sondern FMA-Units, die sowieso eine höhere interne Genauigkeit haben – wenn diese nur für DP-Rechnungen genutzt wird, sollte es (meinem wahrscheinlich nicht sehr tiefem) Verständnis der Rechenwerke möglich sein, SP-DP-Leistung im 2:1-Verhältnis zu bieten.
Nun, man will aber auch DP-FMAs machen, so daß man wieder (etwas mehr als) 4 SP-FMAs benötigt, um ein DP-FMA zu machen ;)
Aber prinzipell hast Du Recht, für eine einfache Multiplikation reichen zwei SP-FMA-Einheiten, wie auch ATI beim RV870 demonstriert. Der hat nämlich nicht nur bei ADDs (wie schon RV670 und RV770) sondern jetzt auch bei MULs ein 2:1-Verhältnis zu SP, sprich 2 SP-FMAs reichen aus, um eine Multiplikation zu machen (wegen der 5 ALUs in einer VLIW-Einheit sind es dann absolut nur noch 5:2).
Deswegen habe ich ja schon ganz am Anfang mal die Frage gestellt, was ATI eigentlich daran hindert auch mit 2:1 DP-MADDs anzubieten. Das wären dann 1,088 TFlop in DP für RV870. Jetzt sind es bei einem beliebigen Mix von ADD, MUL oder FMA immer 544 GFlops. So wie es aussieht, macht ATI aber die DP-MADDs auch über die FMA-Implementation. Die überschüssigen Bits der Mantisse werden dann nur künstlich zwischendrin abgeschnitten (für MADD, oder je nach Rundungsmodi auch entsprechend gerundet). Also RV870 schafft wohl seine Peakleistung auch mit voneinander abhängigen MULs und ADDs, zumindest interpretiere ich die bisher vorliegenden Informationen so (gibt ja noch keine Dokumentation). In dem Bereich könnte also RV870 eventuell sogar flexibler als Fermi sein (der das wohl nicht erlaubt). Allerdings sind die bisherigen Aussagen zu diesem Thema alles andere als klar (könnte auch eine vermischte Darstellung von SP- und DP-Fähigkeiten sein). Also eventuell ist da auch ein wenig der Wunsch der Vater des Gedanken ;)
Ich weiss es noch nicht aber wenn ich Carsten bei B3D nicht falsch verstanden habe sind nicht alle SPs ueber DP faehig sondern lediglich 16 in einem cluster.
Angenommen dieses stimmt kann man beruhigt auf mainstream oder kleineren GPUs die DP faehigen SPs weglassen und somit noch etwas dazusparen. In dem Fall hat man eben nur noch 16SPs/cluster und maximal 256SPs insgesamt und von da ab skaliert man nach unten.
Das was einige Enthusiasten beim G200 schon gefordert haben ;) Weg mit den DP Einheiten, rauf mit der Taktrate, wir wollen 2GHz Einheiten wenns geht.
LovesuckZ
2009-10-07, 23:06:52
This however can not be simply interpreted as a 'worrying' issue for Nvidia users because as many of our readers will know they actually have a new range of cards out very shortly to compete against the current range of DX11 boards from AMD - therefore it makes sense for them to start putting all of their focus into the upcoming range of hardware.
(http://www.driverheaven.net/news/190637-nvidia-does-not-abandon-mid-high-end-market.html#post1301104)
Fermi is by far the best chip NVIDIA ever created. Pity I cannot tell more. I can't wait to show some real perf numbers. Poor AMD guys :) (http://twitter.com/Igor_Stanek)
boxleitnerb
2009-10-07, 23:14:52
Hoffentlich meint er nicht nur die DP Performance, sondern auch die Spieleperformance...
tombman
2009-10-07, 23:23:33
Daß Fermi ein Grundstein im Pro-Markt wird ist, denke ich, jetzt schon klar.
Es bleiben nur 2 Fragen, wobei die erste deutlich dringender als die zweite ist:
1.) Wann kommt er kaufbar?
2.) Wie schnell genau ist er in games? (ungefähr kann mans eh abschätzen...)
@Lovesucks: von wem genau ist das zweite Zitat, und warum is der glaubhaft?
@Lovesucks: von wem genau ist das zweite Zitat
nvidia PR Mann - das Gegenstück zu Charlie ^.^
LovesuckZ
2009-10-07, 23:26:48
@Lovesucks: von wem genau ist das zweite Zitat, und warum is der glaubhaft?
Twitter-Kommentar von einem nVidia-Mitarbeiter.
Erste Zitat ist von Driverheaven, die wegen Charlie's Story bei nVidia nachgefragt haben und weiterhin selbst unter NDA stehen.
Montag sollen die neuen Low-End Karten veröffentlicht werden, vielleicht bekommen wir dann mehr Infos über die Roadmap von nVidia.
tombman
2009-10-07, 23:34:19
Naja, aber wieso sollte man einem NV Mitarbeiter trauen? Er könnte tatsächlich nur die DP perf. gemeint haben und die interessiert uns gamer ja weniger (auch wenn es schön ist, sie zu haben :))
LovesuckZ
2009-10-07, 23:36:46
Naja, aber wieso sollte man einem NV Mitarbeiter trauen? Er könnte tatsächlich nur die DP perf. gemeint haben und die interessiert uns gamer ja weniger (auch wenn es schön ist, sie zu haben :))
Ich bezweifel, dass man benchmarks mit DP meint. Denn die wird von AMD nur unter DC und Stream unterstützt.
Bei einer OpenCL Anwendung stünde dort eine 0...
Hoffentlich meint er nicht nur die DP Performance, sondern auch die Spieleperformance...
Natürlich was sonst.
Das auf Twitter von den Parteien ist natürlich gegenseitiger FUD. Da würde ich einfach gar nichts drauf geben ;)
LovesuckZ
2009-10-08, 00:05:48
Trotzdem ist man angreiffbar. Man hat unter Twitter einen Namen und ein Gesicht. Es ist vielleicht FUD - aber man sollte es nicht zu weit treiben.
mapel110
2009-10-08, 00:30:30
Hm, das Zitat ist schon vom 4.Oktober. Merkwürdig, dass es erst jetzt auftaucht. Oder ist dieser Mann gerade erst durch sein aktuelles Statement zur Verfügbarkeit berühmt geworden?!
LovesuckZ
2009-10-08, 00:34:06
Hm, das Zitat ist schon vom 4.Oktober. Merkwürdig, dass es erst jetzt auftaucht. Oder ist dieser Mann gerade erst durch sein aktuelles Statement zur Verfügbarkeit berühmt geworden?!
Wer liest schon Twitter-Meldung? Ich habs nur gesehen, weil ich seinen Kommentar zu der Batman-Sache von AMD gefunden habe.
Ailuros
2009-10-08, 06:49:14
Bei mir bleibt es ein Schritt nach dem anderen; als erstes will ich GF100 mit anstaendigen Frequenzen bei anstaendiger Verfuegbarkeit sehen und dann koennen wir ueber Leistung und weitere Modelle reden.
Nochmal der heatspreader vom GF100 chip der auf der GTC gezeigt wurde zeigt 0835A1. Ich hab keine andere Wahl als dieses zu glauben (und ja jeglicher tape out Scheiss fuer Maerz 09' und dergleichen beruhigt in die Muelltonne werfen) und von der letzten August Woche bis zu A2 und Massenproduktion wird es verdammt knapp bis Ende November dass NV's eigentliches Ziel sein soll.
Falls jetzt hier alles nach Plan laeuft, kann man an eine "360" eine "380" denken und mit etwas mehr Glueck sogar eine "395". Wo sind die tape outs kleinerer chips fuer eine groessere Produktfamilie genau?
Ich stehe zwar dazu dass ich weiterhin glaube dass der Abstand von high end und den kleineren chips diesmal kleiner sein wird aber dieses auch aus dem Grund der Verspaetung des ersten.
Nicht dass man sich es nicht selber ausdenken kann, aber GF100 lag vier Jahre in Entwicklung und momentan wird an zwei weiteren zukuenftigen Architekturen fuer die nicht vorhersehbare Zukunft gearbeitet.
This however can not be simply interpreted as a 'worrying' issue for Nvidia users because as many of our readers will know they actually have a new range of cards out very shortly to compete against the current range of DX11 boards from AMD - therefore it makes sense for them to start putting all of their focus into the upcoming range of hardware.
(http://www.driverheaven.net/news/190637-nvidia-does-not-abandon-mid-high-end-market.html#post1301104)
Fermi is by far the best chip NVIDIA ever created. Pity I cannot tell more. I can't wait to show some real perf numbers. Poor AMD guys :) (http://twitter.com/Igor_Stanek)
NIVIDIA FUD - wertlos.
Bei mir bleibt es ein Schritt nach dem anderen; als erstes will ich GF100 mit anstaendigen Frequenzen bei anstaendiger Verfuegbarkeit sehen und dann koennen wir ueber Leistung und weitere Modelle reden.
Nochmal der heatspreader vom GF100 chip der auf der GTC gezeigt wurde zeigt 0835A1. Ich hab keine andere Wahl als dieses zu glauben (und ja jeglicher tape out Scheiss fuer Maerz 09' und dergleichen beruhigt in die Muelltonne werfen) und von der letzten August Woche bis zu A2 und Massenproduktion wird es verdammt knapp bis Ende November dass NV's eigentliches Ziel sein soll.
Falls jetzt hier alles nach Plan laeuft, kann man an eine "360" eine "380" denken und mit etwas mehr Glueck sogar eine "395". Wo sind die tape outs kleinerer chips fuer eine groessere Produktfamilie genau?
Ich stehe zwar dazu dass ich weiterhin glaube dass der Abstand von high end und den kleineren chips diesmal kleiner sein wird aber dieses auch aus dem Grund der Verspaetung des ersten.
Nicht dass man sich es nicht selber ausdenken kann, aber GF100 lag vier Jahre in Entwicklung und momentan wird an zwei weiteren zukuenftigen Architekturen fuer die nicht vorhersehbare Zukunft gearbeitet.
Und sie schaffen November nur wenn A2 funktioniert.
Ailuros
2009-10-08, 07:12:43
Und sie schaffen November nur wenn A2 funktioniert.
Klar ist die Vorraussetzung dass A2 makellos sein muss. Trotzdem hardlaunch in 11 Wochen von A1 auf Verfuegbarkeit? Errr.....
Möglich wäre es. Wenn sie wirlich anfangen zu produzieren bevor A2 völlig durch das Debugging ist und anstatt Referenzboards von einem oder zwei Herstellern nur reine GPUs liefern, die dann von vielen Herstellern auf PCBs gebaut werden. Sieht man dazu die momentan niedrigen Preise für Luftfracht, dann ist es teuer und riskant aber möglich, wenn man will und A2 wie gewünscht funktioniert.
Gast_mboeller
2009-10-08, 08:32:22
Nochmal der heatspreader vom GF100 chip der auf der GTC gezeigt wurde zeigt 0835A1. Ich hab keine andere Wahl als dieses zu glauben (und ja jeglicher tape out Scheiss fuer Maerz 09' und dergleichen beruhigt in die Muelltonne werfen) und von der letzten August Woche bis zu A2 und Massenproduktion wird es verdammt knapp bis Ende November dass NV's eigentliches Ziel sein soll.
Hast du dich eigentlich schon bei Charlie entschuldigt? Sein "first Tape-out Ende Juli" etc... scheint ja besser gestimmt zu haben als alles was du von anderen dazu gehört hast. :)
Gast_mboeller
2009-10-08, 08:36:08
Nochmal der heatspreader vom GF100 chip der auf der GTC gezeigt wurde zeigt 0835A1. Ich hab keine andere Wahl als dieses zu glauben (und ja jeglicher tape out Scheiss fuer Maerz 09' und dergleichen beruhigt in die Muelltonne werfen) und von der letzten August Woche bis zu A2 und Massenproduktion wird es verdammt knapp bis Ende November dass NV's eigentliches Ziel sein soll.
wie soll November funktionieren?
Du hast selbst geschrieben das es beim GT200b von B2 -> B3 14 Wochen gedauert hat.
Also bleibt nur: Ende August + 14 Wochen (IMHO best case) = Mitte Dezember
Und dann müssen die Board-Hersteller "nur noch" die Boards fertig entwickeln (was mit dem verbuggten A1-Silizium bestimmt nicht geht) etc...
LovesuckZ
2009-10-08, 08:37:08
Hast du dich eigentlich schon bei Charlie entschuldigt? Sein "first Tape-out Ende Juli" etc... scheint ja besser gestimmt zu haben als alles was du von anderen dazu gehört hast. :)
Tape-Out war im Juni.
Dural
2009-10-08, 08:39:15
A0 gab es ja sicher auch noch, oder fängt NV mit A1 an?
reunion
2009-10-08, 08:39:23
Tape-Out war im Juni.
Steht wo?
Wer sagt, dass A1 verbuggt ist? Wenn überhaupt scheint A1 nicht so zu takten wie man sich wünscht.
Ailuros
2009-10-08, 08:44:02
Hast du dich eigentlich schon bei Charlie entschuldigt? Sein "first Tape-out Ende Juli" etc... scheint ja besser gestimmt zu haben als alles was du von anderen dazu gehört hast. :)
Wieso soll ich mich bei Charlie entschuldigen? Weder spaeter Maerz noch Ende Juli hat anscheinend etwas mit der letzten August Woche etwas zu tun. Ich hab mich aber da beschwert wo die angebliche A1 und 2.4Mrd Transistoren original herkamen. Waere es 2.4 vs. 2.5 kann man schon ein Auge zudruecken, aber der Unterschied zu 3.08Mrd ist schon ein fetter Batzen.
wie soll November funktionieren?
Du hast selbst geschrieben das es beim GT200b von B2 -> B3 14 Wochen gedauert hat.
Dann lies gefaelligst meine vorigen Beitraege nochmal genauer durch. In keinem Fall hab ich gesagt oder angedeutet dass es mir als moeglich erscheint eher das Gegenteil. Ausser sie schuften alle auf 24/7 Basis was ich Jensen eventuell zutrauen koennte aber meine Perspektive bleibt dabei dass es im November mit einem hard launch nicht mehr klappen wird.
Und dann müssen die Board-Hersteller "nur noch" die Boards fertig entwickeln (was mit dem verbuggten A1-Silizium bestimmt nicht geht) etc...
mboeller ich transportiere lediglich Einzelheiten die ich links und rechts hoere aber es ist wohl offensichtlich dass darin oefters Fehler und auch Missverstaendnisse liegen. Wo zum Henker steht dass A1 "verbuggt" ist oder noch besser hast Du ueberhaupt einen Durchblick um was fuer Silizium es sich mit A1 bei NVIDIA genau handelt? Noch schlimmer was hat das Ganze mit den boards genau zu tun? Design kits sind schon fertig und es gibt schon Massstaebe die fuer unabhaengige Kuehlungsloesungen verteilt wurden.
Tape-Out war im Juni.
Ich hatte genau die gleiche Debatte gestern mit jemand ueber das beruechtigte 0935A1 auf dem chip. Er konnte mit nichts besserem ankommen als mir zu erzaehlen dass NV die Daten mit Absicht gefaelscht hat. Ich bin zwar ein fan von sci-fi aber solchen Stuss kann ich leider nicht so einfach glauben. Auf dem vorgezeigten die steht nicht 0921A1, 0922A1, 0923A1, 0924A1 sondern 0935A1.
LovesuckZ
2009-10-08, 08:57:01
Ich hatte genau die gleiche Debatte gestern mit jemand ueber das beruechtigte 0935A1 auf dem chip. Er konnte mit nichts besserem ankommen als mir zu erzaehlen dass NV die Daten mit Absicht gefaelscht hat. Ich bin zwar ein fan von sci-fi aber solchen Stuss kann ich leider nicht so einfach glauben. Auf dem vorgezeigten die steht nicht 0921A1, 0922A1, 0923A1, 0924A1 sondern 0935A1.
Das Datum steht nicht für den Tape-Out. Wenn dies so wäre, hätte nVidia innerhalb von 3-4 Wochen das Tape-out vollzogen, die Wafer produziert, Hot Lots angefertigt, Treiber geschrieben, Design Kits entworfen...
Also wenn die das innerhalb von 3-4 Wochen schaffen, dann sollte ein Respin ein Kinderspiel sein.
A1 sagt gar nichts. Das kann das erste Tape-Out sein oder der erste Respin.
AnarchX
2009-10-08, 09:00:55
Vielleicht ist der gezeigte Chip auch einer von denen welche man schon an die Partner herausgeschickt hat, während auf den Demo-Boards A0 lief.
reunion
2009-10-08, 09:01:26
A1 sagt gar nichts. Das kann das erste Tape-Out sein oder der erste Respin.
Nein, A0 ist bei NV das erste Tapeout. Es gab also definitiv schon einen Respin. Die Frage ist höchstens ob A1 fehlerfrei ist oder es noch einen weiteren Respin (A2) benötigt.
LovesuckZ
2009-10-08, 09:02:48
A1 sagt gar nichts. Das kann das erste Tape-Out sein oder der erste Respin.
A1 ist bei nVidia Tape-Out.
Lol, entscheidet Euch mal ...
LovesuckZ
2009-10-08, 09:05:32
Lol, entscheidet Euch mal ...
Es gibt kein A0 bei nVidia. Sie fangen immer mit A1 an. Das hat sogar unser Charlie begriffen. :freak:
Ailuros
2009-10-08, 09:11:52
Nein, A0 ist bei NV das erste Tapeout. Es gab also definitiv schon einen Respin. Die Frage ist höchstens ob A1 fehlerfrei ist oder es noch einen weiteren Respin (A2) benötigt.
Dachte ich selber auch dummerweise; A1 fuer NV und A11 fuer ATI ist erstes Silizium/tape out.
Ailuros
2009-10-08, 09:46:51
Das Datum steht nicht für den Tape-Out. Wenn dies so wäre, hätte nVidia innerhalb von 3-4 Wochen das Tape-out vollzogen, die Wafer produziert, Hot Lots angefertigt, Treiber geschrieben, Design Kits entworfen...
Also wenn die das innerhalb von 3-4 Wochen schaffen, dann sollte ein Respin ein Kinderspiel sein.
Ach wie schoen....ergo haben wir jetzt Maerz, Juni und Juli als moegliche Kandidaten, wobei man wohl beruhigt Maerz vergessen kann.
Und wofuer steht das verdammte Datum genau? (ehrliche Frage)
Soso, der viel gescholtene Charlie hatte also mit seiner Tape-out Meldung recht. Mit was noch?
Ich vermute mal, dass AMD ihm die Infos steckt (angeblich weiß bei TSMC ohnehin jeder was der andere tut).
LovesuckZ
2009-10-08, 09:59:41
Arun schrieb im Beyond3d.com Forum, dass die Zeit zwischen Tape-out und A1 in Form von Hot Lots im besten Fall 8 Wochen benötigt. A1 zeigt also einen verwendbaren Chip. Ich bezweifel, dass man das schneller als in diesen 8 Wochen schafft.
Soso, der viel gescholtene Charlie hatte also mit seiner Tape-out Meldung recht. Mit was noch?
:confused:
Sein Aussage besagte Ende Juli, dass der Chip kein Tape-Out gehabt hätte und eine Woche später, dass nVidia das Tape-Out Ende Juli durchgeführt hätte. Beide Meldungen zeigen, dass er keine Ahnung hat.
Wirklich ne ehrliche Frage ? Ist doch bei alle Chips so das ist Kalenderwoche + Jahresendzahl + Revision.
Im Falle von 3509A1: KW 35 2009, Rev. A1
KW35 war Ende August
Wobei sich da dann noch die Frage stellt, ob der gezeigte Chip auch wirklich ein DIE unter dem Deckel hatte und kein Gehäuse Mockup war ^^
reunion
2009-10-08, 10:02:39
Und wofuer steht das verdammte Datum genau? (ehrliche Frage)
Produktionsdatum des jeweiligen Dice eben. Das eigentlich Tapeout muss also schon früher gewesen sein.
Ailuros
2009-10-08, 10:11:38
Arun schrieb im Beyond3d.com Forum, dass die Zeit zwischen Tape-out und A1 in Form von Hot Lots im besten Fall 8 Wochen benötigt. A1 zeigt also einen verwendbaren Chip. Ich bezweifel, dass man das schneller als in diesen 8 Wochen schafft.
Und wofuer steht das Datum auf dem chip?
Produktionsdatum des jeweiligen Dice eben. Das eigentlich Tapeout muss also schon früher gewesen sein.
Tja nur kann man Charlie's Juli Behauptung auch nicht mehr ausschliessen.
Sein Aussage besagte Ende Juli, dass der Chip kein Tape-Out gehabt hätte und eine Woche später, dass nVidia das Tape-Out Ende Juli durchgeführt hätte. Beide Meldungen zeigen, dass er keine Ahnung hat.
Hmm .. nö er sagte am 26ten, dass es noch keinen Tape Out gegeben hätte, der eigentlich für Mitte Juli geplant gewesen wäre.
3 Tage später schrieb er dann, dass es doch endlich so weit gewesen wäre.
Welchen Tag genau ist doch egal 3 hin 3 her ... solange es nicht im März oder April war ^^
July 29, 2009
LOOK, OUT THE window, a squadron of flying pigs! No, really, they do fly, there are frozen lakes of fire being reported all over, and Nvidia's GT300 has finally taped out.
Our sources tell us that the GT300 is beginning it's 7 or 8 week long process through the very expensive machinery at TSMC. We said the target was a mid-July tapeout, and if you are very charitable with 'mid-', Nvidia hit it. A hair under a week ago, the chip had not taped out.
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/
@Ailuros:
Siehe #3885
ciao
Alex
LovesuckZ
2009-10-08, 10:14:45
Und wofuer steht das Datum auf dem chip?
Zeitpunkt an dem der Chip produktionsbereit (=> verwendbar) war.
Godmode
2009-10-08, 10:16:17
Wirklich ne ehrliche Frage ? Ist doch bei alle Chips so das ist Kalenderwoche + Jahresendzahl + Revision.
Im Falle von 3509A1: KW 35 2009, Rev. A1
KW35 war Ende August
Wobei sich da dann noch die Frage stellt, ob der gezeigte Chip auch wirklich ein DIE unter dem Deckel hatte und kein Gehäuse Mockup war ^^
Zur Kalenderwoche wird oft ein Wert addiert, um nicht für jeden offensichtlich zu machen, wann das Produkt gefertigt wurde. Ich habe aber keine Ahnung ob sie das bei Nvidia auch machen, kann nur aus eigener Erfahrung sprechen.
reunion
2009-10-08, 10:19:56
Zeitpunkt an dem der Chip produktionsbereit (=> verwendbar) war.
Never. Ansonsten müsste jeder Ax Chip denselben Wert haben. Das war schon immer die Produktionswoche.
LovesuckZ
2009-10-08, 10:23:47
Hmm .. nö er sagte am 26ten, dass es noch keinen Tape Out gegeben hätte, der eigentlich für Mitte Juli geplant gewesen wäre.
3 Tage später schrieb er dann, dass es doch endlich so weit gewesen wäre.
Welchen Tag genau ist doch egal 3 hin 3 her ... solange es nicht im März oder April war ^^
http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/
Das schreibt Charlie:
A hair under a week ago, the chip had not taped out.
Soso, der Chip soll also "Mid-Juli" sein tape-out gehabt haben, aber drei tage vor dieser Meldung verneinte Charlie es und tut es nochmal in dieser Meldung...
That brings us to the last point, the GT300 has still not taped out. Nvidia missed their internally promised mid-July date, and for now, nothing is on the horizon.
nVidia müsste also weniger als 6 Wochen vom Tape-out bis zu A1 Hot Lots benötigt haben.
Never. Ansonsten müsste jeder Ax Chip denselben Wert haben. Das war schon immer die Produktionswoche.
Da steht Chip - das materielle Teil auf der Karte. Keine Abstraktion.
Ailuros
2009-10-08, 10:27:36
bans3i,
Danke. Trotz allem nutzvolle Info.
-------------------------------------------------------------------------
Ich hab nochmal nachgefragt und es war nach NV's eigenen Angaben weder Maerz, Juni oder Juli fuer den ersten tape out. Wenn ich jetzt nicht wieder verarscht wurde besteht jemand auf Anfang April und die 21. Woche, wobei fuer's letztere die anderen Details zu genau sind um falsch zu liegen.
Trotzdem abwarten und Tee trinken denn mit dem ganzen Teufelskreis scheint fast nichts mehr zuverlaessig zu sein.
Soso, der Chip soll also "Mid-Juli" sein tape-out gehabt haben, aber drei tage vor dieser Meldung verneinte Charlie es und tut es nochmal in dieser Meldung...
Wo ist das Problem ? In den 3 Tagen hat er halt was Neues erfahren.
Willst Du Ihm jetzt wirklich die paar Tage vorwerfen ?
Ailuros
2009-10-08, 10:37:15
Wo ist das Problem ? In den 3 Tagen hat er halt was Neues erfahren.
Willst Du Ihm jetzt wirklich die paar Tage vorwerfen ?
Es geht nicht um Tage und lassen wir mal Charlie aussen weg. Angenommen ich werde nicht von NV verarscht hat keiner bischer Recht gehabt. Es hat keinen Sinn mehr denn die Infos die herumschwirren widersprechen sich so radikal dass es keinen Zweck mehr hat sich mit dem Ganzen zu beschaeftigen.
Wenn aber NV nicht luegt ueber den eigentlichen tape out dann ist Ende November durchaus fuer einen echten hard launch moeglich.
bans3i,
Danke. Trotz allem nutzvolle Info.
-------------------------------------------------------------------------
Ich hab nochmal nachgefragt und es war nach NV's eigenen Angaben weder Maerz, Juni oder Juli fuer den ersten tape out. Wenn ich jetzt nicht wieder verarscht wurde besteht jemand auf Anfang April und die 21. Woche, wobei fuer's letztere die anderen Details zu genau sind um falsch zu liegen.
Trotzdem abwarten und Tee trinken denn mit dem ganzen Teufelskreis scheint fast nichts mehr zuverlaessig zu sein.
21+14 = 35. Ob das Zufall ist?
Da TSMC ja auch noch am Prozess gearbeitet hat, kann ich mir vorstellen, dass das gezeigte A1 ein A1 für den optimierten Prozess bei TSMC ist, nicht unbedingt A1 für D12U an sich.
Ailuros
2009-10-08, 10:47:33
21+14 = 35. Ob das Zufall ist?
Da TSMC ja auch noch am Prozess gearbeitet hat, kann ich mir vorstellen, dass das gezeigte A1 ein A1 für den optimierten Prozess bei TSMC ist, nicht unbedingt A1 für D12U an sich.
21. Woche fuer A1 (mit Frequenz und Volt Angaben). I am :confused:
Es geht nicht um Tage
Im großen Kontext klar, aber Lovesucks hat anscheinend irgendein Problem mit den 3 Tagen ... - egal ob das Datum jetzt richtig war oder nicht.
Naja, wie auch immer, lassen wirs, keiner weiss es wohl zu 100% ;-)
Charlie redet von fertigen Karten frühestens im Dezember, mal abwarten was das wird, dann reden wir hier weiter ;-)
ciao
Alex
LovesuckZ
2009-10-08, 11:03:42
Im großen Kontext klar, aber Lovesucks hat anscheinend irgendein Problem mit den 3 Tagen ... - egal ob das Datum jetzt richtig war oder nicht.
Die drei Tage sind nicht das Problem - das Problem liegt in seinem Text.
Lese dir den Text vom 26. durch und dann den vom 29. Es fällt auf, dass drei tage reichen, um eine Aussage um 180° zu drehen. Vom verpassten Tape-out zur pünktlichen Zielerreichung...
Ailuros
2009-10-08, 11:07:57
Egal was man momentan glauben will heisst es dass NV mit Absicht irrefuehrt.
21. Woche fuer A1 (mit Frequenz und Volt Angaben). I am :confused:
Das würde bedeuten, dass das gezeigte Sample aus einer bereits laufenden Produktion käme.
Dann wundert mich aber, dass sie nicht mehr gezeigt und sich die Blöße eines Dummys gegeben haben.
tombman
2009-10-08, 12:43:33
Mich wundert wieviele sich mit absolut 0 gesicherten Infos auf seitenlange Diskussionen einlassen...
G!ZMo
2009-10-08, 12:55:04
Mich wundert wieviele sich mit absolut 0 gesicherten Infos auf seitenlange Diskussionen einlassen...
Tja das wird wohl die Vorfreude sein. ;)
Gast_mboeller
2009-10-08, 12:59:23
Mich wundert wieviele sich mit absolut 0 gesicherten Infos auf seitenlange Diskussionen einlassen...
Und ich habe gelernt nie wieder solche kleinen Scherze zu machen. Man weiß nicht welche Steinlawinen man damit lostritt.
Die drei Tage sind nicht das Problem - das Problem liegt in seinem Text.
Lese dir den Text vom 26. durch und dann den vom 29. Es fällt auf, dass drei tage reichen, um eine Aussage um 180° zu drehen. Vom verpassten Tape-out zur pünktlichen Zielerreichung...
Ich sag ja die 3 Tage habens Dir angetan ;-)
Ich seh da kein Problem, er schreibt doch:
We said the target was a mid-July tapeout, and if you are very charitable with 'mid-', Nvidia hit it. A hair under a week ago, the chip had not taped out.
"very charitable" ist keine 180 Grad Drehung. Pünktlich, genau Mitte Juli am war das Ding laut seinen Infos nicht fertig, ca. 1,5 Woche später haben sies dann angeblich gepackt. Das war nicht mehr Mitte Juli, aber mit viel Wohlwollen hat er es halt noch gelten lassen, wenn man "Ende Juli" nur als 31ten definiert ;-)
Aber lassen wirs, ist eh müßig. Da geb ich dem Grabmalmenschen recht ^^
ciao
Alex
tombman
2009-10-08, 13:01:35
Tja das wird wohl die Vorfreude sein. ;)
Eben nicht, denn die meisten kaufen sich doch gar keinen Fermi, ist also nicht mal Zielgruppe...
mictasm
2009-10-08, 13:15:26
Deshalb regt sich die Zielgruppe manchmal auch über das viele OT und die Blödsinnsdiskussionen auf...
Hm, aktuell ist mein Eindruck der Gerüchte im Umlauf:
Der Chip kommt dieses Jahr (wenn überhaupt) im Dezember als A2
Über die Gaming-Performance ist im Prinzip wenig bekannt
Ende November dürfen wir wohl mit einem (Paper-?) Launch rechnen
Ailuros
2009-10-08, 13:38:03
Da Intel sich anscheinend gerade Sorgen macht ueber GPGPU Virus Angriffe in der Zukunft, wissen wir schon jetzt wie die zukuenftige GPU Streitereien aussehen werden. Marionetten wie Fudo, Charlie und co werden irrelevant sein da alles ueber boesartiges software in der Zukunft geloest wird.
Daher kann man auch locker sagen dass NVIDIA schon jetzt ihre Messer schleift: http://www.fudzilla.com/content/view/15832/1/ um ein indirektes Eindringen in antivirus software schon jetzt zu sichern.
*transformiert sich in einen ueblen -AiL-virus und loest sich in Luft auf* :eek:
----------------------------------------------------------------------------------
So und jetzt Spass beiseite, Lesematerial:
http://forums.hexus.net/hexus-net/172654-opinions-look-back-nvidias-gtc-3.html#post1791507
Was versteht man denn bitte unter bring-up mode?
The GeForce version of Fermi is in bring-up mode right now, and it’s going to be an awesome product that supports PhysX, 3D Vision, CUDA and DX11.
Dural
2009-10-08, 14:02:37
http://forums.hexus.net/hexus-net/172654-opinions-look-back-nvidias-gtc-3.html#post1791507
Jetzt ist es offiziell: NV gut AMD böse ;D
Ailuros
2009-10-08, 14:02:47
HW bring up ist das erste Stadium im debugging Prozess wenn ich mich nicht irre.
Hakkerstiwwel
2009-10-08, 14:26:02
..
So und jetzt Spass beiseite, Lesematerial:
http://forums.hexus.net/hexus-net/172654-opinions-look-back-nvidias-gtc-3.html#post1791507
"it is going to be" -> sieht nicht nach einem frühen Launch aus..
Das verstärkt den Eindruck, dass die Leute bei NV es kaum erwarten können das Fermi launcht.
HW bring up ist das erste Stadium im debugging Prozess wenn ich mich nicht irre.
Dann dürfte es wohl doch noch eine Weile bis zum Launch sein...
D.h. sie fangen nun mit der Fehlerprüfung des letztem Sample (vermutlich A2) an, wenn keine gravierenden auftauchen -> Start der Massenproduktion, andernfalls nochmal ein Spin.
Ailuros
2009-10-08, 14:47:23
Dann dürfte es wohl doch noch eine Weile bis zum Launch sein...
D.h. sie fangen nun mit der Fehlerprüfung des letztem Sample (vermutlich A2) an, wenn keine gravierenden auftauchen -> Start der Massenproduktion, andernfalls nochmal ein Spin.
Nein. Debugging kommt direkt nach dem tape out, ergo kann ich mir beruhigt die Haare ausreissen wann das verdammte Ding sein tape out hatte. Ausser es erzaehlt mir irgend ein Spinner dass der Kerl im Link nicht Nick Stam ist sondern jemand der herumulkt....:rolleyes:
"the GeForce version of Fermi". Hmmmm
mictasm
2009-10-08, 14:54:28
"the GeForce version of Fermi". Hmmmm
Da hab ich auch kurz gestutzt, da Fermi ja den Chip bezeichnet. Ich könnte mir aber auch vorstellen, dass er die gesamte Karte meint.
boxleitnerb
2009-10-08, 14:55:16
Ich hoffe ja noch immer, dass es zwei Karten(serien) geben wird:
Eine auf GPGPU ausgelegte mit heftig DP-Power und eine auf 3D-Performance ausgelegte, bei der DP-Einheiten fehlen, dafüer vielleicht ein breiteres SI und mehr Shader/Alus/ROPs verbaut sind und die höher taktet.
Nein. Debugging kommt direkt nach dem tape out, ergo kann ich mir beruhigt die Haare ausreissen wann das verdammte Ding sein tape out hatte.
Dann dürfte ein Launch 2009 völlig ausgeschlossen sein, eher Feb/März
mictasm
2009-10-08, 15:05:55
HW bring up ist das erste Stadium im debugging Prozess wenn ich mich nicht irre.
Bist du dir da sicher? Ich würde es optimistischer als "..to market" interpretieren und hoffe auf eine Vorstellung im November und Karten ab Anfang Dezember.
Die Frage ist von welchem Chip er spricht. D12P könnte hinkommen.
Ailuros
2009-10-08, 15:07:56
Bist du dir da sicher? Ich würde es optimistischer als "..to market" interpretieren und hoffe auf eine Vorstellung im November und Karten ab Anfang Dezember.
Komm in den IRC B3D Kanal und frag selber nach. Oder eben nach "hardware bring-up" googlen.
Gipsel
2009-10-08, 17:33:12
Ich denke Ailuros hat recht. Nach meinem Verständnis heißt "bring-up" üblicherweise die Hardware das erste Mal im Labor zum Leben zu erwecken und zum Laufen zu bekommen. Im Prinzip das Stadium, wo Fermi angeblich zur Präsentation war. Aber dann würde das mit dem November-Launch recht unmöglich sein.
Da Ailuros schon ein paar mal von "verarschen" gesprochen hat, was haltet ihr eigentlich davon, daß irgendein Spaßvogel bei nv mit Absicht die "7" auf den vorgezeigten Chip geschrieben hat? Ansonsten kann ich mir die Zahl nämlich kaum erklären.
Charlies berühmte Sieben.
Charlies berühmte Sieben.
Ich finde es schlimm genug, dass mir mittlerweile "Charlie" ein Begriff ist, aber gibt es jetzt schon geflügelte Worte des großen Dichters?
BTW, 3DCenter fragt mich gerade "Was ist sieben mal sieben?" Keine Ahnung, ich kenne "Charlies berühmte Sieben nicht". :(
http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/
"How many worked out of the (4 x 104) 416 candidates? Try 7."
Das nenn ich ja mal subtilen Humor.
Das war die Sache mit dem "first Silicon", also dem ersten Batch an Wafern, die nV aus der Fab geliefert bekam.
Ohne es jetzt extra zu suchen, aus dem Kopf:
Es waren angeblich 4 Wafer mit insgesamt über 400 GPU "Kandidaten". Und unter diesen mehr als 400 Chips waren nur insgesamt 7 funktionsfähige Exemplare, der Rest Ausschuss. Angeblich.
Gipsel
2009-10-08, 17:51:38
7?
Das kommt aus seiner Nvidia GT300 yields are under 2% (http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2) Story vom 15. September:
The first hot lot of GT300s have 104 die candidates per wafer, with four wafers in the pod Nvidia got back a week and a half ago. There is another pod of four due back any day now, and that's it for the hot lots.
How many worked out of the (4 x 104) 416 candidates? Try 7. Yes, Northwood was hopelessly optimistic - Nvidia got only 7 chips back. Let me repeat that, out of 416 tries, it got 7 'good' chips back from the fab. Oh how it must yearn for the low estimate of 20%, talk about botched execution. To save you from having to find a calculator, that is (7 / 416 = .01682), rounded up, 1.7% yield.
Nun, und zwei Wochen später präsentiert nvidia einen faked Fermi-Mockup und zeigt einen Chip vor, auf dem dick und fett ausgerechnet eine 7 prangt? Das ist doch kein Zufall!
Achja, der vorgezeigte Chip:
http://www.semiaccurate.com/static/uploads/2009/10_october/Fermi_closeup.jpg
Dural
2009-10-08, 18:32:12
ist das ne 7?
die GPUs haben dort doch immer einen strich???
Schau mal auf deine Tastatur, direkt zwischen der 6 und der 8.
Dural
2009-10-08, 18:37:55
und dan schau mal auf dieses foto:
http://img166.imageshack.us/img166/389/453874324582sv8.jpg
vieleicht nur eine qualitäts kontrolle oder so...
ich meine mit ist das eine 7 nicht das es wie eine 7 aus sieht sondern ob es die bedeutung 7 auch wirklich hat...
LovesuckZ
2009-10-08, 18:50:26
Jetzt rate mal, warum man zwei Schritte genommen hat, die so angeordnet eine 7 ergeben? ;)
Gipsel
2009-10-08, 18:52:06
ich meine mit ist das eine 7 nicht das es wie eine 7 aus sieht sondern ob es die bedeutung 7 auch wirklich hat...
Die Frage ist, welche Bedeutung die 7 hat, nicht ob es eine ist. Hat es ein Spaßvogel extra für Charlie draufgeschrieben (die Produktionswoche stimmt übrigens auch mit seinen Meldungen überein), oder sollte es etwa heißen, daß es wirklich Die #7 ist ;D
Wobei das Letztere kann ich kaum glauben und wenn es so wäre, hätte man die Zahl ja auch mal schnell entfernen können. Allerdings hätte man auch ein besser aussehendes Fermi-Board zeigen können, nicht eines, was man in der letzten halben Stunde vor der Präsentation noch abgesägt hat :rolleyes:
Menace
2009-10-08, 18:59:46
Allerdings hätte man auch ein besser aussehendes Fermi-Board zeigen können, nicht eines, was man in der letzten halben Stunde vor der Präsentation noch abgesägt hat :rolleyes:
Und dementsprechend in die Kamera hält. :D
LovesuckZ
2009-10-08, 19:00:58
Die Frage ist, welche Bedeutung die 7 hat, nicht ob es eine ist. Hat es ein Spaßvogel extra für Charlie draufgeschrieben (die Produktionswoche stimmt übrigens auch mit seinen Meldungen überein), oder sollte es etwa heißen, daß es wirklich Die #7 ist ;D
Welche Meldung? Die Credits gehen an den asiatischen Blog für die ES.
Noebbie
2009-10-08, 19:03:37
Könnte auch eine 1 sein. :rolleyes:
Amerikaner schreiben die 1 gewöhnlich als einzelnen Strich und die 7 so wie abgebildet.
Aber es könnte auch nen Haken sein oder sie wollen Charlie einfach nur verarschen ;)
Und warum sollten sie einen funktionstüchtigen Chip in die Kamera halten wenn sie nur 7 davon haben und nicht auch eine Attrappe?
Jo, wenn es wirklich nur 7 funktionstüchtige Chips gäbe würde man die eher auf Testboards vermuten und nicht als Rumreich-Demoobjekt.
Gipsel
2009-10-08, 19:32:19
oder sie wollen Charlie einfach nur verarschen ;)
Das war ja gerade meine Vermutung (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7584592#post7584592).
Amerikaner schreiben die 1 gewöhnlich als einzelnen Strich und die 7 so wie abgebildet.
Aber es könnte auch nen Haken sein oder sie wollen Charlie einfach nur verarschen ;)
Und warum sollten sie einen funktionstüchtigen Chip in die Kamera halten wenn sie nur 7 davon haben und nicht auch eine Attrappe?
oder es gibt noch 5 oder 15 oder 19 weitere chips die ebenso nummeriert sind? ohne weitere infos wie weit diese reihe gehen könnte ist diese eine abbildung absolut nichtssagend.... weil keiner weiß ob es 8,9,10 usw. auch noch irgendwo herumschwirren... oder die 7 heißt "7 monate dauerts noch". diese sinnlose diskussion ist extremst *PLEMPLEM*
Wenn es nur 7 funktionstüchtige Chips gibt halte ich doch keinen in die Kamera. Außerdem hätte da ja auch 1-6 draufstehen können.
Ich denk es war nur ein Headspreader mit der 7 für Charlie
Bei uns werden ES-Samples manchmal mit Bleistift gekennzeichnet. Diese Nummerierung hat aber rein garnix mit der Anzahl von funktionierenden Chips zu tun ;-)
Gipsel
2009-10-08, 20:55:50
Ich habe doch gesagt, daß das wohl irgendein Spaßvogel bei nv extra für ihn raufgeschrieben hat.
Ansonsten wäre es ja wohl dilettantisch ohne Ende, genau wie das Board-Mockup.
Gipsel
2009-10-08, 20:58:01
Bei uns werden ES-Samples manchmal mit Bleistift gekennzeichnet. Diese Nummerierung hat aber rein garnix mit der Anzahl von funktionierenden Chips zu tun ;-)
Numeriert ihr auch die überhaupt nicht funktionierenden?
puntarenas
2009-10-08, 20:59:22
Ich habe doch gesagt, daß das wohl irgendein Spaßvogel bei nv extra für ihn raufgeschrieben hat.
Der Gedanke gefällt mir ausgesprochen gut, aber 7/7 hätte bei mir noch mehr Zuspruch gefunden. :biggrin:
Langsam wird die Diskussion richtig komplex ^^
pervert
2009-10-08, 21:05:49
Die 7 ist bestimmt eine Charlie-Verarsche! Zumindest eine schöne Vorstellung ;)
Ich meine jemanden der so dreist und dumm ist aus einer billigen fehlerhaften chinesischen Übersetzung so eine "große Sache" zu machen und eine beisspiellose Drecklawine loszutreten (weil alle so dumm sind und stumpfsinnig abschreiben), den muss man einfach ein bisschen verarschen. Subtil aber gut!
Numeriert ihr auch die überhaupt nicht funktionierenden?
Nein defekte Chips fliegen schon beim Wafertest raus. Es kommen nur Chips zum Packaging und Finaltest, die grundlegend funktionieren. Diese werden dann ab und mal mit nem Bleistift bearbeitet ;-)
Ob diese den Finaltest überstehen is damit natürlich noch nicht gesagt
Die 7 ist bestimmt eine Charlie-Verarsche! Zumindest eine schöne Vorstellung ;)
Ich meine jemanden der so dreist und dumm ist aus einer billigen fehlerhaften chinesischen Übersetzung so eine "große Sache" zu machen und eine beisspiellose Drecklawine loszutreten (weil alle so dumm sind und stumpfsinnig abschreiben), den muss man einfach ein bisschen verarschen. Subtil aber gut!
Genauso wie alle anderen, indem man ihnen ein "Mockup" präsentiert ?
Ich meine, es ist ja verständlich das man schnell reagieren wollte/musste auf den 58x0 Launch.
Dann zeigt man so nen 0815 Fake, aber gleichzeitig hat man noch zeit eine gewisse Person bzw. Seite zu verarschen.
Komische Prioritäten haben die bei Nvidia :D
Dann zeigt man so nen 0815 Fake, aber gleichzeitig hat man noch zeit eine gewisse Person bzw. Seite zu verarschen.
Komische Prioritäten haben die bei Nvidia :D
Das war ne persönliche Sache :D
Dural
2009-10-09, 00:55:24
Genauso wie alle anderen, indem man ihnen ein "Mockup" präsentiert ?
Ich meine, es ist ja verständlich das man schnell reagieren wollte/musste auf den 58x0 Launch.
Dann zeigt man so nen 0815 Fake, aber gleichzeitig hat man noch zeit eine gewisse Person bzw. Seite zu verarschen.
Komische Prioritäten haben die bei Nvidia :D
NV hat gegen die 58x0 bis jetzt noch gar nichts gezeigt, das einzige was NV vorgestellt hat ist ein Tesla Chip und desen Vorzüge...
Ich kann da beim besten wille keine reaktion auf die 58x0 Karten sehen!
pervert
2009-10-09, 05:46:33
Genauso wie alle anderen, indem man ihnen ein "Mockup" präsentiert ?
Ich meine, es ist ja verständlich das man schnell reagieren wollte/musste auf den 58x0 Launch.
Dann zeigt man so nen 0815 Fake, aber gleichzeitig hat man noch zeit eine gewisse Person bzw. Seite zu verarschen.
Komische Prioritäten haben die bei Nvidia :D
Wen wunderts bei der außergewöhnlichen Sch.... die dieser Psycho ablässt?!
So einen "Giftmüll" hat selbst Fudo zu seinen schlimmsten Zeiten niemals verbreitet.
So weit ich mich erinnern kann ist C. ja auch voll drauf eingestiegen als die Fotos veröffentlicht wurden und hat wieder von der 7 und seinen 2% yield Zahlenspielerereien gefaselt. Der Typ ist so konsequent geil nach Aufmerksamkeit (oder Geld durch seine Website etc), dass es schon richtig weh tut. Er hört einfach nicht auf uns alle zu beschmutzen, ganz egal ob das halbe Netz weiß, dass er ein Idiot ist und offensichtliche Fehler gemacht hat.
Einfach krank sowas :freak:
Ailuros
2009-10-09, 06:25:43
Ich denke Ailuros hat recht. Nach meinem Verständnis heißt "bring-up" üblicherweise die Hardware das erste Mal im Labor zum Leben zu erwecken und zum Laufen zu bekommen. Im Prinzip das Stadium, wo Fermi angeblich zur Präsentation war. Aber dann würde das mit dem November-Launch recht unmöglich sein.
Da Ailuros schon ein paar mal von "verarschen" gesprochen hat, was haltet ihr eigentlich davon, daß irgendein Spaßvogel bei nv mit Absicht die "7" auf den vorgezeigten Chip geschrieben hat? Ansonsten kann ich mir die Zahl nämlich kaum erklären.
Wenn wirklich alles nach Plan laufen wuerden und die engineers rackern sich 24/7 wie die verrueckten ab koennten sie A2 in weniger als 10 Wochen schaffen wenn man von der 35. Woche ausgeht. Nur hat man dann erstmal nur A2 geschafft, das Resultat muss makellos sein und dann geht man erst in die echte Produktion.
Ich hab von der einen Seite direkt von NV sehr genaue Daten und Zahlen die zurueck gehen auf April/Mai welches mit einem normalen Entwicklungsverlauf durchaus einen November launch befuerworten wuerden. Wenn das stimmen sollte, muesste der gezeigte heatspreader von hinten und vorne ein mockup sein.
Von der anderen Seite sehe ich einen Bild dass eine ganz andere Geschichte erzaehlt, die chiphell Herren murmeln von Frequenz-Problemen (von den seitens NV nirgends etwas erwaehnt wird) und ich bis jetzt bestaetigen alle ernsthaften unabhaengigen Quellen (ausserhalb NV und AMD) dass das Ding gerade bei bring up ist.
Ich hab keine andere Wahl als das zweite zu glauben und den Unsinn von NV einfach komplett zu ignorieren. Generell scheinen die NV Angestellten in letzter Zeit komplett auszurasten und es war zu Perez' Zeiten bei weitem nicht so schlimm:
http://www.hardocp.com/news/2009/10/07/amd_nvidia_fighting_on_twitter/
....und hinter den Kulissen ist das Ganze sogar noch um einiges radikaler, zu dem Punkt dass man zweifeln kann ob ueberhaupt noch ein Flecken Anstand uebrig geblieben ist. Man kann ehrlich nur den Kopf schuetteln....
***edit: anstatt sich gegenseitig die Haare auszureissen, waere es mir lieber wenn sich beide Seiten ihre Energie in Arbeit investieren wuerden. AMD hat eine DX11 GPU Familie auf dem Markt und muss lediglich mit dem Dev support zunehmend so weitermachen und fuer GPGPU endlich anstaendig ihre hw unterstuetzen und NVIDIA muss ihre erste DX11 erstmal liefern. In beiden Faellen heisst es nur put up or shut up.
mboeller
2009-10-09, 08:47:37
bring up (laut leo) = heranführen / großziehen (bei einem Kind) => ergo imho debugging, wie Ailuros schon schreibt.
die Sache mit den angeblich 7 GPUs hatten wir doch schon. Sogar Fuad, Nvidias "Pressesprecher" bestätigte ja das es nur "eine Handvoll Boards" gibt. http://www.fudzilla.com/content/view/15813/1/
....und hinter den Kulissen ist das Ganze sogar noch um einiges radikaler, zu dem Punkt dass man zweifeln kann ob ueberhaupt noch ein Flecken Anstand uebrig geblieben ist. Man kann ehrlich nur den Kopf schuetteln....
hört sich nach purer Verzweiflung an. Und wahrscheinlich sehr sehr viel Druck von der Geschäftsführung. Und verletztem Stolz...
Da könnte Neliz mit Q2/2010 gar nicht falsch gelegen haben.
Winter[Raven]
2009-10-09, 09:48:43
hört sich nach purer Verzweiflung an. Und wahrscheinlich sehr sehr viel Druck von der Geschäftsführung. Und verletztem Stolz...
Ich würde es ja verstehen, wenn AMD ähnliches, wenigstes Ansatzweise anbieten würde... die neue GPU ist nicht weiter interessant von den Features und Schwanzverlängerung brauch ich nicht. Features die ich nutzen kann sind mir wichtiger.
Von dem GT300 bin ich wirklich beeindruckt und freue mich schon auf die GPU.
AnarchX
2009-10-09, 15:38:51
SSAA Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467150
Black-Scorpion
2009-10-09, 17:57:37
;7585908']Ich würde es ja verstehen, wenn AMD ähnliches, wenigstes Ansatzweise anbieten würde... die neue GPU ist nicht weiter interessant von den Features und Schwanzverlängerung brauch ich nicht. Features die ich nutzen kann sind mir wichtiger.
Von dem GT300 bin ich wirklich beeindruckt und freue mich schon auf die GPU.
Wie man von nichts beeindruckt sein kann ist schon erstaunlich.
Da bin ich beeindruckt.
Vermutlich ist er noch so gefesselt von 3D-Vision und PhysX dass er an kaum etwas anderes denken kann...
Gipsel
2009-10-09, 18:33:00
;7585908']Ich würde es ja verstehen, wenn AMD ähnliches, wenigstes Ansatzweise anbieten würde... die neue GPU ist nicht weiter interessant von den Features und Schwanzverlängerung brauch ich nicht. Features die ich nutzen kann sind mir wichtiger.
Von dem GT300 bin ich wirklich beeindruckt und freue mich schon auf die GPU.
Na dann möchte ich mal eines wissen: Von welchen Features Fermis bist Du beeindruckt? Welche davon kannst Du denn jetzt nutzen? Vor allem da Du ja gar keine Karte kaufen kannst ;D
Welche Hardware-Features von Fermi kannst Du nutzen, wenn es die Karten denn zu kaufen gibt?
Mit einer HD5870 hättest Du momentan die schnellste verfügbare Single-GPU-Karte mit kompletter DX11-Unterstützung. Das könntest Du jetzt nutzen ;)
Und ich denke kaum, daß man die innerhalb der nächsten 2 oder 3 Monate entsorgen muß, weil sie nun zu gar nichts mehr taugt :rolleyes:
Von den Features der Fermi-Hardware wie den Caches oder einem einheitlichen Adressraum hat der Endanwender doch erstmal genau genommen gar nichts. Spiele werden dadurch weder schneller noch schöner. Und es ist ja nicht so, daß man mit Fermi mit einem mal magischerweise Sachen machen kann, die auf ATI-Hardware nicht auch gehen würde.
Man macht es hauptsächlich Software-Entwicklern einfacher bestimmte Sachen zu implementieren. Und das ist eher eine Frage der Tools und der Software die nvidia bereitstellt und weniger eine Frage der Hardware. Denn sooo viel bleibt unter dem Strich dann doch gar nicht übrig, wenn man nach den Vorteilen der Hardware schaut.
Und viele GPGPU-Entwickler werden sich hüten, irgendwelche Sachen zu machen, die nur auf Fermi laufen und die installierte Basis von allen anderen nv-Karten zu vernachlässigen. Insofern gibt Fermi eher das Grund-Level vor, was GPGPU in 2 bis 3 Jahren können und vielleicht dann auch machen wird. Trotzdem wird das selbst dann noch ein kleiner Markt gegenüber den "traditionellen" Anwendungen sein.
Da werdet ihr von dem Herren Winterraven wohl kaum eine vernünftige Antwort bekommen, er ist ja nicht gerade für seine neutrale Meinungsbildung bekannt. :D
Vermutlich ist er noch so gefesselt von 3D-Vision und PhysX dass er an kaum etwas anderes denken kann...
Vielleicht ist er auch von der Filterqualität beeindruckt, während die Konkurrenz sich damit abmüht ist ihr Niveau von vor 7 Jahren zu erreichen.
tombman
2009-10-09, 19:10:04
Man kann ja auch von etwas beeindruckt sein, was man nicht selbst nutzt :rolleyes:
Fermi ist ein Grundstein und nähert sich mit großen Schritten einer Cpu- da bin ich auch beeindruckt. Langsamer als eine HD5870 wird er auch nicht sein, also :up:
[MK2]Mythos
2009-10-09, 19:26:26
Diese ganzen Vorschusslorbeeren nerven irgendwie ein wenig, vorallem führen sie nur wieder zu Frustration wenn die in den Himmel gelobte Karte dann doch nicht die Wunderwaffe der bevorzugten Grafikschmiede ist.
Ich finde solche Aussagen wie "ich bin beeindruckt vom GT 300" wirklich ulkig, da wird ein Pappmodell der Presse gezeigt, noch etwas zu der für die Spielerfraktion relativ uninteressanten Daten PR - opagiert. Und die "Fanboys" schlagen Salti.
Letztendlich zählt doch nur die Bildqualität und fps, fps und nochmal fps. Wer dann behauptet, ihn würden die fps nicht interessieren da er ja keine Schwanzverlängerung nötig hätte, der macht sich eh unglaubwürdig. :D
Langsamer als eine HD5870 wird er auch nicht sein, also :up:Solange man nicht die DX11 Leistung mit dem simulierten Tesselator kennt, wäre ich mit solchen Aussagen seeehr vorsichtig ;-)
Mythos;7587192']
Letztendlich zählt doch nur die Bildqualität und fps
Deshalb steht GT200 im Vergleich noch sehr gut da.
PS: Ersetze fps mit etwas anderem, seit AFR muss ein neuer Begriff her.
tombman
2009-10-09, 19:48:01
Solange man nicht die DX11 Leistung mit dem simulierten Tesselator kennt, wäre ich mit solchen Aussagen seeehr vorsichtig ;-)
Als ob der Tesselator oder irgendwas von DX9 Abweichendes in irgendeinem Spiel vor PS4/Xbox720 je vorkommen würde ;D
Langsamer als eine HD5870 kann Fermi gar nicht sein, denn dann wäre es eine GTX285 ;D;D;D
AnarchX
2009-10-09, 19:52:13
Als ob der Tesselator oder irgendwas von DX9 Abweichendes in irgendeinem Spiel vor PS4/Xbox720 je vorkommen würde ;D
Dirt 2, Stalker CoP, Alien vs Predato (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7550485#post7550485)r sind alles Titel die in naher Zukunft auf Tesselaton setzen werden.
Und auch auf XBox 360 und PS3 dürfte es in Zukunft Tesselation geben bzw. gibt es schon.
Ob eine mögliche Software-Tesselation @ Fermi hier schon von Nachteil ist, ist natürlich eine andere Frage.
mapel110
2009-10-09, 19:55:16
Ist das überhaupt bestätigt, dass es keine Tesselation in Hardware geben wird?
btw wie verhält sich das dann mit der Mindestgeschwindigkeit, die Directx vorschreibt?
Sonst könnte ja schließlich Intel ihre CPUs als DX11-Beschleuniger verkaufen. Können ja auch alles berechnen. Oder wurde diese Forderung mit DX11 gekippt?
Afaik waren 10fps @640x480 Minimum. Wenn dieses Minimum nicht erfüllt würde, könnte man sämtliche kleinen Ableger von Fermi nicht mehr als DX11-Chips verkaufen. Also selbst wenn es "emuliert" wird, kann es nicht langsam sein.
Langsamer als eine HD5870 kann Fermi gar nicht sein, denn dann wäre es eine GTX285 ;D;D;DAMD Fans sind bei HD5870 +40% schon vollzufrieden. ;)
Irgend eine Begrüng werden sie schon finden. Und seis die Hoffnung, die Hemlock, also 2x taktreduzierte RV870 schürren wird.
Ist das überhaupt bestätigt, dass es keine Tesselation in Hardware geben wird?
Bezweifel ich, solange vorm Launch.
N0Thing
2009-10-09, 20:00:20
Da könnte Neliz mit Q2/2010 gar nicht falsch gelegen haben.
Kann hier mal kurz jemand einstreuen wer Neliz ist und warum er eventuell über den Stand der Dinge besser Bescheid weiß, als manch anderer?
Ich lese zwar hin und wieder im B3D-Forum mit, kann mich da aber nicht anmelden und bekomme deshalb von dort auch nicht immer mit, welche Hintergründe die einzelnen Stammuser haben.
AnarchX
2009-10-09, 20:02:56
Kann hier mal kurz jemand einstreuen wer Neliz ist und warum er eventuell über den Stand der Dinge besser Bescheid weiß, als manch anderer?
Neliz steht in Verbindung mit CJ und dieser ist wohl eher mit AMD verbunden und bekommt über diese auch an ein paar NDA-NV-Daten.
Heimforum von diesen Personen ist: http://gathering.tweakers.net/forum/list_topics/8
LovesuckZ
2009-10-09, 20:02:57
Ist das überhaupt bestätigt, dass es keine Tesselation in Hardware geben wird?
Laut Rys gibt es noch zusätzliche Hardwre - es ist also keine 100% Softwarelösung.
Solange man nicht die DX11 Leistung mit dem simulierten Tesselator kennt, wäre ich mit solchen Aussagen seeehr vorsichtig ;-)
Kratzt doch nicht die Bohne, da DX11 implementationen noch laange auf sich warten lassen dürften. Is ja extra Entwicklungsarbeit, und ne langsame Portierung von Konsolenspielen lässt sich damit auch nicht kaschieren *g
Die 1. DX11 Generation ist wieder die erste richtig heftige DX10 Speed Generation (wie G80 für DX9 war).
Winter[Raven]
2009-10-09, 22:01:23
@ Gipsel
Ich spreche nicht von Fermi als Gamerkarte, sondern von dem Fermi fürs GPU computing. Fermi ist ja an sich HW + Software als Gesamtpaket. Man favorisiert ja auch die Plattform die am komfortabelsten ist oder?
Die technischen Spielereien und Nutzung werden für den Spieler im Endeffekt auch nicht ankommen.
Wer JETZT Brutalperf. haben will greift ohne Bedenken zu einer AMD Gpu, da man hier nichts wirklich falsch machen kann.
Die Gpus sind nicht vergleichbar, da hier zwei verschiedene Märkte angezielt werden. Natürlich versucht Nvidia zwei Hasen mit einem Schuss zu erlegen, aber irgendwas wird leider darunter leiden müssen.
//EDIT: Wenn Fermi schneller wird als AMD wird man auch für die zusätzlichen Spielereien blechen müssen, ob es einem was nutzt oder nicht.
Also nochmal, damit keiner es falsch versteht: Ich für mich sehe die Fermi ist als Fermi … eine Architektur die als Meilenstein durchgehen könnte.
Neben BQ und Fps zählt auch der Treibersupport. Und nachdem ich vor 1,5 Jahren meine erste Ati (4850) gekauft habe, welches ein hervoragendes Preis/Leistungsverhältnis hatte, bin ich von den Treiber doch genervt. Bei vielen Spielen muß man sich bei Release mit kleinen Bugs in Form von Rucklern, flackernden Texturen, fehlerhaften Pixeln oder CTD herumärgern. Wenn man Glück hat kommt ein Hotfix, ansonsten dauerts länger bis es mit einem neuen Treiber gefixt wird. Und dann laufen auf einmal ältere Spiele, die vorher noch einwandfrei liefen, wieder nicht mehr so, wie sie sollen.
Deshalb warte ich auch auf Nvidia. Da laufen die Spiele einfach von Beginn an runder. Das einzige was mich bei Ati halten könnte, wäre ein entsprechend besseres Preis/Leistungsverhältnis.
pervert
2009-10-09, 22:20:43
Ich lese hier immer die bisher hochgelobten GPGPU Leistungen der Fermi Architektur bringen dem Spieler nichts... Ist das so??
Wozu dann die ganzen Physik Demos in diesem Zusammenhang, sind damit nicht auch wesentlich leistungsfähigere Physx Effekte in Spielen denkbar?!
Und viele GPGPU-Entwickler werden sich hüten, irgendwelche Sachen zu machen, die nur auf Fermi laufen und die installierte Basis von allen anderen nv-Karten zu vernachlässigen.
Und wieso sollen deren Entwicklungen nicht nur einfach auf Fermi deutlich schneller laufen bzw dessen Vorzüge nutzen und trotzdem noch kompatibel zu älterer Hardware sein? Ich denke mal die Industrie ist richtig heiß auf Fermi. Die interessiert es herzlich wenig was alte Hardware so kann oder wo ATI bleibt, die wollen einfach die beste Leistung für ihre Vorhaben.
Neben BQ und Fps zählt auch der Treibersupport. Und nachdem ich vor 1,5 Jahren meine erste Ati (4850) gekauft habe, welches ein hervoragendes Preis/Leistungsverhältnis hatte, bin ich von den Treiber doch genervt. Bei vielen Spielen muß man sich bei Release mit kleinen Bugs in Form von Rucklern, flackernden Texturen, fehlerhaften Pixeln oder CTD herumärgern. Wenn man Glück hat kommt ein Hotfix, ansonsten dauerts länger bis es mit einem neuen Treiber gefixt wird. Und dann laufen auf einmal ältere Spiele, die vorher noch einwandfrei liefen, wieder nicht mehr so, wie sie sollen.
AMEN, AMEN, AMEN!!!
Hatte zu X1900 Zeiten EXKAT die gleichen Erfahrungen gemacht und dann immer festgestellt, komisch auf NV läufts wie geschmiert! GOTT wie oft habe ich mich über Ruckler oder Grafikfehler geärgert und stundenlang genervt in Foren abgehangen deswegen?!!
LovesuckZ
2009-10-09, 22:27:23
Lass sie reden. nVidia sagt zZ, dass Fermi wesentlich effizienter bei Physik-Berechnungen über die GPU ist. Dazu sind mit OpenCL und DC zwei APIs auf dem Markt, die eben die GPGPU Fähigkeiten ansprechen.
Winter[Raven]
2009-10-09, 22:39:04
Kleiner Nachtrag, die wesentliche und nutzbare Verbesserung wird PhysX sein... Batman @ PhyX @ High wird bestimmt interessant.
Gipsel
2009-10-09, 22:42:33
;7587515']@ Gipsel
Ich spreche nicht von Fermi als Gamerkarte, sondern von dem Fermi fürs GPU computing. Fermi ist ja an sich HW + Software als Gesamtpaket.
...
Also nochmal, damit keiner es falsch versteht: Ich für mich sehe die Fermi ist als Fermi … eine Architektur die als Meilenstein durchgehen könnte.
Rede ich chinesisch? Ich habe doch ein paar ganz klare Fragen gestellt. Bekomme ich da außer Gelaber und Gefasel auch noch eine klare Antwort? Der letzte Satz reißt es echt raus: "Also nochmal, damit keiner es falsch versteht: Ich für mich sehe die Fermi ist als Fermi … eine Architektur die als Meilenstein durchgehen könnte." Findest keine Worte oder was? :rolleyes:
Na dann möchte ich mal eines wissen: Von welchen Features Fermis bist Du beeindruckt? Welche davon kannst Du denn jetzt nutzen? [..] Welche Hardware-Features von Fermi kannst Du nutzen, wenn es die Karten denn zu kaufen gibt?
Du schwärmst von der Fermi-Architektur, ich möchte einfach nur wissen wovon genau!
Gipsel
2009-10-09, 22:43:59
;7587580']Kleiner Nachtrag, die wesentliche und nutzbare Verbesserung wird PhysX sein... Batman @ PhyX @ High wird bestimmt interessant.
Wieso habe ich bloß überlegt ob ich dazuschreibe "und komm' jetzt nicht mit PhysX"?
Gipsel
2009-10-09, 22:53:52
nVidia sagt zZ, dass ...
Nvidia sagt viel zur Zeit. Ich sage, laßt Produkte sprechen!
Daß als doch alles Laber-Rhababer hier. Bevor keiner weiß, wie schnell Fermi wirklich ist, ist das doch alles Kaffeesatzleserei. Es kann ein großer Wurf sein, aber genauso gut auch hart gegen den eigenen Anspruch ankämpfen müssen.
Ailuros
2009-10-10, 07:14:20
Ist das überhaupt bestätigt, dass es keine Tesselation in Hardware geben wird?
btw wie verhält sich das dann mit der Mindestgeschwindigkeit, die Directx vorschreibt?
Sonst könnte ja schließlich Intel ihre CPUs als DX11-Beschleuniger verkaufen. Können ja auch alles berechnen. Oder wurde diese Forderung mit DX11 gekippt?
Afaik waren 10fps @640x480 Minimum. Wenn dieses Minimum nicht erfüllt würde, könnte man sämtliche kleinen Ableger von Fermi nicht mehr als DX11-Chips verkaufen. Also selbst wenn es "emuliert" wird, kann es nicht langsam sein.
Fuer DX11 Tesselation brauchst Du:
hull shader --> ff tessalation unit --> domain shader (hoffentlich stimmt auch die Reihenfolge)
Ich hab nicht die blasseste Ahnung wie es aussieht wenn man den "Mittelmann" hier weglaesst. Bis jetzt konnte ich keine anstaendige Spekulation diesbezueglich lesen. Entweder sie loesen es hauptsaechlich durch sw oder "missbrauchen" andere Einheiten wie z.B. die rasterizing Einheit.
So oder so ist die Geschichte merkwuerdig denn afaik ist die ff Tesselations-Einheit relativ klein; eigentlich nicht der Rede Wert um sie wegzulassen.
***edit: Gipsel wuerdest Du vielleicht eine Spekulation diesbezueglich wagen?
Gipsel
2009-10-10, 12:36:35
***edit: Gipsel wuerdest Du vielleicht eine Spekulation diesbezueglich wagen?
Nein eher nicht. Aber gab es nicht von Rhys die Bemerkung, daß nv vielleicht doch etwas Hardware dafür verbaut hat?
Ich hab nicht die blasseste Ahnung wie es aussieht wenn man den "Mittelmann" hier weglaesst. Bis jetzt konnte ich keine anstaendige Spekulation diesbezueglich lesen.
Na die Folien hier wirst Du doch kennen:
http://www.planet3dnow.de/photoplog/file.php?n=6354&w=l
http://www.planet3dnow.de/photoplog/file.php?n=6355&w=l
http://www.planet3dnow.de/photoplog/index.php?n=6351
Wenn das Ding keinen Tesselator hat, spricht die DX11 API die Karte halt per DX10 an, bzw. das was sie findet.
Fermi ist ja angeblich seit 4 Jahren in Entwicklung, kA wie einfach / schwer das ist, mittendrin eine Tesselator Einheit unterzubringen.
ciao
Alex
deekey777
2009-10-10, 12:56:59
Na die Folien hier wirst Du doch kennen:
http://www.planet3dnow.de/photoplog/file.php?n=6354&w=l
http://www.planet3dnow.de/photoplog/file.php?n=6355&w=l
http://www.planet3dnow.de/photoplog/index.php?n=6351
Wenn das Ding keinen Tesselator hat, spricht die DX11 API die Karte halt per DX10 an, bzw. das was sie findet.
Fermi ist ja angeblich seit 4 Jahren in Entwicklung, kA wie einfach / schwer das ist, mittendrin eine Tesselator Einheit unterzubringen.
ciao
Alex
Dann wäre Fermi kein DX11-Chip.
Ich glaube kaum, dass DX vorschreibt, wie die IHVs ihre Grafikchips zu designen haben, sondern das, was sie ausführen müssen. Wenn sie die Tessellation in "Software" machen wollen, warum nicht?
Die Tessellation ist seit den ersten Gerüchten zu DX10 im Gespräch (also noch vor dem Start der Entwicklung des Fermi), sie gehört ja zu den Features, die gestrichen wurden. Darum ist es sehr schwer vorzustellen, dass jemand bei der Fertigsteullung der DX11-Spezifikationen überrascht war, dass die Tessellation aufeinmal Pflicht ist.
Dann wäre Fermi kein DX11-Chip.
Gut dass Dus ansprichst ... bisher hat das doch auch keiner (bei Nvidia) gesagt ... im Fermi Whitepaper steht nur C++, CUDA, ECC, DP und der ganze andere Kram... Hast Du irgendwo eine nVidia Aussage, die explizit von Fermi & DX11 spricht ?
Ich glaube kaum, dass DX vorschreibt, wie die IHVs ihre Grafikchips zu designen haben, sondern das, was sie ausführen müssen. Wenn sie die Tessellation in "Software" machen wollen, warum nicht?
Jo kann natürlich auch sein, aber der Anfang der Diskussion war ja, wie performant so eine Lösung wäre. Wenn man per Software die SPUs dafür bräuchte, würden dieselbigen dann nicht mehr zur restlichen Grafikberechnung zur Verfügung stehen, hört sich nicht toll an.
Die Tessellation ist seit den ersten Gerüchten zu DX10 im Gespräch (also noch vor dem Start der Entwicklung des Fermi), sie gehört ja zu den Features, die gestrichen wurden. Darum ist es sehr schwer vorzustellen, dass jemand bei der Fertigsteullung der DX11-Spezifikationen überrascht war, dass die Tessellation aufeinmal Pflicht ist.
Naja, aber nVidia hat sich die ganze Zeit vehement dagegen gesträubt und gesagt, dass das überflüssiger Unfug wäre ... mal abwarten. Hoffen wir das irgendeine Hardware drin ist.
Hier übrigens noch die DX11 Stages, Quelle siehe oben:
http://www.planet3dnow.de/photoplog/file.php?n=6366&w=l
ciao
Alex
Ailuros
2009-10-10, 13:27:10
Nein eher nicht. Aber gab es nicht von Rhys die Bemerkung, daß nv vielleicht doch etwas Hardware dafür verbaut hat?
Ich darf wohl heute sagen dass ich bevor er sein Diagramm veroeffentlicht hat wir eine ziemlich lange Besprechung ueber GF100 privat mit ihm hatte.
Er hat lediglich eine Vermutung basierend auf dem was ihm jemand sagte, aber es klang nie nach einer vollbluetigen Einheit. Ein ff Tesselator sieht IMHLO fuer jemand wie mich vielleicht wie eine komplizierte Einheit aus, aber im Grunde duerfte es doch nicht so sein.
Ein ff Tesselation relatives Patent von PowerVR hier:
http://v3.espacenet.com/publicationDetails/biblio?DB=EPODOC&adjacent=true&locale=en_EP&FT=D&date=20081106&CC=US&NR=2008273034A1&KC=A1
...in der Hoffnung dass es vielleicht helfen koennte.
Alex,
Es gibt keinen besonderen Grund dass sie nicht hull und domain shader calls in den ALUs unterstuetzen. Schau auf Dein verlinktes Diagramm genau hin und man kann sehen dass die ff Tesselationseinheit beim Datenfluss zwischen dem hull und domain shader hockt. Ob und wie man jetzt Tesselation ohne die ff Einheit ausfuehren koennte kann ich nicht wissen, deshalb frag ich ja auch.
***edit: DX11 beinhaltet vereinfacht dank den hull und domain shader, programmierbare Tesselation. Eine fixed function Tesselations-Einheit ist wohl nicht was jemand programmierbar im strengen Sinn nennen koennte.
Die AMD Folien kann man wohl kaum als Grundlage dafür hernehmen um zu bewerten ob "Fermi" DX11 erfüllt geschweige denn wie seine Tesselator Unit aussieht. Es ist nichts bekannt und auf den AMD Folien sind auch kleine Fehler eingebaut bzw. "Ungenauigkeiten".
Es sind großteils Marketing Folien, keine Tec Documents.
[QUOTE=S940;7588404]Hast Du irgendwo eine nVidia Aussage, die explizit von Fermi & DX11 spricht ?/QUOTE]
Jetzt wirds lächerlich.
Nein Fermi wird ein D3D9 Chip. :rolleyes:
Es gibt keinen besonderen Grund dass sie nicht hull und domain shader calls in den ALUs unterstuetzen. Schau auf Dein verlinktes Diagramm genau hin und man kann sehen dass die ff Tesselationseinheit beim Datenfluss zwischen dem hull und domain shader hockt. Ob und wie man jetzt Tesselation ohne die ff Einheit ausfuehren koennte kann ich nicht wissen, deshalb frag ich ja auch.
***edit: DX11 beinhaltet vereinfacht dank den hull und domain shader, programmierbare Tesselation. Eine fixed function Tesselations-Einheit ist wohl nicht was jemand programmierbar im strengen Sinn nennen koennte.
Jojo schon klar, geht nur, was jetzt mit dem TS passiert ...
Anscheinend ist nV aber dran:
http://www.abload.de/img/nvdx11r65f.png
http://developer.download.nvidia.com/presentations/2008/Gamefest/Gamefest2008-DisplacedSubdivisionSurfaceTessellation-Slides.PDF
Auch wenn in dem pdf weiter nichts zu dem TS steht, ausser das von da aus dann u v w Koordinaten für den DS kommen ...
Wie auch immer, nachdem bei nV alles grün ist, und da auch dick "programmable" steht,werden sie es wohl mit CUDA lösen. Auch wenn da was von "fixed function" steht. Bleibt dann halt die spannenden Frage, wieviel Leistung das kosten wird.
@Gast:
Das ist die generische DX11 Pipline .. die gilt für jeden, siehe auch das nV Bildchen oben ... suche den Unterschied ^^
ciao
Alex
Bleibt dann halt die spannenden Frage, wieviel Leistung das kosten wird.
Mal umgekehrt, ist denn gesichert, dass nicht umgekehrt AMDs Hardware-Tessalator ab einem gewissen Punkt limitiert, während Nvidias "Softwarelösung" flexibel skaliert?
Ailuros
2009-10-10, 14:06:11
Jojo schon klar, geht nur, was jetzt mit dem TS passiert ...
Anscheinend ist nV aber dran:
http://www.abload.de/img/nvdx11r65f.png
http://developer.download.nvidia.com/presentations/2008/Gamefest/Gamefest2008-DisplacedSubdivisionSurfaceTessellation-Slides.PDF
Auch wenn in dem pdf weiter nichts zu dem TS steht, ausser das von da aus dann u v w Koordinaten für den DS kommen ...
Wie auch immer, nachdem bei nV alles grün ist, und da auch dick "programmable" steht,werden sie es wohl mit CUDA lösen. Auch wenn da was von "fixed function" steht. Bleibt dann halt die spannenden Frage, wieviel Leistung das kosten wird.
@Gast:
Das ist die generische DX11 Pipline .. die gilt für jeden, siehe auch das nV Bildchen oben ... suche den Unterschied ^^
ciao
Alex
Das befuerwortet aber keinesfalls erstmal Deine Vermutung dass GF100 nicht DX11 kompliant sein wird dank fehlender ff Tesselations Einheit, eher das Gegenteil.
Und wieso ueberhaupt CUDA? Nicht dass ich wuesste wo man so etwas ausfuehren koennte aber wenn schon warum nicht gleich im rasterizer? Schau auf die vorigen Diagramme, es wird dann eben der rasterizer zwei Mal in der Datenreihenfolge benutzt (wenn natuerlich so etwas ueberhaupt Sinn macht).
Obwohl der TS in NV's Diagramm gruen ist, steht auch klipp und klar fixed function an der Seite oder?
Jo das grün vs. fixed function ist der Widerspruch, vielleicht vom copy / paste von ATi übrig geblieben ;-)
Hab noch was gefunden:
http://http.download.nvidia.com/developer/cuda/seminar/TDCI_Tessellation.pdf
Da beschreiben sie Instanced Tessellation in DX10 ... schon bekannt ?
ciao
Alex
P.S. Ich hab nicht gesagt, dass Fermi nicht DX11 kompatibel wird, nur gefragt, ob schon einer was davon offiziell gehört hat. DX11 API kompatibel ist man so oder so ;-)
Ailuros
2009-10-10, 14:27:18
Jo das grün vs. fixed function ist der Widerspruch, vielleicht vom copy / paste von ATi übrig geblieben ;-)
Hab noch was gefunden:
http://http.download.nvidia.com/developer/cuda/seminar/TDCI_Tessellation.pdf
Da beschreiben sie Instanced Tessellation in DX10 ... schon bekannt ?
Ja und?
P.S. Ich hab nicht gesagt, dass Fermi nicht DX11 kompatibel wird, nur gefragt, ob schon einer was davon offiziell gehört hat. DX11 API kompatibel ist man so oder so ;-)
GF100 ist DX11 kompliant auf hw Niveau. Und da gibt es keine "aber"; entweder vollfuellt die hw die DX11 Vorraussetzungen und verdient den X11 Siegel oder eben nicht.
Gipsel
2009-10-10, 14:42:09
Jojo schon klar, geht nur, was jetzt mit dem TS passiert ...
Anscheinend ist nV aber dran:
http://www.abload.de/img/nvdx11r65f.png
http://developer.download.nvidia.com/presentations/2008/Gamefest/Gamefest2008-DisplacedSubdivisionSurfaceTessellation-Slides.PDF
Auch wenn in dem pdf weiter nichts zu dem TS steht, ausser das von da aus dann u v w Koordinaten für den DS kommen ...
Wie auch immer, nachdem bei nV alles grün ist, und da auch dick "programmable" steht,werden sie es wohl mit CUDA lösen. Auch wenn da was von "fixed function" steht. Bleibt dann halt die spannenden Frage, wieviel Leistung das kosten wird.
@Gast:
Das ist die generische DX11 Pipline .. die gilt für jeden, siehe auch das nV Bildchen oben ... suche den Unterschied ^^
Auch die Farben kommen von MS (wie die gesamte Darstellung), da würde ich überhaupt nichts drin lesen. Und der Unterschied programmierbar vs. fixed function sind in den Grafiken übrigens die abgerundeten Ecken für die jeweilige Stage (vergl. z.B. auch Rasterizer) ;)
Ailuros
2009-10-10, 15:14:10
Auch die Farben kommen von MS (wie die gesamte Darstellung), da würde ich überhaupt nichts drin lesen. Und der Unterschied programmierbar vs. fixed function sind in den Grafiken übrigens die abgerundeten Ecken für die jeweilige Stage (vergl. z.B. auch Rasterizer) ;)
Das mit den Ecken war gut; haette ich auch nie selber bemerkt ;)
Irgend eine (zugegeben gewagte) Spekulation zum Thema "ichhabkeineffTesselationsEinheit"? Es ist ja nicht so dass wir Dich zu Verantwortung tragen werden, falls Du etwas falsch eingeschaetzt haben solltest.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.