Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 [46] 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gast
2010-02-11, 10:18:39
Ich darf wohl die Unterhaltung kurz unterbrechen....so wie es aussieht pro wafer nur ein 512SP chip. Das schreit dann tatsaechlich an Design-bedingten Problemen und wenn XMAN26 recht hat und ein B respin kommt erst im April zur fab verschickt, gute Nacht fuer anstaendige Verfuegbarkeit fuer diese fuer zumindest bis Mitte Sommer.

Es ist nonsens, weil es unmöglich ist. Es sollte doch wohl langsam klar sein, dass niemand, aber wirklich niemand über die Lage bescheid weiß. nVidia hält komplett den Mund. Selbst intern wissen darüber nur weniger.

Gast
2010-02-11, 10:21:26
Ich darf wohl die Unterhaltung kurz unterbrechen....so wie es aussieht pro wafer nur ein 512SP chip. Das schreit dann tatsaechlich an Design-bedingten Problemen und wenn XMAN26 recht hat und ein B respin kommt erst im April zur fab verschickt, gute Nacht fuer anstaendige Verfuegbarkeit fuer diese fuer zumindest bis Mitte Sommer.

Das erklärt dann auch mit einem Schlag warum selbst die schweineteuren Tesla-Produkte nur mit 448 SPs kommen. Alles andere außer erhebliche Fertigungsschwierigkeiten kam für mich schon von Anfang an nicht in Frage, denn man verkauft niemals am Desktop hochwertigere Produkte als im Profi-Segment. Ein B1 Stepping, welche meistens auch wieder ein optimiertes B2-Stepping erfordert kann man sicher nicht vor Q3 erwarten.

Gast
2010-02-11, 10:22:39
Es ist nonsens, weil es unmöglich ist. Es sollte doch wohl langsam klar sein, dass niemand, aber wirklich niemand über die Lage bescheid weiß. nVidia hält komplett den Mund. Selbst intern wissen darüber nur weniger.

Du weißt wer XMAN26 ist?

Gast
2010-02-11, 10:23:02
Das große Problem für Nvidia dürfte sein, das sie der 470er Chip in der Production genausoviel kostet wie der 480er, den man aber zu einem wesentlich besseren Preis verkaufen kann.
Mal angenommen jeglicher GF100 ist mindestens teildefekt, bis auf einer von 100.
Dann fallen noch die völlig defekten weg.
Bleibt eine Masse übrig, die nicht zwangsläufig 470er Niveau erreicht. Wenns ein Designproblem ist, müssen noch die Prozessfehler berücksichtigt werden, es fallen quasi noch einige 460er an.
Die Rechnung ist nicht ganz so einfach.

Gast
2010-02-11, 10:23:28
Das erklärt dann auch mit einem Schlag warum selbst die schweineteuren Tesla-Produkte nur mit 448 SPs kommen. Alles andere außer erhebliche Fertigungsschwierigkeiten kam für mich schon von Anfang an nicht in Frage, denn man verkauft niemals am Desktop hochwertigere Produkte als im Profi-Segment. Ein B1 Stepping, welche meistens auch wieder ein optimiertes B2-Stepping erfordert kann man sicher nicht vor Q3 erwarten.

Hä? Natürlich: Geforce 8800 Ultra, GTX285. Alle waren "hochwertiger" als das Teslaprodukt...

Gast
2010-02-11, 10:29:05
Hä? Natürlich: Geforce 8800 Ultra, GTX285. Alle waren "hochwertiger" als das Teslaprodukt...

Sie hatten nur geringfügig mehr Takt. Ähnliches erwarte ich auch bei Fermi, vielleicht abgesehen von Phantomkarten. Hätte man genügend 512SP-Chips gäbe es jedenfalls nicht den geringsten Grund die teuren Tesla-Karten zu beschneiden.

Gast
2010-02-11, 10:34:13
Sie hatten nur geringfügig mehr Takt. Ähnliches erwarte ich auch bei Fermi, vielleicht abgesehen von Phantomkarten. Hätte man genügend 512SP-Chips gäbe es jedenfalls nicht den geringsten Grund die teuren Tesla-Karten zu beschneiden.

Die Spezifikation von Tesla steht seit mindesten Anfang November. Du willst also behaupten, sie wussten da schon wie die Yields 7 Monate später aussehen, ja? Müssen einige Zauberer dabei sein...
Abgesehen davon ändert sich die Produktepalette dauernd: Beim GT200 gab es keine Teslaversion. Erst mit dem GT200b wurden sie eingeführt. Dazu sollen sie alle unter 225 Watt bleiben, wodurch Kompromisse notwendig sind. Die 8x Leistungsverbesserung bei DP wurde von anfang versprochen - und das ohne richtiges Produktionsmaterial zu haben.
Sry, aber deine Annahme ist falsch.

Gast
2010-02-11, 10:42:58
Die Spezifikation von Tesla steht seit mindesten Anfang November. Du willst also behaupten, sie wussten da schon wie die Yields 7 Monate später aussehen, ja? Müssen einige Zauberer dabei sein...
Abgesehen davon ändert sich die Produktepalette dauernd: Beim GT200 gab es keine Teslaversion. Erst mit dem GT200b wurden sie eingeführt. Dazu sollen sie alle unter 225 Watt bleiben, wodurch Kompromisse notwendig sind. Die 8x Leistungsverbesserung bei DP wurde von anfang versprochen - und das ohne richtiges Produktionsmaterial zu haben.
Sry, aber deine Annahme ist falsch.

Wenn es ein Designfehler ist wonach es ja aussieht dann weiß man das schon lange. Ein neues B-Stepping entsteht nicht von heute auf morgen, da heißt es zurück in die Designabteilung und alle Metallayer neu entwerfen. Die A2/A3-Steppings waren dann wohl nur zur Schadensbegrenzung gedacht und um solange bis das B-Stepping fertig wird zumindest teildeaktivierte Chips verkaufen zu können. Die 225W TDP-Grenze ist für mich keine brauchbare Begründung, es ist immer energieeffizienter alle Einheiten zu aktivieren und mit Takt und Spannung herunter zu fahren. Es bestätigt sich mehr und mehr das NV Probleme mit dem Design hat und der 40nm Prozess höchstens eine Teilschuld trägt.

Gast
2010-02-11, 10:44:13
Hätte man genügend 512SP-Chips gäbe es jedenfalls nicht den geringsten Grund die teuren Tesla-Karten zu beschneiden.
Und du weisst ganz genau?
Nvidia gibt bisher nur die FLOPs an, nicht die Cuda Core Zahl.

Gast
2010-02-11, 10:47:45
Wenn es ein Designfehler ist wonach es ja aussieht dann weiß man das schon lange. Ein neues B-Stepping entsteht nicht von heute auf morgen, da heißt es zurück in die Designabteilung und alle Metallayer neu entwerfen. Die A2/A3-Steppings waren dann wohl nur zur Schadensbegrenzung gedacht und um solange bis das B-Stepping fertig wird zumindest teildeaktivierte Chips verkaufen zu können.
Das würde bedeuten, das man bereits längere Zeit am B Respin arbeitet, während parallel A2/A3 durchrauscht.

Wozu sollten sie an A2/A3 sitzen und nicht von vorne anfangen, wenn sie das Problem kennen, das ist albern.
Im Schlimmsten Fall ist es erst mit A2 richtig klar geworden, im Besten Fall schon mit A1.

Gast
2010-02-11, 10:50:36
Wenn es ein Designfehler ist wonach es ja aussieht dann weiß man das schon lange.

Es ist kein Designfehler. Das Problem ist wie immer, dass Leute Dinge annehmen, die unmöglich sind. Errinnert ein bisschen an das Mittelalter.
Die Aussagen von den XMAN Typen machen keinen Sinn. Entweder ist das komplette Design im Arsch, wodurch ein Deaktivieren von zwei SM keine Problemlösung darstellen kann oder der Prozess kommt nicht wie gewünscht in Gange. Tesla soll mit 448 SP@1400MHz kommen. Das ist ein sehr hoher Takt für einen angeblich problembehafteten, teildeaktivieren Chip. 8800GTS lief mit 96SP@1200MHz und GTX260 mit 196@1242Mhz.

Gast
2010-02-11, 10:54:28
Eine weitere Anmerkung: 448SP entsprechen 14,2% weniger gegenüber 512. Die 8800GTS hatte 33% weniger Cluster und die GTX260 mit 196SP noch 22%. Wie kann es also sein, dass Fermi mit diesen massiven Problemen trotzdem besser darsteht?

Gast
2010-02-11, 10:56:18
Und du weisst ganz genau?
Nvidia gibt bisher nur die FLOPs an, nicht die Cuda Core Zahl.

Die 448SPs sind von NV bestätigt.

BTW, hier eine genauere Beschreibung:

Layout problem that didn't show up in testing but showed up during manufactoring. I dont know the process involved from design to tapout to making final silicon, but something somewhere along the way was messed up and didn't show up til final silicon was completed. Given it hasn't fixed itself in A3s, it would seem to be a layout issues causing the failures of 512SP parts.

http://forum.beyond3d.com/showpost.php?p=1392695&postcount=3837

Gast
2010-02-11, 10:59:27
Die 448SPs sind von NV bestätigt.

BTW, hier eine genauere Beschreibung:

http://forum.beyond3d.com/showpost.php?p=1392695&postcount=3837

Das ist keine genaue Beschreibung. Dort steht nur "Layout Problem". Abgesehen davon finde ich diesen Kommentar besser:

A layout problem that's solved by disabling two SM's? What kind of layout problem is that....

Und wurde von ihm noch nicht beantwortet. ;)

Gast
2010-02-11, 11:07:09
Alles höchst spekulativ. Ich kann mir auch nicht vorstellen ein 512SP Chip aus einem Wafer. XMAN sagt mir nix, kenne nur die X-Men;)

Gast
2010-02-11, 11:07:55
Was dann die Frage, ob es sich bei den bisher vorgeführten GF100-Karten um eine vollwertige 512SP Version handelte oder nicht nur noch interessanter macht.

Sorkalm
2010-02-11, 11:19:56
Die Aussagen von den XMAN Typen machen keinen Sinn. Entweder ist das komplette Design im Arsch, wodurch ein Deaktivieren von zwei SM keine Problemlösung darstellen kann oder der Prozess kommt nicht wie gewünscht in Gange.

Tja, wenn aber immer noch ca. 1% der Chips mit allen 512 SPs läuft, dann ist das wäre das ja nicht ausgeschlossen, sondern nur unwahrscheinlich. Wenn jede SM mit ner bestimmten Wahrscheinlichkeit nicht funktioniert (wären bei Gleichverteilung und 16 SM 25%), dann erhöht die Ausbeute die Deaktivierung von SMs natürlich beträchtlich.
Wobei es auch da mit 448 SPs noch nicht so prall aussieht, wieder bei angenommener Gleichverteilung da ist man immer noch nur bei knapp 20%.

Aber naja, hängt sowieso viel davon ab, ob die Aussage stimmt oder nicht. ;)

Gast
2010-02-11, 11:31:56
Tja, wenn aber immer noch ca. 1% der Chips mit allen 512 SPs läuft, dann ist das wäre das ja nicht ausgeschlossen, sondern nur unwahrscheinlich. Wenn jede SM mit ner bestimmten Wahrscheinlichkeit nicht funktioniert (wären bei Gleichverteilung und 16 SM 25%), dann erhöht die Ausbeute die Deaktivierung von SMs natürlich beträchtlich.


Nein, das Deaktivieren erhöht die Ausbeute nicht, da es keine 512 Parts gibt. Da wir im jetzigen Zustand irgendwas von 50% verwendbarer Chips ausgehen können, liegt die Anzahl der 512 Parts bei unter 1 pro Wafer - also nicht existent. Das heißt, dass eine 0 Ausbeute von voll funktionierenden Chips vorliegt.
Und das ist unmöglich. Das wäre ein Designproblem, das nicht mit Metal Respins zu lösen ist. Sie hätten nie und nimmer zwei Respins durchgeführt, sondern wären direkt wieder zurück in die Designphase gegangen.

Sorkalm
2010-02-11, 12:05:21
Nein, das Deaktivieren erhöht die Ausbeute nicht, da es keine 512 Parts gibt. Da wir im jetzigen Zustand irgendwas von 50% verwendbarer Chips ausgehen können, liegt die Anzahl der 512 Parts bei unter 1 pro Wafer - also nicht existent. Das heißt, dass eine 0 Ausbeute von voll funktionierenden Chips vorliegt.

Dafür gibts doch gar keine Quelle? Im Post den Ail gepostet hat steht was von einem 512er-Chip pro Wafer im Schnitt! Wie du da auf kein 512-Part kommst, ist mir Schleierhaft.

Ailuros
2010-02-11, 12:28:14
Man kann sich aber auch vieles schön reden.
Es sieht immer bescheiden aus, wenn beim Aufzeigen eigener Fehler, schnell auf die Fehler anderer verwiesen wird.
Das hilft keinem. Davon werden die Fehler nicht weniger relevant.
Deine ganze Aufzählung erinnert an einen Konflikt zwischen Mann und Frau, wo beim Aufzeigen NEUER Problem, schnell Alte hervorgekramt werden. Das hat aber für das JETZIGE Problem 0,0 Relevanz.
Atme doch erst mal wieder durch Junge ;)

Ich hab mit FUD auf FUD geantwortet. Die Mehrzahl der Fragen sind und bleiben nichtdestominder legitim wie ich von Anfang an sagte. Ich war auf jegliche Reaktionen vorbeiret als ich den Post schrieb, ueberhaupt von jemand wie Dir.

Deine Antwort auf dieses Zitat, finde ich schon wieder Lustig.
Dass das so ist, ist schon klar ABER die Frage geht in eine ganz andere Richtung!
Weshalb wird gerade nur dieser Teil gezeigt? Ist der Rest so schlecht?
Genau das ist die Frage seitens AMD UND vieler User.

Kann die durchschnittliche Leistung einer GF100 im insgesamten Durchlauf vom Unigine demo niedriger sein als bei einer 5870? Da man eine cutscene benutzt hat ist jeglicher insgesamte Leistungsunterschied wohl nicht bei den 60% von diesem Ausschnitt. So viel sollte man auf Anhieb schon verstehen koennen, wenn man sich ueberhaupt erstmal ernsthaft mit synthetischem benchmarking beschaeftig hat.

Das nun PR Marketing dahinter steckt, macht die Sache nicht besser.
Die Frage ist also durchaus berechtigt.

Ich hab dieses Thema mit dem spezifischen Herren in Echtzeit in aller Oeffentlichkeit besprochen. Als ich ihn fragte ob ich um Tesselations-Staerken bzw. Schwaechen testen will lieber einen Tesselations-limitierten oder einen Fuellraten-limitierten Fall zur Hand nehmen sollte war die Antwort klipp und klar das erste.

Wenn man das Produkt auf Laufen hat, weshalb nicht alles zeigen?
Gerade für NV ein ungewohntes Bild, da sie ganz gerne auf die "Kacke" hauen, wenn sie denn wirklich den passenden Hammer dafür haben.

Damit die AMD fans Grund zum meckern haben. Ja sie haetten neben der cutscene auch die insgesamten Heaven Resultate beilegen koennen und Du oder ich waeren um wieviel genau weiser geworden? Das Unigine Heaven demo ist nach wie vor ein synthetischer benchmark und entweder man interpretiert seine Resultate fuer das was sie wirklich wert sind oder nicht.

Nochmal die cutscene dreht sich um 1 Minute um den idiotischen Drachen; es wird kein einziges Spiel geben wo Du stundenlang nur um eine bloede Statue rennen wirst. So bald Du einsehen kannst wieso diese cutscene von PR/marketing benutzt wurde sind wir schon einen Schritt weiter.

Ich persönlich würde mich freuen, wenn der Fermi richtig gut wird und nur knapp unter der 5970 liegen würde, damit ich endlich die CF Lösung los werde, die, ähnlich SLi, bei manchen Spielen nicht ihre Vorteile zeigen kann.
Allerdings verlieren deshalb wichtige Fragen nicht an relevanz und einige "scheinheiligen" Aussagen der PR Abteilung, werden als solche erkannt und nicht "schön" geredet.

Ich hab keine einzige Verantwortung gegenueber NV, AMD oder jedermans Kaufentscheidungen.

Nein, das Deaktivieren erhöht die Ausbeute nicht, da es keine 512 Parts gibt. Da wir im jetzigen Zustand irgendwas von 50% verwendbarer Chips ausgehen können, liegt die Anzahl der 512 Parts bei unter 1 pro Wafer - also nicht existent. Das heißt, dass eine 0 Ausbeute von voll funktionierenden Chips vorliegt.

Nicht schlecht getroffen was die insgesamten momentan yields betrifft ;) Jetzt nimm mal wieviele operative chips diesem Prozentual entsprechen und rechne auf diesem 2% ab dann kommst Du leicht auf 1.

Und das ist unmöglich. Das wäre ein Designproblem, das nicht mit Metal Respins zu lösen ist. Sie hätten nie und nimmer zwei Respins durchgeführt, sondern wären direkt wieder zurück in die Designphase gegangen.

Es gab zwei metal spins bis jetzt; der erste volle re spin wird erst im April verschickt und das als Testrennen. Frag mich nicht warum TSMC bis zum Januar nicht wusste woran die 40G Probleme lagen denn NV weiss anscheinend momentan auch nicht woran ihre angeblichen 512SP Probleme liegen. Das Problem soll erst nach dem Anfang der Massenproduktion aufgetaucht sein und es macht mir auch keinen besonderen Eindruck da auch AMD mit merkwuerdigen Ueberasschungen nach dem Anfang der Produktion im letzten Jahr zu tun hatte.

PS: einen schoenen Tag noch LS.

Gast
2010-02-11, 12:35:59
uh, der b3d thread klingt aber nicht gut. schade. ich hätte den fermi gerne im regal gesehen, hätte dann die 5830 günstiger gemacht..

@ail

was ich einfach nicht verstehen kann, wieso hat man mit dem 448er offensichtlich eher wenige bis keine probleme und der 512er läuft einfach net. und wenns manufacturing probleme sind in der endfertigung oder was auch immer, würde es auf sowas ähnliches wie damals das v5 6k fiasko hindeuten.

ich wünsche ihnen viel glück. meine amd aktien werden dann wohl noch n bisschen steigen :D

Ailuros
2010-02-11, 12:44:55
was ich einfach nicht verstehen kann, wieso hat man mit dem 448er offensichtlich eher wenige bis keine probleme und der 512er läuft einfach net. und wenns manufacturing probleme sind in der endfertigung oder was auch immer, würde es auf sowas ähnliches wie damals das v5 6k fiasko hindeuten.

Wenn's NV wuesste haetten sie es auch schon korrigiert.

ich wünsche ihnen viel glück. meine amd aktien werden dann wohl noch n bisschen steigen :D

Ist sowieso kein Geheimnis Herr [fu]121Ah ;)

pest
2010-02-11, 12:54:15
Tja, wenn aber immer noch ca. 1% der Chips mit allen 512 SPs läuft, dann ist das wäre das ja nicht ausgeschlossen, sondern nur unwahrscheinlich. Wenn jede SM mit ner bestimmten Wahrscheinlichkeit nicht funktioniert (wären bei Gleichverteilung und 16 SM 25%), dann erhöht die Ausbeute die Deaktivierung von SMs natürlich beträchtlich.
Wobei es auch da mit 448 SPs noch nicht so prall aussieht, wieder bei angenommener Gleichverteilung da ist man immer noch nur bei knapp 20%.


was rechnest du hier so :confused:

Gast
2010-02-11, 13:20:08
Wenn's NV wuesste haetten sie es auch schon korrigiert.
Vielleicht ein Problem mit 'ner 3rd-Party chip design library, wie schon zu Zeiten des R520? Den Fehler zu finden dürfte recht schwierig werden.

tombman
2010-02-11, 13:28:48
Ähm, wollten die im März nicht mit 2 Karten launchen? GTX480 und GTX470?
Soll das heißen, die Presse bekommt GTX480 und GTX470, kaufbar wird aber bestenfalls die 448sp 470er sein?
Wäre neu bei Nvidia, daß das Topmodell nicht als erstes erscheint, oder?

Oder IST die 480er ein 448sp Chip und die 470 noch weiter beschnitten? :confused:

deekey777
2010-02-11, 13:30:09
So liebe Leser, was haben wir gelernt: AMD findet OpenCL so gut, dass sie es nicht komplett in den normalen Treiber packen. Weiterhin haben wir gelernt, dass nVidia sich so gegen offene Standards streubt, dass sie OpenCL aus Protest komplett in den Treiber integrieren...
Im Grunde ist es zum Schreien komisch - wenn es nicht so abartig traurig wäre.
Interessant...
Mal abgesehen davon, dass die AMD-Mitarbeiter mehrmals gesagt haben, dass die aktuelle Implementierung von OpenCL als Teil des SDK und nicht als Treiber suboptimal ist, vergisst hier jemand, dass AMD mit dem SDK die OpenCL-Unterstützung für CPUs und Radeons liefert, was Nvdia nicht macht. Dabei ist AMD der einzige Anbieter von OpenCL für x86-Prozessoren (Apple zählt nicht).
Will jemand OpenCL auch auf seiner CPU laufen lassen, so ist er auf das Stream SDK angewiesen. Hätte AMD die nötigen DLLs in den Treiber integriert und diese in den System32-Ordner installiert, so wäre es zu Problemen gekommen, wenn man eine Gerforce im Rechner hat...
Also bietet AMD OpenCL lieber über das für alle verfügbare Stream SDK an. Alles klar? Nein? Mir egal.

Spasstiger
2010-02-11, 13:34:16
dann erhöht die Ausbeute die Deaktivierung von SMs natürlich beträchtlich.
Spelling-Nazi-Anmerkung: Erst das Subjekt, dann das Objekt, nicht umgekehrt. ;)

Punktdefekte nimmt man üblicherweise als poissonverteilt an, das wird einem zumindest an der Uni vermittelt. Bei einer Poissonverteilung häufen sich Defekte punktuell.
Für Punktdefekte wurde in meiner Vorlesung das Poisson-Model angenommen.
Die Wahrscheinlichkeit für k Fehler auf einer Fläche A bei einer Defektdichte D ist:
p = (A*D)^k / k! * exp(-A*D)

Wenn man die Wahrscheinlichkeit für einen Chip mit maximal zwei defekten SMs (Punktdefekte) berechnen will, dann muss man die Gesamtfläche, die Fläche eines SMs, die Gesamtzahl an SMs und die Defektdichte kennen. Die ganze Berechnung erfordert außerdem ein wenig Kombinatorik.

pest
2010-02-11, 13:41:49
Bei einer Poissonverteilung häufen sich Defekte punktuell.

wie das?

Spasstiger
2010-02-11, 14:16:38
wie das?
Ich meinte den Satz so: Wenn ein Defekt vorliegt, ist die Wahrscheinlichkeit hoch, dass in der direkten Umgebung ein weiterer Defekt vorliegt.
Ich hab mich auch falsch ausgedrückt. Nicht die Defekte sind poissonverteilt, sondern die Anzahl der Defekte innerhalb einer bestimmten Fläche folgt einer Poissonverteilung.
/EDIT: Kapitel 2.2.4: http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-5031/2.pdf
Man stellte frühzeitig fest, daß die Gleichverteilung der Defekte nicht immer gegeben ist und
man Gebiete auf dem Wafer findet, in denen wesentlich mehr Defekte enthalten sind als in
einem angrenzenden Nachbargebiet. Dieser Effekt ist in der Literatur als Clusterung bekannt
(vgl. [45], [46], [48], [50]-[54], [56], [79]). Die Defektdichte unterliegt also einer örtlichen
Schwankung auf ein und demselben Wafer. Auch ist sie beim Übergang von einem Wafer
zum anderen und von einer Charge zur nächsten nicht konstant.
Die weiteren Ausführungen in diesem Paper decken sich aber nicht ganz mit dem, was ich aus meiner Vorlesung mitgenommen habe. Wir haben die ganze Thematik nur stark vereinfacht betrachetet und lediglich mit dem Poisson-Modell garbeitet.
/EDIT2: Kann es sein, dass man automatisch auf eine Poissonverteilung kommt, wenn man gleichverteilte Defekte in Flächen einer bestimmten Größe zählt? Dann hat die Clusterung tatsächlich nix mit dem Poisson-Modell zu tun und ich hab da was falsch aufgeschnappt oder es wurde etwas falsch vermittelt.

pest
2010-02-11, 14:21:51
Ich meinte den Satz so: Wenn ein Defekt vorliegt, ist die Wahrscheinlichkeit hoch, dass in der direkten Umgebung ein weiterer Defekt vorliegt.

das wäre mir neu, woraus liest du das ab?

die Poisson-Verteilung entsteht als Grenzfall der Binomialverteilung,
d.h. die Ausfall-Wahrscheinlichkeit "pro Punkt" ist unabhängig und konstant.

ja sry für OT, ich wäre an einer kleinen Rechnung bzgl. den 1% interessiert, habe gerade aber nicht die Muse


/EDIT2: Kann es sein, dass man automatisch auf eine Poissonverteilung kommt, wenn man gleichverteilte Defekte in Flächen einer bestimmten Größe zählt? Dann hat die Clusterung tatsächlich nix mit dem Poisson-Modell zu tun und ich hab da was falsch aufgeschnappt oder es wurde etwas falsch vermittelt.

ich denke schon ;)

Man betrachtet ein Raum- oder Zeitkontinuum w (das Bernoulli-Experiment wird sehr oft, sozusagen an jedem Punkt des Kontinuums durchgeführt), 'auf' dem zählbare Ereignisse mit konstanter mittlerer Anzahl g pro Einheitsintervall stattfinden. Nun richtet man den Blick auf ein 'genügend' kleines Kontinuumsintervall Δw, das je nach Experiment einen Bereich, ein Zeitintervall, eine abgegrenzte Strecke, Fläche oder Volumen darstellen kann. Was sich dort ereignet, bestimmt die globale Verteilung auf dem Kontiunuum.

Spasstiger
2010-02-11, 14:41:53
Jetzt sind wir doch glatt auf hohem Niveau ins OT geraten. Aber gut, dass sich die Geschichte für mich jetzt aufgeklärt hat. Das oben verlinkte Paper werde ich mal abspeichern, da stehen ja alle relevanten Modell für die Verteilung von Defekten auf einem Wafer drin.

Es ist nicht unrealistisch, dass man bei 1% Yieldrate für einen 512-SP-Chip auf 10% Yieldrate mit einem 448-SP-Chip kommt. Viel wäre das aber immer noch nicht und bei 3000$ pro Wafer kann man sich erstmal auf gesalzene Preise einstellen, wenn die Yieldraten wirklich so niedrig sind. Da aber ATI offenbar keine größeren Schwierigkeiten mehr mit dem 40-nm-Prozess hat (über 1 Mio. GPUs verkauft) und da NV auch die GT21x-Chips in größeren Stückzahlen bereitstellt, vermute ich, dass NV das Problem mit dem GF100 selbst lösen kann oder schon gelöst hat. An TSMC liegt es jedenfalls nicht.

Ailuros
2010-02-11, 14:52:30
Jetzt sind wir doch glatt auf hohem Niveau ins OT geraten. Aber gut, dass sich die Geschichte für mich jetzt aufgeklärt hat. Das oben verlinkte Paper werde ich mal abspeichern, da stehen ja alle relevanten Modell für die Verteilung von Defekten auf einem Wafer drin.

Es ist nicht unrealistisch, dass man bei 1% Yieldrate für einen 512-SP-Chip auf 10% Yieldrate mit einem 448-SP-Chip kommt. Viel wäre das aber immer noch nicht und bei 3000$ pro Wafer kann man sich erstmal auf gesalzene Preise einstellen, wenn die Yieldraten wirklich so niedrig sind. Da aber ATI offenbar keine größeren Schwierigkeiten mehr mit dem 40-nm-Prozess hat (über 1 Mio. GPUs verkauft) und da NV auch die GT21x-Chips in größeren Stückzahlen bereitstellt, vermute ich, dass NV das Problem mit dem GF100 selbst lösen kann oder schon gelöst hat. An TSMC liegt es jedenfalls nicht.

Natuerlich liegt das SM Problem nicht mehr an TSMC. Sonst bist Du in einigen Deiner Schaetzungen zu pessimistisch und in einigen zu optimistisch. Der Grundpreis eines 40G wafers ist bei $5000 und beide IHVs haben yield spezifische Preisanpassungen. Anders beide bezahlen zwar keine Wucherpreise pro chip mit jeglichen yields, aber keiner bleibt bei nur 5000 stecken oder bezahlt im strengen Sinn pro chip.

Botcruscher
2010-02-11, 14:56:32
Es ist nicht unrealistisch, dass man bei 1% Yieldrate für einen 512-SP-Chip auf 10% Yieldrate mit einem 448-SP-Chip kommt.

Bei einem richtigen Designfehler sehe ich da keinen Zusammenhang. Es könnten auch 60% Yield für den 448-SP-Chip sein, einfach wenn ein Teil fast immer defekt ist aber der Rest ziemlich gut.

Spasstiger
2010-02-11, 15:01:05
Ja, bei einem Designfehler können die Verhältnisse ganz daramtisch anders aussehen als in meiner Schätzung, die nur von Punktdefekten ausgeht. Das Problem seitens TSMC mit den Durchkontaktierungen wurde inzwischen aber behoben, oder?

Gast
2010-02-11, 15:06:53
Was soll das für ein Designfehler sein.
Könnte man gleich auf den ganzen Block verzichten, wär GF100 ein Stücken kleiner.

Ailuros
2010-02-11, 15:19:34
Was soll das für ein Designfehler sein.
Könnte man gleich auf den ganzen Block verzichten, wär GF100 ein Stücken kleiner.

Wie willst Du auf einen jeglichen Block genau verzichten wenn GF100 von Anfang an fuer 16SMs entwickelt wurde?

Gast
2010-02-11, 15:26:17
Stimmt, das geht schlecht.

In wie weit ist es sinnvoll ist, in diese 14% Breite immense Arbeit zu stecken. Es ist doch auch denkbar, das man gar nichts macht, und auf den Block verzichtet.
Die angebliche Teslaankündigung würde darauf hindeuten, das man weiss das man das Problem nicht lösen wird.

Gast
2010-02-11, 15:33:07
Interessant...
Mal abgesehen davon, dass die AMD-Mitarbeiter mehrmals gesagt haben, dass die aktuelle Implementierung von OpenCL als Teil des SDK und nicht als Treiber suboptimal ist, vergisst hier jemand, dass AMD mit dem SDK die OpenCL-Unterstützung für CPUs und Radeons liefert, was Nvdia nicht macht. Dabei ist AMD der einzige Anbieter von OpenCL für x86-Prozessoren (Apple zählt nicht).
Will jemand OpenCL auch auf seiner CPU laufen lassen, so ist er auf das Stream SDK angewiesen. Hätte AMD die nötigen DLLs in den Treiber integriert und diese in den System32-Ordner installiert, so wäre es zu Problemen gekommen, wenn man eine Gerforce im Rechner hat...
Also bietet AMD OpenCL lieber über das für alle verfügbare Stream SDK an. Alles klar? Nein? Mir egal.

Cool und das alles hat nichts, aber garnichts damit zu tun, dass AMD keinen OpenCL Support über ihre normalen, regulären Grafikkartentreiber zur Verfügung stellt. Soviel zu "Open Source".

Gast
2010-02-11, 15:43:44
Dafür gibts doch gar keine Quelle? Im Post den Ail gepostet hat steht was von einem 512er-Chip pro Wafer im Schnitt! Wie du da auf kein 512-Part kommst, ist mir Schleierhaft.

Nein, das wurde von diesem XMAN nicht behauptet. Er sagt, dass 99% aller zurückerhaltenen Chips 448 Parts sind. Daraus ergibt sich, dass die Quote von 512 Parts bei ca. 0,5 pro Wafer liegen. Es macht also die 512 Version non existent. Und das ist nicht möglich.

Dural
2010-02-11, 15:52:59
Ich gehe nicht von einem Design fehler aus, den dann hätte man spätestens mit A2 aufgehört und nicht noch weiter an einem A3 weiter gearbeitet... Da hätte man ja schon beim A1 sehen und reagieren müssen...

Mitterweilen wäre ein GT212 wohl doch ganz gut gewessen :freak:

Aber krass wenn die 480 wirklich nur mit 448SP kommt und die 470 nur mit 384...

Gast
2010-02-11, 15:55:39
Nein, das wurde von diesem XMAN nicht behauptet. Er sagt, dass 99% aller zurückerhaltenen Chips 448 Parts sind. Daraus ergibt sich, dass die Quote von 512 Parts bei ca. 0,5 pro Wafer liegen. Es macht also die 512 Version non existent. Und das ist nicht möglich.
Wieso muss ich jetzt an folgenden Witz denken -

Lehrer: Die Mathearbeit ist sauschlecht ausgefallen, 50% sind unter dem Strich.
Schüler: Aber soviele sind wir doch garnicht?!?!

Kalmar
2010-02-11, 16:31:42
also ich glaube wäre nv in der lage ihre top chips schon in ausreichender qualität und menge zu produzieren würde es doch sinn machen um den leuten das warten schmackhaft zu machen und sie nicht in die arme von amd zu treiben irgendwelche vernüftigen "leak-infos" zu verbreiten.

nv wird irgend nen fieses problem haben wo sie dachten sie lösen das schnell [liefern noch dies jahr] nun aber wohl den fehler net wirklich finden .. dazu noch die Prozessschwierigkeiten [würde der richtig gut laufen würde wohl auch amd mehr Karten unters Volk streuen -außer die nutzen die wenigen Stückzahlen um die chips selber teurer zuverkaufen und machen damit mehr gewinn als wenn sie viele chips raus haun was aber widersinnig langfristig betrachtet wäre also wird da wohl auch was nicht ganz so rund laufen]

etwas zum OT ein paar seiten zurück: was man ganz klar sagen muss ist das die amd-strategie nur den sektor zubeliefern wo die mehrzahl der kunden sind und das absolute highend auszulassen bei grafikarten die richtige entscheidung war und bei cpus wohl ehr nicht so ;-)

Spasstiger
2010-02-11, 16:37:04
Aber krass wenn die 480 wirklich nur mit 448SP kommt und die 470 nur mit 384...
Das glaub ich jetzt nicht. Den Release einer 512-SP-Version wird man sich nicht nehmen lassen, alleine schon, um die Performancekrone im Single-GPU-Segment zurückzuerobern. Und diese Karte dürfte dann auch GTX 480 heißen. Nur wird wohl kaum einer die GTX 480 kaufen können.
Die GTX 470 ist dafür dann möglicherweise mit einem vollen 384-Bit-Speicherinterface und fast denselben Taktraten wie bei der GTX 480 ausgestattet, damit man auch mit der GTX 470 in den meisten Benchmarks vor einer Radeon HD 5870 liegt und diese im 400€-Segment verkaufen kann.

deekey777
2010-02-11, 16:51:43
Cool und das alles hat nichts, aber garnichts damit zu tun, dass AMD keinen OpenCL Support über ihre normalen, regulären Grafikkartentreiber zur Verfügung stellt. Soviel zu "Open Source".
Troll woanders, wenn du keine Ahnung hast.

Deinorius
2010-02-11, 16:55:09
das absolute highend auszulassen bei grafikarten die richtige entscheidung war und bei cpus wohl ehr nicht so ;-)


Bei den CPUs würde ich nicht gerade von einer Entscheidung reden, eher wurde ihnen keine Wahl gelassen.

AwesomeSauce
2010-02-11, 18:03:16
Gilt es eigentlich schon als gesichert, dass GTX480 mit 512CCs antanzen soll? Eventuell sind die ersten beiden (kaufbaren) GF100 SKUs beide mit nur 448CCs ausgestattet und unterscheiden sich nur in den Frequenzen...

Gast
2010-02-11, 18:11:32
Es gab zwei metal spins bis jetzt; der erste volle re spin wird erst im April verschickt und das als Testrennen. Frag mich nicht warum TSMC bis zum Januar nicht wusste woran die 40G Probleme lagen denn NV weiss anscheinend momentan auch nicht woran ihre angeblichen 512SP Probleme liegen. Das Problem soll erst nach dem Anfang der Massenproduktion aufgetaucht sein und es macht mir auch keinen besonderen Eindruck da auch AMD mit merkwuerdigen Ueberasschungen nach dem Anfang der Produktion im letzten Jahr zu tun hatte.


Designprobleme treten nicht erst bei Massenfertigung auf. Die Chips werden monatelang mit Serverfarmen simuliert und erst dann zum Tape-Out gebracht, wenn man dem Simulationsergebnis zufrieden ist.
Aber glaubt ruhig an diese Unmöglichkeit. Positive Überraschungen sind sowieso die schönsten.

mapel110
2010-02-11, 18:14:34
Gilt es eigentlich schon als gesichert, dass GTX480 mit 512CCs antanzen soll? Eventuell sind die ersten beiden (kaufbaren) GF100 SKUs beide mit nur 448CCs ausgestattet und unterscheiden sich nur in den Frequenzen...
Wäre auch denkbar. Aber dann hätte nvidia eben gelogen. Sie sprachen mehrfach von 512 SPs. Deshalb eher unwahrscheinlich.

Hugo
2010-02-11, 18:29:57
Designprobleme treten nicht erst bei Massenfertigung auf. Die Chips werden monatelang mit Serverfarmen simuliert und erst dann zum Tape-Out gebracht, wenn man dem Simulationsergebnis zufrieden ist.
Aber glaubt ruhig an diese Unmöglichkeit. Positive Überraschungen sind sowieso die schönsten.

Du hast keine Ahnung von der Herstellung eines Chips.
Fehleranalyse macht man erst am fertigen Chip auf dem Wafer oder beim Finaltest. Da kenn ich mich genaustens aus!

Spasstiger
2010-02-11, 18:30:04
Designprobleme treten nicht erst bei Massenfertigung auf. Die Chips werden monatelang mit Serverfarmen simuliert und erst dann zum Tape-Out gebracht, wenn man dem Simulationsergebnis zufrieden ist.
Aber glaubt ruhig an diese Unmöglichkeit. Positive Überraschungen sind sowieso die schönsten.
Die Fertigung bei TSMC kann Nvidia in keiner Serverfarm simulieren. Nvidia kennt von dem Prozess lediglich die Designregeln und die Resultate.
Evtl. hat NV bewusst Designregeln verletzt, um einige Probleme bei TSMC zu umschiffen. Dabei treten aber möglicherweise Probleme in einer Chipregion auf.

Gast
2010-02-11, 18:42:25
Die Fertigung bei TSMC kann Nvidia in keiner Serverfarm simulieren. Nvidia kennt von dem Prozess lediglich die Designregeln und die Resultate.

Sie simulieren das Design auf Basis der Regeln und Parameter, die sie von TSMC erhalten. Anders funktioniert es nicht. Das es Fertigungsprobleme gibt, steht in keinem Zusammenhang zu einem Designproblem.
Dieses "es gehen nur 14SM" ist ein Designproblem. Und dieses wäre im Simulator aufgefallen.

Evtl. hat NV bewusst Designregeln verletzt, um einige Probleme bei TSMC zu umschiffen. Dabei treten aber möglicherweise Probleme in einer Chipregion auf.[/QUOTE]

Nein, das macht niemand. Vorallen nicht, wenn man damit Millionen von Dollar verliert.

Du hast keine Ahnung von der Herstellung eines Chips.
Fehleranalyse macht man erst am fertigen Chip auf dem Wafer oder beim Finaltest. Da kenn ich mich genaustens aus!

Also designen sie ihren Chip per Blindflug, ja?

Ailuros
2010-02-11, 18:45:29
Designprobleme treten nicht erst bei Massenfertigung auf. Die Chips werden monatelang mit Serverfarmen simuliert und erst dann zum Tape-Out gebracht, wenn man dem Simulationsergebnis zufrieden ist.

So viel weiss ich selber; wenn aber NV vermittelt dass die Simulationen nichts vorzeigten dann heisst es entweder dass es stimmt oder dass jemand etwas uebersehen hat und es kommt zu billigen Ausreden.

Aber glaubt ruhig an diese Unmöglichkeit. Positive Überraschungen sind sowieso die schönsten.

Klinge ich nach jemand der aus Schadenfreude platzen wuerde wenn es stimmt? Wenn aber die 512-er so verdammt knapp sein sollten nach dem launch wie es momentan aussieht dann ist natuerlich die Eule schuld die rechteckig in ein paralleles Universum furzt und auf keinen Fall NV.

Wenn das 1*512SP/wafer Zeug stimmt dann brauchen sie so viel wafer um ca. 10.000 samples zu erreichen wie AMD von Oktober bis Dezember fuer Cypress und Juniper produzierte.

Hugo
2010-02-11, 19:11:51
Also designen sie ihren Chip per Blindflug, ja?

Beim Design kann man aber nicht alle Prozessbedingten Fehler beseitigen.
Und trotz Simulation ist es möglich nen Fehler im Design zu haben

Spasstiger
2010-02-11, 19:24:51
Nein, das macht niemand.
An der Uni ist das scheinbar Gang und Gebe. Da werden bewusst Designregeln nicht eingehalten, weil man die Effekte sehen und Theorien überprüfen möchte.

Vorallen nicht, wenn man damit Millionen von Dollar verliert.
Wenn man keine Produkte abliefert, verliert man indirekt auch Geld.
Ich weiß ja nicht, wie heiß die Kacke bei NV in der Entwicklungsabteilung am Dampfen ist. ;)

Ailuros
2010-02-11, 19:27:21
Ich weiß ja nicht, wie heiß die Kacke bei NV in der Entwicklungsabteilung am Dampfen ist. ;)

Seit G92 kann man sich daran die Finger verbrennen. Und fuer so einen Kommentar bekomm ich natuerlich keine hitzigen Kommentare von den bekannten Unbekannten der AMD Fanboy-fraktion....

----------------------------------------------------------------

Mal was anderes:

http://www.trefis.com/articles/11149/35-of-nvidias-stock-from-high-end-professional-graphics-cards/2010-02-10

mapel110
2010-02-11, 19:29:10
Ich weiß ja nicht, wie heiß die Kacke bei NV in der Entwicklungsabteilung am Dampfen ist. ;)
Man hat jetzt schon zweimal mit technischen Daten gewedelt, einmal einen Dummy hochgehalten und noch eine Fake-Massenproduktionsmeldung rausgehauen. Da muss schon sehr viel am Dampfen sein. Beim G80 lief das alles ganz anders ab.

Botcruscher
2010-02-11, 19:34:59
Sieht auch nicht gut aus. Wenn AMD mal Kohle in Betreuung und Entwicklung pumpen würde, käme der Profimarkt doch in Bewegung. Gleichzeitig knabbern CPU/GPU-Komplettlösungen den Brot und Butter Lowend-Markt weg. Die nächsten 2 Jahre werden imo recht hart.

Gast
2010-02-11, 20:18:19
An der Uni ist das scheinbar Gang und Gebe. Da werden bewusst Designregeln nicht eingehalten, weil man die Effekte sehen und Theorien überprüfen möchte.

Und nVidia ist an der Uni? Die stecken bald Milliarden in die Entwicklung, da werden die nicht einfach Designregeln ignorieren, um 10sek früher fertig zu sein...


Wenn man keine Produkte abliefert, verliert man indirekt auch Geld.
Ich weiß ja nicht, wie heiß die Kacke bei NV in der Entwicklungsabteilung am Dampfen ist. ;)

Aha. Und deswegen zeigt man TSMC den Mittelfinger und ignoriert ihre Regeln? Nunja, schon erstaunlich, was einige annehmen, wie so eine Fremdfertigung funktioniert.

Beim Design kann man aber nicht alle Prozessbedingten Fehler beseitigen.
Und trotz Simulation ist es möglich nen Fehler im Design zu haben

Und was hat dieses 14 aus 16 Problem mit dem Prozess zu tun? Nichts.

So viel weiss ich selber; wenn aber NV vermittelt dass die Simulationen nichts vorzeigten dann heisst es entweder dass es stimmt oder dass jemand etwas uebersehen hat und es kommt zu billigen Ausreden.

Diesen Fehler vermittelt die Simulation. Denn es handelt sich hier um ein Designproblem, das unabhängig vom Fertigungsprozess existiert.


Wenn das 1*512SP/wafer Zeug stimmt dann brauchen sie so viel wafer um ca. 10.000 samples zu erreichen wie AMD von Oktober bis Dezember fuer Cypress und Juniper produzierte.

Richtig und deswegen ist es nonsens. So etwas gab es noch nie in der Geschichte und nVidia arbeitet seit Ewigkeiten mit großen Dies.

Dural
2010-02-11, 20:37:43
gerade mal drei GTX285 lieferbar, alles andere egal ob GTX260/275/295 Liefertermin unbekannt...

http://nvidia.alternate.de/html/shop/productListing4C.html?cat1=9&cat2=464&cat3=0&&tgid=1895&treeName=Artikel&Level1=Grafikkarten&Level2=PCIe&Level3=GeForce+GTX&

Das alles macht doch keinen sinn... wenn der GF100 so Probleme machen soll wie so liefert man dann keine GT200 mehr aus... :rolleyes:

dildo4u
2010-02-11, 20:41:15
gerade mal drei GTX285 lieferbar, alles andere egal ob GTX260/275/295 Liefertermin unbekannt...

http://nvidia.alternate.de/html/shop/productListing4C.html?cat1=9&cat2=464&cat3=0&&tgid=1895&treeName=Artikel&Level1=Grafikkarten&Level2=PCIe&Level3=GeForce+GTX&

Das alles macht doch keinen sinn... wenn der GF100 so Probleme machen soll wie so liefert man dann keine GT200 mehr aus... :rolleyes:
Nur weil Alternate keine mher bestellt?

http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20275~132_1024~891_GeForce%20GTX%20285&sort=eintr

mapel110
2010-02-11, 20:43:44
Nächste Woche werden wir ja sehen, was nvidia ausgeliefert hat und was nicht. Am 17.02 gibts die Zahlen.

Dural
2010-02-11, 20:44:55
Nur weil Alternate keine mher bestellt?

http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20275~132_1024~891_GeForce%20GTX%20285&sort=eintr

ist dir eigentlich bewusst wie gross alternate und was alles dazu gehört ist? und wenn sie keine mehr ans Lager bestellen müsste der Liefertermin nicht zwingent unbekannt sein...

und bei geizhals genau das gleiche, alles nur GTX285 und nur je eine 260 und 275 lieferbar...

dildo4u
2010-02-11, 20:46:53
und nur je eine 260 und 275 lieferbar...
Da hast du dich whol verklickt und bei 1.7GB Karten geguckt.Alle anderen fallen raus wenn du bei 1GB guckst.


http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20275~891_GeForce%20GTX%20260&sort=eintr

Odal
2010-02-11, 20:50:26
Seit G92 kann man sich daran die Finger verbrennen. Und fuer so einen Kommentar bekomm ich natuerlich keine hitzigen Kommentare von den bekannten Unbekannten der AMD Fanboy-fraktion....


ich dachte der G92 war ein Erfolg oder warum zieht der sich seit 8800 9800 GTS250 durch mehrere "Pseudo" Generationen?

Triskaine
2010-02-11, 21:44:55
ich dachte der G92 war ein Erfolg oder warum zieht der sich seit 8800 9800 GTS250 durch mehrere "Pseudo"Generationen
Jetzt denk mal scharf nach wieso er so lange verwendet wird und nicht schon längst durch etwas neueres ersetzt wurde. :whistle:

Odal
2010-02-11, 22:12:18
weil der G92b mit 231mm² DIE es zumindest problemlos mit der "Pro" Variante (4850) des RV770 mit 256mm² aufnehmen konnte und dafür auch "nur" ein 256Bit PCB und günstigen GDDR3 ram brauchte?

sentinel_first
2010-02-11, 22:22:59
Ich bin mal gespannt, ob die Fermi auch bei Folding@Home pro Watt besser ist (als andere NV), oder ob ATI endlich den Durchbruch (bisher ultra lame) schafft.

Übrigens ist mir aufgefallen, dass der aktuelle Treiber (196.24) auf x16 optimiert ist.

Im x8 - Slot ist meine 285er GTX mit dem neuen Treiber nur noch halb so schnell, im x16 gleichauf.
Mit dem alten Treiber war es fast wayne.

Ailuros
2010-02-12, 07:16:59
ich dachte der G92 war ein Erfolg oder warum zieht der sich seit 8800 9800 GTS250 durch mehrere "Pseudo" Generationen?

Execution ging nach G92 den Bach runter und nicht nur das. Seither gibt es eine Reihe von falschen Entscheidungen und Schlamperei. GT200 haette von Anfang an auf 55nm ausgelegt sein sollen, mobile chips die abgekakt sind haben ihnen einiges gekostet, die Haelfte der GT21x Familie wurde storniert, die andere Haelfte kam zu spaet an und jetzt werkeln sie schon seit einer Ewigkeit am GF100 herum. Laeuft seit G92 wirklich alles nach Plan oder gibt es etliche Stellen wo man sagen kann es haette besser sein koennen? Und ja natuerlich ist es eine unendliche Pechstraene fuer NV und es sind die Sterne schuld....


Diesen Fehler vermittelt die Simulation. Denn es handelt sich hier um ein Designproblem, das unabhängig vom Fertigungsprozess existiert.

Schoen dann hat jemand einfach geschlampt; macht es mir irgend einen Unterschied am Ende wenn sich die Knappheit der 480-er nach dem Launch bestaetigen sollte warum es so weit genau kam?

Richtig und deswegen ist es nonsens. So etwas gab es noch nie in der Geschichte und nVidia arbeitet seit Ewigkeiten mit großen Dies.

Es waere schoen wenn es Unsinn ist. Im Gegenfall bei einer uebermaessigen Seltenheit musst Du mir aber dann auch erklaeren wieso diese vorkommt. Es wird uebrigens wahrscheinlich auch nichts mit Cebit. Fuer den Rest siehe weiter oben.

Gast
2010-02-12, 07:25:49
Es wird uebrigens wahrscheinlich auch nichts mit Cebit.

LOL, wenn es selbst zur Cebit nichts wird kann man sich ja schon auf April einstellen. The never ending Story. Ich bin gespannt ob wir vor Sommer und irgend einem B-Stepping eine erwähnenswerte Anzahl an Karten im Handel sehen werden.

Gast
2010-02-12, 07:36:30
Nur weil Alternate keine mher bestellt?

http://geizhals.at/deutschland/?cat=gra16_512&v=l&plz=&dist=&xf=891_GeForce%20GTX%20275~132_1024~891_GeForce%20GTX%20285&sort=eintr

Es sind mehr 5870 Karten lagernd als bei allen GT200(b)-Karten zusammen. Die Ausrede das Alternate keine mehr bestellt ist da schon ziemlich lächerlich. Offensichtlich liefert NV keine oder zumindest kaum mehr GT200b-Chips aus.

Gast
2010-02-12, 07:38:17
Etwas Frühstücklektüre http://www.theinquirer.net/inquirer/feature/1591589/nvidia-fermi-boat-sorely-missed.

V2.0
2010-02-12, 07:40:22
Wenn das 1*512SP/wafer Zeug stimmt dann brauchen sie so viel wafer um ca. 10.000 samples zu erreichen wie AMD von Oktober bis Dezember fuer Cypress und Juniper produzierte.

Wäre doch ein schönes Desaster. Man fragt sich nur warum an so etwas nicht schon bei A1 oder A2 hätte merken müssen.

Wenn mir jemand sagt, dass 10% alle GF100 als 512Sp Variante ausgeliefert werden, dann glaube ich das gerne.

X.Perry_Mental
2010-02-12, 07:48:17
Es wird uebrigens wahrscheinlich auch nichts mit Cebit.
Liegen die kleineren GPUs der 100er-Baureihe eigentlich noch im Plan, oder wirkt sich der verspätete GF100-Start auch darauf aus?

Ailuros
2010-02-12, 07:53:15
Liegen die kleineren GPUs der 100er-Baureihe eigentlich noch im Plan, oder wirkt sich der verspätete GF100-Start auch darauf aus?

Afaik sind die Dinger nicht davon betroffen und es gibt auch keinen logischen Grund warum sie betroffen sein sollten.

Wäre doch ein schönes Desaster. Man fragt sich nur warum an so etwas nicht schon bei A1 oder A2 hätte merken müssen.

Wenn mir jemand sagt, dass 10% alle GF100 als 512Sp Variante ausgeliefert werden, dann glaube ich das gerne.

GT200@65nm hatte ~63% yields am Anfang seiner Produktion. Frag mal nach wie die Analogie zwischen 280-er und 260-er damals aussah.

X.Perry_Mental
2010-02-12, 08:05:30
Wäre doch ein schönes Desaster. Man fragt sich nur warum an so etwas nicht schon bei A1 oder A2 hätte merken müssen.

Wenn mir jemand sagt, dass 10% alle GF100 als 512Sp Variante ausgeliefert werden, dann glaube ich das gerne.
Ich habs ja ehrlich gesagt immer noch nicht verstanden. Was heißt einer pro Wafer (also grob einer von hundert) denn? Es ist doch ein himmelweiter Unterschied ob nur einer von 100 mit allen 512SPs bei den angestrebten Taktraten läuft oder nur einer defektfrei vom Band kommt.

Ailuros
2010-02-12, 08:12:58
Ich habs ja ehrlich gesagt immer noch nicht verstanden. Was heißt einer pro Wafer (also grob einer von hundert) denn? Es ist doch ein himmelweiter Unterschied ob nur einer von 100 mit allen 512SPs bei den angestrebten Taktraten läuft oder nur einer defektfrei vom Band kommt.

Pro 300mm2 Wafer bekommst Du ungefaehr 104 GF100 dies bei 100% yields. Da die yields aber nicht auf 100% liegen sondern irgendwo in der Mitte bekommst Du von den +/- 50 dies angeblich nur einen 512-er.

=Floi=
2010-02-12, 08:46:22
Ehrlich gesagt ist um die GT21X serie nicht schade. Das sind alles gurken und ohne ein gesundes verhältnis der einheiten zueinander ist das ganze immer sehr unausgewogen und skaliert eher schlecht. Der 96 ALU-chip mit dem schmalen SI ist auch nicht der kracher.

Wenn wir dann 1/2 und 1/4 fermi mit jeweils ~725/1700 sehen würden, dann wäre das wohl eher ein ausgewogener chip.


bisher stimmen keine der negativen gerüchte. zuerst hies es der chip wird beschnitten und es fehlt am takt und nun werden wir wohl einen 725/1700er chip mit 280 watt tdp und 240 watt typical power sehen. Das mit dem einen chip muß auch nicht stimmen und einer ist mehr wie keiner. für den anfang reicht es doch und wenn dann eine ultra auf den markt kommt, dann passt es ja. Es ist dann nicht optimal, aber man kann ihn kaufen und es gibt ihn.

Henroldus
2010-02-12, 08:52:47
Pro 300mm2 Wafer bekommst Du ungefaehr 104 GF100 dies bei 100% yields. Da die yields aber nicht auf 100% liegen sondern irgendwo in der Mitte bekommst Du von den +/- 50 dies angeblich nur einen 512-er.
nicht, dass das hier Verwirrung stiftet, die Wafer haben einen Durchmesser von 300mm ;)

Gast
2010-02-12, 08:52:58
bisher stimmen keine der negativen gerüchte. zuerst hies es der chip wird beschnitten und es fehlt am takt und nun werden wir wohl einen 725/1700er chip mit 280 watt tdp und 240 watt typical power sehen. Das mit dem einen chip muß auch nicht stimmen und einer ist mehr wie keiner. für den anfang reicht es doch und wenn dann eine ultra auf den markt kommt, dann passt es ja. Es ist dann nicht optimal, aber man kann ihn kaufen und es gibt ihn.

1700Mhz hot-clock? In your dreams. ;)
Und welche Gerüchte stimmten denn nicht? Die hohe Leistungsaufnahme hat sich offensichtlich bestätigt, die Fertigungsprobleme scheinen sich auch mehr und mehr zu bestätigen. Und bei einem Chip pro Wafer kannst du das Ding definitiv als Vaporware bezeichnen.

Gast
2010-02-12, 08:56:32
bisher stimmen keine der negativen gerüchte. zuerst hies es der chip wird beschnitten und es fehlt am takt und nun werden wir wohl einen 725/1700er chip mit 280 watt tdp und 240 watt typical power sehen. Das mit dem einen chip muß auch nicht stimmen und einer ist mehr wie keiner. für den anfang reicht es doch und wenn dann eine ultra auf den markt kommt, dann passt es ja. Es ist dann nicht optimal, aber man kann ihn kaufen und es gibt ihn.

AMD liefert Millionen Karten aus und die Verfügbarkeit ist noch immer nicht optimal und du willst behaupten ein einziger 512-SP Chip pro Wafer reicht doch für den Anfang? Die paar Karten werden wohl nicht mal bis nach Europa kommen.

Gast
2010-02-12, 09:25:51
Wenn's NV wuesste haetten sie es auch schon korrigiert.



Ist sowieso kein Geheimnis Herr [fu]121Ah ;)
das nehm ich an. niemand verzichtet gerne auf den produktlaunch und lässt sich in foren als pussyfirma abstempeln.

ach ey, mach mal n aktivierungsmail an meine mailadresse für den account. ich komm da net mehr rein chef! ;)

Gast
2010-02-12, 09:32:41
1700Mhz hot-clock? In your dreams. ;)
Und welche Gerüchte stimmten denn nicht? Die hohe Leistungsaufnahme hat sich offensichtlich bestätigt, die Fertigungsprobleme scheinen sich auch mehr und mehr zu bestätigen. Und bei einem Chip pro Wafer kannst du das Ding definitiv als Vaporware bezeichnen.
Nur weil das Produkt noch nicht da ist heisst das nicht zwingend dass es ein Dominoeffekt an Problemen gibt/gab. Es kann genausogut einfach "nur" die nadel im heuhaufen sein, die man nicht findet, aber der ganze rest drumrum könnte passen.

Laut diversen Personen die offensichtlich mehr knowhow als wir haben, sollten die 1700 ursprünglich als hotclock doch machbar gewesen sein. die leistungsaufnahme wird natürlich hoch sein, aber bei nem ferrari erwartet ja auch keiner dass er mit 5liter auskommt. das ganze gefasel wegen paperlaunch und vaporware interessiert doch eh keinen. wir wollen resultate sehen, bis dahin wärs doch nur fair wenn wir die füsse still halten, zumindest was anschuldigungen usw. angeht. das erwarte ich auch bei amd produkten von den nv fanboys.

@ail

übrigens, da ich immer von fixen ip's eingeloggt bin, ist ja eh klar wer ich bin, kannst mich ja auch taggen :D

Ailuros
2010-02-12, 10:00:19
ach ey, mach mal n aktivierungsmail an meine mailadresse für den account. ich komm da net mehr rein chef! ;)

Wenn ich Deine e-mail Addresse wuesste, wuerde ich auch eingreifen koennen. Probier es mal jetzt falls mein etwas naiver Trick hilft. Im Gegenfall musst Du einen Weg finden Dich mit dem admin in Kontakt zu setzen, denn das was bei Dir als e-mail angegeben ist ist auf jeden Fall keine legitime e-mail Addresse.

Odal
2010-02-12, 10:29:00
Wäre doch ein schönes Desaster. Man fragt sich nur warum an so etwas nicht schon bei A1 oder A2 hätte merken müssen.

Wenn mir jemand sagt, dass 10% alle GF100 als 512Sp Variante ausgeliefert werden, dann glaube ich das gerne.

Das wäre imho auch sehr wenig und kaum eine Grundlage für lukrative Massenfertigung wenn die Ausbeute voll funktionsfähiger chips designbedingt so gering wäre
ich kann mir zwar durchaus erklären das Unzulänglichkeiten im Layout durchaus Chipbereiche schaffen können die die Lauffähigkeit beim benötigten Takt häufig nicht gewährleisten, aber das sowas es bis in die Massenfertigung schafft bzw. erst dort auffällig wird kann ich mir schwer vorstellen.
besonder wenn man sich mal anschaut das ganz gerne mal alte highend chips neu aufgelegt werden '(per reinem shrink) fürs performance segment
Reine Spekulation aber ich glaube nicht das es nur 10% waren die beim GT200 mit vollen 240SP lauffähig waren

Execution ging nach G92 den Bach runter und nicht nur das. Seither gibt es eine Reihe von falschen Entscheidungen und Schlamperei. GT200 haette von Anfang an auf 55nm ausgelegt sein sollen, mobile chips die abgekakt sind haben ihnen einiges gekostet, die Haelfte der GT21x Familie wurde storniert, die andere Haelfte kam zu spaet an und jetzt werkeln sie schon seit einer Ewigkeit am GF100 herum. Laeuft seit G92 wirklich alles nach Plan oder gibt es etliche Stellen wo man sagen kann es haette besser sein koennen? Und ja natuerlich ist es eine unendliche Pechstraene fuer NV und es sind die Sterne schuld....


sicher gabs einige Unzulänglichkeiten, aber imho nichts ungewöhnliches was der Designabteilung in die Schuhe. Der GT200 war in 65nm wenig lukrativ gross ja aber im Prinzip deckte man ja noch mit schlankem 55nm G92b alles bis zur zweitschnellsten Konkurenzkarte ab. Man könnte natürlich darüber sinnen ob diese ganze GPGPU Ausrichtung (die ja angeblich schon mit GT200 begann) nicht ein grosser Fehler ist, und ob man mit einem reinen GPGPU Design für Tesla Karten und einem zweiten schlanken schnellem Gamerdesign nicht besser gefahren wäre?

Ailuros
2010-02-12, 11:03:54
sicher gabs einige Unzulänglichkeiten, aber imho nichts ungewöhnliches was der Designabteilung in die Schuhe. Der GT200 war in 65nm wenig lukrativ gross ja aber im Prinzip deckte man ja noch mit schlankem 55nm G92b alles bis zur zweitschnellsten Konkurenzkarte ab.

Es haette eigentlich nie einen 65nm GT200 geben sollen IMO; dass sie selber nachtraeglich einsehen dass sie gleich auf 55nm haetten setzen sollen hilft mir nichts. Und ja sie haben es sogar oeffentlich zugegeben.

Eventuell kann man hier noch ein Auge zudruecken. Es ist der Rest des vorerwaehnten der mich wundert.

Man könnte natürlich darüber sinnen ob diese ganze GPGPU Ausrichtung (die ja angeblich schon mit GT200 begann) nicht ein grosser Fehler ist, und ob man mit einem reinen GPGPU Design für Tesla Karten und einem zweiten schlanken schnellem Gamerdesign nicht besser gefahren wäre?

Das Transistoren-budget selbst bei GF100 fuer GPGPU ist IMHO nicht so gross dass es die Kosten und Umstaendlichkeit zwei verschiedener Designs wert waere. Den Fehler wird wohl kein IHV machen egal ob AMD, NVIDIA oder Intel in der Zukunft.

Erinnerst Du Dich noch an das hier: http://www.brightsideofnews.com/news/2009/11/3/gpgpu-start-to-take-over-the-hpc-sector-5600-ati-gpus-deployed-in-china.aspx ? Es handelt sich um stinknormale Radeons (X2) und nicht FireGL bei 575MHz getaktet. Ich erfuhr erst gestern dass die Chinesen an einem upgrade interessiert sind, will aber momentan nicht mehr dazu sagen.

NV will den Zugang zu hohen DP Raten nur auf Teslas erlauben? Schoen fuer sie. Und obwohl es seine Logik fuer sich hat, frage ich mich trotz allem so langsam ob diejenigen die Entscheidungen treffen sich etwas flexibler zeigen koennten, denn die Konkurrenz sitzt offensichtlich nicht bloed rum und glotzt ins Leere.

Gast
2010-02-12, 11:08:35
bisher stimmen keine der negativen gerüchte. zuerst hies es der chip wird beschnitten und es fehlt am takt und nun werden wir wohl einen 725/1700er chip mit 280 watt tdp und 240 watt typical power sehen. Das mit dem einen chip muß auch nicht stimmen und einer ist mehr wie keiner. für den anfang reicht es doch und wenn dann eine ultra auf den markt kommt, dann passt es ja. Es ist dann nicht optimal, aber man kann ihn kaufen und es gibt ihn.

Bisher stimmt nichts, es gibt keinen erdenkbaren Grund in diesem Universum, für eine Firma die Leute mit Infos und Fakten zuzuspamen, wenn man sie hätte. Das ist das einzige das bisher an Fermi stimmt :)

Gast
2010-02-12, 12:03:39
Schoen dann hat jemand einfach geschlampt; macht es mir irgend einen Unterschied am Ende wenn sich die Knappheit der 480-er nach dem Launch bestaetigen sollte warum es so weit genau kam?

Aha - geschlampt. Das ist nicht gerade die interessanteste Begründung. Bei solchen Projekten wird doppelt und dreifach sich abgesichter. Das ist keine 1-Mann Entwicklungsabteilung.


Es waere schoen wenn es Unsinn ist. Im Gegenfall bei einer uebermaessigen Seltenheit musst Du mir aber dann auch erklaeren wieso diese vorkommt.

Tja, warten wir doch einfach ab.

Nakai
2010-02-12, 12:39:44
Aha - geschlampt. Das ist nicht gerade die interessanteste Begründung. Bei solchen Projekten wird doppelt und dreifach sich abgesichter. Das ist keine 1-Mann Entwicklungsabteilung.

Naja NV hat seit Ende 2007 rumgeschlampt. Falsche Designentscheidungen, Verspätungen, teure Chips usw...

Man kann nicht so schnell von einer Gen auf die andere alles ändern oder über Board werfen. Falsche Produktentscheidungen wirken sich bis heute aus. NV versucht seit geraumer Zeit neue Märkte zu erschließen.
Ich denke NV strukturiert sich gerade noch um. Ende 2010 sehen wir dann hoffentlich ein effektives NV.


mfg

=Floi=
2010-02-12, 12:40:54
wichtig wäre mal die reine verfügbarkeit des produktes selbst. wenn die 480er512 nicht kommt, dann kann man sie auch nicht kaufen. das ist doch viel schlimmer, wie wenn die stückzahl nicht passt. Auch wenn die geburt schwer ist, kann der chip noch immer eine legende werden.
Wichtig hier ist die neuausrichtung der architektur und der richtige weg für zukünftige produkte. Wenn er aber trotzdem so kommt wie er kommen sollte, dann ist alles in ordnung. Die stuckzahl ist hier sicherlich nicht die maßgebende größe.


bei nv läuft doch viel mehr falsch. Es gab genug entscheidungen, welche nicht so gut und durchdacht waren. eine wirklich gute linie gibt es doch schon länger nicht mehr. Alleine schon das umbennen und die langsamere und schlechtere treiberentwicklung. Man wirbt mit physx und die bessere filterung kehr man unter den teppich etc.


edit
gerade die teuren und großen chips waren besser und ihr geld auch wert. das sehe ich nicht als schlechter an, weil man hier eher geld verdiene kann und über der konkurrenz und dem volumen markt ist.

Gast
2010-02-12, 12:42:01
Naja NV hat seit Ende 2007 rumgeschlampt. Falsche Designentscheidungen, Verspätungen, teure Chips usw...


Aha, interessant: Welche denn? Ich mein, es ist einfach etwas zu behaupten, aber kannst du auch etwas davon belegen?

crux2005
2010-02-12, 13:13:23
Es wird uebrigens wahrscheinlich auch nichts mit Cebit. Fuer den Rest siehe weiter oben.

Ich glaube mindestens die Presse wird etwas sehen. Ob es mehr ist weiß ich nicht.

Gast
2010-02-12, 13:14:02
Aha, interessant: Welche denn? Ich mein, es ist einfach etwas zu behaupten, aber kannst du auch etwas davon belegen?

Was war denn an der Entscheidung GT200 in 65nm zu bringen gut?
Was war daran gut auf GT200 keine Performancechips (bis auf die tollen 40nm) zu bringen, da der Chip schlecht skalierbar ist?
Was ist daran toll den GT200 als ultimativen GPGPU Chip zu vermarkten, obgleich er eine lächerliche DP-Leistung hat?
Was ist denn jetzt toll daran dass es von GF100 erstmal auch keine Performancekarten geben wird, GTX285/75 aber trotzdem verhältnismaßig teuer sind?

Was betrachtest du als Beleg?
Wenn der NV-Marketingmann sagt das es schei... war?

Odal
2010-02-12, 13:25:55
bei nv läuft doch viel mehr falsch. Es gab genug entscheidungen, welche nicht so gut und durchdacht waren. eine wirklich gute linie gibt es doch schon länger nicht mehr. Alleine schon das umbennen und die langsamere und schlechtere treiberentwicklung. Man wirbt mit physx und die bessere filterung kehr man unter den teppich etc.

Das umbenennen (insbesondere 88GT->98GT ohne änderungen, mal die totgeburt hybrid SLI aussen vor gelassen) fand ich auch nicht gut, aber irgendwie mussten die ja eine halbwegs einheitliche Produktlinie bringen...
da hört sich 88GT 8800GTS512 GTX260 GTX280 nicht sonderlich gut an

Das besseres AF nicht umworben find ich nicht ungewöhnlich, denn ausser ein paar 3DClern etc. interessiert sich kaum jemand dafür oder weiss gar was AF überhaupt macht
Features zählen und das ist imho auch gerade das grösste Dilemma
DX11 tönt es überall und genau das hat NV nicht zu bieten

Ansonsten hätte ich mir durchaus noch einen 40nm shrink des GT200 mit höherem takt vorstellen können (wenn es wirklich massive Probleme im Fermi Design geben sollte)

Odal
2010-02-12, 13:32:51
Erinnerst Du Dich noch an das hier: http://www.brightsideofnews.com/news/2009/11/3/gpgpu-start-to-take-over-the-hpc-sector-5600-ati-gpus-deployed-in-china.aspx ? Es handelt sich um stinknormale Radeons (X2) und nicht FireGL bei 575MHz getaktet. Ich erfuhr erst gestern dass die Chinesen an einem upgrade interessiert sind, will aber momentan nicht mehr dazu sagen.

NV will den Zugang zu hohen DP Raten nur auf Teslas erlauben? Schoen fuer sie. Und obwohl es seine Logik fuer sich hat, frage ich mich trotz allem so langsam ob diejenigen die Entscheidungen treffen sich etwas flexibler zeigen koennten, denn die Konkurrenz sitzt offensichtlich nicht bloed rum und glotzt ins Leere.

nachvollziehbar ist das insofern das man sich nicht einen neuerschlossenen Markt bzw. dessen gesonderte Preise gleich kaputt machen will.
Das da nun die Konkurenz kommt und diesen Markt, ohne spezielle Produkte und vorallem Preise, mit abdeckt ist natürlich ungünstig.
Die GPGPU Kuh, kann man als jemand der keine CPUs im herkömmlichen sinne verkauft natürlich gut melken ohne sich selbst Konkurenz zu machen, dumm nur wenn die Konkurenz dann von anderer Seite kommt

Gast
2010-02-12, 13:53:17
Was war denn an der Entscheidung GT200 in 65nm zu bringen gut?

Time-To-Market und Vertrauen in den Prozess. 55nm wurde erst 7 Monate vorher durch den rv670 eingeführt.


Was war daran gut auf GT200 keine Performancechips (bis auf die tollen 40nm) zu bringen, da der Chip schlecht skalierbar ist?

G92b anyone? Schöner Midrange-Chip. Der Rest sollte auf 40nm kommen, der sich vrspätet hat. Das ist wohl kaum die Schuld von nVidia - siehe auch AMD und rv740m...


Was ist daran toll den GT200 als ultimativen GPGPU Chip zu vermarkten, obgleich er eine lächerliche DP-Leistung hat?

Seine DP Leistung entspricht denen der schnellsten CPUs.


Was ist denn jetzt toll daran dass es von GF100 erstmal auch keine Performancekarten geben wird, GTX285/75 aber trotzdem verhältnismaßig teuer sind?

Es gibt nichtmal GF100... Abgesehen davon war es beim G80 und G70 genauso. Sie werden auf 40nm kommen - im Gegensatz zum GT200, wo es keine GT2xx auf 55nm gab.


Was betrachtest du als Beleg?


Ein Beleg, der wirklich stichhaltig ist. Z.B. warum das Perf/mm^2 Verhältnis beim GT200 so viel schlechter ist als beim G92. Und nicht solche Dinge wie oben. Die sind nämlich alle deutlich erklärbar.

Gast
2010-02-12, 14:11:43
Time-To-Market und Vertrauen in den Prozess. 55nm wurde erst 7 Monate vorher durch den rv670 eingeführt.


Genau Das meine ich.
Einen Prozess den der Konkurrent seit mehr als einem halben Jahr einsetzt nicht zu nutzen ist schlicht weg arrogant.


G92b anyone? Schöner Midrange-Chip. Der Rest sollte auf 40nm kommen, der sich vrspätet hat. Das ist wohl kaum die Schuld von nVidia - siehe auch AMD und rv740m...


Das ist super dann noch ein bisschen re-naming bis sich der Chip wieder neu und toll anhört dann kann man ihn auch noch etwas als GF100 lowend verakufen.
Super Sache


Seine DP Leistung entspricht denen der schnellsten CPUs.


Das ist ja ein tolles Argument auf GPUs umzusteigen.
Sie sind gleich schnell, haben höhere TDP und brauchen neue Software gz!


Es gibt nichtmal GF100... Abgesehen davon war es beim G80 und G70 genauso. Sie werden auf 40nm kommen - im Gegensatz zum GT200, wo es keine GT2xx auf 55nm gab.


Ja beim G70 hatte ATI genau die selbe Marktstrategie.
Der G80 hatte sehr wohl Peformancechips(g86 z.B.)


Ein Beleg, der wirklich stichhaltig ist. Z.B. warum das Perf/mm^2 Verhältnis beim GT200 so viel schlechter ist als beim G92. Und nicht solche Dinge wie oben. Die sind nämlich alle deutlich erklärbar.
[/QUOTE]

Was ist daran nicht erklärbar?
Der GT200 hat die DP-Einheiten, größere Caches und die ALUs lassen sich nicht mehr so hoch tackten las auch der Chip selbst, was bei der Größe des Chips nicht verwunderlich ist.
Glaubst du dazu gibt Nvidia eine Stellungnahme ab?

Gast
2010-02-12, 14:21:46
Genau Das meine ich.
Einen Prozess den der Konkurrent seit mehr als einem halben Jahr einsetzt nicht zu nutzen ist schlicht weg arrogant.

Das war nVidia seit dem NV30 arrogant. Denn sie haben immer den langsameren Wechseln durchgeführt: G70 kam auf 110nm, G71 kam 5 Monate später auf 90nm als AMD. Die ersten 80nm Produkte wären auch 6 Monate nach AMD auf den Markt gekommen. Das ersteb65nm Produkt kam 5 Monate nach der XT26xx Karten...
Du siehst, es war Unternehmensphilosophie seit 2003.


Das ist super dann noch ein bisschen re-naming bis sich der Chip wieder neu und toll anhört dann kann man ihn auch noch etwas als GF100 lowend verakufen.
Super Sache

Schön, hat nur nichts mit der Aussage zutun.


Das ist ja ein tolles Argument auf GPUs umzusteigen.
Sie sind gleich schnell, haben höhere TDP und brauchen neue Software gz!

Was soll daran so überraschend sein? Sieht bei AMD nichts anders. Außer, dass deren Tools und Support noch schlechter ist...


Ja beim G70 hatte ATI genau die selbe Marktstrategie.
Der G80 hatte sehr wohl Peformancechips(g86 z.B.)

Die ersten G70 Midrange Chip kamen auf 90nm - 9 Monate später. G84/G86 kamen 6 Monate nach dem G80 auf 80nm. Du siehst, dass die Mid-Range GF100 Karten später erscheinen, ist bei nVidia normal.


Was ist daran nicht erklärbar?
Der GT200 hat die DP-Einheiten, größere Caches und die ALUs lassen sich nicht mehr so hoch tackten las auch der Chip selbst, was bei der Größe des Chips nicht verwunderlich ist.
Glaubst du dazu gibt Nvidia eine Stellungnahme ab?

Bei Perf/mm^2 spielt es keine Rolle, was Transistoren benötigt. Wenn die Leistung mistig ist, dass ist es eine Fehlentscheidung gewesen. Soetwas will ich sehen, wenn von schlechter Ausführung gesprochen wird. Und nicht einfach die Unternehmensphilosophie auf dem Nichts in Frage stellen.

Gast
2010-02-12, 14:36:29
Bei Perf/mm^2 spielt es keine Rolle, was Transistoren benötigt. Wenn die Leistung mistig ist, dass ist es eine Fehlentscheidung gewesen. Soetwas will ich sehen, wenn von schlechter Ausführung gesprochen wird. Und nicht einfach die Unternehmensphilosophie auf dem Nichts in Frage stellen.

Klar diese Transistoren bringen absolut Nichts in 3D und deshalb ist die Perf/Fläche schlechter.

Und ja ich stelle NV Unternehmensphilsophie in Frage und NV sollte Das auch tun.
AMD steht bei der Produktstrategie seit RV670 einfach besser da.
Und guten Support kann man deswegen immer noch bieten, nur sollte man auch irgendeine Hardware zum Support anbieten;)

Botcruscher
2010-02-12, 14:56:29
Was heißt Produktstrategie? Imo stehen sich AMD und NV im Moment selber im Weg. Mit Atom hätte man eigentlich mal aufwachen sollen. Die Ausführung ist bei beiden im Moment nicht so rosig. Beide haben den Trend zu Netbooks mehr oder weniger verpennt. Dafür das AMD kein Netbook im Programm hat müsste man sie durchweg schlagen. Ohne Gesamtprodukt aus einer Hand braucht man heute gar nicht mehr antanzen, dafür hat Intel zu viel gemauert.

Gast
2010-02-12, 15:01:49
Klar diese Transistoren bringen absolut Nichts in 3D und deshalb ist die Perf/Fläche schlechter.

Und deswegen gab es keine GT2xx Karten auf 55nm. Die würden nämlich deutlich schlechter performanen als ein G92b und dabei nichtmal kleiner sein...


Und ja ich stelle NV Unternehmensphilsophie in Frage und NV sollte Das auch tun.
AMD steht bei der Produktstrategie seit RV670 einfach besser da.

Sie ist erst jetzt besser - 2 Jahre nach dem rv670. Beim rv770 hatte nVidia den G92, G94 und G96. Einzig im Notebooksegment fehlte es ihnen an einem G98.


Und guten Support kann man deswegen immer noch bieten, nur sollte man auch irgendeine Hardware zum Support anbieten;)

Hardware ist ohne Support nichts. Der schnellste und effizienste Motor bringt ohne Reifen nichts. genauso wie viel DP Leistung ohne Softwaresupport etwas bringt. Funktioniert denn DP schon mit OpenCL bei AMD? Wenn nicht, bleibt dir gar keine andere Wahl als die Karte mit der "lächerlichen DP Leistung" verwenden zu müssen...

Gast
2010-02-12, 15:02:22
Die ersten G70 Midrange Chip kamen auf 90nm - 9 Monate später. G84/G86 kamen 6 Monate nach dem G80 auf 80nm. Du siehst, dass die Mid-Range GF100 Karten später erscheinen, ist bei nVidia normal.

G70 und G80 waren nicht verspätet. Weiter?

Beide haben den Trend zu Netbooks mehr oder weniger verpennt.Inwiefern?
Nvidia hat keine x86 CPU und kann sie auch nicht mal eben aus dem Ärmel schütteln.
Die einzige Lösung, ein Chipsatz mit GPU ist recht lange am Markt.

Gast
2010-02-12, 15:07:39
G70 und G80 waren nicht verspätet. Weiter?


Das die Midrange-Chip nicht im letzten Jahr gekommen wären, wenn nVidia den Win7 Launch geschafft hätten.

Gast
2010-02-12, 15:10:03
Das die Midrange-Chip nicht im letzten Jahr gekommen wären, wenn nVidia den Win7 Launch geschafft hätten.
Was wäre wenn interessiert nicht.

Gast
2010-02-12, 15:11:36
Was wäre wenn interessiert nicht.

Schade, aber du hast wohl keine Argumente mehr. Daher EoD. :)

Gast
2010-02-12, 15:19:49
Du hast die Behauptung aufgestellt GF100 Ableger kommen viel später nicht ich.
Also her mit den Beweisen.
Müssen auch passen. :rolleyes:

Aquaschaf
2010-02-12, 15:23:28
Was heißt Produktstrategie? Imo stehen sich AMD und NV im Moment selber im Weg. Mit Atom hätte man eigentlich mal aufwachen sollen.

Netbooks verkaufen sich zwar (zur Zeit) in Massen, aber viel Gewinn macht man damit doch eh nicht.

mapel110
2010-02-12, 15:24:53
Netbooks verkaufen sich zwar (zur Zeit) in Massen, aber viel Gewinn macht man damit doch eh nicht.
Wer soll damit keinen Gewinn machen?! Die miese Hardware, die da zum großen Teil drin steckt, kostet doch nix.

Gast
2010-02-12, 15:25:49
Du hast die Behauptung aufgestellt GF100 Ableger kommen viel später nicht ich.
Also her mit den Beweisen.
Müssen auch passen. :rolleyes:

Du hast diese Behauptung aufgestellt. Lese deine Texte, nochmal. Ich stelle die Behauptung auf, dass die kleinen Ableger nicht im jahr 2009 gekommen wären. Der Abstand zwischen GF100 und GF10x wird kleiner sein als zwischen G70 und G74 bzw. G80 und G84. Es spielte also überhaupt keine Rolle, dass die anderen pünktlich kamen - die Midrange Chips kamen wesentlich später.

Dural
2010-02-12, 15:39:22
Für die GF100 ableger bleibt ja nur 40nm übrig, NV wird als es um den Herstellungsprozess ging ganz sicher nicht für 32nm oder was auch immer entschiden haben! Da schlicht nur 40nm greifbar war...

und was kommt ihr wider mit 55nm? ursprünglich war 55nm bei NV NIE vorgesehen, NV wollte eigentlich gleich auf 40nm wechseln mit den GT21x und 55nm komplett überspringen! kein wunder kamen die 55nm ableger so viel später, weil sie eben schlicht nicht vorgesehen waren!

Die Probleme haben alle erst mit der verspätung von 40nm angefangen, wenn 40nm schon anfang 2009 Massenfähig gewesen wäre hätten wir ganz sicher die komplette GT21x Serie gesehen und keinen GT200b!

Ich kann beim bessten willen keine fehlentscheidungen bei NV sehen, ausser höchstens das der GT200 (G9x vieleicht auch) von anfang an in 55nm hätte kommen sollen, NV hat mit 65nm einfach den "sicheren" weg genommen, das ist alles... die erinnerungen mit NV30 sind halt noch da... und ATI hatte mit dem 80nm R600 ja auch rissen Probleme...

Und wenn ATI so weiter macht mit der agressiven Herstellungs-Verfahren werden die früher oder später wieder auf die "fresse" fallen, das ist jetzt schon sicher...

Die Aktuelle Situation ist wohl nur 40nm geschuldet, mit einem GT212 wäre NV wohl sogar heute noch Konkurenz fähig und hätte die schnellste Karte (halt ohne DX11)

Botcruscher
2010-02-12, 15:59:54
Und wenn ATI so weiter macht mit der aggressiven Herstellungs-Verfahren werden die früher oder später wieder auf die "fresse" fallen, das ist jetzt schon sicher...


Aggressiv? Ati hat seit Ewigkeiten immer einen Midrangechip als Test zwischengeschoben. Der letzte war die 4770. Bei den "relativ" kleinen Chips kann sich Ati das Risiko auch erlauben.

Armaq
2010-02-12, 16:04:54
Also ist der GF100 reine Vaporware? Wenn er zur CeBit nicht gezeigt wird, wann dann ...

Nvidia hat ein echtes Problem.

Gast
2010-02-12, 16:08:24
Aggressiv? Ati hat seit Ewigkeiten immer einen Midrangechip als Test zwischengeschoben. Der letzte war die 4770. Bei den "relativ" kleinen Chips kann sich Ati das Risiko auch erlauben.
Was für kleine Chips?
Meinst du die Chips, die früher auf High-End Karten eingesetzt wurden und heute zu zweit auf High-End Karten?

crux2005
2010-02-12, 16:11:31
gerade eine mail bekommen, nVidia selber ist sich ziemlich sicher das sie dieses Q launchen:

It’s the world’s most ambitious GPU design, and it will be the fastest GPU on the planet when it launches… later this quarter..

Gast
2010-02-12, 16:12:09
Aggressiv? Ati hat seit Ewigkeiten immer einen Midrangechip als Test zwischengeschoben. Der letzte war die 4770. Bei den "relativ" kleinen Chips kann sich Ati das Risiko auch erlauben.

Ist bei nVidia nicht anders. Und hilft auch nichts. rv74 hat ihnen nicht geholfen, Cypress in ausreichender Menge produzieren zu können...

Botcruscher
2010-02-12, 16:16:42
Ist bei nVidia nicht anders.

In diesem Fall schon. In 40nm gab es nichts da die G200 Ableger _viel_ zu spät waren.

Gast
2010-02-12, 16:19:22
In diesem Fall schon. In 40nm gab es nichts da die G200 Ableger _viel_ zu spät waren.

Was? GT218, GT216 und GT215 waren für Q1 bzw. Q2 2009 gedacht und waren ab Q1 produktionsbereicht. AMD's rv740 wäre zeitnah auf den Markt gekommen. Aufgrund des schlechten Prozesses ging eben nVidia erst später auf den Markt. rv740 hat also AMD nichts gebracht, da Cypress für über 3 Monate nicht richtig zu produzieren war.

BlödBär
2010-02-12, 16:23:48
Wird mal Zeit, dass NVidia mal wieder ne neue News raushaut, damit der Thread wieder in Wallung kommt! :)
Ich bin mir sicher, dass sie besser als ATI sein werden, aber das ist auch nicht schwer, da sie ja länger Zeit hatten und sich die ATI-benchmarks genau anschauen konnten.

Ende des Jahres sollen ja ATIs Karten mit komplett neuer Architektur folgen.

Odal
2010-02-12, 16:56:29
NV hat mit 65nm einfach den "sicheren" weg genommen, das ist alles... die erinnerungen mit NV30 sind halt noch da... und ATI hatte mit dem 80nm R600 ja auch rissen Probleme...


was hat den der fertigungsprozess mit dem NV30 fail zutun?
Das Ding stellte sich einfach als ineffizientes Fehldesign mit zu wenig registern und beschissener auslastung unter verwendung von ps2.x heraus
die launchverzögerungen waren doch eher zweitrangig

Analogie seh ich hier höchstens jetzt mit dem "techgebahren" man sieht ewig nix (wirkliche realworld benchmarks) ausser hinweise wie fortschrittlich doch die Architektur sein soll

ich kann mir zwar nicht erklären warum sich das ding deswegen noch solang verzögert, aber mein gefühl sagt mir das die noch wo anders einen bock geschossen haben könnten.

igg
2010-02-12, 17:57:57
Wenn Cebit nicht mehr drin ist, heißt es, dass A3 am Ar*ch ist?

V2.0
2010-02-12, 18:30:15
CeBit war nie als termin genannt worden. Ende Q3 ist nicht Anfang März in PR Talk.

fdk
2010-02-12, 18:43:15
Netbooks verkaufen sich zwar (zur Zeit) in Massen, aber viel Gewinn macht man damit doch eh nicht.

Ein Atom ist von der Marge her vergleichbar mit den Celerons - wenn nicht sogar besser. Immerhin kostet ein 87mm² Cele mit 2x2.5Ghz keine 40€ mehr. Das Notebooks schlecht für den Umsatz (in $) sind stimmt zwar, sagt aber noch nichts über den Gewinn aus den man damit einfährt ... besonders wenn man damit noch olle Fabs auslasten kann (durch die "recycelten" 945er-Chipsätze). Rein zum Vergleich: AMD verscherbelt am 40€ Preispunkt Regors mit 118mm². Dazu gibts dann noch die Chipsätze mit ~200m Transistoren "zum Freundschaftspreis" was sich dann eben auch in der Bilanz niederschlägt.

Sowohl AMD wie NV brauchen mehr Umsatz um sich bei steigenden R&D-Kosten langfristig halten zu können. Klar bekommen die Topserien Radeon 5x und GF3x hier ne Menge Aufmerksamkeit aber das Geld womit diese Spielereien entstehen wird nunmal in der "x300er bis x600er Range" verdient. Siehe auch AMDs letztes Ergebnis: Dahat sich nicht die 4000er oder 5000er Serie an sich positiv abgezeichnet, sondern die belieten Radeon-Mobile Lösungen (Als dedi für Centrino-Notebooks ;) ).

mboeller
2010-02-12, 19:14:42
gerade eine mail bekommen, nVidia selber ist sich ziemlich sicher das sie dieses Q launchen:


Ehrliche Frage: Nvidia-Quartal oder normales Quartal?

Gast
2010-02-12, 19:36:12
Ehrliche Frage: Nvidia-Quartal oder normales Quartal?

Normalerweise sprechen sie immer von Geschäftsquartalen.

Byteschlumpf
2010-02-12, 20:38:35
Die GTX480 wird sicher nicht die Überkarte werden, wie es damals die 8800GTX war, die den hauseigenen Vorgänger 7900GTX um 190-250% überboten hatte.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet

mapel110
2010-02-12, 20:40:44
Die GTX480 wird sicher nicht die Überkarte werden, wie es damals die 8800GTX war, die den hauseigenen Vorgänger 7900GTX um 190-250% überboten hatte.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet
Aber die Stromverbrauchssteigerung dürfte in etwa hinkommen. :ugly:
Ehrliche Frage: Nvidia-Quartal oder normales Quartal?
Ich gehe nicht davon aus, dass alle, die eine nvidia-Presse-Konferenz besuchen, automatisch wissen wann nvidias Geschäftsjahr läuft. Und ich denke auch, dass das der nvidia-Boss bei seinen Aussagen bedenkt und eben reale, außerbetriebswirtschaftliche Zeiträume angibt.

Gast
2010-02-12, 20:41:18
Die GTX480 wird sicher nicht die Überkarte werden, wie es damals die 8800GTX war, die den hauseigenen Vorgänger 7900GTX um 190-250% überboten hatte.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/24/#abschnitt_performancerating_qualitaet

Die Karte wird auch nicht doppelt soviel Strom benötigen wie die 8800GTX.
Dagegen gibt es genügen Fälle, wo die Karte deutlich schneller sein wird: Geometrieleistung, Rechenleistung, 8xMSAA...

Byteschlumpf
2010-02-12, 20:44:35
Auf der Cebit läßt doch wohl nVidia die Katze endlich aus dem Sack? Zumindest wird gemunkelt, dass dies dort endlich geschehen soll! ^^

mapel110
2010-02-12, 20:46:50
Auf der Cebit läßt doch wohl nVidia die Katze endlich aus dem Sack? Zumindest wird gemunkelt, dass dies dort endlich geschehen soll! ^^
Hat Ailuros gestern hier im Thread angezweifelt. Ist auch sehr wahrscheinlich, sonst hätte man schon ein konkretes DAtum für Anfang März gehört. Einladungen für die Presse dürften so etwa 6 Wochen vorher rausgehen.

igg
2010-02-12, 20:51:51
Dass sie laut Ail nicht zur Cebit kommen kann nur wenig bedeuten:
1.) Sie launchen davor
2.) A3 ist nicht vorzeigbar

Ersteres ist unwahrscheinlich und letzteres würde zu den ständigen Biobsbotschaften der letzten Wochen passen. Und sollte das der Fall sein, frage ich mich, wie lang Huang (?) seinen Kopf noch halten kann.

Gast
2010-02-12, 20:56:31
Dass sie laut Ail nicht zur Cebit kommen kann nur wenig bedeuten:
1.) Sie launchen davor
2.) A3 ist nicht vorzeigbar

Ersteres ist unwahrscheinlich und letzteres würde zu den ständigen Biobsbotschaften der letzten Wochen passen. Und sollte das der Fall sein, frage ich mich, wie lang Huang (?) seinen Kopf noch halten kann.

http://www.netzwelt.de/news/77268-cebit-2008-erste-nvidia-9800-gx2-cebit-gesichtet.html

Launch zwei Wochen später: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gx2/

Also ehrlich, lasst eure Amateurphantasien doch zuhause im Wohnzimmerschrank.

Die 9800GTX kam dann am 1.April. Nur weil man zur Cebit nicht launcht, heißt es nicht, dass es im März keine Karten gibt.

tombman
2010-02-12, 21:11:29
Ich hab nichtmal ein Problem mit Mai :devil:

Gast
2010-02-12, 21:15:47
Ich hab nichtmal ein Problem mit Mai :devil:

Nicht jeder ist so ein treuer Fanboy und wartet ewig auf NV. Jedes Monat Verzögerung kostet NV erheblich Marktanteile.

Schlammsau
2010-02-12, 21:16:10
Ich hab nichtmal ein Problem mit Mai :devil:

Du würdest sogar bis nächstes Jahr warten....gell!? :freak:

Nur doof das ATi bis dahin die deutlich schnelleren Karten haben würde.

Würde das dein Stolz verkraften?

Gast
2010-02-12, 21:17:34
Ich habe mal eine Frage, auch wenn off-topic. Wer sind Demirug, Ailuros und Coda? Hin und wieder wird angedeutet, dass sie Insider-Informationen hätten oder haben könnten. Außerdem scheinen sie sich im Bereits "Grafikkarten" sehr gut auszukennen. Ich habe wohl Einiges verpasst. ;(

Gast
2010-02-12, 21:18:38
Ich habe mal eine Frage, auch wenn off-topic. Wer sind Demirug, Ailuros und Coda? Hin und wieder wird angedeutet, dass sie Insider-Informationen hätten oder haben könnten. Außerdem scheinen sie sich im Bereits "Grafikkarten" sehr gut auszukennen. Ich habe wohl Einiges verpasst. ;(

Edit: "im Bereich", nicht "im Bereits."

Gast
2010-02-12, 21:22:17
Ich habe mal eine Frage, auch wenn off-topic. Wer sind Demirug, Ailuros und Coda? Hin und wieder wird angedeutet, dass sie Insider-Informationen hätten oder haben könnten. Außerdem scheinen sie sich im Bereits "Grafikkarten" sehr gut auszukennen. Ich habe wohl Einiges verpasst. ;(

Demirug arbeitet bei EA Phenomic, Ailuros kennt einige Mitarbeiter von AMD, NV, Intel ganz gut und hat deshalb tatsächlich immer mal wieder Insiderinfos, Coda macht sich gerne wichtig, hat aber meiner Einschätzung nach keine Insiderinfos. Er kennt sich allerdings gut aus.

Black-Scorpion
2010-02-12, 21:22:28
Demirug ist Entwickler und arbeitet bei eine Spielefirma.
Ail und Coda weiß ich nicht.

Gast
2010-02-12, 21:25:27
The 448SP part and the 512SP are going to have different clocks. The 448SP should come in, unless they have changed things, 450-475 for the core and around 1250-1300 for the domiain while having just 40ROPs. The 512SP part is 48ROPs and should come in at 600-625 core and 1450-1500 for domain clocks.
http://www.nvnews.net/vbulletin/showpost.php?p=2184778&postcount=135

Soviel zu eurem XMAN...
Die Taktraten der GTX470 sind sowas von entfernt der Wirklichkeit. Aber hey, es steht im Internet, dann muss es stimmen!!!!!!!!!

Gast
2010-02-12, 21:29:35
http://www.nvnews.net/vbulletin/showpost.php?p=2184778&postcount=135

Soviel zu eurem XMAN...
Die Taktraten der GTX470 sind sowas von entfernt der Wirklichkeit. Aber hey, es steht im Internet, dann muss es stimmen!!!!!!!!!

Die 448SP-Version = das was man zumindest kaufen kann
512SP-Version = Vaporware

Black-Scorpion
2010-02-12, 21:33:51
http://www.nvnews.net/vbulletin/showpost.php?p=2184778&postcount=135

Soviel zu eurem XMAN...
Die Taktraten der GTX470 sind sowas von entfernt der Wirklichkeit. Aber hey, es steht im Internet, dann muss es stimmen!!!!!!!!!
Und das steht wo? Etwa nicht im Internet?
Aber weil die Seite nvNews heißt muss es ja stimmen.

BlackBirdSR
2010-02-12, 21:33:53
Die 448SP-Version = das was man zumindest kaufen kann
512SP-Version = Vaporware


Warum auch nicht?
Solange man genug Review-Seiten damit beliefern kann, spielt es keine Rolle, ob die Karte wirklich zu kaufen ist. Würde ich ja auch so machen, wenn ich Aufsehen erregen will.

Das sollte jedem klar sein!

Gast
2010-02-12, 21:35:08
Die 448SP-Version = das was man zumindest kaufen kann
512SP-Version = Vaporware

Tja, Hochmut kommt vor dem Fall. Aber Cypress war ja auch Vaporware für 3 Monate. :lol:

Sorkalm
2010-02-12, 21:38:20
Soviel zu eurem XMAN...
Die Taktraten der GTX470 sind sowas von entfernt der Wirklichkeit.

Wieso fernab von jeglicher Wirklichkeit entfernt? Shadertakt liegt im Rahmen des angenommen, und die wichtigsten Einheiten laufen doch eh mit 1/2 Shadertakt. Was steckt denn überhaupt noch wichtiges in den Core-Takt drinne? Vielleicht ist der einfach für nicht so hohe Zieltaktraten entwickelt wurden, weil eben gesagt, kaum noch performancekritisches dort steckt.

Will damit nicht sagen, dass das stimmt - aber ich sehe jetzt auch keinen eklatanten Widerspruch zu.

Gast
2010-02-12, 21:46:27
Wieso fernab von jeglicher Wirklichkeit entfernt? Shadertakt liegt im Rahmen des angenommen, und die wichtigsten Einheiten laufen doch eh mit 1/2 Shadertakt. Was steckt denn überhaupt noch wichtiges in den Core-Takt drinne? Vielleicht ist der einfach für nicht so hohe Zieltaktraten entwickelt wurden, weil eben gesagt, kaum noch performancekritisches dort steckt.

Will damit nicht sagen, dass das stimmt - aber ich sehe jetzt auch keinen eklatanten Widerspruch zu.

Tja, warte ab. Die GTX470 einen Shadertakt von ca. 1400MHz und einen Coretakt von 600MHz+. Die ROPs laufen bestimmt nicht auf 475Mhz. Wer hie glaubt, dass nVidia bei angeblichen nur 448 Parts alle unter Wert verkauft, der ist wirklich leichtgläubig.

Sorkalm
2010-02-12, 22:01:18
Wozu braucht denn GF100 so eine Super-Duper-ROP-Leistung...?

y33H@
2010-02-12, 22:03:09
The 448SP should come in, unless they have changed things, 450-475 for the core and around 1250-1300 for the domiain while having just 40ROPs. The 512SP part is 48ROPs and should come in at 600-625 core and 1450-1500 for domain clocks.Sprich bei der 448er wären es in etwa 650 MHz für die TMUs und bei der 512er 750 MHz, Core und Hot-Clock (ALUs) steht ja da. Das sind bei gleicher Effizienz wie GT200 in der Theorie immerhin rund +60% (FLOPS), stagnierend (Pixelfüllrate) und weniger (Texturfüllrate) bei der 448er und +115% (FLOPS), 50% (Pixelfüllrate) und stagnierend (Texturfüllrate) auf eine GTX285. Laut NV ist die TMU-Auslastung bei GF100 aber angeblich besser. Bandbreite liegt dank GDDR5 mit sicherlich mindestens 2,0 GHz eh klar über GTX285. Die 448er ist damit grob auf HD5870-Level, 512er nah an HD5970.

Klingt auf dem Papier zwar schon, evtl. kommt praktisch noch ein Effizienzplus dazu, aber das dauert alles viel zu lange :usad: Eine HD5870 @ 1,0 GHz mit flüsterleiser Kühlung ist für 500€ kein Problem und heute schon erhältlich. Die Fermi 512er ist zwar schneller, aber zu welchem Preis - und damit meine ich nicht Anschaffung, sondern Lautstärke und "Stromverbrauch". Da klingt HD5870 doch deutlich attraktiver.

Gast
2010-02-12, 22:15:18
Wozu braucht denn GF100 so eine Super-Duper-ROP-Leistung...?

Anti-Aliasing.

tombman
2010-02-12, 22:17:48
Nicht jeder ist so ein treuer Fanboy und wartet ewig auf NV. Jedes Monat Verzögerung kostet NV erheblich Marktanteile.
Nur, daß ich kein fanboy bin. Hätte ATI gutes CF und Phys-X, hätte ich schon ATI ;)
Du würdest sogar bis nächstes Jahr warten....gell!? :freak:
Nur doof das ATi bis dahin die deutlich schnelleren Karten haben würde.
Würde das dein Stolz verkraften?
Es geht nicht um die schnellste Einzelkarte- es geht um das beste Multi-Gpu-Erlebnis- und das liefert NV mit SLI :cool:
Durch DX11 und Phys-X wird es kein Spiel geben, wo man nicht die max. Qualität bekommt :)

Btw, kommt eine 512sp Version jetzt zum launch oder erst zu Weihnachten?

Gast
2010-02-12, 22:28:36
Btw, kommt eine 512sp Version jetzt zum launch oder erst zu Weihnachten?

Zum Launch natürlich. Es gab 7800GTX mit 6 Quads zum Launch, es gav 8800GTX mit 8 Cluster zum Launch, es gab GTX280 Karten mit 10 Cluster zum Launch.
Schon lustig, dass Leute annehmen, dass es keinen 512 Part zum Kaufen geben wird.

y33H@
2010-02-12, 22:28:59
@ tombman

Max. Quali ist für mich SGSSAA - und ob das GF100 bietet, bleibt abzuwarten ;)

Unter DX10/11 entfällt das wohl, mit Bio2 gibt's aber das erste Spiel, in dem man per Treiber/nHancer AA forcieren kann.

Gast
2010-02-12, 22:33:50
Sprich bei der 448er wären es in etwa 650 MHz für die TMUs und bei der 512er 750 MHz, Core und Hot-Clock (ALUs) steht ja da. Das sind bei gleicher Effizienz wie GT200 in der Theorie immerhin rund +60% (FLOPS), stagnierend (Pixelfüllrate) und weniger (Texturfüllrate) bei der 448er und +115% (FLOPS), 50% (Pixelfüllrate) und stagnierend (Texturfüllrate) auf eine GTX285. Laut NV ist die TMU-Auslastung bei GF100 aber angeblich besser. Bandbreite liegt dank GDDR5 mit sicherlich mindestens 2,0 GHz eh klar über GTX285. Die 448er ist damit grob auf HD5870-Level, 512er nah an HD5970.


Du zählst nur die MADDs, es wurde bei den ALUs aber einiges abgespeckt was die MUL und SFUs betrifft.

derguru
2010-02-12, 22:35:08
Unter DX10/11 entfällt das wohl, mit Bio2 gibt's aber das erste Spiel, in dem man per Treiber/nHancer AA forcieren kann.
das ging auch schon mit bio1.

dargo
2010-02-12, 22:37:11
Max. Quali ist für mich SGSSAA - und ob das GF100 bietet, bleibt abzuwarten ;)

Und was nützt dir SGSSAA in Spielen die kein Anti-Aliasing von sich aus bieten? :)

Gast
2010-02-12, 22:37:38
Zum Launch natürlich. Es gab 7800GTX mit 6 Quads zum Launch, es gav 8800GTX mit 8 Cluster zum Launch, es gab GTX280 Karten mit 10 Cluster zum Launch.
Schon lustig, dass Leute annehmen, dass es keinen 512 Part zum Kaufen geben wird.

Also LovesuckZ dein Schreibstil ist wirklich einmalig, du brauchst dich gar nicht einzuloggen, man weiß sofort das du es bist. :D

y33H@
2010-02-12, 22:37:56
@ Gast

Wie würdest du ergo rechnen?

@ derguru

Sehe es gerade im nHancer ... kommt davon, wenn einen das Spiel nicht interessiert, dann kriegt man so was nicht mit *hmpf*

@ dargo

Nüscht :usad: NV ist kompatibler was DS angeht *grummel* Zu dumm, das man nicht on-the-fly zwischen Radeon und Geforce wechseln kann ...

Gast
2010-02-12, 22:39:36
Du zählst nur die MADDs, es wurde bei den ALUs aber einiges abgespeckt was die MUL und SFUs betrifft.

Die Registerfiles wurde auch fast gar nicht skaliert gegenüber GT200. Also mal sehen wieviel von der theoretischen MADD-Steigerung in der Praxis übrig bleibt.

y33H@
2010-02-12, 22:42:37
Angesichts der NV-Benches wohl grob 70-80% der theoretischen Werte.

tombman
2010-02-12, 22:51:12
@ tombman

Max. Quali ist für mich SGSSAA - und ob das GF100 bietet, bleibt abzuwarten ;)

Unter DX10/11 entfällt das wohl, mit Bio2 gibt's aber das erste Spiel, in dem man per Treiber/nHancer AA forcieren kann.
SSAA ist ein netter Nebeneffekt für mich- muß ich nicht unbedingt haben- zumindest solange es nicht immer und überall einsetzbar ist (DX10/11 = nono). Außer ist eine HD5 eh zu schwach für SSAA (ja, das ist meine Meinung, denn wo man SSAA am meisten braucht sind high-poly/high-shader games, also fordernde games), also läufts wieder auf CF hinaus - und das will ich ganz sicher nicht...

Raff
2010-02-12, 22:51:28
Und was nützt dir SGSSAA in Spielen die kein Anti-Aliasing von sich aus bieten? :)

Fermi ist ein Papiertiger. Selbst wenn die Leistung bekannt und auf HD-5970-Niveau wäre, muss sich das Teil noch in zahlreichen anderen Disziplinen beweisen. Darunter:

Ist immer noch HQ-AF möglich?
Leben die Hybriden noch? Wenn nein, kommen sie wie beim G80 wieder?
Wie laut und stromhungrig ist eine GTX 400?
Funktioniert Downsampling noch? Wird es gar adaptiert und erweitert?
Oder gibt es vielleicht SGSSAA mittels Hack, wie bei Ati? Hybriden damit?
...

Ati hat hübsch vorgelegt. Schon heute kann man eine leise, relativ stromsparende HD 5870 mit tollen Features haben. PhysX und CUDA generell fallen nicht darunter, auch spacken die Treiber gerne – das Gesamtpaket ist aber fein. Und so muss sich Fermi dem gereiften Cypress, mithilfe von herstellereigenen Custom Designs wiedergeboren, stellen.

Außer ist eine HD5 eh zu schwach für SSAA (ja, das ist meine Meinung), also läufts wieder auf CF hinaus - und das will ich ganz sicher nicht...

(M)Eine HD 5870 ist genauso "zu schwach für SSAA" wie es schon die 8800 GTX und GTX 280 waren – gar nicht. Ok, bei 30 Zoll muss ich nun idR mit 2x SGSS leben X-D, aber bis inklusive 1.920x1.200 schaukelt die Karte oft Shaderchen.

MfG,
Raff

y33H@
2010-02-12, 22:59:49
Du zockst auch Crysis "flüssig" bei 15 Fps ;D aaalt, ich weiß *g*

Meine Sicht: 88GTX, GTX280 und HD5870 waren/sind zu lahm für SSAA in den jeweils damaligen Auflösungen bei max. Details.

EDIT
Aber bis inklusive 1.920x1.200 schaukelt die Karte oft Shaderchen.CoD MW2 war in 1920 mit 4x SSAA eine Tortur, 2560 mit 2x SSAA ganz ok. Dragon Age läuft in 2560 mit 8x SSAA im CPU-Limit :ulol:

Raff
2010-02-12, 23:02:34
Das Wort "flüssig" habe ich in Kombination mit der Zahl 15 nie in den Mund genommen. ;)

MfG,
Raff

tombman
2010-02-12, 23:04:18
aber bis inklusive 1.920x1.200 schaukelt die Karte oft Shaderchen.

Crysis VH - und schon brauchst CF für 4x SSAA ;)

2x und 8x SSAA interessiert mich nicht- genausowenig wie Lautstärke und Stromverbrauch.
Immer funkendes DS wäre interessant- und natürlich würde ich gerne das HQ AF von NV behalten.

Gast
2010-02-12, 23:05:32
Meine Sicht: 88GTX, GTX280 und HD5870 waren/sind zu lahm für SSAA in den jeweils damaligen Auflösungen bei max. Details.

Was? Die 8800GTX war ein SSAA Monster. Mit 64 Filtereinheiten hatte man 3x soviele Einheiten wie ein G71. Am ende blieben mehr als 2,2x soviel Texturleistung übrig. Eine 5870 bietet gerademal 85% mehr Texturleistung als eine 8800GTX! Und die G71 kam 8 Monat früher auf dem markt und nicht 3 Jahre. Läge man den selben Maßstab an wie bei Cypress, dann müsste man den r350 bzw NV35 mit dem G80 vergleichen - also 64 Filtereinheiten gegen 8.
Soviel zum "zu lahm" für SSAA.

y33H@
2010-02-12, 23:11:04
CoD MW lief mit der 88GTX mit 16xS nicht mal in 1280 x 800 flüssig (45 Fps+). Für mich ist das zu lahm bis bedingt spielbar. Übrigens geht SSAA nicht nur auf die TMUs ...

Gast
2010-02-12, 23:15:08
CoD MW lief mit der 88GTX mit 16xS nicht mal in 1280 x 800 flüssig (45 Fps+). Für mich ist das zu lahm bis bedingt spielbar. Übrigens geht SSAA nicht nur auf die TMUs ...

SSAA benötigt Bandbreite und texturleistung aufgrund der vier Texturwerte. Vorallem zweites ist besonders wichtig.
CoD:MW kam ein Jahr später auf den Markt. Also wohl kaum ein Argument für "zu wenig" Leistung.

dargo
2010-02-12, 23:20:55
Fermi ist ein Papiertiger. Selbst wenn die Leistung bekannt und auf HD-5970-Niveau wäre, muss sich das Teil noch in zahlreichen anderen Disziplinen beweisen. Darunter:

Ist immer noch HQ-AF möglich?
Leben die Hybriden noch? Wenn nein, kommen sie wie beim G80 wieder?
Wie laut und stromhungrig ist eine GTX 400?
Funktioniert Downsampling noch? Wird es gar adaptiert und erweitert?
Oder gibt es vielleicht SGSSAA mittels Hack, wie bei Ati? Hybriden damit?

Natürlich gibt es noch sehr viele Bereiche die mindestens genauso wichtig sind wie die reine Spieleleistung. Für mich hat DS immer noch die höchste Priorität beim Fermi. :)

y33H@
2010-02-12, 23:20:57
@ Gast

HD5870 kam zwei Jahre nach Crysis auf den Markt und stellt es mit SSAA in 1280 x 800 nicht flüssig dar ;)
Klar, 88GTX war ein Monster (hatte/habe ne Ultra), aber auch Monster kann man ans Limit treiben.

B2T.

Gast
2010-02-12, 23:23:58
HD5870 kam zwei Jahre nach Crysis auf den Markt und stellt es mit SSAA in 1280 x 800 nicht flüssig dar ;)
Klar, 88GTX war ein Monster, aber auch Monster kann man ans Limit treiben.

B2T.

Wow, was für eine Erkenntnis am PC...
Ich habe nur aufgezeigt, warum die 8800GTX zum Launch besser für SSAA geeignet war als Cypress. Denn es ist eben ein Unterschied, ob die Texturleistung um das 10x ansteigt oder nur um 1,85x.

Gast
2010-02-12, 23:24:36
Ist immer noch HQ-AF möglich?
Ist anzunehmen.
Jedenfalls ist der immer noch nicht vorhandene HQ Modus der HD5 kein Grund für die HD5.

y33H@
2010-02-12, 23:25:52
Ist immer noch HQ-AF möglich?Laut NV ja.
]Ich habe nur aufgezeigt, warum die 8800GTX zum Launch besser für SSAA geeignet war als Cypress. Denn es ist eben ein Unterschied, ob die Texturleistung um das 10x ansteigt oder nur um 1,85x.Schon kapiert =)

Gast
2010-02-12, 23:35:11
Ich weiß nicht warum hier immer mit irgendwelchen alten Kamellen um sich geworfen wird. Wie gut eine 8800GTX oder eine GTX280 zum jeweiligen Launch-Zeitpunkt war, interessiert mich nicht die Bohne.

Die Lorbeeren von gestern sind nämlich vorallendingen eines eben von gestern. Was heute los ist will ich wissen und da höre und sehe ich momentan von NV garnichts, außer das ich jeden Tag neue Negativgerüchte lesen darf.

Raff
2010-02-12, 23:36:33
Crysis VH - und schon brauchst CF für 4x SSAA ;)

Für wie viele Fps? Eine übertaktete HD 5870 schaukelt DX9 Enthusiast in den genannten Einstellungen über weite Teile des Spiels mit 30+ Fps. "Brauchen" sieht IMO anders aus. :) Crossfire braucht im jetzigen Status wirklich niemand, urks.

Ist anzunehmen.
Jedenfalls ist der immer noch nicht vorhandene HQ Modus der HD5 kein Grund für die HD5.

Annehmen kann man viel. Die Texturierungsleistung von Fermi ist jedenfalls nicht im gleichen Maße gestiegen wie die FLOPS. Und was macht man, wenn eine Komponente limitiert? Arbeit auslagern (z. B. in die ALUs) oder einfach weglassen (Spar-AF). Das bedeutet natürlich nicht, dass ein HQ-Modus nicht optional bestehen bleiben kann.

Fakt ist aber auch, dass das Evergreen-AF immer noch scheiße ist. Es flimmert und zeigt oft genug B(r)i-Banding, dass es einen gruselt. Mit SSAA schiebt man den Mist einfach unter die Wahrnehmungsschwelle. Furby hat's auf dem Gebiet also gar nicht so schwer mit dem Sieg. ;)

MfG,
Raff

Gast
2010-02-12, 23:41:47
Für wie viele Fps? Eine übertaktete HD 5870 schaukelt DX9 Enthusiast in den genannten Einstellungen über weite Teile des Spiels mit 30+ Fps. "Brauchen" sieht IMO anders aus. :) Crossfire braucht im jetzigen Status wirklich niemand, urks.


Eine 8800GTX läuft mit weniger Details und SSAA auch mit 30 FPS+.


Annehmen kann man viel. Die Texturierungsleistung ist jedenfalls nicht im gleichen Maße gestiegen wie die FLOPS. Und was macht man, wenn eine Komponente limitiert? Arbeit auslagern (z. B. in die ALUs) oder einfach weglassen (Spar-AF). Das bedeutet natürlich nicht, dass ein HQ-Modus optional bestehen bleibt.

MfG,
Raff

Seit wann ist der HQ-Modus bei nVidia eine Standardeinstellung? Seit dem NV30 gibt es den HQ Schalter und ihn wird es in den nächsten Jahren geben - außer die Leistung ist irgendwann so abnormal hoch, dass es keinen Leistungsabfall gibt.


Die Lorbeeren von gestern sind nämlich vorallendingen eines eben von gestern. Was heute los ist will ich wissen und da höre und sehe ich momentan von NV garnichts, außer das ich jeden Tag neue Negativgerüchte lesen darf.

Du hörst nichts, weil es noch keinen Launch gegeben hat...
Aber du hörtest auch 4 Wochen vor dem G80 auch nichts und dachtest, dass er nur 96 nicht Unified-Shader haben würde.

Odal
2010-02-12, 23:43:38
SSAA ist doch eh durch die wechselwirkung mit postscreeneffekten bei neueren titeln sehr eingeschränkt, für ältere sachen natürlich nice to have

am besten wäre ein native supportetes downsampling mit lanzcos resampling :D

warum funzt das DS mit den ATI karten eigentlich nicht so gut?

y33H@
2010-02-12, 23:49:34
DS mit Lanczos gibts in Serious Sam HD - sehr cool =)

Das AMD'sche SGSSAA ist angebliches aufgeblasenes AAA (glaube deekey777 hat das mal erwähnt) und evtl. deswegen kompatibler als NVs OGSSAA bzw. xS.

Raff
2010-02-12, 23:51:36
Nicht eventuell, es ist definitiv kompatibler als konventionelles Supersampling:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275
vs.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=476233

MfG,
Raff

y33H@
2010-02-12, 23:56:26
Das eventuell bezog sich auf das AAA als Grund, nicht auf die Tatsache, dass es kompatibler ist ;)

Blaire
2010-02-13, 00:03:44
Fakt ist aber auch, dass das Evergreen-AF immer noch scheiße ist. Es flimmert und zeigt oft genug B(r)i-Banding, dass es einen gruselt. Mit SSAA schiebt man den Mist einfach unter die Wahrnehmungsschwelle. Furby hat's auf dem Gebiet also gar nicht so schwer mit dem Sieg. ;)


Was aber auch nicht immer hilft: ;(
http://www.abload.de/img/d3-8xss9dvt.png

=Floi=
2010-02-13, 00:11:25
zitat
Zu dumm, das man nicht on-the-fly zwischen Radeon und Geforce wechseln kann ...

DAS wäre es wirklich. dann hätte ich auch schon eine 5870er

gibt es benches zur 1ghz 5870er? imho bist du dann auch mind. bei deinen 250+ watt und leise ist das sicherlich auch nicht mehr. (nachrüstkühler blasen die heiße luft im gegäuse umher) nebenbei dürfte die stromversorgung am limit arbeiten und 500€ ist das ganze auch nicht wert. (nur 1gb vram)
Ich möchte mal sehen ob da wirklich eine beachtliche steigerung herauskommt.

NV hat einfach das breitere featureset. Damit kann man doch erst die karte richtig nützen.
Ein nettes beispiel ist auch UT3. mit AA geht meine karte in die knie und die BQ wird wesentlich besser. ohne AA habe ich genug FPS und bräuchte nicht mal etwas schnelleres. Die BQ ist dann auch flimmrig und imho grausam.
Die ganze power nützt nichts, wenn ich sie nicht nutzen kann.

derguru
2010-02-13, 00:15:05
alle aktuellen blockbuster wie dragon age,bioshock2 oder mass effect2 sind problemlos spielbar mit 4xsgssaa in hd auflösung.das entscheidene meiner meinung nach am ssaa von ati ist das 4xsgssaa gleich zusetzen ist mit 8xSQ von nv das mehr leistung kostet bei gleicher bq.ob es nun fair ist oder nicht weil nv mehr rechnen muss ist doch scheiss egal solang die bq in etwa gleich ist.

y33H@
2010-02-13, 00:17:33
@ =Floi=

Prolimatech MK-13 samt Silent Wings USC @ 7V, Thermalright VMR-R4 = 1,0 GHz @ 1,25V.

Gast
2010-02-13, 00:22:15
NV hat vorallendingen eines, nämlich nicht vorhandene Karten. Ich habe es mir jedenfalls abgewöhnt ein nicht vorhandenes Produkt im vorhinein abzufeiern, da nützen mir auch die besten Features nichts.

Dinge wie das aus eurer Sicht grausame AF-Flimmern bei Evergreen mag vielleicht euch Hardcore-Enthusiasten/Freaks interessieren, aber 98% der normalen Gamer die halt die Gaming-Grakas kaufen sehen das garnicht.

Gast
2010-02-13, 00:27:25
Ein paar Fragen.

Irgendwer hat hier mal behauptet, ATis 16x AF sei gar kein richtiges 16x AF. Stimmt das? Und warum, wenn ja?

Ist ATis MSAA gleichzusetzen mit nVidias MSAA? Ich habe noch eine X1800 XT, die 6x MSAA kann. Worin unterscheidet sich das nun genau von aktuellen 8x MSAA?

Sind ATIs 8x MSAA und nVidias 8x MSAA vergleichbar? Die GTXen brechen in diesem Modus nämlich stärker ein als beispielsweise eine HD 4xxx.

Zusammengefasst: Welche Karte kann welches AA / AF besser? Ein Artikel darüber auf dem neuesten Stand mit HD 5xxx vs. GTX 2xx wäre mal interessant.

Gast
2010-02-13, 00:27:58
alle aktuellen blockbuster wie dragon age,bioshock2 oder mass effect2 sind problemlos spielbar mit 4xsgssaa in hd auflösung.das entscheidene meiner meinung nach am ssaa von ati ist das 4xsgssaa gleich zusetzen ist mit 8xSQ von nv das mehr leistung kostet bei gleicher bq.ob es nun fair ist oder nicht weil nv mehr rechnen muss ist doch scheiss egal solang die bq in etwa gleich ist.
8xSQ ist auch ein reiner Fanboymodus.
Jeder Vernünftige würde eher 16xS samt TMSAA und HQ nutzen. Sieht wiederrum deutlich besser als 4xSGSSAA und LQ aus.
Oder eben 8xS.

Gast
2010-02-13, 00:31:01
Irgendwer hat hier mal behauptet, ATis 16x AF sei gar kein richtiges 16x AF. Stimmt das? Und warum, wenn ja?
AMD cheated seit einigen Generationen. Ihr 8xAF haben sie aufgepuscht und verkaufen es als 16xAF.


Sind ATIs 8x MSAA und nVidias 8x MSAA vergleichbar? Die GTXen brechen in diesem Modus nämlich stärker ein als beispielsweise eine HD 4xxx.
Optik ist gleich. Sinnvoll ist der Modus nur bedingt. Warum es die Magazine dieser Welt als Modus Nummer1 propagieren werden wir nie erfahren.
Sicher ist, das Nvidia darauf reagiert hat, 8xMSAA läuft jetzt richtig schnell.

y33H@
2010-02-13, 00:31:20
Sind ATIs 8x MSAA und nVidias 8x MSAA vergleichbar?Optisch praktisch ja, beides SGMSAA, je nach Winkel ist ein anderer IHV minimal vorne. AMD bricht mit 8x MSAA weniger rein (ist imo aber egal, da reines Benchsetting). Das 6x der X1k liegt zwischen dem 4x und dem 8x aktueller Karten, damals war es konkurrenzlos.Welche Karte kann welches AA / AF besser?AF alles ab G80 besser als bei den Radeons. MSAA gleich, Polygon-Glättung die HDs (24x EDCFAA), Vollbild die HD5k dank bis zu 8x SGSSAA.

derguru
2010-02-13, 00:36:11
8xSQ ist auch ein reiner Fanboymodus.
Jeder Vernünftige würde eher 16xS samt TMSAA und HQ nutzen. Sieht wiederrum deutlich besser als 4xSGSSAA und LQ aus.
Oder eben 8xS.
aber nicht spielbar,Grestorn hatte erwähnt das er bei mass effect2 1920*1200 8xSQ um die 30fps hat(mit 280gtx im sli),mit einer 5870 spielt man im 40-50fps berreich.wo willst du nochmal 16xS anwenden?und ob 16xs samt tmsaa und hq deutlich besser aussieht als 4xsgssaa inkl. narrow tent bezweifel ich,ach ja tent modis sind sogar öfter mal fast freihaus.ok ich gib zu das es nicht immer problemlos läuft mit den tent modis.(z.b. bei der unreal engine ist es eine katastrophe)

Gipsel
2010-02-13, 00:44:15
Die Registerfiles wurde auch fast gar nicht skaliert gegenüber GT200.Die Register pro SP wurden sogar glatt halbiert beim Fermi! :freak:
Aber wenn jetzt die Register ausgehen, wird es "einfach" in den recht schnellen L1 ausgelagert, daher ist das vielleicht nicht ganz so ein Problem. Obwohl natürlich die Registerfiles erheblich größer sind als die Caches, so daß es damit auch recht schnell vorbei ist.
Fakt ist aber auch, dass das Evergreen-AF immer noch scheiße ist. Es flimmert und zeigt oft genug B(r)i-Banding, dass es einen gruselt.Liegt das Banding wirklich an Evergreen und nicht an der App (fordert einfch nur bilinear an oder benutzt nicht ordentlich erstellte Mipmaps)? Ich dachte eigentlich mehrfach gelesen zu haben, daß Evergreens überhaupt kein brilinear mehr machen.

Gast
2010-02-13, 00:47:05
aber nicht spielbar
Die Diskussion hatten wir schonmal.
Ich habe SSAA auf eine Geforce 6 genutzt.

und ob 16xs samt tmsaa und hq deutlich besser aussieht als 4xsgssaa inkl. narrow tent bezweifel ichAch jetzt kommt plötzlich narrow tent aus dem Ärmel, wo du richst das die magere Geometrieglättung des 4xSGSSAA zum lachen ist.
Gegen HQ hast du leider nichts entgegnet, den da gibt es nichts vergleichbares.

4xMSAA sieht im Idealfall so gut wie 4xSGSSAA aus, also erzähl mir nicht das ein 4xMSAA Modus inklusive 2x2S und HQAF und TMSAA schlechter aussieht.

Coda
2010-02-13, 00:48:50
Liegt das Banding wirklich an Evergreen und nicht an der App (fordert einfch nur bilinear an oder benutzt nicht ordentlich erstellte Mipmaps)? Ich dachte eigentlich mehrfach gelesen zu haben, daß Evergreens überhaupt kein brilinear mehr machen.
Durch Mipmaps kann man kein Banding erzeugen. Selbst wenn sie komplett anders eingefärbt sind gibt es weiche Übergänge wenn man richtig filtert.

Und ich denke, dass Raff rein bilineares AF erkennen würde. Ab D3D10 kann man das übrigens schon gar nicht mehr anfordern.

y33H@
2010-02-13, 00:48:55
@ Gast

16xS-TSSAA wirkt nicht stark auf Texturen und Shader, zudem blurt NV mehr.

uweskw
2010-02-13, 00:52:28
Richtig!!
Wenn man sich dem Bild einer ATI für mehr als 30 Sekunden aussetzt bekommt man unweigerlich Augenkrebs!

Kanns nicht mehr hören! ;-)
Im HiFi High-End Bereich sind Blindtests (z.B. zwischen verschiedenen CD-Playern) recht beliebt.

http://www.hififorum.at/forum/showthread.php?t=2141

Ich wette meine beste Unterhose das von unseren BQ-Qualitäts-Fetischisten KEINER!! in der Lage wäre unter vergleichbaren Bedingungen eine ATI von einer NV zu unterscheiden.

Greetz
U.S.

Gast
2010-02-13, 00:54:40
Ich wette meine beste Unterhose das von unseren BQ-Qualitäts-Fetischisten KEINER!! in der Lage wäre unter vergleichbaren Bedingungen eine ATI von einer NV zu unterscheiden.

Mach du den ersten Schritt, vergleiche eine 4850 mit einer 5870. Blind.
Nimm die 4850 und zahl mir die Differenz zur 5870.

Gipsel
2010-02-13, 00:54:54
Und ich denke, dass Raff rein bilineares AF erkennen würde. Ab D3D10 kann man das übrigens schon gar nicht mehr anfordern.
Okay, danke!

Odal
2010-02-13, 01:02:40
@ Gast

16xS-TSSAA wirkt nicht stark auf Texturen und Shader, zudem blurt NV mehr.

TSSAA ist meistens eh für den popo da es oftmals langsamer als reines SSAA ist (je nach content) leider hat letzteres zumindest bei NV Hardware extreme kompatiblitätsprobleme (ist da bei fermi evtl. besserung in sicht?)

ich persönlich nutze fast ausschliesslich 2x2DS+ je nach Leistung 2/4xTMSAA oder reines 2/4xMSAA damit umschiffe ich wechselwirkung mit postscreeneffekten sowie brauch mich nicht mehr rumzuprobieren welcher content denn da das flimmern verursacht....

Coda
2010-02-13, 01:05:56
Ich wette meine beste Unterhose das von unseren BQ-Qualitäts-Fetischisten KEINER!! in der Lage wäre unter vergleichbaren Bedingungen eine ATI von einer NV zu unterscheiden.
Lehn dich damit mal nicht zu weit aus dem Fenster. Ich würde das nämlich mit Sicherheit sehen wenn ich genau hinschaue ;)

mapel110
2010-02-13, 01:07:07
Nvidia's R&D spending examined
http://www.semiaccurate.com/2010/02/12/nvidias-rd-spending-examined/
Diesmal nicht von Charlie.

Sry4Ontopic. :usad:

Gast
2010-02-13, 01:10:04
16xS-TSSAA wirkt nicht stark auf Texturen und Shader, zudem blurt NV mehr.
Ich meinte tatsächlich TMSAA, spart doch einiges an Leistung.
An Texturen braucht nicht viel geglättet werden, darum war 8xMSAA so wichtig... Mal im Ernst, es ist eben nicht eindeutig, welcher Modus 4xSGSSAA ebenbürtig ist. Auch wenn es dieser derguru erzählt.
Warum er auf 8xSQ samt kein TAA und nur Q kommt weiss wohl nur er allein.

derguru
2010-02-13, 01:12:59
eben,woher sollstest du das wissen mit was 4xsgssaa vergleichbar ist wenn man es noch nie gesehen hat.LS bist du wieder in u-haft oder warum als gast?

Gast
2010-02-13, 01:17:18
Wenn du nicht checkst um was es geht solltest du deine Finger still halten.
Ich weiss wer LS ist, aber du scheinbar nicht was HQ, TAA, SS, MS ist.

Aquaschaf
2010-02-13, 01:24:45
Die Register pro SP wurden sogar glatt halbiert beim Fermi! :freak:.

Ist das überhaupt ein besonderes Problem? Ich habe mich soweit zwar fast nur mit Implementierungen von kombinatorischen Algorithmen in CUDA beschäftigt. Aber der Fall dass nicht auch die Register auf G80 ausgereicht hätten um die Prozessoren mit genügend Threads auszulasten ist bei mir nie aufgetreten. Ein größerer shared memory wäre mir viel lieber als mehr Register :upara: Aber vielleicht liegt das an der Problemdomäne.

Ich wette meine beste Unterhose das von unseren BQ-Qualitäts-Fetischisten KEINER!! in der Lage wäre unter vergleichbaren Bedingungen eine ATI von einer NV zu unterscheiden. .

Oh doch, das ist nicht schwer. Ultima 9, NFS: Porsche oder Fable sind schon 3 Spiele bei denen mir der Wechsel zwischen Radeon HD und Geforce bzw. R520/R580-basierter Radeon sofort ins Auge springt.

derguru
2010-02-13, 01:28:27
Wenn du nicht checkst um was es geht solltest du deine Finger still halten.
Ich weiss wer LS ist, aber du scheinbar nicht was HQ, TAA, SS, MS ist.
willst du ein rate spiel machen,ich mach bildchen mit mit einer nv und ati karte und du sagst welcher modi du checker;D

Gipsel
2010-02-13, 01:39:18
Ist das überhaupt ein besonderes Problem? Ich habe mich soweit zwar fast nur mit Implementierungen von kombinatorischen Algorithmen in CUDA beschäftigt. Aber der Fall dass nicht auch die Register auf G80 ausgereicht hätten um die Prozessoren mit genügend Threads auszulasten ist bei mir nie aufgetreten. Ein größerer shared memory wäre mir viel lieber als mehr Register :upara: Aber vielleicht liegt das an der Problemdomäne.Wahrscheinlich. Mir ist das bisher ebenfalls noch nicht untergekommen. Ich habe auch nur ein paar CUDA-Leute deswegen jammern hören. Also offensichtlich gibt es schon komplexe Shader, wo das eng wird. Ganz umsonst wird NV die Register mit GT200 nicht verdoppelt bzw. ATI schon immer so grob das Doppelte in ihre GPUs reingepackt haben. Achja, shared memory wird doch mit Fermi vergrößert!

Aber um noch mal auf die Fermi-Yields und Frequenzen zurückzukommen, muß man Charlie nicht einfach für solche Posts (http://forum.beyond3d.com/showthread.php?p=1393885#post1393885) lieben? :lol:
when they [insiders] are talking yields, they just mention the hot clock. Top bin is way low for A3, but on the up side, it isn't yielding at all. Oh, never mind, that isn't an up side. :)

Coda
2010-02-13, 04:35:35
@ Gast

16xS-TSSAA wirkt nicht stark auf Texturen und Shader, zudem blurt NV mehr.
Was blurt mehr? Supersampling? Nö. Im Gegenteil. ATI wählt den LOD-Bias zu positiv.

tombman
2010-02-13, 05:27:32
Für wie viele Fps? Eine übertaktete HD 5870 schaukelt DX9 Enthusiast in den genannten Einstellungen über weite Teile des Spiels mit 30+ Fps. "Brauchen" sieht IMO anders aus. :) Crossfire braucht im jetzigen Status wirklich niemand, urks.

Laut dem hier
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/11/#abschnitt_crysis_warhead
schafft eine HD5870 19x12 nichtmal 4x AA in 30fps- wie soll da jetzt 4x SSAA gehen?

Und nein, unter Full HD interessiert nicht.
1920x1080 oder 1920x1200 ist Pflicht.

Und das in 4x SSAA erfordert CF.

mapel110
2010-02-13, 05:29:05
CB bencht mit DX10 und Raffi spielt logischerweise in DX9, weil er nur da SSAA forcen kann. Einen Tod muss man halt sterben. ^^

Nightspider
2010-02-13, 05:44:30
Was aber auch nicht immer hilft: ;(
http://www.abload.de/img/d3-8xss9dvt.png

Was soll man auf so einem Bild eigentlich sehen? :confused:

Blaire
2010-02-13, 05:49:24
Was soll man auf so einem Bild eigentlich sehen? :confused:

Banding...siehst du nicht die 2 Linien die rechts mit zwei Pfeilen markiert sind? In Bewegung ist das störend auffällig, auf einem Standbild natürlich weniger. ;)

Nightspider
2010-02-13, 06:05:41
Banding...siehst du nicht die 2 Linien die rechts mit zwei Pfeilen markiert sind? In Bewegung ist das störend auffällig, auf einem Standbild natürlich weniger. ;)

Ach diese...ich nenns mal Helligkeiten-Unterschiede...zumindest als solches interpretierbar...

tombman
2010-02-13, 06:14:52
CB bencht mit DX10 und Raffi spielt logischerweise in DX9, weil er nur da SSAA forcen kann. Einen Tod muss man halt sterben. ^^
"DX9 Enthusiast" ist aber kaum schneller als "DX10 Enthusiast"...es wird nie und nimmer reichen.

edit:
laut dem hier
http://images.anandtech.com/reviews/video/ati/5870/AA.jpg
sinds 28fps @gamer/enth. Mischmasch.
Bei reinem enth. wirds also noch weniger.

Selbst mit OC krebst er bestenfalls bei 30fps herum- sprich, wenn die Ballerei losgeht ist er im Anus ;) Dann muß er auf 1680x1050 runter oder braucht CF ;)

Ailuros
2010-02-13, 08:27:01
Aha - geschlampt. Das ist nicht gerade die interessanteste Begründung. Bei solchen Projekten wird doppelt und dreifach sich abgesichter. Das ist keine 1-Mann Entwicklungsabteilung.

Dann hatten sie wohl bei den mobilen GPUs extrem viel Pech oder? Mir ist egal was und wieso schuld ist. Es wird Zeit dass sie ihre Bude aufraeumen.

Dass sie laut Ail nicht zur Cebit kommen kann nur wenig bedeuten:
1.) Sie launchen davor
2.) A3 ist nicht vorzeigbar

Es ging um den launch. Von mir aus koennen sie bis zum geht nicht mehr etwas "vorzeigen". Das put up or shut up ist seit langem faellig. Die Presse hat uebrigens immer noch nichts.

Ersteres ist unwahrscheinlich und letzteres würde zu den ständigen Biobsbotschaften der letzten Wochen passen. Und sollte das der Fall sein, frage ich mich, wie lang Huang (?) seinen Kopf noch halten kann.

Entweder er oder jemand anders muss aufraeumen.

Fermi ist ein Papiertiger. Selbst wenn die Leistung bekannt und auf HD-5970-Niveau wäre, muss sich das Teil noch in zahlreichen anderen Disziplinen beweisen. Darunter:

Ist immer noch HQ-AF möglich?

Ich werde Dir eine oeffentliche Entschuldigung schuld sein falls es kein HQ AF geben sollte. GF100 hat ein superset von AF settings im Vergleich zu GT200 und co, was heisst alles bisherige + Zusatz. Das es noch da ist sagt mir aber gar nichts. Ich will wissen ob der Leistungs-unterschied zwischen default Treiber AF und HQ immer noch so klein wie seit G80 ist.

Wieviel verlierst Du heute mit von Treiber-default auf HQ? Im schlimmsten Fall 10% wenn das ueberhaupt? Ich weiss zwar nicht mehr diesbezueglich aber was nutzt Dir wenn HQ noch da ist wenn man bis zu 30% an Leistung verliert wie auf G7x?

Leben die Hybriden noch? Wenn nein, kommen sie wie beim G80 wieder?

Ich brauchte 6 Monate Meckerei bei G80 bis sie den einfachen switch wieder eingelegt haben. Chris (seligen Andenkens) war sogar sauer mit mir danach als ich nachdem es wieder ging auf B3D sagte dass die hybriden nur begrenzten Nutzen haben. Falls nicht (was ich bezweifle) werde ich versuchen dass das Zeug wieder eingestellt wird. Das eigentliche Problem an der Sache ist dass die Flugsimulatoren ala Quantum kein Supersampling mehr benutzen, deshalb wurde es fuer G80 als quasi Ueberfluss angesehen.

Wie laut und stromhungrig ist eine GTX 400?

Die GTX480 duerfte nicht ueber GTX280 Nivaeu liegen. Die 470 auf etwa GTX285.

Funktioniert Downsampling noch? Wird es gar adaptiert und erweitert?

Keine Ahnung.

Oder gibt es vielleicht SGSSAA mittels Hack, wie bei Ati?

Man sagte mir dass ATI etwas hw zugegossen hat; ob es stimmt keine Ahnung. Ich hab schon etliche Male hier gefragt ob man dazu hw braucht aber bis jetzt hat noch keiner geantwortet.

Hybriden damit?

Au weia das klingt kompliziert. IMHO duerfte es nicht gehen leg aber meine Hand nichts in Feuer. Ich plauderte gerade gestern mit einem Entwickler in Echtzeit und er bestand darauf dass MLAA nicht unbedingt nutzloser ist als ATI's edge detect CFAA. Mir sind die Aussagen ueber MLAA hier im Technologie-Forum bewusst aber ich trage auch keine Scheuklappen. MLAA ist um einiges billiger als MSAA und fuer Notfaelle wie Transparenzen oder anderes Zeug koennte man durchaus es mit hw AA kombinieren. Ich weiss dass es Intel's Zeug ist und wohl auf LRB gedacht war, aber ich hab das Gefuehl ich hab das Zeug vielleicht zu frueh als "nutzlos" abgestempelt.
...

Ati hat hübsch vorgelegt. Schon heute kann man eine leise, relativ stromsparende HD 5870 mit tollen Features haben. PhysX und CUDA generell fallen nicht darunter, auch spacken die Treiber gerne – das Gesamtpaket ist aber fein. Und so muss sich Fermi dem gereiften Cypress, mithilfe von herstellereigenen Custom Designs wiedergeboren, stellen.

Zweifellos.

(M)Eine HD 5870 ist genauso "zu schwach für SSAA" wie es schon die 8800 GTX und GTX 280 waren – gar nicht. Ok, bei 30 Zoll muss ich nun idR mit 2x SGSS leben X-D, aber bis inklusive 1.920x1.200 schaukelt die Karte oft Shaderchen.

MfG,
Raff

Eine 5970 aber dann nicht mehr. Und ja IMHO wenn man so "teures" antialiasing benutzen will, sollte man auch bereit sein eine analog groessere Summe auf den Ladentisch zu legen.

Nvidia's R&D spending examined
http://www.semiaccurate.com/2010/02/12/nvidias-rd-spending-examined/
Diesmal nicht von Charlie.

Sry4Ontopic. :usad:

Muelltonne. Ausser die Dame weiss genau wieviel vom jeglichem R&D sich auf GF100 und wieviel sich auf die Nachfolger bezieht.


Aber um noch mal auf die Fermi-Yields und Frequenzen zurückzukommen, muß man Charlie nicht einfach für solche Posts (http://forum.beyond3d.com/showthread.php?p=1393885#post1393885) lieben? :lol:

Target clock war eben nicht bei 1500 sondern hoeher.

Yeah, that is kind of what I thought. Most insiders I talk to basically talk of hot clock and half hot-clock. I hadn't heard anyone internally talk of the base clock at all, and when they are talking yields, they just mention the hot clock. Top bin is way low for A3, but on the up side, it isn't yielding at all. Oh, never mind, that isn't an up side.

Noch klarer dass er nie mit NV Kerlen plaudert, denn ueber diese Einzelheiten ist sich selbst AMD nicht bewusst. Den letzten Satz versteh ich nicht so ganz aber so wie es aussieht liegt die 480 bei ~640/725/1450. Dass 725 der core clock ist war ja auch mein zu optimistisches best case scenario.

Uebrigens Gipsel was denkst Du zu der These hier?

Just theorizing:

I wouldn't suppose the base clock would be pushing the limits of TSMC's process, while it appears the hot clock does.
In addition, it looks like the base clock region is in the center of the die, which might keep things uniform.
Possibly, those units are also composed of lower-leakage and slower gates whose thicker dimensions would offer more margin against variation.

A combination of the previous would relegate the global clock region to a secondary factor in parametric yield issues that the hot clocks would appear to be suffering from.

(edit: the half-hot clock region might have an unfortunate problem if the hot clock drops too low and forces it below the global clock)

http://forum.beyond3d.com/showpost.php?p=1393894&postcount=1282

Gast
2010-02-13, 09:18:49
Was? Die 8800GTX war ein SSAA Monster. Mit 64 Filtereinheiten hatte man 3x soviele Einheiten wie ein G71. Am ende blieben mehr als 2,2x soviel Texturleistung übrig. Eine 5870 bietet gerademal 85% mehr Texturleistung als eine 8800GTX! Und die G71 kam 8 Monat früher auf dem markt und nicht 3 Jahre. Läge man den selben Maßstab an wie bei Cypress, dann müsste man den r350 bzw NV35 mit dem G80 vergleichen - also 64 Filtereinheiten gegen 8.
Soviel zum "zu lahm" für SSAA.

Wie lange hält sich diese Legende eigentlich noch? SSAA fordert alle Einheiten proportional zur Sampleanzahl gleich stark. Mehr Texturleistung nützt dir da gar nichts, man braucht genauso analog dazu mehr Shaderleistung, etc.

Gast
2010-02-13, 09:23:45
"DX9 Enthusiast" ist aber kaum schneller als "DX10 Enthusiast"...es wird nie und nimmer reichen.

edit:
laut dem hier
http://images.anandtech.com/reviews/video/ati/5870/AA.jpg
sinds 28fps @gamer/enth. Mischmasch.
Bei reinem enth. wirds also noch weniger.

Selbst mit OC krebst er bestenfalls bei 30fps herum- sprich, wenn die Ballerei losgeht ist er im Anus ;) Dann muß er auf 1680x1050 runter oder braucht CF ;)

Es gibt genug Leute die Crysis mit einer 5870 in 1920x1200 4xSSAA durchgespielt haben, ich gehöre auch dazu. Die Szenen wo es da zu erkennbaren Rucklern kommt kannst du an einer Hand abzählen, es läuft damit für meine Erkenntnisse sehr flüssig, besser als mit einer GTX285 mit 4xMSAA, wie ich es vorher durchgespielt hatte. Jeweils natürlich DX9 Enthusiast. DX10 bringt nichts außer das es Leistung kostet. Glaub es was dir Leute sagen die eine solche Karte haben oder lass es.

Sorkalm
2010-02-13, 09:30:14
Noch klarer dass er nie mit NV Kerlen plaudert, denn ueber diese Einzelheiten ist sich selbst AMD nicht bewusst. Den letzten Satz versteh ich nicht so ganz aber so wie es aussieht liegt die 480 bei ~640/725/1450. Dass 725 der core clock ist war ja auch mein zu optimistisches best case scenario.

Passt ja ziemlich gut hierzu:

The 512SP part is 48ROPs and should come in at 600-625 core and 1450-1500 for domain clocks.

Stimmt das für 448er auch?

The 448SP should come in, unless they have changed things, 450-475 for the core and around 1250-1300 for the domiain while having just 40ROPs.
http://www.nvnews.net/vbulletin/showpost.php?p=2184778&postcount=135

Ailuros
2010-02-13, 09:35:11
Es gibt genug Leute die Crysis mit einer 5870 in 1920x1200 4xSSAA durchgespielt haben, ich gehöre auch dazu. Die Szenen wo es da zu erkennbaren Rucklern kommt kannst du an einer Hand abzählen, es läuft damit für meine Erkenntnisse sehr flüssig, besser als mit einer GTX285 mit 4xMSAA, wie ich es vorher durchgespielt hatte. Jeweils natürlich DX9 Enthusiast. DX10 bringt nichts außer das es Leistung kostet. Glaub es was dir Leute sagen die eine solche Karte haben oder lass es.

"Fluessig" ist subjektive Ansichtssache, was aber natuerlich nicht heissen soll dass Du nicht recht hast. Da wir aber im GF100 Thread sind interessiert mich persoenlich weniger wie sich eine 480 mit 4xMSAA oder jeglicher Form von SSAA in einem Spiel wie Crysis schlaegt, sondern eher wie das Ganze mit 16xCSAA + TAA oder sogar 32xCSAA + TAA erstmal aussieht und leistet.

Passt ja ziemlich gut hierzu:

Stimmt das für 448er auch?

http://www.nvnews.net/vbulletin/showpost.php?p=2184778&postcount=135

Nach NV soll der core clock zum 1/2 hot clock Unterschied zwischen 12 und 14% liegen. Ich bezweifle das dieses nur die 480 betrifft, deshalb glaube ich eher dass sich XMAN hier mit dem 470 core clock etwas verfranzt hat.

Gast
2010-02-13, 09:37:14
Das AMD'sche SGSSAA ist angebliches aufgeblasenes AAA (glaube deekey777 hat das mal erwähnt) und evtl. deswegen kompatibler als NVs OGSSAA bzw. xS.

Aufgeblasenes AAA, was für ein Unwort. Es basiert auf dem selben Algorithmus wie AAA, der schon immer erstaunlich kompatibel war. Dazu gabs angeblich mit HD5 noch hardwaresupport für bessere Leistung. Deshalb ist es natürlich trotzdem stink normales FS-SSAA. NV hat bei SSAA leider einen deutlich schlechteren, weil weniger kompatiblen Algorithmus.

Gast
2010-02-13, 09:41:01
Fermi ist ein Papiertiger. Selbst wenn die Leistung bekannt und auf HD-5970-Niveau wäre, muss sich das Teil noch in zahlreichen anderen Disziplinen beweisen. Darunter:

Ist immer noch HQ-AF möglich?
Leben die Hybriden noch? Wenn nein, kommen sie wie beim G80 wieder?
Wie laut und stromhungrig ist eine GTX 400?
Funktioniert Downsampling noch? Wird es gar adaptiert und erweitert?
Oder gibt es vielleicht SGSSAA mittels Hack, wie bei Ati? Hybriden damit?
...


Mindestens genau so wichtig: Liefert NV endlich einen vernünftigen Downsamplingfilter. Was will ich mit einem Fermi der auch bei noch so vielen Samples nicht vernünftig glättet dank box-Filter?

tombman
2010-02-13, 10:02:43
Es gibt genug Leute die Crysis mit einer 5870 in 1920x1200 4xSSAA durchgespielt haben, ich gehöre auch dazu. Die Szenen wo es da zu erkennbaren Rucklern kommt kannst du an einer Hand abzählen, es läuft damit für meine Erkenntnisse sehr flüssig, besser als mit einer GTX285 mit 4xMSAA, wie ich es vorher durchgespielt hatte. Jeweils natürlich DX9 Enthusiast. DX10 bringt nichts außer das es Leistung kostet. Glaub es was dir Leute sagen die eine solche Karte haben oder lass es.
20fps bis 30fps interessiert mich aber bei Crysis nicht. Ich will mehr- Fermi wirds richten :)... Oder 2... Oder 3 :devil:

Odal
2010-02-13, 10:24:46
ich frage mich wieso "crysis" überhaupt noch interessiert
ich mein ich fand das schon immer schnarchlangweilig, aber so wie einige immer hinter "crysis performance" hinterher sind, kann ich mir nicht vorstellen das solang wie das schon auf dem markt ist noch irgend einen wiederspielwert bietet

wenn dann sollte dich doch eher die performance in "crysis2" interessieren

Gast
2010-02-13, 16:23:20
Dann hatten sie wohl bei den mobilen GPUs extrem viel Pech oder? Mir ist egal was und wieso schuld ist. Es wird Zeit dass sie ihre Bude aufraeumen.


Produktionsfehler, der sich über mehrere Generation gezogen hat. Genauso wie die vor dem Launch zurückgerufenen 8800GTX Karten oder die fehlerhafte Kühlermontage der ersten GTX280 Karten. Das hat alles hat nichts mit diesem angeblichen Fehler zu tun - der liegt nämlich im Design.

Gast
2010-02-13, 16:35:11
Wie lange hält sich diese Legende eigentlich noch? SSAA fordert alle Einheiten proportional zur Sampleanzahl gleich stark. Mehr Texturleistung nützt dir da gar nichts, man braucht genauso analog dazu mehr Shaderleistung, etc.

Jo - deswegen ist eine X2900XT auch so überragend schnell, wenn man SSAA in Form von TSSAA verwendet...

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

Nunja, aber wir wissen ja, dass eine 8600GTS eine immense FLOP-Anzahl besitzt.

Gast
2010-02-13, 16:40:53
Jo - deswegen ist eine X2900XT auch so überragend schnell, wenn man SSAA in Form von TSSAA verwendet...

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

Nunja, aber wir wissen ja, dass eine 8600GTS eine immense FLOP-Anzahl besitzt.

Und inwiefern wiederspricht das Dem was der andere gast geschrieben hat?
Der r600 hat eine schlechte Texturleistung und deswegen wird er von dieser bei SSAA limitiert.
Nur weil in diesem Fall die Texturleistung limitier heißt das noch lange nicht dass man nur viel Texturleistung für SSAA braucht.
Denken->Posten.

Gast
2010-02-13, 16:48:22
Und inwiefern wiederspricht das Dem was der andere gast geschrieben hat?
Der r600 hat eine schlechte Texturleistung und deswegen wird er von dieser bei SSAA limitiert.
Nur weil in diesem Fall die Texturleistung limitier heißt das noch lange nicht dass man nur viel Texturleistung für SSAA braucht.
Denken->Posten.

Das Verhältnis von Cypress ist das selbe wie beim r600. Am dortigen Beispiel sieht man, dass man Cypress benötigt, um mindesten die 8800GTX beim Einsatz von TSSAA zu überholen. Und jetzt denken wir mal nach: Wenn ein rv770 immer noch an der Texturleistung hängt, wieso sollte es bei Cypress anders aussehen? Die Karte hat die 5fache Rechen- und die 8 fache MADD-Leistung gegenüber der 8800GTX. Müsste also Kreise mit SSAA um die Karte fahren. Dagegen stehen jedoch 85% mehr Texturleistung. Wenn also der r600 am Texturlimit mit seinem 4:1 Verhältnis hängt, wieso sollte es bei Cypress mit seinem 4:1 Verhältnis anders aussehen?

Gast
2010-02-13, 16:56:05
Das Verhältnis von Cypress ist das selbe wie beim r600. Am dortigen Beispiel sieht man, dass man Cypress benötigt, um mindesten die 8800GTX beim Einsatz von TSSAA zu überholen. Und jetzt denken wir mal nach: Wenn ein rv770 immer noch an der Texturleistung hängt, wieso sollte es bei Cypress anders aussehen? Die Karte hat die 5fache Rechen- und die 8 fache MADD-Leistung gegenüber der 8800GTX. Müsste also Kreise mit SSAA um die Karte fahren. Dagegen stehen jedoch 85% mehr Texturleistung. Wenn also der r600 am Texturlimit mit seinem 4:1 Verhältnis hängt, wieso sollte es bei Cypress mit seinem 4:1 Verhältnis anders aussehen?
Weil der rv870 andere Textureinheiten hat und ca. den Füllrate der GT285.
Du musst doch die totalen Werte sehen nicht das Verhätnis innerhalb des Chips.
Der rv870 hat sehr viel Rechenleistung so dass er auf das 4:1 Verhältnis kommt.
Total gesehen ist er aber der schnellste erhältiliche Chip für SSAA.

Gast
2010-02-13, 17:23:29
RV870 hat praktisch kaum mehr Texelfüllrate als die 285.
Diese nutzt er dann nichteinmal aus, sondern schummelt bei der Filterung. Er braucht SSAA um diesen Mangel zu verdecken. Die 285 nutzt SSAA vom ersten Augenblick zur BQ Steigerung.

Gast
2010-02-13, 17:33:50
RV870 hat praktisch kaum mehr Texelfüllrate als die 285.
Diese nutzt er dann nichteinmal aus, sondern schummelt bei der Filterung. Er braucht SSAA um diesen Mangel zu verdecken. Die 285 nutzt SSAA vom ersten Augenblick zur BQ Steigerung.

Tut das der rv870 nicht?;)
Kurz darüber nachdenken, nachschauen was SSAA ist was LOD ist und dann braucht man hier nicht Seitenlang über Sachen diskutieren die man wissen könnte.

EOD

Gast
2010-02-13, 18:12:39
AMD cheatet seit Jahren bei der Filterung.
AMD liegt in Sachen Texelfüllrate knapp über GTX 285 Niveau.

Jetzt nutzt am das SSAA um diese minderwertige Filterung zu kaschieren, in dem man das LOD nur leicht verschiebt.

Keine Ahung was du mir für Zeug unter jubeln willst.

Gast
2010-02-13, 18:59:18
AMD cheatet seit Jahren bei der Filterung.
AMD liegt in Sachen Texelfüllrate knapp über GTX 285 Niveau.

Jetzt nutzt am das SSAA um diese minderwertige Filterung zu kaschieren, in dem man das LOD nur leicht verschiebt.

Keine Ahung was du mir für Zeug unter jubeln willst.

Dann starte nicht so ein Pseudodiskussion.
Sag gleich am Anfang klipp und klar:
"Ich will nicht diskutieren sondern AMD flamen. Wenn mir die Argumente ausgehen komme ich mit Filtercheat und treibern und gut"
Dann kann man solche Trolle auch mal ignorieren und muss nicht immer die gleiche schei.. posten.

Gast
2010-02-13, 19:13:56
In meinem ersten Post http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7841871#post7841871 habe ich klar gemacht, was es für Unfug ist SG zu loben und die miese Filterung unter den Tisch zu loben, wo doch klar ist, das das LOD nebenbei nicht korrekt verschoben wird, um die inkorrekte Filterung zu kaschieren.

Das ist kein Flame sondern ein Fakt.
Ein Flame ist zu behaupten SSAA sei erst seit 5870 möglich, wie es einige Typen gern tun.

Gast
2010-02-13, 19:24:26
In meinem ersten Post http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7841871#post7841871 habe ich klar gemacht, was es für Unfug ist SG zu loben und die miese Filterung unter den Tisch zu loben, wo doch klar ist, das das LOD nebenbei nicht korrekt verschoben wird, um die inkorrekte Filterung zu kaschieren.

Das ist kein Flame sondern ein Fakt.
Ein Flame ist zu behaupten SSAA sei erst seit 5870 möglich, wie es einige Typen gern tun.

Das interessiert mich doch nicht was xy behauptet.
Und ja es ist korrekt SG zu loben.
Wenn SSAA aktiviert ist und das LOD verschoben ist die Filterung in Ordnung.
Und die Filterung zu flamen ist so was von überflüssig.
Es gib hier geschätzte 999999999999 Threads in denen darüber diskutiert wurde. Dazu gibt es absolut Nichts mehr zu sagen.
SSAA ist auf jeder Karte möglich die ES beherscht und das sind viele.
Und 5870/90 ist dafür die schnellste Karte das ist Fakt.

Gast
2010-02-13, 20:34:04
Wenn SSAA aktiviert ist und das LOD verschoben ist die Filterung in Ordnung.Das LOD wird weniger stark verschoben als es möglich wäre, eben um diesen Filterumstand zu kaschieren.
Was genau kapierst du daran nicht?


Und die Filterung zu flamen ist so was von überflüssig.Stimmt, Texturfilterung ist nicht Aufgabe von FSAA, auch wenn es neuerdings so behauptet wird.

SSAA ist auf jeder Karte möglich die ES beherscht und das sind viele.
Und 5870/90 ist dafür die schnellste Karte das ist Fakt. Zeig mir den Post, der dem wiederspricht.
Gehe gegen diesen Post vor und las mich in Ruhe.

Gast
2010-02-14, 06:32:11
Wie lange hält sich diese Legende eigentlich noch? SSAA fordert alle Einheiten proportional zur Sampleanzahl gleich stark. Mehr Texturleistung nützt dir da gar nichts, man braucht genauso analog dazu mehr Shaderleistung, etc.Es fordert alle Einheiten gleich stark im Vergleich zum Betrieb ohne MSAA. Das heißt, das die Texturleistung schon wichtiger ist als im normalen Betrieb (also AF + MSAA). Nur eben nicht so sehr wie oft behauptet.
Das LOD wird weniger stark verschoben als es möglich wäre, eben um diesen Filterumstand zu kaschieren.Würde es maximal verschoben hätte dies auch dann negative Auswirkungen, wenn ein idealer Texturfilter mit grenzwertigen Texturen/Shadern eingesetzt wird. Für die von SSAA erwartete Beruhigung des gesamten Bildes sollte man ein ganzes Stück unter dem bleiben, was bei idealem Content möglich wäre, denn mit idealem Content bräuchte man ja gar kein SSAA.
Stimmt, Texturfilterung ist nicht Aufgabe von FSAA, auch wenn es neuerdings so behauptet wird.Texturfilterung ist eine Form von AA, nämlich das auf Texturen. MSAA/CSAA ist eine andere Form von AA, nämlich das auf Geometrie. Und SSAA ist halt AA auf alles.

@Ail:
MLAA? Ist damit TMAA-taugliches CSAA gemeint?

Coda
2010-02-14, 06:38:30
Würde es maximal verschoben hätte dies auch dann negative Auswirkungen, wenn ein idealer Texturfilter mit grenzwertigen Texturen/Shadern eingesetzt wird. Für die von SSAA erwartete Beruhigung des gesamten Bildes sollte man ein ganzes Stück unter dem bleiben, was bei idealem Content möglich wäre, denn mit idealem Content bräuchte man ja gar kein SSAA.
Texturfilterung ist eine Form von AA, nämlich das auf Texturen. MSAA/CSAA ist eine andere Form von AA, nämlich das auf Geometrie. Und SSAA ist halt AA auf alles.
Nur doof, dass das LOD-Bias eben die Shaderberechnungen gar nicht beeinflusst, sondern nur ihre Eingabe in Form von Texturen. Das zu negative LOD kann also nur zur Beruhigung der Texturen dienen. Shaderberechnungen die das Abtasttheorem verletzen tun das auch damit noch.

Bei sauberer Texturfilterung könnte man sehr wohl das optimale LOD einstellen und man hat trotzdem eine genauso gute Glättung der Shaderberechnungen.

Es gibt übrigens auch keine "grenzwertigen Texturen" wenn man sauber filtert wie so oft behauptet. Man kalkuliert ja genau mit diesem Fall wenn man die zu verwendenden Mips ausrechnet. Wenn man danach zu wenig Samples nimmt ist das kein Problem der Texturen.

Gast
2010-02-14, 06:54:45
Nur doof, dass das LOD-Bias eben die Shader gar nicht beeinflusst, sondern nur ihre Eingabe in Form von Texturen.Genau das war gemeint. Die Auswirkungen grenzwertiger Filter/Texturen können von den Shadern schließlich noch verstärkt werden.
Das zu negative LOD kann also nur zur Beruhigung der Texturen dienen. Shaderberechnungen die das Abtasttheorem verletzen tun das auch damit noch.

Bei sauberer Texturfilterung könnte man sehr wohl das optimale LOD einstellen und man hat trotzdem eine genauso gute Glättung der Shaderberechnungen.Ohne grenzwertige Texturen richtig. Bei "Evil Content" jedoch reicht ein mustergültiger Texturfilter allein nicht mehr.

Wie jetzt, grenzwertige Texturen gibt es nicht mehr? Keiner erzeugt mehr die MIPs per Boxfilter? Wäre wenigstens eine gute Nachricht.

Coda
2010-02-14, 06:58:13
Dürfte selten sein. Aber okay, den Punkt muss ich dir lassen ;)

Aber selbst damit flimmert es mit einem ordentlichen Texturfilter kaum. Auch Box filtert innerhalb der Mip-Pyramide sehr schnell hochfrequente Anteile weg.

aths
2010-02-14, 12:48:47
Es gibt übrigens auch keine "grenzwertigen Texturen" wenn man sauber filtert wie so oft behauptet. Man kalkuliert ja genau mit diesem Fall wenn man die zu verwendenden Mips ausrechnet. Wenn man danach zu wenig Samples nimmt ist das kein Problem der Texturen.MIPS mit 2x2-Boxfilter scheinen leider noch immer Standard zu sein, und die MIPs sind oft nicht mal sRGB-korrekt gefiltert.

MIP-Mapping mit 2x2-Box hat einen weiteren Nachteil: Die Positionierbarkeit. In der Folgemip erscheinen Strukturen entsprechend verschoben. MIPs mit größeren Filterkernel können das zwar besser hinkriegen, dafür leidet dann die Texturschärfe.

mapel110
2010-02-14, 13:33:12
http://www.hardwareluxx.de/community/showpost.php?p=13994911&postcount=1380
Zitat von Bright-Side-of-News (auf Seite 2)
According to nVidia, even the upcoming GF100 architecture will support Optimus not just in notebook variants, but in desktop as well, on a top-to-bottom basis.

Das wäre ja ein echter Hammer. Dann würde nur noch die Leistungsaufnahme unter Last als Problem bleiben.

AnarchX
2010-02-14, 13:40:52
Nur wird wohl kaum jemand seine GTX 400 mit einer langsamen IGP-CPU kombinieren.

Bei aktuellen Idle-Werten von 8-20W sehe ich auch eher weniger Sinn für Optimus @ Desktop.
Eher sollte man bei SLI-Konfigurationen einen Ultra Low Power State für die zusätzlichen Karten anbieten, wie AMD es bei den HD5000 plant.

Gast
2010-02-14, 13:48:39
http://www.hardwareluxx.de/community/showpost.php?p=13994911&postcount=1380
Zitat von Bright-Side-of-News (auf Seite 2)
According to nVidia, even the upcoming GF100 architecture will support Optimus not just in notebook variants, but in desktop as well, on a top-to-bottom basis.

Das wäre ja ein echter Hammer. Dann würde nur noch die Leistungsaufnahme unter Last als Problem bleiben.

Jedes 40nm Produkt von nVidia unterstützt die Copy-Engine und ist somit "Optimus" bereit.

Ailuros
2010-02-14, 14:04:18
Produktionsfehler, der sich über mehrere Generation gezogen hat. Genauso wie die vor dem Launch zurückgerufenen 8800GTX Karten oder die fehlerhafte Kühlermontage der ersten GTX280 Karten. Das hat alles hat nichts mit diesem angeblichen Fehler zu tun - der liegt nämlich im Design.

http://www.anandtech.com/video/showdoc.aspx?i=3740

Auf der letzten Seite im Fazit oder anders wie NV wieder "execution" lernen koennte.

Deinorius
2010-02-14, 14:08:12
Jedes 40nm Produkt von nVidia unterstützt die Copy-Engine und ist somit "Optimus" bereit.


Und warum kommt dann nix von AMD? Die können sich nicht auf Optimus verlassen, die müssen schon was eigenes bringen.

Gast
2010-02-14, 14:11:55
http://www.anandtech.com/video/showdoc.aspx?i=3740

Auf der letzten Seite im Fazit oder anders wie NV wieder "execution" lernen koennte.

Aha. Toll. Eine PR Story von AMD mit AMD.
Was soll nVidia lernen? Das ergeizige Projekte mal im Sand verlaufen? Aber wir wollen ja alle die superdolle AMD Execution-Welt. Wo wir Jahre warten, bis wir Profile erhalten, oder SSAA, oder HQ-AF, oder Optimus, oder GPU-Physik, oder Stereo3D, oder OpenCL im normalen Treiber...
AMD hat eben diesmal den Vorteil. Das hat nichts mit ihrer "Execution" zu tun. Oder wieso war der GT200 gleichzeitig am Markt? Muss wohl schlechte "Execution" von AMD gewesen sein.

nagus
2010-02-14, 14:26:25
Aha. Toll. Eine PR Story von AMD mit AMD.
Was soll nVidia lernen? Das ergeizige Projekte mal im Sand verlaufen? Aber wir wollen ja alle die superdolle AMD Execution-Welt. Wo wir Jahre warten, bis wir Profile erhalten, oder SSAA, oder HQ-AF, oder Optimus, oder GPU-Physik, oder Stereo3D, oder OpenCL im normalen Treiber...
AMD hat eben diesmal den Vorteil. Das hat nichts mit ihrer "Execution" zu tun. Oder wieso war der GT200 gleichzeitig am Markt? Muss wohl schlechte "Execution" von AMD gewesen sein.

solche "müll" postings kannst du dir wirklich sparen.

"Wo wir Jahre warten, bis wir ..." dx11 erhalten, hast du vergessen. :freak:

Gast
2010-02-14, 14:38:58
Aha. Toll. Eine PR Story von AMD mit AMD.
Was soll nVidia lernen? Das ergeizige Projekte mal im Sand verlaufen? Aber wir wollen ja alle die superdolle AMD Execution-Welt. Wo wir Jahre warten, bis wir Profile erhalten, oder SSAA, oder HQ-AF, oder Optimus, oder GPU-Physik, oder Stereo3D, oder OpenCL im normalen Treiber...
AMD hat eben diesmal den Vorteil. Das hat nichts mit ihrer "Execution" zu tun. Oder wieso war der GT200 gleichzeitig am Markt? Muss wohl schlechte "Execution" von AMD gewesen sein.

Eins muss man aber sagen:
Die Execution von beschissenen LZ-Posts ist in letzter Zeit absolut fabelhaft.

Coda
2010-02-14, 15:26:12
MIP-Mapping mit 2x2-Box hat einen weiteren Nachteil: Die Positionierbarkeit. In der Folgemip erscheinen Strukturen entsprechend verschoben.
Wieso das denn?

Und nein, die Tools die ich kenne benutzen inzwischen alle einen Tent-Filter o.ä.

Gast
2010-02-14, 15:54:15
Und warum kommt dann nix von AMD? Die können sich nicht auf Optimus verlassen, die müssen schon was eigenes bringen.


Lol, bei einer derzeitigen Idle Leistungsaufnahme von ca 10-15 Watt binde ich mir doch keine Extra IGP ans Bein, vor allem vor dem Hintergrund dass diese ja auch Leistung aufnimmt...

mapel110
2010-02-14, 16:00:34
Lol, bei einer derzeitigen Idle Leistungsaufnahme von ca 10-15 Watt binde ich mir doch keine Extra IGP ans Bein, vor allem vor dem Hintergrund dass diese ja auch Leistung aufnimmt...
Es wird bald keine CPUs mehr ohne integrierte GPU geben. Da wäre es mehr als blöd, die in 2D effizientere Hardware nicht zu nutzen.

dildo4u
2010-02-14, 16:06:26
NVIDIAs Rocket Sled Demo: DirectX 11, CUDA, Physics, Fluids and More

http://www.youtube.com/watch?v=HjIzoGnkCZs&feature=player_embedded&fmt=22

Interresant bis zu 1Mio Partikel hoffe man kann das in der Techdemo selber verändern bzw testen.

Botcruscher
2010-02-14, 16:17:03
Ich bin mal gespannt wann man es schafft Objekte korrekt auf zu spalten und nicht instant mit irgendwelchen "Müll" zu ersetzen. Weder von Form, noch Masse oder Art passen da irgendwie zusammen.

Byteschlumpf
2010-02-14, 16:44:28
Es wird bald keine CPUs mehr ohne integrierte GPU geben. Da wäre es mehr als blöd, die in 2D effizientere Hardware nicht zu nutzen.
Wobei Apple nicht sonderlich viel von der integrierten GPU hält und bei den eigenen Rechnern gerne auf diese GPU verzichten möchte! ^^
Das bringt Intel wiederum in Zugszwang!