Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 [48] 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

huch
2010-02-18, 16:02:25
sorry - sollte an den vorhergehenden Fragesteller als PM gehen. Mein schlimmer Fehler...

sorrysorry... *wegduck*

huch
2010-02-18, 16:06:11
Welche Anwendung verwendet DP? Die Beschneidung der DP wird genau 0 Einfluss auf die Geforce-Reihe haben. Vorallen, da es bei AMD DP auch nur Cypress gibt.


unterschätz nicht, wie stark die Uni's auf GPU computing setzen. im moment sind da fast alle noch bei G80 bzw GT200

für wissenschaftliche Simulationen wird gern DP genommen

und mit OpenCL steht auch längst eine offene Programmierschnittstelle bereit

Unis machen fast alles auf Linux und OpenGL - da werden in diesem Jahr ganz Sicher einige statt DP-kastrierten Fermis eben Zypressen nehmen

und die Entwickler der Zukunft kommen woher? Ja, von den Unis...

mrt
2010-02-18, 16:08:16
@ Bucklew
Du hast keine Ahnung von HPC, also bitte lass es gut sein. Du hast bei Quadros recht, die verkaufen sich dank SW gut, das gilt aber für Tesla im HPC-Bereich nicht. Für Großrechner zählt nur eines, Leistung/$ für das geplante Anwendungsspektrum, CUDA interessiert da eher nicht (eher für kleine Rechenknechte interessant, das hat aber nichts mit HPC zu tun).
Die offenen Dokumentation der Grafikchips kann AMD in dem Bereich mehr helfen, aber wohl erst mit RV9xx.
@ Gast über mir
Unis sind eher langsam was APIs betrifft, da werkt man noch länger mit OpenGL oder besser gesagt man missbraucht es. :D
OpenCL wird wohl nur zögerlich Einzug halten.

Gast
2010-02-18, 16:09:25
unterschätz nicht, wie stark die Uni's auf GPU computing setzen. im moment sind da fast alle noch bei G80 bzw GT200

für wissenschaftliche Simulationen wird gern DP genommen

und mit OpenCL steht auch längst eine offene Programmierschnittstelle bereit

Unis machen fast alles auf Linux und OpenGL - da werden in diesem Jahr ganz Sicher einige statt DP-kastrierten Fermis eben Zypressen nehmen

und die Entwickler der Zukunft kommen woher? Ja, von den Unis...

Die kaufen sich entweder Tesla, bekommen sie von nVidia geschenkt (gegen CUDA Lehrstunden) oder geben sich mit 1/4 des Speeds zufrieden.
Außerdem sollte man auch nicht die Erweiterungen für Cuda verachten: Wenn man in Visual Studio C++ ähnlich für eine GPU programmieren kannt, dann wird dies wohl eher als Basis genommen als andere, umständlichere Programmiersprachen.

LovesuckZ

mrt
2010-02-18, 16:12:24
Im VisualStudio arbeitest dann aber wohl eher mit CS, das auf beiden IHVs läuft.

Bucklew
2010-02-18, 16:13:31
@ Bucklew
Du hast keine Ahnung von HPC, also bitte lass es gut sein. Du hast bei Quadros recht, die verkaufen sich dank SW gut, das gilt aber für Tesla im HPC-Bereich nicht. Für Großrechner zählt nur eines, Leistung/$ für das geplante Anwendungsspektrum, CUDA interessiert da eher nicht (eher für kleine Rechenknechte interessant, das hat aber nichts mit HPC zu tun).
Die offenen Dokumentation der Grafikchips kann AMD in dem Bereich mehr helfen, aber wohl erst mit RV9xx.
Na zum Glück hab ich keine Ahnung, wo ich genau in dem Bereich arbeite ;D

mrt
2010-02-18, 16:26:41
Na zum Glück hab ich keine Ahnung, wo ich genau in dem Bereich arbeite ;D
HPC ist Großrechner und nicht Nvidia-Marketing-HPC. Wo arbeitest du?

Gast
2010-02-18, 16:41:20
Die kaufen sich entweder Tesla, bekommen sie von nVidia geschenkt (gegen CUDA Lehrstunden) oder geben sich mit 1/4 des Speeds zufrieden.
Außerdem sollte man auch nicht die Erweiterungen für Cuda verachten: Wenn man in Visual Studio C++ ähnlich für eine GPU programmieren kannt, dann wird dies wohl eher als Basis genommen als andere, umständlichere Programmiersprachen.

LovesuckZ

Bis jetzt wurden die Systemgekauft, weil Sie billig waren.
Ich kann mir nicht vorstellen, dass dort in Zukunft auf Speed verzichtet wird oder sehr viel mehr Geld bezahlt.
Dass die Softwareentwicklung länger dauert, dürfte gerade an eine Uni relativ egal sein.

Bucklew
2010-02-18, 16:41:36
HPC ist Großrechner und nicht Nvidia-Marketing-HPC. Wo arbeitest du?
In einem Bereich, wo ich weiß was an Teslas verkauft wird und wo sie genutzt werden. Das ganze was ich hier erzähle basiert nicht auf irgendwelchen Marketingpräsos oder PR-Gefasel sondern einfach auf den Fakten, die ich sehe. Stellt sich die Frage was du arbeitest?

mrt
2010-02-18, 17:01:22
Ich hab auch durchaus Einblick in die Materie. Es gibt Bereiche wo sich Spezialprozessoren rentieren, für einen großen Teil des Marktes (ich red hier von Großrechnern mit hunderten bis tausenden Prozessoren) aber nicht, da heißts vereinfacht gesagt man hat die Wahl zwischen PPC und x86, da zählt wie gut ich den teuren Großrechner auslasten kann (auch mit dem verkauf von Rechenzeit). Dir ist sicher klar, dass in dem Fall CUDA/STREAM/OpenCL etc weniger als geeignete APIs angesehen werden. ;)

Bucklew
2010-02-18, 17:10:45
Ich hab auch durchaus Einblick in die Materie.
Aha, wodurch denn? Semiaccurate und Fudzilla?

da zählt wie gut ich den teuren Großrechner auslasten kann (auch mit dem verkauf von Rechenzeit).
Speziell in diesem Bereich gibt es einige Anbieter, die bereits auf zusätzliche GPUs setzen, sogar in sehr großem Maßstab. Die möchten das allerdings nicht groß herausposaunen, dass sie inzwischen für ihre Rechenzeit nur noch einen Bruchteil zahlen, das könnte die Kunden ja doch ziemlich verägern :freak:

Dir ist sicher klar, dass in dem Fall CUDA/STREAM/OpenCL etc weniger als geeignete APIs angesehen werden. ;)
Eben das ist der Punkt, der sich mit Fermi und dem kommenden Cuda ändern werden. Genau darum gehts auch in diesem Thread: Spekulation. Und nicht Status quo.

Gast
2010-02-18, 17:14:30
Aha, wodurch denn? Semiaccurate und Fudzilla?


Speziell in diesem Bereich gibt es einige Anbieter, die bereits auf zusätzliche GPUs setzen, sogar in sehr großem Maßstab. Die möchten das allerdings nicht groß herausposaunen, dass sie inzwischen für ihre Rechenzeit nur noch einen Bruchteil zahlen, das könnte die Kunden ja doch ziemlich verägern :freak:


Eben das ist der Punkt, der sich mit Fermi und dem kommenden Cuda ändern werden. Genau darum gehts auch in diesem Thread: Spekulation. Und nicht Status quo.
zum anfang, versteh ich und kann ich nachvollziehen.

aber der letzte absatz, du willst mir ja wohl nicht sagen dass generische rechenaufgaben plötzlich auf fermi laufen? gibt natürlich nen supergeilen compiler der aus standard c# code den passenden code für Fermi (oder von mir aus auch zypresse) generiert und die paar designschwierigkeiten und probleme elegant umgeht. klaro. wovon träumst du nachts?

Bucklew
2010-02-18, 17:18:27
aber der letzte absatz, du willst mir ja wohl nicht sagen dass generische rechenaufgaben plötzlich auf fermi laufen? gibt natürlich nen supergeilen compiler der aus standard c# code den passenden code für Fermi (oder von mir aus auch zypresse) generiert und die paar designschwierigkeiten und probleme elegant umgeht. klaro. wovon träumst du nachts?
Auf welchem HPC-Cluster läuft denn Standard C# Code? Programme in diesem Bereich werden fast immer selbstentwickelt und optimiert, ob dann nun auf x86 oder CUDA ist defakto egal.

Gast
2010-02-18, 17:20:54
zum anfang, versteh ich und kann ich nachvollziehen.

aber der letzte absatz, du willst mir ja wohl nicht sagen dass generische rechenaufgaben plötzlich auf fermi laufen? gibt natürlich nen supergeilen compiler der aus standard c# code den passenden code für Fermi (oder von mir aus auch zypresse) generiert und die paar designschwierigkeiten und probleme elegant umgeht. klaro. wovon träumst du nachts?

Desewgen ist ja auch ein schneller Umschwung auf GPGPU (absolut egal wie Fermi wird) völlig unrealistisch.
Es muss viel Software neu entwickelt werden und das macht man nicht in irgendwelchen properitären Standards von den kein Mensch weis ob es die in ein Paar Jahren noch gibt/supportet werden.

S940
2010-02-18, 18:13:45
Sind zwar alles legitime Punkte nur waere 55nm fuer 3Mrd. Transistoren auch nicht moeglich gewesen. Egal wie oder was NV wird sich gezwungen sehen ihre Strategie zu aendern. Wenn sie auf single chip high end Masche weiterhin bestehen wollen, koennen sie eventuell einen Performance und High end chip parallel entwickeln und wenn high end dann hapert kommt es halt spaeter. So etwas muss man aber auch von Anfang an anlegen.

Eben .... entweder läßt man ein Dickschiffdeisgn gleich ganz bleiben, oder man muss vorher kleinere Versuchschips auflegen, um den Prozess auszutesten.
Es nicht zu tun, ist fast schon grob fahrlässig, von welchem Teufel nV da nur geritten wurde ...
IMHO NV's generelles Execution-Problem liegt hauptsaechlich daran dass sie fuer Probleme ausserhalb ihrer Kontrolle keinen "Plan B" haben und sich nicht rechtzeitig wenden.So siehts aus ... das ist dann aber ein Management Fehler, und keine Schuld der Ingenieure.

Und ja Huang hat engineering ziemlich heftig angebruellt; daran liegt schon wares. Nur hilft es erstmal nichts und zweitens hat er sehr wohl seine eigenen Verantwortungen.
Jo, er sollte wohl v.a. sein Spiegelbild zusammenstauchen ^^

ciao

Alex

mrt
2010-02-18, 18:22:54
Aha, wodurch denn? Semiaccurate und Fudzilla?

Speziell in diesem Bereich gibt es einige Anbieter, die bereits auf zusätzliche GPUs setzen, sogar in sehr großem Maßstab. Die möchten das allerdings nicht groß herausposaunen, dass sie inzwischen für ihre Rechenzeit nur noch einen Bruchteil zahlen, das könnte die Kunden ja doch ziemlich verägern :freak:

Eben das ist der Punkt, der sich mit Fermi und dem kommenden Cuda ändern werden. Genau darum gehts auch in diesem Thread: Spekulation. Und nicht Status quo.
Was für ein Schwachsinn...
Hättest du nur ein wenig technisches Verständnis, dann wüsstest du, dass man GPUs nicht für alles sinnvoll verwenden kann.
Du überschätzt Fermis GP-Eigenschaften extrem. (GP nicht GP-GPU)

Gast
2010-02-18, 18:33:48
Eben .... entweder läßt man ein Dickschiffdeisgn gleich ganz bleiben, oder man muss vorher kleinere Versuchschips auflegen, um den Prozess auszutesten.
Es nicht zu tun, ist fast schon grob fahrlässig, von welchem Teufel nV da nur geritten wurde ...

Und ich fragte mich die ganze Zeit, was sich hinter diesen komischen 40nm Produkten befindet. Aber jetzt weiß ich's: Der gute alte g92.


So siehts aus ... das ist dann aber ein Management Fehler, und keine Schuld der Ingenieure.

Es gibt bei der Chipentwicklung kein Plan B.


Jo, er sollte wohl v.a. sein Spiegelbild zusammenstauchen ^^


Der schreit die 1,3 Milliarden 1 Dollar Scheine an.

LovesuckZ

Gast
2010-02-18, 18:36:47
Ist das schon bekannt? http://www.fudzilla.com/content/view/17723/1/ Anscheinend wird Fermi nicht viel/gleich heiss(er) wie ne GTX285. Und der Kühler soll auch ein anderer als auf der CES sein...

Bucklew
2010-02-18, 18:42:06
Was für ein Schwachsinn...
Nein, Realität. Wolltest du mir nicht noch verraten, warum du es nun angeblich besser wissen willst oder hab ich das verpasst?

Hättest du nur ein wenig technisches Verständnis, dann wüsstest du, dass man GPUs nicht für alles sinnvoll verwenden kann.
Du überschätzt Fermis GP-Eigenschaften extrem. (GP nicht GP-GPU)
Für alles nicht, das habe ich auch nie behauptet, das interpretierst du höchstens da rein, um nicht meine wirkliche Aussage entkräften zu müssen, was dir wohl scheinbar nicht möglich ist.

Sicherlich kann Fermi nicht alles, aber eben viel mehr als vorherige Chips und sobald man das Potential nutzen kann eben auch sehr gut.

Don-Roland
2010-02-18, 18:49:16
Neues aus der Gerüchteküche: Nvidia mit mehr Problemen bei GF100? (http://www.hardware-infos.com/news.php?news=3429)

mapel110
2010-02-18, 18:54:11
Neues aus der Gerüchteküche: Nvidia mit mehr Problemen bei GF100? (http://www.hardware-infos.com/news.php?news=3429)
Nö, nichts Neues. ;( Übersetzung vom Geschreibsel von Charlie, mit ein paar fragwürdigen Schlussfolgerungen kombiniert.

mrt
2010-02-18, 18:58:21
Nein, Realität. Wolltest du mir nicht noch verraten, warum du es nun angeblich besser wissen willst oder hab ich das verpasst?
Von mir läuft genug Code auf Großrechnern, ich muss mich hier nicht profilieren.
Für alles nicht, das habe ich auch nie behauptet, das interpretierst du höchstens da rein, um nicht meine wirkliche Aussage entkräften zu müssen, was dir wohl scheinbar nicht möglich ist.

Sicherlich kann Fermi nicht alles, aber eben viel mehr als vorherige Chips und sobald man das Potential nutzen kann eben auch sehr gut.
Fermi kann eben nicht so viel mehr als zB ein RV870, von einer CPU ist er weit entfernt.
Bei deinem Post auf den ich ursprünglicher geantwortet habe gings darum, dass du behauptet hast, Tesla würden sich wegen der SW verkaufen, das stimmt so nicht. SW für HPC wird zwar normal speziell geschrieben, aber nicht von Grund auf ständig neu, das kostet zu viel, zudem ist CUDA auch noch proprietär und grenzt die Hardwareauswahl beim Upgrade ein.
Spezialprozessoren gab es schon genug, egal ob von NEC oder sonst wen, alle haben sich nicht breitflächig durchgesetzt, warum wohl?

Gast
2010-02-18, 19:05:32
Fermi kann eben nicht so viel mehr als zB ein RV870, von einer CPU ist er weit entfernt.
Bei deinem Post auf den ich ursprünglicher geantwortet habe gings darum, dass du behauptet hast, Tesla würden sich wegen der SW verkaufen, das stimmt so nicht. SW für HPC wird zwar normal speziell geschrieben, aber nicht von Grund auf ständig neu, das kostet zu viel, zudem ist CUDA auch noch proprietär und grenzt die Hardwareauswahl beim Upgrade ein.
Spezialprozessoren gab es schon genug, egal ob von NEC oder sonst wen, alle haben sich nicht breitflächig durchgesetzt, warum wohl?

Genauso wie es Workstationbereich ist und trotzdem hat nVidia einen Anteil von 90%+ im Desktopbereich. Wie kann sowas sein? Die spezielle Software von nVidia läuft ebenfalls nur auf nVidia GPUs und dank OpenGL und DX sollte ein rascher Wechsel von nVidia auf die deutlich billigeren AMD GPUs kein Problem darstellen.
Vielleicht ist es doch die Software und der Support, der die Leute davon abhält, dass sie wechseln. Im Tesla-Bereich versucht nVidia die Programmierung zu erleichtern. Es gibt haufenweise Compiler für Cuda. Das würde alles umsonst sein, wenn nur die Hardware bedeutend wäre.

LovesuckZ

Gast
2010-02-18, 19:14:24
Genauso wie es Workstationbereich ist und trotzdem hat nVidia einen Anteil von 90%+ im Desktopbereich. Wie kann sowas sein? Die spezielle Software von nVidia läuft ebenfalls nur auf nVidia GPUs und dank OpenGL und DX sollte ein rascher Wechsel von nVidia auf die deutlich billigeren AMD GPUs kein Problem darstellen.
Vielleicht ist es doch die Software und der Support, der die Leute davon abhält, dass sie wechseln. Im Tesla-Bereich versucht nVidia die Programmierung zu erleichtern. Es gibt haufenweise Compiler für Cuda. Das würde alles umsonst sein, wenn nur die Hardware bedeutend wäre.

LovesuckZ

Wie soll man den den Treiber selber optimieren?
Und ja wenn DX eingesetzt wird ist ein Wechsel auf Destopgpus sehr sinnvoll.
Das hat aber nichts mit Tesla zu tun.
Man braucht nicht haufenweise Compiler sondern einen ordentlichen.
Gute Tools anzubieten kann ein Vorteil sein. Aber gerade im HPC Markt steht die Leistung pro eingesetztem $ an erster Stelle.

Gast
2010-02-18, 19:18:28
Wie soll man den den Treiber selber optimieren?[/Quote

Warum sollte das von Bedeutung sein? Wieso sollte der Workstationmarkt anders sein als der (GPGPU)-HPC-Markt? Entweder ist Software und Support mitentscheindend oder aber es zählt alleinig nur die Hardware.

[quote]Aber gerade im HPC Markt steht die Leistung pro eingesetztem $ an erster Stelle.

Wenn niemand anfängt die ersten Schritten zu machen, wird es auch nie einen Markt geben. AMD verfolgt die selbe Strategie wie im GPU-Physiks- und 3D-Stereo-Bereich. Nichts machen. Ob man es dann jedoch schafft, sich ins gemachte Netz zu setzen, bleibt abzuwarten.

LovesuckZ

LuXon
2010-02-18, 19:21:22
3 Milliarden Transistoren auf einer Chipfläche von über 550 mm²
echt jetzt?

Momentan läge die Ausbeute der GF100-Chips bei nur 10 funktionsfähigen Exemplaren pro Wafer, was die reinen Chipkosten auf ungefähr 500 US-Dollar treiben würde.
Geile Rechnung. Nur leider ohne Teildeaktivierungen.

Wir sind guter Hoffnung, dass Nvidia selbst sehr früh die Probleme mit dem A-Stepping erkannt hat und daher nebenbei an einer B-Revision gearbeitet hat. Dazu passen auch die Gerüchte um einen GF104-Chip, der kurz nach dem GF100 erscheinen soll. Vielleicht werden die Desktopkarten auch allesamt auf diesem Chip basieren.
Wie sollen die Gerüchte vom GF104 zum B-Stepping des GF100 passen? Desktopkarten nur auf GF104 basis?

Völliger Schwachsin von HWI. Und von Charlie. Nur weil er ein paarmal teilweise recht hatte, darf er auf einmal noch schwärzer als Schwarz malen und die anderen glauben ihm das noch. bzw. verbreiten die "Gerüchte" (eigentlich sind das gar keine Gerüchte mehr, sondern das ist nur noch seine reine Phantasie)

Nightspider
2010-02-18, 19:23:30
Was meint ihr wo die Preise mitte März liegen werden?

HD 5850 ~200 Euro
HD 5870 ~250 Euro

GTX 470 350 Euro
GXX 480 450 Euro ?

derguru
2010-02-18, 19:25:01
100 mehr jeweils bei nv und 50 bei ati,dann passt es behaupt ich mal;)

Adam D.
2010-02-18, 19:25:10
Äußerst unwahrscheinlich, dass die ATis so schnell/stark im Preis fallen. Dafür ist die Verfügbarkeit viel zu schlecht, daran wird sich Mitte März wohl auch nicht viel geändert haben.

Schlammsau
2010-02-18, 19:28:13
Ich denke ATi wird ziemlich Zeitgleich mit Fermi einen "RV890" releasen, der nVidia dann ziemlich einheizen wird.

Aber die Preise könnten ungefähr dann so aussehn:

5830 ~ 150€
5850 ~ 200€
5870 ~ 250€
"5890" ~ 300€

GTX470 ~ 350€
GTX480 ~ 450€

Gast
2010-02-18, 19:28:20
Wie soll man den den Treiber selber optimieren?[/Quote

Warum sollte das von Bedeutung sein? Wieso sollte der Workstationmarkt anders sein als der (GPGPU)-HPC-Markt? Entweder ist Software und Support mitentscheindend oder aber es zählt alleinig nur die Hardware.

Ganz einfach: Weil der "Workstationmarkt" aus OpenGL Programmen besteht.
Dadurch das bei OpenGL niemand auf die Einhaltung der Standards achtet, ist sehr viel Optimierungsarbeit am Treiber nötig.
Das kann kein Kunde selber machen- selbst wenn er wollte.
Aber um die Frage zurückzugeben: Was hat der Workstationmarkt mit dem HPC Markt zu tun?

[QUOTE=Gast;7852395
Wenn niemand anfängt die ersten Schritten zu machen, wird es auch nie einen Markt geben. AMD verfolgt die selbe Strategie wie im GPU-Physiks- und 3D-Stereo-Bereich. Nichts machen. Ob man es dann jedoch schafft, sich ins gemachte Netz zu setzen, bleibt abzuwarten.
LovesuckZ

Was hat das mit dem HPC Markt und dessen Anforderungen zu tun?

Nightspider
2010-02-18, 19:31:40
100 mehr jeweils bei nv und 50 bei ati,dann passt es behaupt ich mal;)

250 Euro bei ner HD 5850? Die gibts doch jetzt schon manchmal (wenn man schnell ist) für 250 zu erhaschen. Und innerhalb der nächsten 4 Wochen dürfte sich die Verfügbarkeit weiter bessern.

Wenn dann noch die Nvidia Karten kommen wird spätestens dann der Preis unter 250 Euro fallen. Meinst du nicht?


Ich denke ATi wird ziemlich Zeitgleich mit Fermi einen "RV890" releasen, der nVidia dann ziemlich einheizen wird.

Gerade dadurch könnten die Preise der alten Karten weiter fallen.

Schlammsau
2010-02-18, 19:34:06
Gerade dadurch könnten die Preise der alten Karten weiter fallen.

Kommt drauf an wieviel nvidia verlangt. Und bei der riesen GPU, können die gar nicht "günstig" werden.

Gast
2010-02-18, 19:34:33
Ich denke ATi wird ziemlich Zeitgleich mit Fermi einen "RV890" releasen, der nVidia dann ziemlich einheizen wird.

"Einheizen" im wahrsten Sinne des Wortes. Mehr als Takterhöhung wird da net drinne sein;)

Schlammsau
2010-02-18, 19:36:24
"Einheizen" im wahrsten Sinne des Wortes. Mehr als Takterhöhung wird da net drinne sein;)
Mehr brauchen sie doch gar nicht. ;)

Was meinst du wie ein RV870 mit 1Ghz und 1300-1400Mhz Speichertakt rocken wird. In Kürze werden sowieso solche 5870 released!
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7833121#post7833121

Mit einem überarbeiteten RV870, könnte das sogar mit nur minimal mehr Verlustleistung erreichbar sein.

Gast
2010-02-18, 19:37:27
Was meint ihr wo die Preise mitte März liegen werden?

HD 5850 ~200 Euro
HD 5870 ~250 Euro

GTX 470 350 Euro
GXX 480 450 Euro ?

Warum sollte eine GTX 470 350 € kosten und eine HD 5870 250 €? Dann müsste die GTX 470 locker 20 % schneller als eine HD 5870 sein und die GTX 480 sogar 50 %, um solche Preise zu rechtfertigen.

Ich bin ja immer noch der Meinung, Fermi wird ein Riesen-Fail. GTX 480 = HD 5870 + 10 %, dafür kommt ein HD 5870-Refresh und beide sind gleichauf.

Gast
2010-02-18, 19:38:01
Mehr brauchen sie doch gar nicht. ;)

Was meinst du wie ein RV870 mit 1Ghz und 1300-1400Mhz Speichertakt rocken wird.

Naja mehr als 20% wird da wohl nicht drin sein.
Aber 2gb RAM währen ganz nett.

Nightspider
2010-02-18, 19:39:41
Warum sollte eine GTX 470 350 € kosten und eine HD 5870 250 €? Dann müsste die GTX 470 locker 20 % schneller als eine HD 5870 sein und die GTX 480 sogar 50 %, um solche Preise zu rechtfertigen.

Ich bin ja immer noch der Meinung, Fermi wird ein Riesen-Fail. GTX 480 = HD 5870 + 10 %, dafür kommt ein HD 5870-Refresh und beide sind gleichauf.

Die Nvidia Karten werden alleine deswegen teurer, weil sie mehr VRAM haben, was den Preis nach oben treibt.

PS: Ich gehe eher davon aus das eine 470 knapp unter und teilweise in manchen Spielen über einer HD5870 liegen wird.

Schlammsau
2010-02-18, 19:40:30
Naja mehr als 20% wird da wohl nicht drin sein.
Aber 2gb RAM währen ganz nett.

Den Spekulationen nach, soll Fermi auch "nur" bis zu 30% schneller sein als eine 5870.

derguru
2010-02-18, 19:42:10
250 Euro bei ner HD 5850? Die gibts doch jetzt schon manchmal (wenn man schnell ist) für 250 zu erhaschen. Und innerhalb der nächsten 4 Wochen dürfte sich die Verfügbarkeit weiter bessern.

Wenn dann noch die Nvidia Karten kommen wird spätestens dann der Preis unter 250 Euro fallen. Meinst du nicht?
Gerade dadurch könnten die Preise der alten Karten weiter fallen.

gerade die 5850 bleibt relative konkurrenzlos und ich glaub da wird sich nicht viel tun,ich tippe auf die preise zum launch vom oktober.also 220-250 für 5850 und 300-330 für die 5870.größeren preisrutsch kommt bestimmt erst beim refresh.

Gast
2010-02-18, 19:42:16
Und Fermi wird man wohl auch übertakten können, da wo die 5890 ausgereizt ist. Ich bin vielmehr gespannt wie zukünftige Spiele auf der neuen NVidia Architektur performen werden.

Spasstiger
2010-02-18, 19:42:40
100 mehr jeweils bei nv und 50 bei ati,dann passt es behaupt ich mal;)
Dito. Wobei die HD 5870 wahrscheinlich über 300€ bleiben wird.

Schlammsau
2010-02-18, 19:46:18
Und Fermi wird man wohl auch übertakten können, da wo die 5890 ausgereizt ist. Ich bin vielmehr gespannt wie zukünftige Spiele auf der neuen NVidia Architektur performen werden.

Es geht um den Preis mein lieber....wenn eine GTX480 über 500€ kostet und eine 5890 "nur" 350€, ist es mir persönlich egal ob ich sie um 10% mehr übertakten kann.

mapel110
2010-02-18, 19:47:19
Warum soll ATI die Preise senken, wenn nvidia nicht liefern kann?! Ihr habt Vorstellungen...

Spasstiger
2010-02-18, 19:48:11
Eine GF100-Karte mit vollen 512 SPs wird mit Sicherheit über 500€ liegen (wahrscheinlich wirds sogar Listungen bis 700€ geben bei der zu erwartenden Verfügbarkeit, Enthusiasten zahlen trotzdem). Bleibt nur die Frage, ob die GTX 480 diese Karte sein wird. Ich gehe davon aus.

Gast
2010-02-18, 19:53:30
Eine GF100-Karte mit vollen 512 SPs wird mit Sicherheit über 500€ liegen...

Sorry aber...Quelle:)

derguru
2010-02-18, 19:54:42
quelle=erfahrung

Gast
2010-02-18, 19:55:49
Ah so na dann wirds wohl hinhauen;)

mapel110
2010-02-18, 19:56:17
quelle=erfahrung
Wann hat denn nvidia nicht auf Preise von ATI reagiert?

Undertaker
2010-02-18, 19:58:09
Wenn wirklich zeitnah auch eine Dualkarte erscheinen soll, kann man eigentlich nicht zu hoch mit dem Preis gehen. Die Frage ist auch, wie weit man sich von einer möglichen HD5890 absetzen kann.

Bucklew
2010-02-18, 20:00:54
Von mir läuft genug Code auf Großrechnern, ich muss mich hier nicht profilieren.
Wenn du dazu nicht willens (oder fähig?) bist, warum verlangst du es dann von anderen Leuten?

Fermi kann eben nicht so viel mehr als zB ein RV870, von einer CPU ist er weit entfernt.
"nicht so viel mehr" ist eigentlich schon der Witz des Tages. Klar, 1+1 können beide rechnen, aber da kommt noch einiges mehr. Vielleicht solltest du dich mal etwas mit Fermi auseinandersetzen?

Bei deinem Post auf den ich ursprünglicher geantwortet habe gings darum, dass du behauptet hast, Tesla würden sich wegen der SW verkaufen, das stimmt so nicht. SW für HPC wird zwar normal speziell geschrieben, aber nicht von Grund auf ständig neu, das kostet zu viel, zudem ist CUDA auch noch proprietär und grenzt die Hardwareauswahl beim Upgrade ein.
Spezialprozessoren gab es schon genug, egal ob von NEC oder sonst wen, alle haben sich nicht breitflächig durchgesetzt, warum wohl?
Ich habe nie gesagt, dass sich Tesla wegen der Software verkaufen würde. Ich habe nur gesagt, dass sich mit den neuen Features in Fermi die Karten auch attraktiver für den HPC-Markt zeigen, alles andere interpretierst du herein.

Den Vorteil den ein Fermi im Vergleich zu anderen SpezialCPUs hat ist seine Universalität. Man kann ihn zur not auch in einem 500€ PC ausprobieren und kann auch schleichend migrieren. Kann also z.B. eine CPU/GPU-Mischung und die (je nach Erfolg und Einsatzzweck) im Laufe der Entwicklung eines Clusters verriieren. Das CUDA propreitär ist spielt dabei eine sehr kleine Rolle, dafür sind solche Cluster viel zu speziell.

Gast
2010-02-18, 20:02:38
Eine GF100-Karte mit vollen 512 SPs wird mit Sicherheit über 500€ liegen (wahrscheinlich wirds sogar Listungen bis 700€ geben bei der zu erwartenden Verfügbarkeit, Enthusiasten zahlen trotzdem). Bleibt nur die Frage, ob die GTX 480 diese Karte sein wird. Ich gehe davon aus.

Nö, wird sie nicht.
Könnten wir daher bitte unsere Phantasievorstellungen zurückstellen? Oder muss ich wieder mit den alten G80 Threads kommen?
Warum wartet man nicht einfach ab? oder macht in der Lounge ein Thread auf. Aber solche Erwartungen interessieren niemanden.

LovesuckZ

mapel110
2010-02-18, 20:02:45
Wenn wirklich zeitnah auch eine Dualkarte erscheinen soll, kann man eigentlich nicht zu hoch mit dem Preis gehen. Die Frage ist auch, wie weit man sich von einer möglichen HD5890 absetzen kann.
Was hat die Dual Karte damit zu tun?! Die ist eh ein Prestige-Projekt. ATI verkauft sie für 600 € und mehr. Wenn Gemini also schneller ist, kann man auch mehr verlangen.

Gast
2010-02-18, 20:03:07
Also NV hat angeblich 9000 Wafer für Fermi bekommen, das finde ich nicht wenig für den Start, da sollte das Angebot nicht so klein sein. Die Frage ist höchstens ob es viele 512SP-Chips geben wird. Das hier ein Engpass vorhanden ist zeigen ja alleine schon die Tesla-Karte.

Gast
2010-02-18, 20:06:13
Also NV hat angeblich 9000 Wafer für Fermi bekommen, das finde ich nicht wenig für den Start, da sollte das Angebot nicht so klein sein. Die Frage ist höchstens ob es viele 512SP-Chips geben wird. Das hier ein Engpass vorhanden ist zeigen ja alleine schon die Tesla-Karte.

Der Engpass wäre somit seit der GTC bekannt gewesen - also noch bevor nVidia überhaupt erste reelle Aussagen treffen konnte...

Spasstiger
2010-02-18, 20:13:00
Also NV hat angeblich 9000 Wafer für Fermi bekommen, das finde ich nicht wenig für den Start, da sollte das Angebot nicht so klein sein.
Das wären dann zwar anständig viele GF100-Chips mit 448 SPs, aber nur rund 10.000 Stück mit 512 SPs. Der Engpass bei der GTX 480 (512 SP) wird imo deutlich krasser sein als bei der HD 5870. Ich sehe schon tombman mit dreimal GTX 470, weil ihm die GTX 480 zu teuer ist. ;)

Gipsel
2010-02-18, 20:15:32
das habe ich auch nie behauptet, das interpretierst du höchstens da rein, um nicht meine wirkliche Aussage entkräften zu müssen, was dir wohl scheinbar nicht möglich ist.
Okay, übersehen wir mal Deine beinahe beleidigenden Äußerungen gegenüber mrt und überprüfen das mal.
[..] da zählt wie gut ich den teuren Großrechner auslasten kann (auch mit dem Verkauf von Rechenzeit). Dir ist sicher klar, dass in dem Fall CUDA/STREAM/OpenCL etc weniger als geeignete APIs angesehen werden. ;)
Speziell in diesem Bereich gibt es einige Anbieter, die bereits auf zusätzliche GPUs setzen, sogar in sehr großem Maßstab. Die möchten das allerdings nicht groß herausposaunen, dass sie inzwischen für ihre Rechenzeit nur noch einen Bruchteil zahlen, das könnte die Kunden ja doch ziemlich verägern :freak:
Auf welchem HPC-Cluster läuft denn Standard C# Code? Programme in diesem Bereich werden fast immer selbstentwickelt und optimiert, ob dann nun auf x86 oder CUDA ist defakto egal.
Kommst Du selber drauf, was da nicht zusammen paßt?

Wenn ein Betreiber eines großen HPC-Clusters Rechenzeit verkauft und die Kunden selbstentwickelte Programme einsetzen, wie bekommt der Betreiber es denn hin, daß der Einsatz von GPUs vollkommen transparent abläuft? Hier gleich neben mir sitzen mehrere Leute, die ihre selbstgeschriebenen Codes auf verschiedenen HPC-Clustern laufen lassen. Während es kein größeres Problem ist, für den gleichen Code Cluster aus IBMs Power-CPUs, Itaniums oder x86er (Opterons oder Xeons spielt da auch keine Rolle) zu verwenden (die haben da alles schon durch), zweifel ich doch extrem daran, daß GPUs auch nur ansatzweise von einem dieser Codes einfach genutzt würden. Wie soll das denn funktionieren? Aus normalen C/C++ (oder meinetwegen auch Fortran) Code kann noch kein Compiler für GPUs geeignete Anwendungen zaubern. Man kann allerhöchsten z.B. GPU-Bibliotheken für lineare Algebra linken, aber selbst das erfordert eine gewisse Nutzermitwirkung und kann unter Umständen zu für den Kunden unerfreulichen Abweichungen gegenüber der CPU-Version bei den Ergebnissen führen.

Oder um das mal einfach zusammenzufassen: Du hast Blödsinn erzählt.

Undertaker
2010-02-18, 20:15:40
Was hat die Dual Karte damit zu tun?! Die ist eh ein Prestige-Projekt. ATI verkauft sie für 600 € und mehr. Wenn Gemini also schneller ist, kann man auch mehr verlangen.

An über 600€ für die Dualkarte glaube ich aber nicht - Prestige ja, aber auch in Stückzahlen. Die Singlekarte sollte dann auf jeden Fall günstiger sein.

Mal ein bisschen Spekulation:

GTX470 = HD5890 = ~350€
GTX480 = HD5970 = ~500€ (HD5970 schneller, aber mit Dual-GPU Abschlag)
GTX495(?) = ~600€

Das alles bei Lieferbarkeit Mitte/Ende Q2.

Bucklew
2010-02-18, 20:18:03
Kommst Du selber drauf, was da nicht zusammen paßt?

Wenn ein Betreiber eines großen HPC-Clusters Rechenzeit verkauft und die Kunden selbstentwickelte Programme einsetzen[...]
Tja, da ist dein Denkfehler: Wer sagt, dass die Kunden da selbstentwickelte Programme einsetzen?

Hab die restliche Aussage, die in sich selbst zusammengestützt ist, mal weggelassen ;)

Oder um das mal einfach zusammenzufassen: Ich hab Blödsinn erzählt.
Ich hab den Satz dann mal korrigiert ;D

Gipsel
2010-02-18, 20:18:42
"nicht so viel mehr" ist eigentlich schon der Witz des Tages. Klar, 1+1 können beide rechnen, aber da kommt noch einiges mehr. Vielleicht solltest du dich mal etwas mit Fermi auseinandersetzen?Da Du das ja offensichtlich gemacht hast, rück' doch mal raus welche wesentlichen Sachen Fermi mehr kann (außer dem unified Adressraum).

Gast
2010-02-18, 20:19:58
Da Du das ja offensichtlich gemacht hast, rück' doch mal raus welche wesentlichen Sachen Fermi mehr kann (außer dem unified Adressraum).

DP über OpenCL. :)

Gipsel
2010-02-18, 20:20:06
Tja, da ist dein Denkfehler: Wer sagt, dass die Kunden da selbstentwickelte Programme einsetzen?
Programme in diesem Bereich werden fast immer selbstentwickeltBusted.

Gipsel
2010-02-18, 20:21:28
DP über OpenCL. :)Bis die Teslas verfügbar sind, geht das mit den ATIs auch ;)

Bucklew
2010-02-18, 20:21:48
Busted.
Die Programme die da laufen sind selbstentwickelt -aber nicht von den Kunden. Was ist da jetzt so schwer dran, einfach mal Sachen zu glauben, anstelle ständig zu meinen es ohne jeglichen blassen Schimmer besser zu wissen?:facepalm:

Gast
2010-02-18, 20:23:08
Bis die Teslas verfügbar sind, geht das mit den ATIs auch ;)

Tesla existieren seit Juni 2007. DP über OpenCL seit November. :)

deekey777
2010-02-18, 20:24:30
DP über OpenCL. :)
Wirklich? Wow! Hat Nvidia auch schon einen Treiber, der sich mit Khronos' ICD gut versteht?
Und der RV870 kann bestimmt DP unter Stream. Wahnsinn.
Aber Gipsel ging es bestimmt um die Hardware-Seite und nicht darum, ob die Software seine Features unterstützt.
Bis die Teslas verfügbar sind, geht das mit den ATIs auch ;)
KB88 - Preview Feature: ATI Stream SDK v2.01 Support for Double-Precision Floating Point Basic Arithmetic in OpenCL™ C Kernels (http://developer.amd.com/support/KnowledgeBase/Lists/KnowledgeBase/DispForm.aspx?ID=88)
This preview feature is being offered to developers by AMD and does not constitute support for any official optional double-precision floating point extension as defined in the OpenCL™ 1.0 Specification. This feature may behave differently from what is documented in the specification.

Double-precision floating point addition, subtraction and multiplication operators are available for use in OpenCL™ C kernels.

Before using double data types and/or double-precision floating point operators in OpenCL™ C kernels, you need to include the #pragma OPENCL EXTENSION cl_khr_fp64 : enable directive.

Double-precision floating point built-in function support will be added in a future release.

Use of double-precision floating point arithmetic on GPUs other than ATI Radeon™ HD 5900 Series GPUs, ATI Radeon™ HD 5800 Series GPUs, ATI Radeon™ HD 4800 Series GPUs, ATI Mobility Radeon™ HD 4800 Series GPUs, ATI FirePro™ V8700 Series GPUs and AMD FireStream™ 9200 Series GPUs may result in unexpected behavior.

Gipsel
2010-02-18, 20:24:49
Die Programme die da laufen sind selbstentwickelt -aber nicht von den Kunden.Dann hatte mrt wohl doch Recht, als er meinte, Du sprichst von von einem anderen HPC ;)

Edit:
Ich warte übrigens immer noch auf die wesentlichen Zusatzfeatures von Fermi. Mußt Du noch googeln?

Gipsel
2010-02-18, 20:26:12
Tesla existieren seit Juni 2007. DP über OpenCL seit November. :)
Du meinst die GT200-Teslas, wo ein Dual-CPU System billiger und schneller ist? Ich dachte es wäre klar, das ich mich auf die Fermi-Teslas bezog.

Gast
2010-02-18, 20:26:32
Die Programme die da laufen sind selbstentwickelt -aber nicht von den Kunden. Was ist da jetzt so schwer dran, einfach mal Sachen zu glauben, anstelle ständig zu meinen es ohne jeglichen blassen Schimmer besser zu wissen?:facepalm:

Ich glaube nicht, dass dein HPC Markt der gleiche ist den hier Andere reden;)

Bucklew
2010-02-18, 20:28:13
Dann hatte mrt wohl doch Recht, als er meinte, Du sprichst von von einem anderen HPC ;)
Nö.

Gast
2010-02-18, 20:28:49
Mal ein bisschen Spekulation:

GTX470 = HD5890 = ~350€
GTX480 = HD5970 = ~500€ (HD5970 schneller, aber mit Dual-GPU Abschlag)
GTX495(?) = ~600€

Das alles bei Lieferbarkeit Mitte/Ende Q2.

Eine Spekulation beruht auf Tatsachen. Das was du da von dir gibst sieht aber eher aus wie Träumerei.

Schlammsau
2010-02-18, 20:30:33
Eine Spekulation beruht auf Tatsachen. Das was du da von dir gibst sieht aber eher aus wie Träumerei.
Und wie sieht deine Spekulation aus?

Gestrandet
2010-02-18, 20:33:18
Kommst Du selber drauf, was da nicht zusammen paßt?

Wenn ein Betreiber eines großen HPC-Clusters Rechenzeit verkauft und die Kunden selbstentwickelte Programme einsetzen, wie bekommt der Betreiber es denn hin, daß der Einsatz von GPUs vollkommen transparent abläuft?
Oooch Mönsch Gipsel, pass doch mal ein bisschen auf!
Bucklew hat's doch oben extra geschrieben:
Den Vorteil den ein Fermi im Vergleich zu anderen SpezialCPUs hat ist seine Universalität
Fermi ist eben einfach universell, der frisst Maschinencode aller ISAs und Sourcecodes aller Sprachen, natürlich in einer unglaublichen, unerreichten Geschwindigkeit. Fermi macht Interpreter, Compiler, virtuelle Maschinen überflüssig. Fermi kann und weiß alles.
Darüber hinaus konnten wir (indirekt) lernen, dass er bereits flächendeckend in den Rechenzentren dieser Welt im Einsatz sein muss. Das erklärt auch, warum noch keine Fermi-Consumerkarten aufgetaucht sind - die Premiumkäufer in den Rechenzentren saugen den gesamten Output auf, obwohl die Ausbeute bei TSMC längst über 100% liegt. Aber bald wird schon wird dieser Markt gesättigt sein und wir können uns darauf freuen, Anfang März endlich die SchneGraKaZ in unsere unwürdigen Rechner einzubauen und unsere CPUs damit in den wohlverdienten Ruhestand zu schicken :)

Undertaker
2010-02-18, 20:39:10
Eine Spekulation beruht auf Tatsachen. Das was du da von dir gibst sieht aber eher aus wie Träumerei.

In welcher Richtung? Zu teuer, zu billig, zu schnell, zu langsam? Ich habe mich auf die Verkaufspreise der letzten Generationen und die aktuellsten Abschätzungen zur Leistungsfähigkeit bezogen - was selbstverständlich alles nur Anhaltspunkte sind. Für eine "unbewiesene Vermutung" (Def. laut Wiki) sollte das ausreichen. Oder lass einfach deine Meinung hören. ;)

Gast
2010-02-18, 21:33:28
Ontopic:

[qouote]@uggerber nope. Not at all. I think this is biggest mistake he ever did. I don't think that anyone will believe him after next month.[/Quote]
http://twitter.com/Igor_Stanek

LovesuckZ

mapel110
2010-02-18, 21:58:13
http://www.xbitlabs.com/news/video/display/20100218124405_Fermi_Architecture_Will_Only_Hit_the_Pull_Stride_Next_Quarter_CEO _of_Nvidia.html
Xbitlabs greift nochmal die Aussage von nvidia zu den Quartalszahlen auf

Fermi Architecture Will Only “Hit the Pull Stride” in Q2 – CEO of Nvidia.

AwesomeSauce
2010-02-18, 22:02:30
@LovesuckZ
immerhin cool, dass er überhaupt geantwortet hat:cool:
http://www.computerbase.de/forum/showthread.php?t=633836&page=85

Gast
2010-02-18, 22:03:21
Fast 600 Seiten blabla mit nahezu 0 Informationsgehalt. Worüber wird hier eigentlich spekuliert? Darüber, dass es quasi keine Informationen zu Fermi gibt?
Find ich recht amüsant. ^^

600 sind nur die reduzierte Version aus der der größte Mist entfernt wurde^^

Gast
2010-02-18, 22:05:06
@LovesuckZ
uggerber ist mein Twitter-Account:) Habe die Antwort bereits bei ForumBase gepostet. Immerhin cool, dass er überhaupt geantwortet hat:cool:
http://www.computerbase.de/forum/showthread.php?t=633836&page=85

Ich kenne leider nicht jede Person hinter jedem Twitteraccount auf dieser Welt. :(

LovesuckZ

AwesomeSauce
2010-02-18, 22:10:47
Das sollte überhaupt kein Vorwurf sein;) sondern ein nett gemeinter Hinweis:)

@Moderation
Bucklews letzter Beitrag wird immer hinten an den Thread angehängt, ist das so gewollt?:)

S940
2010-02-18, 23:47:06
Es gibt bei der Chipentwicklung kein Plan B.

Äh doch ... eben den Prozess zuvor früher mit was kleinerem ausprobieren.
Die Chipdesigningenieure haben Ihren Job gemacht ... da gibts natürlich keinen Plan B .. aber was im Argen liegt ist doch der TSMC 40nm Prozess (oder kennst Du nen nV Designfehler ?), falls da was schief geht benötigt man nen Plan B. Wer keinen hat und daran glaubt, dass der Osterhase zusammen mit dem Weihnachtsmann die blitzblanken, fehlerfreien Wafer abliefern ist selber Schuld. ^^

sentinel_first
2010-02-18, 23:51:45
Die g4xx kommt für mich leider zu spät, für mich endet die Computersaison im März, im Sommer bleibt der Rechner aus. Schade.

Gast
2010-02-18, 23:57:04
Äh doch ... eben den Prozess zuvor früher mit was kleinerem ausprobieren.

Ist erfolgt.


Die Chipdesigningenieure haben Ihren Job gemacht ... da gibts natürlich keinen Plan B .. aber was im Argen liegt ist doch der TSMC 40nm Prozess (oder kennst Du nen nV Designfehler ?), falls da was schief geht benötigt man nen Plan B. Wer keinen hat und daran glaubt, dass der Osterhase zusammen mit dem Weihnachtsmann die blitzblanken, fehlerfreien Wafer abliefern ist selber Schuld. ^^

Und was war AMD's Plan B? Angeblich 40% der Transistoren killen? :rolleyes:
nVidia war einfach nicht rechtzeitig fertig. Dazu kommt noch die fehlenden Kapazitäten bei TSMC - und schon hat man ein Problem.
Ansonsten haben sie alles wie AMD getan: Frühzeitig die Notwendigkeit von 40nm erkannt, frühzeitig mehrere kleinere Chips zum Tape-Out gebracht, um von ihnen zu lernen. Jetzt heißt es abwarten und auf TSMC warten.

S940
2010-02-19, 00:21:52
Ist erfolgt.
Jo, aber zu spät.
Von ATis RV740 gabs ab Nov./Dez. 2008 erste fertige Wafer, nV hatte da laut Gerüchteküche mal einen GT212er Chip, aber der verschwand schnell. Übrig blieben dann die aktuellen Mini Chips(216/218), die es am Q4/09 einigermaßen verfügbar gab. Die 4770er Karten gabs aber schon früher in Stückzahlen
Fazit: nV war zu langsam und/oder zu faul (was passierte mit dem 212 ?).

nVidia war einfach nicht rechtzeitig fertig.
Ja, so kann mans auch sagen :)

Dazu kommt noch die fehlenden Kapazitäten bei TSMC
Na Kapazitäten gabs genug, nur halt keine idealen ^^
Ansonsten haben sie alles wie AMD getan: Frühzeitig die Notwendigkeit von 40nm erkannt, frühzeitig mehrere kleinere Chips zum Tape-Out gebracht, um von ihnen zu lernen.
Siehe oben, es war nicht frühzeitig genug, und ich frage mich was mit dem 212er passiert ist.

Abgesehen davon wäre doch ein GT200b Shrink + GDDR5 optimal gewesen, wieso haben sie das nicht getan (naja, der 212 war wohl so ne Art davon ^^)?

Damit wäre hier doch noch jeder nV Fan glücklich. Naja egal .. wir werden es wohl nie erfahren :)

ciao

Alex

Bucklew
2010-02-19, 00:28:24
Abgesehen davon wäre doch ein GT200b Shrink + GDDR5 optimal gewesen, wieso haben sie das nicht getan (naja, der 212 war wohl so ne Art davon ^^)?
Wozu? Um eine Überbrückung für die 6 Monate zu haben, bis Fermi kommt? Lohnt sich einfach nicht.

S940
2010-02-19, 00:39:06
Wozu? Um eine Überbrückung für die 6 Monate zu haben, bis Fermi kommt? Lohnt sich einfach nicht.
Fermi kommt angeblich jetzt im Fiskaljahr 2011, Q2, auf Deutsch frühestens ab Mai 2010 ... vermutlich Paperlaunch davor.
Den GT200b Shrink hätte man bereits im Mai 2009 haben können, siehe ATi RV740.

Zumindest wenn man früh genug angefangen hätte.

Jetzt interessiert das hypothetische Teil natürlich keinen mehr. Falls der 212er wg. Fermi toller Verfügbarkeit in Q4/09 abgeblasen wurde, dann hatte nV nur tierisches Glück, dass TSMCs Prozess in Q4 auch selbst noch für ATi zu schlecht war ^^

Gast
2010-02-19, 00:54:01
Fermi kommt angeblich jetzt im Fiskaljahr 2011, Q2, auf Deutsch frühestens ab Mai 2010 ... vermutlich Paperlaunch davor.
Den GT200b Shrink hätte man bereits im Mai 2009 haben können, siehe ATi RV740.

Offiziell soll GF100 nächsten Monat erscheinen.
Und ein GT200b wäre im Mai 2009 nicht produktionsfähig gewesen.

Jo, aber zu spät.
Von ATis RV740 gabs ab Nov./Dez. 2008 erste fertige Wafer, nV hatte da laut Gerüchteküche mal einen GT212er Chip, aber der verschwand schnell. Übrig blieben dann die aktuellen Mini Chips(216/218), die es am Q4/09 einigermaßen verfügbar gab. Die 4770er Karten gabs aber schon früher in Stückzahlen
Fazit: nV war zu langsam und/oder zu faul (was passierte mit dem 212 ?).

GT216/GT218 hatten ihren Tape-Out zeitnah mit rv740, GT215 ist zwei bis drei Monate später gefolgt. GF100 wurde frühsten Mitte Juni zum Tape-Out gebracht. Es liegt also alleine zwischen dem GT215 und GF100 mindesten vier Monate und zwischen beiden A2 knapp 5 Monate. Genug Zeit, um alle relevanten Prozeßprobleme zu beseitigen.


Abgesehen davon wäre doch ein GT200b Shrink + GDDR5 optimal gewesen, wieso haben sie das nicht getan (naja, der 212 war wohl so ne Art davon ^^)?
Damit wäre hier doch noch jeder nV Fan glücklich. Naja egal .. wir werden es wohl nie erfahren :)


Nö, der wäre wie Cypress nicht produtionsfähig im Jahr 2009 gewesen.

LovesuckZ

mboeller
2010-02-19, 07:26:27
http://www.xbitlabs.com/news/video/display/20100218124405_Fermi_Architecture_Will_Only_Hit_the_Pull_Stride_Next_Quarter_CEO _of_Nvidia.html
Xbitlabs greift nochmal die Aussage von nvidia zu den Quartalszahlen auf

Fermi Architecture Will Only “Hit the Pull Stride” in Q2 – CEO of Nvidia.

Ouch. Q2 geht bei Nvidia von Mai bis Juli.

Bucklew
2010-02-19, 07:35:33
Fermi kommt angeblich jetzt im Fiskaljahr 2011, Q2, auf Deutsch frühestens ab Mai 2010 ... vermutlich Paperlaunch davor.
Den GT200b Shrink hätte man bereits im Mai 2009 haben können, siehe ATi RV740.
Wie hätte ein GT200b Shrink funktionieren sollen, wenn sowohl ATI, als auch Nvidia erst Monate später wirklich vernünftige 40nm Yields erhalten haben?

Ich geb dir in sofern Recht, als das so ein Shrink das Potential gehabt hätte, das ATI-Pendant leistungsmäßig zu schlagen. Dennoch wäre die Entwicklung viel zu kostspielig für den kurzen Zeitraum gewesen.

Ailuros
2010-02-19, 08:43:15
ATI ist weiterhin eine Marke, die sich inzwischen nur noch auf Grafikkarten spezialisiert hat und dabei zu mindestens 90% auf Consumergrafikkarten (um es dann mal ganz genau auszudrücken) beschränkt.

Ändert aber immer noch nichts dran, dass Nvidia die Produktpalette nach unten (Tegra) wie oben (Tesla) auffächert, während ATI weiterhin bei Grafikkarten bleibt und Konzerntaktisch eher wenig Interesse hat in Richtung Tesla zu gehen (s.u.).

SoCs sind keine Grafikkarten mehr, sondern ein system on chip mit (optionaler) GPU. Tegra (1&2) ist ein SoC (mit ARM CPU IP) und haben maximal netbooks und minimal smartphones als Ziel. Fuer notebook bzw. PC SoCs ist Tegra laecherlich schwach (4 PS, 2 VS@240MHz) reicht nicht ueber OGL_ES2.0 Spezifikationen raus (~SM2.0+) und hat auch dank FP24 ALUs nichts mit OpenCL bzw. CUDA verloren.

Fusion Llano ist fuer notebook/PC gedacht und Ontario fuer netbook Zeug alles mit dem DX11 Siegel. Ergo hast Du ab 2011 AMD mit Loesungen die vor dem Servermarkt halt machen und NVIDIA die zwar in den Servermarkt greift aber zwischen Tegra und low end standalone GPUs eine nette Luecke hat.

In den Tegra Marketing Ramtamtam glauben sowieso nur die sturen fans. Bis Tegra sich erstmal im eingebetteten Markt etablieren koennte dauert es noch etliche Jahre. Vergleiche zu Anzahlen an integriertem IMG IP sind so laecherlich dass man lieber gar nicht so weit kommt. Allein Intel's 65nm ATOM/GMA500 wurde in 85 Geraeten verbaut; zaehl mal in wie vielen Geraeten Tegra1 gelandet ist. Das Tegra R&D sollte von einem einzigen grossen Deal finanziert werden; wenn dieser aber jetzt geplatzt wie es die Geruechte wollen sieht es nicht besonders gut fuer Tegra aus.

Informiert Euch gefaelligst ein wenig besser was den eingebetten Markt betrifft anstatt nur NV's marketing Quark konstant ohne Bedenken zu schlucken.

Das wird sich zeigen müssen. Innerhalb ihrer eigenen Produktpalette haben sie einen massiven Vorteil, weil die billigeren GeForce-Produkte weniger Konkurrenz zu den teuren Tesla-Produkten darstellen. Das jetzt automatisch jeder sich ne ATI kauft, ist meiner Meinung nach Quatsch.

So war es auch nicht gemeint. Jedoch jeglicher verlorener Deal fuer NV ist ein Verlust fuer NV egal wie Du es verdrehen willst. AMD hat kurz nach der RV770 Vorstellung einen Aufschwung im Profi Markt von 50% sehen koennen. Auf Anhieb klingt die Zahl zwar imposant, aber wenn man dann noch hinzufuegt dass es von 8 auf 12% stieg sieht es dann schon nuechterner aus. Es gibt keinen einzigen Analysten im Moment der NICHT erwartet dass NV weiterhin den groessten Marktanteil in diesem Markt haben wird, aber ich hab auch keine Analyse bisher lesen koennen wo nicht erwartet wird dass AMD's Prozentual in der Zukunft NICHT weiter steigen wird.

http://www.trefis.com/articles/11149/35-of-nvidias-stock-from-high-end-professional-graphics-cards/2010-02-10

Und es ändert auch nichts am Fakt, dass AMD lieber eine CPU, als eine GPU verkaufen wird (auch in Zukunft).

Muss der Grund sein weil komischerweise die GDP bereinigt quasi Gewinne abgibt waehrend die CPU Sparte eben nicht. Es geht aber nicht ueber AMD's Finanzen sondern eher was NVIDIA eventuell machen koennte dass sie nicht weiterhin links und rechts Markprozentuale verlieren, ueberhaupt da sie den integrierten PC Markt schon intern abgehakt haben. Und nein zu glauben dass etwas wie Tegra die Luecke auf irgend eine Weise fuellen koennte grenzt an den Wahnsinn.

Dann solltest du dir wohl mal die Nvidia-Finanzberichte anschauen.

Die sagen mir genauso viel wie aylano's (tschuldige aylano aber es gibt stets ein Gegenwort zu allem) Kaffeesatz-Leserei auf diesen basierend.

Ich denke nicht, dass wir über 10 Jahre reden, wenn (!) Fermi das hält was er verspricht.

Fermi wird schon zumindest zwei API Generation an Existenz auf diversen Geraeten in der Zukunft haben. Es ging aber um CPUs und dessen zukuenftige Moeglichkeiten gegenueber der GPU.

Hat er ja auch und sämtliche Grafikkarten ab GeForce 8x sind einheitlich benutzbar (zumindest mit CUDA).

Muss wohl der Grund sein warum GPGPU Faehigkeiten auf jeglichen Produkten redundant sind.

Tut sie ja auch, aktuell sobald eine GPU ab GeForce 8 verbaut ist. Was das jetzt damit zu tun hat, dass " GP auf mainstream Applikationen nicht zu radikal benachteiligt wird" zu tun hat, erschließt sich wohl nur dir.

Es war auf Dein Tante Erna Beispiel bezogen. Wenn Du immer noch nicht verstehen kannst was ich meinte dann ist es nicht mein Problem.

Welchen Nachteil hast du denn nun durch eine in DP-Leistung limitierte GeForce?

Nochmal das eine hat mit dem anderen nichts zu tun.

Haben sie ja auch. Deswegen wird noch lange kein 500€ Laptop die GPGPU-Leistung einer 500€ Grafikkarte erreichen. Und eine 500€ GeForce eben nicht die einer 1000€ Tesla. You get what you pay for.

Kannst Du gefaelligst ENDLICH in Deinem Kopf DP von GPGPU trennen? Ich hab es nirgends in meinen vorigen Posts kombiniert. Elendiger kann man wohl jemand die Worte im Mund nicht verdrehen.

Seit wann bedeutet ein eingeführtes Feature, dass es auch unbedingt genutzt werden muss? Welche Applikation gibt es denn aktuell, die als Consumerapp die DP-Fähigkeit einer Grafikkarte zwingen vorraussetzt?

Hw muss stets vor der sw existieren. IHVs integrieren Faehigkeiten nicht nur weil es sich schick anhoert unter normalen Umstaenden sondern weil sie auf X oder Y zukuenftige Notwendigkeit schaetzen.

NVIDIA ist mit Sicherheit nicht unter den IHVs die bei jeglichem Kreideboard Design ihrer GPU-Architekturen nicht genau diese Masche verfolgt. Und nein es ist auch hier kein multiple-choice menu wo Du wahlweise nur das als sinnvoll anhaken kannst wie es gerade passt.

Ailuros
2010-02-19, 09:36:27
Fermi kommt angeblich jetzt im Fiskaljahr 2011, Q2, auf Deutsch frühestens ab Mai 2010 ... vermutlich Paperlaunch davor.
Den GT200b Shrink hätte man bereits im Mai 2009 haben können, siehe ATi RV740.

Zumindest wenn man früh genug angefangen hätte.

Jetzt interessiert das hypothetische Teil natürlich keinen mehr. Falls der 212er wg. Fermi toller Verfügbarkeit in Q4/09 abgeblasen wurde, dann hatte nV nur tierisches Glück, dass TSMCs Prozess in Q4 auch selbst noch für ATi zu schlecht war ^^

Der Maerz Termin wird afaik eingehalten. Die moegliche 480 Knappheit ist eine andere Geschichte, aber wenn sie erstmal stimmt wird diese vor Herbst nicht fundamental besser.

GT212 Entwicklung machte irgendwo Mitte 2008 halt wobei das Ding anfangs fuer Anfang 2009 geplant war und GF100 fuer Q4 2009.

http://www.fudzilla.com/content/view/17731/1/

However, Nvidia claims TSMC is doing a "fabulous job" and that it has improved its yields. ATI doesn't seem to be complaining about TSMC's yields either, as it has managed to ship well over two million 40nm DirectX 11 cards over the past few months.

Uebrigens was den Quark auf der vorigen Seite betrifft mit was sich jemand beschaeftigt oder nicht haetten wir uns sparen koennen. Eine jegliche Meinung von jedem wird nicht aussagekraeftiger mit dem was seine moegliche Visitenkarte anzeigen koennte (auch im relativen Sinn) zumindest nicht fuer mich. Es gibt bei allen IHVs auch zahllose Angestellte die auch nur Mist erzaehlen wenn der Tag lang ist. Eine gut gemeinte Meinung mit gesunder Logik sollte stets willkommen sein in jeglicher Diskussion egal von wem sie kommt. Und ja Fehler machen wir alle; bevor man aber zu kritisch zu anderen steht sollte man erstmal den Mut haben furchtlos den naechsten Spiegel besuchen zu koennen.

tri-llian steht für mich für ein 3 cluster juniper. so einfach isses.

gruss

christian

Ich mach es Dir noch "einfacher": http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7853395&postcount=36

Klar genug?

Gast
2010-02-19, 09:53:44
Wozu? Um eine Überbrückung für die 6 Monate zu haben, bis Fermi kommt? Lohnt sich einfach nicht.

Nun, seid ihr euch da wirklich so sicher, das wir das definitiv nicht eleben werden?

Jetzt mal angenommen der grenzdebile und notorische NV-Hasser Charly hätte recht mit seiner 9000-Wafer-Story beim Fermi...

Was bliebe NVidia denn da noch anderes übrig, als möglichst hastig eine
g200(c)-GPU, geshrinkt auf 40nm mit GDDR5 und DX 10.1-Unterstützung (ggf. sogar nachimplementiertem DX 11) auf den Markt zu werfen?

Wenn dem tatsächlich so sein sollte, dann würde das zumindest einiges erklären. Vor allem das kleinlaute Stillschweigen von NV. Außer zarten Dementis hört man seit einem halben Jahr nichts mehr von denen.

Aber wir werden ja sehen, was sich im März/April noch tut.

boxleitnerb
2010-02-19, 10:06:59
Massenproduktion nicht vor Mai?

http://www.gamestar.de/hardware/news/grafikkarten/2312815/warten_auf_fermi.html

Was ein Trauerspiel.

Gast
2010-02-19, 10:09:06
Mal rechen... ca.15 Tage dann März. März, April dann Mai. Verdammt ist das lange:(

S940
2010-02-19, 10:25:19
Offiziell soll GF100 nächsten Monat erscheinen.
Glaub ich gerne, aber die Leute die bei Evergreen "Papier" schrien, werden dann im März auch wieder schreien.
Das wir hier doch schon verlinkt, oder nicht ?
Earlier the head of Nvidia said that the company would ramp up production of Fermi-based chips in Q1 FY2011. Nvidia’s first quarter of fiscal year 2011 began on the 31st of January, 2010, and will likely end on the 30th of April, 2010; the Q2 of FY 2011 will last from May till late July, 2010. At present many observers suggest that Nvidia will launch the GeForce GTX 470 and GTX 480 graphics cards in March or April, but it looks like the products will not be available in truly mass quantities right after the launch.
http://www.xbitlabs.com/news/video/display/20100218124405_Fermi_Architecture_Will_Only_Hit_the_Pull_Stride_Next_Quarter_CEO _of_Nvidia.html


GT216/GT218 hatten ihren Tape-Out zeitnah mit rv740
Wirklich ? Erstes RV740 Si gabs wie besagt im Nov/Dezember 08, das macht TapeOut = August/September 2008 ...
, GT215 ist zwei bis drei Monate später gefolgt. GF100 wurde frühsten Mitte Juni zum Tape-Out gebracht. Es liegt also alleine zwischen dem GT215 und GF100 mindesten vier Monate und zwischen beiden A2 knapp 5 Monate. Genug Zeit, um alle relevanten Prozeßprobleme zu beseitigen.
Auch wenn ich da jetzt gerne Quellen hätte, glaube ich Dir mal... aber wenns so rosarot wäre, wie Du sagst, dann hätte man Fermi in Q4/09 sehen müssen. Anscheinend wars eben doch nicht genug Zeit ... wieso auch immer. Naheliegende Gründe sind
a) Doch Design- und keine Prozessprobleme
b) Zuwenig Zeit um das Problem zu lösen.

Nö, der wäre wie Cypress nicht produtionsfähig im Jahr 2009 gewesen.Na besser als Fermi wärs allemal gewesen ^^
Der Maerz Termin wird afaik eingehalten.
Jo auf dem Papier bestreitet das sicherlich keiner ;-)
GT212 Entwicklung machte irgendwo Mitte 2008 halt wobei das Ding anfangs fuer Anfang 2009 geplant war und GF100 fuer Q4 2009.
Tja fragt sich wieso ... vermutlich Kostenreduktion wg. der Wirtschaftskrise und dann fiel man auf die Nase ...

@boxleitnerb:
Das ist nur die Übersetzung des xbitlabs Artikels, nichts Neues. Mal schauen, wieviel Karten das im März werden, da gibts ja viele Möglichkeiten, was mittlerweile alles unter Papierware verstanden wird:
Präsentation und:

Demo im cebit Hinterzimmer,
Demo im cebit Showroom,
Karten nur für Presseleute,
oder noch ein paar 100 Karten in den Verkauf.


ciao

Alex

Ailuros
2010-02-19, 10:37:57
Massenproduktion nicht vor Mai?

http://www.gamestar.de/hardware/news/grafikkarten/2312815/warten_auf_fermi.html

Was ein Trauerspiel.

http://www.xbitlabs.com/news/video/display/20100218124405_Fermi_Architecture_Will_Only_Hit_the_Pull_Stride_Next_Quarter_CEO _of_Nvidia.html

Nvidia Corp. will finally start selling its highly-anticipated GeForce GTX 400-series graphics cards as well as other products based on the code-named Fermi architecture and GF100 (NV60, G300, GT300) graphics processing unit (GPU) in the first quarter of fiscal 2011, it looks like mass availability of appropriate products is only expected in Q2 of FY 2011.

Q2 [of FY 2011] is going to be the quarter when Fermi is hitting the full stride. It will not just be one Fermi product, there will be a couple of Fermi products to span many different price ranges, but also the Fermi products will span GeForce Quadro and Tesla. So, we are going to be ramping now on Fermi architecture products through Q2 and we are building a lot of it. I am really excited about the upcoming launch of Fermi and I think it will more than offset the seasonality that we usually see in Q2

At present many observers suggest that Nvidia will launch the GeForce GTX 470 and GTX 480 graphics cards in March or April, but it looks like the products will not be available in truly mass quantities right after the launch.

Nichts Neues wer den Thread hier verfolgt.


Auch wenn ich da jetzt gerne Quellen hätte, glaube ich Dir mal... aber wenns so rosarot wäre, wie Du sagst, dann hätte man Fermi in Q4/09 sehen müssen. Anscheinend wars eben doch nicht genug Zeit ... wieso auch immer.

Zu niedrige yields die zu hohen Herstellungskosten gefuehrt haetten. Selbst AMD hat ein klein bisschen gewartet (tape out fuer Cypress im Februar 2009 und nein man braucht nicht so viele Monate von tape out zur Verfuegbarkeit) damit sich die yields etwas verbesseren und die Herstellungskosten etwas normalisieren. Als sie endlich mit der Massenproduktion angefangen haben kostete in Q3 2009 ein einzelner Cypress um ca. 50% mehr als er heute kostet herzustellen.

So und jetzt geh von einem 334mm2 chip auf einem 548mm2 und erzaehl mir warum kein IHV so bloed waere Wucherpreise fuer Herstellung des letzteren Monsters aufgelegt haette.

Naheliegende Gründe sind
a) Doch Design- und keine Prozessprobleme
b) Zuwenig Zeit um das Problem zu lösen.

Siehe oben. Wenn das 512SP Problem stimmt, dann ist es natuerlich Design- und nicht Prozess-bedingt. Nach NV soll es erst bei der Massenproduktion aufgekommen sein. NV beschwert sich auch heutzutage nicht mehr ueber TSMC's yields. Was und wieso jetzt mit den clusters schief gelaufen ist ist weniger wichtig als eher warum man dieses nicht frueher erkannnt hat. Wenn XMAN's Geschichte stimmen sollte und sie schicken erst im April ein B1 als Testrennen und gehen dann noch auf B2 fuer Massenproduktion (wenn alles nach Plan laeuft blah blah blah...) dann wird's schon Herbst fuer den top dog.

Jo auf dem Papier bestreitet das sicherlich keiner ;-)

Die 470-er Verfuegbarkeit macht mir persoenlich keinerlei Sorgen. Wenn die TSMC nicht begrenzen werden koennten sie schon knapp unter 1/2Mio. chips im ersten Monat schaffen.

S940
2010-02-19, 10:49:17
Siehe oben. Wenn das 512SP Problem stimmt, dann ist es natuerlich Design- und nicht Prozess-bedingt.
Ok, na dann sind wir uns einig.
Wäre wirklich interessant zu wissen, was da hinter den Kulissen abgelaufen ist. Hat der Chef die Ingenieure doch zurecht angebrüllt ? :freak:
Die 470-er Verfuegbarkeit macht mir persoenlich keinerlei Sorgen. Wenn die TSMC nicht begrenzen werden koennten sie schon knapp unter 1/2Mio. chips im ersten Monat schaffen.
Na dann hoffen wir mal, dass es TSMC & Nv wirklich eeendlich gebacken bekommen, auch wenns nur 448 Shader sein sollten ;-)
Nicht das ATi meint sich auf die faule Haut legen zu können :D

ciao

Alex

V2.0
2010-02-19, 11:05:27
Diese NV-Doom Geschichten werden langweilig. GF100 launcht Ende Q1, Massenverfügbarkeit einer Variante ab 2Q (sind nur wenige Tage :D )
Kurz nach GF100 kommt GF104.

Dass die Entwicklung von GF100 nach A3 nicht abgeschlossen ist, steht auf einem anderen Blatt.

Ailuros
2010-02-19, 11:19:25
Ok, na dann sind wir uns einig.
Wäre wirklich interessant zu wissen, was da hinter den Kulissen abgelaufen ist. Hat der Chef die Ingenieure doch zurecht angebrüllt ? :freak:

Glaubst Du wirklich dass Inginieuere tun und lassen werden was sie wollen ohne dass es ihrem CEO bewusst ist? Schoen waers. Irgendwann in der Zukunft kommt die Wahrheit schon zum Vorschein, aber Du bekommst es mir nicht aus dem Schaedel dass sie irgendwo ein Risiko eingegangen sind und etwas nicht mit quasi redundanten Sicherheitsmassnahmen zu 100% gesichert haben. Anders kann ich mir das Ganze nicht erklaeren wenn es stimmt. Den ziemlich teureren angeblichen B1 respin werden sie jetzt womoeglich so oder so bezahlen muessen. Bloede Frage: warum ging man nicht auf einen respin z.B. im Oktober 2009 da es im August sowieso zu 100% klar war dass die yields bis Ende des Jahres sich nicht fundamental aendern werden? Wer authorisiert in solch einem Fall einen re spin damit er erstmal bezahlt wird? Die Inginieure auf jeden Fall nicht.

Und nein es muss ueberhaupt nicht so sein wie oben. Es ist lediglich ein hypothetisches Beispiel wo die Verantwortung eines jeglichen CEO in solch einem Fall liegen koennte.

Na dann hoffen wir mal, dass es TSMC & Nv wirklich eeendlich gebacken bekommen, auch wenns nur 448 Shader sein sollten ;-)
Nicht das ATi meint sich auf die faule Haut legen zu können :D

ciao

Alex

Die angebliche 5890 wird sich irgendwo ab Ende Mai/Anfang Juni schon ziemlich gut mit der 470 schlagen koennen. AMD ist ja nicht umsonst so grosskotzig und behauptet dass sie schaetzen durch die Mehrzahl von 2010 den schnellsten chip zu haben. Und ja natuerlich koennen sie auch daneben liegen, aber die Chancen sehen momentan gering aus.

mapel110
2010-02-19, 11:25:22
Ailuros, wieso sollte nvidia nicht auf den Refresh-Chip setzen? Sieht man sich unter Druck, weil man den 512SP-Part angekündigt hat speziell auch für den Profi-Markt?
Oder man hat gar Angst, dass man mit dem Refresh auch Probleme haben könnte. O_o

Gast
2010-02-19, 11:28:00
Die angebliche 5890 wird sich irgendwo ab Ende Mai/Anfang Juni schon ziemlich gut mit der 470 schlagen koennen. AMD ist ja nicht umsonst so grosskotzig und behauptet dass sie schaetzen durch die Mehrzahl von 2010 den schnellsten chip zu haben. Und ja natuerlich koennen sie auch daneben liegen, aber die Chancen sehen momentan gering aus.

Ich glaube da spielt AMD eher auf Northern Islands im H2/2010 an, eine 5890 kommt AFAIK nicht. Zumindest definitiv kein neues Tapeout. Im H2 will man die gesamte Serie Refreshen.

Gast
2010-02-19, 11:32:59
Ich sehe gerade, wie die Xbitlabs Meldung wieder ihren Weg durch's Netz findet. Schon erstaunlich, wieviele Menschen nicht in der Lage sind Texte verstehen zu können...
Aber das hatten wir ja schon mit dem "DX11 doesn't matter".

LovesuckZ

Ailuros
2010-02-19, 11:35:33
Ailuros, wieso sollte nvidia nicht auf den Refresh-Chip setzen?

Tja zuerst musst Du mir unter einem Refresh genau verstehst. Ein Refresh kann als Beispiel von einem re spin auf dem gleichen Prozess mit hoeheren Frequenzen sein (wobei man schon mit dem angeblichen B1 in die Richtung arbeiten koennte) oder auf einem kleineren Herstellungsprozess (die shrink). Wann waere bei TSMC 28nm bulk (HP) Deiner Meinung nach produktionsreif?

Sieht man sich unter Druck, weil man den 512SP-Part angekündigt hat speziell auch für den Profi-Markt?
Oder man hat gar Angst, dass man mit dem Refresh auch Probleme haben könnte. O_o

Siehe oben. Da momentan innerhalb des Jahres es fuer beide IHVs bei TSMC nach nichts anderem als 40G aussieht, ist man auf diesen begrenzt. In solch einem Fall muss man erstmal herausfinden was falsch gelaufen ist bevor man weiterlegt.

Ich glaube da spielt AMD eher auf Northern Islands im H2/2010 an, eine 5890 kommt AFAIK nicht. Zumindest definitiv kein neues Tapeout. Im H2 will man die gesamte Serie Refreshen.

H2 zieht sich ueber 6 Monate :wink:

***edit: http://www.fudzilla.com/content/view/17740/1/

mapel110
2010-02-19, 11:44:08
Es kann ja auch kleinere Detailänderungen mit einem Refresh geben. Siehe Geforce 7800 -> Geforce 7900, siehe RV770 -> RV790
Aber mehr Takt ist natürlich auch immer drin.

Wieso sollte man eigentlich bis April zögern, um B1 in Auftrag zu geben?

Gast
2010-02-19, 12:00:42
Wieso sollte man eigentlich bis April zögern, um B1 in Auftrag zu geben?

Weil es kein Sinn macht. Solche Designfehler treten in der Emulation auf. nVidia wäre also längst auf einem B1 Spin bzw. einem GF105. Sie haben das selbe mit NV30 -> NV35 gemacht. Dort haben sie auch nicht zig Respins abgewartet, bevor die NV30 überarbeitet hatten.

LovesuckZ

Ailuros
2010-02-19, 12:18:32
Es kann ja auch kleinere Detailänderungen mit einem Refresh geben. Siehe Geforce 7800 -> Geforce 7900, siehe RV770 -> RV790
Aber mehr Takt ist natürlich auch immer drin.

Wieso sollte man eigentlich bis April zögern, um B1 in Auftrag zu geben?

Tja wenn man alle layers quasi nochmal umkrempeln will kostet es auch Zeit.

Weil es kein Sinn macht. Solche Designfehler treten in der Emulation auf. nVidia wäre also längst auf einem B1 Spin bzw. einem GF105. Sie haben das selbe mit NV30 -> NV35 gemacht. Dort haben sie auch nicht zig Respins abgewartet, bevor die NV30 überarbeitet hatten.

LovesuckZ

Das erste Mal wo NV30 vom Labor zurueckkam war der chip so tot dass er mit keinem Mittel zum Leben erweckt worden konnte, ergo erstmal kein erfolgreiches tapeout. Erstes echtes tape out kam irgendwo in der 39./40. 2002 Woche mit einem 0243A1 auf dem chip. Und nein das hat natuerlich ueberhaupt nichts mit GF100 zu tun.

Du wirst mir so oder so eine Erklaerung schuldig sein falls die 480-er am Ende doch ueberselten sind. Im Gegenfall hab ich durchaus den Anstand mich darueber oeffentlich zu entschuldigen.

S940
2010-02-19, 12:22:03
Glaubst Du wirklich dass Inginieuere tun und lassen werden was sie wollen ohne dass es ihrem CEO bewusst ist? Schoen waers.

Gute Frage ... man könnte sich z.B. schon eine Situation überlegen, bei der er den Ingenieuren vertraut hat. Z.B: wenn die sagten, dass der TSMC Prozess bis Q4 schon ganz toll laufen würde, und man nichts besonderes dagegen tun müsse.

aber Du bekommst es mir nicht aus dem Schaedel dass sie irgendwo ein Risiko eingegangen sind und etwas nicht mit quasi redundanten Sicherheitsmassnahmen zu 100% gesichert haben.
Hmm ... will doch auch keiner, zumindest ich nicht. Natürlich wirds so in der Art gewesen sein. Entweder sie sind bewußt ein Risiko eingegangen, oder worst-case: Sie haben etwas übersehen bzw. geschlampt.

Bloede Frage: warum ging man nicht auf einen respin z.B. im Oktober 2009 da es im August sowieso zu 100% klar war dass die yields bis Ende des Jahres sich nicht fundamental aendern werden? Wer authorisiert in solch einem Fall einen re spin damit er erstmal bezahlt wird? Die Inginieure auf jeden Fall nicht.
Siehe oben, wenn die besten Ingenieure vorhersagen, dass der Prozess im Q4 toll wäre ... und die TSMC Leute das blaue vom Himmel gelobt haben ...
Aber dann wäre die Schuld immer noch beim Chef, da er so dumm war, dass zu glauben ohne einen Plan B vorzubereiten ^^
Ich denke so könnte es gewesen sein, der nV Boss ist ja für markige Sprüche bekannt, solche Leute sind meistens Zockernaturen (aber ich kenn den Typen natürlich nicht persönlich, vielleicht ist das Gebrülle auch nur gute Schauspielerei ;-) )

ciao

Alex

S940
2010-02-19, 12:26:09
Ich glaube da spielt AMD eher auf Northern Islands im H2/2010 an, eine 5890 kommt AFAIK nicht. Zumindest definitiv kein neues Tapeout.
Brauchen sie vermutlich auch nicht, die aktuellen Chips laufen am unteren Ende des Spannungsbereichs. Bisschen mehr Vcore plus nen fetteren Kühler drauf, fertig ist die 5890 mit 100 MHz höherem Chiptakt (die 4890 hatte auch nur 100 Mhz mehr).
Vielleicht noch ein paar schnellere / extra selektierte GDDR5 Chips dazu ...

ciao

Alex

Gast
2010-02-19, 12:26:14
Die 470-er Verfuegbarkeit macht mir persoenlich keinerlei Sorgen. Wenn die TSMC nicht begrenzen werden koennten sie schon knapp unter 1/2Mio. chips im ersten Monat schaffen.

Also wenn das mit den 9000 Risk Wafers stimmt, die Nvidia Ende letzten Jahres bei TSMC bestellt haben soll, wären das ja bei ~ 100 "Die Candidates" pro Wafer immerhin ungefähr 50% Yield für die 448SP-Variante?

Vorausgesetzt du bist bei deiner Rechnung von ähnlichen Zahlen ausgegangen :biggrin:

Gast
2010-02-19, 12:34:38
Das erste Mal wo NV30 vom Labor zurueckkam war der chip so tot dass er mit keinem Mittel zum Leben erweckt worden konnte, ergo erstmal kein erfolgreiches tapeout. Erstes echtes tape out kam irgendwo in der 39./40. 2002 Woche mit einem 0243A1 auf dem chip. Und nein das hat natuerlich ueberhaupt nichts mit GF100 zu tun.

Und trotzdem schickten sie den NV35 ca. drei Monate später zum Tape-Out. GF100 A1 war 40 Woche. Also sollte B1 schon längst sein Tape-Out gehabt haben.


Du wirst mir so oder so eine Erklaerung schuldig sein falls die 480-er am Ende doch ueberselten sind. Im Gegenfall hab ich durchaus den Anstand mich darueber oeffentlich zu entschuldigen.

Für was sollte ich mich entschuldigen? Ich spekuliere aufgrund Annahmen und nicht weil ich "Insideinformationen" habe.
Und ich warte immer noch auf die spekulierte Erklärung, warum nVidia 448SP Chips komplett für GTX470 Karten verwenden sollte und 384bit nur für Tesla und nicht verfügbare 512SP Chips...

Spasstiger
2010-02-19, 12:39:48
Wer sagt denn, dass die GTX 470 kein 384-Bit-SI bekommt? Wenn man 1 GHz (4 Gbps) schnellen GDDR5-Speicher dranhängt, bleibt in Punkto Speicherbandbreite immer noch Luft für die GTX 480. Siehe auch HD 5850 vs. HD 5870.

Ailuros
2010-02-19, 12:47:09
Gute Frage ... man könnte sich z.B. schon eine Situation überlegen, bei der er den Ingenieuren vertraut hat. Z.B: wenn die sagten, dass der TSMC Prozess bis Q4 schon ganz toll laufen würde, und man nichts besonderes dagegen tun müsse.

Jensen klang mir nie nach einem ahnungslosen Papierkragen, noch jemand der alles so leichten Herzens nimmt.

Hmm ... will doch auch keiner, zumindest ich nicht. Natürlich wirds so in der Art gewesen sein. Entweder sie sind bewußt ein Risiko eingegangen, oder worst-case: Sie haben etwas übersehen bzw. geschlampt.

Zwar ist das letztere auch eine These aber das Gegenwort auf vorigen Seiten hat schon seinen legitimen Punkt dass man so etwas auf einer Simulation gesehen haette. Es kommt aber immer wieder auf die gleiche Frage: wieso nimmt man eine Affaere mit einem so hochkomplizierten chip bei einem durchaus problematischen Herstellungsprozess leichten Herzens und geht dann nicht auf zusaetzlich (wie gesagt normalerweise redundante) Sicherheitsmassnahmen?

Zauberer
2010-02-19, 12:56:11
Gute Frage ... man könnte sich z.B. schon eine Situation überlegen, bei der er den Ingenieuren vertraut hat. Z.B: wenn die sagten, dass der TSMC Prozess bis Q4 schon ganz toll laufen würde, und man nichts besonderes dagegen tun müsse.


Hmm ... will doch auch keiner, zumindest ich nicht. Natürlich wirds so in der Art gewesen sein. Entweder sie sind bewußt ein Risiko eingegangen, oder worst-case: Sie haben etwas übersehen bzw. geschlampt.

Siehe oben, wenn die besten Ingenieure vorhersagen, dass der Prozess im Q4 toll wäre ... und die TSMC Leute das blaue vom Himmel gelobt haben ...
Aber dann wäre die Schuld immer noch beim Chef, da er so dumm war, dass zu glauben ohne einen Plan B vorzubereiten ^^
Ich denke so könnte es gewesen sein, der nV Boss ist ja für markige Sprüche bekannt, solche Leute sind meistens Zockernaturen (aber ich kenn den Typen natürlich nicht persönlich, vielleicht ist das Gebrülle auch nur gute Schauspielerei ;-) )

ciao

Alex
Schon mal daran gedacht das NVIDIA einen Plan B hat/hatte und Ihn auch gestartet hat?
Evtl. haben Sie im November 2009 gemerkt, das der Yield beim Fermi mit dem A3 Stepping nicht so gut ist und fast nur mit 448 SPs ausgeliefert werden kann, dann noch mit moderaten Frequenzen.

Ergo wäre NVIDIA mit dem Topsinglechipprodukt nur ca. 10-20 % über der 5870 gelandet.
Evtl. war das NVIDIA zu wenig, weil ATi dann locker hätte kontern können, darum haben sie Plan B gestartet.
Seit evtl. Oktober 2009 läuft die Entwicklung am B1 Stepping.

Das könnte der Grund sein, warum die Karten erst im März in den Handel kommen.
NVIDIA startet direkt mit B1, und die GTX 470 und die GTX 480 haben beide 512 SPs.
Die GTX 470 schlägt die HD 5870, und die GTX 480 taktet mit Frequenzen jenseits von gut und böse.
Dadurch liegt die Leistung nur ganz knapp unter der HD 5970.

Das wäre auch der Grund, warum NVIDIA so lange mit dem Namen gezögert hat, sie mussten erst wissen, starten wir mit A3 im Dezember, oder warten wir auf B1 und starten erst im März, aber pulverisieren AMD/ATi?

Ist alles nur Spekulation, auch wenn es sich nicht mit den andern Spekulationen deckt, möglich wäre es schon, jedenfalls erklärt es den späten Launch und auch die späte Namensvergabe.

Ailuros
2010-02-19, 12:57:43
Und trotzdem schickten sie den NV35 ca. drei Monate später zum Tape-Out.
GF100 A1 war 40 Woche. Also sollte B1 schon längst sein Tape-Out gehabt haben.

Der vorgezeigte chip zeigte die 35. Woche an und das Datum auf den chips ist selten das eigentlich tape out Datum sondern ein paar Wochen spaeter. Nach NV selber sollte das tape out schon in der 2. Woche im Mai 2009 stattgefunden sein.

Wenn B1 schon lange sein tape out gehabt haben soll, frage ich mich warum sie momentan mit A3 in Produktion liegen.

Für was sollte ich mich entschuldigen? Ich spekuliere aufgrund Annahmen und nicht weil ich "Insideinformationen" habe.

Man braucht keine Insiderinformationen mehr zu dem Thema nach Jensen's neuerster Aussage in den Medien. Natuerlich steht Dir frei alles gerade so zu interpretieren wie es gerade passt, aber weder Jensen spinnt noch diejenigen die Meldung uebertragen haben.

Und ich warte immer noch auf die spekulierte Erklärung, warum nVidia 448SP Chips komplett für GTX470 Karten verwenden sollte und 384bit nur für Tesla und nicht verfügbare 512SP Chips...

Weil SMs in random order abknallen und keine ROPs. Muss man wirklich so was in schwarz auf weiss ausfuehrlich erklaeren damit es jemand einsieht? Wo hat irgendjemand andgedeutet dass jegliche ROPs Probleme haben?

Gast
2010-02-19, 12:59:25
Wer sagt denn, dass die GTX 470 kein 384-Bit-SI bekommt? Wenn man 1 GHz (4 Gbps) schnellen GDDR5-Speicher dranhängt, bleibt in Punkto Speicherbandbreite immer noch Luft für die GTX 480. Siehe auch HD 5850 vs. HD 5870.

Dann fehlt immer noch die Begründung, wieso nVidia 99,5% aller Chips auf Karten für $400 verkaufen sollte, wenn 10-15% höher getaktete 448SP Chips für $500-$600 über den Tisch gehen können. Denn im Gegensatz zu 5800Ultra wäre das hier kein Taktungsproblem.
Wenn man also glaubt, dass nVidia keine 512SP produzieren kann, dann werden sie nicht 99,5% der Chips für die GTX470 verwenden.

LovesuckZ

V2.0
2010-02-19, 13:16:08
Evtl. ist das 512SP Problem ja auch kein reines Designproblem, sondern ein Fertigungsproblem, für dessen Lösung man eine Designänderung braucht. RV870 hat sich ja auch verändert, als es klar wurde wie "gut" 40nm @ TSMC war.

Ailuros
2010-02-19, 13:24:24
Schon mal daran gedacht das NVIDIA einen Plan B hat/hatte und Ihn auch gestartet hat?
Evtl. haben Sie im November 2009 gemerkt, das der Yield beim Fermi mit dem A3 Stepping nicht so gut ist und fast nur mit 448 SPs ausgeliefert werden kann, dann noch mit moderaten Frequenzen.

Die Frequenzen sind mit den SMs nicht relevant. Ein paar Erlaeuterungen zu dem Frequenz-Wirrwarr:

Fuer G80 gab NV irgendwo im Herbst einen eingeschaetzten maximalen hot clock von 1.5GHz an, waehrend die 8800GTX nur mit 1.35GHz ankam. Die 8800Ultra kam aber nach dem A3 metal spin sehr wohl mit 1.5GHz an, ergo war die originale Einschaetzung auch nicht unrelevant.

Originale Zielfrequenzen sollten fuer GF100 ca. 1.6GHz gewesen sein und mit hoeherer voltage maximal bis zu 1.8GHz und ich hab auch momentan keinen einzigen Zweifel dass sie eventuell die 1.6GHz erreichen werden und dabei kann ich nicht wissen ob es mit einem zukuenftigen metal oder re spin kommen wird.

Ein hot clock von 1.45GHz gibt Dir knapp unter 1.5TFLOPs und wenn man alle andere Aspekte mitberechnet liegt das Resultat schon ca. 30-35% ueber den A1 Frequenzen mit denen ich in der Vergangenheit in etwa einen "break even point" also +/- Gleichstand zur 5870 "einschaetzte".

Die naechstbeste Variante sprich 470 (oder vorige "360") waere wohl nie mit hoeheren Frequenzen angekommen als die 480. So oder so mit weniger SMs, niedrigeren Frequenzen und hoechstwahrscheinlich mit einem kleineren SI und demzufolge auch weniger Speicher.

A3 wurde Anfang Dezember ins Labor geschickt und das Ding kam irgendwo im Januar zurueck vom Labor. Massenproduktion begann mit A3 im Februar.

Ergo wäre NVIDIA mit dem Topsinglechipprodukt nur ca. 10-20 % über der 5870 gelandet.
Evtl. war das NVIDIA zu wenig, weil ATi dann locker hätte kontern können, darum haben sie Plan B gestartet.
Seit evtl. Oktober 2009 läuft die Entwicklung am B1 Stepping.

Und warum gab es keinen einzigen off the record Bericht ueber angeblich problematische SMs und dass sie schon an einem B respin arbeiten?

Das könnte der Grund sein, warum die Karten erst im März in den Handel kommen.
NVIDIA startet direkt mit B1, und die GTX 470 und die GTX 480 haben beide 512 SPs.
Die GTX 470 schlägt die HD 5870, und die GTX 480 taktet mit Frequenzen jenseits von gut und böse.
Dadurch liegt die Leistung nur ganz knapp unter der HD 5970.

Das wäre auch der Grund, warum NVIDIA so lange mit dem Namen gezögert hat, sie mussten erst wissen, starten wir mit A3 im Dezember, oder warten wir auf B1 und starten erst im März, aber pulverisieren AMD/ATi?

Ist alles nur Spekulation, auch wenn es sich nicht mit den andern Spekulationen deckt, möglich wäre es schon, jedenfalls erklärt es den späten Launch und auch die späte Namensvergabe.

Siehe oben und ja ich hab diesmal mehr gesagt als ich ueberhaupt sollte.

Evtl. ist das 512SP Problem ja auch kein reines Designproblem, sondern ein Fertigungsproblem, für dessen Lösung man eine Designänderung braucht. RV870 hat sich ja auch verändert, als es klar wurde wie "gut" 40nm @ TSMC war.

An was soll der Prozess bzw. die Fertigung schuld sein wenn Du eine gewisse Anzahl an operativer chips bekommst? Und wieso soll dass mit Cypress vergleichbar sein? Ich hab bis jetzt nichts gehoert dass auf eine beschissene Anzahl von 20 cluster chips deutet seit letztem Jahr.

V2.0
2010-02-19, 13:31:18
ATI hat an den chiptinternen Verbindungen (VIAs ?) gearbeitet. Wenn man z.B. bei der Positionierung oder Anzahl der Chipinternen Verbindungen Änderungen braucht, dann kann es imho notwendig sein Änderungen am Design vorzunehmen. Auch wenn es möglicherweise primär am Prozess liegt, dass dort die Erwartungen an den Prozess nicht erfüllt werden.

Gestrandet
2010-02-19, 13:32:08
Jensen klang mir nie nach einem ahnungslosen Papierkragen, noch jemand der alles so leichten Herzens nimmt.
Aber der Befehl Fermi zur eierlegenden Wollmichsau aufzupumpen kam doch wohl von ganz oben. Im Moment sieht es schwer danach aus, als habe man versucht mehr zu integrieren als dato sinnvoll integrierbar ist. Gerade wenn man sich die Aussagen von AMD im Andandtech Artikel zum Cutback des 870er Transistorbudgets anschaut.

Gast
2010-02-19, 13:32:37
Evtl. ist das 512SP Problem ja auch kein reines Designproblem, sondern ein Fertigungsproblem, für dessen Lösung man eine Designänderung braucht. RV870 hat sich ja auch verändert, als es klar wurde wie "gut" 40nm @ TSMC war.

Nein, das würde komplette Dies betreffen. Wenn man angeblich 50% verwenden kann, dann müssten mindesten 10-15% davon 512 Versionen sein - also die guten in der Mitte.

LovesuckZ

Spasstiger
2010-02-19, 13:38:29
Dann fehlt immer noch die Begründung, wieso nVidia 99,5% aller Chips auf Karten für $400 verkaufen sollte, wenn 10-15% höher getaktete 448SP Chips für $500-$600 über den Tisch gehen können. Denn im Gegensatz zu 5800Ultra wäre das hier kein Taktungsproblem.
Wenn man also glaubt, dass nVidia keine 512SP produzieren kann, dann werden sie nicht 99,5% der Chips für die GTX470 verwenden.

LovesuckZ
Ich vermute , dass man die GTX 470 eher bei 450$ als bei 400$ platziert. Und die GTX 480 bei 550$. Dafür bekommt die GTX 470 dann auch ein 384-Bit-SI spendiert. Eine GTX 460 für die GPUs mit teildefektem SI kann man immer noch später nachschieben, wenn die Kuh gemolken wurde und ATI mit Preissenkungen reagiert hat.
Die GTX 480 wird am Markt vermutlich noch deutlich teurer als 550$ (exkl. Steuer) werden, weil die Verfügbarkeit einfach nicht gegeben ist.
448-SP-Karten für 500$ bis 600$ wird sich NV vermutlich nicht leisten können, weil es AMD/ATI gibt.

mapel110
2010-02-19, 13:43:54
Was ihr dabei vergesst, ist die gesamte 40nm Kapazität bei TSMC. Wenn nvidia nun auch alle Chips auf 40nm innerhalb weniger Monate bringen will, werden sie wohl kaum die Nachfrage decken können. Also werden sie ohnehin auch nicht viele 448SPs produzieren können, dass es gar für zwei Produkte auf dessen Basis am Anfang reichen würde (bzw. ja drei, wenn man die 512er da mit ins Boot nimmt).

Gast
2010-02-19, 13:44:32
Ich vermute , dass man die GTX 470 eher bei 450$ als bei 400$ platziert. Und die GTX 480 bei 550$. Dafür bekommt die GTX 470 dann auch ein 384-Bit-SI spendiert. Eine GTX 460 für die GPUs mit teildefektem SI kann man immer noch später nachschieben, wenn die Kuh gemolken wurde und ATI mit Preissenkungen reagiert hat.
Die GTX 480 wird am Markt vermutlich noch deutlich teurer als 550$ (exkl. Steuer) werden, weil die Verfügbarkeit einfach nicht gegeben ist.
448-SP-Karten für 500$ bis 600$ wird sich NV vermutlich nicht leisten können, weil es AMD/ATI gibt.

Nein, so wird es nicht ablaufen. Es wird eine Karte geben, die ungefähr so teuer wie die 5870 ist. Und dann hätte es eine angebliche 512SP Version geben sollen. Da diese jedoch nicht produzierbar ist - 0,5 Chips pro Wafer zeigt eine reine Zufälligkeit, muss dieser Spot mit einer deutlich schnelleren 448SP Version ersetzt werden. nVidia hat nichts davon eine nicht kaufbare Karte in den Markt zu bringen. Vorallen dann, wenn AMD den Preis für Hemlock senkt. Dann kann man nur Hemlock kaufen, wenn man das schnellste will...

Spasstiger
2010-02-19, 13:48:30
Wenn man knapp 10.000 512-SP-GF100 hat, wird man die auch auf den Markt hauen. Wäre ja Blödsinn, die nicht zu verkaufen.

Gast
2010-02-19, 13:50:52
Wenn man knapp 10.000 512-SP-GF100 hat, wird man die auch auf den Markt hauen. Wäre ja Blödsinn, die nicht zu verkaufen.

Dafür benötigt nVidia mindesten 20k Wafer.
Nein, diese Chips werden nur als ES an Reviewer gehen und nie den Weg in Läden finden.

LovesuckZ

Ailuros
2010-02-19, 14:05:00
ATI hat an den chiptinternen Verbindungen (VIAs ?) gearbeitet. Wenn man z.B. bei der Positionierung oder Anzahl der Chipinternen Verbindungen Änderungen braucht, dann kann es imho notwendig sein Änderungen am Design vorzunehmen. Auch wenn es möglicherweise primär am Prozess liegt, dass dort die Erwartungen an den Prozess nicht erfüllt werden.

Und was sollen vias mit abgekackten SMs auf einem chip gemeinsam haben? Ich bezweifle erstmal dass NV nicht auf jegliche TSMC Vorschriften betreffend vias eingegangen ist. Der Artikel vom NV engineer ueber weniger via Defekte bei TSMC war lange vor der Massenproduktion verfasst worden uebrigens.

Aber der Befehl Fermi zur eierlegenden Wollmichsau aufzupumpen kam doch wohl von ganz oben. Im Moment sieht es schwer danach aus, als habe man versucht mehr zu integrieren als dato sinnvoll integrierbar ist. Gerade wenn man sich die Aussagen von AMD im Andandtech Artikel zum Cutback des 870er Transistorbudgets anschaut.

Frag mal jemand intern bei NV ob ihm engineering je nein gesagt wenn er X oder Y kernel dazufuegen will. Das hat aber nichts damit zu tun. NVIDIA hat bis jetzt ihre Strategie auf single high end chips zu setzen nie geaendert. Wenn jetzt Cypress nach der Kastration 2.15Mrd. Transistoren hat als Performance chip kann wohl schwer ein high end chip weniger als 3Mrd. Transistoren haben. Und das trotz hohen Unterschieden zwischen clock domains. Wenn Du jetzt zu einer merkwuerdigen +/- Milchmaedchenrechnung kommen wuerdest beim Vergleich der Featuresets beider Architekturen, ist die Liste der Zusaetze der GF100 Aenderungen mit Sicherheit laenger als bei Cypress.

Wenn man weiterhin auf single chip high end legt gibt es keinen Ausweg. Man kann sich nur innerhalb dieser Strategie etwas wenden und sich flexibler zeigen und genau in dem Bereich liegen meine Fragezeichen.

Dafür benötigt nVidia mindesten 20k Wafer.
Nein, diese Chips werden nur als ES an Reviewer gehen und nie den Weg in Läden finden.

LovesuckZ

LOL er hat Recht bei seiner Rechnung. Pessimismus Deinerseits ist aber trotz allem eine angenehme Ueberraschung.

Nein, das würde komplette Dies betreffen. Wenn man angeblich 50% verwenden kann, dann müssten mindesten 10-15% davon 512 Versionen sein - also die guten in der Mitte.

LovesuckZ

Random on wafer and random SMs on chip.

Dural
2010-02-19, 14:08:32
naja an die ein 512SP Chip pro Wafer Theorie glaub ich nicht...

wir haben schon A3...
tape out ca. anfang sommer 2009...
40nm läuft jetzt schon gut ein Jahr...

nenene das glaub ich nicht, die aubeute ist sicher nicht perfekt aber sicher nicht so schlecht das nur ein 512SP DIE pro Wafer bleibt, den das würde im ende bedeuten das wir keine GF100 single Chip High-End Karte sehen werden! Den ein gewisser grundtakt müssten diese seltene Chips ja auch noch bringen und da würden sicher min. noch mal 50% rausfliegen...

Gast
2010-02-19, 14:14:45
Random on wafer and random SMs on chip.

"Random SMs on Chip" funktioniert nicht. Die mittigen Dies auf dem Wafer sind die besten. Und wenn selbst hier keine Funktionalität aller SM vorhersehbar ist, dann ist es ein Designproblem im Bereich der Gigathread Engine, die einfach keine 16 Cluster mit Informationen versorgen kann.
Ein "Random on Wafer" gelte dann, wenn bei 1% Ausbeute der 512 SP Chips auch nur ca. 10% 448SP möglich wären...

LovesuckZ

V2.0
2010-02-19, 14:23:28
Und was sollen vias mit abgekackten SMs auf einem chip gemeinsam haben? Ich bezweifle erstmal dass NV nicht auf jegliche TSMC Vorschriften betreffend vias eingegangen ist. Der Artikel vom NV engineer ueber weniger via Defekte bei TSMC war lange vor der Massenproduktion verfasst worden uebrigens.

Die Frage wäre nun warum die SM Blöcke nicht funktionieren und ob es immer die gleichen Blöcke sind oder zufällig verteilte.
Ich gehe mal nicht von einer reinen Zufälligkeit der Verteilung aus. Sind es aber immer gie gleichen, dann kann es z.B. sein dass die Verbindung zu anderen Chipteilen nicht stabil funktioert, z.B. bei denen mit den längsten Übertragunswegen.

Ailuros
2010-02-19, 14:28:35
"Random SMs on Chip" funktioniert nicht. Die mittigen Dies auf dem Wafer sind die besten. Und wenn selbst hier keine Funktionalität aller SM vorhersehbar ist, dann ist es ein Designproblem im Bereich der Gigathread Engine, die einfach keine 16 Cluster mit Informationen versorgen kann.

Es haette heissen sollen dass nie bei allen chips die gleichen SMs abkacken und auch nie die gleichen chips auf einem wafer. Was ist daran so schwer zu verstehen?

Ein "Random on Wafer" gelte dann, wenn bei 1% Ausbeute der 512 SP Chips auch nur ca. 10% 448SP möglich wären...

LovesuckZ

Wenn es 1% dann waere es Null chips LOL.

-------------------------------------------------------------------------

http://www.anandtech.com/video/showdoc.aspx?i=3740&p=8

Kleiner die

http://images.anandtech.com/reviews/video/ATI/RV870Story/smalldie.jpg

Grosser die

http://images.anandtech.com/reviews/video/ATI/RV870Story/largedie.jpg

Die Bilder sind nicht direkt relevant zum Thema aber es hilft vielleicht anderen zu verstehen was fuer Nachteile ein kleinerer die haben kann bei einem problematischen Prozess.

Die Frage wäre nun warum die SM Blöcke nicht funktionieren und ob es immer die gleichen Blöcke sind oder zufällig verteilte.
Ich gehe mal nicht von einer reinen Zufälligkeit der Verteilung aus. Sind es aber immer gie gleichen, dann kann es z.B. sein dass die Verbindung zu anderen Chipteilen nicht stabil funktioert, z.B. bei denen mit den längsten Übertragunswegen.

Es sind nicht die gleichen SMs; sagte ich doch weiter oben.

naja an die ein 512SP Chip pro Wafer Theorie glaub ich nicht...

wir haben schon A3...
tape out ca. anfang sommer 2009...
40nm läuft jetzt schon gut ein Jahr...

nenene das glaub ich nicht, die aubeute ist sicher nicht perfekt aber sicher nicht so schlecht das nur ein 512SP DIE pro Wafer bleibt, den das würde im ende bedeuten das wir keine GF100 single Chip High-End Karte sehen werden! Den ein gewisser grundtakt müssten diese seltene Chips ja auch noch bringen und da würden sicher min. noch mal 50% rausfliegen...

Nochmal die Ausbeute ist fuer die 40G Verhaeltnisse momentan sogar ausgezeichnet. Was jetzt A3 oder jeglichen metal spin betrifft, frag selber herum zu was ein metal spin genau dienen kann. So langsam wird's langweilig.

Gestrandet
2010-02-19, 14:36:44
Wenn es 1% dann waere es Null chips LOL.

Den Käse lese ich jetzt auch schon zum wiederholten Male ... die Ausbeute wird doch nicht für einen einzelnen Wafer angegeben. Not all wafers are created equal!
Solang ein Chip auch nur auf einen Wafer draufpasst, kommst du nie auf einen Yield von 0.

Ailuros
2010-02-19, 14:41:02
Den Käse lese ich jetzt auch schon zum wiederholten Male ... die Ausbeute wird doch nicht für einen einzelnen Wafer angegeben. Not all wafers are created equal!
Solang ein Chip auch nur auf einen Wafer draufpasst, kommst du nie auf einen Yield von 0.

Wenn Du Dir zumindest die Muehe geben wuerdest aufzupassen dann haettest Du jetzt schon nach drei Wiederholungen vom gleichen Brei gemerkt dass dass 1% hypothetisch aus der Anzahl der operativen chips kommen sollte (hallooooooo ding dong Anzahl der operativen chips/wafer = yield vereinfacht). In dem Fall waere theoretisch 1% = 0.6 chips und bei den realen 2% dann eben 1 chip.

Gestrandet
2010-02-19, 15:06:44
Sry Ailuros, aber das ist extrem schwer verständlicher Unfug den du da gerade von dir gibst. Die Mühe die man sich beim Lesen machen muss lohnt sich leider überhaupt nicht. Denn das Anzahl der operativen chips/wafer = yield vereinfacht ist eben nicht vereinfacht, sondern schlicht und ergreifend grob falsch. Dir und manchen anderen sei einfach mal der Wikipedia-Artikel ans Herz gelegt:
http://de.wikipedia.org/wiki/Ausbeute_(Halbleitertechnik)

Gast
2010-02-19, 15:21:16
Sry Ailuros, aber das ist extrem schwer verständlicher Unfug den du da gerade von dir gibst. Die Mühe die man sich beim Lesen machen muss lohnt sich leider überhaupt nicht. Denn das ist eben nicht vereinfacht, sondern schlicht und ergreifend grob falsch. Dir und manchen anderen sei einfach mal der Wikipedia-Artikel ans Herz gelegt:
http://de.wikipedia.org/wiki/Ausbeute_(Halbleitertechnik)

Ich sehe zwei Begriffe: Theoretische und praktische Ausbeute.
Die erste läge bei 103 Chips, die zweite bei einem.
Dann gibt es noch "Optimierung der Ausbeute", welche jedoch nicht unter dem Begriff "praktische Ausbeute" fällt.
Oder anders ausgedrückt: nVidia kann auch nur 1% an Ausbeute haben und trotzdem 103 verwendbare Chips pro Wafer erhalten.

LovesuckZ

Ailuros
2010-02-19, 15:26:13
Sry Ailuros, aber das ist extrem schwer verständlicher Unfug den du da gerade von dir gibst. Die Mühe die man sich beim Lesen machen muss lohnt sich leider überhaupt nicht. Denn das ist eben nicht vereinfacht, sondern schlicht und ergreifend grob falsch. Dir und manchen anderen sei einfach mal der Wikipedia-Artikel ans Herz gelegt:
http://de.wikipedia.org/wiki/Ausbeute_(Halbleitertechnik)

Ich weiss genau wass ich meinte. Wenn Du es nicht verstehen kannst oder willst, lies Dir den von Dir selber erwaehnten Link so oft durch bis es schnallt. Wenn ich nicht zu merkwuerdigen Raetseln und Vereinfachungen greifen wuerde waere es nie moeglich etwas mehr nach aussen zu lassen.

Und jetzt bitte zurueck zum Thema.

Gestrandet
2010-02-19, 15:28:20
nVidia kann auch nur 1% an Ausbeute haben und trotzdem 103 verwendbare Chips pro Wafer erhalten.

LovesuckZ
Jepp :smile:
Obwohl manche das jetzt sicher wieder missverstehen werden ^^

Ailuros
2010-02-19, 15:35:12
Jepp :smile:
Obwohl manche das jetzt sicher wieder missverstehen werden ^^

Per PM geregelt. Zurueck zum Thema bitte.

Gast
2010-02-19, 16:37:10
Da die Leute ja so gerne nVidia's Aussagen missinterpretieren - hier noch etwas zum Spielen:


We are very excited about Q1. Fermi is in production, and we plan to launch many new GPU products in the coming months, but we will save the details for later.


Fermi is going to be a growth driver for us. We have, you know, we are in mass production now of Fermi
http://seekingalpha.com/article/189155-nvidia-corporation-f4q10-qtr-end-01-30-10-earnings-call-transcript?page=-1&find=nvda

LovesuckZ

V2.0
2010-02-19, 16:40:02
Danke für die Klarstellung hinischtlich der SMs. Das hatte ich überlesen. Da kann ich Dir dann nur noch zustimmen.

deekey777
2010-02-19, 16:56:21
Da die Leute ja so gerne nVidia's Aussagen missinterpretieren - hier noch etwas zum Spielen:




http://seekingalpha.com/article/189155-nvidia-corporation-f4q10-qtr-end-01-30-10-earnings-call-transcript?page=-1&find=nvda

LovesuckZ
Laut NV CES2010 Pressekonferenz ist GF100 "in Volume Production.."
Das ist vom 07.01.2010.
Dann gab es eine Meldung von THG, die gelöscht wurde.
Nvidia Fermi Production and Availability (http://www.tomshardware.com/news/nvidia-fermi-gpu,9420.html)

We received word from an Nvidia partner that Fermi will go into production starting in the 3rd week of February, and be available in "low quantities" starting mid-march.

Aha. Und ich dachte schon, der Fermi wäre schon in "Volume Production".
Also hätte THG seine Meldung nicht löschen müssen?

Gast
2010-02-19, 17:28:30
Massenproduktion nicht vor Mai?

http://www.gamestar.de/hardware/news/grafikkarten/2312815/warten_auf_fermi.html

Was ein Trauerspiel.

Massenproduktion bezieht sich auf die Grafikchips,oder??

Wenn im Mai erst in Massen die Grafikchips gemacht werden,wie lange dauert es denn,bis dann fertige Karten in größeren Mengen vorhanden sind??

Ausgehend davon,das ja am 1 Mai nicht direkt alle Chips gemacht werden, hört sich das für mich eher wie Juli an,wenn man Fermi Karten wirklich kaufen kann. Und das im juli wohl auch nur mit Glück zu Händler Abzockerpreisen.

AwesomeSauce
2010-02-19, 18:08:04
ARE YOU READY? Check back here on Monday morning at 9:00 a.m. PST for a major announcement!
http://twitter.com/NVIDIAGeForce

Naja, lieber nicht zu viel erwarten:)

Gast
2010-02-19, 18:14:15
http://twitter.com/NVIDIAGeForce

Naja, lieber nicht zu viel erwarten:)

Ich liebe den Hype. :D
Besser als all die Idioten, die nichtmal Texte richtig verstehen können.

LovesuckZ

mapel110
2010-02-19, 18:19:26
http://twitter.com/NVIDIAGeForce

Naja, lieber nicht zu viel erwarten:)
Eine Ankündigung für eine Ankündigung? ;D
Naja, vielleicht ist es auch Surround Gaming für GT200. Bei Battlefield Bad Company möchte man das jedenfalls unterstützen und das Game kommt ja schon Anfang März afaik.

Gast
2010-02-19, 18:24:24
Eine Ankündigung für eine Ankündigung? ;D
Naja, vielleicht ist es auch Surround Gaming für GT200. Bei Battlefield Bad Company möchte man das jedenfalls unterstützen und das Game kommt ja schon Anfang März afaik.

Surround Gaming ist keine "große Ankündigung" mehr. Soll offiziell ab März zur Verfügung gestellt werden.


And while 3D Vision Surround will be officially launched with our GF100 GPUs later in Q1, the good news for everyone is that 3D Vision Surround will also be supported on our GT200 family too! More details about 3D Vision Surround will be announced over the next few weeks, but we’re sure you’re as excited as we are to try it out.
http://blogs.nvidia.com/ntersect/2010/01/surround-yourself-with-nvidia-3d-vision-technology.html


LovesuckZ

Bucklew
2010-02-19, 18:27:25
[technische Tegra Daten]

In den Tegra Marketing Ramtamtam glauben sowieso nur die sturen fans. Bis Tegra sich erstmal im eingebetteten Markt etablieren koennte dauert es noch etliche Jahre. Vergleiche zu Anzahlen an integriertem IMG IP sind so laecherlich dass man lieber gar nicht so weit kommt. Allein Intel's 65nm ATOM/GMA500 wurde in 85 Geraeten verbaut; zaehl mal in wie vielen Geraeten Tegra1 gelandet ist. Das Tegra R&D sollte von einem einzigen grossen Deal finanziert werden; wenn dieser aber jetzt geplatzt wie es die Geruechte wollen sieht es nicht besonders gut fuer Tegra aus.

Informiert Euch gefaelligst ein wenig besser was den eingebetten Markt betrifft anstatt nur NV's marketing Quark konstant ohne Bedenken zu schlucken.
Du scheinst offensichtlich den Punkt nicht zu verstehen. Natürlich könnte es noch Jahre dauern, bis sich Tegra im Markt plaziert. Aber es ist nunmal ein Grundgesetz der Marktwirtschaft, dass eine Firma wachsen muss - am besten jedes Jahr. Wenn der Markt nicht wächst, muss man sich eben neue Märkte, genau das tut Nvidia, nach unten (Tegra) wie nach oben (Fermi, HTC).

Abgesehen davon ist dein Vergleich Tegra vs. Atom mal mehr an den Haaren herbeigezogen, der richtige Vergleich wäre wohl eher Ion vs. Atom (natürlich ohne Nvidia-CPU mangels Vorhandensein) und da schaut die Statistik doch gar nicht mal so schlecht aus, wenn wir mal die Marktmacht und -durchdringung uns anschauen. Auf jeden Fall war Ion für Intel wohl gefährlich genug, als das sie kräftig FUD unters Volk gestreut haben und für die nächste Generation dem ganzen einen kräftigen Riegel vorgeschoben haben.

So war es auch nicht gemeint. Jedoch jeglicher verlorener Deal fuer NV ist ein Verlust fuer NV egal wie Du es verdrehen willst. AMD hat kurz nach der RV770 Vorstellung einen Aufschwung im Profi Markt von 50% sehen koennen. Auf Anhieb klingt die Zahl zwar imposant, aber wenn man dann noch hinzufuegt dass es von 8 auf 12% stieg sieht es dann schon nuechterner aus. Es gibt keinen einzigen Analysten im Moment der NICHT erwartet dass NV weiterhin den groessten Marktanteil in diesem Markt haben wird, aber ich hab auch keine Analyse bisher lesen koennen wo nicht erwartet wird dass AMD's Prozentual in der Zukunft NICHT weiter steigen wird.

http://www.trefis.com/articles/11149/35-of-nvidias-stock-from-high-end-professional-graphics-cards/2010-02-10
Ein verlorener Deal für NV ist auch eine GeForce anstelle einer Tesla. DAS lässt du allerdings unter dem Tisch fallen. Und durch die DP-Begrenzung wird dieser Case eben unrealistischer.

Muss der Grund sein weil komischerweise die GDP bereinigt quasi Gewinne abgibt waehrend die CPU Sparte eben nicht. Es geht aber nicht ueber AMD's Finanzen sondern eher was NVIDIA eventuell machen koennte dass sie nicht weiterhin links und rechts Markprozentuale verlieren, ueberhaupt da sie den integrierten PC Markt schon intern abgehakt haben. Und nein zu glauben dass etwas wie Tegra die Luecke auf irgend eine Weise fuellen koennte grenzt an den Wahnsinn.
AMD verdient mit den CPUs deutlich mehr als mit den GPUs. Und das Nvidia Ideen hat, wie man im integrierten Markt weiter kommt ohne Chipsatz sehen wir ja an Optimus.

Die sagen mir genauso viel wie aylano's (tschuldige aylano aber es gibt stets ein Gegenwort zu allem) Kaffeesatz-Leserei auf diesen basierend.
Dann frage ich mich, wieso du behauptest, dass Tesla10 für Nvidia nicht genug Umsatz macht, wenn du es nichtmal weißt?

Fermi wird schon zumindest zwei API Generation an Existenz auf diversen Geraeten in der Zukunft haben. Es ging aber um CPUs und dessen zukuenftige Moeglichkeiten gegenueber der GPU.
Ging es das? Eigentlich ging es um die Frage, warum Fermi so wird wie er wird und darin auch die Begründung, warum eben die Entwicklung länger dauert.

Es war auf Dein Tante Erna Beispiel bezogen. Wenn Du immer noch nicht verstehen kannst was ich meinte dann ist es nicht mein Problem.
Ich weiß sehr genau, was du meinst. Das GPGPU aber überall eingesetzt werden MUSS, halte ich eben für Quatsch. Es kann auch in Nischenmärkten überleben.

Nochmal das eine hat mit dem anderen nichts zu tun.
Warum solltest du dann 2-3x soviel für einen Laptop bezahlen, um bei GPGPU mainstream Applikationen nicht zu radikal benachteilgt zu werden?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7851752&postcount=11731

Kannst Du gefaelligst ENDLICH in Deinem Kopf DP von GPGPU trennen? Ich hab es nirgends in meinen vorigen Posts kombiniert. Elendiger kann man wohl jemand die Worte im Mund nicht verdrehen.
Ich rede in diesem Satz überhaupt nicht über DP, das tust du nur gerade.

Hw muss stets vor der sw existieren. IHVs integrieren Faehigkeiten nicht nur weil es sich schick anhoert unter normalen Umstaenden sondern weil sie auf X oder Y zukuenftige Notwendigkeit schaetzen.

NVIDIA ist mit Sicherheit nicht unter den IHVs die bei jeglichem Kreideboard Design ihrer GPU-Architekturen nicht genau diese Masche verfolgt. Und nein es ist auch hier kein multiple-choice menu wo Du wahlweise nur das als sinnvoll anhaken kannst wie es gerade passt.
Ja, natürlich integriert Nvidia Fähigkeiten, die erst später (oder nie?) genutzt werden. Dennoch ist es ja nicht so, dass DP komplett abgeschaltet wird, sondern einfach nur gebremst wird. Ich sehe da überhaupt kein Problem, bei ATI gibt es für die Chips unterhalb von Cypresse überhaupt kein DP.

Das ist vom 07.01.2010.
Dann gab es eine Meldung von THG, die gelöscht wurde.

Also hätte THG seine Meldung nicht löschen müssen?
Dann weißt du ja jetzt, WARUM sie gelöscht wurde ;)

mapel110
2010-02-19, 18:37:14
Surround Gaming ist keine "große Ankündigung" mehr. Soll offiziell ab März zur Verfügung gestellt werden.


http://blogs.nvidia.com/ntersect/2010/01/surround-yourself-with-nvidia-3d-vision-technology.html


LovesuckZ
Aber es könnte schon eine reine Treibergeschichte sein, die da kommt. Der letzte Treiber ist ja über einen Monat alt (196.21, 196.34 war ja nur OC-Fix).

Ailuros
2010-02-19, 18:40:00
http://twitter.com/NVIDIAGeForce

Naja, lieber nicht zu viel erwarten:)

Ich kann mich nicht zurueckhalten....will...mussss.. auch pfeif drauf....

Ein PhysX2 whitepaper? :D

Gast
2010-02-19, 18:41:00
Aber es könnte schon eine reine Treibergeschichte sein, die da kommt. Der letzte Treiber ist ja über einen Monat alt (196.21, 196.34 war ja nur OC-Fix).

Es ist nichts weiteres als eine Treibersache. nVidia unterstützt diesen Mehrmonitorbetrieb schon seit Jahren mit Quadro.
Imo wäre ein neuer Treiber mit Surround Gaming ziemlich lahm. Sollte doch schon etwas in Richtung GF100 gehen.

LovesuckZ

Ansonsten zum "pull stride" von Huang: Er sagte in der CC "full strike". Es ist ein Fehler im Transcript.


I think Fermi will vary substantially offset any seasonality; that is my expectation. Because Q2 is going to be the quarter when Fermi is hitting the full strike, and it won’t just be one Fermi product, there will be a couple of Fermi products to span many different price ranges, but also the Fermi products will span GeForce and Quadro and Tesla. And so we are going to be ramping now on Fermi architecture products through Q2 and we are building a lot of it. So I am really excited about the upcoming launch of Fermi and I think it will more than offset the seasonality that we usually see in Q2.

Gast
2010-02-19, 18:42:31
Ein PhysX2 whitepaper? :D

nVidia kauft Intel und nennt die Fusion von Havok und PhysX dann PhysX2? Wow...

LovesuckZ

Gast
2010-02-19, 19:26:00
Und gibts schon was neues?

Gast
2010-02-19, 19:27:49
Werde langsam flattrig, will Ferrmi sehen*zitter*

mapel110
2010-02-19, 19:27:53
Und gibts schon was neues?
Nö. ^^

http://www.brightsideofnews.com/news/2010/2/19/nvidia-to-launch-geforce-gtx-470480-on-march-272c-2010.aspx
After checking in with our sources, we got multiple indications that GeForce GTX 470 and 480 should launch on March 27, 2010. On the other hand, March 29, 2010 was also mentioned as the day when all the reviews should hit the web.

Gast
2010-02-19, 19:29:08
March 27 ist doch ein Wort:)

Black-Scorpion
2010-02-19, 19:30:30
Papier hilft dir aber auch nicht viel weiter.
Und mehr gibt es da ganz bestimmt nicht zu sehen.

Gast
2010-02-19, 19:32:10
Ja wat denn nu? March 27 soll doch Launch sein oder nicht?

Black-Scorpion
2010-02-19, 19:36:26
Wie gesagt Papier ist geduldig.
Du wirst jedenfalls im März keine Karte bekommen.

Gast
2010-02-19, 19:37:37
Das ärgert mich, aber ne ATI kommt mir nicht ins Case. Ärgerlich diese Warterei...

Ailuros
2010-02-19, 19:38:24
Du scheinst offensichtlich den Punkt nicht zu verstehen.

Ich bin jetzt mal so bescheiden zu behaupten dass ich eine weit bessere Vorstellung und Klarheit ueber den eingebetteten Markt habe als viele andere User. Ich hab den Markt nicht gestern entdeckt sondern vor ca. 8 Jahren.

Natürlich könnte es noch Jahre dauern, bis sich Tegra im Markt plaziert. Aber es ist nunmal ein Grundgesetz der Marktwirtschaft, dass eine Firma wachsen muss - am besten jedes Jahr. Wenn der Markt nicht wächst, muss man sich eben neue Märkte, genau das tut Nvidia, nach unten (Tegra) wie nach oben (Fermi, HTC).

Wenn ueberhaupt. Wenn man mit Giganten wie Intel, Samsung, Renesas+NEC, TI usw. und womoeglich auch bald AMD im gleichen Ring spielt dann sind die Spielkoordinaten nicht die gleichen wie im GPU Markt und dort heisst es wenig bis gar nichts dass man NVIDIA heisst ueberhaupt wenn die unterliegende hw nichts allzu besonderes ist (ganz im Gegensatz zu GPUs). Noch schlimmer all die grossen Semikonduktor Hersteller sind keine fabless manufacturers.

Der CPU wie auch der GPU Markt hat jeweils 2 grosse Spieler. Im eingebetteten Markt sind es viel mehr Spieler, die Konkurrenz ist um einiges hitziger, der Markt ist hauptsaechlich auf IP Lizenzierung ausgerichtet und daher insgesamt die Chancen sich brutal aufzubauen nicht so rosig wie Du Dir vorstellen willst.

Abgesehen davon ist dein Vergleich Tegra vs. Atom mal mehr an den Haaren herbeigezogen, der richtige Vergleich wäre wohl eher Ion vs. Atom (natürlich ohne Nvidia-CPU mangels Vorhandensein) und da schaut die Statistik doch gar nicht mal so schlecht aus, wenn wir mal die Marktmacht und -durchdringung uns anschauen.

Der netbook Markt hat nichts im geringsten etwas mit desktop bzw. notebook Markt zu tun. Von mir aus kannst Du weiter Daten verdrehen wie sie Dir gerade so passen, es fuehrt Dich aber in die genau gleiche Sackgasse.

Tegra:

http://en.wikipedia.org/wiki/Tegra

PowerVR SGX:

http://en.wikipedia.org/wiki/PowerVR

Scroll runter zu SGX und bleib bei GMA500 stehen; die Liste ist nichtmal komplett. Aber da Du anscheinend ein ziemlich gutes Bild vom eingebetteten Markt hast kannst Du gerne die Tegra Liste verlaengern. Erster Paragraph, Seite 7:

http://www.imgtec.com/corporate/InterimReports/Interim2009.pdf

Ein bisschen Dokumentation von sterilen Palaber wuerde ausnahmsweise helfen.

Auf jeden Fall war Ion für Intel wohl gefährlich genug, als das sie kräftig FUD unters Volk gestreut haben und für die nächste Generation dem ganzen einen kräftigen Riegel vorgeschoben haben.

ION hat immer noch nichts mit dem eingebetteten Markt zu tun. Fuer jeglichen zukuenftigen PC/notebook SoC siehe Intel's GenX Mist und AMD Fusion.

Ein verlorener Deal für NV ist auch eine GeForce anstelle einer Tesla. DAS lässt du allerdings unter dem Tisch fallen. Und durch die DP-Begrenzung wird dieser Case eben unrealistischer.

Ich lass gar nichts unter den Tisch fallen. Du hingegen redest konstant um den Brei rum und schiebst aus purer Verzweiflung jeden irrelevant Quark der Dir gerade in den Kopf kommt in die Debatte. Ich hab Dir einen legitimen Link zu einer Analyse des Profimarkts zugesteckt die erstmal Quadros betrifft und ergo nichts mit DP zu tun hat. Denn wenn NV DP auf GF's begrenzt macht es auch keinen besonderen Sinn es auf Quadros stehen zu lassen.

Die Logik ist einfach: NV wird weiterhin den Profi-Markt kapitulieren und fast ein Monopol geniessen aber es heisst auch nicht dass AMD ihren Marktanteil nicht steigern wird. Zwischen dieser Analyste und Deinen konstanten Ausweichung gibt es schon einen Unterschied.

AMD verdient mit den CPUs deutlich mehr als mit den GPUs. Und das Nvidia Ideen hat, wie man im integrierten Markt weiter kommt ohne Chipsatz sehen wir ja an Optimus.

Keine schlechte Idee aber es ist lediglich ein Pflaster. Zugegeben ein gutes nur fuer wie lange genau?

Dann frage ich mich, wieso du behauptest, dass Tesla10 für Nvidia nicht genug Umsatz macht, wenn du es nichtmal weißt?

Was ich betreffend NV weiss ist nicht Deine Angelegenheit und steht auch nicht zur Debatte. Tesla ist durch die Natur des Markts von sehr geringen Einheitszahlen bei extrem hohen Verkaufspreisen pro Einheit bestimmt. Was sonst ist Neu?

Ging es das? Eigentlich ging es um die Frage, warum Fermi so wird wie er wird und darin auch die Begründung, warum eben die Entwicklung länger dauert.

Was soll an Fermi's Entwicklung laenger gedauert sein. Das Ding kam irgendwo H1 2005 in die Startloecher und war fuer Q4 2009 projeziert. +/- 4 Jahre ist stinknormal fuer so ein ambitionsreiches Projekt.

Ich weiß sehr genau, was du meinst. Das GPGPU aber überall eingesetzt werden MUSS, halte ich eben für Quatsch. Es kann auch in Nischenmärkten überleben.

Man muss gar nichts nur sterben :P Spass beiseite wenn ich ein jegliches Geraet mit einer GPU kaufe dann ist es im Aufklang von GPGPU eine legitime Forderung dass meine System-resourcen so gut wie moeglich balanciert werden und die GPU eben NICHT in der Mehrzahl der Faelle dumm herumhockt. Klitzekleines Beispiel:

The 1GHz operating frequency implies a 45nm manufacturing process if it’s indeed an A8 or A9-like core. If we look at Apple’s public video, it appears to render a page at Spin.com in roughly 2.7 seconds. My iPhone 3GS does the same in about 7 - 9 seconds, but it also appears to be loading a lot more content on the current Spin.com site. Even if we assume that the 600MHz Cortex A8 in the iPhone 3GS can render the same page in 5 seconds, the speedup is too big to be from a clock speed increase alone.

http://www.anandtech.com/gadgets/showdoc.aspx?i=3729&p=4

Warum solltest du dann 2-3x soviel für einen Laptop bezahlen, um bei GPGPU mainstream Applikationen nicht zu radikal benachteilgt zu werden?

Wenn ich theoretisch eine high end GPU in einem notebook brauchen wuerde um GPGPU einsetzen zu koennen (ergo anders GPGPU waere nur auf >mainstream GPUs begrenzt) muesste ich dann wohl schon einiges mehr auf den Ladentisch legen als bei einem low end laptop.


Ja, natürlich integriert Nvidia Fähigkeiten, die erst später (oder nie?) genutzt werden. Dennoch ist es ja nicht so, dass DP komplett abgeschaltet wird, sondern einfach nur gebremst wird. Ich sehe da überhaupt kein Problem, bei ATI gibt es für die Chips unterhalb von Cypresse überhaupt kein DP.

Man bekommt auf einer 330-350 Euro Performance GPU heute glatte 544GFLOPs DP. Bist Du sicher dass Du irgendwelche Vergleiche zwischen Cypress und jeglicher GF100 wagen willst?

Die Tesla C20@1.2+GHz liegt dann schon auf dem Nivaeu. Gembrest ist aber die ulkigste Darstellung aller. Wieviel GFLOPs an DP glaubst Du wird die GTX480 noch operativ haben?

Nightspider
2010-02-19, 19:38:26
Wie gesagt Papier ist geduldig.
Du wirst jedenfalls im März keine Karte bekommen.

Wusste gar nicht das du bei Nividia arbeitest. :freak:

Ailuros
2010-02-19, 19:40:04
Nö. ^^

http://www.brightsideofnews.com/news/2010/2/19/nvidia-to-launch-geforce-gtx-470480-on-march-272c-2010.aspx
After checking in with our sources, we got multiple indications that GeForce GTX 470 and 480 should launch on March 27, 2010. On the other hand, March 29, 2010 was also mentioned as the day when all the reviews should hit the web.

Es ist kein Dienstag! (bitte nicht Ernst nehmen; es ist nach wie vor der gleiche alberne Scherz).

Gast
2010-02-19, 19:47:30
An die ATI-Fanboys Und Entschuldigung das ich warte. Meine Graka reicht noch, und der Fermi wird erst mal zeigen wo der Hammer hängt. Siehe Unigine Bench. DX11 gesehen. Also warte ich noch ab...:)

Kosh
2010-02-19, 19:47:31
Wie gesagt Papier ist geduldig.
Du wirst jedenfalls im März keine Karte bekommen.

Wenn die Massenproduktion im Mai startet (falls das keine Falschmeldung war),dann wirds eher Juli/August,falls man nicht 50% Händleraufschlag zum NVIDIA Verkaufspreis zahlen will.

Gast
2010-02-19, 19:48:53
Wenn die Massenproduktion im Mai startet (falls das keine Falschmeldung war),dann wirds eher Juli/August,falls man nicht 50% Händleraufschlag zum NVIDIA Verkaufspreis zahlen will.

Immer wieder erstaunlich wie langlebig doch Internetenten sind. :lol:

LovesuckZ

Spacedust
2010-02-19, 19:51:33
March 27 ist doch ein Wort:)

- Laut meiner Info ist 29.3.10 offizieller Launch Termin.
- Verfügbarkeit zum Launch extrem wenig. Man erzählt sich, dass NVIDIA Angst vor Presseschelte hat, weil unter anderem viele Wochen prinzipiell keine Produkte zu kaufen sein werden
- NVIDIA Thema in Meetings auf CEBIT deswegen angeblich: Optimus, Optimus und nochmal Optimus. NVIDIA wird dabei die Bedeutung von DirectX11 herunterspielen.
- Laut meiner erneuten Info gibt es keine NVIDIA Mobile Grafiklösung mit DirectX11 bis Ende Q4/10 bzw. Anfang 1/2011

Wie gesagt AMD kann den Markt nicht übernehmen, da nicht genug Kapazitäten.

Gast
2010-02-19, 19:53:48
- NVIDIA wird dabei dir Bedeutung von DirectX11 herunterspielen.

DAS glaube ich weniger.

Gast
2010-02-19, 19:54:46
- NVIDIA Thema in Meetings auf CEBIT deswegen angeblich: Optimus, Optimus und nochmal Optimus. NVIDIA wird dabei dir Bedeutung von DirectX11 herunterspielen.


Ich muss mir langsam ein Buch mit den besten "Spekulationen" anlegen.
Denkst du wirklich, nachdem sie auf der CES DX11 und Tessellation so angepriesen haben - ha, die komplette Architektur ist darauf ausgelegt - spielen sie DX11 herunter?
Man, man, man.

LovesuckZ

Black-Scorpion
2010-02-19, 19:55:59
Wusste gar nicht das du bei Nividia arbeitest. :freak:
Muss man das um eins und eins zusammenzählen zu können?
Ich denke nicht das NV zaubern kann und plötzlich Mio von Karten vom Himmel fallen.

Gast
2010-02-19, 19:56:41
Nvidia wird wie gesagt ganz bestimmt nicht DX11 runterspielen. DAS ist der Trumpf (UNIGINE)

Ailuros
2010-02-19, 19:59:27
Ich muss mir langsam ein Buch mit den besten "Spekulationen" anlegen.
Denkst du wirklich, nachdem sie auf der CES DX11 und Tessellation so angepriesen haben - ha, die komplette Architektur ist darauf ausgelegt - spielen sie DX11 herunter?
Man, man, man.

LovesuckZ

Ach an dem bist Du steckengeblieben? Die Mehrzahl seiner Behauptungen duerften stimmen. Sie hapern sowieso seit einiger Zeit eher auf der begrenzten Anzahl von DX11; dass DX11 nicht wichtig sein soll haben sie ernsthaft wo genau behauptet?

Wie dem auch sei beschissene Verfuegbarkeit ist ein gewaltiger Minuspunkt und ich pfeiff auf die Presse. Wart ab was es fuer Saustaelle es in allen Foren generieren wird von angepissten Verbrauchern.

Nvidia wird wie gesagt ganz bestimmt nicht DX11 runterspielen. DAS ist der Trumpf (UNIGINE)

Ich wuerde liebend gerne sehen wie oft Du um den verdammten Drachen herumrennen kannst bis es Dir langweilig wird.

Gast
2010-02-19, 20:01:09
ich pfeiff auf die Presse.

SO SIEHTS AUS GENAU SO

mapel110
2010-02-19, 20:01:14
Wie dem auch sei beschissene Verfuegbarkeit ist ein gewaltiger Minuspunkt und ich pfeiff auf die Presse. Wart ab was es fuer Saustaelle es in allen Foren generieren wird von angepissten Verbrauchern.
Die sinds doch durch ATIs 5870/5850 gewohnt. So what?! Hauptsache, wir wissen, ob sich das Warten auf Vorbestellungen lohnt.

Schlammsau
2010-02-19, 20:01:24
Erstmal abwarten wie Fermi bei DX11 Spielen (DiRT2, AvP und Battleforge), nicht Techdemos bzw. Benchmarks performt. ;)
Bei den Titeln hat ja bekanntlich ATi den Entwicklern unter die Arme gegriffen.

Gast
2010-02-19, 20:04:03
Ich sage mal einfach so der Fermi liegt klar über der Performance der 5870 in DX11 Games. Die Spiele werden eh zugeschnitten auf Nvidia, Physx + Konsole, na?

mapel110
2010-02-19, 20:04:18
Erstmal abwarten wie Fermi bei DX11 Titeln (DiRT2, AvP und Battleforge) performt. ;)
Bei den Titeln hat ja bekanntlich ATi den Entwicklern unter die Arme gegriffen.
Und nvidia hat bei allen kommenden Titeln geholfen(Battlefield, Metro33). Bei den alten DX11-Titeln hatten sie genug Zeit, am Treiber zu schrauben.
Und über AVP3 DX11 sollte man besser den Mantel des Schweigens legen. Wenig Optik, garniert mit Abstürzen bei beiden IHVs.

Schlammsau
2010-02-19, 20:07:02
Und nvidia hat bei allen kommenden Titeln geholfen(Battlefield, Metro33). Bei den alten DX11-Titeln hatten sie genug Zeit, am Treiber zu schrauben.
Und über AVP3 DX11 sollte man besser den Mantel des Schweigens legen. Wenig Optik, garniert mit Abstürzen bei beiden IHVs.

Und was ist mit Lord of the Rings Online und war da nicht noch ein anderes Spiel?

Wenn du das sagst.
Wenn ich mir den AvP Thread so ansehe, finden eigentlich viele das Game recht stimmig!

Ich sage mal einfach so der Fermi liegt klar über der Performance der 5870 in DX11 Games. Die Spiele werden eh zugeschnitten auf Nvidia, Physx + Konsole, na?
Schneller mit Sicherheit, aber um wieviel? 10% - 30%?

Und das die kommenden Spiele auf nVidia und PhysX zugeschnitten sind, glaub ich nicht. Auf Konsolen wahrscheinlich.....und welche GPU ist in einer XboX 360 verbaut? Eine ATi...... ;)

Ailuros
2010-02-19, 20:10:06
DX10/11 paths duerften keineswegs ein Problem fuer GF100 sein; eher das Gegenteil.

Gast
2010-02-19, 20:10:49
Ich wünsche mir ja Heavy Rain auf dem PC, gehört hier zwar nicht hin, aber die Optik ist gemeingefährlich. Genial, will aber keine Scheiss Konsole.

Gast
2010-02-19, 20:11:44
Schneller mit Sicherheit, aber um wieviel? 10% - 30%?

50%-100%?


Und das die kommenden Spiele auf nVidia und PhysX zugeschnitten sind, glaub ich nicht. Auf Konsolen vielleicht.....und welche GPU ist in einer XboX 360 verbaut? Eine ATi...... ;)


Dark Void, Metro2033, Mafia2... Sind alles Konsolenspiele...

Schlammsau
2010-02-19, 20:13:43
50%-100%?

;D :freak:

Dark Void, Metro2033, Mafia2... Sind alles Konsolenspiele...
Und die sind auf nVidia optimiert?

Gast
2010-02-19, 20:14:36
;D :freak:

Wir werden sehen.


Und die sind auf nVidia optimiert?

Die haben alle GPU-PhysX auf dem PC.

Spacedust
2010-02-19, 20:15:38
Nvidia wird wie gesagt ganz bestimmt nicht DX11 runterspielen. DAS ist der Trumpf (UNIGINE)

Wenn man nicht liefern kann, muss man auf andere Themen setzen ...

Hierbei geht es speziell um das Problem der auf lange Zeit nicht vorhanden neuen NVIDIA Grafikchips im Notebook Bereich (kein DirectX11). Dieses Problem kann NVIDIA auch nicht durch neue Namensgebung lösen. ATi wird daher mit Nachfrage der OEMs nach Mobile DirectX11 Grafikkarten geradezu überrannt. Deshalb setzt NVIDA so deutlich auf die Optimus Lösung, um eigene Schwerpunkte zu setzen. Wie gesagt, wenn AMD genug liefern könnte, sähe es für NVIDA düster aus, so kommen Sie aber nochmal mit einem blauen Auge davon. Mit dem Verkaufsargument Optimus wird man auf Hersteller Seite ab CeBit viele neue Notebooks sehen und AMD kann ja die Nachfrage nach mobile Grafikchips nicht allein bedienen.

Die Optimus Lösung funktioniert übrigens technisch auch mit Intel Core ix CPUs und Radeon HD 5xxx Grafikkarten, auch ohne Zusatzchip. Von MSI wird es die ersten Notebooks zur CeBit geben. (auch ohne Flackern und während Programme laufen...:biggrin:) AMD feilt wahrscheinlich noch am Namen, aber Marketing das war noch nie AMDs Stärke...

Gast
2010-02-19, 20:19:07
Wenn man nicht liefern kann, muss man auf andere Themen setzen ...


Aha - und wieso haben sie auf der CES überhaupt so offen über DX11 in Form von Tessellation und CS gesprochen? Liefern können sie selbst heute noch nicht.

LovesuckZ

Schlammsau
2010-02-19, 20:19:25
Wir werden sehen.
In Games??? ....In deinen Träumen! ;D

Die haben alle GPU-PhysX auf dem PC.
PhysX hat nicht den Stellenwert, den du dir wünscht in der Gamerwelt.

Gast
2010-02-19, 20:22:12
Physx hat den Stellenwert, das ATI-Fanboys das runterspielen.

Black-Scorpion
2010-02-19, 20:27:31
Das braucht man nicht runterspielen.
Es hat jedenfalls nicht den Stellenwert den du gerne hättest.

Gast
2010-02-19, 20:28:49
Aber auch nicht den Stellenwert den idu gerne hättest

Black-Scorpion
2010-02-19, 20:31:32
Da ich schon seit einiger Zeit nicht mehr spiele ist mir das egal.

Gast
2010-02-19, 20:34:14
Aber mir ist Physx nicht egal, da ich einige Spiele zocke die das über GPU lösen. Gehört hier aber nicht hinne.

mictasm
2010-02-19, 20:38:35
Und wieder eine Seite für die Tonne... Klingt ja bei manchem fast schon nach blanker Angst vor Fermi... zu lustig. Nur schade, dass es noch so lange dauert.

Gast
2010-02-19, 20:43:10
Und wieder eine Seite für die Tonne... Klingt ja bei manchem fast schon nach blanker Angst vor Fermi... zu lustig. Nur schade, dass es noch so lange dauert.

Und wie hat jetzt dein Post die Seite aufgewertet.
Auch 100% FB BS und sich dann über Gäste aufregen...

mictasm
2010-02-19, 20:45:28
Und wie hat jetzt dein Post die Seite aufgewertet.
Auch 100% FB BS und sich dann über Gäste aufregen...

nach langer zeit wollte ich mal wieder etwas schreiben, anstatt weiterhin nur den meldebutton zu benutzen...

und ich weiß, dass meine beiträge mitgelöscht werden, ich bestehe sogar darauf^^

Menace
2010-02-19, 20:46:08
Ich muss mir langsam ein Buch mit den besten "Spekulationen" anlegen.
LovesuckZ

Coole Idee, darf ich Dir helfen? :wink:

Es kann vom Hardlaunch Anfang Dezember oder Previews in der Form der GTX295 im diesen Jahr noch geben.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7599358&highlight=Dezember#post7599358

März würde ein A3 Stepping bedeuten. Ich hab Dezember getippt, aber selbst als Pesismist käme ein A3 schon im Februar.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7614877&highlight=Dezember#post7614877

Schlussendlich scheint es wohl so abzulaufen wie letztes Jahr mit der GTX295 - Mitte Dezember Previews und einem Monat später erste Verfügbarkeit für >400€. A3 wird wohl für die GX2 und GTX385 Version benötigt, die dann im März erscheint.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7651459&highlight=Dezember#post7651459

Seine Infos haben 100x mehr Wert als deine feuchten nVidia-Fanboy-Träume von 50% schneller als RV870 und Verfügbarkeit im Dezember 09.
Jo, weil ich auch damit angebe, dass ich irgendwelche Quellen habe.
Aber zum Glück hat Charlie hirnlose Drohnen wie dich - die glauben auch, dass Charlie ihre Mutter wäre, wenn er es schreiben würde.

nVidia hat A1 seit Ende August - somit fand das Tape-Out im Juni statt und nicht Ende Juli - und wenn wir 6 - 8 Wochen bis zum A2 rechnen, können sie Ende November bzw. Anfang Dezember die Karten launchen und mit einer geringen Verfügbarkeit in den Markt bringen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7555677&highlight=November#post7555677

Ich habe mir nicht wirklich Mühe bei der Suche gegeben (einmal Dezember und einmal November und nur die ersten 5, 6 Beiträge gesucht).

Von daher sehe ich bei den meisten "Spekulationen" häufig mehr Hoffnungen als Realität. Warten wir ab, was im März passiert.

Gast
2010-02-19, 20:47:22
nach langer zeit wollte ich mal wieder etwas schreiben, anstatt weiterhin nur den meldebutton zu benutzen...

und ich weiß, dass meine beiträge mitgelöscht werden, ich bestehe sogar darauf^^

In dem Thread braucht man keinen Meldebutton.
Hier muss einmal am Tag aufgeräumt werden und gut.

Gast
2010-02-19, 20:56:02
Coole Idee, darf ich Dir helfen? :wink:


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7599358&highlight=Dezember#post7599358


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7614877&highlight=Dezember#post7614877


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7651459&highlight=Dezember#post7651459




http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7555677&highlight=November#post7555677

Ich habe mir nicht wirklich Mühe bei der Suche gegeben (einmal Dezember und einmal November und nur die ersten 5, 6 Beiträge gesucht).

Von daher sehe ich bei den meisten "Spekulationen" häufig mehr Hoffnungen als Realität. Warten wir ab, was im März passiert.

Das ist das schöne an mir: Ich verweise nicht auf angebliche Quellen. :D
Diese "offiziellen" Spekulationen - seien sie von Fuad, Charlie, KonKort (wo ist er eigentlich?) oder jetzt von Spacedust - dagegen wollen den Anschein von realität erwecken.
Deswegen schäme ich mich auch nicht, wenn ich komplett daneben liege.

LovesuckZ

Menace
2010-02-19, 21:01:35
Schämen sollst Du Dich ja auch nicht. Es ist im Spekulationsbereich, von daher sind Spekulationen doch völlig ok. Man sollte aber aufpassen, dass man bei anderen nicht das kritisiert, was man selbst veranstaltet. Vor allem die Hardware-Seiten leben doch von diesen Spekulationen (viele Klicks, viele Werbung, viel Geld). Der Wahrheitsgehalt von diesen Spekulationen (Charlie, Fuz., etc.) ist ähnlich hoch wie beim Astro-TV.

Gast
2010-02-19, 21:06:11
Schämen sollst Du Dich ja auch nicht. Es ist im Spekulationsbereich, von daher sind Spekulationen doch völlig ok. Man sollte aber aufpassen, dass man bei anderen nicht das kritisiert, was man selbst veranstaltet.

Sobald jemand anfängt seine Spekulationen aufgrund von "Insider-Informationen" zu erhalten, muss man damit leben, dass man daran gemessen wird. Ist wie mit KonKort.
Das nVidia die Bedeutung von DX11 herunterspielen würde, verneine ich plump. Die haben DX11 auf der CES deutlich hervorgehoben (siehe Videos bei Youtube.com) und selbst die eigene Preview Seite von GF100 verweist ziemlich oft auf DX11. Das sind solche Spekulationen, die einfach unglaubwürdig aussehen. Ob nVidia dagegen z.B. liefern kann oder nicht? Ka, Ahnung, das lässt sich erst in der Retroperspektive auswerten.

LovesuckZ

Bucklew
2010-02-19, 21:21:33
Wenn ueberhaupt. Wenn man mit Giganten wie Intel, Samsung, Renesas+NEC, TI usw. und womoeglich auch bald AMD im gleichen Ring spielt dann sind die Spielkoordinaten nicht die gleichen wie im GPU Markt und dort heisst es wenig bis gar nichts dass man NVIDIA heisst ueberhaupt wenn die unterliegende hw nichts allzu besonderes ist (ganz im Gegensatz zu GPUs). Noch schlimmer all die grossen Semikonduktor Hersteller sind keine fabless manufacturers.
Niemand sagt, dass es leicht ist. Es ist aber im Endeffekt überlebenswichtig, nicht nur in einem Markt zu sein (bzw von einem Markt abhängig zu sein). Und wenn du sagst, dass bald auch noch AMD kommt - die werden exakt dieselben Probleme kriegen.

Der CPU wie auch der GPU Markt hat jeweils 2 grosse Spieler. Im eingebetteten Markt sind es viel mehr Spieler, die Konkurrenz ist um einiges hitziger, der Markt ist hauptsaechlich auf IP Lizenzierung ausgerichtet und daher insgesamt die Chancen sich brutal aufzubauen nicht so rosig wie Du Dir vorstellen willst.
Ich stelle mir gar nix vor, ich halte es nur für den einzig richtigen Weg, den Nvidia gehen soll. Man kann eben ab einer gewissen Größe nicht mehr alleine von ein paar ConsumerGPUs leben.

Der netbook Markt hat nichts im geringsten etwas mit desktop bzw. notebook Markt zu tun. Von mir aus kannst Du weiter Daten verdrehen wie sie Dir gerade so passen, es fuehrt Dich aber in die genau gleiche Sackgasse.
Man könnte jetzt boshaft sagen, dass PowerVR Glück hat, dass Intel zu doof ist ne anständige Grafik zu entwickeln. Denn wirklich verbreitet und wirklich Volumen haben nur die Intel-Lösungen.

Und wie gesagt, für die meisten der Lösungen wäre eher Ion das Pendant. Oder glaubst du ernsthaft, dass bei so einem "Klopper" ein Tegra benutzt werden würde?
http://www.chip.de/news/Asus-Eee-PC-T91-Video-vom-Touchscreen-Netbook_34337853.html

ION hat immer noch nichts mit dem eingebetteten Markt zu tun. Fuer jeglichen zukuenftigen PC/notebook SoC siehe Intel's GenX Mist und AMD Fusion.
Die Grenzen überlappen extrem, s.o. Und zum Thema Fusion: Das muss erstmal erscheinen, sollte es ja ursprünglich schon seit 2 Jahren geben, bis heute gibts da noch nix handfestes.

Ich lass gar nichts unter den Tisch fallen. Du hingegen redest konstant um den Brei rum und schiebst aus purer Verzweiflung jeden irrelevant Quark der Dir gerade in den Kopf kommt in die Debatte. Ich hab Dir einen legitimen Link zu einer Analyse des Profimarkts zugesteckt die erstmal Quadros betrifft und ergo nichts mit DP zu tun hat. Denn wenn NV DP auf GF's begrenzt macht es auch keinen besonderen Sinn es auf Quadros stehen zu lassen.
Schau dir den Preis einer Quadro an, vergleiche ihn mit einer Tesla und dir wird ein großes Licht aufgehen ;)

Die Logik ist einfach: NV wird weiterhin den Profi-Markt kapitulieren und fast ein Monopol geniessen aber es heisst auch nicht dass AMD ihren Marktanteil nicht steigern wird. Zwischen dieser Analyste und Deinen konstanten Ausweichung gibt es schon einen Unterschied.
Genau da sind wir wieder beim Punkt, um den wir hier die ganze Zeit streiten. Diesen "Profi-Markt" kann nvidia mit dem Fermi eben stark erweitern und das wohl erstmal auf längere Sicht ohne Gegenwert von ATI. Genau das ist es ja, was ich sage.

Daran unterscheiden sich eben im Endeffekt der Marktführer gegen den Underdog. Dem Underdog reicht es, wenn er versucht dem Marktführer Marktanteile wegzunehmen, da reicht es durchaus auch einfach mal abzukupfern (siehe z.B. die nachgebaute G-Sync Karte bei ATI), der Marktführer muss dagegen versuchen den Markt zu vergrößern - das ist Fermi.

Keine schlechte Idee aber es ist lediglich ein Pflaster. Zugegeben ein gutes nur fuer wie lange genau?
Solange, bis Intel es schafft endlich mal ne vernünftige Grafik einzubauen? Also auf gut Deutsch: Ewig! ;D

Was ich betreffend NV weiss ist nicht Deine Angelegenheit und steht auch nicht zur Debatte. Tesla ist durch die Natur des Markts von sehr geringen Einheitszahlen bei extrem hohen Verkaufspreisen pro Einheit bestimmt. Was sonst ist Neu?
Das die Umsatzerlöse deutlich größer sind, als du sie hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7851377&postcount=11716) darstellen willst.

Was soll an Fermi's Entwicklung laenger gedauert sein. Das Ding kam irgendwo H1 2005 in die Startloecher und war fuer Q4 2009 projeziert. +/- 4 Jahre ist stinknormal fuer so ein ambitionsreiches Projekt.
Eben länger gedauert als ein RV870 aka RV770*2+DX11. Genau darum geht es ja vorallem in diesem Thread, um den Vergleich zugunsten der Konkurrenz im Gamingumfeld.

Man muss gar nichts nur sterben :P Spass beiseite wenn ich ein jegliches Geraet mit einer GPU kaufe dann ist es im Aufklang von GPGPU eine legitime Forderung dass meine System-resourcen so gut wie moeglich balanciert werden und die GPU eben NICHT in der Mehrzahl der Faelle dumm herumhockt. Klitzekleines Beispiel:
Natürlich müssen die verschiedenen Systeme ausbalanciert werden, das ist doch gar keine Frage.

Wenn ich theoretisch eine high end GPU in einem notebook brauchen wuerde um GPGPU einsetzen zu koennen (ergo anders GPGPU waere nur auf >mainstream GPUs begrenzt) muesste ich dann wohl schon einiges mehr auf den Ladentisch legen als bei einem low end laptop.
Tust du aber nicht, eine billige, von dir selbst hier verlinkte, NVS295 reicht für aktuell alles im Bereich GPBPU aus, solange es auf Cuda und/oder OpenCL läuft. Wenn man natürlich entsprechend Leistung will, muss man diese natürlich auch bezahlen und sich ne GTX285 o.Ä. kaufen.

Man bekommt auf einer 330-350 Euro Performance GPU heute glatte 544GFLOPs DP. Bist Du sicher dass Du irgendwelche Vergleiche zwischen Cypress und jeglicher GF100 wagen willst?
Nur was will ich damit auf einer Consumer-GPU?

Die Tesla C20@1.2+GHz liegt dann schon auf dem Nivaeu. Gembrest ist aber die ulkigste Darstellung aller. Wieviel GFLOPs an DP glaubst Du wird die GTX480 noch operativ haben?
Weiß ich nicht, da ich (wie wohl alle hier) noch nicht zu 100% die finalen Taktraten der GTX480 kenne. Aber ehrlich gesagt interessiert mich das nicht sonderlich, weil mir kein Anwendungsfall einfällt, in dem mich die DP-Performance interessiert - zumindest im privaten Umfeld. Also was sollte es mich interessieren?

Wenn die Massenproduktion im Mai startet (falls das keine Falschmeldung war),dann wirds eher Juli/August,falls man nicht 50% Händleraufschlag zum NVIDIA Verkaufspreis zahlen will.
Das liegt nur an Leuten, die zu blöd sind Englisch zu übersetzen und nicht verstanden haben, was "full strike" bedeutet. Das heißt nämlich nur die ganzen weiteren Versionen des Fermi (Quadro, Tesla, kleinere GeForce etc.), mit den kommenden Highend-Modellen hat das nix zu tun, die sind wie gesagt schon mehrere Wochen in der Massenproduktion.

Bei den Titeln hat ja bekanntlich ATi den Entwicklern unter die Arme gegriffen.
Wenn das nru Nvidia getan hätte, die Massen würden wieder lostoben, wie man sowas nur machen kann :rolleyes:

S940
2010-02-19, 21:31:23
Astro-TV.
Das wär doch mal eine Marktlücke ....
"Jupiter ist im 13 Mond und Saturn im 3ten Haus, das bedeutet für die Fermi Architektur, dass 2010 kein gutes Jahr wird. Mit Mars und Venus schaut es dagegen 2011 schon viel besser aus"
:freak:

Gast
2010-02-19, 21:35:54
Man könnte jetzt boshaft sagen, dass PowerVR Glück hat, dass Intel zu doof ist ne anständige Grafik zu entwickeln. Denn wirklich verbreitet und wirklich Volumen haben nur die Intel-Lösungen

MEGA-LOL. Hast du auch nur die geringste AHnung wo überall eine IMG-Grafik drinsteckt? Intel ist da höchstens der Tropfen auf den heißen Stein.

Gast
2010-02-19, 21:40:07
Das wär doch mal eine Marktlücke ....
"Jupiter ist im 13 Mond und Saturn im 3ten Haus, das bedeutet für die Fermi Architektur, dass 2010 kein gutes Jahr wird. Mit Mars und Venus schaut es dagegen 2011 schon viel besser aus"
:freak:

Das ist doch sogar noch glaubhafter.
Würde im Fernsehen jemand sitzen und sagen "Ich kenne jemanden der kennt jemanden, der hat von einem Bekannten gehört dass xxx voll toll wird"
dann würde Das kein Menschen interessieren.
Steht das auf irgendeiner Mistwebsite oder auf Twitter(!!!) dann ist es die News des Tages.

Dural
2010-02-19, 21:44:12
- Laut meiner Info ist 29.3.10 offizieller Launch Termin.
- Verfügbarkeit zum Launch extrem wenig. Man erzählt sich, dass NVIDIA Angst vor Presseschelte hat, weil unter anderem viele Wochen prinzipiell keine Produkte zu kaufen sein werden
- NVIDIA Thema in Meetings auf CEBIT deswegen angeblich: Optimus, Optimus und nochmal Optimus. NVIDIA wird dabei die Bedeutung von DirectX11 herunterspielen.
- Laut meiner erneuten Info gibt es keine NVIDIA Mobile Grafiklösung mit DirectX11 bis Ende Q4/10 bzw. Anfang 1/2011

Wie gesagt AMD kann den Markt nicht übernehmen, da nicht genug Kapazitäten.

wenn man kleinere Fermi Chips hat wird man die definitiv auch in den mobile sektor bringen...

siehe die gerüchte über GF104 und die aussage das man im Q2 einige Fermi Produkte haben wird.

du glaubst doch nicht wirklich ernsthaft das die kleinen Fermi Chips ein ganzes jahr später kommen als ursprünglich GF100??? Wenn ja dann nur mit 32nm oder 28nm... aber das ist sehr zweifelhaft!!!

und mal eine ernsthafte frage, wie so sollte NV DX11 runterspielen wenn sie noch im selben Monat die ersten DX11 veröffentlichen wollen??? DAS ist ziemlich schreg... erst recht wenn man schon auf der CES mit DX11 geworben hat.................

Bucklew
2010-02-19, 21:45:15
MEGA-LOL. Hast du auch nur die geringste AHnung wo überall eine IMG-Grafik drinsteckt? Intel ist da höchstens der Tropfen auf den heißen Stein.
Stimmt, was sind schon 33 Millionen Netbooks, alleine 2009? Peanuts :crazy2:

Gast
2010-02-19, 22:02:15
Stimmt, was sind schon 33 Millionen Netbooks, alleine 2009? Peanuts :crazy2:

Im Vergleich zu hunderten Millionen von Smartphones, PDAs, mobilen Spielekonsolen und und und allemal.

Gast
2010-02-19, 22:09:00
Stimmt, was sind schon 33 Millionen Netbooks, alleine 2009? Peanuts :crazy2:

Vorallem steckt wohl höchstens in 10% dieser Netbooks IMG-Grafik, der Großteil ist alter Intel-Mist.

Raff
2010-02-19, 23:04:57
Durch Mipmaps kann man kein Banding erzeugen.

Wenn bilinear gefiltert wird schon. ;)

Lehn dich damit mal nicht zu weit aus dem Fenster. Ich würde das nämlich mit Sicherheit sehen wenn ich genau hinschaue ;)

Dito. Ich erkenne das Radeon-Flimmern bei Treiber-Standard. :naughty: Natürlich unverfälscht – Späße mit Texture-LOD-Tweaks und/oder SSAA werden schwierig.

Vorallem steckt wohl höchstens in 10% dieser Netbooks IMG-Grafik, der Großteil ist alter Intel-Mist.

Der GMA 500 ist auch "Mist", zumindest wenn man die Ausführungsgeschwindigkeit als Maß hernimmt. Die Features sind hübsch.

MfG,
Raff

Coda
2010-02-19, 23:39:48
Wenn bilinear gefiltert wird schon. ;)
Es ging um den *Inhalt* der Mipmaps bei trilinearer Filterung.

Gipsel
2010-02-20, 00:51:27
Dem Underdog reicht es, wenn er versucht dem Marktführer Marktanteile wegzunehmen, da reicht es durchaus auch einfach mal abzukupfern (siehe z.B. die nachgebaute G-Sync Karte bei ATI), der Marktführer muss dagegen versuchen den Markt zu vergrößern - das ist Fermi.;D
Du weißt aber schon, daß das GenLock-Feature eigentlich ziemlich alt ist. Das hatten 3DLabs-Karten oder auch eine Matrox Parhelia und sogar irgendeine alte S3-Karte auch drauf! Das hat nvidia also bestimmt nicht erfunden. Ich glaube sogar, die ersten die das konnten, war ein Amiga2000 oder so ;)
Es ging um den *Inhalt* der Mipmaps bei trilinearer Filterung.
Ich denke, dafür war das Smiley da ;)

Spasstiger
2010-02-20, 02:11:29
Hier mal das was ich denke:
- offizieller Release der GTX 480 und GTX 470 im März
- GTX 480 mit 512 SPs, GTX 470 mit 448 SPs, beide mit 384-Bit-SI
- Sehr schlechte Verfügbarkeit der GTX 480, kommt einem Paperlaunch gleich
- GTX 480 in Spielen durchschnittlich 30% schneller als HD 5870
- Relativ gute Verfügbarkeit der GTX 470
- AMD schiebt HD 5890 nach, die mit der GTX 470 gleichzieht
- GTX 460 mit 320-Bit-SI (auf HD-5870-Niveau) wird nachgeschoben, wenn genügend GTX 470 verkauft wurden
- GTX 480 wird irgendwann durch GTX 485 ersetzt (Refresh-Chip)

mapel110
2010-02-20, 02:16:53
Wie wahrscheinlich ist das eigentlich, dass man in letzter Sekunde bei einem geplanten Chip von einem 320bit-Interface auf ein 384bit-Interface umschwenkt?
(Wobei wir ja gar nicht wissen, mit welchem der beiden die 470 voraus geplant war)

YfOrU
2010-02-20, 02:54:19
Niemand sagt, dass es leicht ist. Es ist aber im Endeffekt überlebenswichtig, nicht nur in einem Markt zu sein (bzw von einem Markt abhängig zu sein). Und wenn du sagst, dass bald auch noch AMD kommt - die werden exakt dieselben Probleme kriegen.

Hier fehlt die Differenzierung. SoCs auf ARM Basis werden in Teilbereichen mit x86 basierten konkurrieren.

Im Bereich der x86 Architektur gibt es nur Intel und AMD. ARM hat dagegen eine Vielfalt wie der Regenwald. Das der Otto Normalverbraucher ein Tablett oder Netbook mit bekannter Standardsoftware vorzieht sollte einleuchten. Auch das er bereit ist genau dafür ein wenig tiefer in die Tasche zu greifen.

Eben diese Vielfalt an ARM Lösungen führt direkt zu einem großen Schwachpunkt der Umgebung. Zu viele Betriebssysteme und wenig einheitliche Software. Für den Massenmarkt abseits der Smartphones und Mediaplayer ist das keine gute Voraussetzung.

S940
2010-02-20, 03:20:29
Eben diese Vielfalt an ARM Lösungen führt direkt zu einem großen Schwachpunkt der Umgebung. Zu viele Betriebssysteme und wenig einheitliche Software. Für den Massenmarkt abseits der Smartphones und Mediaplayer ist das keine gute Voraussetzung.
Das seh ich eher als Vorteil, immer die optimale Lösung und Auswahl ohne Ende.

Intel geht ja den gleichen Weg, indem sie die Atom Kerne für Drittfirmen freigegeben haben die dann auf SoCs auf Atom Basis entwerfen dürfen.

Da gabs mal ne Meldung.

Aber was hat das jetzt im GF 100 Thread zu suchen ... ?

ciao

Alex

Coda
2010-02-20, 04:52:27
Huh?

http://www.xbitlabs.com/news/cpu/display/20090331204301_Intel_Fabless_Semiconductor_Developers_Will_Not_Be_Able_to_Licens e_Atom_Cores_for_System_on_Chip_Products.html

Das war auch mein letzter Stand.

dargo
2010-02-20, 08:43:27
Hier mal das was ich denke:
- offizieller Release der GTX 480 und GTX 470 im März
- GTX 480 mit 512 SPs, GTX 470 mit 448 SPs, beide mit 384-Bit-SI
- Sehr schlechte Verfügbarkeit der GTX 480, kommt einem Paperlaunch gleich
- GTX 480 in Spielen durchschnittlich 30% schneller als HD 5870
- Relativ gute Verfügbarkeit der GTX 470
- AMD schiebt HD 5890 nach, die mit der GTX 470 gleichzieht
- GTX 460 mit 320-Bit-SI (auf HD-5870-Niveau) wird nachgeschoben, wenn genügend GTX 470 verkauft wurden
- GTX 480 wird irgendwann durch GTX 485 ersetzt (Refresh-Chip)
Das passt irgendwie nicht ganz zusammen. Wenn die GTX480 "nur" 30% schneller als eine HD5870 in Games sein sollte und AMD für die GTX470 eine HD5890 braucht um gleichzuziehen frage ich mich wofür man überhaupt eine GTX480 braucht? Der Leistungsabstand zwischen der GTX470 und GTX480 wäre dann imo zu gering.

Ailuros
2010-02-20, 08:48:12
Niemand sagt, dass es leicht ist. Es ist aber im Endeffekt überlebenswichtig, nicht nur in einem Markt zu sein (bzw von einem Markt abhängig zu sein). Und wenn du sagst, dass bald auch noch AMD kommt - die werden exakt dieselben Probleme kriegen.

IHVs wie AMD und NVIDIA geht es eher um den Durchbruch im eingebetteten Markt (wegen seinem grossen zukuenftigen Potential) und nicht in der Zwischenzeit irgendwelche Luecken abzudecken. Fuer die weniger absehbare Zukunft koennten die IHVs vielleicht sogar groessere SoCs planen als wir sie ab 2011 sehen werden (obwohl sich ueberhalb von low end PC zu bewegen vielleicht doch seine Probleme haben koennte).

AMD wird so oder so nicht die gleichen Probleme haben weil sie CPUs im Haus haben und nicht CPU IP lizenzieren muessen.

Ich stelle mir gar nix vor, ich halte es nur für den einzig richtigen Weg, den Nvidia gehen soll. Man kann eben ab einer gewissen Größe nicht mehr alleine von ein paar ConsumerGPUs leben.

Es sagt auch keiner dass es eine falsche Entscheidung war im eingebetteten Markt einzusteigen. Nur wird dieser mit seinem insgesamten Potential kein gigantischer Beitrag zum insgesamten Umsatz sein. Jensen's Behauptung dass Tegra irgendwann in der weiten Zukunft bis zu 50% ihres Umsatzes betragen wird will ich erstmal erklaert bekommen.

Man könnte jetzt boshaft sagen, dass PowerVR Glück hat, dass Intel zu doof ist ne anständige Grafik zu entwickeln. Denn wirklich verbreitet und wirklich Volumen haben nur die Intel-Lösungen.

Klick die vorigen Links nochmal an und schau Dir die Anzahl der Geraete genau an. Ueberhaupt im smartphone Markt ist die Anzahl der Einheiten so gross, dass Intel's GMA500 netbook Zahlen laecherlich klein sind. Zeig mir ein mobiles Apple Produkt mit 3D Faehigkeiten dass keinen PowerVR integriert hat und dann jegliches andere high end 3D smartphone von OGL_ES1.0 bis OGL_ES2.0 wo die ueberragende Mehrzahl nicht genauso aussieht.

Ich mach mir ueber IMG sowieso keine Sorgen, denn eigentlich brauchen sie auch nicht die geringste Werbung in dem Markt. Ich sehe aber nichtdestominder keine halbwegs logische Erklaerung warum die Tegra Integrierungs-liste immer noch so laecherlich klein ist.

Und wie gesagt, für die meisten der Lösungen wäre eher Ion das Pendant. Oder glaubst du ernsthaft, dass bei so einem "Klopper" ein Tegra benutzt werden würde?
http://www.chip.de/news/Asus-Eee-PC-T91-Video-vom-Touchscreen-Netbook_34337853.html

ROFL danke auf jeden Fall dass Du mich auf ein weiteres GMA500 Geraet verlinkt hast. Bei netbooks und smartphones ist das wichtigste ueberhaupt der Stromverbrauch bzw. Batterie-laufzeit und in genau die gleiche Kategorie faellt auch Tegra, nur ist der Stromverbrauch am Ende doch nicht so moderat wie in NV praesentieren will.

Wie dem auch sei wenn jemand so ein Ding kaufen wuerde (welches alles andere als billig ist) noch eine Zusteck-GPU dafuer besorgen sollte, dann sollte er ernsthaft bedenken ob er mit dem gleichen Geld nicht mit einem low end netbook mit einer integrierten NV GPU besser bedient waere.

Die Grenzen überlappen extrem, s.o. Und zum Thema Fusion: Das muss erstmal erscheinen, sollte es ja ursprünglich schon seit 2 Jahren geben, bis heute gibts da noch nix handfestes.

Es ueberlappen sich ueberhaupt keine Grenzen eben wegen dem Stromverbrauch. Uebrigens ganz zur Seite hab ich mir einige Muehe gegeben einen ganzen Thread fuer Tegra zu widmen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=468619&page=4

Wir sollten mit dem Zeug dort weitermachen.

Was jetzt Fusion betrifft es kommt bald zum tapeout und ab 2011 kommen dann die ersten Geraete. Wo sind NV's DX11 netbook/smartphone bzw. notebook/PC SoCs/Platform Loesungen genau? Und komm mir jetzt nicht mit dem Zusteckquark, denn NV wird Anfang 2011 gerade noch notebooks mit standalone mobilen GPUs ausstatten koennen. Fuer IGP Nivaeu daeuert es noch mehr.

Schau dir den Preis einer Quadro an, vergleiche ihn mit einer Tesla und dir wird ein großes Licht aufgehen ;)

Schau Dir die Verkaufszahlen der Teslas an, vergleiche sie mit den von Quadros und Du hast ploetzlich eine zweite Sonne :P

Genau da sind wir wieder beim Punkt, um den wir hier die ganze Zeit streiten. Diesen "Profi-Markt" kann nvidia mit dem Fermi eben stark erweitern und das wohl erstmal auf längere Sicht ohne Gegenwert von ATI. Genau das ist es ja, was ich sage.

Daran unterscheiden sich eben im Endeffekt der Marktführer gegen den Underdog. Dem Underdog reicht es, wenn er versucht dem Marktführer Marktanteile wegzunehmen, da reicht es durchaus auch einfach mal abzukupfern (siehe z.B. die nachgebaute G-Sync Karte bei ATI), der Marktführer muss dagegen versuchen den Markt zu vergrößern - das ist Fermi.

AMD's Prozentual hat trotz allem Aussichten ihre Markanteile zu vergroessern. Was der wichtigste Schritt in die Richtung waere hab ich schon erwaehnt und ich scheue auch nicht davon ab einem AMD engineer einen indirekten Tritt in den Hintern zu verpassen: http://forum.beyond3d.com/showpost.php?p=1396603&postcount=1471

Natuerlich keine Antwort, weil er genau weiss dass ich Recht habe.

Solange, bis Intel es schafft endlich mal ne vernünftige Grafik einzubauen? Also auf gut Deutsch: Ewig! ;D

Persoenlich war ich unter jenigen die von Anfang an glaubten dass LRB wenig bis gar keine Chancen bestehen wird (und wurde dadurch auch eventuell als "Intel-Hasser" abgestempelt). Intel hat aber lediglich das erste Silizium (ultra-FLOP) in die vaporware Schachtel gelegt aber das insgesamte Projekt nie aufgegeben.

Es waere sehr leicht alles nur streng schwarz und weiss zu sehen und eventuell Scheuklappen zu tragen. Realitaet wird Dir aber zeigen dass es nicht so einfach ist am Ende und es gibt auch fuer mich keine NV- bzw. ATI-Vorliebe genauso wenig was Intel vs. AMD oder jegliches andere betrifft. Ich kritisiere lediglich wo ich persoenlich empfinde das Kritik angebracht ist und nein 100% objektiv bin ich nie so bloed bin ich nun auch wieder nicht zu uebertreiben.

Intel kann nach wie vor eine Unmenge von Resourcen auflegen, die Frage ist nur ob beim zweiten Versuch endlich die hw stimmt. Dass sie gar nichts aufgegeben haben zeigt mir u.a. ihre merkwuerdige Naeherung an CryTek in letzter Zeit.

Das die Umsatzerlöse deutlich größer sind, als du sie hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7851377&postcount=11716) darstellen willst.

Im insgesamten Bild und ueberhaupt im Vergleich zu Quadros ist er relativ klein. Was ist daran schwer zu verstehen?

Eben länger gedauert als ein RV870 aka RV770*2+DX11. Genau darum geht es ja vorallem in diesem Thread, um den Vergleich zugunsten der Konkurrenz im Gamingumfeld.

Haette 40G nicht abgekackt haetten die beiden im schlimmsten Fall 2-3 Monate Abstand gehabt. Das hat weniger mit den Entwicklungszeiten zu tun, sondern mit eher mit der Chipkomplexitaet (wobei die Herstellung etwas laenger dauert aus verstaendlichen Gruenden) und dieses war NV von Anfang an bewusst.

Natürlich müssen die verschiedenen Systeme ausbalanciert werden, das ist doch gar keine Frage.

Und wieso soll dann GPGPU selbst auf einem smartphone z.B. der Zukunft nutzlos sein? Was hier zwischen CPU und GPU fuer heterogenes computing im high end Markt gilt fuer die Resourcen-Balancierung sollte nicht fuer jegliches Kleingeraet gelten?

Tust du aber nicht, eine billige, von dir selbst hier verlinkte, NVS295 reicht für aktuell alles im Bereich GPBPU aus, solange es auf Cuda und/oder OpenCL läuft. Wenn man natürlich entsprechend Leistung will, muss man diese natürlich auch bezahlen und sich ne GTX285 o.Ä. kaufen.

Unter normalen Umstaenden was man bezahlt bekommt man auch. Mit der GPGPU Debatte geht es um die bessere Ausbalancierung jeglicher vorhandenen Resourcen in jeglichem System. Einfacher eine jegliche Grafik-Einheit kann eventuell in viel mehr Anwendungen als nur 3D mitspielen in den Stellen wo es auch wirklich Sinn macht, anstatt dumm herumzuhocken

Nur was will ich damit auf einer Consumer-GPU?

Du und Ich ueberhaupt nichts. Interessenten wird es aber trotz allem geben.

Weiß ich nicht, da ich (wie wohl alle hier) noch nicht zu 100% die finalen Taktraten der GTX480 kenne. Aber ehrlich gesagt interessiert mich das nicht sonderlich, weil mir kein Anwendungsfall einfällt, in dem mich die DP-Performance interessiert - zumindest im privaten Umfeld. Also was sollte es mich interessieren?

Weil wir hier eine Debatte fuehren. Wenn es Dich auf theoretischem Nivaeu nicht interessiert wundere ich mich warum wir gerade so viel Bandbreite verschenden mit den unendlichen Quote-Orgien.

Das liegt nur an Leuten, die zu blöd sind Englisch zu übersetzen und nicht verstanden haben, was "full strike" bedeutet. Das heißt nämlich nur die ganzen weiteren Versionen des Fermi (Quadro, Tesla, kleinere GeForce etc.), mit den kommenden Highend-Modellen hat das nix zu tun, die sind wie gesagt schon mehrere Wochen in der Massenproduktion.

Mehrere werden es erst Ende Februar sein; ist aber Haarspalterei.

Gast
2010-02-20, 09:05:45
Das passt irgendwie nicht ganz zusammen. Wenn die GTX480 "nur" 30% schneller als eine HD5870 in Games sein sollte und AMD für die GTX470 eine HD5890 braucht um gleichzuziehen frage ich mich wofür man überhaupt eine GTX480 braucht? Der Leistungsabstand zwischen der GTX470 und GTX480 wäre dann imo zu gering.
4890 hat auch nur ~10% im Vergleich zur 4870 gebracht.

GTX 285 ist rechnerisch gerade mal 20-40% vor der GTX 260 216.
GTX 280 ist noch knapper vor der GTX 260 192.

Das die 470 knapp vor der 5870 liegt macht viel Sinn, denn nur dadurch lässt sich die 5890 erklären. Gegen die 480 hätte sie keinen Sinn, da muss die 5970 herhalten.

Kosh
2010-02-20, 10:04:41
4890 hat auch nur ~10% im Vergleich zur 4870 gebracht.

GTX 285 ist rechnerisch gerade mal 20-40% vor der GTX 260 216.
GTX 280 ist noch knapper vor der GTX 260 192.

Das die 470 knapp vor der 5870 liegt macht viel Sinn, denn nur dadurch lässt sich die 5890 erklären. Gegen die 480 hätte sie keinen Sinn, da muss die 5970 herhalten.

Ist die 5890 jetzt von ATI schon angekündigt worden?Oder nur Spekulation,weil viele Hersteller die 5870 quasi schon deutlich höher takten lassen?

Ansonsten muss man die Geschwindigkeit halt abwarten. Eventuell ist die 470er nur in bestimmten PhysX Games schneller als die 5870 und ansonsten langsamer.

Ich persönlich denke,das der Fermi deutlich langsamer wird als hier viele erwarten und sich wünschen.

Gast
2010-02-20, 10:11:58
Mal angenommen jeglicher GF100 ist mindestens teildefekt, bis auf einer von 100.
Dann fallen noch die völlig defekten weg.
Bleibt eine Masse übrig, die nicht zwangsläufig 470er Niveau erreicht. Wenns ein Designproblem ist, müssen noch die Prozessfehler berücksichtigt werden, es fallen quasi noch einige 460er an.
Die Rechnung ist nicht ganz so einfach.

Was mich generell gewundert hat ist, das hier aus dem Bauch heraus angenommen wird, daß wenn 1% 480er anfällt, "ganz viele" 470 anfallen.

p(i) = EXP(-A*D)*(A*D)^i/i!

p(i) = Wahrscheinlichkeit für i Fehler auf einer Chipfläche A sowie einer Defektdichte D auf dem Wafer ist. Das Ausrufezeichen steht für die Fakultät.

Bei einem Yield von z.B. 50% (Prozeßausbeute, also Faktor 0,5) kommen multiplikativ die die designtechnischen Defekte hinzu.

Wenn 1% der Chips ohne Fehler ist, müssen bei 50% Yield 2% der Chips designtechnisch ohne Fehler sein.

Wenn man sich ein XLS erstellt,

erhält man für eine Defektdichte [def/cm^2] von 0,7:

Chips ohne Fehler ca. 2% * 0,5 Yield = 1% (480er)
Chips mit genau 1 Fehler: ca. 8% * 0,5 Yield = 4% (470er)
Chips mit genau 2 Fehlern: ca. 15% * 0,5 Yield = 7,5% (460er)
Chips mit genau 3 Fehlern: ca. 20% * 0,5 Yield = 10%

Gast
2010-02-20, 10:35:03
Ist die 5890 jetzt von ATI schon angekündigt worden?Oder nur Spekulation,weil viele Hersteller die 5870 quasi schon deutlich höher takten lassen?
Das AMD eine 2GiB Variante bringen wird ist im Rahmen des Vorstellbaren.
Etwas mehr Takt ist auch drin, 10% gefährden die 5970 Position nur leicht, aber dennoch muss man hier sehr aufpassen, das man sich nicht selbst den Boden abgräbt.

Deutlich höher getaktete 5870 sprechen allerding eher gegen eine 5890. Deutlich höher getaktet wird meist erst zugelassen, wenn nichts mehr nachgeschoben wird.

Auch der Umstand zweier vollwertiger RV870 + den selektierten auf der 5970 spräche teilweise dagegen.
Andererseits könnte man den höher getakteten RV870 mit mehr VRAM vergolden lassen, während der andere in den Preissturz wandert.

Spasstiger
2010-02-20, 11:05:26
Was mich generell gewundert hat ist, das hier aus dem Bauch heraus angenommen wird, daß wenn 1% 480er anfällt, "ganz viele" 470 anfallen.
Das wird nicht aus dem Bauch heraus angenommen, sondern ist bekannt.
Beim GF100 liegt ein Designproblem vor, durch das bei fast allen GF100-Chips zwei SMs nicht verwendet werden können.
Deine Formel berücksichtigt nur gleichverteilte Punktdefekte und keine Designfehler, bei dem die Fehlerwahrscheinlichkeit in einer Baugruppe überproportional hoch ist.
Die Yieldraten beim GF100 mit 448 funktionierenden SPs sind gut.

Dural
2010-02-20, 11:13:06
Das wird nicht aus dem Bauch heraus angenommen, sondern ist bekannt.
Beim GF100 liegt ein Designproblem vor, durch das bei fast allen GF100-Chips zwei SMs nicht verwendet werden können.

So das ist bekannt? :rolleyes: wenn es so wäre würden wir keine 480 mit 512SP sehen...

Und wenn es so wäre wäre NV mit so einem Chip nie auf A3 gegangen... den sowas hätte man schon beim A1 festgestellt...

Das sind Spekulationen mehr nicht, ich würde einfach mal abwarten...

Gast
2010-02-20, 11:20:38
B1 muss auch erstmal aus dem Hut gezaubert werden, bis dahin hat man A3, um zumindest 470er rauszuhauen.

Gast
2010-02-20, 11:22:10
Das wird nicht aus dem Bauch heraus
angenommen, sondern ist bekannt.

Definiere bekannt. So bekannt wie die aufgeteilte Rechenarchitektur des G80? So bekannt wie das "Software-Tessellation" des GF100?


Beim GF100 liegt ein Designproblem vor, durch das bei fast allen GF100-Chips zwei SMs nicht verwendet werden können.
Deine Formel berücksichtigt nur gleichverteilte Punktdefekte und keine Designfehler, bei dem die Fehlerwahrscheinlichkeit in einer Baugruppe überproportional hoch ist.
Die Yieldraten beim GF100 mit 448 funktionierenden SPs sind gut.

Der Gast hat jedoch recht. Wenn GF100 generell nur 14 funktionsfähige SM besitzt, dann werden Punktdefekte nicht nur die 2 defekten SM betreffen. Die Wahrscheinlichkeit, dass man überhaupt 448 Versionen erhält, sinkt dadurch rapide.

LovesuckZ

Dural
2010-02-20, 11:25:56
zwischen GT200 A2 und GT200 B3 liegen etwa 7Monate, der gezeigte GF100 A1 hatte ein Datum aus dem August, Tape Out angeblich schon Mai/Juni! Bis März/April 2010 hätte man genügend zeit gehabt um den GF100 zu "überholen" also das ist sehr unwahrscheinlich wenn NV plötzlich mit A3 merkt da stimmt was nicht, oder meint ihr nicht auch?

und von wo kommen überhaupt diese 448SP her? doch nur wegen den tesla karten...

Spasstiger
2010-02-20, 11:27:41
Auch die Yieldraten des 512-SP-GF100 wären relativ gut, wenn nicht der Designfehler vorläge. Der 448-SP-GF100 bringt es auf über 50% Yieldrate, was ein guter Wert für eine 550 mm² große GPU in TSMCs 40-nm-Prozess ist.

Dural
2010-02-20, 11:30:33
und noch einmal, wie so sollte NV erst mit A3 feststellen das ein fehler vorliegt? den wenn immer die zwei gleichen SM kaputt sind hätte man das schon mit A1 festgestellt!

mapel110
2010-02-20, 11:32:33
und noch einmal, wie so sollte NV erst mit A3 feststellen das ein fehler vorliegt? den wenn immer die zwei gleichen SM kaputt sind hätte man das schon mit A1 festgestellt!
Es kann sein, dass die Ausbeute bei TSMC zu A1-Zeiten so mies war, dass man nicht feststellen konnte, ob ein genereller Fehler vorliegt.

Dural
2010-02-20, 11:34:29
naja das hätte aber auffallen müssen wenn es immer die zwei gleichen SM sind!

Spätestens mit A2...

Spasstiger
2010-02-20, 11:35:21
Was genau der Fehler ist, weiß ich nicht. Aber ich vermute, dass die SMs an sich ok sind und irgendwo anders ein Fehler vorliegt, der aber dazu führt, dass zwei SMs nicht genutzt werden können.
Bei ersten Tapeouts hatte NV übrigens noch massive Probleme mit dem Prozess von TSMC, da waren die Yieldraten von allen Varianten unterirdisch. Ich denke, man hat damals den Defekt noch nicht erkannt und alles auf TSMC geschoben.

Dural
2010-02-20, 11:37:54
Sorry diese Theorie stimmt für mich hinten und vorne nicht, erst recht wenn man sagt das die GTX480 512SP hat, die Karte wäre so gar nicht lieferbar mit nur 1% 512SP Chips und diese 1% müssten auch noch einen GTX480 würdigen Takt mit machen!

da wäre man wenn es gut geht bei weniger als 0,5%!!! ca. 4 Wafer für ein GTX480 Chip... das wäre der aufwand hinten und vorne nicht wert! da würde man lieber gut selektierte 448SP Chips für die GTX480 verwenden und so hoch wie möglich takten und eine 512SP Version erst mit B1+ bringen!

Und es passt auch nicht ins Bild das wir von einer 460 bis jetzt noch nichts gehört haben, die Karte wäre für die Chip Verwertung sicher Ideal.

Spasstiger
2010-02-20, 11:44:01
Man wird zum Release ca. 10.000 vollwertige GF100 mit 512 SPs haben. Was soll man mit diesen GPUs anderes machen als verkaufen?
Lieferbar (zu Nicht-Mond-Preisen) wird natürlich nur die GTX 470 sein. Dass eine Grafikkarte vom Markt auch ohne vernünftige Lieferbarkeit angenommen wird und in Reviews absahnen kann, hat schon die HD 5870 gezeigt.

Gast
2010-02-20, 11:44:06
Sorry diese Theorie stimmt für mich hinten und vorne nicht, erst recht wenn man sagt das die GTX480 512SP hat, die Karte wäre so gar nicht lieferbar mit nur 1% 512SP Chips und diese 1% müssten auch noch einen GTX480 würdigen Takt mit machen!

da wäre man wenn es gut geht bei weniger als 0,5%!!! ca. 4 Wafer für ein GTX480 Chip... das wäre der aufwand hinten und vorne nicht wert! da würde man lieber gut selektierte 448SP Chips für die GTX480 verwenden und so hoch wie möglich takten.

Da kann man jetzt aber nicht mehr daran ändern.
Wenn jetzt die Ausbeute an 512er Chips mies ist, ist es doch kein Lösung sie gar nicht zu verkaufen.

Dural
2010-02-20, 11:49:47
Da hätte man bis zum Release schon min. 20.000 Wafer Herstellen lassen...

Das wären bei den 50% der 448SP Chips schon ca. 500.000 Stück! Und das beim Release? Wohl kaum!

Spasstiger
2010-02-20, 11:52:31
Es sind 9000 Wafer und die Yieldrate des 512-SP-Chips liegt ein wenig über 1%. 500.000 GF100 zum Start kommt aber hin. Die sind natürlich nicht alle für die GTX 470, da gibts ja auch noch den HPC-Bereich (Teslas).
Bei den 512-SP-Varianten könnte ich mir noch vorstellen, dass man die stillschweigend bei den Teslas verbaut. Dort sind die Margen eh besser als bei Grafikkarten. Dann hätte die GTX 480 tatsächlich nur 448 SPs.

AnarchX
2010-02-20, 11:53:07
Wenn das Bin der GTX 470 ausreichend lieferbar sein wird, dann wäre es wohl denkbar, dass die Hersteller hier selbst Premium-Versionen auflegen, die einer potentiellen GTX 480 gleichkommen. Design-Kits haben diese wohl schon seit 2009 und dann dürfte einem 6+8-Pin PCB nichts im Wege stehen.

Dural
2010-02-20, 12:00:15
9000Wafer mit max 55x GF100 DIEs:

495000Stück bei 100%
250000Stück bei 50%
5000Stück bei 1%

Spasstiger
2010-02-20, 12:08:00
Wie kommst du auf 55 Dice pro Wafer?
http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html
Diesize 550 mm², Die nahezu quadratisch, Waferdurchmesser 300 mm.

Gast
2010-02-20, 12:17:02
Der Gast hat jedoch recht. Wenn GF100 generell nur 14 funktionsfähige SM besitzt, dann werden Punktdefekte nicht nur die 2 defekten SM betreffen. Die Wahrscheinlichkeit, dass man überhaupt 448 Versionen erhält, sinkt dadurch rapide.

LovesuckZ

Nein. Wenn ich pro SM z.B. eine 10%ige Ausfallwahrscheinlichkeit habe, dann sinkt die Ausbeute an Chips mit allen SMs gegen null. Chips mit 14 von 16 SMs würde es dagegen sehr häufig geben. Simple Wahrscheinlichkeitsrechnung.

Malabolge
2010-02-20, 12:29:19
naja das hätte aber auffallen müssen wenn es immer die zwei gleichen SM sind!

Spätestens mit A2...

Wer hat den behauptet das es immer die zwei "gleichen" sind ?
es kann ja auch ein "wechselnder Punktfehler" innerhalb des Dies sein.
Er muss ja nicht immer an der gleichen Stelle des Dies auftreten.
Und A2 oder A3 (Bx - ) wurden nur wegen der hohen "qualität" nachgeschoben ?
Es riecht in diesem Fall eher danach , dass sich hier mehere Faktoren beissen.
Neuer Prozess, Design (noch) nicht vollständig an den Prozess angepasst , ...


Sieh es ein es ist was Faul im staate Dänemark.

Inzwischen sind fast 6 Monate seit der "Laubsägenarbeit" vergangen , und viel mehr hat man noch nicht zu Gesicht bekommen.
Es wird jetzt Zeit für "Butter bei die Fische".
Wenigstens konkrete Leistungsdaten wären jetzt fällig.Aber die kann oder will Nvidia nicht liefern.

Gast
2010-02-20, 12:58:02
9000Wafer mit max 55x GF100 DIEs:

495000Stück bei 100%
250000Stück bei 50%
5000Stück bei 1%


Also wenn man einen Waferdurchmesser von 300mm annimmt und die Seitenlänge eines Dies bei 23,4520788 (Wurzel aus 550mm²) liegt, dann einen Kreis mit ebendiesem Waferdurchmesser aufzeichnet und sodann Quadrate mit der Seitenlänge des Dies aufträgt, dann konnte zumindest ich 112 Chips zählen.

Daher verstehe ich nicht ganz, wie du auf 55 Chips kommst, von denen du dann fehlerhafte abziehst. Oder hab ich einen Denkfehler in meine Erklärung eingebaut?

FF

Ailuros
2010-02-20, 13:00:15
104=100%

mapel110
2010-02-20, 13:14:45
104=100%
Wenn man die Zahl weiß, kann man dann eigentlich auf die genaue Die-Größe schließen?

Spasstiger
2010-02-20, 13:44:10
Um auf die Die-Größe schließen zu können, müsste man noch wissen, wieviel Abstand zwischen den Dice vorhanden ist (engl. spacing). Die Abstände werden benötigt, um den Wafer zersägen zu können, ohne dabei Dice zu beschädigen.

Fetter Fettsack
2010-02-20, 13:47:08
Wären da 0,25mm angemessen?

Spasstiger
2010-02-20, 13:57:00
0,25 mm liegen in der richtigen Größenordnung, aber ich denke, es werden sogar eher nur 0,1 mm sein. Die "Edge Exclusion Width" spielt noch eine Rolle, im Netz lese ich was von 3 mm. Mit 0,1 mm "Die Spacing" und 3 mm "Edge Exclusion Width" komme ich bei einem 23,45 mm * 23,45 mm großen Die auf maximal 104 Dice pro Wafer - die von Ailuros genannte Zahl.
23,45 mm * 23,45 mm sind 549,9 mm². Die 550 mm², die spekuliert werden, scheinen also recht genau zu stimmen.

Gast
2010-02-20, 14:19:34
Ich glaube, dass das mit dem 512SP-Chip Problem nur ein lautes Gerücht ist, welchem ihr zu viel Aufmerksamkeit widmet;)


mfg

horn 12
2010-02-20, 14:40:34
Nun, vor Ende April/ AnfangMai wird man wohl keine große Verfügbarkeit der GTX 470/480 erwarten können,- ist aber AUCH beim RV870 immer noch weit enfernt vom Optimum,- aber da gingen schon etliche Karten über die Ladentheke was bei NV noch vollkommen fehlt.

Denn das Game "Metro2033" wäre wohl der ideale Kanditat für eine Vorstellung der Neuen NV Karten gewesen, ausserdem rückt man den Termin so weit nach hinten im Monat März um möglich einige Karten wohl liefern zu können,- und eine Verschiebung ist nun echt nicht mehr drinnen für breitere Verfügbarkeit.
Deshalb wird wohl die Fermi Karte es nochmals schweren haben als sie es ohnehin schon hat.
ATI kommt immer mehr in Schwung und hat die komplette Palette nun schon in Sortiment mit teils großer Lieferbarkeit.

Gast
2010-02-20, 14:59:25
Ich glaube, dass das mit dem 512SP-Chip Problem nur ein lautes Gerücht ist, welchem ihr zu viel Aufmerksamkeit widmet;)
mfg

Und es gibt dafür noch nichtmal irgendwelche Annahmen, außer dem Kommentar eines x-beliebigen Forumposters (nein nicht Ail). :D
Aber an irgendwas muss man sich ja in diesen Threads widmen -jetzt ist es eben das 512 Problem.

LovesuckZ

Fetter Fettsack
2010-02-20, 15:15:31
0,25 mm liegen in der richtigen Größenordnung, aber ich denke, es werden sogar eher nur 0,1 mm sein. Die "Edge Exclusion Width" spielt noch eine Rolle, im Netz lese ich was von 3 mm. Mit 0,1 mm "Die Spacing" und 3 mm "Edge Exclusion Width" komme ich bei einem 23,45 mm * 23,45 mm großen Die auf maximal 104 Dice pro Wafer - die von Ailuros genannte Zahl.
23,45 mm * 23,45 mm sind 549,9 mm². Die 550 mm², die spekuliert werden, scheinen also recht genau zu stimmen.


Also sind die Dice mit diesen "Schnittabständen" schon 550mm² groß. Das ist insofern gut für mich, als dass ich mir das Hereinrechnen der von dir genannten Werte sparen kann.

Nach eingehender Herumzeichnerei muss ich meinen Wert von 112 auf die schon genannten 104 reduzieren, bei der ersten Zeichnung waren die "überzähligen" 8 Dice nicht über dem Waferkreis, weil ich zu ungenau gezeichnet hatte.

Allerdings frage ich mich, ob man beim design des Chips schon wusste, wie groß die Wafer sein würden, denn die von mir "festgestellte" über den Waferkreis lappende Chipfläche der soeben weggerechneten 8 Chips erscheint mir nicht sonderlich groß. Insofern könnte man meinen, dass diese 8 fehlenden Dice "verschenkt" werden. [Das man sie eventuell noch als 1/2 Version (siehe Juniper - Cypress) verwenden kann ist mir schon klar.]

Ailuros
2010-02-20, 15:15:35
LS,

Den durchschnittlichen Leser interessieren tatsaechlich nicht immer alle Einzelheiten. Verspaetung ueber Verspaetung der Verspaetung und dann auch noch irgendwelche Knappheit nach all der Zeit generiert gerechtfertigt gemischte Gefuehle.

Also sind die Dice mit diesen "Schnittabständen" schon 550mm² groß. Das ist insofern gut für mich, als dass ich mir das Hereinrechnen der von dir genannten Werte sparen kann.

Nach eingehender Herumzeichnerei muss ich meinen Wert von 112 auf die schon genannten 104 reduzieren, bei der ersten Zeichnung waren die "überzähligen" 8 Dice nicht über dem Waferkreis, weil ich zu ungenau gezeichnet hatte.

Der chip ist kein genaues Quadrat aber 23.x*23.x stimmt schon. Ich komm auf 548mm2 mit den Einzelheiten die ich sammeln konnte, leg aber auch nicht meine Hand ins Feuer.

Allerdings frage ich mich, ob man beim design des Chips schon wusste, wie groß die Wafer sein würden, denn die von mir "festgestellte" über den Waferkreis lappende Chipfläche der soeben weggerechneten 8 Chips erscheint mir nicht sonderlich groß. Insofern könnte man meinen, dass diese 8 fehlenden Dice "verschenkt" werden. [Das man sie eventuell noch als 1/2 Version (siehe Juniper - Cypress) verwenden kann ist mir schon klar.]

IHVs haben Preisanpassungen fuer yields und die rand-chips die Du gerade erwaehnst werden da mitberechnet afaik. Anders diese werden zu den nicht operativen chips mitberechnet. Wenn's nur so einfach waere einen chip in der Mitte durchzuschneiden....