PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 [11] 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

Felixxz2
2012-01-08, 02:47:13
Ich frag nochmal in die Runde weil mir das immer noch nicht so klar ist:

Bei 2+ TF sollte die reine Rechenleistung der ALUs "ausreichend" sein, um in Spielen nicht (übermäßig) zu limitieren.


Das geht garnicht, denn bis auf Spezialfälle (Tesselation) ist im Schnitt bei den fps IMMER die ALU Leistung limitierend. Mit >250GB/s hat man massig genug Bandbreite, ~70-80 GT/s sind ebenfalls viel genug und auch die ROPs sind völlig ausreichend.

Die ALUs stemmen die Hauptlast, Spiele sind heute schon enorm shaderlastig und werden es auch immer mehr und hohe Auflösungen/AA gehen auch auf die ALUs.

Die GFLOP/s sind also heutzutage immer das limitierende Element, solange sie gut gefüttert werden und die anderen Gebiete ausreichend besetzt sind.

Knuddelbearli
2012-01-08, 08:01:32
http://translate.google.ch/translate?hl=de&sl=auto&tl=de&u=http%3A%2F%2Fwww.hd-tecnologia.com%2F2012%2F01%2Falineacion-nvidia-kepler-completa%2F


http://www.hd-tecnologia.com/imagenes/articulos/2012/01/nvidiakepler.jpg


hmm von dem was man bisher gesehen hat dürfte die am Realistischen sein. einzig die 2304 Shader kommen mir 1 bisserl viel vor und b stimmt das komischerweise genau mit der amd speku überrein ^^

mapel110
2012-01-08, 08:08:30
Das Zeug ist alt und falsch und schon 4-5 mal hier durchgekaut worden.

boxleitnerb
2012-01-08, 08:08:54
Das geht garnicht, denn bis auf Spezialfälle (Tesselation) ist im Schnitt bei den fps IMMER die ALU Leistung limitierend. Mit >250GB/s hat man massig genug Bandbreite, ~70-80 GT/s sind ebenfalls viel genug und auch die ROPs sind völlig ausreichend.

Die ALUs stemmen die Hauptlast, Spiele sind heute schon enorm shaderlastig und werden es auch immer mehr und hohe Auflösungen/AA gehen auch auf die ALUs.

Die GFLOP/s sind also heutzutage immer das limitierende Element, solange sie gut gefüttert werden und die anderen Gebiete ausreichend besetzt sind.

AA geht auf die ROPs. Ich dachte, was Nvidia in hohen Auflösungen und SSAA bisher das Genick gebrochen hat, war auch die Texelleistung? Das Blöde ist, dass man die Einheiten nicht unterschiedlich takten kann, um genau das zu untersuchen.

GTX580+10% wäre im Bezug auf die Aluleistung 1,74TF. D.h. die "deutlich über 2 TF" ALUs sind so ineffizient, dass nur 1,74TF rauskommt?

Hübie
2012-01-08, 09:26:01
@topic
sind die 90-100% performance-steigerung in bf3 der gtx790 ggü. der 580 vielleicht doch realistisch? immerhin ist es ja ein relatives extrem-setting. auch wenn physx in der folie mal vollkommen dagegen spricht.
mfg

@hübie
natürlich hat bf3 havok, was meinst warum ich schrieb:
"auch wenn physx in der folie mal vollkommen dagegen spricht.(echt zu sein)"

mfg

Öhm. Von welcher Folie reden wir gerade? Ich finde keine mit BF3, PhysX und GTX 790. Link plz...

Edit: Wir nehmen mal eben folgendes an: Die GTX 790 ist der Nachfolger der GTX 590 (welche ja bekanntlich zwei vollwertige GF110 mit deutlich reduziertem Takt beherbergt). Somit hätte die GTX 790 zwei GK100 Chips drauf.

Ausgehend von den resultaten der PCGH-Redaktion wo eine GTX 580 ~42 fps, eine GTX 590 ~59 fps und 2*GTX 580 72 fps schaffen kann ich deine Frage folgendermaßen beantworten: JA die GTX 790 kann 100% vor einer GTX 580 in BF3 liegen! Und das ist nicht mal ein Weltwunder da selbst die GTX 590 40% mehr Leistung präsentiert.

http://www.abload.de/img/battlefield-3-beta-gp97rlu.png (http://www.abload.de/image.php?img=battlefield-3-beta-gp97rlu.png)

Quelle (http://www.pcgameshardware.de/aid,847046/Battlefield-3-Beta-Update-Nun-18-Radeon-und-Geforce-Grafikkarten-im-Benchmark-Test-mit-SLI-und-Crossfire-Test-des-Tages/Action-Spiel/Test/)

Das ist dennoch ein Ammenmärchen bzw. eine Hypothese irgendwelcher Typen da draussen welche nicht abwarten können bis offizielles Material vorliegt ;)

Zum Thema paperlaunch: Das beschissene daran ist das Warten. Erinnere dich mal wie es war bevor du dein neues Auto bekommen hast ;) Du hast auch gesabbert. Jetzt sabbern alle wegen der HD 7970.

Orbmu2k
2012-01-08, 10:19:46
Öhm. Von welcher Folie reden wir gerade? Ich finde keine mit BF3, PhysX und GTX 790. Link plz...


http://i41.tinypic.com/24yoljb.png


Jetzt sabbern alle wegen der HD 7970.

Wer kauft denn sowas. ;D

Hübie
2012-01-08, 10:22:26
Ich seh da aber nix von PhysX. Bin ich blind:confused:

AAAH ;D Rechts unten steht GPU-PhysX enabled. Ja das macht man ja allgemein im Treiber-Panel.

http://www.abload.de/img/physxj1r3p.png (http://www.abload.de/image.php?img=physxj1r3p.png)

Dennoch F A K E - F U C K ;D

Ailuros
2012-01-08, 10:35:32
http://translate.google.ch/translate?hl=de&sl=auto&tl=de&u=http%3A%2F%2Fwww.hd-tecnologia.com%2F2012%2F01%2Falineacion-nvidia-kepler-completa%2F


http://www.hd-tecnologia.com/imagenes/articulos/2012/01/nvidiakepler.jpg


hmm von dem was man bisher gesehen hat dürfte die am Realistischen sein. einzig die 2304 Shader kommen mir 1 bisserl viel vor und b stimmt das komischerweise genau mit der amd speku überrein ^^

Das Zeug hat irgend ein Mitleser hier im 3DCforum von unseren Spekulationen kompiliert. GK110 liegt total daneben und obwohl es einige Fehler in den restlichen specs gibt, stimmt einiges schon.

Ich Idiot haette halt fuer die Kepler Familie XDR2 ram behaupten sollen dann waeren die Tabellen noch bunter. Und ja natuerlich haben die Herren "Quellen". :rolleyes: :biggrin:

Orbmu2k
2012-01-08, 10:37:15
Definitiv Fake, da gehört ein NVIDIA confidential anstatt dem Copyright hin, und ich glaube kaum dass die schon die DUAL Karte gebaut haben zum benchen.

Finde aber kreativ vom Faker einfach mal ne ganz neue Serie GTR zu erfinden.

Ailuros
2012-01-08, 10:49:32
Ich frag nochmal in die Runde weil mir das immer noch nicht so klar ist:


GK104 wird wohl kaum weniger TMUs/ROPs haben als 64 bzw. 32. Nehme ich jetzt einfach mal an. 64 TMUs hat schon GF114 bzw. 56 GF104. Beide haben 32 ROPs (nicht die Krüppelversion von GF104), was zu einem 256bit SI passt.

Tick.

Takt liegt laut Ailuros deutlich über Tahiti (XT nehme ich mal an). Gehen wir von 1,1 GHz aus.

Tick.

Bei 2+ TF sollte die reine Rechenleistung der ALUs "ausreichend" sein, um in Spielen nicht (übermäßig) zu limitieren.

Kommt eher auf die SMs an. GF114 hat auch sehr viele FLOPs im Vergleich zu GF110 aber auch um einiges weniger Bandbreite.

Wir haben gute 40% mehr Füllrate bei o.g. Annahmen. Ich nehme an, Nvidia ist nicht so doof und verbaut so viele Einheiten bzw. taktet die so hoch, dass dann in 90% der Fälle die Bandbreite stark limitiert. Dann könnte man entweder Energie oder Fläche sparen.

Eine Performance GPU hat sowieso nicht 2560 mit 8xAA als Ziel z.B. Fuer solche Faelle sollte man eher zu groesseren GPUs mit hoeheren Preisen greifen.

Wie passt das jetzt mit den GTX580+10% Gerüchten zusammen? Gerade mit Takt skaliert eine GPU doch ziemlich gut, da wäre das nicht gerade prickelnd. Würde die Performance stimmen, wäre Kepler pro "Rohleistung" deutlich ineffizienter als Fermi. Okay, wenn Perf/mm2 und perf/W steigen, nicht wirklich wichtig, aber immer noch komisch.


Es duerfte im Durchschnitt mehr sein als nur 10%. Der eigentliche Vergleich sollte sowieso zwischen GF114 und GK104 liegen. Wenn die Leistungs-steigerung zwischen den beiden nur in etwa im Bereich der Bandbreiten-Steigerung liegen sollte, dann ja duerfte etwas nicht stimmen. Da aber die bisherigen Indizien auf deutlich hoehere Unterschiede deuten ist anscheinend Kepler schon um einiges mehr effizienter pro W und mm2 als Fermi. Fuer den Anfang zumindest und wenn ein GK104 vs. GF110 Vergleich schon sein muss dann zumindest =/>20% perf/transistor. Da GF110 aber auch >240W verbratet wird es bei perf/W um noch einiges bunter.

Hübie
2012-01-08, 11:05:55
Ich Idiot haette halt fuer die Kepler Familie XDR2 ram behaupten sollen dann waeren die Tabellen noch bunter. Und ja natuerlich haben die Herren "Quellen". :rolleyes: :biggrin:

:freak: Dafür hab ich schon gesorgt ;D:biggrin: Leider bin ich ne Bockwurst, aber es zündet hin und wieder ne Diskussion an.

Übrigens heißt es "verbrät" nicht verbratet. Das saß mir quer wie ein Nieser. *klugscheiß*

So langsam bin ich verwirrt mit Perf/Watt und Perf/Transistor. Das hin und her rechnen.
Da kommt also raus das GK104 = GF110 + ~10% bei weniger Energiebedarf und fast gleicher Die-Fläche ist. Ich werd Gaga. Muss ins Betti.

Gn8 M8s.

AnarchX
2012-01-08, 11:11:39
GK104 hat wohl einen ähnlichen Transistorcount wie GF110, aber eben 20% mehr Leistung in einem Peformance-GPU-Parkour (~ 1080p+MSAA).
Wenn GK104 mit gemessenen 150W diese Leistung erreicht, verdoppelt er fast die Pro-Watt-Leistung gegenüber GF110.

Ailuros
2012-01-08, 11:12:37
:freak: Dafür hab ich schon gesorgt ;D:biggrin: Leider bin ich ne Bockwurst, aber es zündet hin und wieder ne Diskussion an.

Übrigens heißt es "verbrät" nicht verbratet. Das saß mir quer wie ein Nieser. *klugscheiß*

Keine Sorge. Ich hab solches Zeug gern weil es mir hilft mein Deutsch wieder auf Trab zu bringen ;)

So langsam bin ich verwirrt mit Perf/Watt und Perf/Transistor. Das hin und her rechnen.
Da kommt also raus das GK104 = GF110 + ~10% bei weniger Energiebedarf und fast gleicher Die-Fläche ist. Ich werd Gaga. Muss ins Betti.

Gn8 M8s.

Leistungsziel GK104 IMHO GF110+30%. Angenommen es wird erreicht, dann:

3 gegen 3 Mrd. Transistoren = +30%
530 gegen 330mm2 (reine Spekulation) = :D
244W vs. 170-180W (reine Spekulation) = :D

Besser so? Und ja natuerlich spielt hier der 40 zu 28nm um einiges mit, aber bei Tahiti ist das auch nicht anders und es wird wohl von den jeglichen Marketing-Abteilungen aus gutem Grund auch voll ausgenutzt werden.

AnarchX
2012-01-08, 11:14:58
Gibt es eigentlich Gerüchte, ob NV mit GK1xx endlich Eyefinity kontert?

boxleitnerb
2012-01-08, 11:17:44
Wird ja immer mehr. Erst GF110+10, dann 20 und jetzt 30%? :freak:

Bei 180W TDP wäre man AMD in Perf/W um einiges voraus, endlich wieder.

Hugo78
2012-01-08, 11:21:12
Gibt es eigentlich Gerüchte, ob NV mit GK1xx endlich Eyefinity kontert?

Ne leider nicht, zumindest ein 3. Monitor muss es aber mal langsam werden mMn.

Bucklew
2012-01-08, 12:07:17
Gibt es eigentlich Gerüchte, ob NV mit GK1xx endlich Eyefinity kontert?
*hust* CES

AnarchX
2012-01-08, 12:40:33
*hust* CES
Hoffentlich hat NV für die CES dann noch etwas mehr im Gepäck, als ein paar dutzend Displays an einem PC. ;)

LovesuckZ
2012-01-08, 16:46:35
Wie passt das jetzt mit den GTX580+10% Gerüchten zusammen? Gerade mit Takt skaliert eine GPU doch ziemlich gut, da wäre das nicht gerade prickelnd. Würde die Performance stimmen, wäre Kepler pro "Rohleistung" deutlich ineffizienter als Fermi. Okay, wenn Perf/mm2 und perf/W steigen, nicht wirklich wichtig, aber immer noch komisch.
[/LIST]

Wenn man darüber nachdenkt, macht dieser Weg die Architektur nicht ineffizienter. Was passiert, wenn du Fermi voll ausnutzt? Du rennst über die 300 Watt. Um alle Einheiten schnell genug mit Daten versorgen zu können, müssen also heute sehr viele Informationen zu den Recheneinheiten kommen. Das Problem bei zukünftigen Shrinks ergibt sich aus der langsameren Senkung der Spannung der damit auch langsameren Senkung des Energieverbrauchs des Datentransfers. Um in Zukunft überhaupt mehr Rechenleistung erreichen und den Abstand zwischen "nutzerbarer" und "Peak" reduzieren zu können, muss dort angesetzt werden, wo die meiste Energie aufgewendet wird.

Um doppelte soviele Recheneinheiten auslasten zu können, müssen doppelt soviele Informationen gesendet werden. Wenn aber der Verbrauch durch den Datentransfer nicht um 50% sinkt (Abstand bleibt ja immer gleich bei gleicher Fläche), musst du entweder den Takt und eventuell die Spannung senken oder weniger Einheiten verbauen. Eine Verdopplung ohne Anhebung des Power-Budgets wäre aber nicht möglich.

Deswegen spricht AMD bei Tahiti auch nicht von Perf/Watt bei Compute sondern Perf/mm^2. ;)

/edit: Das ganze ist vergleichbar mit GF114 und GT200b. Die GTX560TI hat 77% mehr MADD-Leistung, ist aber im Schnitt nur irgendwas um die 40% schneller als die GTX285. Gleichzeitig verbraucht die Karte zwischen 25-20% weniger Strom.

Skysnake
2012-01-08, 16:56:56
Oder du erhöhst "einfach" die Datenlokalität :rolleyes:

PS: Schön das Video wiederkekeut.

PPS: Ja das musste jetzt sein, aber dabei bleibts auch. Versrprochen ;)

Sunrise
2012-01-08, 17:40:44
Wird ja immer mehr. Erst GF110+10, dann 20 und jetzt 30%? :freak:

Bei 180W TDP wäre man AMD in Perf/W um einiges voraus, endlich wieder.
NV hat ein internes Ziel und natürlich gibt es auch immer einen aktuellen Stand, je nachdem, wie "gut" die Treiber auf die neue Architektur angepasst sind. Dass das einige Zeit dauert, sieht man ja an AMD. Die HD7970 wurde meiner Meinung nach viel zu früh vorgestellt, bzw. in die Presse getragen und jetzt erst (laut Dave) lernt man einige Sachen, die man bei Bananenprodukten dann den Kunden bezahlen lässt. Dass er sowas öffentlich Preis gibt, empfand ich sowieso als äußerst eigenartig. Ich bin hier übrigens derselben Meinung wie Ailuros. Es scheint auch so zu sein, dass aufgrund der neuen Fab15 der Umbau bzw. Aufbau der Produktion noch etwas länger dauert, denn TSMC kann auch nicht zaubern. Das ist übrigens das, was Charlie permanent übersieht. NV ist genauso wie AMD an die Foundry gebunden und es ergibt garkeinen Sinn hier Produkte mit schlechter Ausbeute und geringen Volumina vorzustellen. GK104 benötigt Volumina, dafür wird auch der angepeilte Preis sorgen.

Ich hatte letztes Jahr die GF110+30% (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9052144&postcount=1234) bereits angegeben und die stimmen zumindest insofern, als dass das im letzten Jahr vom Marketing weitergetragen wurde. Nur ist das mit äußerster Vorsicht zu genießen, denn die erzählen oft viel, wenn der Tag lang ist und sofern solche Ziele nicht erreicht werden wird ganz schnell umgeschaltet auf ein anderes Programm. Ist aber IMHO dennoch realistisch, wenn auch sicher nicht unter allem Umständen bzw. für alle Fälle geltend.

Leistungsziel GK104 IMHO GF110+30%. Angenommen es wird erreicht, dann:

3 gegen 3 Mrd. Transistoren = +30%
530 gegen 330mm2 (reine Spekulation) =
244W vs. 170-180W (reine Spekulation) =

Besser so? Und ja natuerlich spielt hier der 40 zu 28nm um einiges mit, aber bei Tahiti ist das auch nicht anders und es wird wohl von den jeglichen Marketing-Abteilungen aus gutem Grund auch voll ausgenutzt werden.
Sagen wir es mal so. Sollten hier 180W oder sogar darunter möglich sein (das wären ausgehend von meinen 200W etwa -10%), dann hätte man so einiges an Spielraum für GK110. GK110 sollte sowieso ziemlich fett (DIE area) werden. Ob die 300W für ein frühes, unfertiges Sample gelten, weiß ich nicht, das wäre aber anzunehmen, wenn man mit min. 1,5x GK104 (Milchmädchen) rechnet. Man wird hier beim Takt sicher wieder relativ konservativ sein, dafür die Architektur breiter machen.

Der 28nm-Produktion traue ich aktuell auch noch nicht zu, dass man hier für >500mm² ausreichend Ausbeute erzielen kann, insofern tut NV sicher gut daran, hier noch einige Zeit verstreichen zu lassen, bevor man sich hier auf irgendwelche ungeschickten Marketing-Stunts einlässt, die NV dieses Mal sicher vermeiden will.

Iruwen
2012-01-08, 17:45:51
+30% in Spielen oder GPGPU?

LovesuckZ
2012-01-08, 18:04:01
Der 28nm-Produktion traue ich aktuell auch noch nicht zu, dass man hier für >500mm² ausreichend Ausbeute erzielen kann, insofern tut NV sicher gut daran, hier noch einige Zeit verstreichen zu lassen, bevor man sich hier auf irgendwelche ungeschickten Marketing-Stunts einlässt, die NV dieses Mal sicher vermeiden will.

Dem Prozess ist die Größe eines Chips vollkommen egal. Prozessprobleme betreffen jedem produzierten Wafer und damit jede Größe.

Deswegen produziert man auch den High-End Chip immer zu erst: Prozessprobleme wirken sich nicht annährend so problematisch aus (Deaktivierung von Teilen) und der Absatzmarkt ist relativ gering.
Man weicht nur dann von dem Plan ab, wenn man wie jetzt den IB-Notebookcycle mitnehmen will.

boxleitnerb
2012-01-08, 18:07:35
Äh, wenn die Defektrate hoch ist, sind größere Chips viel stärker betroffen. Dann musst du viel mehr Chips wegwerfen oder (je nachdem wo die Defekte liegen) beschneiden und unter Wert verkaufen. Die Die-Größe ist nicht egal. Es gibt natürlich auch Probleme, die den Wafer als Ganzes wertlos machen, aber von denen sprechen wir hier nicht.

AnarchX
2012-01-08, 18:07:42
Deswegen produziert man auch den High-End Chip immer zu erst: Prozessprobleme wirken sich nicht annährend so problematisch aus (Deaktivierung von Teilen) und der Absatzmarkt ist relativ gering.
Man weicht nur dann von dem Plan ab, wenn man wie jetzt den IB-Notebookcycle mitnehmen will.
Und wenn ein kritischer Bereich betroffen ist, kann man den ganzen Chip wegwerfen.

Weder bei 90, 65 noch 40nm hat NV zu Anfang einen High-End-Chip gebracht. Gleiches sieht man auch im CPU-Markt, wo Intel die wirklichen großen Chips erst nach einer gewissen Reifezeit des Prozesses bringt.

LovesuckZ
2012-01-08, 18:17:04
Und wenn ein kritischer Bereich betroffen ist, kann man den ganzen Chip wegwerfen.

Und welche Reihe ist davon am stärksten betroffen? In welcher Reihe nehmen die "kritischen Bereiche" einen höhreren Flächenanteil ein? ;)

Oder anders: Dreht sich die Sonne um die Erde, oder die Erde um die Sonne?


Weder bei 90, 65 noch 40nm hat NV zu Anfang einen High-End-Chip gebracht. Gleiches sieht man auch im CPU-Markt, wo Intel die wirklichen großen Chips erst nach einer gewissen Reifezeit des Prozesses bringt.

In keinem dieser Fälle war die "Next-Gen"-Architektur zum Startzeitpunkt fertig. In jedem dieser Fälle hat nVidia eine alte Architektur mit leichten Verbesserungen zu erst geshrinkt. Irgendwie nicht vergleichbar, gell? ;)

Hübie
2012-01-08, 18:21:30
Wenn man darüber nachdenkt, macht dieser Weg die Architektur nicht ineffizienter. Was passiert, wenn du Fermi voll ausnutzt? Du rennst über die 300 Watt. Um alle Einheiten schnell genug mit Daten versorgen zu können, müssen also heute sehr viele Informationen zu den Recheneinheiten kommen. Das Problem bei zukünftigen Shrinks ergibt sich aus der langsameren Senkung der Spannung der damit auch langsameren Senkung des Energieverbrauchs des Datentransfers. Um in Zukunft überhaupt mehr Rechenleistung erreichen und den Abstand zwischen "nutzerbarer" und "Peak" reduzieren zu können, muss dort angesetzt werden, wo die meiste Energie aufgewendet wird.

Um doppelte soviele Recheneinheiten auslasten zu können, müssen doppelt soviele Informationen gesendet werden. Wenn aber der Verbrauch durch den Datentransfer nicht um 50% sinkt (Abstand bleibt ja immer gleich bei gleicher Fläche), musst du entweder den Takt und eventuell die Spannung senken oder weniger Einheiten verbauen. Eine Verdopplung ohne Anhebung des Power-Budgets wäre aber nicht möglich.

Deswegen spricht AMD bei Tahiti auch nicht von Perf/Watt bei Compute sondern Perf/mm^2. ;)

/edit: Das ganze ist vergleichbar mit GF114 und GT200b. Die GTX560TI hat 77% mehr MADD-Leistung, ist aber im Schnitt nur irgendwas um die 40% schneller als die GTX285. Gleichzeitig verbraucht die Karte zwischen 25-20% weniger Strom.

Danke für die Zusammenfassung. Jetzt geht mir ein Lichtlein auf ;) Obwohl mir compute sowas von wurst ist...

Dem Prozess ist die Größe eines Chips vollkommen egal. Prozessprobleme betreffen jedem produzierten Wafer und damit jede Größe.

Deswegen produziert man auch den High-End Chip immer zu erst: Prozessprobleme wirken sich nicht annährend so problematisch aus (Deaktivierung von Teilen) und der Absatzmarkt ist relativ gering.
Man weicht nur dann von dem Plan ab, wenn man wie jetzt den IB-Notebookcycle mitnehmen will.

N bissl unlogisch, meinst du nicht?


Sagen wir es mal so. Sollten hier 180W oder sogar darunter möglich sein (das wären ausgehend von meinen 200W etwa -10%), dann hätte man so einiges an Spielraum für GK110. GK110 sollte sowieso ziemlich fett (DIE area) werden. Ob die 300W für ein frühes, unfertiges Sample gelten, weiß ich nicht, das wäre aber anzunehmen, wenn man mit min. 1,5x GK104 (Milchmädchen) rechnet. Man wird hier beim Takt sicher wieder relativ konservativ sein, dafür die Architektur breiter machen.

Der 28nm-Produktion traue ich aktuell auch noch nicht zu, dass man hier für >500mm² ausreichend Ausbeute erzielen kann, insofern tut NV sicher gut daran, hier noch einige Zeit verstreichen zu lassen, bevor man sich hier auf irgendwelche ungeschickten Marketing-Stunts einlässt, die NV dieses Mal sicher vermeiden will.

180 Watt sind etwas optimistisch. Wir reden hier von 28nm und keine Quantensprünge ;) Hast du beruflich mit denen zu tun oder wie kommst du an marketing-Informationen??

AnarchX
2012-01-08, 18:24:38
Und welche Reihe ist davon am stärksten betroffen? In welcher Reihe nehmen die "kritischen Bereiche" einen höhreren Flächenanteil ein? ;)

Oder anders: Dreht sich die Sonne um die Erde, oder die Erde um die Sonne?

Denk noch mal genauer darüber nach und dir wird hoffentlich einfallen, warum die Aussage Unsinn ist.
Eine GPU besteht eben nicht nur aus redundanten Einheiten, die man beliebig deaktivieren kann, wenn auch seit Fermi man da sich etwas verbessert hat.


In keinem dieser Fälle war die "Next-Gen"-Architektur zum Startzeitpunkt fertig. In jedem dieser Fälle hat nVidia eine alte Architektur mit leichten Verbesserungen zu erst geshrinkt. Irgendwie nicht vergleichbar, gell? ;)
Der letzte Versuch einen neuen Prozess mit neuer Architektur zu kombinieren, war ja auch sonderlich erfolgreich - NV30.:D
Man wird wohl seit Anfang 2011 mit GF117 28nm getestet haben.

Skysnake
2012-01-08, 18:26:20
Und welche Reihe ist davon am stärksten betroffen? In welcher Reihe nehmen die "kritischen Bereiche" einen höhreren Flächenanteil ein? ;)

Oder anders: Dreht sich die Sonne um die Erde, oder die Erde um die Sonne?



In keinem dieser Fälle war die "Next-Gen"-Architektur zum Startzeitpunkt fertig. In jedem dieser Fälle hat nVidia eine alte Architektur mit leichten Verbesserungen zu erst geshrinkt. Irgendwie nicht vergleichbar, gell? ;)
:facepalm:

Also manchmal....

LZ das ist reine Statistik. Zudem solltest du die Entropie berücksichtigen bei solchen betrachtungen. Wafer sind nie perfekt, wegen der Minimierung der Entropie. Genau so siehts auch mit den Defekten teils aus. Die hast du einfach teils schon allein aus physikalischen Grundsätzen. Auf nem großen Chip kann sich so etwas aber akkumulieren.

M4xw0lf
2012-01-08, 18:29:43
Auf nem großen Chip kann sich so etwas aber akkumulieren.

Nicht kann, sondern muss sogar aufgrund der schon von dir genannten statistischen Verteilung von Defekten.

Sunrise
2012-01-08, 18:33:18
Dem Prozess ist die Größe eines Chips vollkommen egal. Prozessprobleme betreffen jedem produzierten Wafer und damit jede Größe.
Es gibt nicht genügend Produktionslinien die aktuell genügend Wafer-Starts liefern können. NV ist nicht TSMCs einziger Kunde. Von Prozess-bedingten Dingen rede ich garnicht, da kommt aber auch nochmal ein Rattenschwanz dazu. Ich traue TSMC aber derzeit vor allem nicht zu, alle Kunden bedienen zu können.

Deswegen produziert man auch den High-End Chip immer zu erst: Prozessprobleme wirken sich nicht annährend so problematisch aus (Deaktivierung von Teilen) und der Absatzmarkt ist relativ gering.
Man weicht nur dann von dem Plan ab, wenn man wie jetzt den IB-Notebookcycle mitnehmen will.
Das ist nunmal NVs Release-Cycle gewesen. Dass sich das aber auch ändern kann, sehen wir an GK104 und GK110. Und schon stimmt deine Schlussfolgerung nichtmehr.

Skysnake
2012-01-08, 18:36:20
Nicht kann, sondern muss sogar aufgrund der schon von dir genannten statistischen Verteilung von Defekten.
Jaein, die Effekte können sich auch auslöschen. Nicht jeder Effekt hat den gleichen Einfluss.

Statistisch gesehen akkumulieren Sie sich aber in der Regel. Das andere sind eher die <1% wo man halt Glück hat.

LovesuckZ
2012-01-08, 18:47:42
Denk noch mal genauer darüber nach und dir wird hoffentlich einfallen, warum die Aussage Unsinn ist.
Eine GPU besteht eben nicht nur aus redundanten Einheiten, die man beliebig deaktivieren kann, wenn auch seit Fermi man da sich etwas verbessert hat.

Der prozentuale Anteil der Fläche solcher Bereiche sinkt mit der Zunahme der Größe. Die Wahrscheinlichkeit, dass ein kritischer Teil bei einem großen Chip betroffen ist, ist deutlich kleiner. Deswegen sind kleine Chips auch stärker von Prozessproblemen betroffen, da Funktionsfähigkeit und Marktposition deutlich eingeschränkt werden, bis hin zur Nutzlosigkeit.

Denk mal darüber nach, warum MCP89 und Tegra 2 erst nach Beseitigung der Probleme von TSMC in Massenfertigung gegangen sind, jedoch nVidia fleißig Fermi zu dem Zeitpunkt schon produzierte.


Der letzte Versuch einen neuen Prozess mit neuer Architektur zu kombinieren, war ja auch sonderlich erfolgreich - NV30.:D


NV30 kam tot zurück. Fermi hatte trotz GT21x Chips massive Probleme mit der Kommunikation und dem Stromverbrauch. Beide Chips kamen gegenüber der Konkurrenz 6-7 Monate später. Es liegt also nicht an der Qualität des Prozesses, ob ein Chip mit neuer Architektur auf einem "neuen" Prozess funktioniert.

Es gibt nicht genügend Produktionslinien die aktuell genügend Wafer-Starts liefern können. NV ist nicht TSMCs einziger Kunde. Von Prozess-bedingten Dingen rede ich garnicht, da kommt aber auch nochmal ein Rattenschwanz dazu. Ich traue TSMC aber derzeit vor allem nicht zu, alle Kunden bedienen zu können.

Wenn du von Ausbeute redest, dann meinst du Prozessprobleme. Wenn man durch die Kapazität beschränkt ist, produziert man zuerst das, was am wirtschaftlichen ist. Und das ist eben nicht Low-End bis Mid-Range, sondern einzig High-End.


Das ist nunmal NVs Release-Cycle gewesen. Dass sich das aber auch ändern kann, sehen wir an GK104 und GK110. Und schon stimmt deine Schlussfolgerung nichtmehr.

Nein, Huang hat auf der GTC 2010 angekündigt, dass in Zukunft die komplette Familie innerhalb von 3 Monaten auf den Markt sein soll. nVidia ist natürlich daran gelegen, zu erst High-End zu bringen, weil das generiert den Umsatz im High-End-, Quadro- und Tesla-Markt. Das sie jetzt eher Kapazitäten für das Kleinkram verwenden, liegt an IB und dem Notebookcycle.

Skysnake
2012-01-08, 18:54:12
-.-

LZ du hast Recht und wir unsere Ruhe k?

Aber bitte schreib so was nicht mehr. Da bekomm ich Augenkrebs von...

Godmode
2012-01-08, 18:59:57
Bitte zuerst sowas lesen bevor man irgend welche komischen Argumente bringt: :rolleyes:

http://bnrg.cs.berkeley.edu/~randy/Courses/CS252.S96/Lecture05.pdf

Skysnake
2012-01-08, 19:32:56
Ich wette mit dir, da kommt gleich irgend ein Einwurf, warum das für nVidia nicht gilt.... :rolleyes:

Bzw. warum genau deswegen nVidia auch zuerst die großen Chips bringt, weil mehr bei rum springt.

LovesuckZ
2012-01-08, 19:36:54
Bitte zuerst sowas lesen bevor man irgend welche komischen Argumente bringt: :rolleyes:

http://bnrg.cs.berkeley.edu/~randy/Courses/CS252.S96/Lecture05.pdf

Deswegen verkaufen nVidia und AMD auch kaputte Chips. ;)

Dazu kommt, dass man hier wie immer ignoriert, dass nVidia den großen Chip für Desktop per Quadro- und Teslamarkt subventioniert. Die Durchschnittsmarge bei Quadro beträgt 70%. Sie müssten bei einem Waferpreis von $7000 nur 2 Karten mit dem Chip in dem Bereich für $5000 verkaufen, um alleine den Waferpreis wieder refinanziert zu haben.

Da neue Prozesse bei Fremdhersteller immer teurer sind als die alten, müsste man bei einer anderen Strategie den Verkaufspreis der kleinen Chips deutlich anheben, um die Marge gleichhalten zu können.

Sunrise
2012-01-08, 19:56:35
Wenn man durch die Kapazität beschränkt ist, produziert man zuerst das, was am wirtschaftlichen ist. Und das ist eben nicht Low-End bis Mid-Range, sondern einzig High-End.
NV wird aber GK104 zuerst produzieren und auch dann, wenn Huang dir was anderes gesagt hat. Somit haben wir endlich das Ende deiner Argumentationskette erreicht.

Die GTX580 ist EOL, siehe auch Ailuros' Beiträge.

Skysnake
2012-01-08, 19:59:58
Was hab ich gesagt? -.-

Godmode
2012-01-08, 20:04:50
Deswegen verkaufen nVidia und AMD auch kaputte Chips. ;)


Weiter oben hast du aber klar was anderes geschrieben, nämlich:

Der prozentuale Anteil der Fläche solcher Bereiche sinkt mit der Zunahme der Größe. Die Wahrscheinlichkeit, dass ein kritischer Teil bei einem großen Chip betroffen ist, ist deutlich kleiner. Deswegen sind kleine Chips auch stärker von Prozessproblemen betroffen, da Funktionsfähigkeit und Marktposition deutlich eingeschränkt werden, bis hin zur Nutzlosigkeit.


Sagen wir ein großer Chip passt 100 mal auf den Wafer und bei einem Defekt kann er zu 50 % durch Einheiten Deaktivierung gerettet werden:

Bei 20 Fehler macht dass, wo wir einfachhalbe sagen ein Fehler pro Chip, 80 gute Chips und 10 mit deaktivierten Einheiten und 10 kaputte.

Wenn der Chip jetzt nur 1/4 der Fläche hat, hast du plötzlich 400 mögliche Chips. Fehlerhafte können hier aber nur mehr zu 10 % durch Einheiten Deaktivierung gerettet werden ergibt bei 20 Fehlern:

380 gute Chips und 2 mit deaktivierten Einheiten und 18 kaputte.

Yield kannst dir wohl selber ausrechnen.

boxleitnerb
2012-01-08, 20:16:31
Randverluste auch nicht vergessen. Kleinere Chips sind einfach wirtschaftlicher, wenn die Ausbeute noch problematisch ist.

AwesomeSauce
2012-01-08, 20:25:24
Was hab ich gesagt? -.-
Wenn du nur dazu da bist, um irgendwelche Leute zu denunzieren, geht doch bitte gleich ins SA-Forum. Warum könnt ihr eure persönlichen Differenzen nicht per PN regeln?

LovesuckZ
2012-01-08, 20:29:35
NV wird aber GK104 zuerst produzieren und auch dann, wenn Huang dir was anderes gesagt hat. Somit haben wir endlich das Ende deiner Argumentationskette erreicht.


Beginnend mit Mai wird nVidia Kepler in den Quadromarkt bringen. Du willst also sagen, sie werden dafür GK104 verwenden? :)


Sagen wir ein großer Chip passt 100 mal auf den Wafer und bei einem Defekt kann er zu 50 % durch Einheiten Deaktivierung gerettet werden:

Bei 20 Fehler macht dass, wo wir einfachhalbe sagen ein Fehler pro Chip, 80 gute Chips und 10 mit deaktivierten Einheiten und 10 kaputte.

Wenn der Chip jetzt nur 1/4 der Fläche hat, hast du plötzlich 400 mögliche Chips. Fehlerhafte können hier aber nur mehr zu 10 % durch Einheiten Deaktivierung gerettet werden ergibt bei 20 Fehlern:

380 gute Chips und 2 mit deaktivierten Einheiten und 18 kaputte.

Yield kannst dir wohl selber ausrechnen.

Ähm, davon abgesehen, dass es mehr als 4x (es müssten mehr als 5x soviele sein) an Chips wären, reden wir über Flächenfehler. Sie wirken sich also wesentlich radikaler aus.

Gleichzeitig wird ignoriert, dass bei so massiven Auftreten natürlich auch die kleinen Chips a) deutlich davon betroffen sind und b) aufgrund der Marktpositionierung nicht mit deaktivieren Teilen auf den Markt kommen können. Es heißt also noch lange nicht, dass die Yields bei kleinen Chips besser sind. Guck dir doch einfach Fermi an: Aufgrund der Leistung der großen Chips konnte nVidia Fermi mit 11, 14 und 15 SM auf den Markt bringen. Und selbst GF104 konnte mit 7 SM leistungsmäßig noch überzeugen. Wären die Chips in Bezug ihrer Größe schlechter gewesen, hätte man wesentlich weniger vom Wafer als verwendbare Chips nehmen können.

Und das Wirtschaftsprinzip ist dann der determinierende Faktor, was man zu erst in Produktion schickt.

Randverluste auch nicht vergessen. Kleinere Chips sind einfach wirtschaftlicher, wenn die Ausbeute noch problematisch ist.

"Wirtschaftlicher" impliziert den Marktbereich. Kleine Chips sind nicht wirtschaftlicher beim Start eines neuen Prozesses. nVidia's Marge betrug vor Fermi 42% 44%. Ausschlaggebend waren die kleinen 40nm Chips, die teuer in der Herstellung waren, aber entsprechend nicht höher angepriesen wurden. Mit Start von Fermi und somit auch der Verwendung von 40nm für das High-End und den Quadro- sowie Teslamarkt ist die Marge rapide angestiegen.

Gipsel
2012-01-09, 00:56:48
Beginnend mit Mai wird nVidia Kepler in den Quadromarkt bringen. Du willst also sagen, sie werden dafür GK104 verwenden? :)
1.
Du leitest das von der "Roadmap" ab, in der Kepler-Quadros im fiskalischen Q2 versprochen wurde, oder? Geht das Q2 bei nV nicht von Mai (oder Ende April) bis Juli?

2.
Warum nicht?

N0Thing
2012-01-09, 01:00:58
"Wirtschaftlicher" impliziert den Marktbereich. Kleine Chips sind nicht wirtschaftlicher beim Start eines neuen Prozesses. nVidia's Marge betrug vor Fermi 42% 44%. Ausschlaggebend waren die kleinen 40nm Chips, die teuer in der Herstellung waren, aber entsprechend nicht höher angepriesen wurden. Mit Start von Fermi und somit auch der Verwendung von 40nm für das High-End und den Quadro- sowie Teslamarkt ist die Marge rapide angestiegen.

Weiß man eigentlich wie die Marge ohne Tesla und Quadro ausschaut? Also beim High-End?

Ailuros
2012-01-09, 01:43:18
Wird ja immer mehr. Erst GF110+10, dann 20 und jetzt 30%? :freak:

Bei 180W TDP wäre man AMD in Perf/W um einiges voraus, endlich wieder.

Der TDP ist lediglich meine eigene Spekulation; sonst hab ich mehr als nur einmal erwaehnt dass das Ding lediglich mit dem allererstem beta Treiber GF110+10% erreicht hat, aber das eigentliche Ziel +30% ist. Es handelt sich in solchen Faellen nicht um Wundertreiber, sondern es ist stets so dass der allererste Treiberversuch ohne jegliche Optimierungen etwas unter dem Ziel anschlaegt. Erreichbar ist es theoretisch schon; ob es wirklich so ist werden wir sehen.

NV hat ein internes Ziel und natürlich gibt es auch immer einen aktuellen Stand, je nachdem, wie "gut" die Treiber auf die neue Architektur angepasst sind. Dass das einige Zeit dauert, sieht man ja an AMD. Die HD7970 wurde meiner Meinung nach viel zu früh vorgestellt, bzw. in die Presse getragen und jetzt erst (laut Dave) lernt man einige Sachen, die man bei Bananenprodukten dann den Kunden bezahlen lässt. Dass er sowas öffentlich Preis gibt, empfand ich sowieso als äußerst eigenartig. Ich bin hier übrigens derselben Meinung wie Ailuros. Es scheint auch so zu sein, dass aufgrund der neuen Fab15 der Umbau bzw. Aufbau der Produktion noch etwas länger dauert, denn TSMC kann auch nicht zaubern. Das ist übrigens das, was Charlie permanent übersieht. NV ist genauso wie AMD an die Foundry gebunden und es ergibt garkeinen Sinn hier Produkte mit schlechter Ausbeute und geringen Volumina vorzustellen. GK104 benötigt Volumina, dafür wird auch der angepeilte Preis sorgen.

Ich hatte letztes Jahr die GF110+30% (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9052144&postcount=1234) bereits angegeben und die stimmen zumindest insofern, als dass das im letzten Jahr vom Marketing weitergetragen wurde. Nur ist das mit äußerster Vorsicht zu genießen, denn die erzählen oft viel, wenn der Tag lang ist und sofern solche Ziele nicht erreicht werden wird ganz schnell umgeschaltet auf ein anderes Programm. Ist aber IMHO dennoch realistisch, wenn auch sicher nicht unter allem Umständen bzw. für alle Fälle geltend.

Wenn man auf TahitiXT rueberschielt liegt es momentan auch nicht in allen reviews bei 580+30% sondern stellenweise weniger. Einen Gleichstand zur XT sehe ich nicht. Im besten Fall irgendwo zwischen PRO und XT und AMD wird in absehbarer Zeit auch schnellere Treiber liefern.


Sagen wir es mal so. Sollten hier 180W oder sogar darunter möglich sein (das wären ausgehend von meinen 200W etwa -10%), dann hätte man so einiges an Spielraum für GK110. GK110 sollte sowieso ziemlich fett (DIE area) werden. Ob die 300W für ein frühes, unfertiges Sample gelten, weiß ich nicht, das wäre aber anzunehmen, wenn man mit min. 1,5x GK104 (Milchmädchen) rechnet. Man wird hier beim Takt sicher wieder relativ konservativ sein, dafür die Architektur breiter machen.

Der 28nm-Produktion traue ich aktuell auch noch nicht zu, dass man hier für >500mm² ausreichend Ausbeute erzielen kann, insofern tut NV sicher gut daran, hier noch einige Zeit verstreichen zu lassen, bevor man sich hier auf irgendwelche ungeschickten Marketing-Stunts einlässt, die NV dieses Mal sicher vermeiden will.

Ich hab noch keine Daten zum top dog aber ich waere ziemlich ueberrascht wenn dieser ueber die 500mm2 Grenze schreiten sollte. Die angeblichen "GK100" specs in fake spec-Tabellen sind auf jeden Fall total daneben, so viel konnte ich noch herausquetschen. Sie machen auch keinen Sinn.

1.
Du leitest das von der "Roadmap" ab, in der Kepler-Quadros im fiskalischen Q2 versprochen wurde, oder? Geht das Q2 bei nV nicht von Mai (oder Ende April) bis Juli?

Q2 koennte knapp werden.

2.
Warum nicht?

Nein.


"Wirtschaftlicher" impliziert den Marktbereich. Kleine Chips sind nicht wirtschaftlicher beim Start eines neuen Prozesses. nVidia's Marge betrug vor Fermi 42% 44%. Ausschlaggebend waren die kleinen 40nm Chips, die teuer in der Herstellung waren, aber entsprechend nicht höher angepriesen wurden. Mit Start von Fermi und somit auch der Verwendung von 40nm für das High-End und den Quadro- sowie Teslamarkt ist die Marge rapide angestiegen.

Wo sind irgendwelche Kapazitaets-Zahlen fuer NV fuer jeglichen Zeitpunkt um die Perspektive etwas zu erweitern? Je kleiner die chips desto hoeher die theoretische maximale Anzahl der chips, desto hoeher die Chancen fuer hoehere wafer yields und auch binning yields.

Als Fermi Quadros gelauncht wurden hatte NV nicht nur GF100 auf dem Laufband, wobei GF100 ziemlich jeglichen miserablen binning yield schluckten was man damals auch deutlich von den minimalen SM Anzahlen sehen konnte.

LovesuckZ
2012-01-09, 02:08:32
1.
Du leitest das von der "Roadmap" ab, in der Kepler-Quadros im fiskalischen Q2 versprochen wurde, oder? Geht das Q2 bei nV nicht von Mai (oder Ende April) bis Juli?


Nun, sie müssen den rampingprozess wohl ein paar tage früher beginnen, um in F-Q2 zu kommen...

Quadro-Fermi gab es ab dem 28.07. Start des Rampings war im Januar 2010 für GF100. Die Geforce-Produkte konnte man ab Mitte April kaufen.

Alleine wegen Titan muss nVidia früh rampen. Ich bezweifel, dass Cray nach dem Bulldozer-Debakel alleinig auf Versprochen hofft. :D

Ailuros
2012-01-09, 02:20:23
GF100 tape out war Monate vor GK110 und es sind fuer den letzten keinerlei Einzelheiten bekannt u.a. auch ob er irgend einen metal spin braucht.

Gipsel
2012-01-09, 03:43:37
Warum nicht?
Nein.
Warum nicht?
Alleine wegen Titan muss nVidia früh rampen. Ich bezweifel, dass Cray nach dem Bulldozer-Debakel alleinig auf Versprochen hofft. :D
Titan nutzt keine Quadros, sondern Teslas, die nach der gleichen "Roadmap" erst im fiskalischen Q3 (Ende Juli - Oktober) kommen sollen.

Btw., hast Du irgendwelche Informationen über die Performance der BDs in dem System?
Immerhin konnten die mit dem XK6-Upgrade bereits (zum geplanten Termin) eingebaut werden. Wann nV die Kepler-Teslas liefert, steht noch ein wenig in den Sternen, irgendwann in er zweiten Jahreshälfte ist das einzige, was sie bisher dazu sagen (die Anzahl steht übrigens offiziell immer noch nicht endgültig fest). Insofern verlassen die sich natürlich auf das Verprechen nVidias, die dann irgendwann liefern zu können. Mehr werden die im Moment auch nicht haben. :rolleyes:

Ailuros
2012-01-09, 03:52:20
Warum nicht?

Mist Du hast Dich auf Quadros bezogen und ich dachte dummerweise an Teslas. Wenn GK104 mehr als 2 GPCs hat (welches am wahrscheinlichsten wohl doch so ist) dann hast Du natuerlich hoechstwahrscheinlich recht. So miserable binning yields wie GF100 wird GK110 hoffentlich nicht haben.

Gipsel
2012-01-09, 04:05:58
Mist Du hast Dich auf Quadros bezogen und ich dachte dummerweise an Teslas. Wenn GK104 mehr als 2 GPCs hat (welches am wahrscheinlichsten wohl doch so ist) dann hast Du natuerlich hoechstwahrscheinlich recht.Außerdem wird ja fast alles als Quadro verkauft, was nV überhaupt herstellt, auch die allerletzten Gurken.
GK104 wird natürlich auch dort verwendet werden. Und wenn sie die früher fertig haben als GK110, warum dann nicht vielleicht sogar damit anfangen?

Ailuros
2012-01-09, 04:21:14
Außerdem wird ja fast alles als Quadro verkauft, was nV überhaupt herstellt, auch die allerletzten Gurken.
GK104 wird natürlich auch dort verwendet werden. Und wenn sie die früher fertig haben als GK110, warum dann nicht vielleicht sogar damit anfangen?

Moeglich ist es schon. Kann aber auch sein dass sie das gesamte zukuenftige Quadro lineup fertig haben wollen bevor dem Kepler-Quadro launch.

Wenn sie GK104 frueh genug aus der Tuer bringen koennen und das bisherige Zeug stimmt mehr oder weniger, werden sie wohl schwer fuer einige Monate genug Verfuegbarkeit dafuer haben.

Bucklew
2012-01-09, 08:47:27
Warum nicht?
Weil es sinnvoller ist die kaputten GK110 teilaktiviert zu verkaufen, als GK104 nehmen zu müssen, die nach GeForce müssen. Oder zeigste mir gerade mal die Quadro mit GF104? ;)

Außerdem wird ja fast alles als Quadro verkauft, was nV überhaupt herstellt, auch die allerletzten Gurken.
Richtig ;)

Ailuros
2012-01-09, 10:42:06
Weil es sinnvoller ist die kaputten GK110 teilaktiviert zu verkaufen, als GK104 nehmen zu müssen, die nach GeForce müssen. Oder zeigste mir gerade mal die Quadro mit GF104? ;)

Ja aber etwas wie 256SP GF100 zu benutzen wenn es keine Notwendigkeit gibt, duerfte auch nicht die beste Idee sein. GF100 war problematisch ueberhaupt bei seinen binning yields, muss aber bei Kepler nicht so sein.

Anders wenn die schlechtesten bins vom GK110 nicht sagen wir mal unter 70% liegen was die Anzahl der operativen SMs pro chip betrifft, sollte es besser sein den um einiges kleineren und billigeren chip zu benutzen fuer das Segment wo man GK110/2 Einheiten braucht.

LovesuckZ
2012-01-09, 10:49:43
Ich glaube, die Folie ist ein bisschen untergangen:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=41655&stc=1&d=1326102256

Interessant ist hierbei 2009 zu 2011 und 2011 zu 2012.
So stieg die "Leistung" gewichtet anhand Füllrate, Rechenleistung und Bandbreite mit der GTX580 zur GTX285 um 52%.
Kepler soll dagegen um ca. 75% gegenüber der GTX580 zulegen. Hm, höre ich da etwa ca. 3,8 TFLOP/s SP? :D

Warum nicht?

Titan nutzt keine Quadros, sondern Teslas, die nach der gleichen "Roadmap" erst im fiskalischen Q3 (Ende Juli - Oktober) kommen sollen.

Äh und? Willst du damit behaupten, dass es die Fermi-Geforce Karten nicht im April 2010 zu kaufen gab? :confused:


Immerhin konnten die mit dem XK6-Upgrade bereits (zum geplanten Termin) eingebaut werden. Wann nV die Kepler-Teslas liefert, steht noch ein wenig in den Sternen, irgendwann in er zweiten Jahreshälfte ist das einzige, was sie bisher dazu sagen (die Anzahl steht übrigens offiziell immer noch nicht endgültig fest). Insofern verlassen die sich natürlich auf das Verprechen nVidias, die dann irgendwann liefern zu können. Mehr werden die im Moment auch nicht haben. :rolleyes:

Natürlich steht die Anzahl fest: Für jeden Node eine - irgendwas um 18.000 Stück. :rolleyes:
Achja, das ORNL-System hätte schon 2010 stehen soll. Und dank Bulldozer konnte Cray das Q4-Fiscal-Ergebnis korrigieren - um $100 Millionen nach unten, also knapp 30% des Umsatzes, weil AMD nicht liefern konnte. Die sind massiv davon abhängig ORNL und das andere System mit Kepler zu liefern. Die werden also bestimmt nicht nochmal einer Firma blind vertrauen.

Ja aber etwas wie 256SP GF100 zu benutzen wenn es keine Notwendigkeit gibt, duerfte auch nicht die beste Idee sein. GF100 war problematisch ueberhaupt bei seinen binning yields, muss aber bei Kepler nicht so sein.

Anders wenn die schlechtesten bins vom GK110 nicht sagen wir mal unter 70% liegen was die Anzahl der operativen SMs pro chip betrifft, sollte es besser sein den um einiges kleineren und billigeren chip zu benutzen fuer das Segment wo man GK110/2 Einheiten braucht.

nVidia verkauft deswegen solche Chips, um auch innerhalb von Quadro die Leistung abstufen zu können. Außerdem limitieren sie dort keine DP-Genauigkeit.

M4xw0lf
2012-01-09, 11:01:35
Interessant ist hierbei 2009 zu 2011 und 2011 zu 2012.
So stieg die "Leistung" gewichtet anhand Füllrate, Rechenleistung und Bandbreite mit der GTX580 zur GTX285 um 52%.
Kepler soll dagegen um ca. 75% gegenüber der GTX580 zulegen. Hm, höre ich da etwa ca. 3,8 TFLOP/s SP? :D


Da steht doch nicht mal welche Karten als Berechnungsgrundlage dienen, deswegen halte ich diese Folie für nur eingeschränkt informativ.

Ailuros
2012-01-09, 11:05:03
Kepler ist eben auch nicht die "typische" GPU chip Familie der Vergangenheit. Wenn es wirtschaftlicher sein sollte auch GK104 zu benutzen, spricht nichts dagegen da 104 um einiges frueher fertig ist als 110 und noch zusaetzlich die wafer yields die selbst beim GK110 launch um einiges besser sein werden.

Und ja natuerlich gab es im April GF100 zu kaufen; haette er aber seinen tape out in 12/09 (rein spekulativ) erreicht und 2 metal spins waeren auch absolut notwendig gewesen haettest Du die Dinger nie vor Juni kaufen kaufen koennen.

LovesuckZ
2012-01-09, 11:05:20
Da steht doch nicht mal welche Karten als Berechnungsgrundlage dienen, deswegen halte ich diese Folie für nur eingeschränkt informativ.

Da steht... Warte, nVidia vergleicht Kepler mit der GTX590? :eek:

Da 2011 gegenüber 2010 nur um 15% anstieg, können wir davon ausgehen, dass hier nur Single-GPUs gelten.

Aber freut mich, dass die ADF sich wieder in ein nVidia-Thread wagt. Wäre auch so schön, wenn man ohne euch Kumpels über nVidia reden könnte. :)


Und ja natuerlich gab es im April GF100 zu kaufen; haette er aber seinen tape out in 12/09 erreicht und 2 metal spins waeren auch absolut notwendig gewesen haettest Du die Dinger nie vor Juni kaufen kaufen koennen.

Und das hat mit GK100 was zu tun? GF100 benötigte einen zusätzlichen Metal-Spin für seine zwei. Wir wissen nichtmal, ob GK100 überhaupt einen benötigt.

Ailuros
2012-01-09, 11:11:48
Da steht doch nicht mal welche Karten als Berechnungsgrundlage dienen, deswegen halte ich diese Folie für nur eingeschränkt informativ.

Man kann es von der Vergangenheit schon einschaetzen.

D
Und das hat mit GK100 was zu tun? GF100 benötigte einen zusätzlichen Metal-Spin für seine zwei. Wir wissen nichtmal, ob GK100 überhaupt einen benötigt.

NV engineering behauptete damals dass A3 damals nicht ohne war aber auch keine absolute Notwendigkeit. Du weisst nichtmal wann GK110 seinen tape out hatte (auf jeden Fall etliche Monate nach GF100 im vergleichbaren Kalenderjahr) und ja eben das grosse Fragezeichen ist ob GK110 noch einen zumindest metal spin braucht.

Unter der Vorraussetzung dass A1 "good to go" ist, gilt April als realistisches Ziel noch wenn bei 28nm zu dem Zeitpunkt es auch erlaubt in wafer yields. Bei einem GK104 koennte ich es eventuell leicht glauben dass dem so ist; bei einem logischerweise um einiges groesserem chip hab ich so manche gerechtfertigte Vorbehalte.

boxleitnerb
2012-01-09, 11:14:16
Ich wage mal eine Zuordnung:

2005: 7800GTX
2006: 7900GTX
2007: 8800GTX (eigentlich Ende 2006)
2008: GTX280
2009: GTX285
2010: GTX480
2011: GTX580
2012: Kepler

Den großen Sprung von G80 vermisse ich da aber irgendwie?

V2.0
2012-01-09, 11:26:18
Ich denke, dass NV den Metallspin aber schon in Arbeit hätte, so dass sich die Zeit zwischen brauchbaren Waferyields und der Fertigstellung des A2 Spins überlagern würden. Ich bin mir inzwischen relativ sicher, dass alle Kepler der ersten Serie schon etwas länger ihre Tape-Outs hatten. Das Production-Ramp steht allerdings bei einigen noch aus.

Bucklew
2012-01-09, 11:56:04
Ja aber etwas wie 256SP GF100 zu benutzen wenn es keine Notwendigkeit gibt, duerfte auch nicht die beste Idee sein. GF100 war problematisch ueberhaupt bei seinen binning yields, muss aber bei Kepler nicht so sein.
Naja, es gab auch GT200-Quadros mit nur 192 Shader. Ok, 192/240 ist schon besser als 256/512, denk schenk ich dir ;D

Anders wenn die schlechtesten bins vom GK110 nicht sagen wir mal unter 70% liegen was die Anzahl der operativen SMs pro chip betrifft, sollte es besser sein den um einiges kleineren und billigeren chip zu benutzen fuer das Segment wo man GK110/2 Einheiten braucht.
Nein, nicht wirklich. Wenn du die Möglichkeit hast, die so kaputten Chips zu verbauen und nicht wegzuschmeißen und gleichzeitig die kleinen Chips für GeForce hast (und die GTX460 hat sich wie Scheiße verkauft), ist das deutlich besser. Besser als die kaputten wegzuschmeißen, dafür die kleinen CHips zu verkaufen und nachher keine Chips mehr für GeForce hat.

Gipsel
2012-01-09, 12:05:50
Weil es sinnvoller ist die kaputten GK110 teilaktiviert zu verkaufen, als GK104 nehmen zu müssen, die nach GeForce müssen. Oder zeigste mir gerade mal die Quadro mit GF104? ;)Die verkaufen aber Quadros mit GF106 und GF108. Ansonsten gilt natürlich auch das:
Wenn es wirtschaftlicher sein sollte auch GK104 zu benutzen, spricht nichts dagegen da 104 um einiges frueher fertig ist als 110 und noch zusaetzlich die wafer yields die selbst beim GK110 launch um einiges besser sein werden.


Äh und? Willst du damit behaupten, dass es die Fermi-Geforce Karten nicht im April 2010 zu kaufen gab? :confused:
WTF?
Nochmal zum mitmeißeln: Ich bezog mich auf die von nVidia für ihr fiskalisches Q2 2012 angekündigte Quadro-Kepler und für ihr fiskalisches Q3/12 angekündigten Quadro-Teslas. Keine Ahnung, was Du da jetzt schon wieder gelesen haben willst. :rolleyes:
Und dank Bulldozer konnte Cray das Q4-Fiscal-Ergebnis korrigieren - um $100 Millionen nach unten, also knapp 30% des Umsatzes, weil AMD nicht liefern konnte. Die sind massiv davon abhängig ORNL und das andere System mit Kepler zu liefern. Die werden also bestimmt nicht nochmal einer Firma blind vertrauen.Denen bleibt gar nichts anderes übrig, als die bisher auch keine Kepler-Tesla-Karte live gesehen haben und kennen nur schicke Präsentationen. Außerdem könnten sie gar nicht auf die Schnelle Karten von einem anderen Hersteller einbauen. Und das liegt nicht am fehlenden ECC bei AMD oder sonstwas (die Tahitis haben das alles), sondern weil die Nutzer rebellieren würden (Großteil der Software würde nicht mehr funktionieren).
Im Übrigen haben die im Q4/2011 die erste Hälfte der Anlage (mit BD) schon übergeben. Daß die ihre Umsätze korrigieren mußten, lag am insgesamt niedrigerem Umsatz mit den XK6. Und z.B. auch daran, daß das ORNL das Budget gekürzt bekommen hat (bzw. nicht alle Mittel bewilligt bekommen hat, je nachdem, wie Du das lesen willst) und deswegen den Titan nicht voll mit Kepler-Teslas bestücken wird. Die haben einfach nicht das Geld dazu.

Erst mit dem Nachfolger der XK6 löst sich Cray übrigens aus dem Vendor-LockIn für die CPUs. Dann wechseln die nämlich auf PCI-Express als Interconnect (bisher nutzen die HT). Du solltest Dir lieber Gedanken machen, fallls der (bereits bestehende) OpenCL-Support auf dem Titan ausgebaut wird, dann lösen die sich nämlich eventuell auch aus dem nV-Lock-In. ;)

Hades11
2012-01-09, 13:13:00
Der TDP ist lediglich meine eigene Spekulation; sonst hab ich mehr als nur einmal erwaehnt dass das Ding lediglich mit dem allererstem beta Treiber GF110+10% erreicht hat, aber das eigentliche Ziel +30% ist. Es handelt sich in solchen Faellen nicht um Wundertreiber, sondern es ist stets so dass der allererste Treiberversuch ohne jegliche Optimierungen etwas unter dem Ziel anschlaegt. Erreichbar ist es theoretisch schon; ob es wirklich so ist werden wir sehen.
Da du sehr viel zu wissen scheinst: ist mit GF110 auch wirklich die GTX 580 gemeint, oder die GTX570 (die ja meines wissens nach auch auf GF 110 basiert).
wenn man die GTX 570 meinen würde wäre das ein ziemlich fieser trick.

Hugo78
2012-01-09, 13:18:28
@Hades11

Nimm doch gleich die GTX 560Ti 448...

Knuddelbearli
2012-01-09, 13:35:58
was Hugo damit sagen will alle diese drei Karten sind GF 110 Karten

Bucklew
2012-01-09, 13:51:39
Die verkaufen aber Quadros mit GF106 und GF108. Ansonsten gilt natürlich auch das:
Die Karten sind ja auch jeweils Preispunkt und vorallem Kartengrößen (Kühler/Stromanschluß), die mit einem GF110 nicht erreichbar wären.

Gipsel
2012-01-09, 14:06:09
Die Karten sind ja auch jeweils Preispunkt und vorallem Kartengrößen (Kühler/Stromanschluß), die mit einem GF110 nicht erreichbar wären.
Das träfe für GK104 vs. GK110 wohl in einem gewissen Sinne auch zu. Gegen eine Maximierung der Marge sollte nV nicht einzuwenden haben, oder? ;)

Bucklew
2012-01-09, 14:08:37
Das träfe für GK104 vs. GK110 wohl in einem gewissen Sinne auch zu. Gegen eine Maximierung der Marge sollte nV nicht einzuwenden haben, oder? ;)
Die Maximierung war aber nunmal GF104 nach GeForce zu verticken und GF110 bei den mittleren Quadros einzubauen. Wies bei GK passt, mal sehen.

LovesuckZ
2012-01-09, 14:19:28
WTF?
Nochmal zum mitmeißeln: Ich bezog mich auf die von nVidia für ihr fiskalisches Q2 2012 angekündigte Quadro-Kepler und für ihr fiskalisches Q3/12 angekündigten Quadro-Teslas. Keine Ahnung, was Du da jetzt schon wieder gelesen haben willst. :rolleyes:

Ich ziehe die Parallele zu Fermi. Aber die ignorierst du, weil sie ja nicht in deine abstruse Argumentationskette passt.

Daher meine Frage: Wann konnte man GF100-Geforce-Karten kaufen?


Denen bleibt gar nichts anderes übrig, als die bisher auch keine Kepler-Tesla-Karte live gesehen haben und kennen nur schicke Präsentationen. Außerdem könnten sie gar nicht auf die Schnelle Karten von einem anderen Hersteller einbauen. Und das liegt nicht am fehlenden ECC bei AMD oder sonstwas (die Tahitis haben das alles), sondern weil die Nutzer rebellieren würden (Großteil der Software würde nicht mehr funktionieren).
Im Übrigen haben die im Q4/2011 die erste Hälfte der Anlage (mit BD) schon übergeben. Daß die ihre Umsätze korrigieren mußten, lag am insgesamt niedrigerem Umsatz mit den XK6. Und z.B. auch daran, daß das ORNL das Budget gekürzt bekommen hat (bzw. nicht alle Mittel bewilligt bekommen hat, je nachdem, wie Du das lesen willst) und deswegen den Titan nicht voll mit Kepler-Teslas bestücken wird. Die haben einfach nicht das Geld dazu.

Ihr niedriger Umsatz lag an der fehlenden Verfügbarkeit der CPUs. Musst du nicht glauben, aber wieso sollte Cray lügen? ;)

Und es werden alle Nodes mit Kepler-GPUs bestückt.


Erst mit dem Nachfolger der XK6 löst sich Cray übrigens aus dem Vendor-LockIn für die CPUs. Dann wechseln die nämlich auf PCI-Express als Interconnect (bisher nutzen die HT). Du solltest Dir lieber Gedanken machen, fallls der (bereits bestehende) OpenCL-Support auf dem Titan ausgebaut wird, dann lösen die sich nämlich eventuell auch aus dem nV-Lock-In. ;)

Unterstützt AMD schon OpenACC? :freak:
Und nVidia unterstützt kein OpenCL? Man, die Zeiten ändern sich aber auch immer so schnell. Verflucht aber auch.


NV engineering behauptete damals dass A3 damals nicht ohne war aber auch keine absolute Notwendigkeit. Du weisst nichtmal wann GK110 seinen tape out hatte (auf jeden Fall etliche Monate nach GF100 im vergleichbaren Kalenderjahr) und ja eben das grosse Fragezeichen ist ob GK110 noch einen zumindest metal spin braucht.

Unter der Vorraussetzung dass A1 "good to go" ist, gilt April als realistisches Ziel noch wenn bei 28nm zu dem Zeitpunkt es auch erlaubt in wafer yields. Bei einem GK104 koennte ich es eventuell leicht glauben dass dem so ist; bei einem logischerweise um einiges groesserem chip hab ich so manche gerechtfertigte Vorbehalte.

nVidia hat jede GPU nach GF100 mit A1 auf den Markt gebracht - auch GF110. Sie haben 2009/2010 massiv in den Ausbau der Tools investiert und laut Huang sei man wesentlich besser auf 28nm vorbereitet gewesen. Geht man davon aus, dass Klein-Kepler irgendwann im Juni sein Tape-Out hatte und im August Produktionsreif war, hätten sie genug Zeit um die Erfahrungen in GK100 einfließen zu lassen.

Huang hat im November nochmal bestätigt, dass der Forecast für das Fiscal-Year 2013, den er im September gab, bestehen bleibt. Und dort gab es die Roadmap mit den "Growth driver".

Das träfe für GK104 vs. GK110 wohl in einem gewissen Sinne auch zu. Gegen eine Maximierung der Marge sollte nV nicht einzuwenden haben, oder? ;)

Die Karten unterstützen DP und sind dafür da, die Desktop-Marge für den großen Chip zu ermöglichen. Es macht null Sinn den Mid-Range-Chip hier zu verkaufen.

Gipsel
2012-01-09, 16:57:49
Ich ziehe die Parallele zu Fermi. Aber die ignorierst du, weil sie ja nicht in deine abstruse Argumentationskette passt.Mir ist unklar (und im Übrigen auch egal), welche angeblichen Parallelen Du ziehst. Ich habe was zu Kepler gesagt, und keine Aussage zu den Fermis getroffen und mich dabei auf dies hier bezogen:
http://blog-imgs-17.fc2.com/k/i/s/kishinkannet/1_20110909045609.png

Diese Deine Frage
Daher meine Frage: Wann konnte man GF100-Geforce-Karten kaufen?ist deswegen in dem Zusammenhang vollkommen irrelevant.
Und es werden alle Nodes mit Kepler-GPUs bestückt.Vielleicht alle Blades. Aber es werden ziemlich sicher nicht alle Nodes (es gibt zwei pro Blade) bestückt. Ich würde sogar stark vermuten, daß nur ein Teil der Blades überhaupt GPUs bekommt. Der Grund ist wie gesagt, daß das ORNL nicht genügend Geld für Vollbestückung hat, wenn die nicht bis Mitte des Jahres noch einen Geldkoffer mit ein paar zehn Millionen Dollar drin finden.
Die werden also hinterher Nodes mit GPUs und welche ohne GPUs haben. Will man dort was rechnen, gibt man beim Submitten des Jobs einfach an, ob man GPUs verwenden kann oder nicht und bekommt dann entsprechend einen Satz passender Knoten zugeteilt.
Und nVidia unterstützt kein OpenCL? Man, die Zeiten ändern sich aber auch immer so schnell. Verflucht aber auch.
Du verstehst die Bedeutung eines Vendor Lock-Ins? Und die Gründe, warum das für einen Anbieter wie Cray auf Dauer nicht gut ist?
Die Karten unterstützen DP und sind dafür da, die Desktop-Marge für den großen Chip zu ermöglichen. Es macht null Sinn den Mid-Range-Chip hier zu verkaufen.
Und wieso verkaufen sie Lowend auch als Quadros? Die unterstützen übrigens auch DP, nur eben langsamer.

boxleitnerb
2012-01-09, 19:22:54
Aus dem HardOCP Forum:

The conference will start at 4:00pm PST, 7:00pm EST. I will link to any sites that will be streaming it.
Maybe we'll finally get some solid Kepler info :p

Nvidia - http://www.nvidia.com/object/ces2012.html
Cnet - http://cnettv.cnet.com/# - All Streams

At CES 2012, NVIDIA® will be showcasing its Tegra®, GeForce®, and 3D Vision™ product families, as well as previewing some very cool in-vehicle navigation and infotainment systems. You can also check out the hottest PC games and applications, stunning photography, and HD video in 3D.

Hoffen wir mal, dass da irgendwas mit Kepler bei ist.

AnarchX
2012-01-09, 19:24:37
Die Bühne ist für mobile Applikationen vorbereitet - von einer Grafikkarte fehlt zurzeit noch jede Spur. Und auch Quellen aus der Industrie sind nicht gerade zuversichtlich, dass Nvidia auf der CES noch etwas zu Kepler verlauten lässt.
http://www.pcgameshardware.de/aid,863006/CES-2012-Zeigt-Nvidia-morgen-Kepler-Wohl-nicht-Geruecht-des-Tages/Grafikkarte/News/

boxleitnerb
2012-01-09, 19:27:11
Das wäre nur dann verständlich, wenn man innerhalb von 6 Wochen einen überraschenden Hardlaunch hinlegt. Ansonsten würde ich fast sagen "Chance verpasst".

LovesuckZ
2012-01-09, 19:30:24
Ich erwarte Teaser in Richtung Perf/watt und was man damit alles im PC/Laptop-Markt alles machen kann.

Ansonsten: Überraschungen sind doch viel besser als Vorankündigungen.

Hugo78
2012-01-09, 19:30:54
Das wäre jetzt Mittwoch morgen um 4 Uhr bei uns?!

edit ... 1Uhr am Mittwoch.

boxleitnerb
2012-01-09, 19:31:42
Hoffentlich sagen sie dann auch bei was. HPC, Spiele...dass sie das bedeutend steigern wollen, wissen wir ja schon. Konkretere Infos wären langsam mal schön.

OgrEGT
2012-01-09, 19:31:50
Aus dem HardOCP Forum:
Hoffen wir mal, dass da irgendwas mit Kepler bei ist.

Was sollten Sie sonst an neuen GeForces zeigen :freak:
Aufgewärmte Mobile Chips der alten Serie interessieren doch niemand auf der CES...

LovesuckZ
2012-01-09, 19:32:24
Das wäre jetzt Mittwoch morgen um 4 Uhr bei uns?!

Nicht ganz. :D

Fängt in 5 1/2h an.

Hugo78
2012-01-09, 19:35:11
Nicht ganz. :D

Fängt in 5 1/2h an.

Ach die fangen doch schon Heute (Mo. für Amis) an.
Dachte das geht erst morgen los. OK ;D

Ronny145
2012-01-09, 19:36:13
Wenn auf der CES nichts Neues in Erfahrung gebracht werden kann, zweifle ich an einen baldigen release von GK104. Nachdem AMD inzwischen ihr Flaggschiff an den Mann bringt, wäre ein Lebenszeichen von Kepler für die potenzielle Kundschaft sicher nicht verkehrt - solange der launch nicht allzu weit entfernt liegt.

boxleitnerb
2012-01-09, 19:37:21
Was sollten Sie sonst an neuen GeForces zeigen :freak:
Aufgewärmte Mobile Chips der alten Serie interessieren doch niemand auf der CES...

Das klingt aber nach öffentlicher Vorstellung. Und daran glaub ich irgendwie nicht. Lasse mich aber überraschen.

OgrEGT
2012-01-09, 19:45:05
Das klingt aber nach öffentlicher Vorstellung. Und daran glaub ich irgendwie nicht. Lasse mich aber überraschen.

Eine detaillierte Präsentation zur Architektur inkl. neuer Features und einige Leistungsprognosen wären doch schon mal was. Ein Zeitplan bis hin zum Lauch wäre auch nicht verkehrt.

LovesuckZ
2012-01-09, 19:45:58
Eine detaillierte Präsentation zur Architektur inkl. neuer Features und einige Leistungsprognosen wären doch schon mal was. Ein Zeitplan bis hin zum Lauch wäre auch nicht verkehrt.

Sowas wirst du bestimmt nicht sehen.

OgrEGT
2012-01-09, 19:48:27
Sowas wirst du bestimmt nicht sehen.

Was werden wir höchstwahrscheinlich Deiner Meinung nach sehen? GTX580 Triple SLI oder zum x-ten mal 3D Vision oder den Betrieb von 3 Monitoren an 2 Grakas.... Gähn, wie spannend. Dann brauchen sie ehrlich gesagt gar keine Präsentation zu GeForce zeigen.

AnarchX
2012-01-09, 19:49:41
Vielleicht gibt es ja 3 Benchmark-Balken, wo man vor der 7970 liegt, zusammen mit einer "$299".:D

LovesuckZ
2012-01-09, 19:49:45
Das ist keine Geforce-Präsentation. 2010 haben sie nur kurz auf Fermi hingewiesen.

AnarchX
2012-01-09, 19:52:16
Das ist keine Geforce-Präsentation. 2010 haben sie nur kurz auf Fermi hingewiesen.
8 Tage später gab es dann das GF100-Preview.

HPVD
2012-01-09, 21:00:38
obr ist wieder aktiv:

GK104:
576 cuda cores
96 texture units
48 ROPs
905MHz core clock
4800Mhz memory clock
384-bit memory bus with
1536MB frame buffer size
2,0 TFLOPS aritmetic performance
12 geometry engines
220W TPD

launch date: sooner than you thought

http://www.obr-hardware.com/2012/01/exclusive-28nm-geforce-specs.html

boxleitnerb
2012-01-09, 21:06:33
Das wäre komisch. Wieder Hotclock, viel TDP und der 384bit-Bus für einen Performance-Chip...

dildo4u
2012-01-09, 21:10:17
Vermutlich kommt noch eine 760 ohne TI mit 180Watt,schätze mal man nutzt das Max vom Board um zumindest was gegen die 7950 zu haben.

boxleitnerb
2012-01-09, 21:14:20
Die Performanceprognose passt für GK104, aber die TDP ist echt zu hoch nach dem ganzen Effizienzgerede.
Weiterhin:
Wenn die Shader so bleiben, wo zum Geier geht die ganze Rohleistung hin (Füllrate)?

Duplex
2012-01-09, 21:15:29
Das wäre komisch. Wieder Hotclock, viel TDP und der 384bit-Bus für einen Performance-Chip...
Die 7970 ist auch ein Performance Chip und hat ein 384 Bit SI...

LovesuckZ
2012-01-09, 21:25:50
Die Performanceprognose passt für GK104, aber die TDP ist echt zu hoch nach dem ganzen Effizienzgerede.
Weiterhin:
Wenn die Shader so bleiben, wo zum Geier geht die ganze Rohleistung hin (Füllrate)?

Stell dir die Frage doch mal bei GF114. :D

Nakai
2012-01-09, 21:25:56
obr ist wieder aktiv:

GK104:
576 cuda cores
96 texture units
48 ROPs
905MHz core clock
4800Mhz memory clock
384-bit memory bus with
1536MB frame buffer size
2,0 TFLOPS aritmetic performance
12 geometry engines
220W TPD

launch date: sooner than you thought

http://www.obr-hardware.com/2012/01/exclusive-28nm-geforce-specs.html

Könnte hinkommen...aber dann hat man die CUDA-Cores vergrößert...

€: 576 * 4 * 0,905 = 2085

1152 SPs würde man rausbekommen, wenn je CUDA-Core 2 Slots verfügbar sind. Würde auch zu den Gerüchten, mit den hohen SP-Zahlen, passen.

boxleitnerb
2012-01-09, 21:29:04
Stell dir die Frage doch mal bei GF114. :D

Jo, da haste schon Recht. Ich als Laie frage mich nur, warum man dann überhaupt soviele Einheiten verbaut, wenn sie augenscheinlich wenig bringen. Und ja, bei AMD frage ich mich dasselbe dann auch ;)

War im Übrigen nicht sowohl auf der 4gamers Roadmap und von Ailuros die Rede von "well over 2 TF"? Taktziel verfehlt?

Edit:
Rufen wir uns nochmal die ältesten kolpotierten Specs in Erinnerung.
http://www.abload.de/img/kepler5eldu.png (http://www.abload.de/image.php?img=kepler5eldu.png)

Würde halbwegs passen bis auf Takt, TDP und Preis. Vielleicht hat OBR die Tabelle gefunden und einfach nochmal wiedergekäut?

y33H@
2012-01-09, 21:32:29
Das wäre komisch. Wieder Hotclock, viel TDP und der 384bit-Bus für einen Performance-Chip...Da steht nichts von Hotclock, beim SI ist ein Fragezeichen (es sind IMO 256 Bit) und die TDP ist leicht über der HD 7970 - so wie die Performance :biggrin:

LovesuckZ
2012-01-09, 21:32:46
Jo, da haste schon Recht. Ich als Laie frage mich nur, warum man dann überhaupt soviele Einheiten verbaut, wenn sie augenscheinlich wenig bringen. Und ja, bei AMD frage ich mich dasselbe dann auch ;)

Nunja, ein halber GF110 wäre nicht wirklich schnell. ;)
Die SM werden 25% größer, dafür bekommt man 50% mehr Rechenleistung und 100% mehr Texturfüllrate.

Mal sehen, 220 Watt - selbst als Furmark-Approved - wäre enttäuschend.

Nakai
2012-01-09, 21:33:07
War im Übrigen nicht sowohl auf der 4gamers Roadmap und von Ailuros die Rede von "well over 2 TF"? Taktziel verfehlt?


Naja, denke ich nicht. Eher aktiviert NV wieder mal nicht alle Einheiten. Vll kommt später eine bessere Version mit 640SPs und 1GHz Takt oder so.

Ailuros
2012-01-09, 21:36:39
obr ist wieder aktiv:

GK104:
576 cuda cores
96 texture units
48 ROPs
905MHz core clock
4800Mhz memory clock
384-bit memory bus with
1536MB frame buffer size
2,0 TFLOPS aritmetic performance
12 geometry engines
220W TPD

launch date: sooner than you thought

http://www.obr-hardware.com/2012/01/exclusive-28nm-geforce-specs.html

Das Zeug ist falsch, eben weil kein XDR2 Speicher erwaehnt wird :biggrin:

Das wäre komisch. Wieder Hotclock, viel TDP und der 384bit-Bus für einen Performance-Chip...

Das Feld fuer shader clock ist leer in OBR's Tabelle.

boxleitnerb
2012-01-09, 21:37:49
Da steht nichts von Hotclock, beim SI ist ein Fragezeichen (es sind IMO 256 Bit) und die TDP ist leicht über der HD 7970 - so wie die Performance :biggrin:

Ne ich meine Ailuros deutete ja darauf hin, dass man den Hotclock fallengelassen haben könnte. Bei 10-15% über der 580 ist man nicht über der 7970...oder weißt du was, was wir nicht wissen?

Was meint ihr mit "die SM werden größer"? Dicker, können mehr Berechnungen pro Takt anstellen als die alten Einheiten (4 statt 2)?


Das Feld fuer shader clock ist leer in OBR's Tabelle.

Glatt übersehen.

LovesuckZ
2012-01-09, 21:42:00
Was meint ihr mit "die SM werden größer"? Dicker, können mehr Berechnungen pro Takt anstellen als die alten Einheiten?

Naja, wenn SM "dicker" werden, dann haben sie mehr Einheiten. Die Frage muss eher lauten, kann nVidia mehr "Data-work" pro Unit pro Datenverkehr gegenüber Fermi erreichen.

Durch Fermi wissen wir, dass nVidia sehr radikal ihre Architektur ändert, wenn sie "Optimierungspotential" sehen. Bei den Recheneinheiten kann wirklich alles rauskommen: Von gleich bis abgespact. :freak:

Ailuros
2012-01-09, 21:44:47
nVidia hat jede GPU nach GF100 mit A1 auf den Markt gebracht - auch GF110. Sie haben 2009/2010 massiv in den Ausbau der Tools investiert und laut Huang sei man wesentlich besser auf 28nm vorbereitet gewesen. Geht man davon aus, dass Klein-Kepler irgendwann im Juni sein Tape-Out hatte und im August Produktionsreif war, hätten sie genug Zeit um die Erfahrungen in GK100 einfließen zu lassen.

Huang hat im November nochmal bestätigt, dass der Forecast für das Fiscal-Year 2013, den er im September gab, bestehen bleibt. Und dort gab es die Roadmap mit den "Growth driver".

Ja und? Es koennte durchaus sein dass GK104 auch mit A1 aufs Laufband kommt. Es ist aber trotz allem diametrisch schwieriger einen um X% komplizierteren chip bei einem nagelneuen und nicht gerade superreifen Herstellungsprozess mit dem ersten Schwung voll auf Trab zu bringen. Ich bekam ein stinknormales "OK" fuer 110 nach seinem tape out, was aber auch nicht so eindeutig ist wie Du Dir es immer vorstellen willst. Wenn der 110 nicht in die Produktion geht und auch dort alles nach Plan laeuft will ich mir noch ueber gar nichts sicher sein.

Und nochmal es ist Huang's eigentlicher "Job" etwas mehr Mist zu erzaehlen wenn der Tag lang ist. Was anderes erwartet man auch nicht von ihm.

Man From Atlantis
2012-01-09, 21:48:07
OBR simply talks about what did no-x say a year ago

http://forum.beyond3d.com/showpost.php?p=1470740&postcount=6613

OgrEGT
2012-01-09, 21:52:35
Das Zeug ist falsch, eben weil kein XDR2 Speicher erwaehnt wird :biggrin:

Das Feld fuer shader clock ist leer in OBR's Tabelle.

Das wären dann 3 GPC's mit 4 SM's zu je 48 Cuda Cores? Bei Fermi warens 32?

y33H@
2012-01-09, 21:54:34
... oder weißt du was, was wir nicht wissen?Ich habe kein NDA unterzeichnet und meine Quellen sind aktuell was GK1xx anbelangt ziemlich still. Ich habe nur Februar/März gehört, aber das auch nur in Andeutungen - also entweder ist's unklar oder strenger Maulkorb (wie bei GF110), kA.

LovesuckZ
2012-01-09, 21:54:46
GF1x0 hatte 2 Vec16 Einheiten, GF1xx hatte 3 Vec16 Einheiten

AnarchX
2012-01-09, 22:25:22
GTX für jeden!? - GTX 660/GTX 630

Shifting gears to towers, the IdeaCentre K430 is aimed at gamers and other users of the powerful sort, with room for up to 32GB of DDR3 memory and either a 128GB SSD or as much as 4TB in HDD storage, with optional twin hard drives arranged in a RAID0 configuration. And, unlike with Lenovo's more mainstream desktops, you'll get a choice of graphics: a 2GB NVIDIA GeForce GTX660 or, from AMD's camp, a 2GB Radeon HD 7750. Don't need that much muscle? The H520 tower has a compact shape and still accommodates up to 2TB of storage space and 8GB of RAm, along with either a 2GB AMD Radeon HD7570 or a 2GB GeForce GTX630 card. Expect the K430 to arrive in May for $599, and the H520s to follow in June for $499 and up.
http://www.engadget.com/2012/01/08/lenovo-ideacentre-b340-b540-h520s-k430/

M4xw0lf
2012-01-09, 22:32:32
GTX für jeden!? - GTX 660/GTX 630

http://www.engadget.com/2012/01/08/lenovo-ideacentre-b340-b540-h520s-k430/

Rebrands, bis auf die 7750?
Die 75xx werden auf jeden Fall welche.

AnarchX
2012-01-09, 22:39:06
Unbedingt würde ich davon nicht ausgehen.

Seltsamerweise nennt die Presse-Meldung die Desktop-Karten aber nicht. :|

Dafür aber:
IdeaPad Y480 and Y580 - Laptops for Ultimate Entertainment[...]
featuring up to NVIDIA® GeForce® GTX660M 2GB GDDR5 graphics.

IdeaPad Z580, Z480, Z380 - Stylish and Colorful Laptops[...]
and up to NVIDIA® GeForce® GT640M 2GB

IdeaCentre B540 and B340 - High-Performance Touchscreen AIOs[...]
up to NVIDIA GeForce® GT 650M 2GB


Das sollten alles GK107-Lösungen sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209

http://www.blogcdn.com/www.engadget.com/media/2012/01/ces2012k43012.jpg
http://www.engadget.com/photos/responses-for-you-this-post-is-locked-and-can-only-be-edited-by-the-author-or-blog-owner-lenovo-outs-ideacentre-b340-and-b540-al/#4723210

NVs Eyefinity?

Vielleicht spielt jemand in den nächsten Tage noch etwas intensiver mit den Lenovo-Geräten herum und schaut mal in den Geräte-Manager. ;)

LovesuckZ
2012-01-09, 22:59:52
Können auch die AMD Karten sein, die dort verbaut sind.

Hugo78
2012-01-09, 23:00:16
NVs Eyefinity?

Na hoffentlich! =)

AwesomeSauce
2012-01-09, 23:00:53
Damit dürften wenigstens die Namen (GTX 6xx) offiziell sein. Nicht, dass es irgendeine Bedeutung hätte...

Blediator16
2012-01-09, 23:27:12
NVs Eyefinity?

Vielleicht spielt jemand in den nächsten Tage noch etwas intensiver mit den Lenovo-Geräten herum und schaut mal in den Geräte-Manager. ;)

Shifting gears to towers, the IdeaCentre K430 is aimed at gamers and other users of the powerful sort, with room for up to 32GB of DDR3 memory and either a 128GB SSD or as much as 4TB in HDD storage, with optional twin hard drives arranged in a RAID0 configuration. And, unlike with Lenovo's more mainstream desktops, you'll get a choice of graphics: a 2GB NVIDIA GeForce GTX660 or, from AMD's camp, a 2GB Radeon HD 7750. Don't need that much muscle? The H520 tower has a compact shape and still accommodates up to 2TB of storage space and 8GB of RAm, along with either a 2GB AMD Radeon HD7570 or a 2GB GeForce GTX630 card. Expect the K430 to arrive in May for $599, and the H520s to follow in June for $499 and up.

Könnte, wie LZ sagte, auch eine AMD sein.

LovesuckZ
2012-01-10, 00:04:15
fatal1ty Johnathan Wendel
CEO of nVidia Jen-Hsun invited me to be apart of his Press Conference today at CES! Going to play a couple games. 4-5pm.


Ähm, wenn fatal1ty nicht auf Mobile-Gaming umgesattel hat, gib's vielleicht doch Kepler?!

Blediator16
2012-01-10, 00:12:23
Gibts einen Livestream von der PK?

boxleitnerb
2012-01-10, 00:17:11
http://ces.cnet.com/8301-33363_1-57354748/join-us-for-nvidias-ces-2012-press-conference-monday-4pm-pt/

Tegra 3, Tegra 3, Cars...gute Nacht :(

Skysnake
2012-01-10, 01:08:57
Tja, das wars dann wohl mit Kepler.

Wenn er wirklich nicht noch am Ende die Katze (omg welches Wortspiel ;D) aus dem Sack lässt, dann ist das wirklich sehr enttäuschend.

Vor allem, wann wollen Sie denn dann was sagen, wenn nicht zur CES???

CeBIT wäre das nächste, was mit einfält.

AwesomeSauce
2012-01-10, 01:11:20
Eins muss man ihm lassen: der Typ kann Präsentationen halten. Nichts abgelesen, im Gegensatz zu den Samsung-Typen.

LovesuckZ
2012-01-10, 01:16:31
Ja, Huang ist klasse darin. Ich hab heute den ganzen Tag die anderen Keynotes gesehen und mein Gott - das war so langweilig.

y33H@
2012-01-10, 01:18:52
Er macht halt immer Show - und wenn es ein Mockup ist :biggrin:

boxleitnerb
2012-01-10, 01:20:00
Das Thema ist trotzdem grad irgendwie langweilig :(

AwesomeSauce
2012-01-10, 01:20:20
Verdammt OT: Ich habe Android noch nie so flüssig gesehen:eek:

Hugo78
2012-01-10, 01:22:04
Wenigstens spielt Jensen selber und hat da kein Video. :D

edit: Fatal1ty spielt Tablet + Controller *lol*

Lyka
2012-01-10, 01:24:20
Wenigstens spielt Jensen selber und hat da kein Video. :D

dies war auch mein Gedanke X-D

LovesuckZ
2012-01-10, 01:25:51
Ich muss sagen: Da schafft sich Intel ab, um Touchscreen und Ultrabooks interessant zu machen und dann werden sie von ARM und Android einfach weggerotzt.

Wozu braucht man eigentlich noch Windows?

/edit: Yeah Splashtop. Mein Gott, nVidia promotet Android fast schon heftiger als Google.

boxleitnerb
2012-01-10, 01:26:02
Btw gabs den Gedanken schonmal?

Tablets ersetzen Konsolen, man kann zum TV streamen, man kann sie mitnehmen und unterwegs mit Freunden spielen. Kommt mir grad so, wenn ich das sehe.

y33H@
2012-01-10, 01:26:54
Waaah, er hat Geforce gesagt und ... kein Kepler -.-

Skysnake
2012-01-10, 01:27:00
Ja, Huang ist klasse darin. Ich hab heute den ganzen Tag die anderen Keynotes gesehen und mein Gott - das war so langweilig.

Also er reist sich da grad auch kein Bein aus. :freak:

Sorry, aber man könnte denken, die Halle ist leer, so still wie es ist. Kein Vergleich mit anderen Vorstellungen.

Keine Ahnung, ob das jetzt gespannte Erwartung ist, oder ob die Leute einfach nur geschockt dasitzen und sich fragen "WTF das wars jetzt oder was??? :ugly:"

Tja und das wars dann auch mit Fatal1ty :uclap:

Ich hätte es echt NICHT erwartet, das der wirklich für Tegra kommt. Also da müssen die echt was springen gelassen haben. Ich mein Hallo???

Das ist doch nicht deren ernst. Vor allem, das passt gar nicht zu dem...

EDIT:

Ok jetzt wirds bischen cool. Der Switch zwischen Android und Windows ist schon sehr verblüffend, nur läuft windows nicht ;D (Ist das nicht irgendwie immer so auf den Presentationen?)

Er promottet also auch krätig windows für ARM. Die schenken sich da also nichts.

EDIT2:
Und gleich zeigt er steam :rolleyes:

Lyka
2012-01-10, 01:31:53
aaah, Skyrim :D

AwesomeSauce
2012-01-10, 01:31:56
Spielt der da Skyrim?:freak:

Blediator16
2012-01-10, 01:33:27
Bist jetzt sieht es eher nach einer Andoid PK aus.

LovesuckZ
2012-01-10, 01:33:59
"It's not a video, right?"

Ha, Splashtop ist so awesome. "The Future is now".

Skysnake
2012-01-10, 01:35:49
Ja so toll, ich kann mir kaum etwas besseres vorstellen:ulol:

boxleitnerb
2012-01-10, 01:36:09
Ja so toll, ich kann mir kaum etwas besseres vorstellen:ulol:

Geh doch einfach schlafen :P

LovesuckZ
2012-01-10, 01:36:41
Ja so toll, ich kann mir kaum etwas besseres vorstellen:ulol:

Mein Gott. Kannst du uns nicht einfach in Ruhe lassen? Mich interessierts. Wenn es dich nicht interessiert: Das rote X ist der Schließknopf.

Lyka
2012-01-10, 01:42:11
249 USD == 299 Euro (vermutlich) -.-

LovesuckZ
2012-01-10, 01:43:16
249 USD == 299 Euro (vermutlich) -.-

Na, 249€.

AwesomeSauce
2012-01-10, 01:43:27
Das könnte wirklich als Google PK durchgehen:freak:

Lyka
2012-01-10, 01:43:47
das war schon mein erster Gedanke, aber man weiss ja nie -.-' ich bin da noch ein wenig paranoid. Das System wäre schon kaufbar :D

Skysnake
2012-01-10, 01:44:00
Dann drück ihn doch ;)

Die 249$ sind schon beeindruckend, wobei mir jetzt nicht klar ist, was das Ding alles kann, aber mit dem Tegra3 sollte da einiges/alles gehen.

Nicht schlecht her specht. Die Dinger sind ja normal nicht gerade billig. Eventuell bricht jetzt mal wirklich endlich ein richtiger Preiskrieg los. Meine Freundin will ein neues Handy dieses Jahr. Das würde ihr glaub ich echt gut stehen, wobei es ziemlich! groß ist :ugly:

Ich glaub die bekommt dann eher mein Samsung :biggrin:

LovesuckZ
2012-01-10, 01:44:25
Das könnte wirklich als Google PK durchgehen:freak:

nVidia ist angewiesen, dass Android abhebt. Je besser Android, umso besser Tegra.

Gipsel
2012-01-10, 01:47:37
obr ist wieder aktiv:

GK104:
576 cuda cores
96 texture units
48 ROPs
905MHz core clock
4800Mhz memory clock
384-bit memory bus with
1536MB frame buffer size
2,0 TFLOPS aritmetic performance
12 geometry engines
220W TPD

launch date: sooner than you thought

http://www.obr-hardware.com/2012/01/exclusive-28nm-geforce-specs.html
Das wäre wohl eher eine Art GF112 mit Shrink auf 28nm oder sowas, also grob ein GF110 mit SMs im GF104/114 Stil. :rolleyes:

AwesomeSauce
2012-01-10, 01:48:26
Direct Touch wird dann wohl Standard werden, finde ich fantastisch. Eine Ursache für Touch-Lag weniger...

LovesuckZ
2012-01-10, 01:49:24
Jetzt weiß ich auch, warum mein Prime sich bzgl. Touch um ein vielfaches besser anfühlt als das erste Transformer...

AwesomeSauce
2012-01-10, 01:51:35
Verdammt OT: Ich habe Android noch nie so flüssig gesehen:eek:
Jetzt weiss ich auch wieso:D

Screemer
2012-01-10, 01:57:39
nichts. nada. nothing.

ot: müssen die panels/digitizer für direct toch und die höhere sampling rate eigentlich was besonderes können bzw. was hat tegra damit zu tuN?

boxleitnerb
2012-01-10, 01:58:47
Vielleicht leakt ja was von einer geschlossenen Vorstellung in den nächsten Tagen.

Skysnake
2012-01-10, 02:04:07
Ich kanns echt kaum glauben :ugly:

Nicht EIN Wort zu Kepler oder auch nur GeForce. :ugly:

Oder hab ich was überhört? WTF? Das ist die CES, AMD hat ihre Karten in den Regalen, und die machen was?

NICHTS, rein gar nichts. Ich bin etwas geschockt.

Da kann man echt nur auf die Präsentationen hinter verschlossener Tür hoffen, aber wenn die gar nichts sagen, dann wird da sicherlich ziemlich den Leuten auf die Finger geschaut. Ich glaub eher nicht, das da groß was kommt.

Daher nochmals die Frage, was wäre denn die nächste sinnvolle Möglichkeit für ne Präsentation? Mir fällt wie gesagt nur CeBIT ein, wobei das noch ziemlich hin ist. :(

LovesuckZ
2012-01-10, 02:06:42
Mein Gott. nVidia hat in den letzten Jahren kaum etwas über Grafikkarten gesagt. Genau wie 2010 Tegra 2 steht dieses Jahr eben Tegra 3 im Mittelpunkt. Leb damit. Und am besten tu es in anderen Threads. Du bist einfach nur nervig.

Man sollte das hier in den Tegra Thread splitten.

nichts. nada. nothing.

ot: müssen die panels/digitizer für direct toch und die höhere sampling rate eigentlich was besonderes können bzw. was hat tegra damit zu tuN?

Das ganze läuft über den 5. Low-Power Kern. Dadurch hat man angeblich mehr Rechenleistung als mit den erhältlichen Touchprozessen.

Skysnake
2012-01-10, 02:12:08
Wer im Glashaus sitzt, sollte nicht mit Steinen werfen ;)

BTT:
Dann kann man aber den 5.ten Core nicht abschalten. Wurde das bisher nicht so prpagiert, das dies möglich sei?

Man spart aber wohl einen extra Chip, was den Produktionskosten zugute kommt.

LovesuckZ
2012-01-10, 02:16:44
BTT:
Dann kann man aber den 5.ten Core nicht abschalten. Wurde das bisher nicht so prpagiert, das dies möglich sei?

Man spart aber wohl einen extra Chip, was den Produktionskosten zugute kommt.

Er schaltet sich ab, wenn keine Touch-Prozesse laufen. Viel interessanter ist, dass der 5. Kern gleichzeitig laufen kann...

Skysnake
2012-01-10, 02:21:30
Was soll daran interessant sein?

Bis jetzt ging man halt von einer reinen Stromsparfunktion aus, wo variabel zwischen den Cores umgeschaltet wird. Jetzt läuft der kleine halt immer durch.

Ich hab dafür keinen Hinweis, das er sich, sofern kein Touch-"Prozess" läuft abschalten könnte. Dann würde nämlich gar kein Core mehr laufen im Extremfall.

LovesuckZ
2012-01-10, 02:26:46
Was soll daran interessant sein?

Bis jetzt ging man halt von einer reinen Stromsparfunktion aus, wo variabel zwischen den Cores umgeschaltet wird. Jetzt läuft der kleine halt immer durch.

Ich hab dafür keinen Hinweis, das er sich, sofern kein Touch-"Prozess" läuft abschalten könnte. Dann würde nämlich gar kein Core mehr laufen im Extremfall.

Das ist ein Thema für den Tegra Thread.

HarryHirsch
2012-01-10, 02:35:59
Ich kanns echt kaum glauben :ugly:

Nicht EIN Wort zu Kepler oder auch nur GeForce. :ugly:

Oder hab ich was überhört? WTF? Das ist die CES, AMD hat ihre Karten in den Regalen, und die machen was?

NICHTS, rein gar nichts. Ich bin etwas geschockt.

Da kann man echt nur auf die Präsentationen hinter verschlossener Tür hoffen, aber wenn die gar nichts sagen, dann wird da sicherlich ziemlich den Leuten auf die Finger geschaut. Ich glaub eher nicht, das da groß was kommt.

Daher nochmals die Frage, was wäre denn die nächste sinnvolle Möglichkeit für ne Präsentation? Mir fällt wie gesagt nur CeBIT ein, wobei das noch ziemlich hin ist. :(

Ich hab ja auch gehofft das da was kommt.
Ist die Frage ob das jetzt gut ist oder nicht.

LovesuckZ
2012-01-10, 02:39:45
Ich hab ja auch gehofft das da was kommt.
Ist die Frage ob das jetzt gut ist oder nicht.

Bist du optimistisch: Keine Ankündigung -> Überraschung -> Trollface
Bist du pessimistisch: Keine Ankündigung -> Nichts fertig -> Sadface

Fermi haben sie auch nur erwähnt und dann im Booth eine Demo mit Rocketslide gehabt. Aber Fermi war zu dem Zeitpunkt schon bekannt.

Screemer
2012-01-10, 03:44:42
Lief die rocketslide demo nicht auf nem 285er sli gespann?

mapel110
2012-01-10, 03:51:48
Wenn nvidia intern eine DX10-Version ohne Tessellation von der Demo hat, wäre das denkbar...

LovesuckZ
2012-01-10, 03:56:34
Lief die rocketslide demo nicht auf nem 285er sli gespann?

Nein: http://www.youtube.com/watch?v=6RdIrY6NYrM

Screemer
2012-01-10, 03:58:38
Hatte ich wohl falsch im Kopf. Hab ich kurz nach meinem Post gemerkt. Sorry. Die Demo hatte mich wohl nicht genug beeindruckt. ;)

Hübie
2012-01-10, 06:33:15
obr ist wieder aktiv:

GK104:
576 cuda cores
96 texture units
48 ROPs
905MHz core clock
4800Mhz memory clock
384-bit memory bus with
1536MB frame buffer size
2,0 TFLOPS aritmetic performance
12 geometry engines
220W TPD

launch date: sooner than you thought

http://www.obr-hardware.com/2012/01/exclusive-28nm-geforce-specs.html


Unabhängig davon ob das nun stimmt oder nicht steht da unten noch

PS. Launch is sooner than you (and me) thought ... :) :freak:

WENN das stimmt würde es erklären warum man auf der CES nix zeigt. Geht die CES nicht bis Mittwoch? Dann haben wa doch noch 2 Tage Zeit :tongue:

Ich finde die propagierten 220 Watt nicht schlecht, da die Leistung im GTX 580-Bereich liegt läge welche bekanntlich mehr Richtung 300 Watt marschiert. Und davon abgesehen wird Energie nur umgewandelt - sprich ich muss die Heizung im Zimmer nicht aufdrehen ;D

V2.0
2012-01-10, 07:29:14
Das wäre wohl eher eine Art GF112 mit Shrink auf 28nm oder sowas, also grob ein GF110 mit SMs im GF104/114 Stil. :rolleyes:
Oder einfach falsche Daten. :)

Dural
2012-01-10, 10:05:54
also doch immer noch hot clocks...

mapel110
2012-01-10, 10:14:01
Könnte auch sein. Warum auch nicht, wenn nvidia wirklich intern GF110 auf 28nm geshrinkt hat und festgestellt hat, dass noch eine ordentliche Steigerung mit Hotclock drin ist.

boxleitnerb
2012-01-10, 10:15:52
Dieses n/a beim Shadertakt kann ja auch für not available stehen. Also nicht, dass OBR es nicht weiß, sondern dass es keinen Hotclock gibt. Das würde zu den ein paar Seiten vorher spekulierten dickeren CUDA Cores mit mehr Ausführungseinheiten sprechen.

Das erinnert mich alles an G80. Die Verwirrung war schon lange nicht mehr so groß. Wir haben ja gleich drei Möglichkeiten:
a) Weiterhin Hotclock, x1.5-x2 CC (Cuda Cores)
b) Keinen Hotclock, x2-x3.5 CC
c) Keinen Hotclock, x1.5 dickere CC

Vom Platz und von der TDP des OBR-Gerüchts mal abgesehen...wie packt man +50% TMUs, mehr CC und evtl. hier und da noch eine Verbesserung in dasselbe Transistorbudget wie beim GF110? :confused:

Gipsel
2012-01-10, 10:40:19
Vom Platz und von der TDP des OBR-Gerüchts mal abgesehen...wie packt man +50% TMUs, mehr CC und evtl. hier und da noch eine Verbesserung in dasselbe Transistorbudget wie beim GF110? :confused:
Nimm 12 SMs im GF104/114 Style (also 48 SMs pro SM), Chiptakt auf 900MHz, Shadertakt 1800 MHz und die Angaben (auch die 2 TFlop/s) kommen hin. :wink:

boxleitnerb
2012-01-10, 10:43:36
Und GF104's SM sind so viel kleiner wie GF110's SM? Mir geht es rein um den Platz-/Transistorbedarf, nicht die Leistung. Hab mich da vielleicht nicht richtig ausgedrückt oben.

AnarchX
2012-01-10, 10:44:44
GF104-SMs sind 25% größer als GF100-SMs.

Dural
2012-01-10, 10:51:15
haben aber auch mehr TMUs und SPs, am ende auf die Einheiten aussgerechnet sicher kleiner.


ich habe ja lange an den hot clocks festgehalten, am schluss doch noch recht gehabt? sind wir in der situation wie damals G80-G92-GT200? ich denke ja, wir werden erst mit dem GK110 was anderes sehen.

Gipsel
2012-01-10, 10:51:35
Und GF104's SM sind so viel kleiner wie GF110's SM? Mir geht es rein um den Platz-/Transistorbedarf, nicht die Leistung.
Kleiner sind sie nicht (bzw. in 28nm schon), aber sie haben eben 50% mehr ALUs sowie 100% mehr TMUs als die von GF100/110 und sind dabei wohl keine 50% größer (für 96TMUs und 576 SPs benötigt man ja auch nur nur 12 davon statt 16 wie bei GF100/110). Ich sehe das Problem jetzt nicht.

576 SPs in 12 SMs zu je 48 SPs dürften billiger und kleiner sein als 512 SPs in 16 SMs. Das Mehr an TMUs gleicht das wieder im groben aus, wodurch man über den Daumen schon in etwa auf das gleiche rauskommen könnte. Hängt auch ein wenig davon ab, was nVidia in dem Fall mit dem Frontend machen würde (sprich: wieviele GPCs es wären).

Oder das von OBR ist alles Schwachsinn und die Hotclock verschwindet doch (dann gibt es 24 SMs oder 12 SMs mit je 96 SPs oder 16 SMs mit je 64 SPs oder ...).

boxleitnerb
2012-01-10, 10:51:49
GF104-SMs sind 25% größer als GF100-SMs.

Bezogen auf Fläche, Transistorenanzahl oder beides?

Gipsel
2012-01-10, 10:53:46
Bezogen auf Fläche, Transistorenanzahl oder beides?
Hat jemand einen HiRes dishot von GF104/114? Dann könnte man es nachmessen.

boxleitnerb
2012-01-10, 10:59:26
Ich glaube wir reden ein bisschen aneinander vorbei. Ich meine die einzelnen Streamprozessoren oder wie man das nennt. Also die, von denen eine GTX560 336 und eine GTX570 480 hat.
Also würden x dieser GF104/114-Prozessoren weniger Platz einnehmen als x derjenigen von GF100/110, weil sie irgendwie platzsparender organisiert sind? Die Größe einer solchen Basiseinheit ist aber nahezu gleich, ja?

AnarchX
2012-01-10, 11:20:29
ich habe ja lange an den hot clocks festgehalten, am schluss doch noch recht gehabt? sind wir in der situation wie damals G80-G92-GT200? ich denke ja, wir werden erst mit dem GK110 was anderes sehen.
Dann würde der Chip wohl eher GF124/GF112 heißen.
Bei Nvidia-GPUs und OBR sollte man wohl etwas vorsichtiger sein, bei G92 versicherte er auch ein 384-Bit SI.

DarknessFalls
2012-01-10, 11:24:44
Ich halte die OBR-Daten für Grütze. 576 Shader bei Wegfall Hotclock könnten nur bei wirklich weitgreifenden Optimierungen wie in der Tabelle aufgeführte 0,4 mehr TFlops erzeugen als GF110 - oder bin ich da so schief gewickelt?

Ailuros
2012-01-10, 11:25:45
ich habe ja lange an den hot clocks festgehalten, am schluss doch noch recht gehabt? sind wir in der situation wie damals G80-G92-GT200? ich denke ja, wir werden erst mit dem GK110 was anderes sehen.

Ja aber sicher ist GK104 nur ein Fermi Ableger und alle anderen kleineren chips auch. GK104 wird wie gesagt XDR2 ram haben und GK110 ein 1:1 DP-SP Verhaeltnis weil NV engineering hauptsaechlich aus besoffenen Affen besteht.

Pro GPC: [4*(3*32)] IMO und dieser trend koennte tatsaechlich fuer alles GK10x gueltig sein; wohl hoechstwahrscheinlich der eigentliche Grund warum der top dog nicht GK100 heisst sondern GK110.

Bucklew
2012-01-10, 11:50:01
GK110 ein 1:1 DP-SP Verhaeltnis
Nicht 2:1? :(

Gipsel
2012-01-10, 11:52:11
Ich glaube wir reden ein bisschen aneinander vorbei. Ich meine die einzelnen Streamprozessoren oder wie man das nennt. Also die, von denen eine GTX560 336 und eine GTX570 480 hat.
Also würden x dieser GF104/114-Prozessoren weniger Platz einnehmen als x derjenigen von GF100/110, weil sie irgendwie platzsparender organisiert sind? Die Größe einer solchen Basiseinheit ist aber nahezu gleich, ja?
Die ALUs an sich sind schon sehr ähnlich groß wenn nicht identisch. Aber wenn mas das in etwas größeren Einheiten zusammenfaßt (wie bei GF104 Style SMs mit 48SPs), spart man was beim Scheduling, den RegFiles, L/S-Einheiten sowie L1/LDS bei überschaubarem Mehraufwand für die doppelte Anzahl SFUs sowie Verdrahtung vom RegFile zu den Einheiten. Das ergibt dann in der Summe 50% mehr ALUs, 100% mehr TMUs bei <50% Mehraufwand (was genau die +25% sind, die öfter mal rumgeistern, da mußt Du nV befragen).
Aber wie Ailuros schon sagte, ist es nur ein (dubioses) Gerücht, daß GK104 lediglich einen 50% aufgeblasenen GF114-Shrink darstellt (genau das sagt nämlich OBR im Prinzip). Das wäre dann schon irgendwie ein wenig langweilig.

boxleitnerb
2012-01-10, 12:02:59
Danke für die Erklärung :)

Hübie
2012-01-10, 12:25:09
Oh ich seh schon auf manchen Seiten die News: "nVidias upcoming Kepler GPU with XDR2 VRAM from RAMBUS?" Als Quelle steht dann da http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9118005&postcount=2676 ;D:freak:

Oder noch besser: GPUs with XDR2 Caches?

boxleitnerb
2012-01-10, 12:29:45
Wer hat das gebastelt?
http://www.abload.de/img/system_arch_compareemq5e.png (http://www.abload.de/image.php?img=system_arch_compareemq5e.png)
http://forum.beyond3d.com/showpost.php?p=1611213&postcount=765

Auch kein Hotclock bei GK104.

Hübie
2012-01-10, 12:37:50
:freak: Das is ja ma voll fürn Arsch! Du hast mir so eben eine Minute meines Lebens gestohlen welche ich nie wieder haben werde.
Ich bastel auch gleich mal ne lustige Folie... ;D

Knuddelbearli
2012-01-10, 12:56:47
selber basteln klaut aber mehr als 1 minute ^^

Skysnake
2012-01-10, 13:07:23
Die ALUs an sich sind schon sehr ähnlich groß wenn nicht identisch. Aber wenn mas das in etwas größeren Einheiten zusammenfaßt (wie bei GF104 Style SMs mit 48SPs), spart man was beim Scheduling, den RegFiles, L/S-Einheiten sowie L1/LDS bei überschaubarem Mehraufwand für die doppelte Anzahl SFUs sowie Verdrahtung vom RegFile zu den Einheiten. Das ergibt dann in der Summe 50% mehr ALUs, 100% mehr TMUs bei <50% Mehraufwand (was genau die +25% sind, die öfter mal rumgeistern, da mußt Du nV befragen).
Aber wie Ailuros schon sagte, ist es nur ein (dubioses) Gerücht, daß GK104 lediglich einen 50% aufgeblasenen GF114-Shrink darstellt (genau das sagt nämlich OBR im Prinzip). Das wäre dann schon irgendwie ein wenig langweilig.
Vor allem das schlechtere ALU/Cache/RegFile Verhältnis sollte da wohl rein hauen. Und halt, das man weniger Logik für sheduler etc braucht wie du schon sagst, da man einfach mehr Einheiten zusammen fasst unter einen Sheduler etc. Macht die GPU aber auch wieder anfälliger, falls man zu wenig Arbeit hat um in einem Block die ALUs aus zu lasten, wegen zu kleiner Caches etc.


Wer hat das gebastelt?
http://www.abload.de/img/system_arch_compareemq5e.png (http://www.abload.de/image.php?img=system_arch_compareemq5e.png)
http://forum.beyond3d.com/showpost.php?p=1611213&postcount=765

Auch kein Hotclock bei GK104.
Die Folie zu GK104 ist ja mal die totale Nullaussage :facepalm:


Das wäre fast so als würde ich sagen Kepler wird ne CPU und kein Wasserkocher :ugly:

Leonidas
2012-01-10, 13:07:27
Oh ich seh schon auf manchen Seiten die News: "nVidias upcoming Kepler GPU with XDR2 VRAM from RAMBUS?" Als Quelle steht dann da http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9118005&postcount=2676 ;D:freak:

Oder noch besser: GPUs with XDR2 Caches?


Wir müssen das in ost-armenisch schreiben, so daß es keiner übersetzen kann, sondern nur die Schlagworte lesen kann. Dann geht es garantiert durch die Presse.

Skysnake
2012-01-10, 13:08:25
Auf jeden ;D

Ailuros
2012-01-10, 13:10:59
Nicht 2:1? :(

Offensichtlicher Sarkasmus; genauso wie GK104 XDR2 hat.

Meine These fuer die Codenamen in Kepler und ja rein spekulativ:

GK10x (107/104/106 etc) = 3*SIMDs

GK11x (GK110 und Nachfolger) = 2 oder 4 SIMDs eben damit 2:1 moeglich sein wird.

boxleitnerb
2012-01-10, 13:26:15
Und weiter gehts mit den lustigen Bildern...

http://www.abload.de/thumb/map_c_1120x941vvp56l5o5g.png (http://www.abload.de/image.php?img=map_c_1120x941vvp56l5o5g.png)
http://forum.beyond3d.com/showpost.php?p=1611281&postcount=772

Die Spekulationen scheinen stündlich zu wechseln. Oder alt?

Duplex
2012-01-10, 13:29:33
Bis jetzt gibt es nichts neues, nur Fragezeichen auf solche dummen Folien...Vermutungen, Wunschdenken usw.

boxleitnerb
2012-01-10, 13:34:47
Zumal da auch wieder ein Haufen Ungereimtheiten dazukommen. Die 560 (Ti) haben kein 320bi SI. Noch krassere Hotclock, sogar x2.5 statt x2. Es bleibt weiter spannend.

Ailuros
2012-01-10, 13:36:30
Nun ja silly season wie immer.

boxleitnerb
2012-01-10, 13:37:55
Das ist doch die schönste Jahreszeit ;)
Hörst du immer noch, dass Hotclock wegfällt oder hat sich da wieder was geändert?

Skysnake
2012-01-10, 13:39:01
Sieht für mich nicht so stimmig aus.

Sehr wenige Einheiten, um den hot clock wegfallen zu lassen.

Zudem klingt der GK1x0 irgendwie auch unrealistisch.

Gipsel
2012-01-10, 14:01:39
Und weiter gehts mit den lustigen Bildern...

http://www.abload.de/thumb/map_c_1120x941vvp56l5o5g.png (http://www.abload.de/image.php?img=map_c_1120x941vvp56l5o5g.png)
http://forum.beyond3d.com/showpost.php?p=1611281&postcount=772

Die Spekulationen scheinen stündlich zu wechseln. Oder alt?
Schreibt der nicht explizit dazu: "anyway another waste of bytes"? Oder meinst Du das bezieht sich auf den Kommentar zu den OBR-Specs? :rolleyes:

boxleitnerb
2012-01-10, 14:09:32
Ja das ist seine Meinung. Kann ja sein, dass wenigstens ein Teil davon stimmt.

AnarchX
2012-01-10, 17:43:07
Können auch die AMD Karten sein, die dort verbaut sind.
Ist wohl eine GeForce OEM-Blende:
http://www.geforce.com/Hardware/GPUs/geforce-gtx-560-oem/productshots

Muss aber wohl weder bedeuten, dass die Karte mehr als zwei Displays ansteuern kann, noch dass eine GeForce 600 ist.

LovesuckZ
2012-01-10, 17:47:33
Ist wohl eine GeForce OEM-Blende:
http://www.geforce.com/Hardware/GPUs/geforce-gtx-560-oem/productshots

Muss aber wohl weder bedeuten, dass die Karte mehr als zwei Displays ansteuern kann, noch dass eine GeForce 600 ist.

Die sieht bei Juniper und Barts genauso aus. ;)

AnarchX
2012-01-10, 17:51:17
Die sieht bei Juniper und Barts genauso aus. ;)
Nein, die AMD-Luftauslässe haben keinen Knick und auf der Blende gibt es häufig noch Symbole: http://pics.computerbase.de/2/7/1/1/2/12.jpg

Und dann die Ziffernfolge (Teilenummer?) auf den NV-Slotblenden: http://www.geforce.com/Active/en_US/shared/images/products/geforce-gtx-560ti-oem/GTX560-ti-oem-bracket-1000x580_gallery_preview.png

Hier links neben dem DVI zu erkennen: http://www.blogcdn.com/www.engadget.com/media/2012/01/ces2012k43013.jpg

edit:
Hier kann man auch die 0385-076 erkennen, die man auch bei dem Lenovo PC sieht: http://www.geforce.com/Active/en_US/shared/images/products/geforce-gtx-560ti-oem/GTX560-ti-oem-3qtr.png

Ist wohl definitiv eine NV-Karte. Fragt sich nur welche...

LovesuckZ
2012-01-10, 17:55:38
Okay, macht sinn. :D

Ailuros
2012-01-10, 17:55:48
Das ist doch die schönste Jahreszeit ;)
Hörst du immer noch, dass Hotclock wegfällt oder hat sich da wieder was geändert?

Es sollte wohl offensichtlich sein dass ein IHV ueber so kritische Einzelheiten nicht in jeder Stunde seine Meinung darueber aendert. Es gibt so viel Scheiss in den jeglichen Diagrammen die sich gegeneinander wiedersprechen dass Deine Frage ueberfluessig ist.

Vergiss was ich und von wem gehoert habe und nimm mein Zeug als "educated guess" an und versuch dann es mit jeglichem oeffentlichen Fetzen ueber Kepler von NVIDIA zu vergleichen. Es wird dann ziemlich leicht sein zu sehen welche These bzw. Theorie mehr Sinn macht.

Bucklew
2012-01-10, 18:04:58
Es sollte wohl offensichtlich sein dass ein IHV ueber so kritische Einzelheiten nicht in jeder Stunde seine Meinung darueber aendert. Es gibt so viel Scheiss in den jeglichen Diagrammen die sich gegeneinander wiedersprechen dass Deine Frage ueberfluessig ist.
90% dieser Aussagen (oder gar mehr), laufen auch über die Salesleute, die nicht zwingend einen technischen Hintergrund haben und daher schnell mal was durcheinander werfen.

Hübie
2012-01-10, 18:31:41
Verdammt! Ich müsste erst die entsprechende fernost-asiatische Sprache für eine Folie installieren.

Wie sieht das aus??

http://www.abload.de/img/fakeshitdieuglyfuckn8rux.png (http://www.abload.de/image.php?img=fakeshitdieuglyfuckn8rux.png)

;D;D

boxleitnerb
2012-01-10, 18:35:28
Nvidia untypischer Stil und die Legende fehlt ;)

Hübie
2012-01-10, 18:42:37
Ich wollte einen Distributor "emulieren" ;D Die fehlende Legende machts doch geheimnisvoller... aber psst. =)

Ailuros
2012-01-10, 18:44:18
90% dieser Aussagen (oder gar mehr), laufen auch über die Salesleute, die nicht zwingend einen technischen Hintergrund haben und daher schnell mal was durcheinander werfen.

Ich sehe aber trotzdem ein wie leicht der Leser hier verwirrt will wenn er immer wieder in letzter Zeit von lediglich ein paar hundert SPs liesst.

Bei B3D gehen sie sogar so weit zu spekulieren dass jegliche SP vielleicht ueber FP*2/INT*1 faehig ist. Das alberne aber an dem Diagramm ist, dass es "GK110" als mGPU beschreibt (wieso haben bei NV mGPUs ploetzlich core Codenamen?) und obszoen hohe hotclocks angibt fuer Kepler die ueber dem 2:1 ALU-core Verhaeltnis liegen. NV engineering sagte vor Fermi dass sie zu 2:1 gegriffen haben weil es einiges einfacher macht. Ein weiterer Rueckschritt in G80 Gegend ist noch absurder als alles andere.

Salesleute haben uebrigens noch keine zuverlaessige Daten was die Anzahl der Einheiten betrifft ;)

Hübie
2012-01-10, 18:48:38
Gabs da nicht mal das Gerede, das nVidia - ähnlich Intels Core2Quad-Serie - 2 Dies einfach auf ein Package pappt? :| Intel hatte damals auch codenamen ;)



und wieder ist ein Newskanditat geboren...

Bucklew
2012-01-10, 19:06:46
Salesleute haben uebrigens noch keine zuverlaessige Daten was die Anzahl der Einheiten betrifft ;)
So die Daten aber rausgehen, haben die da ihre Finger im Spiel ;)

Gabs da nicht mal das Gerede, das nVidia - ähnlich Intels Core2Quad-Serie - 2 Dies einfach auf ein Package pappt? :| Intel hatte damals auch codenamen ;)
Quatsch²

Hübie
2012-01-10, 19:42:28
Bucklew: Du hast es gerade nicht verstanden, oder? Schau mal in die letzte Zeile ;D

y33H@
2012-01-10, 20:19:09
Gerade "gefunden" :biggrin:

http://www.abload.de/img/gtx-760-tiq1yuu.png

Botcruscher
2012-01-10, 20:22:15
Das ist die geheime ondie Verbindung welche ATI bereits seit R600 entwickelt. Gleiches Gerücht, selber BS, immer wieder in den News aber nicht tot zu bekommen.

Gipsel
2012-01-10, 20:24:26
Gerade "gefunden" :biggrin:

http://www.abload.de/img/gtx-760-tiq1yuu.png
Warum nicht den 29.Februar als Release Date? :rolleyes:
Den gibt es dieses Jahr mal wieder!

y33H@
2012-01-10, 20:26:25
Wäre eine schöne Idee, ja :ulove:

boxleitnerb
2012-01-10, 20:32:02
Gerade "gefunden" :biggrin:

http://www.abload.de/img/gtx-760-tiq1yuu.png

Hast dich bei der Pixelfüllrate verrechnet? ;)

Ailuros
2012-01-10, 21:02:23
Gerade "gefunden" :biggrin:

http://www.abload.de/img/gtx-760-tiq1yuu.png

Mich juckt's in den Fingern das Zeug mit rot zu korrigieren....:biggrin:

Screemer
2012-01-10, 21:03:21
Gabs da nicht mal das Gerede, das nVidia - ähnlich Intels Core2Quad-Serie - 2 Dies einfach auf ein Package pappt? :|.
silicon-interposer für gk110 lässt grüßen. wurde ja schon spekuliert. was bei fpgas (http://www.google.de/search?q=fpga+silicon+interposer&ie=utf-8&oe=utf-8) funktiniert könnte ja auch schon bei gpus hinhauen.
vielleicht nimmts ja doch noch mal jemand ernst.

y33H@
2012-01-10, 21:09:23
Hast dich bei der Pixelfüllrate verrechnet? ;)Ah damned ^^ hab nur fillrate der GTX 560 Ti mal 1,5 genommen :freak:

Bucklew
2012-01-10, 21:14:20
Bucklew: Du hast es gerade nicht verstanden, oder? Schau mal in die letzte Zeile ;D
Nö, soweit les ich dann nimmer.... :freak:

mapel110
2012-01-11, 06:15:16
http://hardforum.com/showthread.php?p=1038244306#post1038244306
I am hearing out till June now........dunno.

Autsch.

http://www.fudzilla.com/component/k2/item/25503-jensen-on-kepler
Patient

Dann ergibt ATIs Preisgestaltung auf jeden Fall Sinn.

hardtech
2012-01-11, 06:59:46
juni wäre heftig!

horn 12
2012-01-11, 07:01:47
Dies verspricht nicht´s Gutes.
Vor April wird man wohl nicht mal was sehen, bzw. kaufen können.
GF104 wohl eben auch nicht, oder jenen GPU Chip vielleicht doch?

V2.0
2012-01-11, 07:29:52
Ein Gerücht ergibt keine Wahrheit.....

DarknessFalls
2012-01-11, 07:57:24
Nunja, das wäre eine Verspätung etwa wie Fermi sie zu Cypress hatte. Nicht wirklich unwahrscheinlich, aber natürlich auch nicht wirklich gut.

mboeller
2012-01-11, 08:15:32
http://hardforum.com/showthread.php?p=1038244306#post1038244306
I am hearing out till June now........dunno.

Autsch.




Hatte Kyle nicht auch beim Fermi den richtigen Riecher?

Gipsel
2012-01-11, 10:24:12
http://hardforum.com/showthread.php?p=1038244306#post1038244306
I am hearing out till June now........dunno.

Autsch.Vielleicht GK110. Wenn nV sich nicht selbst in die Tasche gelogen hat, sollten die kleineren Varianten (deutlich) näher sein.

davidzo
2012-01-11, 12:07:34
Vielleicht GK110. Wenn nV sich nicht selbst in die Tasche gelogen hat, sollten die kleineren Varianten (deutlich) näher sein.

Offizielle Anagen zu den geplanten Launchdates gibts doch noch nicht, wieso sollen sie also gelogen haben? Das einzige was wir in der Hand haben ist das Wunschdenkenken und Gerüchtekochen von ein paar unverbesserlichen Nerds.

Was die Roadmap angeht, an sowas hält sich ja nichtmal intel und da war fermi auch n jahr früher drauf geplant. Wer sagt denn dass mit Roadmap Positionen nicht das tapeout gemeint ist oder der Beginn der auslieferung der chips? Also die Roadmap ist ein hoffen und Wünschen des herstellers, keinerlei Aussage zum tatsächlichen geplanten Launch.

btw gk110 wäre doch schon der refresh, der kommt frühstens wieder zu weihnachten.

M4xw0lf
2012-01-11, 12:10:49
btw gk110 wäre doch schon der refresh, der kommt frühstens wieder zu weihnachten.

GK110 ist der allseits angenommene Codename für den Kepler High-End Chip, nicht dessen Refresh.

Ronny145
2012-01-11, 12:12:37
Hoffnung auf einen baldigen Release habe ich mir nach der CES Nullnummer nicht mehr gemacht, aber Juni wäre noch viel weiter weg als gedacht. Das dauert ja noch ewig bis Konkurrenzdruck entsteht. AMD hat bis dahin ihr 28nm GPU lineup voll abgerundet.

boxleitnerb
2012-01-11, 12:17:58
Hoffentlich stimmt das nicht. Es kann nicht sein, dass Nvidia ihre Execution so sehr versaut hat, schon seit Jahren.

HarryHirsch
2012-01-11, 12:33:16
Hoffentlich stimmt das nicht. Es kann nicht sein, dass Nvidia ihre Execution so sehr versaut hat, schon seit Jahren.

Mal sehen was ail dazu sagt. ;)

Gipsel
2012-01-11, 13:11:46
Offizielle Anagen zu den geplanten Launchdates gibts doch noch nicht, wieso sollen sie also gelogen haben?Falls Du es nicht kennst, "sich selbst etwas in die Tasche lügen" ist eine Redewendung, die eine Selbsttäuschung bezeichnet. Das hat nichts mit einer Lüge im normalen Sinne zu tun. ;)

Iruwen
2012-01-11, 13:20:21
Hoffentlich stimmt das nicht. Es kann nicht sein, dass Nvidia ihre Execution so sehr versaut hat, schon seit Jahren.
Bei einem Hard Launch mit funktionierenden Treibern, ausgereiften Referenzboards usw. wird Nvidia am Ende trotzdem wesentlich besser dastehen als AMD mit seinem vorgezogenen Murksstart. Zumal Nvidia im Gegensatz zu AMD jawohl voraussichtlich erst die Karten bringt mit denen man auch Geld verdient und High-End später (jaja, die 7970 ist Performance, hier kommts aber auf den Preis an).

guest_29132
2012-01-11, 13:32:44
Nvidia wird dies, Nvidia wird das ... und wann werden sie liefern?

Ist amüsant den Thread zu verfolgen; vor der CES, bzw. die Tage nach Neujahr schauckelten sich die gegenseitig beschriebenen Luftschlösser zum Höhepunkt hoch. Die Frage war nur noch - is die GTX 760 nun mit mehr oder weniger Verbrauch doppelt so schnell wie der Tahiti.
Seitenweise Diskussionen ob der GT200 nun doppelt so schnell war wie der G80/92 oder nicht - als würde die Performance von Kepler mit der Wahrheit dessen einhergehen.

Schmetterlinge im Bauch vor der Konferenz ... danach betroffenes schweigen.

Und nun wieder durchalte Parolen und die Gewissheit, das Nvidia gar nicht failen kann, weil sie es ja eh besser können.

.. was ist eigentlich mit Lovesuckz? Hungerstreik bis zum GK110 Release?

Dural
2012-01-11, 13:42:03
GTX760 / GK104 doppelt so schnell wie Tahiti, hab ich was verpasst?

es dürfte klar sein das die GTX760 sich im bereich eines GF110 bewegt, wenn es gut läuft 10-30% über diesem das war es aber schon :rolleyes:

wie so sollte auch ein Mainstrem Chip doppelt so schnell wie der High-End Vorgänger sein...

guest_29132
2012-01-11, 13:44:38
Ich habs ein wenig überspitzt, sry. Aber der ein oder andere würd sich das ja schon wünschen.

Im übrigen auch toll gestern die ganzen, ganz lustigen Fakes.
Wenn andere das machen rätseln hier wieder alle wochenlang rum.

LovesuckZ
2012-01-11, 14:08:06
Nvidia wird dies, Nvidia wird das ... und wann werden sie liefern?

Ist amüsant den Thread zu verfolgen; vor der CES, bzw. die Tage nach Neujahr schauckelten sich die gegenseitig beschriebenen Luftschlösser zum Höhepunkt hoch. Die Frage war nur noch - is die GTX 760 nun mit mehr oder weniger Verbrauch doppelt so schnell wie der Tahiti.
Seitenweise Diskussionen ob der GT200 nun doppelt so schnell war wie der G80/92 oder nicht - als würde die Performance von Kepler mit der Wahrheit dessen einhergehen.

Schmetterlinge im Bauch vor der Konferenz ... danach betroffenes schweigen.

Und nun wieder durchalte Parolen und die Gewissheit, das Nvidia gar nicht failen kann, weil sie es ja eh besser können.

.. was ist eigentlich mit Lovesuckz? Hungerstreik bis zum GK110 Release?

Ich warte auf Kepler und wundere mich, wieso AMD weiterhin virales Marketing in Internetforum betreibt. :|

Falls Du es nicht kennst, "sich selbst etwas in die Tasche lügen" ist eine Redewendung, die eine Selbsttäuschung bezeichnet. Das hat nichts mit einer Lüge im normalen Sinne zu tun. ;)

Die Aussage macht null Sinn. Entweder haben sie gelogen oder sie sind on Track. Eine Selbsttäuschung geht überhaupt nicht, da nVidia den Stand der Produktionsreife selbst weiß...

DarknessFalls
2012-01-11, 14:23:26
...aber immerhin hat Kepler mehr Designwins als Fermi geholt:

http://www.fudzilla.com/component/k2/item/25508-kepler-has-more-design-wins-than-fermi

...und besser laufen als AMDs 28nm SI-Produkte tut's auch. :D

guest_29132
2012-01-11, 14:26:55
Ich warte auf Kepler und wundere mich, wieso AMD weiterhin virales Marketing in Internetforum betreibt. :|


Haha ... ja .. klar .. ich glaube da solltest du erst einmal vor deiner eigenen Türe kehren.

Ich warte im übrigenauch auf Kepler (und Kap Verde), denn wenn die nicht bocken wirds ne 460. Und je eher ich das weiß, desto besser.

Neurosphere
2012-01-11, 14:28:54
...aber immerhin hat Kepler mehr Designwins als Fermi geholt:

http://www.fudzilla.com/component/k2/item/25508-kepler-has-more-design-wins-than-fermi

...und besser laufen als AMDs 28nm SI-Produkte tut's auch. :D

Wo bleibens denn dann?

dargo
2012-01-11, 14:30:43
Hoffentlich stimmt das nicht. Es kann nicht sein, dass Nvidia ihre Execution so sehr versaut hat, schon seit Jahren.
Wenn das mit Juni wirklich stimmen sollte ist der Launch für mich eh uninteressant. Im Sommer interessiert mich keine neue Hardware, da habe ich was besseres zu tun. Auf der anderen Seite auch wieder nicht schlecht. Im September/Oktober werden sich die Preise spätestens "normalisieren".

LovesuckZ
2012-01-11, 14:31:14
Haha ... ja .. klar .. ich glaube da solltest du erst einmal vor deiner eigenen Türe kehren.


Warum hört man das immer von AMD Typen wie dir? Ihr kommt in den Kepler-Thread und schreddert ihn. Und dann zeigt ihr mit den Finger auf andere, die euch die Wahrheit sagen? Man, das muss echt eine beschissene Selbstreflexion sein.

Könntet ihr Typen nicht einfach den Thread verlassen? Es wäre echt toll, wenn die Moderation mal in diesem Forum ihren Job tun würde und nicht dauernd dafür sorgt, dass durch Leute wie Gipsel hier immer mehr und mehr AMD Trolle auftauchen.

Das ist der Kepler-Thread. Hast du nichts beizutragen, dann such den Tahiti Thread auf.

Hatte Kyle nicht auch beim Fermi den richtigen Riecher?

Ja, er hat auf März getippt. Aber Fermi war damals a) bekannt und b) nVidia viel offener.

DarknessFalls
2012-01-11, 14:33:13
Wo bleibens denn dann?

Genau DAS ist die Frage aller Fragen. Ich neige dazu, Kyle bei der Voraussage "Juni" zu folgen aufgrund der völligen (okay, nicht ganz, siehe "Designwins") Stille auf der CES bisher.

Abwarten und Spekulatius essen. :D

Gipsel
2012-01-11, 14:45:06
Ich warte auf Kepler und wundere mich, wieso AMD weiterhin virales Marketing in Internetforum betreibt. :|Diese Paranoia kanst Du auch echt mal sein lassen. :rolleyes:
Die Aussage macht null Sinn. Entweder haben sie gelogen oder sie sind on Track. Eine Selbsttäuschung geht überhaupt nicht, da nVidia den Stand der Produktionsreife selbst weiß...Gibt's hier :epic facepalm:? Offensichtlich nicht, aber das wäre wohl angebracht.

Was willst Du hören? Daß nV offensichtlich nicht on-Track ist, Kepler im Jahre 2011 zu bringen? Das kann (und wird zu einem Teil) natürlich auch an TSMC liegen. Aber wenn man etwas zu optimistisch einschätzt, dann ist das in gewissem Sinne auch eine Selbsttäuschung.

Im Übrigen solltest Du vielleicht meine Aussage überhaupt erst mal lesen. Die lautete nämlich, daß wenn nV keiner Selbsttäuschung erlegen ist, Kepler wohl deutlich näher ist als der Juni. :rolleyes:

Gipsel
2012-01-11, 14:45:13
Warum hört man das immer von AMD Typen wie dir? Ihr kommt in den Kepler-Thread und schreddert ihn. Und dann zeigt ihr mit den Finger auf andere, die euch die Wahrheit sagen? Man, das muss echt eine beschissene Selbstreflexion sein.

Könntet ihr Typen nicht einfach den Thread verlassen? Es wäre echt toll, wenn die Moderation mal in diesem Forum ihren Job tun würde und nicht dauernd dafür sorgt, dass durch Leute wie Gipsel hier immer mehr und mehr AMD Trolle auftauchen.Okay, bei der nächsten Aussage in der Preislage wirst Du gekickt. Deal?

Nur mal so zur Erinnerung: Dies ist ein Thread über Kepler, nicht die Qualität der Moderation oder ob Dir ein spezieller Mod gefällt oder nicht. Das kannst Du gerne im Kontaktforum auswälzen.

LovesuckZ
2012-01-11, 14:54:18
Diese Paranoia kanst Du auch echt mal sein lassen. :rolleyes:

Sowas nennt man Sarkasmus.


Gibt's hier :epic facepalm:? Offensichtlich nicht, aber das wäre wohl angebracht.

Was willst Du hören? Daß nV offensichtlich nicht on-Track ist, Kepler im Jahre 2011 zu bringen? Das kann (und wird zu einem Teil) natürlich auch an TSMC liegen. Aber wenn man etwas zu optimistisch einschätzt, dann ist das in gewissem Sinne auch eine Selbsttäuschung.

Also wie AMD? Gut, dann ist das in Ordnung.

/edit: Wir wissen seit Anfang August, dass Kepler nicht mehr 2011 ankommen sollte: http://www.computerbase.de/news/2011-08/nvidia-bestaetigt-kepler-erst-2012-im-handel/


Im Übrigen solltest Du vielleicht meine Aussage überhaupt erst mal lesen. Die lautete nämlich, daß wenn nV keiner Selbsttäuschung erlegen ist, Kepler wohl deutlich näher ist als der Juni. :rolleyes:

Ja und ich habe es als Schwachsinn bezeichnet. Entweder lügen sie oder sie sind in Bezug auf der Architektur on Track. Eine Selbsttäuschung gibt es nicht.

/edit: Ach, du redest nur über die kleinen Chips. Dann solltest du dich endlich mal informieren. nVidia hat sich nämlich zu diesem Thema mehr als deutlich geäußert -sei es auf der CC zu Q3, einem Investorgespräch im Dezember oder jetzt auf der CES (http://www.fudzilla.com/component/k2/item/25508-kepler-has-more-design-wins-than-fermi). Die kleinen Chips sind fertig und werden an die OEMs entweder schon ausgeliefert oder es geschieht bald.

guest_29132
2012-01-11, 14:55:11
Warum hört man das immer von AMD Typen wie dir? Ihr kommt in den Kepler-Thread und schreddert ihn.

Ich schredder gar nichts, und ich habe keine Lust über die Sache jetzt mit dir zu Diskutieren, und trotzdem könnte man dir auch hier den Spiegel vor halten.
Mir ist egal ob A vor oder hinter B steht, ich will nur viel Leistung für knapp über 100€ egal von wem.
Meinen Post gegenüber Iruwen kannst du da als Bitte von mir sehen, das hier nicht wieder herum geträumt wird.

Das wird ja wohl noch erlaubt sein, in einem nicht geschlossenem Forum. Wenn du aktuell durch irgendetwas angepisst bist, brauchst du das nicht an mir auslassen.

V2.0
2012-01-11, 15:16:54
Die Frage ist will man bei der CES launchen? Ich habe nie einen glaubwürdigen Hinweis gehört, dass NV die CES für Kepler im Auge hatte. Und ganz ehrlich warum auch? Tegra ist strategisch bedeutender und es gibt gerade viele News. Kepler in GF104-Form wird sowieso eine dicke News sein, da braucht man kein Event, Kepler ist sein eigenes Event.

Gehen wir mal davon aus, dass AMD Tahiti ab Februar in ausreichende Mengen leifern kann und nimmt man das als Zeichen für ein gutes Hochlaufen der Produktion bei TSMC, dann kann NV (unter Berücksichtigung der Zeitverzögerung, evtl. Zeit bis zur Fertigstellung von Customdesignkarten und der Preislage von GF104 und der damit verbunden Nachfrage) irgendwo zwischen Ende Januar und Ende Febraur launchen, je nachdem wie "hard" der Launch sein soll.

Gipsel
2012-01-11, 15:18:38
Ich bitte darum, daß dies der letzte Modtext in diesem Thread sein darf.

Könntet ihr Euch auf das Thema konzentrieren?

Iruwen
2012-01-11, 15:19:49
Meinen Post gegenüber Iruwen kannst du da als Bitte von mir sehen, das hier nicht wieder herum geträumt wird.

Und wo soll das Träumerei sein? Ich kann LZ voll verstehen, er ist nur der letzte der sich da aus dem Fenster lehnen sollte :freak:

/e: wenn man mich anspricht darf ich antworten nehme ich an.

DarknessFalls
2012-01-11, 15:24:21
@V2.0, es geht ja weniger darum, daß Kepler nicht vorgestellt wurde - das wurde auch nicht erwartet, zumindest von mir nicht. Es geht nur um diese völlige Stille darum bzw die Aussage am Rande, daß Kepler mehr Designwins als Fermi hat. Auf der vorletzten CES hat man immerhin das eine oder andere von Fermi gesehen.

Gipsel
2012-01-11, 15:27:28
Ja und ich habe es als Schwachsinn bezeichnet. Entweder lügen sie oder sie sind in Bezug auf der Architektur on Track. Eine Selbsttäuschung gibt es nicht.

/edit: Ach, du redest nur über die kleinen Chips. Dann solltest du dich endlich mal informieren. nVidia hat sich nämlich zu diesem Thema mehr als deutlich geäußert -sei es auf der CC zu Q3, einem Investorgespräch im Dezember oder jetzt auf der CES (http://www.fudzilla.com/component/k2/item/25508-kepler-has-more-design-wins-than-fermi). Die kleinen Chips sind fertig und werden an die OEMs entweder schon ausgeliefert oder es geschieht bald.
Siehst Du, und deswegen kann Kepler nur erst im Juni kommen, falls nV einer massiven Selbsttäuschung erlegen wäre. ;D
Denn daß sie solch gravierenden Aussagen treffen und selber nicht dran glauben bzw. wissen, daß es nicht stimmt, wäre vollkommen undenkbar. ;)