PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31

LovesuckZ
2012-02-15, 20:37:48
Angenommen die Werte stimmen:
Die übertaktete GK104 ist mit 4AA im Schnitt 41% schneller als die GTX580. Zieht man 10% durch die Übertaktung ab, sind es 36,9%. Damit läge man locker auf TahitiXT Niveau.

Und mit 36,9% zur GTX580 auch 91% über der GTX560TI...

Captain Future
2012-02-15, 20:38:56
Wobei man fairerweise sagen muss, der Turbo bei CPUs greift vorrangig bei Teillast. Bei GPUs gibts das eher nicht.

Klar gibt's das. Wenn es eine vernünftige TDP-BErechnung auf basis von Auslastungsbestimmung gibt, hätte man zum Beispiel HD 5870 immens höher takten können, wenn der Rest des Chips auf den Teselator wartet.

boxleitnerb
2012-02-15, 20:42:22
Angenommen die Werte stimmen:
Die übertaktete GK104 ist mit 4AA im Schnitt 41% schneller als die GTX580. Zieht man 10% durch die Übertaktung ab, sind es 36,9%. Damit läge man locker auf TahitiXT Niveau.

Und mit 36,9% zur GTX580 auch 91% über der GTX560TI...

Die 580 ist 91-37=54% flotter als eine 560Ti? I think not.

Klar gibt's das. Wenn es eine vernünftige TDP-BErechnung auf basis von Auslastungsbestimmung gibt, hätte man zum Beispiel HD 5870 immens höher takten können, wenn der Rest des Chips auf den Teselator wartet.

Ist das nicht immens komplizierter als einfach zwei von vier Kernen schlafenzulegen?

LovesuckZ
2012-02-15, 20:44:19
Die 580 ist 91-37=54% flotter als eine 560Ti? I think not.

So kannst du nicht rechnen:
GTX560TI = 100% * 1,4
GTX580 = 140% * 1,36
GK104 = 190%

Duplex
2012-02-15, 20:44:55
Es erwartet doch keiner im ernst das GK104 mit Tahiti XT mithalten kann? Dann bräuchte man kein GK110 mehr, durch den niedrigeren Preis (299$) hätte man aut. mehr Absatz als Tahiti XT, das ding wird nur so schnell wie GTX580 oder 7950. Bei den Vorgänger hat Nvidia auch die großen Chips gebraucht um 15% schneller als Cypress oder Cayman zu sein. (GF100 war 60% größer als Cypress :freak:)

Ailuros
2012-02-15, 20:45:12
Die 580 ist 91-37=54% flotter als eine 560Ti? I think not.

In 1080p/4xAA duerfte GK110 edit: GF110 irgendwo 40+% schneller sein als GF114, aber es haengt ja auch stets von der Auswahl der gemessenen Faelle ab.

LovesuckZ
2012-02-15, 20:46:52
Es erwartet doch keiner im ernst das GK104 mit Tahiti XT mithalten kann? Dann bräuchte man kein GK110 mehr, durch den niedrigeren Preis (299$) hätte man aut. mehr Absatz als Tahiti XT, das ding wird nur so schnell wie GTX580 oder 7950. Bei den Vorgänger hat Nvidia auch die großen Chips gebraucht um 15% schneller als Cypress oder Cayman zu sein.

Was hat die Schwäche von AMD mit den Zielen von nVidia zu tun? :confused:

Das sie GK104 gegen Tahiti stellen würden, hängt wohl doch eher vom Konkurrenten ab. Genauso als AMD rv770 gegen GT200 stellte statt nur gegen G92(b).

Ailuros
2012-02-15, 20:47:41
Angenommen die Werte stimmen:
Die übertaktete GK104 ist mit 4AA im Schnitt 41% schneller als die GTX580. Zieht man 10% durch die Übertaktung ab, sind es 36,9%. Damit läge man locker auf TahitiXT Niveau.

Und was passiert in worst case scenarios? Oder muss man nur die handvoll handausgesuchter Faelle mir nichts dir nichts als die entscheidenden Faelle fuer einen jeglichen Durchschnitt annehmen?

Godmode
2012-02-15, 20:47:54
In 1080p/4xAA duerfte GK110 irgendwo 40+% schneller sein als GF114, aber es haengt ja auch stets von der Auswahl der gemessenen Faelle ab.

GF110 :)

LovesuckZ
2012-02-15, 20:50:04
Und was passiert in worst case scenarios? Oder muss man nur die handvoll handausgesuchter Faelle mir nichts dir nichts als die entscheidenden Faelle fuer einen jeglichen Durchschnitt annehmen?

All die Spiele auf der Auflistung werden von Computerbase.de getestet.

/edit: Ich sehe daher nicht, wieso GK104 in BF:3 soviel schneller sein sollte und in z.B. Metro2033 nicht.

boxleitnerb
2012-02-15, 20:50:28
Ich hatte das als weniger in Erinnerung. Aber 40% scheinen gut hinzukommen.

Ailuros
2012-02-15, 20:51:11
All die Spiele auf der Auflistung werden von Computerbase.de getestet.

Nur?

GF110 :)

Ja stimmt, danke. Verdammte typos.

Skysnake
2012-02-15, 20:55:07
Es zeigt, dass die Wirklichkeit anders aussieht als viele annehmen.

Schon GF110 kann 32 Pixel/takt verarbeiten. Das ist nichts neues. Und die Rechenleistung wird sich locker 1:1 durchsetzen, wenn man sich Anwendungen vornimmt, die darauf ansprechen.
Da word sicherlich nichts 1:1 skalieren. Falls du auch nur im entferntesten in letzter Zeit mal bei nVidia etwas aufgepasst hättest, dann wüsstest du, das man zum "dark chip" übergeht. Also schlicht nicht genug Energie hat um den ganzen Chip zu versorgen. Das wird auch bei den kleineren Chips schon klar angewendet. Man geht halt nicht mehr hin und ballert 30% mehr Energiebedarf für 5% Mehrleistung raus.

Andersrum wird heute ein Schuh draus. Es ist einem scheis egal, ob man statt 80 % der theoretischen Flops nur noch 60% erreicht bei gleichem Energiebedarf, wenn darfür 140%+ mehr Theoretische Rechenleistung hat. Unterm stirch fährt man nämlich mit der geringeren Prozentsatz der theoretischen Rechenleistung noch immer besser.

Ailuros
2012-02-15, 21:03:35
Regeln gelten hier fuer alle. Dementsprechend moechte ich ALLE Beteiligten hier bitten sich streng ans Thema zu halten und sich von direkten oder indirekten Provokationen bzw. persoenlichen Angriffen fernzuhalten.

AwesomeSauce
2012-02-15, 21:04:26
Es ist einem scheis egal, ob man statt 80 % der theoretischen Flops nur noch 60% erreicht bei gleichem Energiebedarf, wenn darfür 140%+ mehr Theoretische Rechenleistung hat. Unterm stirch fährt man nämlich mit der geringeren Prozentsatz der theoretischen Rechenleistung noch immer besser.
Das sehe ich genauso. Overall gibt diese Variante zwangsläufig das bessere Perf/Watt-Verhältnis. In Gipsels Stanford Video wurde das ja auch bemerkt.

Duplex
2012-02-15, 21:04:29
Am ende werden Sie enttäuscht wenn Tahiti XT immer noch 20-30% schneller als GK104 sein wird, 256Bit "2GB" krüppel soll das besser machen, Auflösung 2560 & 2GB DDR5? Und > "Wunder effizienz Vorteil" gegenüber Tahiti jetzt bekomm ist aber angst und tränen, die Chipfläche von GK104 ist dann selbst mit 300-330 mm² noch viel zu groß wenn Tahiti XT bei 365mm² deutlich schneller bleiben wird, es gibt doch jetzt schon Games wo Tahiti XT 50% schneller als GF110 ist.

LovesuckZ
2012-02-15, 21:10:39
Da word sicherlich nichts 1:1 skalieren. Falls du auch nur im entferntesten in letzter Zeit mal bei nVidia etwas aufgepasst hättest, dann wüsstest du, das man zum "dark chip" übergeht. Also schlicht nicht genug Energie hat um den ganzen Chip zu versorgen. Das wird auch bei den kleineren Chips schon klar angewendet. Man geht halt nicht mehr hin und ballert 30% mehr Energiebedarf für 5% Mehrleistung raus.

Andersrum wird heute ein Schuh draus. Es ist einem scheis egal, ob man statt 80 % der theoretischen Flops nur noch 60% erreicht bei gleichem Energiebedarf, wenn darfür 140%+ mehr Theoretische Rechenleistung hat. Unterm stirch fährt man nämlich mit der geringeren Prozentsatz der theoretischen Rechenleistung noch immer besser.

Nein, das ist es nicht, was nVidia in Zukunft machen wird.

V2.0
2012-02-15, 21:13:21
Naja das ist doch selbstverständlich, auch mit leichtem OC. Für 10% mehr Takt hat man sicher nicht die Spannung erhöht. Das klingt jetzt ehrlich gesagt sogar nicht so positiv, wie ich es gehofft hatte.

Bei HT4U brauchte eine 560Ti 150W (TDP=170W), eine 580 knapp 250W. Wenn man dieses Verhältnis grob zugrunde legt, würde GK104 bei maximal 200W (250-25%) landen. Bei der tollen Effizienz sollte GK104 maximal das verbrauchen, was die 560Ti verbraucht, wenn man die Performance "nur" um 50% erhöht im Schnitt. Eigentlich gehe ich von mindestens +80% Perf/W aus, eher einer Verdopplung. Du hast ja angedeutet, dass GK104 Fermi da regelrecht verkloppt.

Gk104 OC - wäre bei max. 200W, Gk104 Stock .....

Ailuros
2012-02-15, 21:18:28
Nein, das ist es nicht, was nVidia in Zukunft machen wird.

Was ist es denn nach Deiner Meinung was NVIDIA in Zukunft machen wird genau? Verschon mich aber bitte von so wagen nichtsaussagenden Saetzen oder oedes oeffentliches Material dass fuer jeden im Netz zugaenglich ist.

Gk104 OC - wäre bei max. 200W, Gk104 Stock .....

244*20%= 195W. Und ich sagte sogar >20% :tongue:

Hugo78
2012-02-15, 21:51:56
244*20%= 195W. Und ich sagte sogar >20% :tongue:

Ist doch schon länger klar dass GK104 bei 5% mehr Speed*, 30W weniger verbrauchen wird als Thaiti XT. :cool:

* CB Rating (http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7950-crossfire/5/#abschnitt_leistung_mit_aaaf) 1920*1080 4xAA / 16xAF

Zergra
2012-02-15, 22:17:20
Am ende werden Sie enttäuscht wenn Tahiti XT immer noch 20-30% schneller als GK104 sein wird, 256Bit "2GB" krüppel soll das besser machen, Auflösung 2560 & 2GB DDR5? Und > "Wunder effizienz Vorteil" gegenüber Tahiti jetzt bekomm ist aber angst und tränen, die Chipfläche von GK104 ist dann selbst mit 300-330 mm² noch viel zu groß wenn Tahiti XT bei 365mm² deutlich schneller bleiben wird, es gibt doch jetzt schon Games wo Tahiti XT 50% schneller als GF110 ist.
jap :D aber wie gesagt das Spekulationsforum -> hier dreht es sich jeder wie er es gerne haben möchte :D da kann auch GK104 Plötzlich einen Tahiti XT um 20-30% schlagen hallo ? ^^
ich sag mal: in einem Monat wissen wir etwas mehr vorher weicht das hier noch ziemlich stark ab :P :tongue:

Iruwen
2012-02-15, 22:22:29
Du hast seinen Post verstanden?

w0mbat
2012-02-15, 22:23:34
Ein GK104 könnte wirklich sehr schnell werden.

AwesomeSauce
2012-02-15, 22:24:06
jap :D aber wie gesagt das Spekulationsforum -> hier dreht es sich jeder wie er es gerne haben möchte :D da kann auch GK104 Plötzlich einen Tahiti XT um 20-30% schlagen hallo ? ^^
ich sag mal: in einem Monat wissen wir etwas mehr vorher weicht das hier noch ziemlich stark ab :P :tongue:
Komisch. Niemand hier erwartet ernsthaft, dass GK104 schneller wird als Tahiti XT. Selektive Wahrnehmung?
Ein GK104 könnte wirklich sehr schnell werden.
http://media.tumblr.com/tumblr_ly0w2lAmdu1qbplir.png

Zergra
2012-02-15, 22:34:37
Komisch. Niemand hier erwartet ernsthaft, dass GK104 schneller wird als Tahiti XT. Selektive Wahrnehmung?

http://media.tumblr.com/tumblr_ly0w2lAmdu1qbplir.png

nunja ich jedenfalls nicht ! :D aber es gibt wohl ein paar die das hoffen :P was wenn es unter den unwarscheinlichsten Umständen eintreten würde, dann doch nicht so schön wäre denn die Preise für GK110 will man nicht sehen ! :P

Du hast seinen Post verstanden?
ja sicher !

Screemer
2012-02-15, 22:49:14
Powertune skaliert die Karte aber nur innerhalb der Taktgrenzen. Für mehr musst du selber Hand anlegen.
schon klar. quasi powertune + auto-oc. das wär doch nett.

w0mbat
2012-02-15, 23:05:16
http://media.tumblr.com/tumblr_ly0w2lAmdu1qbplir.png

Sag ich doch!

Ailuros
2012-02-15, 23:09:56
jap :D aber wie gesagt das Spekulationsforum -> hier dreht es sich jeder wie er es gerne haben möchte :D da kann auch GK104 Plötzlich einen Tahiti XT um 20-30% schlagen hallo ? ^^

Es gibt auch Spinner die in der Gefruertruhe zocken :biggrin:

ich sag mal: in einem Monat wissen wir etwas mehr vorher weicht das hier noch ziemlich stark ab :P :tongue:

In fast einem Monat wird es soviel leaks geben das es schwer sein wird allen zu folgen. Nur wird dabei nicht irgend etwas einleuchtendes erscheinen was hier nicht schon besprochen wurde. Die eigentliche offizielle Vorstellung ist etwas spaeter ergo etwas mehr Geduld als Du erwartest.

Nuechtern betrachtet muss man schon ein die hard AMD fanboy sein um nicht einsehen zu koennen dass GK104 ein sehr gutes Teil ist. Wer jetzt 8. Wunder erwartet ueberhaupt nach den sterilen Spezifikations-zahlen wird sich wohl nach dem Launch in irgend einem dunklen Keller selber auspeitschen muessen, was mir aber auch ziemlich egal ist. :D

Blediator16
2012-02-15, 23:48:18
Naja die 480gtx war ja eigentlich auch kein absoluter Reinfall da wird NV mit dem Kepler schon nicht entäuschen^^

Gipsel
2012-02-16, 02:01:52
Angenommen die Werte stimmen:
Die übertaktete GK104 ist mit 4AA im Schnitt 41% schneller als die GTX580. Zieht man 10% durch die Übertaktung ab, sind es 36,9%.10% Übertaktung ergeben von den 41% Mehrleistung 4,1% und deswegen ist man ohne Übertaktung noch 41% - 4,1% = 36,9% schneller? :freak:
LS, Deine Prozentrechnung stimmt so nicht.

Die korrekte Rechnung sieht so aus:
141/1,1 = 128,1
Ergo 28% Mehrleistung ohne die Übertaktung (in der Annahme, daß der Speichertakt ebenfalls um 10% angehoben wurde und man weit weg vom CPU-Limit war). ;)

aufkrawall
2012-02-16, 04:10:56
Naja die 480gtx war ja eigentlich auch kein absoluter Reinfall da wird NV mit dem Kepler schon nicht entäuschen^^
Die AMP!-Versionen waren jeder Radeon klar vorzuziehen, vom Stromverbrauch mal abgesehen.

mczak
2012-02-16, 05:48:36
Die AMP!-Versionen waren jeder Radeon klar vorzuziehen, vom Stromverbrauch mal abgesehen.
Würde ich so nicht unterschreiben. Klar die waren definitiv schneller. Nicht nur der Stromverbrauch war ein Problem, sagen wir's mal so gegenüber der HD 5870 hat der Preis stärker skaliert als die Leistung :-). Die Probleme wurden aber ja gefixt (mit GF110) denke kaum dass nvidia dieselben Fehler wieder macht...

Skysnake
2012-02-16, 08:28:10
Nein, das ist es nicht, was nVidia in Zukunft machen wird.
Klar, Sie bringen endlich öffentlich die nVidia Force raus, und verbiegen damit die Naturgesetze :ugly:

nunja ich jedenfalls nicht ! :D aber es gibt wohl ein paar die das hoffen :P was wenn es unter den unwarscheinlichsten Umständen eintreten würde, dann doch nicht so schön wäre denn die Preise für GK110 will man nicht sehen ! :P

Manche Leute erwarten hier ja sogar GK104 um mindestens! 50% vor Tahiti XT :rolleyes:

(PS diese "anderen Leute" findet man namentlich auch hier im Beitrag genannt ;D)

Adam D.
2012-02-16, 08:33:56
AiL, Launch noch im März? :)

Skysnake
2012-02-16, 08:35:05
Naja, wenn man nach dem geht, was immer in der Gerüchteküche war, und seiner Andeutung >1Monat wohl wirklich der 1. April, oder kurz davor/danach.

boxleitnerb
2012-02-16, 08:41:02
Es wurde zwar schonmal gefragt, aber ich glaube noch nicht so ganz beantwortet:

Nimmt GK104 Prozessverbesserungen im Vergleich zur frühen Tahiti-Produktion mit und kann daher mit niedrigerer Spannung (bzw. weniger Undervoltingpotential) kommen? AMD könnte (im Gegensatz zu NV?) die Spannung später um 0.05-0.1V senken und schon wäre man vielleicht sogar effizienter.

Zum OC-Potential ist noch nichts bekannt? Gibt es irgendeine Eigenheit der Keplerarchitektur, die höhere Taktraten besonders begünstigt oder eben nicht begünstigt?

Adam D.
2012-02-16, 08:53:15
Naja, wenn man nach dem geht, was immer in der Gerüchteküche war, und seiner Andeutung >1Monat wohl wirklich der 1. April, oder kurz davor/danach.
Eigentlich ist es wurscht, weil man wohl spätestens in 6 Wochen die Dinger kaufen kann. Aber wenn man so ein Ding halt in den Händen halten will, wird man irgendwann ungeduldig :freak:

Es wurde zwar schonmal gefragt, aber ich glaube noch nicht so ganz beantwortet:

Nimmt GK104 Prozessverbesserungen im Vergleich zur frühen Tahiti-Produktion mit und kann daher mit niedrigerer Spannung (bzw. weniger Undervoltingpotential) kommen? AMD könnte (im Gegensatz zu NV?) die Spannung später um 0.05-0.1V senken und schon wäre man vielleicht sogar effizienter.

Zum OC-Potential ist noch nichts bekannt? Gibt es irgendeine Eigenheit der Keplerarchitektur, die höhere Taktraten besonders begünstigt oder eben nicht begünstigt?
Da ATi Tahiti Pro und XT wohl kaum relaunchen wird, würde diese Annahme nur für einen möglichen Refresh gelten. Und da wir die Effizienz des GK110 noch nicht kennen, ist halt irgendwie keine Vergleichsbasis da. Trotzdem könnte es natürlich sehr gut sein, dass ATi beim potentiellen Tahiti XTX deutlich zurückhaltender mit der Spannung arbeiten wird :up:

Hugo78
2012-02-16, 08:55:24
@boxleitnerb

Na wie groß mögen Prozessverbesserungen innerhalb eines Quartals schon sein?

boxleitnerb
2012-02-16, 08:59:24
Nicht relaunchen, aber die Chips still und leise einfach mit niedrigerer Spannung ausliefern. Wobei das u.U. keiner mitkriegt. Und das OC-Potential dann wieder leidet.

Es wäre mal echt interessant, wenn jemand alle 3 Monate sich 10 Karten (gleiches Modell) aus verschiedenen Shops holt und dann UV und OC testen würde, um die Prozessreife zu untersuchen. Solche Sachen fände ich weitaus interessanter als immer nur irgendwelche stupiden Benchmarks laufen zu lassen. Bloß gibt es leider keine Garantie, dass die Karten jeweils auch neu sind. Können auch welche sein, die vor drei Monaten auf einer Palette vergessen wurden...

@Hugo78:

Komplett vernachlässigbar sicher nicht. Sonst hätte man (abseits Kapazitäts- und Ressourcenbeschränkungen) GK110 ja zeitgleich mit GK104 launchen können. Oder GF100 noch 2009.

Hugo78
2012-02-16, 09:00:51
Wobei das u.U. keiner mitkriegt.

Und das wäre sinnlos für AMDs PR. ;)

edit:
Eigentlich ist es wurscht, weil man wohl spätestens in 6 Wochen die Dinger kaufen kann. Aber wenn man so ein Ding halt in den Händen halten will, wird man irgendwann ungeduldig :freak:

Mal schauen was die Cebit (06. bis 10. März) bringt.

Und wie Mancko schon schrieb:
Nvidia will irgendas neues zur PDX LAN mitbringen - was auch immer das ist. Die LAN ist am 19. Februar 2012

http://www.pdxlan.net/portland/

LovesuckZ
2012-02-16, 09:09:28
Klar, Sie bringen endlich öffentlich die nVidia Force raus, und verbiegen damit die Naturgesetze :ugly:

Vielleicht solltest du nochmal das Lesen, was nVidia veröffentlicht.
Bitte keine Unwahrheiten hier schreiben, danke.:)

OgrEGT
2012-02-16, 10:08:35
Irgendwas dran an SA's Artikel über 28nm yield Probleme bei NV?
http://semiaccurate.com/2012/02/15/nvidia-comes-somewhat-clean-on-their-quarterly-conference-call/

Soul
2012-02-16, 10:28:13
During today’s call, Nvidia once again blamed TSMC for their yield problems. As we have said, Nvidia seems to be alone in having these problems. Ich finde den SA Artikel nicht allzu genau. Es gibt mehrere "Firmen" die scheinbar Probleme mit dem TSMC 28nm Prozess haben nur will es keiner offen sagen.

Dural
2012-02-16, 10:32:33
ist ja nichts neues ;)

NV hat ja schon letztes jahr mal gesagt "wir liegen im zeitplan arbeiten aber noch an bessere yield"


bei AMD auch das gleiche, nicht umsonst sind die karte so krass überteuert, die menge an 28nm chips ist derzeit halt noch beschränkt.

Soul
2012-02-16, 10:39:17
Das Indiz war bei mir eher der Fall, dass AMD keine Liefergarantie an Apple abgeben wollte/konnte und diese dann zu nVidia gewechselt haben für die kommende Generation. Welche Firma gibt schon freiwillig einen "lukrativen" Grossabnehmer ab, wenn man Fertigen und Liefern könnte.

V2.0
2012-02-16, 10:39:59
Naja, wenn die Probleme nur NV betreffen, dann ist es möglich, dass NV weder die erhoffte Leistung, noch Preise, noch Verfügbarkeit, noch Launchtermin halten können. :D

Soul
2012-02-16, 10:44:42
Naja, wenn die Probleme nur NV betreffen, dann ist es möglich, dass NV weder die erhoffte Leistung, noch Preise, noch Verfügbarkeit, noch Launchtermin halten können. :D

Die werden Launchen weil sie es sich nicht leisten können zu warten. Die Frage wird nur sein, wieviele Chips können sie an die Hersteller liefern.

Was Apple angeht, wäre die einzige Hoffnung für nV, dass Intel die Ivy's verzögert.

LovesuckZ
2012-02-16, 10:58:59
Ich finde den SA Artikel nicht allzu genau. Es gibt mehrere "Firmen" die scheinbar Probleme mit dem TSMC 28nm Prozess haben nur will es keiner offen sagen.

Das ist Char-Lie. Muss man einfach nur zur Belustigung lesen.

Huang sagt: Wir brauchen mehr Wafer, da die Yields nicht ganz den Erwartungen entsprechen und wir mehr Design-Wins als sonst haben.

Und für Yields ist nunmal TSMC zuständig.

Achja, für die Leute, die meinen, dass Kleinzeug ja so toll wäre auf einem neuen Prozess: nVidia senkt die Marge für Q1, weil die Yields niedriger als erwartet sind. Soviel dazu.

OgrEGT
2012-02-16, 11:04:28
Ich finde den SA Artikel nicht allzu genau. Es gibt mehrere "Firmen" die scheinbar Probleme mit dem TSMC 28nm Prozess haben nur will es keiner offen sagen.

Momentan sieht es wohl so aus, dass im März wenn GK104 aufschlagen soll, AMD die komplette 28nm Palette gelauncht haben wird. Mag sein mit überteuerten Preisen, da die Menge an GPUs noch zu gering ist um die NAchfrage zu decken, aber, immerhin alle verfügbar (von HD7990 abgesehen).

Allein aus Prestigegründen wird der Geschmack immer fahler ob der Tatsache, dass NV noch immer nicht einmal ein einziges 28nm Produkt und wenn auch nur Papergelauncht hat.

Mehrere werden Probleme mit TSMCs neuem Prozess haben. Der Prozess ist immerhin neu, und muss auf das jeweilige Chipdesign angepasst werden.

Beim einen läuft es besser, bei anderen schlechter...
AMD war schon immer gut was die Executionperformance bei den GPUs betrifft.

OgrEGT
2012-02-16, 11:09:59
Huang sagt: Wir brauchen mehr Wafer, da die Yields nicht ganz den Erwartungen entsprechen und wir mehr Design-Wins als sonst haben.

Und für Yields ist nunmal TSMC zuständig.


Aber was nützt es nachher, wenn man anderen die Schuld geben kann? Wenn das stimmt, dass Apple 28nm Produkte bei TSMC fertigen lässt (von den anderen genannten Kunden mal abgesehen), dann werden die auch eine große Menge der verfügbaren Fertigungskapazität benötigen, so dass Huang sich auf den Kopf stellen und den ganzen Tag schreien kann ohne dass es was bringt.

Ich hoffe nur nicht, dass sich NV bei den ganzen DesignWins die sie sich an Land gezogen haben schlussendlich übernommen hat.

boxleitnerb
2012-02-16, 11:10:58
Schon immer? Das ist doch erst ab GF100 so. Jetzt hat man 2-3 Monate Verspätung vs. 6 Monate bei Fermi und da sind sie auch nicht untergegangen. Kepler wird kein Effizienzreinfall wie Fermi und so ewig spät kommt er auch nicht. Sehe nicht wirklich das Problem. Es ist illusorisch, dass die auf die Woche gleichzeitig launchen, das wird es nicht mehr geben.

Auf GK104-Level sehe ich sowieso nicht das Problem, weil nur total Ungeduldige, denen P/L nicht wichtig ist, jetzt schon zu Tahiti greifen. Absolut gesehen dürften das ein paar Tausend, vielleicht Zehntausend sein. Mit solchen Mengen gewinnt man aber nicht wirklich Blumentöpfe, da musst du schon ein, zwei Größenordnungen drüber liegen. Es ist hauptsächlich ein psychologischer Gewinn, den AMD im Moment hat. Wenn GK106/107 allerdings nicht sehr sehr flott nach GK104 aufschlagen, dann wirds wirklich ernst.

OgrEGT
2012-02-16, 11:14:09
Schon immer? Das ist doch erst ab GF100 so. Jetzt hat man 2-3 Monate Verspätung vs. 6 Monate bei Fermi und da sind sie auch nicht untergegangen. Kepler wird kein Effizienzreinfall wie Fermi und so ewig spät kommt er auch nicht. Sehe nicht wirklich das Problem. Es ist illusorisch, dass die auf die Woche gleichzeitig launchen, das wird es nicht mehr geben.

Ich habe nicht gesagt "schon immer besser" sondern "immer schon gut".

boxleitnerb
2012-02-16, 11:15:30
Relativ gesehen kann man das auch bei NV sagen. Ausfälle gibts bei beiden, siehe R600.

LovesuckZ
2012-02-16, 11:19:37
Aber was nützt es nachher, wenn man anderen die Schuld geben kann? Wenn das stimmt, dass Apple 28nm Produkte bei TSMC fertigen lässt (von den anderen genannten Kunden mal abgesehen), dann werden die auch eine große Menge der verfügbaren Fertigungskapazität benötigen, so dass Huang sich auf den Kopf stellen und den ganzen Tag schreien kann ohne dass es was bringt.

Ich hoffe nur nicht, dass sich NV bei den ganzen DesignWins die sie sich an Land gezogen haben schlussendlich übernommen hat.

Was willst du hier sagen? nVidia rampt Kepler. Sie befinden sich mit AMD in einer Übergangszeit. Mit dem Erscheinen der 28nm Produkte geht die Nachfrage nach 40nm schlagartig nach unten. Da aber die 28nm Kapazitäten aufgrund geringerer Yields und weniger Produktionsanlagen limitiert sind, ist es eben problematisch.

Ansonsten ist nVidia im Zeitplan. Keine Ahnung, warum Leute hier solche hektik machen.

Und wer digitimes vertraut:
Nvidia is expected to have at least eight models of graphics cards in April including GTX690, GTX660 and GTX640 with GK110, GK104 and GK106 cores.
http://www.digitimes.com/news/a20120215PD219.html

OgrEGT
2012-02-16, 11:22:37
Auf GK104-Level sehe ich sowieso nicht das Problem, weil nur total Ungeduldige, denen P/L nicht wichtig ist, jetzt schon zu Tahiti greifen. Absolut gesehen dürften das ein paar Tausend, vielleicht Zehntausend sein. Mit solchen Mengen gewinnt man aber nicht wirklich Blumentöpfe, da musst du schon ein, zwei Größenordnungen drüber liegen. Es ist hauptsächlich ein psychologischer Gewinn, den AMD im Moment hat. Wenn GK106/107 allerdings nicht sehr sehr flott nach GK104 aufschlagen, dann wirds wirklich ernst.

Klaro. Nur glaube ich nicht daran, dass NV gleich gute oder bessere yields hat als AMD, nur mit dem Unterschied, dass NV Chips sammelt, und AMD sofort verkauft.

V2.0
2012-02-16, 11:27:44
Unmöglich ist es nicht. Wenn NV momentan nur GK107 fertigt und diese komplett ins OEM gehen, dann lohnt ein Retaillaunch nicht.

Schnitzl
2012-02-16, 11:36:26
(...)
Ansonsten ist nVidia im Zeitplan. Keine Ahnung, warum Leute hier solche hektik machen.
Wenn das so wäre hätte ich jetzt nen GK104 im Rechner und nicht ne 7950...

Wollte nVidia nicht ursprünglich sogar noch 2011 mit Kepler starten?

Hugo78
2012-02-16, 11:37:01
Wollte nVidia nicht ursprünglich sogar noch 2011 mit Kepler starten?

Nein.

LovesuckZ
2012-02-16, 11:40:35
Wenn das so wäre hätte ich jetzt nen GK104 im Rechner und nicht ne 7950...

Wollte nVidia nicht ursprünglich sogar noch 2011 mit Kepler starten?

Seit August 2011 nicht mehr. ;)
Seitdem war klar, dass Kepler frühsten im März/April kommt.

foenfrisur
2012-02-16, 12:11:40
Nein.

doch, aber es gab "leistungsprobleme", dann wurde einfach auf das gesamte jahr 2012 (ohne quartalsangabe) verschoben.

so gesehen wäre dezember auch im zeitplan^^

mfg

Hugo78
2012-02-16, 12:14:46
doch, aber es gab "leistungsprobleme", dann wurde einfach auf das gesamte jahr 2012 (ohne quartalsangabe) verschoben.

so gesehen wäre dezember auch im zeitplan^^

mfg

Erklär mir dochmal, wer 28nm Chips in der Menge die NV braucht, hätte produzieren können im letzen Jahr, wenn man bis Dezember hätte launchen wollen? ;D

edit:
Als Denkanstoß, eine aktuelle Meldung von heute.
AMD kann selbst winzige 130mm^2 kleine Chips nicht in der Menge liefern, die sie gern hätten.
http://www.computerbase.de/news/2012-02/amds-radeon-hd-7750-hat-lieferschwierigkeiten/

foenfrisur
2012-02-16, 12:25:35
komisch das nv mehrere revisionen aufgelegt hat und auch bis heute kein kepler auf dem markt ist, während amd 28nm-silizium hat ;)
oder meist du das pcie3.0-problem war das einzige?

und weiterhin sind die gründe auch erstmal egal, denn verschoben ist verschoben.

mfg

btw:
leistungsprobleme können ja auch durch tsmc entstehen, muss ja nicht nvidias schuld sein.

LovesuckZ
2012-02-16, 12:30:50
nVidia hat schon im August 2011 erklärt, dass man mit der Produktion von Kepler erst Ende 2011 bzw. Anfang 2012 starten werde. Huang hat im September 2011 einen Ausblick auf die Umsatztreiber gegeben - mit Geforce-Kepler für Q1. Durch das chinesische Neujahrsfest steht die Fertigung Ende Januar annährend 2 Wochen still.

Sie haben vor 7 Monaten verschoben.

aylano
2012-02-16, 12:32:37
Unmöglich ist es nicht. Wenn NV momentan nur GK107 fertigt und diese komplett ins OEM gehen, dann lohnt ein Retaillaunch nicht.
Natürlich ist es eine Möglichkeit, aber an sich zeigt es schon wie knapp es bei Nvidia wird, wenn GK107 nur für den OEM bringen und dazu GK104 extra nach hinten verschieben mussten.
http://www.computerbase.de/news/2012-02/ivy-bridge-verfuegbarkeit-in-grosser-menge-erst-ab-juni/
Nachdem Ive-Bridge vielleicht erst ab Juni der richtige Ramp stattfindet, sollten doch ein paar GK107 für den Retail-Markt in April-Juni übrigbleiben.

edit:
Als Denkanstoß, eine aktuelle Meldung von heute.
AMD kann selbst winzige 130mm^2 kleine Chips nicht in der Menge liefern, die sie gern hätten.
http://www.computerbase.de/news/2012-02/amds-radeon-hd-7750-hat-lieferschwierigkeiten/
Ich kann zwar nicht lesen, a) ob AMD die Mengen nicht liefern kann und welche AMD-Mengen das Wunschziel war.
AMD hatte ja im 2Q 2009 mit RV740 genauso Lieferschwierigkeiten gehabt, wie im 2Q 2010 mit Low-END & Mainstream-DX11. Zwar war das das gleiche Problem, aber die Dimension war eine völlig andere.

Auch wenn es mir damals kaum einer glaubte, sagte ich schon 2011, dass das Ganze Jahr die GPU-Ramps & GPU-Yields @ TSMC-Fertigung --> Verfügbarkeit das ganze 2012 hauptbeschäftigen wird.

foenfrisur
2012-02-16, 12:43:12
im genauen wortlaut:
"Although we will have early silicon this year, Kepler-based products are actually scheduled to go into production in 2012. We wanted to clarify this so people wouldn’t expect product to be available this year," said Ken Brown

http://www.xbitlabs.com/news/graphics/display/20110804175446_Nvidia_Denies_Plans_to_Release_Kepler_GPU_in_2011.html

mfg

Hübie
2012-02-16, 12:54:09
August war tape out (early silicon) und jetzt befindet sich der Kram in Produktion (go into production in 2012). Das hatten wir schon x-mal durchgekaut.
Worauf soll eure Diskussion hinaus laufen?

LovesuckZ
2012-02-16, 12:58:23
Es soll nur zeigen, dass sie jetzt weiterhin im Zeitplan sind. Sorgen kann man sich machen, wenn man in 29 Tagen noch nichts gehört hat.

davidzo
2012-02-16, 13:16:54
Es soll nur zeigen, dass sie jetzt weiterhin im Zeitplan sind. Sorgen kann man sich machen, wenn man in 29 Tagen noch nichts gehört hat.

Soll heißen dass solange irgendein Kepler Chip noch 2012 herauskommt nvidia "im Zeitplan" ist, die schwammige Aussage die da zitiert wird lässt sogar zu dass gar nur die Massenproduktion in 2012 anläuft.

Eine imo völlig wertlose Aussage ohne Monatsangabe und ohne zu wissen wann der Zeitplan gemacht(bzw. geändert), die niemanden außer vielleicht Lovesuckz, Hugo78 und boxleitnerb befriedigt.

Für mich ist es völlig egal wann Kepler kommt, fail oder nicht fail sind völlig egal, hauptsache die Karten sind zum Erscheinungszeitpunkt Konkurrenzfähig. Dabei ist es völlig unerheblich ob Kpler nun gegen Tahiti oder Tahiti Refresh antritt oder Pitcairn gegen GK104 oder GK107.
Geringer Energieverbrauch, gute Referenzborads+kühlung, gute Filterquali und AA modi, gute Opensourcetreibr und OpenGl performance bei einem guten Preis/Leistungsverhältnis, das werde ich heranziehen um die Kontrahenten zu bewerten, nichts anderes!

Die Execution, Zeitpunkt, Diespace, etc. ist doch völlig egal, schließlich bin ich kein Ökonom oder Anleger sondern einfach nur potentieller Käufer!

derzeit ist eine 560ti ein durchaus interessantes Produkt, genau wie 6870 und 7950, wieso sollte ich also darauf achten was für eine Ziffer als erstes steht?

foenfrisur
2012-02-16, 13:20:28
das klingt ja schon fast nach einem schönen schlusssatz^^
ich drück mal den "like"-button. (wo is der nur?? ;) )

mfg

LovesuckZ
2012-02-16, 13:42:46
Soll heißen dass solange irgendein Kepler Chip noch 2012 herauskommt nvidia "im Zeitplan" ist, die schwammige Aussage die da zitiert wird lässt sogar zu dass gar nur die Massenproduktion in 2012 anläuft.
Eine imo völlig wertlose Aussage ohne Monatsangabe und ohne zu wissen wann der Zeitplan gemacht(bzw. geändert), die niemanden außer vielleicht Lovesuckz, Hugo78 und boxleitnerb befriedigt.

Wie wäre es mit vollständigem Lesen? Ich meine, wenn Leute mehr schreiben als das, was du zitierst, sollte man doch annehmen, dass der Rest ebenfalls von Bedeutung ist.

Hier das Postings, dass dir eigentlich hätte zeigen sollen, worauf ich mich beziehe:

nVidia hat schon im August 2011 erklärt, dass man mit der Produktion von Kepler erst Ende 2011 bzw. Anfang 2012 starten werde. Huang hat im September 2011 einen Ausblick auf die Umsatztreiber gegeben - mit Geforce-Kepler für Q1. Durch das chinesische Neujahrsfest steht die Fertigung Ende Januar annährend 2 Wochen still.

Sie haben vor 7 Monaten verschoben.

Du siehst, der Zeitplan ist vorhanden - seit spätesten September 2011.

foenfrisur
2012-02-16, 13:52:25
ursprünglicher zeitplan für kepler war dennoch 2011.
sonst hätten nicht alle von "scheduled" gesprochen.
aber ein zeitplan kann ja auf lang-, mittel- oder kurzfristige sicht sein :P

und die neuen revisionen der chips sprechen so gesehen auch für eine "ungeplante" verzögerung.
auch wenn es nicht so ausgesprochen wird.
aber es hieß auch mal februar, nun schon märz/april.

und natürlich gabs auch schon im dezember eine magere 28nm-produktion, denn amd hatte zum 22.12. ja offenbar auch schon viele fertige 79xx-karten.

mfg

Iruwen
2012-02-16, 13:55:39
das klingt ja schon fast nach einem schönen schlusssatz

Da kennste LZ aber schlecht.

wenn Leute mehr schreiben als das, was du zitierst, sollte man doch annehmen, dass der Rest ebenfalls von Bedeutung ist.

Da sag ich lieber nix zu :rolleyes:

Das ist doch nun zur Genüge totgequatscht, irgendwann demnächst kommt Kepler, wann genau interessiert keinen. Nur Leistung, Leistungsaufnahme und Preis. Außerdem kennt hier eh keinen den Masterplan, AMD hat die 7700er aus gutem Grund auch erst jetzt gelauncht, die 7750 ist wie man sieht trotzdem kaum lieferbar und die Preise viel zu hoch. Wenn Nvidia einen Hardlaunch mit niedrigeren Preisen plant kommen sie halt später. Fucking Rocket Science :freak:

V2.0
2012-02-16, 13:56:38
Und jetzt sagt Digitimes April....

Also dann, wenn die Souther Islands vollständig vorgestellt sind, wird NV einen Monat später gerade einen Chip launchen.

foenfrisur
2012-02-16, 13:58:00
vorhin gabs hier ein post, in dem stand etwas von 8 verschiedenen versionen/karten.
oder?

mfg

LovesuckZ
2012-02-16, 14:02:24
ursprünglicher zeitplan für kepler war dennoch 2011.
sonst hätten nicht alle von "scheduled" gesprochen.
aber ein zeitplan kann ja auf lang-, mittel- oder kurzfristige sicht sein :P

und die neuen revisionen der chips sprechen so gesehen auch für eine "ungeplante" verzögerung.
auch wenn es nicht so ausgesprochen wird.
aber es hieß auch mal februar, nun schon märz/april.

und natürlich gabs auch schon im dezember eine magere 28nm-produktion, denn amd hatte zum 22.12. ja offenbar auch schon viele fertige 79xx-karten.

mfg

Und nun? Der ursprüngliche Plan wurde vor mehr als 7 Monaten geändert. Und von welchen "neuen Revisionen" und einem Launch im "Februar" hier gesprochen wird, ist mir schleierhaft. Das einzige, was ich noch gelesen habe: Der Februar-Launch stand auf der Roadmap bevor man sie vor August änderte. Hm, ja. Da müssten sie also schon seit 6 Monaten an "neuen Revisionen" arbeiten, gell?

Screemer
2012-02-16, 14:03:51
Und jetzt sagt Digitimes April....

Also dann, wenn die Souther Islands vollständig vorgestellt sind, wird NV einen Monat später gerade einen Chip launchen.

digitimes sagt GTX690 aka gk110, GTX660 aka gk104 und GTX640 aka gk107 kommen alle im april. Wer das glaubt, der glaubt auch ans christkind. entweder kommen die gk104 basierenden karten vor april oder die execution wird über den april hinaus gehen.


Und nun? Der ursprüngliche Plan wurde vor mehr als 7 Monaten geändert. ?
mitte september bis mitte februar sind mehr als 7 monate? im übrigen kam das mit sep. von dir (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9168672&postcount=4570). kannst dus nicht einfach sein lassen. alles was zum release termin zu sagen war, wurde hier gesagt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9168619&postcount=4568

LovesuckZ
2012-02-16, 14:20:34
Ken Brown hat am 8. August xbitlabs mitgeteilt, dass man erst 2012 in Produktion gehen werde. Einen Monat später hat Huang die Financial-Roadmap gezeigt.

Das sind 6 1/2 Monate zu Brown. Du kannst locker davon ausgehen, dass Kepler schon weitaus länger nicht mehr für 2011 geplant war und auf das 1.h Halbjahr 2012 geschoben wurde.

Seit der Roadmap vom Huang ist auch ein Februar-Launch ausgeschlossen. Dafür hätten sie Kepler schon in F-Q4 verkaufen müssen.

Dural
2012-02-16, 14:26:28
http://www.computerbase.de/news/2012-02/tsmcs-28-nm-produkte-das-ganze-jahr-knapp/


hier noch mal die bestätigung, 1Q werden kepler chips ausgeliefert.

zuwenig 28nm kapazität, 2012 ist 28nm kein Volumen Produkt :eek::eek::eek:


die lächerlichen 299.- Doller könnt ihr euch sonst wo hinkleben, vergesst das mal ganz schnell :P

Iruwen
2012-02-16, 14:31:01
2012 ist 28nm kein Volumen Produkt :eek::eek::eek:

Da steht dass man nicht erwartet "in diesem Jahr die 28-nm-Produkte in dem Volumen zu sehen, die der Markt wirklich nutzen könnte." Das ist eine völlig andere Aussage.

PS: http://www.tsmc.com/tsmcdotcom/PRListingNewsAction.do?action=detail&newsid=6181

Dural
2012-02-16, 14:38:34
ja ok etwas übertrieben formuliert :biggrin:


aber NV scheint mit kepler ein heisses Eisen am Start zu haben, schade hängt alles offensichtlich am Fertigungsprozess :rolleyes:

LovesuckZ
2012-02-16, 14:44:35
die lächerlichen 299.- Doller könnt ihr euch sonst wo hinkleben, vergesst das mal ganz schnell :P

nVidia's Marge sinkt wegen 28nm. Das ist eher eine Bestätigung, dass sie die Preise nicht erhöhen.

Iruwen
2012-02-16, 15:07:31
Intel to postpone mass shipments of Ivy Bridge processors (http://www.digitimes.com/news/a20120215PD215.html)

Bingo...

Cyphermaster
2012-02-16, 15:14:53
aber NV scheint mit kepler ein heisses Eisen am Start zu haben, schade hängt alles offensichtlich am Fertigungsprozess :rolleyes:nVidia's Marge sinkt wegen 28nm. Das ist eher eine Bestätigung, dass sie die Preise nicht erhöhen.Es ist immer ein wenig mit Vorsicht zu genießen, was so nach außen dringt. Halbseidene "Infokanäle" oder Sachen, die man sich zwischen den Zeilen rausinterpretiert, sind leicht auch die "zweite PR-Schiene" großer Firmen - und nVidia ist natürlich sehr darauf erpicht, Kepler so interessant zu halten, daß möglichst wenige Kaufinteressenten sich jetzt HD7 zuwenden (später dann wieder AMD vs. Kepler bis SeaIsland).

Ich denke schon, daß nVidia die Preise hoch läßt, wenn sie es sich leisten können, ggf. auch insgesamt/langfristig steigert. Kein Unternehmen verschenkt einfach so Geld. Offen ist nur, in wie weit sie sich das gegenüber AMDs Preispolitik, der Verfügbarkeit von Kepler usw. leisten können, oder eben nicht.

Soul
2012-02-16, 15:15:12
Vielleicht hat Apple ihren Grossauftrag verschoben weil sie ohne nV GPUs keine Ivy Based Rechner bauen können. ;)

OgrEGT
2012-02-16, 15:16:40
Intel to postpone mass shipments of Ivy Bridge processors (http://www.digitimes.com/news/a20120215PD215.html)

Bingo...

Na, wenn NV bereits große Mengen an GK107-ern angehäuft hat, dann können sie doch die jetzt wenigstens launchen. Bis Intel Ivy bringt, haben sie auf jeden Fall wieder genug. Wär doch schade, wenn all die fertigen Chips 1 Quartal unnütz rumliegen würden :ucoffee:

Schaffe89
2012-02-16, 15:24:51
Ivy verspätet sich für die Notebooks, vielleicht ja aufgrund des schlechten Fertigungsprozesses für Nvidia GPu´s.
Wenn Nvidia jetzt selbst schon zugibt, dass man mehr Produktionskapazitäten und höhere yields erwartet habe, sieht es so aus, als ob man GK104 doch eher etwas später bringt, als das noch vor ein paar Monaten geplant war.

Ailuros hat da ja gestern schon etwas angekündigt, bzüglich GK104 Release.

Das ist eher eine Bestätigung, dass sie die Preise nicht erhöhen.

Ach wenn die Aussagen natürlich etwas aus dem Kontext jetzt gerissen werden, scheinen solche Dinge eher deinen Wunschvorstellen zu entsprechen, als der Realität.
Genauso willst du keine Verschiebung von Kepler wahr haben wollen.
Geh mal lieber nüchtern von ende April ( Hardlaunch) aus.

Iruwen
2012-02-16, 15:29:51
Ich versteh das allerdings auch so dass man die Preise niedrig halten will, die Herstellungskosten sind noch vergleichsweise hoch aber das gibt man nicht an den Kunden weiter. Wie sollte die geringere Marge (= Diferenz zwischen Ein- und Verkaufspreis) sonst zu verstehen sein?

y33H@
2012-02-16, 15:33:00
IVB DT kommt später, damit man noch mehr SNB DT aus den Lagern kriegt (Stichwort HDD-Krise). NV dürfte das allerdings entgegen kommen.

Ronny145
2012-02-16, 15:38:27
IVB DT kommt später, damit man noch mehr SNB DT aus den Lagern kriegt (Stichwort HDD-Krise). NV dürfte das allerdings entgegen kommen.


Später kommt gar nichts. Die Produktion läuft nicht mit voller Kapazität bis Juni wenn man den Artikel glauben schenken möchte.

Gipsel
2012-02-16, 15:38:42
Es gibt mehrere "Firmen" die scheinbar Probleme mit dem TSMC 28nm Prozess haben nur will es keiner offen sagen.
Nur gibt es den 28nm Prozeß nicht. Deswegen sind alle Aussagen, die davon sprechen, ein wenig zu unscharf.
TSMC hat aktuell drei verschiedene 28nm Prozesse im Angebot und bald werden es vier unterschiedliche sein (HPM kommt zu LP, HPL und HP dazu). Dabei unterschieden sich die drei aktuellen wesentlich voneinander. Solange also die Probleme nicht sehr allgemeiner Natur sind (schlechte Oberflächengüte der Wafer, mangelnde Genauigkeit der Belichter/Stepper, mangelnde Präzision der Masken oder sowas) können sich die Ergebnisse mit den drei verschiedenen Prozessen wesentlich unterscheiden, da sie unterschiedlichen "Kochrezepten" folgen, die Transistoren sind also deutlich unterschiedlich aufgebaut. Die ins Auge stechenden Unterschiede sehen so aus:
28LP: Poly/SiON-Gates, eSiGe
28HPL: HKM-Gates, kein eSiGe
28HP/HPM: HKM-Gates, eSiGe

Die Prozeßschritte für die Herstellung unterscheiden sich notgedrungen sowohl in der Art als auch der Abfolge für die verschiedenen Prozesse. Je nachdem wo genau ein Problem auftritt (was auch nur durch eine bestimmte Kombination getriggert werden kann), hat es nur einen Einfluß auf den einen oder den anderen Prozeß.

Schaffe89
2012-02-16, 15:41:34
Ich versteh das allerdings auch so dass man die Preise niedrig halten will, die Herstellungskosten sind noch vergleichsweise hoch aber das gibt man nicht an den Kunden weiter

Was würde ein Unternehmen in einem solchen Fall machen?
Die Preise an die Kunden weitergeben und erstmal auf einigermaßen solide Margen zu kommen und sich nicht das Geschäftsquartal verregnen zu lassen.
Auch wenn das nicht explizit erwähnt wird. Die Aussagen sind nach wie vor schwammig und das heißt eigentlich nichts gutes für GK104. Für den GK110 noch weniger gutes.

Cyphermaster
2012-02-16, 15:43:54
Ich versteh das allerdings auch so dass man die Preise niedrig halten will, die Herstellungskosten sind noch vergleichsweise hoch aber das gibt man nicht an den Kunden weiter. Wie sollte die geringere Marge (= Diferenz zwischen Ein- und Verkaufspreis) sonst zu verstehen sein?Man kann "die Marge" z.B. auch auf das gesamte Geschäft beziehen, und dann sind geringere Verkaufszahlen einer Produktsparte schon eine automatische Senkung der erwarteten Marge für den betreffenden Zeitraum, auch und gerade wenn man Preise hoch läßt. Bis es da Hochoffizielles gibt, bleibe ich deswegen bissl skeptisch, daß das in "wir machen Kampfpreise" zu übersetzen wäre.

Wenn Kepler ein Hammer wird, dann würde nVidia die Chips wohl kaum unnötig verschleudern wollen - jetzt, wo AMDs Preispolitik eigentlich eher erlaubt, insgesamt ein höheres Preisniveau zu halten.

Spirou
2012-02-16, 15:43:57
Oh, sie gestehen offenbar ein, ihre Ziele auf allen Ebenen zu verfehlen: "the best GPU we've ever built, and the performance and power efficiency is surely the best that we've ever created" ( http://www.computerbase.de/news/2012-02/tsmcs-28-nm-produkte-das-ganze-jahr-knapp/ )

Das bedeutet im Klartext, sie sind nicht konkurenzfähig. Dann wirds wohl wirklich eine 300$-Karte werden, und ich muß meine Einschätzung revidieren.

Weil: gerade mal die sowieso in jeder Generation zu erwartende "beste GPU" und vor allem "die wir je gebaut haben", sagt ja glasklar, es wird nicht die beste GPU, die je von irgendjemandem gebaut wurde. Die Performance auch nur besser als bei den Vorgängern und eben nicht besser als bei der Konkurenz, und das selbe gilt wohl für die Effizienz ;(

So kleinlaut und jämmerlich waren sie in ihrer ganzen Unternehmensgeschichte noch nie. Das ist ärgerlich, weil damit kein Preisdruck aufkommen wird. Ich frage mich, wie weit man zurückliegen muss, um sich so zu äussern. Selbst bei Gleichstand spricht man doch von klarer eigener Überlegenheit, bei darstellbarer Überlegenheit logischerwiese von Vernichtung des Gegners, und wirklich nur bei ganz klarer Unterlegenheit von Produkten, die wenigstens ihre Vorgänger übertrumpfen können.

Hoffentlich passiert noch ein Wunder, und diese traurige Ankündigung stellt sich als Nebenwirkung einer schweren Winderdepression heraus.

Iruwen
2012-02-16, 15:45:00
Seit wann trollst du denn auf so niedrigem Niveau?

Was würde ein Unternehmen in einem solchen Fall machen?
Die Preise an die Kunden weitergeben und erstmal auf einigermaßen solide Margen zu kommen und sich nicht das Geschäftsquartal verregnen zu lassen.
Auch wenn das nicht explizit erwähnt wird. Die Aussagen sind nach wie vor schwammig und das heißt eigentlich nichts gutes für GK104. Für den GK110 noch weniger gutes.
Das hieße dann für AMD auch nichts gutes, denn genau das ist momentan auch deren Strategie. Und wenn Nvidia trotz nicht ausreichender Kapazitäten immer noch größere hat als AMD können sie die Marge einfach durch Stückzahlen wettmachen. Zumal man AMDs und Nvidias Verträge mit TSMC nicht kennt.
Außer es tritt das ein was Cyphermaster sagt und Spirou andeutet. Aber das ist alles wirklich reiner Spekulatius allerseits.

LovesuckZ
2012-02-16, 15:49:03
Man kann "die Marge" z.B. auch auf das gesamte Geschäft beziehen, und dann sind geringere Verkaufszahlen einer Produktsparte schon eine automatische Senkung der erwarteten Marge für den betreffenden Zeitraum, auch und gerade wenn man Preise hoch läßt. Bis es da Hochoffizielles gibt, bleibe ich deswegen bissl skeptisch, daß das in "wir machen Kampfpreise" zu übersetzen wäre.

Was willst du offizieller haben als das von gestern? :confused:
Deutlicher als das, was Huang sagt, kann man nicht sein:
Kosten steigen, Preis bleibt ähnlich.


Wenn Kepler ein Hammer wird, dann würde nVidia die Chips wohl kaum unnötig verschleudern wollen - jetzt, wo AMDs Preispolitik eigentlich eher erlaubt, insgesamt ein höheres Preisniveau zu halten.

Der Markt geht nunmal nur bis ca. $600. Wenn nVidia vier Kepler-Chips hat, dann müssen die alle irgendwie in den Markt rein.
Das ganze kann z.B. so aussehen:
GK110: $449-$599
GK104: $259-$349
GK106: $150-$200
GK107: <$100

In dem Sinne steigen die Preise gegenüber Fermi, aber nichtmal annährend so stark wie bei AMD.

/edit: Und im OEM-Markt kann man nicht einfach nach belieben die Preise erhöhen. Vorallem mit der HDD-Situation, werden OEMs es sich dreifach überlegen, ob man die doppelt so teure 28nm Karte einbaut als die deutlich billigere 40nm Version.

Cyphermaster
2012-02-16, 15:56:28
Deutlicher als das, was Huang sagt, kann man nicht sein:
Kosten steigen, Preis bleibt ähnlich.Hat er das wörtlich so ausgedrückt? (hab kein wörtliches Zitat zur Hand)
In dem Sinne steigen die Preise gegenüber Fermi, aber nichtmal annährend so stark wie bei AMD.Das hieße aber trotzdem, daß es nicht auf günstige Preise rausliefe, sondern man nur nicht ganz so hoch greift wie die Konkurrenz.

/edit: Im OEM-Bereich stimme ich zu.

Adam D.
2012-02-16, 16:05:54
Oh, sie gestehen offenbar ein, ihre Ziele auf allen Ebenen zu verfehlen: "the best GPU we've ever built, and the performance and power efficiency is surely the best that we've ever created" ( http://www.computerbase.de/news/2012-02/tsmcs-28-nm-produkte-das-ganze-jahr-knapp/ )

Das bedeutet im Klartext, sie sind nicht konkurenzfähig. Dann wirds wohl wirklich eine 300$-Karte werden, und ich muß meine Einschätzung revidieren.

Weil: gerade mal die sowieso in jeder Generation zu erwartende "beste GPU" und vor allem "die wir je gebaut haben", sagt ja glasklar, es wird nicht die beste GPU, die je von irgendjemandem gebaut wurde. Die Performance auch nur besser als bei den Vorgängern und eben nicht besser als bei der Konkurenz, und das selbe gilt wohl für die Effizienz ;(

So kleinlaut und jämmerlich waren sie in ihrer ganzen Unternehmensgeschichte noch nie. Das ist ärgerlich, weil damit kein Preisdruck aufkommen wird. Ich frage mich, wie weit man zurückliegen muss, um sich so zu äussern. Selbst bei Gleichstand spricht man doch von klarer eigener Überlegenheit, bei darstellbarer Überlegenheit logischerwiese von Vernichtung des Gegners, und wirklich nur bei ganz klarer Unterlegenheit von Produkten, die wenigstens ihre Vorgänger übertrumpfen können.

Hoffentlich passiert noch ein Wunder, und diese traurige Ankündigung stellt sich als Nebenwirkung einer schweren Winderdepression heraus.
Was geht denn bei dir ab? Aktuell spricht absolut gar nichts dafür, dass Nvidia mit Kepler nicht ein konkurrenzfähiges Produkt auf den Markt bringen wird.

LovesuckZ
2012-02-16, 16:07:53
Hat er das wörtlich so ausgedrückt? (hab kein wörtliches Zitat zur Hand)


Deepon Nag - Macquarie Research

This is Deepon for Shawn. I had a question about pricing going into this quarter and then maybe into the next if you tie with desktops, notebook GPU in particular.

Jen-Hsun Huang

Pricing is expected to be stable and healthy this year. The amount of 28-nanometer capacity in the world is not enough. And so I think we're expecting 28-nanometer to be constrained through the entire year.

http://seekingalpha.com/article/370311-nvidia-s-ceo-discusses-q4-2012-results-earnings-call-transcript?part=qanda


Das hieße aber trotzdem, daß es nicht auf günstige Preise rausliefe, sondern man nur nicht ganz so hoch greift wie die Konkurrenz.


Logisch. Dank AMD steigen die Preise doch. Eine GTX580 kostet 400€, die GTX285 vor auslaufen 260€...

Spasstiger
2012-02-16, 16:15:57
Oh, sie gestehen offenbar ein, ihre Ziele auf allen Ebenen zu verfehlen: "the best GPU we've ever built, and the performance and power efficiency is surely the best that we've ever created" ( http://www.computerbase.de/news/2012-02/tsmcs-28-nm-produkte-das-ganze-jahr-knapp/ ).
Das ist bezogen auf die Design Wins. Keine andere GPU-Generation von NV hat/hatte soviele Design Wins, was bedeutet, dass man noch nie so gut gegenüber der Konkurrenz aufgestellt war wie mit Kepler. Lies das Original-Interview und nicht nur ein aus dem Zusammenhang gerissenes Zitat: http://www.digitimes.com/news/a20120215PD215.html.
Mit GPU meint Jen-Hsun Huang auch nicht eine spezielle GPU wie den GK110, sondern die Kepler-Generation im Gesamten.

Cyphermaster
2012-02-16, 16:18:43
Also ich weiß ja nicht... "stable" bezieht sich imho nicht zwingend auf Kepler vs. Fermi, kann genauso gut auch nur Kepler-bezogen sein. Und "healthy" spricht eher für eine ordentliche Marge, sprich, ökonomisch "gesund".
Logisch. Dank AMD steigen die Preise doch.Das halte ich für Unfug. Wenn einer nach unten geht (oder unten bleibt), muß der Andere zumindest teilweise mit, egal ob AMD oder nV. Die letzte Zeit hinkte AMD immer deutlich genug hinterher, um die Preise nach unten zu ziehen - diesmal nicht.

Daß höhere Preise im Interesse beider Firmen sind, ist wohl keine Diskussion, oder? Wo ein Geschäft zu machen ist, wird es gemacht.

Soul
2012-02-16, 16:22:24
Ich hoffe mal, dass das mit der Vorstellung einer GK1xx am 19.2. stimmen könnte. Irgendwie werden die News immer "schlechter" was den Kepler Start betrifft.

Einen Termin für den Marktstart von Kepler nannte Nvidia nicht, bisher wird dafür das zweite Quartal des Kalenderjahres 2012 angenommen.

Die Ausbeute dieser Wafer, auf denen Nvidia alle GPUs seiner nächsten Architektur Kepler herstellen will, ist Huang zufolge noch zu gering. Man arbeite jetzt sehr eng und mit Hochdruck mit TSMC zusammen, um diese auch "yield" genannte Ausbeute zu erhöhen. " Das ist ein Problem, das wir alleine nicht lösen können" sagte Huang.

http://www.golem.de/news/kepler-nicht-in-sicht-nvidia-leidet-unter-28nm-problemen-bei-tsmc-1202-89833.html

askibo
2012-02-16, 16:23:52
was bedeutet, dass man noch nie so gut gegenüber der Konkurrenz aufgestellt war wie mit Kepler.


...oder den Partnern noch nie so viele billige Versprechungen bezüglich Verfügbarkeit und Performance gegeben hat ;D

LovesuckZ
2012-02-16, 16:30:12
Also ich weiß ja nicht... "stable" bezieht sich imho nicht zwingend auf Kepler vs. Fermi, kann genauso gut auch nur Kepler-bezogen sein. Und "healthy" spricht eher für eine ordentliche Marge, sprich, ökonomisch "gesund".

Es bezieht sich klar auf die 28nm Produkte. Selbst eine Marge von 48,5% ist verdammt viel für nVidia. Aber es zeigt auch, dass der Preisanstieg der 28nm Produkte nicht die erhöhten Kosten pro Chip ausgleichen. Deswegen erwartet man auch, dass die Marge in den nächsten Quartalen steigen wird.


Das halte ich für Unfug. Wenn einer nach unten geht (oder unten bleibt), muß der Andere zumindest teilweise mit, egal ob AMD oder nV. Die letzte Zeit hinkte AMD immer deutlich genug hinterher, um die Preise nach unten zu ziehen - diesmal nicht.

Was glaubst du, wird AMD machen, wenn nVidia Kepler draußen hat? Einfach mal so die Preise um $100-$150 senken?! Als zweiter hat man es bei gleich guten bis überlegenen Produkten immer einfacher sie im Markt zu platzieren.


Daß höhere Preise im Interesse beider Firmen sind, ist wohl keine Diskussion, oder? Wo ein Geschäft zu machen ist, wird es gemacht.

Das Problem ist nur, dass es nach oben gekapselt ist. Mehr als $599 kann man heute nicht mehr verlangen. Wenn nVidia vier Chips haben sollte, dann ist es ziemlich klar, dass der zweitschnellste eben nicht an die $500 Marke heranreichen wird.

Schaffe89
2012-02-16, 16:36:41
AMD hat sicherlich nicht ohne Grund die Preise etwas weiter oben an gesetzt.
AMD muss auch jeden Waver einzeln zahlen.
Wer jetzt noch Wunderpreise vom GK104 erwartet (299 Dollar bei einer Performance zwischen HD 7950 und HD7970) der dürfte schief gewickelt sein.

AwesomeSauce
2012-02-16, 16:37:36
Ich hoffe mal, dass das mit einer Vorstellung einer GK1xx am 19.2. stimmen könnte. Irgendwie werden die News immer "schlechter" was den Kepler Start betrifft.
Ich sehe nicht ein, was sich mit den heutigen Meldungen geändert haben soll? Wir wussten, dass der Prozess nicht ausgereift ist, das ist doch nichts neues. GK104 Modelle sind bereits in AIB Händen, lange dürfte der Launch nicht mehr auf sich warten lassen. (Anfang April)

Auf der PDXLan wird garantiert nichts offiziell vorgestellt. Ich denke eher, dass es sich etwa wie bei der GTX580 verhalten wird. Ein paar Techdemos und eventuell ein neues Spiel werden auf noch "undisclosed" Karten gezeigt.

y33H@
2012-02-16, 16:45:21
AMD muss auch jeden Waver einzeln zahlen.Diese Formulierung ist äußerst ungünstig und (bewusst) pro AMD, denn: AMD zahlt nur für funktionierende Dies eines Wafers, andere Hersteller einfach für alle Dies auf dem Wafer - egal wie viele Dies lauffähig sein.

Später kommt gar nichts. Die Produktion läuft nicht mit voller Kapazität bis Juni wenn man den Artikel glauben schenken möchte.Gelauncht wird pünktlich wie gehabt. Ich meinte die Verfügbarkeit in großem Stil.

Dural
2012-02-16, 16:50:56
http://www.golem.de/news/kepler-nicht-in-sicht-nvidia-leidet-unter-28nm-problemen-bei-tsmc-1202-89833.html


also wenn ich das richtig verstehe, müsste das ja heissen das NV schon im Q4 28nm chips verkauft hat?!? :rolleyes:



weil Nvidia mit TSMC seit kurzem eine neue Vereinbarung unterhält: "Wenn die Ausbeute geringer wird, steigen unsere Kosten"

soso ich kann mich da noch an diverse diskusionen hier im forum um fermi und GT200 erinnern ;)

ndrs
2012-02-16, 17:21:23
Diese Formulierung ist äußerst ungünstig und (bewusst) pro AMD, denn: AMD zahlt nur für funktionierende Dies eines Wafers, andere Hersteller einfach für alle Dies auf dem Wafer - egal wie viele Dies lauffähig sein.
Seit wann gilt das auch für TSMC? Ich dachte das war nur eine Abmachung zwischen AMD und GloFo.

LovesuckZ
2012-02-16, 17:36:05
Seit wann gilt das auch für TSMC? Ich dachte das war nur eine Abmachung zwischen AMD und GloFo.

Gab es auch für TSMC. Jedenfalls hatte nVidia in der Vergangenheit solch eine Abmachung. Aber laut Huang ist es bei 28nm nun Wafer-Basiert:

The top line decline for Q1 is expected to be due to the hard disk drive shortage continuing, as well as a shortage of 28-nanometer wafers. We're ramping our Kepler generation very hard, and we could use more wafers. The gross margin decline is contributed almost entirely to the yields of 28-nanometer being lower than expected. And that is, I guess, unsurprising at this point. And because we have -- we use wafer-based pricing now, when the yield is lower, our cost is higher. And so we've transitioned to a wafer-based pricing for some time.
http://seekingalpha.com/article/370311-nvidia-s-ceo-discusses-q4-2012-results-earnings-call-transcript?part=qanda

Iruwen
2012-02-16, 17:45:50
And because we have -- we use wafer-based pricing now, when the yield is lower, our cost is higher. And so we've transitioned to a wafer-based pricing for some time.

Versteh ich nicht, sagt er da nicht pro Wafer zu bezahlen ist teurer also bezahlen sie jetzt pro Wafer? Falsch übersetzt?

foenfrisur
2012-02-16, 17:45:57
wenn amd die preise senken würde, wären außerdem die regale längst leer und es gäbe viiiiel gejammer, was man da wieder verbockt hat ;)

die 79xx hat vermutl. eine verhältnismäßig hohe grundspannung (sehr gute übertaktung bei wenig mehrverbrauch), was auch auf die yield-probleme deutet.
es ist also definitiv möglich, das auch amd mehr machen WOLLTE, aber nicht KONNTE.

hohe spannung, konservativer takt = probleme mit der fertigung. hohe qualitätsstreuung.

@iruwen
so verstehe ich das auch....lol

mfg

OgrEGT
2012-02-16, 17:53:54
Versteh ich nicht, sagt er da nicht pro Wafer zu bezahlen ist teurer also bezahlen sie jetzt pro Wafer? Falsch übersetzt?

Noch schlimmer...
"... deshalb machen wir das schon einige Zeit so."

Botcruscher
2012-02-16, 17:58:35
Das die Fertigung bei TSMC mal wieder scheiße läuft können wir als empirisch bewiesenen Fakt eh annehmen. Die Preise von AMD-Karten weisen auch deutlich darauf hin.
Bleiben also zwei wichtige Punkte. Wie groß wird GK104/110 und wie schnell kommt TSMC in die Gänge. Was Intel macht sollte man nicht überbewerten. Die haben nach dem BD-Fiasko alle Zeit der Welt ihre Lager zu leeren.

OgrEGT
2012-02-16, 18:03:11
Warum gibt es noch keine brauchbaren leaks von den GK104, die schon (seit wann genau? Edit: 2 Wochen?) bei den AIBs laufen sollten?
Edit:
Auch mal ein wenig Bildmaterial wär nicht schlecht...

][immy
2012-02-16, 18:19:19
Versteh ich nicht, sagt er da nicht pro Wafer zu bezahlen ist teurer also bezahlen sie jetzt pro Wafer? Falsch übersetzt?
ich vermute mal er will einfach darauf hinaus, das wenn die ausbeute mal besser wird, die pro-chip kosten um einiges geringer sein werden und man daher auf "pro wafer bezahlen" umgestellt hat.
je funktionsfähigen chip zahlen dürfte um einiges teurer sein und sich am anfang lohnen, aber wenn die fertigung dann richtig in die gänge kommt dürfte der schuss nach hinten losgehen. und so schnell lassen sich die verträge dann garantiert auch nicht ändern. Aber immerhin weiß man bei den "je chip"-modell immer wie viel man einkalkulieren muss und beim verkaufspreis draufschlagen muss um noch gewinn einzufahren. Das andere ist halt glücksspiel.

LovesuckZ
2012-02-16, 18:25:50
Versteh ich nicht, sagt er da nicht pro Wafer zu bezahlen ist teurer also bezahlen sie jetzt pro Wafer? Falsch übersetzt?

Ja, ein bisschen schon. Der Kontext ist, dass anscheinend durch waferbasierte Zahlweise der Preis pro Cip bei guter und sehr guter Ausbeute deutlich niedriger ist. Wird wohl mit der Grund gewesen sein, warum die Marge seit Fermi durch die Decke geht.

Jetzt am Anfang von 28nm muss man dagegen erstmal in den sauren Apfel beissen und die hoeheren Kosten in Kauf nehmen.

Mancko
2012-02-16, 18:27:08
Versteh ich nicht, sagt er da nicht pro Wafer zu bezahlen ist teurer also bezahlen sie jetzt pro Wafer? Falsch übersetzt?

Ich war gestern im Call drinn. Er hat gesagt, dass sie auf ein pro Wafer Modell gewechselt sind. Demzufolge ist die Marge niedriger, wenn der Yield schlechter ist. Das ist aktuell noch der Fall. Mit steigendem Yield steigt natürlich auch die Marge. Den letzten Satz aus dem seekingalpha transscript habe ich so aber gestern nicht gehört. Das ist irgendein Problem beim Mitschreiben bzw. der Wiedergabe. Im Endeffekt ist das Jammern auf hohem Niveau bei der Marge. Da wird immer noch Gewinn eingefahren.

Im Endeffekt kennt sowieso keiner die Verträge genau. Es kann viele Gründe haben das Vertragsmodell zu ändern. Da Nvidia bei TSMC ja nicht nur GPUs sondern auch Tegra fertigt kann jetzt ein Punkt für sie sein wo das neue Modell besser ist. Man weiß auch nie was damit alles verknüpft ist (Kapazitätszusagen, Preisunterschiede pro DIE usw..). Am Ende kommt es ja ohnehin zu einer Mischkalkulation über alle Produkte. Ich denke - bei Nvidia - kann man sich ziemlich gut darauf verlassen, dass sie gescheite Verträge machen. Darin sind sie erfahrungsgemäß sehr gut. Das gleiche gilt fürs Marketing.

Von den Informationen aus dem Call her sind bei mir diverse interessante Dinge hängen geblieben, die in den meissten Berichterstattungen völlig untergehen:

1) - Der Kepler Ramp über die diversen Produkte ist mit einem relativ kurzen Zeitfenster versehen. Das bedeutet dass sobald sie loslegen, sie in wenigen Wochen (schätze mal so 8 Wochen) mit der ganzen Armada loslegen. Das war bei Nvidia in der Vergangenheit meist anders. Die Produkte scheinen im Perf/qmm und auch Perf/w sehr gut zu sein.

2) - Sie haben wohl mehrere Designwins mit Tegra3 im Bereich der Smartphones(Superphones). Ankündigungen und dann auch gleich Verkaufsstart erfolgen auf der MWC. LG wird nicht der einzige Anbieter sein. Das heisst Nvidia liefert hier bereits aus bzw. verkauft an die Hersteller. Dazu gesellen sich die neuen Tegra3 basierten Tablets. Das Ganze glücklicherweise im soliden 40nm Pozess. Da wird ordentlich Masse aufkommen.

Zusätzlich dazu plazieren sie sich mit einem DualCore (nehme mal an Tegra2) in einem Billig Smartphone von einem chinesischen Hersteller

3) - Sie versuchen im professionellen Workstation Markt Bedarf nach mehr Grakas zu erzeugen über eine Speziallösung mit mehreren Grafikkarten. Wenn die Lösung einen Mehrwert bietet, wird natürlich der Umsatz dieser Sparte schön zulegen können. Bei entsprechendem Mehrwert spielt Geld im Geschäftsumfeld bzw. Ausgaben für Anschaffungen nur eine untergeordnete Rolle.

4) In 2012 werden die ersten Icera LTE Modems verkauft. JHH hat bestätigt, dass sie aktuell sehr viel Geld investieren die Technologie in Tegra zu integrieren. Das muss auch das Hauptziel sein. Damit ist man dann vollends Tablet und Smartphone tauglich, was im Endeffekt Potential für immense Stückzahlen bietet.

Schaffe89
2012-02-16, 19:34:49
Diese Formulierung ist äußerst ungünstig und (bewusst) pro AMD,

Da ist gar nichts bewusst.
Ich dachte AMD bezahlt pro Wafer.
Wenn das nicht der Fall ist, hat AMD zu Beginn der Fertigung höhere Margen und später im Vergleich zu Nvidia niedrigere, also dürfte sich das eventuell wieder ausgleichen.

LovesuckZ
2012-02-16, 19:41:46
What’s more, once NVIDIA GPUs based on the next-generation Kepler architecture arrive, they will provide a nearly 3x increase in performance per watt over current GPUs.
http://blogs.nvidia.com/2012/02/a-japanese-tale-of-two-supercomputers/

Bezieht sich wohl auf Rechenleistung, daher:
GTX580: 250/300 Watt: 1,51 TFlop/s
GK110 : 250/300 Watt: 4,53 TFlop/s

:ubash2:

Schaffe89
2012-02-16, 19:44:30
Ist doch Quatsch was da erzählt wird.
Man wird die Einheiten nie in der Form auslasten können, damit die Performance erreicht wird.

boxleitnerb
2012-02-16, 19:47:57
Bei GPGPU annähernd schon. Geht bei AMD schließlich auch. Von Spielen spricht da keiner.

foenfrisur
2012-02-16, 19:54:19
7970: 210/250 watt 3,789 TFLOPs @ 300watt = 4,54 TFLOP/s ;)

mfg

LovesuckZ
2012-02-16, 19:56:51
7970: 210/250 watt 3,789 TFLOPs @ 300watt = 4,54 TFLOP/s ;)

mfg

Es sind 3,789 TFlops/s bei 300 Watt. ;)

foenfrisur
2012-02-16, 20:04:22
wie kommst du denn darauf?
210watt typisch und 250watt maximal.
und dabei dann 3,789 tflops

mfg

LovesuckZ
2012-02-16, 20:08:09
wie kommst du denn darauf?
210watt typisch und 250watt maximal.
und dabei dann 3,789 tflops

mfg

Warum glaubst du, gibt es Powertune? :D
Bei 250 Watt wird abgeriegelt. Du erhälst nicht mehr Flops, wenn du den Powertuneschalter höher schraubst.

Ailuros
2012-02-16, 20:28:51
Nur gibt es den 28nm Prozeß nicht. Deswegen sind alle Aussagen, die davon sprechen, ein wenig zu unscharf.
TSMC hat aktuell drei verschiedene 28nm Prozesse im Angebot und bald werden es vier unterschiedliche sein (HPM kommt zu LP, HPL und HP dazu). Dabei unterschieden sich die drei aktuellen wesentlich voneinander. Solange also die Probleme nicht sehr allgemeiner Natur sind (schlechte Oberflächengüte der Wafer, mangelnde Genauigkeit der Belichter/Stepper, mangelnde Präzision der Masken oder sowas) können sich die Ergebnisse mit den drei verschiedenen Prozessen wesentlich unterscheiden, da sie unterschiedlichen "Kochrezepten" folgen, die Transistoren sind also deutlich unterschiedlich aufgebaut. Die ins Auge stechenden Unterschiede sehen so aus:
28LP: Poly/SiON-Gates, eSiGe
28HPL: HKM-Gates, kein eSiGe
28HP/HPM: HKM-Gates, eSiGe

Die Prozeßschritte für die Herstellung unterscheiden sich notgedrungen sowohl in der Art als auch der Abfolge für die verschiedenen Prozesse. Je nachdem wo genau ein Problem auftritt (was auch nur durch eine bestimmte Kombination getriggert werden kann), hat es nur einen Einfluß auf den einen oder den anderen Prozeß.

Gehoert zwar eigentlich in den Qualcomm thread aber metafor sagte gerade bei B3D dass ihre yield Probleme auf HPM begrenzt sind. Die SoCs dafuer waren sowieso nicht vor 2013 geplant.

foenfrisur
2012-02-16, 20:43:28
Warum glaubst du, gibt es Powertune? :D
Bei 250 Watt wird abgeriegelt. Du erhälst nicht mehr Flops, wenn du den Powertuneschalter höher schraubst.

das war auch eher billig hochgerechnet, das die effizienz (flops/watt) bei der 7970 genauso gut ist ;)

mfg

LovesuckZ
2012-02-16, 20:44:55
das war auch eher billig hochgerechnet, das die effizienz bei der 7970 genauso gut ist ;)

mfg

Nochmal: Ich habe bei nVidia beide Werte genommen. 7970 ist eine 300 Watt Karte. Wahrscheinlich noch höher, wie bei nVidia. Deswegen kannst du es nicht hochrechnen, weil die TFlop/s Zahl eben schon maximal ist.

foenfrisur
2012-02-16, 20:52:27
dann ist die gk110 vielleicht auch eine 350w karte ;)

offiziell ist die 7970 eine 210/250watt-karte ;)

die gtx580 hat 244w TDP und verballert 320 watt unter furmark.
also erkläre mir deine 300watt-geschichte mal bitte genauer.

mfg

Ailuros
2012-02-16, 20:55:32
http://blogs.nvidia.com/2012/02/a-japanese-tale-of-two-supercomputers/

Bezieht sich wohl auf Rechenleistung, daher:
GTX580: 250/300 Watt: 1,51 TFlop/s
GK110 : 250/300 Watt: 4,53 TFlop/s

:ubash2:

Ist auf DP FLOPs/W und auf Kepler Teslas bezogen. Ich sage doch schon seit einer geraumer Zeit dass der Unterschied eben NICHT bei nur 2.5x liegt sondern hoeher, aber stets auf DP FLOPs bezogen weil es eben eines der treibenden Gruende war fuer Kepler auf mehr und breitere ALUs ohne hotclock zu setzen.

GF100 Tesla = 515 GFLOPs DP@238W * 3 = 1,545 TFLOPs DP
GF110 Tesla = 665 GFLOPs DP@225W * 3 = 1,995 TFLOPs DP

GF114 hat 7 SP FLOPs/W und GK104 <20 SP FLOPs/W und der Abstand in SP FLOPs zwischen 104 und 110 ist kleiner als Du Dir oben vorstellst.

Da Teslas traditionell niedriger getaktet sind als desktop Varianten klingen die bis zu 1.5TFLOPs DP bei ~225W am wahrscheinlichsten.

Hugo78
2012-02-17, 09:05:35
Dann wird GK110 doch eine 2:1 Ratio SP/DP bekommen?

AnarchX
2012-02-17, 09:11:02
http://blogs.nvidia.com/2012/02/a-japanese-tale-of-two-supercomputers/

Bezieht sich wohl auf Rechenleistung, daher:
GTX580: 250/300 Watt: 1,51 TFlop/s
GK110 : 250/300 Watt: 4,53 TFlop/s

:ubash2:
Sustainable oder Peak? ;)
Kommt wohl auch dann ganz darauf an, ob bei Kepler die sustainable FLOPs deutlich näher an den Peak-FLOPs liegen.

PrefoX
2012-02-17, 09:12:06
dann ist die gk110 vielleicht auch eine 350w karte ;)

offiziell ist die 7970 eine 210/250watt-karte ;)

die gtx580 hat 244w TDP und verballert 320 watt unter furmark.
also erkläre mir deine 300watt-geschichte mal bitte genauer.

mfg
unter furmark zieht die 7970 dich auch 350-370 und?

€dit: "Beim nur auf maximale Energieverschwendung getrimmten Burning-Test von Furmark 1.80 liegt die 7970 noch vor allen anderen Karten mit einem Grafikprozessor. 367 Watt sind sogar mehr als die 339 Watt einer GTX 580."

Also auch nicht viel effizienter als die 580 GTX xD

Dural
2012-02-17, 09:19:14
wenn es auf DP zutrifft, trifft es logischerweisse auch auf SP leistung zu, da wir ja sehr wahrscheinlich 1:2 sehen werden und die TDP sich zwischen DP und SP nicht ändert :rolleyes:

also wie so kommt ihr immer nur mit DP daher.

LovesuckZ
2012-02-17, 09:21:50
Sustainable oder Peak? ;)
Kommt wohl auch dann ganz darauf an, ob bei Kepler die sustainable FLOPs deutlich näher an den Peak-FLOPs liegen.

Das wird Peak sein. Selbst wenn man durch den GF114-Aufbau 33%-25% an möglicher Leistung verliert, läge man immer noch bei mindesten nutzbaren 2,97 TFlop/s und damit wohl locker 2x höher als die GTX580.

Hugo78
2012-02-17, 09:22:12
@Dural
Mit gehts nur um die Corezahl, bzw den Aufbau allgemein. :)

@Prefox
Verlink ihm das doch gleich, dass erspart hier unnötigen Nachfrage OT.
FM1.8 http://www.golem.de/1112/88610-13.html
FM1.6 http://ht4u.net/reviews/2012/amd_radeon_hd_7700_test/index17.php

Cyphermaster
2012-02-17, 09:56:33
Es bezieht sich klar auf die 28nm Produkte."klar" steht das nicht drin, kein wasserdichter Bezug. Nur in einem extra Satz, was zu 28nm. Kann man so lesen, sicher, aber ich traue keinem CEO. Hinsichtlich solcher "impliziten" Messages hab ich über die Jahre oft ganz andere Sachen angedeutet gesehen, als dann hinten bei rum kam.
Deswegen erwartet man auch, dass die Marge in den nächsten Quartalen steigen wird.Wie gesagt: Kann auch rein eine Frage der Stückzahlen sein.
Was glaubst du, wird AMD machen, wenn nVidia Kepler draußen hat? Einfach mal so die Preise um $100-$150 senken?! Als zweiter hat man es bei gleich guten bis überlegenen Produkten immer einfacher sie im Markt zu platzieren. Bei deutlich dominierenden Produkten, ja. Bei Gleichstand kann man schon nur noch mühsam auf bis höchstens knapp den Level einschießen, den die Konkurrenz verlangt. Und AMD zielt aktuell sehr hoch, d.h., wenn nVidia wirklich bei besseren Yields anziehen will, können sie mitgehen. Vielleicht keine 100-150$ in jedem Segment, aber so schlecht stehen sie gegenüber Kepler nicht.
Das Problem ist nur, dass es nach oben gekapselt ist. Mehr als $599 kann man heute nicht mehr verlangen. Wenn nVidia vier Chips haben sollte, dann ist es ziemlich klar, dass der zweitschnellste eben nicht an die $500 Marke heranreichen wird.Das kommt drauf an, welchen Split in den Produkten man ansetzen will, um die Range zu decken. Ich denke, die endgültige Aufteilung werden wir erst kurz vor Start erfahren.

Auf jeden Fall bin ich sehr positiv gestimmt, daß keine zu starke einseitige Dominanz da sein wird. Leider auf einem etwas zu hohen Preisniveau für meinen Geschmack als Kunde, aber zumindest erhöht das den Druck auf dem Kessel.

Spasstiger
2012-02-17, 10:26:14
unter furmark zieht die 7970 dich auch 350-370 und?
250 Watt ohne Powertune +20%: http://www.technic3d.com/review/grafikkarten/1344-sapphire-radeon-hd-7970-im-test/10.htm#start.
Das von dir genannte Zitat bezieht sich auf die Leistungsaufnahme des Gesamtsystems, nicht der Grafikkarte alleine.

boxleitnerb
2012-02-17, 10:28:18
Und hier 295W. Und nu?
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php

Dieses ganze Powertune-Gedöns hat vernünftige Messungen diesbezüglich eh fast unmöglich gemacht. Wenn schon, dann eine intensive GPGPU-Anwendung laufen lassen und dabei messen. Wenn dabei gecappt wird, ist es halt so, ändern kann man es eh nicht.

Iruwen
2012-02-17, 10:31:28
250 Watt: http://www.technic3d.com/review/grafikkarten/1344-sapphire-radeon-hd-7970-im-test/10.htm#start.

Nur wenn man PowerTune nicht verändert, steht da auch im Text.
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php

Das von dir genannte Zitat bezieht sich auf die Leistungsaufnahme des Gesamtsystems, nicht der Grafikkarte alleine.

"Beim nur auf maximale Energieverschwendung getrimmten Burning-Test von Furmark 1.80 liegt die 7970 noch vor allen anderen Karten mit einem Grafikprozessor. 367 Watt sind sogar mehr als die 339 Watt einer GTX 580."

Gesamtsystem 339W mit einer GTX 580 unter Furmark? kA wie die gemessen haben, aber das kann nicht sein.

Spasstiger
2012-02-17, 10:35:22
Gesamtsystem 339W mit einer GTX 580 unter Furmark? kA wie die gemessen haben, aber das kann nicht sein.
Die GTX 580 ist standardmäßig auch auf 250 Watt begrenzt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=495963. Und wenn man bei der Radeon HD 7970 die Begrenzung rausnimmt (Powertune +20%), dann verbraucht das Gesamtsystem mit der Radeon HD 7970 natürlich mehr als das mit der begrenzten GTX 580.
Aus dem Text bei Golem geht doch an mehreren Stellen hervor, dass immer der Verbrauch des Gesamtsystems gemessen wird.

Die Radeon HD 7970 ist eine 250-Watt-Karte, das Potential darüber läuft imo unter OC. Die Perf/Watt ist nachweislich deutlich besser als bei der GTX 580, auch wenn Powertune eingreift. Powertune +20% entspricht nicht der Spezifikation und ist meiner Meinung nach als Zugeständnis für die Übertakter zu sehen.

LovesuckZ
2012-02-17, 10:55:11
Die GTX580 wird erst bei 310 Watt gecappt und dann deutlich unter 250 Watt.

Die 7970 ist keine 250 Watt Karte. Sie wird auf 250 Watt limitiert. Dadurch ist es fraglich, ob die ganzen TFlops/s abrufbar sind. Es wird also auch der normale Anwender benachteiligt.

Skysnake
2012-02-17, 10:59:09
Was willst du hier sagen? nVidia rampt Kepler. Sie befinden sich mit AMD in einer Übergangszeit. Mit dem Erscheinen der 28nm Produkte geht die Nachfrage nach 40nm schlagartig nach unten. Da aber die 28nm Kapazitäten aufgrund geringerer Yields und weniger Produktionsanlagen limitiert sind, ist es eben problematisch.

Ansonsten ist nVidia im Zeitplan. Keine Ahnung, warum Leute hier solche hektik machen.

Und wer digitimes vertraut:

http://www.digitimes.com/news/a20120215PD219.html
Definitiv nicht, oder haben wir das alles nur geträumt, das auf der Roadmap für GK aus einem 2011 ein 2012 geworden ist?

Nein.
Siehe oben. Es wurde 100% sicher einmalig verschoben.

Eher sogar 2 mal, da es ja zunächst immer Q1 2012 hieß. Es war ja immer Januar/Februar zusammen mit AMD im Gespräch. Dazu die Gerüchte über A2/A3 Silicon. Genaues kann man über weitere Verschiebungen aber nicht sagen, da es mal so und wann anders wie anders heißt.

Ich versteh das allerdings auch so dass man die Preise niedrig halten will, die Herstellungskosten sind noch vergleichsweise hoch aber das gibt man nicht an den Kunden weiter. Wie sollte die geringere Marge (= Diferenz zwischen Ein- und Verkaufspreis) sonst zu verstehen sein?
Die Marge kann durch den Apple Deal auch sehr einfach fallen, da man Apple Zugeständnisse beim Preis machen muss. Ebenso durch Tegra, wo es nach Charlie ja bei Samsung und Apple keine Chance für nVidia mehr gibt, und man mit Kindle wohl durch sehr günstige Konditionen für Amazon wohl rein kommen will, um überhaupt etwas zu verkaufen.

Und dann gibt es noch die ganzen Design-Wins im Mobile-Computer-Bereich. Da kannste auch mehr Design-wins durch niedrigere Margen erreichen, die sich normal durch die höheren Absatzzahlen ausgleichen lassen sollten. Wenn die Stückzahlen aber das ganze Jahr niedrig bleiben, dann könnte der Schuss nach hinten los gehen.


Ist auf DP FLOPs/W und auf Kepler Teslas bezogen. Ich sage doch schon seit einer geraumer Zeit dass der Unterschied eben NICHT bei nur 2.5x liegt sondern hoeher, aber stets auf DP FLOPs bezogen weil es eben eines der treibenden Gruende war fuer Kepler auf mehr und breitere ALUs ohne hotclock zu setzen.

GF100 Tesla = 515 GFLOPs DP@238W * 3 = 1,545 TFLOPs DP
GF110 Tesla = 665 GFLOPs DP@225W * 3 = 1,995 TFLOPs DP

GF114 hat 7 SP FLOPs/W und GK104 <20 SP FLOPs/W und der Abstand in SP FLOPs zwischen 104 und 110 ist kleiner als Du Dir oben vorstellst.

Da Teslas traditionell niedriger getaktet sind als desktop Varianten klingen die bis zu 1.5TFLOPs DP bei ~225W am wahrscheinlichsten.
Also wenn ich das nur GROB! überschlage, dann folgendes:

gehen wir mal von 20 SPFlops/W aus und keinem schlechteren Verhältnis für GK110 als für GK104. Dann hätten wir folgende Spekulationsgrundlage:

Wir nehmen Konservativ mal eine 1:4 Ratio an. Dann würden wir bei ~8 DPFlops/W landen. Das klingt schon verdammt gut. Fragt man sich nur, was davon dann in normalen Anwendungen bei rüber kommt, oder ob nicht sogar eine 1:6 Ratio genommen wird, um diese unglaublich guten Werte zu erreichen.

Bei 250 W hätten wir bei den 8DPFlops/W ja schon 2 TFLops Rechenleistung. Das wäre etwas sehr viel. Entweder die Effizienz geht stark runter, oder man geht echt auf 1:6, was wohl niemand erwarten würde.

Irgendwie kommt mir das aber grad alles wie FUD vor :ugly:

Spasstiger
2012-02-17, 10:59:37
Die 7970 ist keine 250 Watt Karte. Sie wird auf 250 Watt limitiert. Dadurch ist es fraglich, ob die ganzen TFlops/s abrufbar sind. Es wird also auch der normale Anwender benachteiligt.
Was die HD 7970 liefert, zeigen Benchmarks. Egal, ob die Performance gekappt wird oder nicht. Auf die Spieleperformance hat Powertune +20% keinen signifikanten Einfluss.

LovesuckZ
2012-02-17, 11:21:42
Was die HD 7970 liefert, zeigen Benchmarks. Egal, ob die Performance gekappt wird oder nicht. Auf die Spieleperformance hat Powertune +20% keinen signifikanten Einfluss.

Ich sehe gerade keinen Sinn in deiner Aussage. Die Spieleperformance von Tahiti zeigt, dass die Rohleistung sich nicht durchsetzt. Weniger schaltende Transistoren, weniger Stromverbrauch.
Die GTX580 erreicht in Spielen auch keine 310 Watt.

Ailuros
2012-02-17, 11:26:36
Also wenn ich das nur GROB! überschlage, dann folgendes:

gehen wir mal von 20 SPFlops/W aus und keinem schlechteren Verhältnis für GK110 als für GK104. Dann hätten wir folgende Spekulationsgrundlage:

GF114 hat grob 1.2 TFLOPs mit 128GB/s Bandbreite, waehrend GF110 grob 1.5 TFLOPs hat mit 192GB/s. Welches FLOP zu Bandbreite ratio ist Dir in diesem Beispiel lieber?

Es wuerde mich sehr ueberraschen wenn die Relation zwischen GK104 und GK110 anders aussehen wuerde; dementsprechend duerften es weniger SP FLOPs/W auf GK110 sein als auf GK104, aber eben doch mehr Bandbreite pro FLOP beim ersten.

Wir nehmen Konservativ mal eine 1:4 Ratio an. Dann würden wir bei ~8 DPFlops/W landen. Das klingt schon verdammt gut. Fragt man sich nur, was davon dann in normalen Anwendungen bei rüber kommt, oder ob nicht sogar eine 1:6 Ratio genommen wird, um diese unglaublich guten Werte zu erreichen.

Aehnlich wie oben: GF114 hat genauso 3 SIMDs wie auch GK104 haben wird (die 16 vs. 32SPs/SIMD sind in dem Fall nebenwichtig) eben weil beide nichts mit HPC zu tun haben werden. Theoretisch was das SP/DP ratio betrifft sind zwar 4*32/4:1 "billiger" in hw als 2:32/2:1, aber ich bin mir nicht so sicher dass scheduling im ersten Fall "leichter" sein und ich hab auch so manche Zweifel dass man 4*32 besser auslasten kann als 2*32 generell.

So oder so ob nun 2048 oder 4096SPs bei schaetzungsweise 850MHz erreichst Du mit 2:1 bzw. 4:1 fuer die zwei Faelle genau den gleichen 1.7 TFLOP DP theoretischen Wert und genau das ist eben der Grund warum man so leicht mit 4096SPs zumindest einen auf die Palme treiben kann. Das heisst jetzt natuerlich auch nicht dass die 2048 stimmen, aber sie sind auf jeden Fall um zich Male logischer als der 2304 Quark der herumgeistert. Es wird so oder so wieder jemand hier fleissig mitlesen und es wird nicht lange dauern bis die revamped spec tables erscheinen ;)

Bei 250 W hätten wir bei den 8DPFlops/W ja schon 2 TFLops Rechenleistung. Das wäre etwas sehr viel. Entweder die Effizienz geht stark runter, oder man geht echt auf 1:6, was wohl niemand erwarten würde.

Irgendwie kommt mir das aber grad alles wie FUD vor :ugly:

Wieso gehen denn alle davon aus dass GK110 einen gleichen oder groesseren Stromverbrauch haben wird als GF110? Moeglich ist es schoen aber ich sehe die Notwendigkeit nicht unbedingt egal ob der die wirklich fast gleich so gross sein wird. Ausser GK110 hat irgendwelche Probleme die noch nicht zum Vorschein gekommen sind, duerfte Tesla Kepler tatsaechlich nicht mehr verbrauchen als 225W TDP. Von da ab kann man einschaetzen wieviel der groessere framebuffer verbrauchen koennte und von den TFLOPs her auf desktop hochrechnen.

Skysnake
2012-02-17, 11:45:22
Die 1:4 waren jetzt nur ganz grob überschlagen, ohne irgendwelchen Hang zu Realität. Ich hör grad wie der Wulf sich endlich verabschiedet, das finde ich im Moment viel wichtiger ;)

Mir gings eher nur um eine Tendenz. Die Flop/Bandbreite gefällt mir beim GF110 natürlich besser, und es ist natürlich auch zu erwarten, dass ein ähnliches Verhalten wie bei GF114<->GF110 sich auch beim GK104<->GK110 ergibt. Ob die GK104 aber schlechter ist oder besser als beim GF110 hängt halt stark von den Caches ab, von denen wir halt noch gar NICHTS wissen. Wenn die Caches um 100% (oder wohl selbst bei 50%) wachsen, dann sieht die effektive Bandbreite der ALUs wohl noch immer deutlich besser aus als beim GF110, es sei denn man hat echt keinen Datenreuse, was jetzt keine normale Anwendung wäre, die man auf die GPU wirft. Das kann man besser auf der CPU machen, weil man da eh schnell zu viel Zeit durch den Transfer auf die GPU durch das PCI-E Interface verliert.

Und die Einschätzung bzgl. Leistungsaufnahme war jetzt nur mal eine Größenordnung, die ja an den FLops/W nichts ändert, und dennoch super wäre.

Das ist ja nur für die Perf/GPU entscheidend, was für mich aber eher zweitrangig ist, da man dann halt einfach mehr Karten nimmt. Wie schon sehr lange auch gesagt, geht die Richtung eher Richtung besseres Perf/W Verhältnis zu lasten der (Max erreichbaren) Performance. Es ist einfach sinniger, pro Karte etwas weniger Leistung zu haben, aber dafür deutlich mehr Karten in einem Gesamtbudget zu verbauen, die bei einem fixen Gesamtbudget dann mehr rechnen können.

Gamer sehen das natürlich GANZ anders :biggrin: Die sind aber zu genügsam, weswegen da wohl nicht so viel Rücksicht genommen wird.

PS: Bitte grad nichts auf die Goldwaage legen. Für handfeste Aussagen hab ich atm keine Zeit mir einen Kopf zu machen. Also nur als Denkanstoß für weitere Überlegungen nehmen ;) Oder einfach ignorieren ;D

LovesuckZ
2012-02-17, 11:54:44
Das ist ja nur für die Perf/GPU entscheidend, was für mich aber eher zweitrangig ist, da man dann halt einfach mehr Karten nimmt. Wie schon sehr lange auch gesagt, geht die Richtung eher Richtung besseres Perf/W Verhältnis zu lasten der (Max erreichbaren) Performance. Es ist einfach sinniger, pro Karte etwas weniger Leistung zu haben, aber dafür deutlich mehr Karten in einem Gesamtbudget zu verbauen, die bei einem fixen Gesamtbudget dann mehr rechnen können.

Und wie schon so lange erwidert:
Es ist falsch.

Erst gestern hat nVidia es doch nochmal klar gesagt: Mehr Leistung bei gleichem Stromverbrauch.

Cyphermaster
2012-02-17, 12:00:22
Die GTX580 wird erst bei 310 Watt gecappt und dann deutlich unter 250 Watt.

Die 7970 ist keine 250 Watt Karte. Sie wird auf 250 Watt limitiert. Dadurch ist es fraglich, ob die ganzen TFlops/s abrufbar sind. Es wird also auch der normale Anwender benachteiligt.Also laut offiziellen Daten liegt die Standard-GTX580 in ihrer "maximalen Leistungsaufnahme" bei 250W, genau wie die Standard-HD7970, und nicht bei 310W. Wenn, dann werden also beide Karten im Normalfall limitiert, und sind effektiv keine "250W-Karten" - oder sehe ich das falsch?

Iruwen
2012-02-17, 12:18:36
Wenn der "normale Anwender" kein GPGPU nutzt, wovon wohl nicht auszugehen ist, wird er auch nicht benachteiligt. Das würde man, wie Spasstiger schon sagte, in Spielebenchmarks sehen.

LovesuckZ
2012-02-17, 12:27:40
Seit wann ist Furmark eine GPGPU-Anwendung?

Das ist der Inbegriff von "Graphics". Und dort rennen die Karten über das künstliche Verbrauchslimit. Laut Computerbase.de sollen die Cayman-Karten auch in Dragon Age 2 eingebremst werden.

Cyphermaster
2012-02-17, 12:42:36
Furmark ist ein Tool zur Vollauslastung aller Einheiten, das bewußt keinen realen Anwendungsfall simuliert (sonst würde man sich wohl auch kaum trauen, GTX580/HD7970 hochoffiziell bei 250W abzuregeln)

Was betrachtest du denn dann als Vergleichslinie, wenn du sagst, nur die HD7970 würde limitiert? Speziell Furmark? GPGPU? Den Standard-Abregelfall, mit Tools wie Powertune aufgrdreht, oder gleich ganz ohne jegliche Beschränkung?

Hugo78
2012-02-17, 14:19:36
Definitiv nicht, oder haben wir das alles nur geträumt, das auf der Roadmap für GK aus einem 2011 ein 2012 geworden ist?

Was kann denn Nvidia für TSMC? :rolleyes:

Ailuros
2012-02-17, 14:58:25
Und wie schon so lange erwidert:
Es ist falsch.

Erst gestern hat nVidia es doch nochmal klar gesagt: Mehr Leistung bei gleichem Stromverbrauch.

Wenn man einen Satz sich so aussucht und auch so steril uebersetzt, dann kann jemand kinderleicht sagen dass es so oder so selbstverstaendlich ist bei einem Umschwung von 40 zu 28nm.

Der TDP einer GF100 Tesla ist lediglich eine Ausnahme dank etwas problematischer hw; der TDP einer GF110 Tesla dann eben nicht.

Sonst was desktop betrifft da der TDP aehnlich wie bei AMD variabel sein wird, duerfte der default TDP ein klein bisschen niedriger als bis jetzt sein mit einer Art "turbo modus" fuer hoeheren Spielraum.

Gipsel
2012-02-17, 15:09:31
Also GPGPU-Anwendungen erreichen selten den maximalen Stromverbrauch, da liegen nämlich z.B. Tesselatoren/Setup/Rasterizer, die Texturfiltereinheiten und die ROPs normalerweise schlicht brach und verbrauchen somit auch kaum was. Man kann sicher für die Shadereinheiten eine Maximallast erzeugen, der Gesamtstromverbrauch der GPU ist da aber niedriger als das, was Furmark schafft.

Ailuros
2012-02-17, 15:16:40
Also GPGPU-Anwendungen erreichen selten den maximalen Stromverbrauch, da liegen nämlich z.B. Tesselatoren/Setup/Rasterizer, die Texturfiltereinheiten und die ROPs normalerweise schlicht brach und verbrauchen somit auch kaum was. Man kann sicher für die Shadereinheiten eine Maximallast erzeugen, der Gesamtstromverbrauch der GPU ist da aber niedriger als das, was Furmark schafft.

Sicher; das einzige "aber" ist dann eher im framebuffer Bereich und ob mehr Speicherchips benutzt werden fuer eine Tesla oder nicht (trotz groesserem framebuffer). GF110 desktop ist offiziell (ausserhalb vendor Initiativen) 1.5GB; Tesla Varianten mit diesem sind entweder 3 oder 6GB.

foenfrisur
2012-02-17, 15:35:21
Was kann denn Nvidia für TSMC? :rolleyes:

und was kann tsmc dafür, das nvidia 2 mal neu auflegen muss?

Dadurch ist es fraglich, ob die ganzen TFlops/s abrufbar sind. Es wird also auch der normale Anwender benachteiligt.
@lovesuckz
und WIESO glaubst du nun, das amd die tflop/s bei z.b. 300 oder 350watt angibt??
das ist doch absoluter unsinn. amd war da bisher immer vorne und nvidia zieht nun nach.
aber ich weiß, das deine brille EXTREM grün eingefärbt ist und du schon kaum noch was sehen kannst.
wie krankhaft du hier immer mit kleinen hieben amd-karten schlechtreden willst.

siehe sandra-bench:
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/9/

und natürlich wird sie dabei KEINE 300watt fressen.
denn powertune wird sicher auch hier bei 250watt begrenzen.

btw.
dann wird dann natürlich auch der nvidia-anwender benachteiligt.

mfg

LovesuckZ
2012-02-17, 15:42:12
@lovesuckz
und WIESO glaubst du nun, das amd die tflop/s bei z.b. 300 oder 350watt angibt??
das ist doch absoluter unsinn. amd war da bisher immer vorne und nvidia zieht nun nach.

Und nVidia gibt die TFlop/s Zahl auch nicht bei 310+ Watt an. So what?


aber ich weiß, das deine brille EXTREM grün eingefärbt ist und du schon kaum noch was sehen kannst.
wie krankhaft du hier immer mit kleinen hieben amd-karten schlechtreden willst.

siehe sandra-bench:
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-amd-radeon-hd-7900/9/

und natürlich wird sie dabei KEINE 300watt fressen.
denn powertune wird sicher auch hier bei 250watt begrenzen.

mfg

"Krankhaft" sind nur Leute, die trotz fehlendem Wissen dauernd andere berichtigen wollen. Ich kann nunmal nichts dafür, dass beide Firmen solchen Nonsens einführen.

Du brauchst nicht antworten, ich werde es in Zukunft nicht mehr sehen. :)

Gipsel
2012-02-17, 15:51:13
Könnt ihr das OT-Gezanke bitte einstellen?

Gipsel
2012-02-17, 15:55:10
Sicher; das einzige "aber" ist dann eher im framebuffer Bereich und ob mehr Speicherchips benutzt werden fuer eine Tesla oder nicht (trotz groesserem framebuffer). GF110 desktop ist offiziell (ausserhalb vendor Initiativen) 1.5GB; Tesla Varianten mit diesem sind entweder 3 oder 6GB.
Das war jetzt nicht auf die Teslas bezogen, sondern ganz allgemein auf die irrige Behauptung, bei einigen Karten würde man eine TDP-Begrenzung a la Powertune bei GPGPU-Anwendungen erreichen. GPGPU hat normalerweise aus den oben aufgeführten Gründen keinen höheren Stromverbrauch als Spiele im Schnitt, tendenziell eher weniger. Man kommt extrem schwer bis gar nicht auf FurMark-Werte. Die Diskussion ist schlicht unsinnig.

LovesuckZ
2012-02-17, 16:09:40
Du irrst immer noch (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9116930#post9116930).

Bitte die Zeitangabe. Denn bis auf den L0 Cache gibt es keine Angaben zur "Leistung". Und die Aussage über den L0 Cache hat keinen bezug auf das, was du oder Skysnake propagierst.

Ich zitiere daher nochmal nVidia:

What’s more, once NVIDIA GPUs based on the next-generation Kepler architecture arrive, they will provide a nearly 3x increase in performance per watt over current GPUs.
http://blogs.nvidia.com/2012/02/a-japanese-tale-of-two-supercomputers/

Dagegen steht folgende Aussage von Skysnake:

Wie schon sehr lange auch gesagt, geht die Richtung eher Richtung besseres Perf/W Verhältnis zu lasten der (Max erreichbaren) Performance

Soundwave1983
2012-02-17, 16:10:16
Ebenso durch Tegra, wo es nach Charlie ja bei Samsung und Apple keine Chance für nVidia mehr gibt


Die gleiche Prognose gabs auch zum Thema nV in Notebooks und Macs, wie das ausging wissen wir ja jetzt. ;D

Apple bindet sich grundsätzlich an NIEMANDEN, sie machen das, was für ihre eigenen Interessen gerade am besten ist. Völlig Markenunabhängig. Diese ganzen "NIEMALS WIEDER!!!elf" Aussagen sind alleine schon deswegen völliger Blödsinn.

LovesuckZ
2012-02-17, 16:23:45
Macs? Hey, da gibt es Gerüchte, dass im MacPro Update zum Ende des Jahres Kepler eingebaut wird. :D

Skysnake
2012-02-17, 16:35:40
Die gleiche Prognose gabs auch zum Thema nV in Notebooks und Macs, wie das ausging wissen wir ja jetzt. ;D

Apple bindet sich grundsätzlich an NIEMANDEN, sie machen das, was für ihre eigenen Interessen gerade am besten ist. Völlig Markenunabhängig. Diese ganzen "NIEMALS WIEDER!!!elf" Aussagen sind alleine schon deswegen völliger Blödsinn.
Von niemals wieder, hat niemand ausser dir gesprochen :rolleyes:

Es hies fuer die naechste generation erst mal dicht. Kepler wird da keine Chance haben, was danach ist, ist wieder etwas anderes.

Bitte die Zeitangabe. Denn bis auf den L0 Cache gibt es keine Angaben zur "Leistung". Und die Aussage über den L0 Cache hat keinen bezug auf das, was du oder Skysnake propagierst.

Ich zitiere daher nochmal nVidia:


What’s more, once NVIDIA GPUs based on the next-generation Kepler architecture arrive, they will provide a nearly 3x increase in performance per watt over current GPUs.

http://blogs.nvidia.com/2012/02/a-japanese-tale-of-two-supercomputers/

Dagegen steht folgende Aussage von Skysnake:

Wie schon sehr lange auch gesagt, geht die Richtung eher Richtung besseres Perf/W Verhältnis zu lasten der (Max erreichbaren) Performance


Aehm willst du grad trollen, oder ueberseh ich da was? :ugly:

Siehst du die rot markierten Bereiche??????? Kannst du lesen? Sorry, wirklich ernst gemeinte frage.

LovesuckZ
2012-02-17, 16:42:49
Ja, das sehe ich.

Ich möchte dir gerne helfen zu verstehen, wieso du eine falsche Behauptung aufstellst:
nVidia sagt zu GK110: ~4,5 TFlop/s / 250 Watt
Skysnake sagt zu GK110: 1,51 TFlop/s / 83 Watt

Unterschied ist klar, oder? Auch Dally sagt: "Die Leistung der GPU muss bei gleichem Stromverbrauch um das 100x steigen". Eigentlich sagt jeder von nVidia genau das Gegenteil von dem, was du behauptest...

/edit: Perf/Watt verbessert aufgrund der Prozessverkleinerung kontinuierlich. Das ist nichts neues.

Achja, ebenfalls laut Char-Lie wird Kepler in die IB Macbooks kommen. :lol:

PCGH_Carsten
2012-02-17, 16:46:20
Das war jetzt nicht auf die Teslas bezogen, sondern ganz allgemein auf die irrige Behauptung, bei einigen Karten würde man eine TDP-Begrenzung a la Powertune bei GPGPU-Anwendungen erreichen. GPGPU hat normalerweise aus den oben aufgeführten Gründen keinen höheren Stromverbrauch als Spiele im Schnitt, tendenziell eher weniger. Man kommt extrem schwer bis gar nicht auf FurMark-Werte. Die Diskussion ist schlicht unsinnig.

Ich müsste jetzt nachschauen, aber IIRC hat Powertune sowohl auf der HD 6970 als auch 6950 beim oCL Hashcat Lite eingegriffen. Ist aber schon ein Weilchen her.

Soul
2012-02-17, 16:51:34
Ihr verwechselt das was mit nV und Apple.

nV wird keine Chance haben im Smartphone und Tablet Markt bei Samsung und Apple weil deren ARM Versionen "besser" sind als die Tegras und somit bei denen auch kein Bedarf danach ist.

Im Computersegment hat nV den Zuschlag bekommen für die neuen IB Serien für Keppler basierte GPU's.

foenfrisur
2012-02-17, 16:54:34
mal ne frage zu tsmc, seinen kunden und den fertigungsprozessen:

ist die bezahlung pro wafer nicht ein riesen vorteil für tsmc und ein nachteil für nv/amd ?

ich frage, weil man ja vermuten könnte, das tsmc folgende VORTEILE insgeheim für sich (aus-)nutzt
tsmc bekommt hohe anlagen-auslastung (fixkostendegression), muss nicht schnellstmöglich den prozess(yields) verbessern ;) und bekommt dennoch alles bezahlt.

bei bezahlung pro lauffähigen chip MÜSSEN sie schnellstmöglich alles "verbessern" in der fertigung, um hohe yields zu erreichen.

gibt es dagegen irgendwelche vereinbarungen oder kontrollen?

mfg

Hugo78
2012-02-17, 16:57:24
und was kann tsmc dafür, das nvidia 2 mal neu auflegen muss?


Selbst wenn wäre das bugfix der schon längst durch ist.

Das Kernproblem ist aber die mangelde Yield und die knappen Kapazitäten.
Das hat man auch schon letztes Jahr gesehen:

- Tegra 3 war letztes Jahr um diese Zeit noch für Spätsommer/Herbst 2011 in 28nm geplant. Wurde gestrichen kommt weiter in 40nm und erst als Tegra3+ in 28nm, irgendwann diesen Sommer.
- AMD hat den 28nm Bobcat Nachfolger gestrichen, bringt auch erstmal weiterhin einen 40nm Platzhalter an seiner Stelle.

Dazu Qualcomm, Apple ect. in der Gänze ein knappes Dutzend Firmen, die sich um die 2% in 28nm Volumen "kloppen".

Da verschieb sich der Zeitpunkt ab dem man wirtschaftlich produzieren kann nach hinten, egal ob dein Design seit 5 Jahren fertig ist oder noch Feinschliff braucht.

foenfrisur
2012-02-17, 17:04:38
das stimmt, wollte auch nur, das wenigstens alle aspekte berücksichtigt werden, weswegen es unter anderem zu einer verspätung gekommen ist.

mfg

Spirou
2012-02-17, 17:18:04
Was bedeutet "nearly" genau, welche Generation von Kepler ist in diesem Zusammenhang die "next-generation Kepler", und wer ist dieser Blogger, der auf derselben Seite immerhin auch folgenden Satz verbrochen hat:

"Compare Tsubame’s 1.2 megawatts with that of the 12.7 megawatt required to power the K system, and it adds up to a huge cost difference."

Soso... a huge cost difference also zwischen 1,2 Megawatt für 1 Petaflop und 12,7 Megawatt für 8 Petaflop. Huge ist erstmal der Leistungsunterschied, und den hat er entweder völlig übersehen, oder sogar bewusst weggelassen, damit sein Satz besser zündet. Ich weiß nicht, was schlimmer wäre.

Acht mal Tsubame 2 ergäbe linear interpolierte 9,6 Megawatt gegenüber 12,7 Megawatt. Wenn sein "nearly" und seine "next-generation" genauso viel Substanz haben... Nehmen wir an, die doppelte Effizienz ist die Zielmarke aller auf 28nm basierenden Kepler-Generationen und man hofft, die am Ende sogar zu überschreiten, dann ergibt das schon mal bis zu dreifache Effizienz in einem Blog über zukünftige Möglichkeiten für Supercomputer. Dreifache Effizienz ist schon eine Hausnummer.

Daher: Bessere Quellen bitte!

Gipsel
2012-02-17, 17:50:05
Ich müsste jetzt nachschauen, aber IIRC hat Powertune sowohl auf der HD 6970 als auch 6950 beim oCL Hashcat Lite eingegriffen. Ist aber schon ein Weilchen her.
Dann schau mal nach. Wenn das im Normalzustand abgeregelt würde (da bin ich mir nicht mal sicher, eine kurze Suche hat nicht viel ergeben*), ist das wahrscheinlich eher ein suboptimales Arbeiten von PT als wirklich erforderlich. Furmark oder auch einige Spiele verursachen sicherlich einen höheren Stromverbrauch (könntet ihr doch mal nachmessen ;)).

*: Im Test der Sapphire HD6950 Toxic bei HT4U (http://ht4u.net/reviews/2011/sapphire_radeon_hd_6950_toxic/index29.php) kann man sehen, daß die übertaktete Version ohne Powertune-Anhebung offenbar abgeregelt wird, die Standardversionen der Caymans aber nicht. Edith sagt, daß dort festgestellt wurde, daß Sapphire bei den Karten im VBIOS am PT rumgepfuscht hat, so daß auch bis zu +50% PT-Einstellung möglich war, mit der allerdings die Karten auch ohne Übertaktung abstürzten. Also keine Ahnung, ob das PT-Verhalten dieser Karte repräsentativ ist.

V2.0
2012-02-17, 17:56:52
Das sind aber Details.

Was helfen einem theoretische Fähigkeiten von nicht verfügbaren Karten.

Fakten:

GK104 frühestens im April
GK106 - unbekannt sonst würde es keine 560SE geben
GK110 - frühestens August

Und ganz ehrlich wenn GK110 im August kommt, dann kann er soviele DPs / W haben wie er will.

M4xw0lf
2012-02-17, 17:58:02
Das sind aber Details.

Was helfen einem theoretische Fähigkeiten von nicht verfügbaren Karten.

Fakten: Gerüchte:

GK104 frühestens im April
GK106 - unbekannt sonst würde es keine 560SE geben
GK110 - frühestens August

Und ganz ehrlich wenn GK110 im August kommt, dann kann er soviele DPs / W haben wie er will.

Lass mich das für dich korrigieren.

Ailuros
2012-02-17, 18:23:47
Ja, das sehe ich.

Ich möchte dir gerne helfen zu verstehen, wieso du eine falsche Behauptung aufstellst:
nVidia sagt zu GK110: ~4,5 TFlop/s / 250 Watt
Skysnake sagt zu GK110: 1,51 TFlop/s / 83 Watt

Ich hab Euren Kindergarten nicht verfolgt um ehrlich zu sein aber wo immer 1.5 TFLOP fuer GK110 ist es offensichtlich double precision und Deine uebertriebene Schaetzung ist immer noch single precision floating point.

NVIDIA hat nichts dergleichen so behauptet und das eigentliche Problem hier ist Deine Wahrnemmung. Und ja natuerlich ist Kepler Tesla um 3x Mal schneller als Fermi Tesla mit double precision floating point math. Geh mal ein paar hundert Seiten zurueck in diesem selben thread und Du wirst sehen dass ich schon damals sagte dass der Unterschied nicht 2.5x ist wie NV selber in ihren eigenen slides angegeben hat sondern mehr.

Unterschied ist klar, oder? Auch Dally sagt: "Die Leistung der GPU muss bei gleichem Stromverbrauch um das 100x steigen". Eigentlich sagt jeder von nVidia genau das Gegenteil von dem, was du behauptest...

/edit: Perf/Watt verbessert aufgrund der Prozessverkleinerung kontinuierlich. Das ist nichts neues.

Schoenen Abend sherlock. Zwischen Tesla Fermi und Tesla Kepler ist der theoretische DP FLOPs Unterschied pro Watt bei Faktor 3.0 und sustainable DP FLOPs bei 2.5x wobei das "sustainable" im neuesten slide von NVIDIA hinzugefuegt wurde.

Achja, ebenfalls laut Char-Lie wird Kepler in die IB Macbooks kommen. :lol:

Wenn Du Daten haben solltest die dagegen sprechen, kannst Du uns gerne informieren.

LovesuckZ
2012-02-17, 18:26:06
"We have not announced other Kepler products yet, but it's just a home run.
Every once in awhile we manage to build a gpu closed to the perfection as we can. And Kepler is just one of our best gpu we ever build."

Gipsel
2012-02-17, 18:30:35
Bitte die Zeitangabe. Denn bis auf den L0 Cache gibt es keine Angaben zur "Leistung".Das wird redundant. Das wurde in diesem Thread alles schon ausdiskutiert. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9112587#post9112587)

Ailuros
2012-02-17, 18:31:34
Das sind aber Details.

Was helfen einem theoretische Fähigkeiten von nicht verfügbaren Karten.

Fakten:

V2.0 Fakten aber sonst keine andere wirklichen "Fakten".

GK104 frühestens im April

Die paar Tage Unterschied schenk ich Dir gerne; es ist eben nicht April momentan geplant fuer den wirklichen launch.

GK106 - unbekannt sonst würde es keine 560SE geben

Der GF114 Ableger war anfangs zur gleichen Zeit mit GK104 geplant. Sind Deine Fakten immer so genau?

GK110 - frühestens August

Begruende es und ich haette liebend gerne endlich mal etwas ernsthafteres in der Art es ist momentan bei Revision X und benoetigt noch N metal spins. Denn idiotisches hearsay hilft mir leider nicht weiter. Ich weiss selber nicht was los ist ergo waere es mal nett wenn jemand hier mal ausnahmsweisse etwas selber herausbuddeln kann ohne den Papageien einer einzigen Quelle zu spielen.

Und ganz ehrlich wenn GK110 im August kommt, dann kann er soviele DPs / W haben wie er will.

Wir sind im Kepler thread falls Du es nicht bemerkt hast. Falls Dich der Inhalt stoeren sollte, gibt es auch andere threads zum lesen.

M4xw0lf
2012-02-17, 18:32:40
"We have not announced other Kepler products yet, but it's just a home run.
Every once in awhile we manage to build a gpu closed to the perfection as we can. And Kepler is just one of our best gpu we ever build."

Und was beweist dieses PR-Gewäsch genau?

Ailuros
2012-02-17, 18:34:24
"We have not announced other Kepler products yet, but it's just a home run.
Every once in awhile we manage to build a gpu closed to the perfection as we can. And Kepler is just one of our best gpu we ever build."

Den marketing Rotz koennen wir selber lesen schon lange bevor Du ihn wiederholst. Wir wussten auch schon wie Kepler aussieht als Du noch keine Ahnung davon hattest und auch durch Deinen Urlaub wo man nicht unendlich Deinen direkten oder indirekten Provokationen hinterherrennen musste.

Vielleicht waere es schoen ab und zu sachlich zu argumentieren, anstatt den obrigen Bloedsinn.

Gipsel
2012-02-17, 18:40:54
Ich hab Euren Kindergarten nicht verfolgt um ehrlich zu sein aber wo immer 1.5 TFLOP fuer GK110 ist es offensichtlich double precision und Deine uebertriebene Schaetzung ist immer noch single precision floating point.Ich weiß jetzt auf Anhieb auch nicht, wo Skysnake was von 83W für die 1,5 TFlop/s in DP geschrieben haben soll, der tippt meiner Erinnerung nach doch eher in Richtung 250W. Mit 1,5 TFlop/s DP-Peak und irgendwas um 225W TDP für die Teslas kann nV locker ihr Versprechen von 2,5 mal so hoher (sustained) DP-Flops/W gegenüber Fermi einhalten. Ich weiß gar nicht, wo das Problem liegt, was man da diskutieren muß, zumal anhand der Titan-Daten eine Abschätzung von ~1,4 TFlop/s als angepeilte Leistung (für die dort verbaute X-Variante senken sie die TDP vielleicht sogar noch um ein paar Watt) schon sehr lange durch die Gegend geistert. :confused:

LovesuckZ
2012-02-17, 18:48:27
Den marketing Rotz koennen wir selber lesen schon lange bevor Du ihn wiederholst. Wir wussten auch schon wie Kepler aussieht als Du noch keine Ahnung davon hattest und auch durch Deinen Urlaub wo man nicht unendlich Deinen direkten oder indirekten Provokationen hinterherrennen musste.

Vielleicht waere es schoen ab und zu sachlich zu argumentieren, anstatt den obrigen Bloedsinn.

Ja und wir wussten auch, dass Tegra 2 langsamer als A4 werden würde und es GF110 nicht mehr im Jahr 2010 zu kaufen gäbe. Bitte, wie wäre es, wenn du mal einen Gang zurückschaltest. Dein TrackRekord ist nicht gerade berauschend in Bezug auf nVidia in den letzten Jahren.

Achja, ich habe schon letztes Jahr gesagt, dass nVidia ihr Rechenleistungsproblem mit Kepler lösen muss. Anscheinend sieht es wohl so aus, dass sie es schaffen werden.

Und ihr Leute nichts über Kepler lesen wollt: Wäre es dann nicht sinnvoller, aus dem Thread fernzubleiben?

Ailuros
2012-02-17, 19:03:26
Ja und wir wussten auch, dass Tegra 2 langsamer als A4 werden würde und es GF110 nicht mehr im Jahr 2010 zu kaufen gäbe. Bitte, wie wäre es, wenn du mal einen Gang zurückschaltest. Dein TrackRekord ist nicht gerade berauschend in Bezug auf nVidia in den letzten Jahren.

Vielleicht hilft es Deiner kindischen Schlammschlacht auch noch mehr irrelevantes in den Topf zu werfen, aber es hat gar nichts mit dem Thema zu tun. Wo genau sollen die angelichen 4.5 TFLOPs herkommen und von welcher Anzahl von Einheiten genau waere mal ein Anfang als Abwechslung.

Achja, ich habe schon letztes Jahr gesagt, dass nVidia ihr Rechenleistungsproblem mit Kepler lösen muss. Anscheinend sieht es wohl so aus, dass sie es schaffen werden.

Ich habe es nie bezweifelt.

Und ihr Leute nichts über Kepler lesen wollt: Wäre es dann nicht sinnvoller, aus dem Thread fernzubleiben?

Dann trag gefaelligst zum eigentlichen Thema etwas sinnvoller bei als nur das uebliche Marketing-gewaesch dass jeder lesen kann und wenn schon anstandshalber mit einem link der sowieso fehlte.

Sonst EOD fuer Deine Spielwiese und ab sofort zurueck zum Thema.

PCGH_Carsten
2012-02-17, 19:07:21
Dann schau mal nach. Wenn das im Normalzustand abgeregelt würde (da bin ich mir nicht mal sicher, eine kurze Suche hat nicht viel ergeben*), ist das wahrscheinlich eher ein suboptimales Arbeiten von PT als wirklich erforderlich. Furmark oder auch einige Spiele verursachen sicherlich einen höheren Stromverbrauch (könntet ihr doch mal nachmessen ;)).

Gute Idee. Und gut, dass wir all das schon antizipiert hatten. :) Ich hab's gerade gefunden - googlen wird höchstens auf Warez-Seiten helfen, da der Artikel im Heft 09/2011 zu finden war. Ok, genug Schleichwerbung.

OpenCL Hashcat Lite 0.05
6970 stock: 232 Watt
6970 PT+20: 236 Watt

Es war wohl wirklich knapp, aber immerhin. Auch in anderen „Anwendungen“ greift Powertune ein - selbst in solchen, die nicht mit der rhetorisch geschickt gewählt, faktisch aber falschen Bezeichnung „Power Virus“ von vornherein als (wie auch immer) ungültig abgestempelt wurden. Nun ist natürlich die Frage, ob ein normaler Benchmark eine gültige Anwendung ist, aber sonst haben ja weder AMD noch Nvidia Probleme mit tollen 3DMark-Werten oder sonstigen langen Balken.

*: Im Test der Sapphire HD6950 Toxic bei HT4U (http://ht4u.net/reviews/2011/sapphire_radeon_hd_6950_toxic/index29.php) kann man sehen, daß die übertaktete Version ohne Powertune-Anhebung offenbar abgeregelt wird, die Standardversionen der Caymans aber nicht. Edith sagt, daß dort festgestellt wurde, daß Sapphire bei den Karten im VBIOS am PT rumgepfuscht hat, so daß auch bis zu +50% PT-Einstellung möglich war, mit der allerdings die Karten auch ohne Übertaktung abstürzten. Also keine Ahnung, ob das PT-Verhalten dieser Karte repräsentativ ist.
Da liegt eine große Gefahr von Powertune (und Nvidias Power Containment, bzw. was immer sie in Kepler machen): Leistungswerte sind einfach nicht mehr verläßlich, weil sie sowohl vom einzelnen ASIC (Varianz) abhängen, als auch vom BIOS des jeweiligen AIBs. Ich vermute mal, daran liegt's auch, dass Computerbase seinerzeit Throttling in DA2 festgestellt hatte, was wir mit unserem Muster nicht reproduzieren konnten. War vermutlich auch eine knappe Geschichte wie oben - unser Cayman war vielleicht das entscheidende Quentchen „besser“.

Gipsel
2012-02-17, 19:17:28
Da liegt eine große Gefahr von Powertune (und Nvidias Power Containment, bzw. was immer sie in Kepler machen): Leistungswerte sind einfach nicht mehr verläßlich, weil sie sowohl vom einzelnen ASIC (Varianz) abhängen, als auch vom BIOS des jeweiligen AIBs. Ich vermute mal, daran liegt's auch, dass Computerbase seinerzeit Throttling in DA2 festgestellt hatte, was wir mit unserem Muster nicht reproduzieren konnten. War vermutlich auch eine knappe Geschichte wie oben - unser Cayman war vielleicht das entscheidende Quentchen „besser“.
BIOS ist klar. Aber laut AMDs Beschreibung spielen ASIC-Variationen gerade keine Rolle. Aber das führt jetzt hier wahrscheinlich zu weit ins OT. Gab es nicht irgendwo einen Powercontainment-Thread?

Mancko
2012-02-18, 00:33:20
Das sind aber Details.

Was helfen einem theoretische Fähigkeiten von nicht verfügbaren Karten.



Einiges, weil sie die Spannung hochhalten und die Wartezeit verkürzen :)


Fakten:

GK104 frühestens im April
GK106 - unbekannt sonst würde es keine 560SE geben
GK110 - frühestens August

Und ganz ehrlich wenn GK110 im August kommt, dann kann er soviele DPs / W haben wie er will.

Gk104 März bis April. Das passt dann ja auch. GK110 weiß man nichts. Ansonsten kommt mit GK104 noch ne ganze Menge mehr und das in einem relativ kleinen Zeitfenster. Da wird es nur so von NV Artikeln auf den Reviewseiten sprudeln.
Die 560SE ist ein Abverkauf mehr nicht. Gab es bei jeder Serie immer wieder. Nvidia ist extrem gut in sowas.

Skysnake
2012-02-18, 11:10:23
Ja, das sehe ich.

Ich möchte dir gerne helfen zu verstehen, wieso du eine falsche Behauptung aufstellst:
nVidia sagt zu GK110: ~4,5 TFlop/s / 250 Watt
Skysnake sagt zu GK110: 1,51 TFlop/s / 83 Watt

Unterschied ist klar, oder? Auch Dally sagt: "Die Leistung der GPU muss bei gleichem Stromverbrauch um das 100x steigen". Eigentlich sagt jeder von nVidia genau das Gegenteil von dem, was du behauptest...

/edit: Perf/Watt verbessert aufgrund der Prozessverkleinerung kontinuierlich. Das ist nichts neues.

Ich glaub du kannst wirklich nicht lesen.


Wie schon sehr lange auch gesagt, geht die Richtung eher Richtung besseres Perf/W Verhältnis zu lasten der (Max erreichbaren) Performance

Ich hab den entscheidenden Teil mal markiert...

Ganz unabhängig davon, das du SP mit DP vergleichst, was ziemlich banane ist, unterstellst du mir eine Absolutaussage, wo ich von einer Tendenz spreche...

Ich hab gesagt, das man Perf/W über reine Perf setzt. Sprich, wir gehen mal von den veranschlagten 250W aus sieht das exemplarisch wie folgt aus:

Architektur X mit Taktraten XY ~1.0Z Rechenleistung bei 275W
Architektur L mit Taktraten LM ~0.9Z Rechenleileistung bei 235W

Die P/W ist bei L besser, also wählt man diese.

Das ist aber noch nicht alles. Man könnte ja X auch auf 0.9Z runter ziehen, dadurch das man ja den Takt niedriger setzen kann. Dabei nehmen wir aber mal an, das man dann eben noch immer 245W brauchen würde, also wählt man L.

Jetzt könnte man aber auf die Idee kommen, das man den Takt LM erhöht, um auf 1.0Z zu kommen. Das kann man auch machen, damit steigt aber die Verlustleistung auf 265W Ist noch immer besser als mit X, aber man verschlechtert die Perf/W. Zweite Möglichkeit wäre, das man sogar 280W verbraucht. Dann würde man aber trotzdem die Architektur L nehmen, da man eben Perf/W über die Perf setzt. So lange die Perf um >20% im Vergleich zum Vorgänger steigt, ist einem die Perf/W wichtiger.

Man wird sich also mit 0.9Z zufrieden geben, da hier die beste Perf/W zu erreichen ist. Den Taktspielraum schöpft man bewusst einfach nicht aus, und nimmt sogar eine Architektur, die bei Leistung 1.0Z schlechter dasteht als eine andere, so lange die Perf/W in einem vertretbaren Rahmen besser ist.

Man wird also beim Topmodell nicht zwingend die 250W+ sehen, sondern eventuell auch nur 225W. Das hat dir Ailuros und Gipsle versucht zu erklären. Ich hoffe du hast es jetzt verstanden. wenn nicht, einfach melden, dann erklären wir es dir nochmals ;)

Ich weiß jetzt auf Anhieb auch nicht, wo Skysnake was von 83W für die 1,5 TFlop/s in DP geschrieben haben soll, der tippt meiner Erinnerung nach doch eher in Richtung 250W. Mit 1,5 TFlop/s DP-Peak und irgendwas um 225W TDP für die Teslas kann nV locker ihr Versprechen von 2,5 mal so hoher (sustained) DP-Flops/W gegenüber Fermi einhalten. Ich weiß gar nicht, wo das Problem liegt, was man da diskutieren muß, zumal anhand der Titan-Daten eine Abschätzung von ~1,4 TFlop/s als angepeilte Leistung (für die dort verbaute X-Variante senken sie die TDP vielleicht sogar noch um ein paar Watt) schon sehr lange durch die Gegend geistert. :confused:

Jo so siehts aus. Danke :up:

M4xw0lf
2012-02-18, 11:19:04
Warum immer diese logischen Argumente Skysnake und Gipsel, man kann doch auch einfach dem Huang-Evangelium folgen! Gelobt sei der Messiahs Jen-Hsun, unser tägliches PR-Gedöns gib uns heute ;D

LovesuckZ
2012-02-18, 11:28:24
Ich glaub du kannst wirklich nicht lesen.


Ich hab den entscheidenden Teil mal markiert...

Ganz unabhängig davon, das du SP mit DP vergleichst, was ziemlich banane ist, unterstellst du mir eine Absolutaussage, wo ich von einer Tendenz spreche...

Ich hab gesagt, das man Perf/W über reine Perf setzt. Sprich, wir gehen mal von den veranschlagten 250W aus sieht das exemplarisch wie folgt aus:

Architektur X mit Taktraten XY ~1.0Z Rechenleistung bei 275W
Architektur L mit Taktraten LM ~0.9Z Rechenleileistung bei 235W

Die P/W ist bei L besser, also wählt man diese.

Das ist aber noch nicht alles. Man könnte ja X auch auf 0.9Z runter ziehen, dadurch das man ja den Takt niedriger setzen kann. Dabei nehmen wir aber mal an, das man dann eben noch immer 245W brauchen würde, also wählt man L.

Jetzt könnte man aber auf die Idee kommen, das man den Takt LM erhöht, um auf 1.0Z zu kommen. Das kann man auch machen, damit steigt aber die Verlustleistung auf 265W Ist noch immer besser als mit X, aber man verschlechtert die Perf/W. Zweite Möglichkeit wäre, das man sogar 280W verbraucht. Dann würde man aber trotzdem die Architektur L nehmen, da man eben Perf/W über die Perf setzt. So lange die Perf um >20% im Vergleich zum Vorgänger steigt, ist einem die Perf/W wichtiger.

Man wird sich also mit 0.9Z zufrieden geben, da hier die beste Perf/W zu erreichen ist. Den Taktspielraum schöpft man bewusst einfach nicht aus, und nimmt sogar eine Architektur, die bei Leistung 1.0Z schlechter dasteht als eine andere, so lange die Perf/W in einem vertretbaren Rahmen besser ist.

Man wird also beim Topmodell nicht zwingend die 250W+ sehen, sondern eventuell auch nur 225W. Das hat dir Ailuros und Gipsle versucht zu erklären. Ich hoffe du hast es jetzt verstanden. wenn nicht, einfach melden, dann erklären wir es dir nochmals ;)



Jo so siehts aus. Danke :up:

Tja, doof nur, dass nVidia es heute schon macht. Eine GTX570 hat ein besseres Verhältnis als die GTX580.
Dein Posting macht des Weiteren kein Sinn, da nVidia für Quadro/Tesla immer Chips aussucht, die ins Power-Budget passen.

Das ändert sich mit Kepler nicht. Daher schreibst du immer noch etwas, was nicht stimmt.

/edit: Und du zeigst doch sehr schön, dass du die Aussagen von nVidia einfach nicht richtig einordnen kannst.
Sie verbessern nicht das Perf/Watt Verhältnis indem sie Leistung opfern. Sie verbessern im selben Power-Budget die Leistung. Vollkommen konträr zu dem, was du behauptest.

Skysnake
2012-02-18, 12:29:50
Ich gebs auf. Ganz im ernst, ich gebs auf, und Streich die Segel, und DAS will wirklich etwas heißen.

Selbst bei Zeugen Jehovas hab ich die Segel nicht gestrichen, 3 Stunden auf der Straße diskutiert und einem jungen Menschen neue Perspektiven/Blickwinkel aufgezeigt, aber hier streich ich wirklich die Segel und gebe es auf, da ich wirklich keinen Sinn mehr darin sehe.

GZ LZ, das hat wirklich noch niemand geschafft.

Mancko
2012-02-18, 13:34:03
Warum immer diese logischen Argumente Skysnake und Gipsel, man kann doch auch einfach dem Huang-Evangelium folgen! Gelobt sei der Messiahs Jen-Hsun, unser tägliches PR-Gedöns gib uns heute ;D

Messiashs hin oder her. Fähiger als die Pflaumen bei AMD im Management ist der allemal und charismatischer auch. Vielleicht wirds mit Read bei AMD ja mal besser. Davor war nur Sanders überzeugend.

Cyphermaster
2012-02-18, 14:11:03
Ich würde sagen, bevor hier nicht einer sich als CEO einer Rating-Agentur, Firmenleitungs-Insider bei AMD oder nVidia oder sonstigerweise als qualilfiziert ausweisen kann, sich über solche Personalien ein Urteil auch nur halbwegs leisten zu können:

Back to topic. Letzte Warnung.

Hübie
2012-02-19, 06:32:37
Öhm. Was ist denn nun mit der pdx LAN und nVidia. Ich seh da noch nix. Langsam wirds peinlich. Schön das insider etwas wissen, aber ein Produkt muss schon vor dem möglichen Kauf angepriesen werden.
Volvo hat auch schon 1 Jahr vor release den S60 kräftig beworben! Zitat: "One of the best cars we have ever designed". :rolleyes:

AffenJack
2012-02-19, 08:05:15
gab nix über kepler auf der pdxlan, nur tegra3 und borderlands 2

Skysnake
2012-02-19, 08:34:49
nicht wirklich oder :ugly:

y33H@
2012-02-19, 09:57:02
Mir wäre Aliens Colonial Marines ja lieber :usad:

boxleitnerb
2012-02-19, 10:05:58
So langsam wirds bedenklich. Da kommt echt gar nichts :(

guest_29132
2012-02-19, 10:09:29
nicht wirklich oder :ugly:



http://hardforum.com/showthread.php?t=1673103&highlight=pdx
I love how this thread went from hopefully seeing kepler this weekend. To kepler not showing up, then people bitching about Nvidia, To comparing Nvidia's cards to AMD 7k series.

http://semiaccurate.com/forums/showthread.php?p=153536
Looks like the supposed demo of Kepler at PDXLan didn't happen. Apparently the "major announcement" from Nvidia that everyone was hyping as the launch of GK104 turned out to be a demo of Tegra 3 and Borderlands 2. No Kepler cards were shown.



Aber noch ist die LAN ja nicht vorbei.

Skysnake
2012-02-19, 10:12:46
hab ich das in nem amerikanischen Forum, wo ein Lan-Teilnehmer berichtet hat, jetzt ri htig verstanden, dass die Borderlands 2 auf dem Tegra3 gezeigt haben, und das wars?

Tegra3 wurde doch schon auf der CES vorgestellt :ugly:

Ist Tegra3 jetzt eigentlich schon mit ARM Quad? Ja oder, hat doch glaub ich sogar "5" Kerne, mit diesem low power Kern.

Aber ohne Details ist das doch wertlos. Welche Auflösung wurde verwendet, wie viel Saft zieht der Chip dabei und wie sind die Details im Grafiksetting?

Schon sehr bitter....

Was wäre denn nun die nächste Messe/Veranstaltung zur Einführung einer neuen Architektur?

M4xw0lf
2012-02-19, 10:21:19
Die Cebit?

AffenJack
2012-02-19, 10:24:01
Wahrscheinlich gar keine, glaube langsam wir werden keine Pre-Release Events sehen. Cebit wäre noch unter Umständen denkbar, weil da viele Firmen sind um die Architektur in Hinblick auf GPGPU vorzustellen, aber ich glaub nicht so recht dran. GK104 ist ja nun kein Gpgpu orientierter Chip und GK110 dauert noch etwas und man will diesmal vll nicht so verfrüht präsentieren, wie bei Fermi. Vor allem wenn man sich noch nicht sicher ist, wieviel Spins GK110 braucht und wann genau er deshalb kommt.

Skysnake
2012-02-19, 10:28:16
ich glaub an die CeBit auch eher weniger. Zumindest nicht öffentlich. Vielleicht sieht man ja was hinter verschlossenen Türen, aber das wars dann sicherlich auch.

AnarchX
2012-02-19, 10:59:18
Auf der Cebit könnten die Partner wohl etwas redseliger sein, ähnlich wie bei Fermi.

M4xw0lf
2012-02-19, 11:25:28
Immer vorausgesetzt sie haben was zu erzählen :wink:

y33H@
2012-02-19, 11:32:36
idR nutzen große Hersteller keine externe Messe ;-)

Skysnake
2012-02-19, 11:35:09
wäre schlimm wenn nicht. Wenn die Anfang März noch immer nichts sagen können, weil sie nichts wissen, dann wirds aber mit dem Launch Anfang April nichts. Die brauche. Ja auch etwas Zeit zum Kartons drucken etc.

Da seh ich dann wenn eher erst ende April als Möglichen Termin.

LovesuckZ
2012-02-19, 11:38:00
wäre schlimm wenn nicht. Wenn die Anfang März noch immer nichts sagen können, weil sie nichts wissen, dann wirds aber mit dem Launch Anfang April nichts. Die brauche. Ja auch etwas Zeit zum Kartons drucken etc.

Da seh ich dann wenn eher erst ende April als Möglichen Termin.

Die können die Kartons auch nicht drucken, wenn sie vorher nichts sagen. :freak:

Gipsel
2012-02-19, 11:52:07
Am besten bookmarke ich mir mal diese Stelle im Thread. Dann können wir ja später sehen, wann die Bilder der Kartons auftauchen und ob die Kepler-Karten im März, Anfang oder Ende April ihren Launch haben. :rolleyes:

M4xw0lf
2012-02-19, 12:06:32
Eine wissenschaftliche Studie zur Korrelation zwischen geleakten Grafikkarten-Kartons und Launchterminen ist angebracht ^^

Iruwen
2012-02-19, 12:08:18
Die Kartons sind gedruckt aber zuerst kommt 'ne limitierte handsignierte GTX 680 und Huang ist noch nicht mit Unterschreiben fertig :rolleyes:

Skysnake
2012-02-19, 13:34:02
Die können die Kartons auch nicht drucken, wenn sie vorher nichts sagen. :freak:
Die aussage war darauf bezogen, ob sie überhaupt etwas sagen können, egal ob inoffiziell hinter verschlossenen Türen oder überhaupt nur könnten.

Wenn sie nämlich selbst nichts wissen, wirds auch schwer Kartons zu drucken oder meinste nicht :ugly:

Soul
2012-02-19, 13:51:04
Wie wärs mit GK104 Launch im Juni zusammen mit IB?

y33H@
2012-02-19, 14:02:19
Viel zu spät IMO.

PrefoX
2012-02-19, 14:13:46
Wie wärs mit GK104 Launch im Juni zusammen mit IB?
IB release ist aber immernoch am 8.april...

Schaffe89
2012-02-19, 14:21:16
Schön langsam habe ich Zweifel, dass das überhaupt noch was wird mit April.
Eher ende April, anfang Mai.
Die Boardpartner wissen scheinbar immernoch gar nichts.

AwesomeSauce
2012-02-19, 17:40:50
Wie Fermi könnte doch auch Kepler auf der PAX East vorgestellt werden, 6.-8. April. Gamer-Veranstaltung für eine Gamer-Karte (GK104) und dann einen Monat später auf der eigenen GTC die Compute-Vorstellung, evtl. mit Architekturdetails zu GK110.

Godmode
2012-02-19, 18:59:17
Ende März, Anfang April für GK104, wurde doch schon ein paar mal hier erwähnt.

Adam D.
2012-02-19, 20:25:10
Ich versteh auch nicht, was die ganze Panik gerade soll. So lang ich von Ail (der wohl mit Abstand hier die besten Quellen hat) nix Gegenteiliges hier lese, steht weiterhin seine Aussage eines konkurrenzfähigen GK104 spätestens zum IB-Launch.

boxleitnerb
2012-02-20, 14:25:51
Gibts sonst was Neues von Kepler? vr-zone wärmt Zeug auf, was wir schon längst wissen bzw. was nicht bestätigt ist:

The GK100 'Kepler' and its GK110 follow on were supposed to wrest that lead back to Nvidia, just a month or two from now. However, right now it looks a gone case, at least for the next half year. For whatever reasons, the GK104 upper mid-range part, a follow on to the GeForce 560 family, is now the top-end part to launch, and it can't - I mean can't - win over the HD7970 in any meaningful use. That role was reserved for the GK100 and follow ons.

Either way, the lack of the premium 'crown holder' part is bound to affect Nvidia's image. Unlike AMD and its - problematic at times, too - CPU business, and with the chipset presence long gone, Nvidia has no other major PC foothold aside the GPUs. AMD can, at least, alternate between attractive CPU/APU and GPU launches to keep the market buzzing, even if some things go wrong. On the other hand, the 'fashion fad' tablets and smartphones, with zero CPU vendor loyalty to boot, will never fully replace the long term stability of the PC market.

Read more: http://vr-zone.com/articles/nvidia-in-for-a-tough-year-pressure-on-both-high-end-and-low-end-/14937.html#ixzz1mvc7X4xk


http://vr-zone.com/articles/nvidia-in-for-a-tough-year-pressure-on-both-high-end-and-low-end-/14937.html

Dural
2012-02-20, 14:59:33
also an den Verpackungen wird es sicher nicht scheitern :freak:

und die kann man natürlich problemlos zum voraus Drucken, wie so den auch nicht, auf den Verpackungen steht ja nichts drauf wo für man (Retail) Karten benötigen müsste.

Skysnake
2012-02-20, 17:23:09
man muss aber zumindest wissen, was man da drauf drucken muss. Würfeln ist da ja eher schlecht ;D

Gipsel
2012-02-20, 17:29:40
Wer unbedingt über LS' Verbleib reden will, kann das hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9173963#post9173963) machen.

Dural
2012-02-20, 17:40:03
man muss aber zumindest wissen, was man da drauf drucken muss. Würfeln ist da ja eher schlecht ;D

Die Daten die auf der Verpackung stehen, weis man doch in der regel schon lange zum voraus! zb. DX11, Cuda, PhysX, 2GB, 256Bit, Windows 7 Ready usw. also ich sehe da kein Problem ;)

Und wenn man zu schnell war gibt es immer noch Sticker die man über den fehlerhaften Druck kleben kann, ich erinnere da zb. an meine 4870 wo das DX10.1 mit DX10 überklebt wurde ;D :freak: (wie so auch immer)

Knuddelbearli
2012-02-20, 18:02:21
dx10.1 wurde durch Intervention von NV in letzter Sekunden nochmal geändert

Die HD 4xxx war dadurch sozusagen nur DX.10.09

Gipsel
2012-02-20, 18:06:47
:confused:
Schon die HD3000er Serie war DX10.1 (bis auf RV610). Eher traf das auf die nV-Karten zu (die konnten im Prinzip auch bereits Einiges mehr als die der DX10.0/SM4.0-Spec).

AnarchX
2012-02-20, 18:14:05
Sweclockers via VR-Zone: GK104 als GTX 670 Ti im März? (http://vr-zone.com/articles/report-nvidia-gk104-releasing-in-march-as-geforce-gtx-670-ti/14952.html)

Fragt sich nur ob das schon der Vollausbau in der 670Ti ist...

Zergra
2012-02-20, 18:20:39
Sweclockers via VR-Zone: GK104 als GTX 670 Ti im März? (http://vr-zone.com/articles/report-nvidia-gk104-releasing-in-march-as-geforce-gtx-670-ti/14952.html)

Fragt sich nur ob das schon der Vollausbau in der 670Ti ist...
better than GeForce GTX 580 and Radeon HD 7950", which implies average performance somewhere between HD 7950 and HD 7970.

Read more: http://vr-zone.com/articles/report-nvidia-gk104-releasing-in-march-as-geforce-gtx-670-ti/14952.html#ixzz1mwZ2OItF


aber auch nur dann wenn es der Vollausbau ist ! alles andere wäre unwarscheinlich ! dann bleibt die 680GTX wohl bis Juni+ noch im Schrank :P

Ronny145
2012-02-20, 18:21:18
GTX 670 wäre der salvage part von GK104 wenn die bisherigen Annahmen stimmen. Das wäre recht verwunderlich. Oder Nvidia benutzt für GK110 dann doch die GTX 680 Bezeichnung und für GK104 nur 660/670. Dann wäre 660 der salvage part.

marc-05
2012-02-20, 18:31:57
Schlecht Ausbeute bei Kepler aber laut Nvidia Chef Jen-Hsun Huang
"...beste GPU, die wir je gebaut haben. Die Leistung und Energieeffizienz ist das Beste, was wir je geschaffen haben."

http://hartware.net/news_54088.html

boxleitnerb
2012-02-20, 18:34:02
Das sollte bei einer neuen Generation eigentlich selbstverständlich sein. Marketinggeschwätz -> Inhalt=0.

Knuddelbearli
2012-02-20, 18:38:33
hmm stimmt ja dann war das bei der 2000er reihe

sorry mein fehler

AnarchX
2012-02-20, 19:28:49
GTX 670 wäre der salvage part von GK104 wenn die bisherigen Annahmen stimmen. Das wäre recht verwunderlich. Oder Nvidia benutzt für GK110 dann doch die GTX 680 Bezeichnung und für GK104 nur 660/670. Dann wäre 660 der salvage part.

Oder GTX 670 Ti mit vollem GK104 und GTX 670 "Vanilla" der schnellste Salvage-Part. Mit dem 70 deutet man vielleicht auch die Preiskategorie an.
GK110 könnte dann als GTX 675 und GTX 685 vorgestellt werden.

Aber in den nächsten Wochen dürfte es wohl handfeste Infos geben.

aber auch nur dann wenn es der Vollausbau ist ! alles andere wäre unwarscheinlich ! dann bleibt die 680GTX wohl bis Juni+ noch im Schrank :P
In den Nvidia Benchmarks könnte der volle GK104 schneller als die 7970 sein und eben der Salvage-GK104 zwischen 7950 und 7970. ;)

Zergra
2012-02-20, 19:43:49
In den Nvidia Benchmarks könnte der volle GK104 schneller als die 7970 sein und eben der Salvage-GK104 zwischen 7950 und 7970. ;)

Stimmt je nach Benchmark ! aber ich bin darauf richtige gespannt! dann wird es auch im Juni eine Preisanpassung geben, vorher ist das wegen der Verfügbarkeit eher nicht zu erwarten !

dildo4u
2012-02-20, 20:08:55
Warum sollte die vorher nicht verfügbar sein?NV bringt ja bewusst der kleinen Chip zu erst damit sie was haben.Ich denke eher das es Probleme bei den Notebook GPU's geben wird,weil dort für den Ivy Bridge Launch größe Mengen gebraucht werden.

Zergra
2012-02-20, 20:16:09
Warum sollte die vorher nicht verfügbar sein?NV bringt ja bewusst der kleinen Chip zu erst damit sie was haben.Ich denke eher das es Probleme bei den Notebook GPU's geben wird,weil dort für den Ivy Bridge Launch größe Mengen gebraucht werden.
Es geht mir eher um die großen Mengen und die daraus brauchbaren Preise :D alles andere ist ja eh noch unklar !

Hugo78
2012-02-20, 20:16:13
Oder GTX 670 Ti mit vollem GK104 und GTX 670 "Vanilla" der schnellste Salvage-Part. Mit dem 70 deutet man vielleicht auch die Preiskategorie an.

Ja das "Ti" sollte Indikator für Vollausbau bleiben.
Die x70 für den Preisbereich um die 300€ und die vermutete Leistung zwischen 7950 und 7970 würde dann auch ins Bild passen.

mczak
2012-02-20, 20:29:13
Oder GTX 670 Ti mit vollem GK104 und GTX 670 "Vanilla" der schnellste Salvage-Part. Mit dem 70 deutet man vielleicht auch die Preiskategorie an.
GK110 könnte dann als GTX 675 und GTX 685 vorgestellt werden.

Das macht Sinn. Klingt irgendwie nicht richtig eine 670Ti als Salvage-Part. Nur, die Verkaufsnamen waren schon öfter nicht wirklich logisch aufgebaut...
Die 950Mhz klingen auch einigermassen plausibel, falls die Architektur wirklich noch fast dieselbe ist.
(VR-Zone und andere schreiben da immer von "radically different" aber der einzige wirkliche Unterschied den die geleakten Specs aufweisen ist der Wegfall des Hotclocks und dafür die doppelte Anzahl der Shaderunits. Von der Gesamtarchitektur aus betrachtet ist das eine absolute Miniänderung, die am grundlegenden Aufbau weder der GPC noch der SMs etwas ändert. Falls da einfach in den SMs 3x16 ALU Einheiten (mit Hotclock) durch 3x32 Einheiten ersetzt werden (ohne Hotclock) ändert sich noch nicht mal am Scheduling/Dispatch innerhalb der SMs etwas - wobei ich schon vermute dass es da noch weitere Aenderungen gibt, mein Favorit ist immer noch der Wegfall der SFUs, aber selbst das wäre jedenfalls sicher keine radikale Aenderung. GT200->Fermi waren radikale Aenderungen, genau so wie NI->SI.)

Die Daten die auf der Verpackung stehen, weis man doch in der regel schon lange zum voraus! zb. DX11, Cuda, PhysX, 2GB, 256Bit, Windows 7 Ready usw. also ich sehe da kein Problem ;)

Also zumindest den Namen sollte man vielleicht schon wissen :-).

Zergra
2012-02-20, 20:32:28
Also zumindest den Namen sollte man vielleicht schon wissen :-).

:D ja aber du weißt ja nicht was hinter dem namen Steck ! die werden warscheinlich ähnlich der 500Serie sein

aber wenn die 670TI -> Gk104 ist dann könnte es auch sein das es nur einen GK110 gibt -> 680GTX, damit brauchen sie keinen kastrierten verkaufen sondern nehmen einfach den GK104 dafür,

AwesomeSauce
2012-02-20, 20:35:19
Das macht Sinn. Klingt irgendwie nicht richtig eine 670Ti als Salvage-Part. Nur, die Verkaufsnamen waren schon öfter nicht wirklich logisch aufgebaut...
Die 950Mhz klingen auch einigermassen plausibel, falls die Architektur wirklich noch fast dieselbe ist.
(VR-Zone und andere schreiben da immer von "radically different" aber der einzige wirkliche Unterschied den die geleakten Specs aufweisen ist der Wegfall des Hotclocks und dafür die doppelte Anzahl der Shaderunits. Von der Gesamtarchitektur aus betrachtet ist das eine absolute Miniänderung, die am grundlegenden Aufbau weder der GPC noch der SMs etwas ändert. Falls da einfach in den SMs 3x16 ALU Einheiten (mit Hotclock) durch 3x32 Einheiten ersetzt werden (ohne Hotclock) ändert sich noch nicht mal am Scheduling/Dispatch innerhalb der SMs etwas - wobei ich schon vermute dass es da noch weitere Aenderungen gibt, mein Favorit ist immer noch der Wegfall der SFUs, aber selbst das wäre jedenfalls sicher keine radikale Aenderung. GT200->Fermi waren radikale Aenderungen, genau so wie NI->SI
Ich glaube kaum, dass man hauptsächlich durch das Weglassen der Hotclocks dermassen grosse Steigerungen bei Perf/Watt erzielen konnte. Alles deutet auf eine deutlich geänderte Architektur hin. Man muss ja nicht gleich das ganze Fermi-Konzept über den Haufen werfen;)

Konami
2012-02-20, 20:48:48
aber wenn die 670TI -> Gk104 ist dann könnte es auch sein das es nur einen GK110 gibt -> 680GTX, damit brauchen sie keinen kastrierten verkaufen sondern nehmen einfach den GK104 dafür,
nVidia muss einen abgespeckten GK110 verkaufen, allein schon der Produktionsmarge wegen (man nennts nicht ohne Grund "salvage part" = Abfallverwertungs...teil :D).

Ich persönlich würde raten, dass der schnellste GK104 als GTX 680 verkauft wird, weil er offenbar Tahiti XT Paroli bieten kann und man sonst den Chip als etwas schlechteres verkaufen würde als er ist. GK110 dann als GTX 780. Auch wenns seltsam wäre mit dem kurzen zeitlichen Abstand dazwischen.

Zergra
2012-02-20, 21:14:15
mhh ja ich weiß, irgendwie ist das nicht so einfach einzuordnen, es könnte aber sein das es einen 680GTX und eine 680Ti geben wird :P und der Gk104 vllt. doch nur an Tahiti Pro kommt, dann die 680GTX fast auf Tahiti XT und die 680Ti dann wieder drüber, oder es wird eine Ultra :O

boxleitnerb
2012-02-20, 21:21:16
Ich will endlich mal wissen, wann GK110 kommt. Für GK104 gibts wenigstens ein plausibles Zeitfenster (Mitte März-Anfang April), aber GK110 kann bei Problemen (Respin) auch deutlich später kommen als erwartet (Mai-Juni), oder? Man weiß halt noch gar nichts.

mczak
2012-02-20, 21:43:46
Ich glaube kaum, dass man hauptsächlich durch das Weglassen der Hotclocks dermassen grosse Steigerungen bei Perf/Watt erzielen konnte. Alles deutet auf eine deutlich geänderte Architektur hin. Man muss ja nicht gleich das ganze Fermi-Konzept über den Haufen werfen;)
Wegfall des Hotclocks bringt wohl tatsächlich nicht derart viel, aber der 28nm-Prozess soll ja ~40% mehr Transistorperformance bieten. Da liegt also schon einiges drin.
Kann gut sein dass da grössere Aenderungen vorgenommen wurden - nur folgt das aber aus keinem der bisherigen Leaks.

Captain Future
2012-02-20, 21:52:51
772x1,4=1080

Ailuros
2012-02-20, 21:53:58
Ich will endlich mal wissen, wann GK110 kommt. Für GK104 gibts wenigstens ein plausibles Zeitfenster (Mitte März-Anfang April), aber GK110 kann bei Problemen (Respin) auch deutlich später kommen als erwartet (Mai-Juni), oder? Man weiß halt noch gar nichts.

Es kann viele Gruende geben warum es so still rund um GK110 ist, aber die Mehrzahl dieser deuten eben nicht in die optimistische Richtung. Wie schon erwaehnt mit einem metal spin duerfte Mai durchaus moeglich sein. Bei mehr sieht es dann wohl ziemlich grau aus.

Eine positive These waere dass es zu viele leaks fuer GK104 gab und sie endlich dicht gemacht haben. Wenn ich einmal ueber N nachfrage und ich keine Antwort bekomme, bohr ich auch nicht konstant weiter. Es ist auch nicht so dass es ausserhalb NV gar nichts interessantes gibt ;)

VooDoo7mx
2012-02-20, 22:07:29
Also wenn GK104 wirklich 1536 Shader mit 128 TMUs @ 950MHz wäre er alleine wenn man schon vom rechnerischen einer GTX580 ausgeht viel schneller als eben diese und dürfte auch locker ne 7970 übertrumpfen. Glaube ich imho kaum das es so kommt. Für nen Performance CHip wäre das Teil auch dann viel zu fett und stromhungrig. Und was soll dann noch für die GK110 bleiben? 2048 Shader, 1,1GHz 196TMUs und grob 4fache GTX580 Leistung? :ugly:

Ich glaub GK104 ist deutlich kleiner. Im Vollausbau 1024 Shader und so 800-900MHz. Damit dürfte man locker über der GTX580 liegen und nicht weit weg von der 7970 sein.

AnarchX
2012-02-20, 22:17:49
Die Anzahl der verbauten TMUs und ALUs sagt nicht viel aus bzgl. der Spieleleistung, wie der Vergleich mit den AMD-GPUs und NVs Fermi GPUs zeigt.

Ailuros
2012-02-20, 22:19:47
Also wenn GK104 wirklich 1536 Shader mit 128 TMUs @ 950MHz wäre er alleine wenn man schon vom rechnerischen einer GTX580 ausgeht viel schneller als eben diese und dürfte auch locker ne 7970 übertrumpfen. Glaube ich imho kaum das es so kommt. Für nen Performance CHip wäre das Teil auch dann viel zu fett und stromhungrig.

Schlanker als Tahiti als chip und ein gutes Stueck unter dem TahitiXT Verbrauch. TahitiXT hat falls Du es noch nicht bemerkt hast 1GB mehr Speicher als eine GK104, einen breiteren Bus und einen fetten Batzen an mehr Transistoren mit einer um einiges groesseren Packdichte.

Und was soll dann noch für die GK110 bleiben? 2048 Shader, 1,1GHz 196TMUs und grob 4fache GTX580 Leistung? :ugly:

GF114 hat 1.2 TFLOPs SP gegen GF110 1.5 TFLOPs SP, der zweite hat geringere Frequenzen und einen hoeheren Stromverbrauch und der durchschnittliche Leistungs-Unterschied liegt bei ca. 40+% zwischen den beiden.

So viele SPs koennte GK110 durchaus haben, aber dann etwas niedrigeren Takt als GK104, gleich so viel TMUs (oh welch Ueberraschung!) und um die 50% mehr Leistung.

Ich glaub GK104 ist deutlich kleiner. Im Vollausbau 1024 Shader und so 800-900MHz. Damit dürfte man locker über der GTX580 liegen und nicht weit weg von der 7970 sein.

Nein es sind so viele SPs. Wenn AMD 2048SPs in 365mm2 quetschen kann sind 25% weniger als diese bei leicht kleinerer die area alles andere als unmoeglich.

Zergra
2012-02-20, 22:29:23
Ist doch schon klar, aber wie NV die Rohleistung nutz wissen wir auch nicht, bisher waren sie meisten besser als AMD, die meisten durch die Rohleistung gewinnen würden es dann aber durch die Reale Leistung nicht schaffen, Schade eigentlich, das könnte noch Spannender sein.
Ich hoffe selber das der Abstand von AMD High-END zu NV High-END diesmal nicht so groß ausfallen wird !

Hugo78
2012-02-20, 23:42:04
einen fetten Batzen an mehr Transistoren mit einer um einiges groesseren Packdichte.

Btw ... wann gabs das zuletzt, dass AMD die größere Packdichte hatte.

So viele SPs koennte GK110 durchaus haben, aber dann etwas niedrigeren Takt als GK104, gleich so viel TMUs (oh welch Ueberraschung!) und um die 50% mehr Leistung.

Aber dann eher 64 cores pro SM oder?!
Also statt 96 oder mehr...