PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

LovesuckZ
2012-01-11, 15:32:20
Siehst Du, und deswegen kann Kepler nur erst im Juni kommen, falls nV einer massiven Selbsttäuschung erlegen wäre. ;D
Denn daß sie solch gravierenden Aussagen treffen und selber nicht dran glauben bzw. wissen, daß es nicht stimmt, wäre vollkommen undenkbar. ;)

Schön, dass du dich selbst nicht an deine Modtexte hälst:
Aber hey, als Moderator darf man ja trollen, spammen und nonsens schreiben. :)

Ich werde also in Zukunft nichts mehr über nVidia Themen wie dieses schrieben. Anscheinend kann sich das Forum leisten solchen Nonsens von dir hier eine Fläche zu bieten.

Blediator16
2012-01-11, 15:36:14
Wenn sie doch etwas haben und der mobile Kepler so unheimlich gut ist wieso zum Teufel wird nichtmal ansatzweise etwas gezeigt und Tegra 3 bis zu unendlichkeit in eine Google/Android PK verwandelt?

Furthermore, we discovered that there was an internal discussion to showcase Kepler at this keynote but Nvidia decided not to.

Welche Gründe dürfte es dafür geben?

V2.0
2012-01-11, 15:37:20
@V2.0, es geht ja weniger darum, daß Kepler nicht vorgestellt wurde - das wurde auch nicht erwartet, zumindest von mir nicht. Es geht nur um diese völlige Stille darum bzw die Aussage am Rande, daß Kepler mehr Designwins als Fermi hat. Auf der vorletzten CES hat man immerhin das eine oder andere von Fermi gesehen.

Mir sagt Ruhe nur, dass NV Infoleaks dicht gemacht hat bzw. der erste Kepler Chip nicht im Fokus der üblichen "Newssites" liegt und auch nicht bei den üblichen Leaks (Retaildistributoren) durchläuft. Was mich nicht überrascht.

LovesuckZ
2012-01-11, 15:39:20
Wenn sie doch etwas haben und der mobile Kepler so unheimlich gut ist wieso zum Teufel wird nichtmal ansatzweise etwas gezeigt und Tegra 3 bis zu unendlichkeit in eine Google/Android PK verwandelt?


Weil die OEMs nicht soweit sind. AMD hat rv740m auch zur Cebit 2009 angekündigt und es gab, soweit ich weiß, kein einziges Notebook damit. Selbst auf der CES sieht man kaum Geräte. Samsung hat die Series 5 mit GT650m "gezeigt".

Screemer
2012-01-11, 15:39:26
ein paar kleine häppchen wären aber schon toll, denn dann gäbe es hier vielleicht mal wieder ordentliche spekulation und nicht nur sinnfreies rumgeflame und gebashe...

Gaestle
2012-01-11, 16:16:04
Wenn sie doch etwas haben und der mobile Kepler so unheimlich gut ist wieso zum Teufel wird nichtmal ansatzweise etwas gezeigt und Tegra 3 bis zu unendlichkeit in eine Google/Android PK verwandelt?



Welche Gründe dürfte es dafür geben?

Möglicherweise sehen sie aus strategischer Sicht für T3 eine größere Notwendigkeit die Werbetrommel zu rühren, als für Kepler.

Wenn ein Event da ist, muss abgewogen werden, für was man die knappe Zeit nutzt. Schließlich wächst der Markt für Smartphones extrem, während der Markt bei diskreten GPUs im Consumerbereich eher stagniert oder rückläufig ist. Und die CES ist ja eine Consumermesse. Deals für große Serverfarmen oder Konsolen oder sonstige institutionellen Großabnehmer macht man sicher nicht durch Shows auf solchen Messen. Auf solchen Messen muss der einzelne Konsument beeindruckt werden. SoCs werden deshalb sicherlich sehr bald deutlich wichtiger werden als diskrete GPUs, vielleicht sogar auch im Servermarkt. PVR hat beim Pressetext für den neuen Kern auch Teraflops erwähnt.

Vielleicht ist es bei Kepler auch gar nicht notwendig, die sowieso knappe Werbezeit für Kepler zu verwenden (aus welchen Gründen auch immer).

Cubitus
2012-01-11, 16:32:51
Was gibt es jetzt neues von Nvidia? Also die CES war ja nun voll der Reinfall oder!?
Was meint ihr, wann wird Nvidia endlich mit Facts herübergekommen?

Gamescom und Cebit!? Ich hoffe nicht.

Botcruscher
2012-01-11, 16:33:05
So etwas wie Notwendig kennt man im Marketing nicht, da nimmt man was geht. Fertige Produkte gibt es schlicht noch nicht und die Holzschrauben sind an Intel verborgt. So wie AMD liefern kann hat man eh noch Zeit. Die Menge an Karten zeigt ja schön wie es um die Fertigung steht. PS: Was spricht gegen die Cebit bei ordentlicher Verfügbarkeit?

M4xw0lf
2012-01-11, 16:49:24
So wie AMD liefern kann hat man eh noch Zeit. Die Menge an Karten zeigt ja schön wie es um die Fertigung steht.

So übel kann die Fertigung ja auch wieder nicht sein, es sind bis auf die XFX-Modelle von jedem Hersteller 7970er verfügbar. Und da zumindest GK104 in etwa gleich groß sein soll wie Tahiti, sollte der sich genauso gut (oder schlecht, aber ausreichend) produzieren lassen.

Hugo78
2012-01-11, 16:52:57
@Botcruscher
Kepler braucht keine Cebit.
Einen echten Launch auf einer Messe gabs doch ohne hin nie ..oder?!

Fermi wurde auf der CES 2010 gezeigt, als Zeichen dafür, das es ihn gibt, weil er längst angekündigt war, mit vielen Details über die Technik.
Aber noch keine Sau, auch nicht die OEMs hatten was von ihm gesehen bis dato.

Wenn Kepler schon bei den OEM bekannt ist und man eventuell auch noch nur begrenzte 28nm Kapazitäten hat und die für die mobilen Designwins braucht,
dann kann NV erstmal in der Tat kein GK104 liefern, die mobilen Chips gehen vor*, unabhänig davon ob auch die größeren Kepler schon fertig sind oder nicht.

Intel hat den Produktionsstart der 22nm Ivys auf der CES bekannt gegeben und die Mobohersteller könnten jetzt schon "Panther Point" Mobos liefern.
Nvidia baut ebend das wo sie am meisten Marge machen, wenn sie abwegen müssen.

*= es hat ja seinen Grund warum AMD bisher nur 40nm Rebrands für den mobilen Bereich vorgestellt hat.

AnarchX
2012-01-11, 16:53:33
Radeon HD 7950 comes on January 31st
[...]
The reason behind the January 31st launch date might have something to do with the Nvidia's plan to launch its 28nm Kepler based GK104 GPU sometime around that date and AMD simply wants something to coincide with Nvidia's launch, or ruin its day.[...]
http://www.fudzilla.com/graphics/item/25519-radeon-hd-7950-comes-on-january-31st

Blediator16
2012-01-11, 17:06:32
Dann gibts doch absolut keinen Grund Kepler auf der CES nicht auf irgendeiner Weise vorzustellen, wenns sowieso in 3 Wochen kommt.
Von Tegra3 wurde auch nichts besonderes gezeigt. Stattdessen gabs Apps und Asus Werbung. Ich sehe absolut nichts negatives darin Kepler dort zu zeigen.

Godmode
2012-01-11, 17:12:45
Dann gibts doch absolut keinen Grund Kepler auf der CES nicht auf irgendeiner Weise vorzustellen, wenns sowieso in 3 Wochen kommt.
Von Tegra3 wurde auch nichts besonderes gezeigt. Stattdessen gabs Apps und Asus Werbung. Ich sehe absolut nichts negatives darin Kepler dort zu zeigen.

Aber im Prinzip geht die News auf so einer Konferenz einfach unter, da es so viele Neuigkeiten vorgestellt werden!

boxleitnerb
2012-01-11, 17:12:49
http://www.fudzilla.com/graphics/item/25519-radeon-hd-7950-comes-on-january-31st

Sehr gut. Wollte Nvidia nicht ihre ganze Familie innerhalb von 3 Monaten vorstellen? Dann könnte man sich März/April für GK110 überlegen.

M4xw0lf
2012-01-11, 17:16:23
Allerdings ist diese Fudzilla-Meldung ja keine Bestätigung, dass GK104 am 31.1. kommt. Es wird nur spekuliert, dass AMD die HD7950 zu diesem Termin vorstellt um einem möglichen Launch die Aufmerksamkeit zu stehlen - andererseits hieß es ja von AMD, dass der HD7950-Launch verschoben wurde, um die Verfügbarkeit zum Start zu garantieren. Deswegen muss überhaupt kein Zusammenhang zwischen HD7950-Launch und Kepler-Launch bestehen, im Artikel wird ja auch erkennbar nur spekuliert ("...the January 31st launch date might have something to do with the Nvidia's plan to launch its 28nm Kepler based GK104 GPU sometime around that date...").

boxleitnerb
2012-01-11, 17:24:04
Das might steht imo für den kausalen Zusammenhang. Der Halbsatz mit dem GK104 ist davon nicht betroffen. Ich bin optimistisch :)

Hübie
2012-01-11, 17:28:44
Das 31ste Januar Start-Datum könnte etwas mit nVidia´s Plan zu tun haben die 28nm Kepler basierte GK104 GPU in diesem Zeitraum zu starten. Das ist die Wortübersetzung dieses Satzes ;) So redet man im Deutschen nur nicht.

Dural
2012-01-11, 17:32:34
hat NV oder AMD überhaupt jemals eine Karte auf einer Ausstellung wie Cebit vorgestellt?
ich kann mich an keine erinnern und es ist auch überhaupt nicht klug sein neues produkt auf einer Messe vorzustellen da es schlicht unter gehen kann und die Presse schon so viel arbeit hat.

wie auch immer, das auf der CES nichts gezeigt wurde kann alles oder auch nichts bedeuten.

Ailuros
2012-01-11, 17:35:26
Bei NV zumindest wird so gut wie moeglich bis jetzt dicht gehalten; was sich generell herumspricht sind lediglich ein paar halbgahre Spekulationen die von dritten Quellen originieren.

Ich hab nicht die blasseste Ahnung was GK110 betrifft, aber was GK104 betrifft bezweifle ich dass etwas am chip selber nicht stimmt. Insgesamt klingt es eher danach ob es mit NV's gebuchten Kapazitaeten bei TSMC hinhaut um den 104 frueher als original vermittelt (Ende Februar/Anfang Maerz) aus der Tuer zu jagen.

Es ist eben am optimalsten wenn GK104 nicht mit zu grossem zeitlichen Abstand mit TahitiPRO auf die Regale kommt. Ein jeglicher soft launch waere auch nicht die beste Idee.

Ehrlich gesagt hab ich fuer CES zumindest eine trockene Architektur-Vorstellung erwartet. Ich weiss zwar nicht wie NV's marketing genau denkt, aber der Gedanke dass es T3 die spotlights stehlen wuerde klingt mir als Bloedsinn.

Auf jeden Fall hat NV guten Grund sich mit 104 beeilen zu wollen; wenn AMD genug Zeit gegoennt wird und sie schaffen es im Zwischenraum einen leistungsfaehigeren Treiber zu veroeffentlichen, koennte es so manchen ersten Eindruck beinflussen.

Hübie
2012-01-11, 17:43:34
Ich würde sagen das wir in 4 Wochen definitiv mehr wissen ;) Und eine Vorstellung auf der CeBit ist Nonsens.

Ailuros
2012-01-11, 17:45:48
Ich würde sagen das wir in 4 Wochen definitiv mehr wissen ;) Und eine Vorstellung auf der CeBit ist Nonsens.

Wie gesagt ich hab so was auch fuer Cebit nicht erwartet. Eine grobe Architektur-Vorstellung waere aber nicht schlecht gewesen. Wenn nicht bei etwas wie Cebit dann zumindest vor dem launch.

Hübie
2012-01-11, 17:50:54
Ich hatte auch mehr auf CES gepocht. Tja, wer weiß wie die ticken... Die CeBit ist vom 6.-10. März. Bis dahin werden wir Kepler schon kennen. Das wäre also nix neues.

Nighthawk13
2012-01-11, 18:02:25
Ehrlich gesagt hab ich fuer CES zumindest eine trockene Architektur-Vorstellung erwartet. Ich weiss zwar nicht wie NV's marketing genau denkt, aber der Gedanke dass es T3 die spotlights stehlen wuerde klingt mir als Bloedsinn.

Auf jeden Fall hat NV guten Grund sich mit 104 beeilen zu wollen; wenn AMD genug Zeit gegoennt wird und sie schaffen es im Zwischenraum einen leistungsfaehigeren Treiber zu veroeffentlichen, koennte es so manchen ersten Eindruck beinflussen.
Wenn sie überraschend früh Hard-Launchen könnten würde das Schweigen Sinn machen(maximaler Überraschungseffekt).
Wenn es eher länger dauert, wäre es doch besser ein paar vielversprechende Salamirädchen(ala Fermi-Whitepaper/Andeutungen in Youtube-Videos) in den Umlauf zu bringen, um potientielle Tahiti-Käufer zu verunsichern?

Ailuros
2012-01-11, 18:14:17
Wenn sie überraschend früh Hard-Launchen könnten würde das Schweigen Sinn machen(maximaler Überraschungseffekt).
Wenn es eher länger dauert, wäre es doch besser ein paar vielversprechende Salamirädchen(ala Fermi-Whitepaper/Andeutungen in Youtube-Videos) in den Umlauf zu bringen, um potientielle Tahiti-Käufer zu verunsichern?

Tja wenn eine Architektur-Vorstellung erst in ein paar Monaten kommt und Jensen haelt danach ein weiteres Holzschrauben-Exemplar in die Luft dann wird es Grund zur Unruhe geben :D

M4xw0lf
2012-01-11, 18:31:45
Wenn sie überraschend früh Hard-Launchen könnten würde das Schweigen Sinn machen(maximaler Überraschungseffekt).
Wenn es eher länger dauert, wäre es doch besser ein paar vielversprechende Salamirädchen(ala Fermi-Whitepaper/Andeutungen in Youtube-Videos) in den Umlauf zu bringen, um potientielle Tahiti-Käufer zu verunsichern?

Maximale Überraschung verkauft nur keine Karten - die Leute sollten schon vorher wissen, wenn etwas auf sie zukommt worauf sie sparen müssen.

Bucklew
2012-01-11, 18:33:17
Maximale Überraschung verkauft nur keine Karten - die Leute sollten schon vorher wissen, wenn etwas auf sie zukommt worauf sie sparen müssen.
So wie bei Bulldozer? :freak:

Ailuros
2012-01-11, 18:35:01
http://forum.beyond3d.com/showpost.php?p=1611548&postcount=800

Don't underestimate the importance of momentum, especially in a channel evironment where you have partners with engineering resources.

Wer will kann versuchen die Aussage richtig zu entziffern.

http://forum.beyond3d.com/showpost.php?p=1611559&postcount=802

Most of the industry missed G80 launch and were unaware of it's specs up until a week or two before it hit the market. Was G80 a new revision of something?
The same goes with Kepler because from the looks of it most of the industry is unaware about almost all the tapeouts of Kepler chips and as of now remains unaware about their specs and possible launch dates.
What Kyle heard may well relate to Kepler but it doesn't mean that it (as the new architecture) will launch in June.

Edit: By the "industry" here I obviously mean Charlie, Fuad, Kyle and all the guys who write about GPUs, not the GPU industry itself.

Bucklew
2012-01-11, 18:36:20
Edit: By the "industry" here I obviously mean Charlie, Fuad, Kyle and all the guys who write about GPUs, not the GPU industry itself.
Treffer, versenkt! ;D;D;D

AwesomeSauce
2012-01-11, 18:39:21
Maximale Überraschung verkauft nur keine Karten - die Leute sollten schon vorher wissen, wenn etwas auf sie zukommt worauf sie sparen müssen.
Als ob die paar überteuerten HD7970 irgendeine Relevanz hätten;D Für eine 250-300$ Karte gibt es einen um Magnituden grösseren Markt. Wer sich nicht in den Arsch beissen will (oder generell kein Geld zum rauswerfen hat), wartet sowieso ab, was die Konkurrenz zu bieten hat.

M4xw0lf
2012-01-11, 18:41:49
So wie bei Bulldozer? :freak:

So wie bei Fermi :tongue:

Bucklew
2012-01-11, 18:42:51
So wie bei Fermi :tongue:
Aber der Fermilaunch war doch das totale Gegenteil als das, was wir jetzt sehen? :confused:

M4xw0lf
2012-01-11, 18:45:54
Aber der Fermilaunch war doch das totale Gegenteil als das, was wir jetzt sehen? :confused:

Eben, die Leute haben auf Fermi gewartet und die Karten gekauft, und das obwohl sie nicht gerade auf ganzer Linie überzeugen konnten.
Deswegen, egal ob Kepler supertoll wird oder nicht, spricht die Funkstille nicht dafür, dass in den nächsten 2-3 Wochen etwas zu erwarten ist.

Blediator16
2012-01-11, 18:49:40
Frage mich wieso der g80 ständig erwähnt wird oder hat NV ausser dem g80 schonmal solche Strategien gefahren und dazu noch erfolgreich? Neben dem neuen Negativrekord im Rekordverbrauch war die Leistung natürlich gut(im Vergleich zum 2900XT :freak: ), aber als Überchip empfand und empfinde ich ihn immernoch nicht.

Hugo78
2012-01-11, 18:58:41
@Blediator16
Zuletzt war man mit dem GF110 sehr überraschend.

AnarchX
2012-01-11, 19:10:08
Neben dem neuen Negativrekord im Rekordverbrauch war die Leistung natürlich gut.
G80 war eben immer noch ein 90nm Chip.

@Blediator16
Zuletzt war man mit dem GF110 sehr überraschend.
Beide Hersteller haben definitiv ihre Lecks gestopft bzw. auf ein Minimum reduziert. Bei den Hersteller-Quellen von Chiphell gab es wohl mal einen FBI-Besuch.

Ailuros
2012-01-11, 19:14:54
G80 war eben immer noch ein 90nm Chip.

Der eigentliche Punkt war dass NV auch damals sehr vorsichtig ihre Klappe darueber gehalten hat. Jeder erwartete weiterhin getrennte PS/VS ALUs und es wurde nicht allzu lange vor dem launch klar dass es doch ein USC ist ganz im Gegenteil zu dem was NV's eigene Aussagen frueher angedeutet hatten.

Dass NV so stark still ist muss nicht unbedingt heissen dass es ein FLOP ist aber auch nicht garantiert das 8. Wunder. Um genauer zu sein die Ruhe sagt gar nichts aus momentan nuechtern betrachtet.

Bucklew
2012-01-11, 19:21:21
Eben, die Leute haben auf Fermi gewartet und die Karten gekauft, und das obwohl sie nicht gerade auf ganzer Linie überzeugen konnten.
Jupp und wie das erst ist, wenn man auf das Produkt nicht warten muss und es gut ist? ;)

Frage mich wieso der g80 ständig erwähnt wird oder hat NV ausser dem g80 schonmal solche Strategien gefahren und dazu noch erfolgreich?
GF110

Nightspider
2012-01-11, 19:33:29
Was wollt ihr alle mit GF110? Das war eine minimale Neuauflage eines fast 1 Jahr alten Chips mit minimalen Änderungen mit einem besseren Kühlkörper der komplett freigeschaltet verkauft werden konnte, weil man nach einem Jahr den Prozess besser im Griff hatte.

Ailuros
2012-01-11, 19:43:02
Was wollt ihr alle mit GF110? Das war eine minimale Neuauflage eines fast 1 Jahr alten Chips mit minimalen Änderungen mit einem besseren Kühlkörper der komplett freigeschaltet verkauft werden konnte, weil man nach einem Jahr den Prozess besser im Griff hatte.

Minimalen Aenderungen nach aussen aber nicht auf chip/Herstellungs-Basis. Nach der "Presse" haette GF110 auch so schlecht wie GF100 sein sollen und....also man kann den Bloedsinn schon nachschlagen.

Was Du nicht im Netz nachschlagen kannst ist dass intern NV von jeder moeglichen Ecke intern engineers anhaeufte die sich ueber GF110 bueckten um das Zeug richtig hinzubiegen und auch schnellstens vorzustellen. Diese extra engineering Resourcen sind so "klein" dass die gleiche Bande direkt danach sofort auf 28nm Fermi und Kepler testruns verschickt wurde dass moeglichst wenig schief laeuft von der Architektur her. Darunter hat so manche andere Sparte dank fehlender Resourcen leiden muessen, Tegra laesst gruessen und meine unendliche diesbezuegliche Meckerstraene.

Fuer den Otto-Normalverbraucher war die 580 im Vergleich zur 480 lediglich ein SM mehr und >10% mehr Takt. Das fabric aber im interconnect richtig hinbiegen und high performance Transistoren auszutauschen in so kurzer Zeit sind nicht gerade ein einfacher Spaziergang.

Nichtdestominder wenn's ums ganz einfache gehen soll, GF110 war um ca. 15% schneller als GF100 mit leicht geringerem Stromverbrauch waehrend Cayman zwar um ca. so viel schneller war als Cypress aber auch mit um analog hoeherem Stromverbrauch.

Sunrise
2012-01-11, 19:54:15
Der eigentliche Punkt war dass NV auch damals sehr vorsichtig ihre Klappe darueber gehalten hat. Jeder erwartete weiterhin getrennte PS/VS ALUs und es wurde nicht allzu lange vor dem launch klar dass es doch ein USC ist ganz im Gegenteil zu dem was NV's eigene Aussagen frueher angedeutet hatten.
Die Vorstellung von G80 war in vielerlei Hinsicht ein Eimer kaltes Wasser am Morgen, mit einer Latte danach. :D

Das werden sowieso nur diejenigen verstehen, die damals dabei waren. Das ist ungefähr so, als erzählt man einem Jugendlichen über den Fall der Mauer. Keine emotionale Bindung an das Thema und schon war es auch nichts Besonderes mehr.

Das Thema Hotclocks scheint analog zu der Verheimlichung des USCs ja in die gleiche Kerbe zu schlagen. Don´t you ever speak it out loud again, Ailuros. :wink:

Bucklew
2012-01-11, 19:59:50
Man sollte nicht vergessen, dass nV natürlich weiß, wie gut/schlecht 28nm funktioniert und daher natürlich auch die Ausbeute von AMD kennt. Und wenn man weiß, dass für die nächsten 2/3 Monate keine großen Sprünge in Sachen Verfügbarkeit gegeben ist, warum dann hetzen?

Problematisch wird es doch erst, wenn die neuen Karten draußen sind UND breit verfügbar.

Skysnake
2012-01-11, 20:12:57
Bei NV zumindest wird so gut wie moeglich bis jetzt dicht gehalten; was sich generell herumspricht sind lediglich ein paar halbgahre Spekulationen die von dritten Quellen originieren.

Ich hab nicht die blasseste Ahnung was GK110 betrifft, aber was GK104 betrifft bezweifle ich dass etwas am chip selber nicht stimmt. Insgesamt klingt es eher danach ob es mit NV's gebuchten Kapazitaeten bei TSMC hinhaut um den 104 frueher als original vermittelt (Ende Februar/Anfang Maerz) aus der Tuer zu jagen.

Es ist eben am optimalsten wenn GK104 nicht mit zu grossem zeitlichen Abstand mit TahitiPRO auf die Regale kommt. Ein jeglicher soft launch waere auch nicht die beste Idee.

Ehrlich gesagt hab ich fuer CES zumindest eine trockene Architektur-Vorstellung erwartet. Ich weiss zwar nicht wie NV's marketing genau denkt, aber der Gedanke dass es T3 die spotlights stehlen wuerde klingt mir als Bloedsinn.

Auf jeden Fall hat NV guten Grund sich mit 104 beeilen zu wollen; wenn AMD genug Zeit gegoennt wird und sie schaffen es im Zwischenraum einen leistungsfaehigeren Treiber zu veroeffentlichen, koennte es so manchen ersten Eindruck beinflussen.
ja mich hat's auch sehr gewundert. Eventuell hat es aber wie von dir angerissen, etwas mit Kapazitäten zu tun.

Man erinnere sich ja mal:
Sehr viele Dedignwins
Angeblich noch kein toller 28nm Prozess
und wenn man an letztes Jahr denkt, da gab es ja die Meldung Apple hätte sich große Kapazitäten bei TSMC gesichert, was ja auch zu höheren Preisen bei AMD und nVidia führen soll.

Wäre also eventuell möglich, das man schlicht nichts liefern kann, weil die OEMs ihre Karten wollen und nVidia im Nacken sitzt

Ailuros
2012-01-11, 20:20:24
Die Vorstellung von G80 war in vielerlei Hinsicht ein Eimer kaltes Wasser am Morgen, mit einer Latte danach. :D

Das werden sowieso nur diejenigen verstehen, die damals dabei waren. Das ist ungefähr so, als erzählt man einem Jugendlichen über den Fall der Mauer. Keine emotionale Bindung an das Thema und schon war es auch nichts Besonderes mehr.

Das Thema Hotclocks scheint analog zu der Verheimlichung des USCs ja in die gleiche Kerbe zu schlagen. Don´t you ever speak it out loud again, Ailuros. :wink:

Im Sommer 2006 bekam ich eine PM bei B3D ich sollte jeglichen Scheiss ueber G80 den ich gehoert hatte vergessen. Und ja es war nur der Fetzen aber von NV engineering. Monate spaeter konnte ich keineswegs glauben dass G80 in anstaendigen Quantitaeten verfuegbar sein wird; drei Tage nach dem launch hatte ich eine in der Hand und musste mich bei Rys oeffentlich dafuer entschuldigen weil er natuerlich recht hatte.

Eine aehnliche Meldung fuer Kepler gab es irgendwo im Fruehling 2011, konnte mir aber damals nicht vorstellen was so fundamental krumm ist an den bisherigen spekulierten Daten.

Menace
2012-01-11, 20:33:43
Man sollte nicht vergessen, dass nV natürlich weiß, wie gut/schlecht 28nm funktioniert und daher natürlich auch die Ausbeute von AMD kennt. Und wenn man weiß, dass für die nächsten 2/3 Monate keine großen Sprünge in Sachen Verfügbarkeit gegeben ist, warum dann hetzen?


Die Planung eines Chips verläuft also nach der Ausbeute des Konkurrenzmodells und diese ist so schlecht? Interessanter Gedanke.

Bucklew
2012-01-11, 20:51:36
Die Planung eines Chips verläuft also nach der Ausbeute des Konkurrenzmodells und diese ist so schlecht? Interessanter Gedanke.
Der Releasezeitpunkt - Klar, warum nicht?

Menace
2012-01-11, 21:02:55
Der Releasezeitpunkt - Klar, warum nicht?

Ich denke, dass nv nicht als Hauptaugenmerk ihrer zeitlichen Planung macht. Außerdem glaube ich auch nicht, dass es ein großes Drama für nv ist, wenn sie 3 Monate später ihre Karten bringen. Da regt man sich nur in Foren künstlich auf.

Beeker
2012-01-11, 21:21:41
warum sollte sich nvidea beeilen den kepler rauszubringen?
pads boomen zur zeit extrem,
und da macht es sinn eher zeit in den tesla zu investieren.
x verkaufte tesla machen sich -denke ich- besser, als x produzierte kepler.
da der tesla nun raus ist kann man sich wieder um den kepler kümmern.
allerdings warte ich auch gespannt auf den release,
bin halt eher nvidea fanboy. ^^ (altes trauma wegen meiner x1900xtx und lautstärke)

gruß beeker

Bucklew
2012-01-11, 21:47:37
Ich denke, dass nv nicht als Hauptaugenmerk ihrer zeitlichen Planung macht. Außerdem glaube ich auch nicht, dass es ein großes Drama für nv ist, wenn sie 3 Monate später ihre Karten bringen. Da regt man sich nur in Foren künstlich auf.
Kein Hauptaugenmerk. Aber wenn die Karten sich verzögern und die Konkurrenz davon nicht profitieren kann...warum dann so hetzen?

Skysnake
2012-01-11, 23:24:38
warum sollte sich nvidea beeilen den kepler rauszubringen?
pads boomen zur zeit extrem,
und da macht es sinn eher zeit in den tesla zu investieren.
x verkaufte tesla machen sich -denke ich- besser, als x produzierte kepler.
da der tesla nun raus ist kann man sich wieder um den kepler kümmern.
allerdings warte ich auch gespannt auf den release,
bin halt eher nvidea fanboy. ^^ (altes trauma wegen meiner x1900xtx und lautstärke)

gruß beeker
was ist draußen? Ich glaub ich hab was verpasst :freak:

Buck nVidia ist aber ein gewinnorientiertes unternehmen.

Bucklew
2012-01-11, 23:27:21
Buck nVidia ist aber ein gewinnorientiertes unternehmen.
Japp. Deswegen ist es auch Blödsinn Produkte zu verkaufen, die man nicht liefern kann.

AwesomeSauce
2012-01-11, 23:53:43
was ist draußen? Ich glaub ich hab was verpasst :freak:

Buck nVidia ist aber ein gewinnorientiertes unternehmen.
Er meint offensichtlich Tegra...

V2.0
2012-01-12, 07:16:21
Techlaunch ist bei NV nicht mehr so beliebt - nach Fermi.

Godmode
2012-01-12, 08:20:42
http://www.computerbase.de/news/2012-01/asus-ivy-bridge-notebooks-mit-nvidias-kepler-ab-april/

Also ab April in den Notebooks.

V2.0
2012-01-12, 08:36:37
Naja, aber es ist erkennbar, dass April durch den Launchtermin von IvyBridge bestimmt wird. Asus will praktisch sofort mit Launch Volumen liefern können. Ergo müssen sie die Dinger schon länger (oder mindestens ab jetzt) produzieren. (Ergo müssen sie sowohl Kepler als auch Ivys bekommen)

AnarchX
2012-01-12, 08:58:15
Die 660M dürfte auch auf dem vorerst kleinsten Kepler basieren: GK107.

Dural
2012-01-12, 09:20:15
da scheint die Kapazität tatsächlich zu limitieren, schade...

der Notebook Markt ist aber sicher wichtiger als der Desktop :rolleyes: dasselbe verhalten konnte man ja schon bei 40nm sehen, da kamen die GT21x Mobile Chips deutlich früher auf den Markt als die Desktop Versionen davon :(

Bis TMSC in touren kommt dürfte sicher schon Sommer sein :rolleyes:

M4xw0lf
2012-01-12, 10:06:40
da scheint die Kapazität tatsächlich zu limitieren, schade...

der Notebook Markt ist aber sicher wichtiger als der Desktop :rolleyes: dasselbe verhalten konnte man ja schon bei 40nm sehen, da kamen die GT21x Mobile Chips deutlich früher auf den Markt als die Desktop Versionen davon :(

Bis TMSC in touren kommt dürfte sicher schon Sommer sein :rolleyes:

Es zeichnet sich langsam ab, dass TSMC einen limitierenden Faktor bei der Einführung der neuen GPU-Generationen darstellt. AMD rebrandet gerade HD6000 und sogar 5000-GPUs für den mobilen Markt und bringt erst irgendwann später mobile Versionen von Pitcairn und Cape Verde (HD7800/7700), eigentliche mobil-GPUs (also Nachfolger im low end für Turks und Caicos) in 28nm sind damit praktisch nichtexistent.
Nvidia dagegen produziert mobile Kepler um ab April haufenweise Ivy Bridge-Laptops damit bestücken zu können und schiebt dafür offenbar die Desktopchips nach hinten.
Ich glaube ja, dass beide Hersteller davon stark profitieren, weil sie so nicht in direkter Konkurrenz stehen - am Preis der HD7970 sieht man ja schon den mangelnden Konkurrenzdruck. AMD hat jetzt erstmal den Desktop High End-Markt, Nvidia bedient das mobile Segment (wobei ich sicher bin, dass Nvidia hier das deutlich profitablere Stück des Kuchens hat).

Gipsel
2012-01-12, 10:33:22
http://www.computerbase.de/news/2012-01/asus-ivy-bridge-notebooks-mit-nvidias-kepler-ab-april/

Also ab April in den Notebooks.
So ganz logisch ist der Text bei CB aber auch nicht:
aktuell stellte man nur Mock-Ups mit den erwarteten Spezifikationen aus. Angeblich sei man schon jetzt zur Fertigung bereit, man warte lediglich auf den Launch der Intel-Prozessoren, wenige Tage später will man bereits Stückzahlen liefern. Dies bedeutet im Umkehrschluss, da die Intel-CPUs auf Basis der „Ivy Bridge“ bereits ausgeliefert werden, dass auch Nvidias neue Grafiklösungen schon den Weg zu den OEM-Fertigern finden müssten.Wenn die bereits Chips hätten, könnten die doch auch einen Prototypen ausstellen, nicht irgendwelche Mockups ohne Silizium drin. Also basteln die wohl noch an denen (oder warten z.B. auf die GPUs, die IvyBridge-CPUs geistern ja schon eine Weile als ES rum) und sind eben wahrscheinlich noch nicht ganz zur Produktion bereit. Dann hätte man nämlich auch funktionierende Prototypen zeigen können oder etwa nicht?

Dural
2012-01-12, 11:34:08
also Prototypen haben die sicher, sonst wird es eh nix mit April im Laden.

DarknessFalls
2012-01-12, 11:56:26
Bleibt dann trotzdem die Frage: Warum dann nix zeigen?

Dural
2012-01-12, 11:58:59
frag ASUS ;)


übrigens ihr macht euch viel zu viele gedanken :rolleyes: es kommt wenn es kommt ;)

V2.0
2012-01-12, 12:37:18
So ganz logisch ist der Text bei CB aber auch nicht:
Wenn die bereits Chips hätten, könnten die doch auch einen Prototypen ausstellen, nicht irgendwelche Mockups ohne Silizium drin. Also basteln die wohl noch an denen (oder warten z.B. auf die GPUs, die IvyBridge-CPUs geistern ja schon eine Weile als ES rum) und sind eben wahrscheinlich noch nicht ganz zur Produktion bereit. Dann hätte man nämlich auch funktionierende Prototypen zeigen können oder etwa nicht?

Für Designstudien braucht ASUS keine Einwilligung, für lauffähige Systeme schon...

Dural
2012-01-12, 12:47:03
After the keynote, we managed to ask Jen Hsun Huang, Nvidia CEO, a single question. We asked, where is Kepler? The answer we got was that we have to be "patient" about it.

jetzt wisst ihrs ;D

Ailuros
2012-01-12, 13:25:22
jetzt wisst ihrs ;D

Eine weitere Verschwendung an bytes. Merci bien.

Godmode
2012-01-12, 15:20:55
Eine weitere Verschwendung an bytes. Merci bien.

Das hilft uns leider auch nicht weiter...:rolleyes:

aylano
2012-01-12, 18:07:24
Die Frage ist will man bei der CES launchen? Ich habe nie einen glaubwürdigen Hinweis gehört, dass NV die CES für Kepler im Auge hatte. Und ganz ehrlich warum auch? Tegra ist strategisch bedeutender und es gibt gerade viele News. Kepler in GF104-Form wird sowieso eine dicke News sein, da braucht man kein Event, Kepler ist sein eigenes Event.

Seh ich genauso
Ein Kepler-Event bzw. Kepler-erwähnung im Nvidia-Event ist nicht nötig, aber es ist kein Grund Kepler-Ive-Bridge-Notebooks-Ausstellungsstücke zu verhindern.



Gehen wir mal davon aus, dass AMD Tahiti ab Februar in ausreichende Mengen leifern kann und nimmt man das als Zeichen für ein gutes Hochlaufen der Produktion bei TSMC, dann kann NV (unter Berücksichtigung der Zeitverzögerung, evtl. Zeit bis zur Fertigstellung von Customdesignkarten und der Preislage von GF104 und der damit verbunden Nachfrage) irgendwo zwischen Ende Januar und Ende Febraur launchen, je nachdem wie "hard" der Launch sein soll.
Das ist schon ein Best-Case-Szenario und das sieht am Schluss nicht so rosig aus, wie jetzt manche noch glauben.

TSMC braucht 1 Jahr für ein Rampen einer ganzen Fabrik/Phase. Da TSMC ab jetzt schon 2 Fabriken/Phasen rampen kann (Die eine ist übrigens schon 1 Jahr fertig), könnte AMD & Nvidia alle ihre GPUs @ 28nm so frühestens (=Best-Case) in 6 Monaten voll produzieren/liefern lassen.
Und das eigentlich auch nur, wenn sie Yields haben, die sie bei 40nm so im Frühjahr 2010 hatten.
Im Best-Case-Szenario sind eigentlich die anderen Firmen nicht berücksichtig, die auch 28nm früh rampen wollen.

Entweder TSMC hat das Berücksichtig und deshalb später angefangen (Yield-Qualität Frühjahr 2010), damit der Ramp durch bessere Yields mit all diesen Firmen besser/firmenzufriedener abläuft, ober die Fertigungs-Qualität von 28nm liegt jetzt da, wo 40nm so in Herbst 2009 lag. Und da hatte AMDs 350mm²-GPU keine hohen Yields & Kapazitäten sowie kam Nvidia erst in Nov 2009 mit ihren 130mm²-GT215-Chip (AFAIK soll das so etwa GK107 entsprechen) mit hoher/höheren Verfügbarkeit.

Das ist die ganz große Frage die man abwarten muss. Zwischen diesen beiden Zeitpunkten waren damals 6 Monate und auf heute übertragen, könnte das ein GK110 Mitte 2012 oder Ende2012/Anf2013 bedeuten.

Wenn 130mm²-GK107 erst mit Ive-Bridge kommen soll, dann könnte es auf eine damalige Yield-Qualität wie in 40nm @ Herbst hindeuten.
Andererseits wäre es überhaupt nicht unlogisch, wenn Nvidia (mit Frühjahr 2010-Yields) ihren Kepler-Start auf dem Ive-Bridge-Start quasi 3-Monate nach hinten verlegt, um ausreichend viele 28nm-Wafer für GK104 & GK110 für das 2Q2012 zu haben.

Aber dass man kaum Kepler-Notebooks sah, ist IMO kein so gutes Zeichen.
Trinity ist auch kaum zu sehen gewesen und diese sollen jetzt auch erst voll Mitte 2012 bzw. in 6 Monaten erscheinen.

Wenn GK104 Ende Jänner kommen sollte, dann sollten in diesen Tagen die ersten Fotos zu sehen sein, da wir jetzt schon Mitte Jänner haben.

AnarchX
2012-01-13, 17:41:50
Expreview mit einer "well-informed source": GK104 mit 2GiB@256-Bit und 225W TDP (http://en.expreview.com/2012/01/14/kepler-features-256-bit-and-2gb-memory/20327.html)

Die "well-informed source" könnte wohl PHK sein, der dort im Forum aktiv ist.

Möglicherweise hat GK104 auch etwas mit dem dort genannten Launch-Termin für die 7950 zu tun - 26. Januar.

Ailuros
2012-01-13, 18:02:50
Expreview mit einer "well-informed source": GK104 mit 2GiB@256-Bit und 225W TDP (http://en.expreview.com/2012/01/14/kepler-features-256-bit-and-2gb-memory/20327.html)

Die "well-informed source" könnte wohl PHK sein, der dort im Forum aktiv ist.

Möglicherweise hat GK104 auch etwas mit dem dort genannten Launch-Termin für die 7950 zu tun - 26. Januar.

Wenn's stimmt ist aber der TDP verdammt hoch; wird wohl auch guten Grund haben warum sie was den TDP betrifft bisher nichts sagten. Eine bessere perf/mm2 im Vergleich zu Tahiti vielleicht schon, aber bei 225W definitiv eine schlechtere perf/W Relation zu Tahiti.

y33H@
2012-01-13, 18:12:26
Hihi, dann waren meine getippten 256 Bit vielleicht doch richtig :biggrin: die TDP klingt typisch für Fermi Kepler, schade - naja, warten wir es ab.

Orbmu2k
2012-01-13, 18:13:10
Finde die TDP gar nicht so hoch, eher realistisch, Tahiti hat doch auch 250W wenn die GK104 knapp drunter liegt was die Leistung betrifft sollte sich das Remis ausgehen.
Die von NVIDIA angepriesene verbesserte perf/W bei DP spielt bei GK104 eh keine Rolle.

dildo4u
2012-01-13, 18:15:10
Finde die TDP gar nicht so hoch, eher realistisch, Tahiti hat doch auch 250W wenn die GK104 knapp drunter liegt was die Leistung betrifft sollte sich das Remis ausgehen.
Das Board limitiert bei 250W wenn man OC.TDP ist 210.

"Die TDP beläuft sich laut AMD auf 210 Watt, mehr dazu auf der übernächste"

http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/

boxleitnerb
2012-01-13, 18:17:21
Finde die TDP gar nicht so hoch, eher realistisch, Tahiti hat doch auch 250W wenn die GK104 knapp drunter liegt was die Leistung betrifft sollte sich das Remis ausgehen.
Die von NVIDIA angepriesene verbesserte perf/W bei DP spielt bei GK104 eh keine Rolle.

Sicher? Die so gerne erwähnten Designwins bei Notebooks kommen wohl kaum daher. Perf/W bei DP ist für Notebooks komplett egal, das ist eher für Teslas interessant. Wobei wir wieder bei der gefürchteten Frage sind, ob das auch stimmt, oder ob da noch andere Gründe waren für die Wins. Ich erwarte schon einen klaren Sprung bei Perf/W in Spielen. +20% Perf und -15% TDP...das wäre nur eine Steigerung von etwa 40%. Wobei die TDP, die für Fermi angegeben ist, ja sehr, äh, wohlwollend ist...hüstel. Wenn man sich diesmal strikt dran hält, dann ok.

@dildo4u:
Was auf dem Papier steht und was real erreicht wird, sind zwei unterschiedliche paar Schuhe:
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php
210W in Spielen, das wäre dann arg knapp für die TDP. Da muss nur ein fordernderes Spiel kommen und schon ist man drüber. Wie genau misst HT4U die Leistungsaufnahme? Welche Software und ist das ein Mittelwert (evtl. von einer Szene, wo auch CPU-Limits vorkommen)?

M4xw0lf
2012-01-13, 18:35:52
Finde die TDP gar nicht so hoch, eher realistisch, Tahiti hat doch auch 250W wenn die GK104 knapp drunter liegt was die Leistung betrifft sollte sich das Remis ausgehen.
Die von NVIDIA angepriesene verbesserte perf/W bei DP spielt bei GK104 eh keine Rolle.

Die TDP für die 7970 sind eigentlich nur 210W. Die 250W sind die maximum board power mit Powertune @Standard.

@dildo4u:
Was auf dem Papier steht und was real erreicht wird, sind zwei unterschiedliche paar Schuhe:
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php
210W in Spielen, das wäre dann arg knapp für die TDP. Da muss nur ein fordernderes Spiel kommen und schon ist man drüber. Wie genau misst HT4U die Leistungsaufnahme? Welche Software und ist das ein Mittelwert (evtl. von einer Szene, wo auch CPU-Limits vorkommen)?

ht4u misst (zumindest unter furmark, beim Spieleverbrauch bin ich nicht sicher) auch bei Stock-Taktraten mit Powertune auf +20%, was in aller Regel den Stromverbrauch unnötig erhöht.
Das Spiel für die Leistungsaufnahme-Messung müsste nach wie vor HAWX sein. wird im Test der HD 7970 nicht explizit erwähnt. HAWX steht jedenfalls nicht mehr im Benchmark-Parcours, deshalb keine Ahnung bei welchem Spiel sie genau gemessen wurde (wenn überhaupt, es heißt da ja "simulierte Spielelast").

Orbmu2k
2012-01-13, 18:38:42
Das Board limitiert bei 250W wenn man OC.TDP ist 210.

"Die TDP beläuft sich laut AMD auf 210 Watt, mehr dazu auf der übernächste"

http://www.pcgameshardware.de/aid,860536/Test-Radeon-HD-7970-Erste-Grafikkarte-mit-DirectX-111-PCI-Express-30-und-28-nm/Grafikkarte/Test/

Ok da wo ich geschaut habe stand 250W. :)

http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php

Wenn man den Spiele Verbrauch hier anschaut liegt Tahiti bei 210W, die GTX460 zum Vergleich bei 120W (NVIDIA TDP = 150W). Spricht also dafür dass NVIDIA bei der TDP Angabe noch Puffer lässt und AMD knapp getroffen hat. GK104 könnte also real bei ca. 190W liegen.

@boxleitnerb: Die Designwins liegen auch im Hauptanteil bei kleineren Chips, das würd ich jetzt nicht unbedingt als Vergleich nehmen. GK104 könnte in ein Rennen gegen den Konkurenten geschickt und ggf. noch mal an der Taktschraube korrigiert worden sein. Die perf/W nimmt ja mit steigendem Takt + Spannung zunehmend ab.

boxleitnerb
2012-01-13, 18:46:21
@boxleitnerb: Die Designwins liegen auch im Hauptanteil bei kleineren Chips, das würd ich jetzt nicht unbedingt als Vergleich nehmen. GK104 könnte in ein Rennen gegen den Konkurenten geschickt und ggf. noch mal an der Taktschraube korrigiert worden sein. Die perf/W nimmt ja mit steigendem Takt + Spannung zunehmend ab.

Hast du da ne Quelle?
Bei der Leistungsaufnahme ist das immer so ne Sache. HT4U misst direkt an der Karte (macht das sonst noch jemand?), dafür nur mit einem Spiel - das ist zu wenig. Und man weiß nicht, was für ein Setting und wie genau dieser Wert ermittelt wurde.

Godmode
2012-01-13, 18:46:49
Also wenn das so stimmt, bin ich gespannt, was GK110 wird. ;D

Ailuros
2012-01-13, 18:47:58
Sicher? Die so gerne erwähnten Designwins bei Notebooks kommen wohl kaum daher. Perf/W bei DP ist für Notebooks komplett egal, das ist eher für Teslas interessant. Wobei wir wieder bei der gefürchteten Frage sind, ob das auch stimmt, oder ob da noch andere Gründe waren für die Wins. Ich erwarte schon einen klaren Sprung bei Perf/W in Spielen. +20% Perf und -15% TDP...das wäre nur eine Steigerung von etwa 40%. Wobei die TDP, die für Fermi angegeben ist, ja sehr, äh, wohlwollend ist...hüstel. Wenn man sich diesmal strikt dran hält, dann ok.

@dildo4u:
Was auf dem Papier steht und was real erreicht wird, sind zwei unterschiedliche paar Schuhe:
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php
210W in Spielen, das wäre dann arg knapp für die TDP. Da muss nur ein fordernderes Spiel kommen und schon ist man drüber. Wie genau misst HT4U die Leistungsaufnahme? Welche Software und ist das ein Mittelwert (evtl. von einer Szene, wo auch CPU-Limits vorkommen)?

Ich hab sicherheitshalber mal nachgefragt mal sehen was dabei rauskommt.

Sonst ist das obrige ja alles schoen und gut, aber GK104 wird eigentlich gegen TahitiPRO konkurrieren IMHO. Wenn der TDP tatsaechlich so hoch liegen sollte, dann wird es ein ziemlicher heikler Vergleich zur 7950.

Orbmu2k
2012-01-13, 18:51:01
Hast du da ne Quelle?


Ne Quelle hab ich nicht aber der Notebookmarkt bisher war eher durch dedicated Mid-Range Chips bestimmt. Daher gehe ich mal davon aus.
GTX 580M /570M oder x970/x950 findet man doch nur sehr selten.

boxleitnerb
2012-01-13, 18:53:23
Ne Quelle hab ich nicht aber der Notebookmarkt bisher war eher durch dedicated Mid-Range Chips bestimmt. Daher gehe ich mal davon aus.
GTX 580M /570M oder x870/x850 findet man doch nur sehr selten.

Mag ja alles sein, aber AMD hat auch Midrange Chips. Wieso die nicht?

Blediator16
2012-01-13, 18:53:52
Ne Quelle hab ich nicht aber der Notebookmarkt bisher war eher durch dedicated Mid-Range Chips bestimmt. Daher gehe ich mal davon aus.
GTX 580M /570M oder x870/x850 findet man doch nur sehr selten.

Sollten die low und middleclass GPUs nicht sowieso von APUs abgedeckt bzw. verdrängt werden?

Orbmu2k
2012-01-13, 18:56:16
Mag ja alles sein, aber AMD hat auch Midrange Chips. Wieso die nicht?

Weil AMD noch keine mobilen 28nm Chips hat? :D
Oder nicht für den Ivy Release fertig gewesen wäre.

Muss nicht zwangsläufig die perf/W der entscheidende Faktor beim Win gewesen sein.

M4xw0lf
2012-01-13, 18:56:31
Hast du da ne Quelle?
Bei der Leistungsaufnahme ist das immer so ne Sache. HT4U misst direkt an der Karte (macht das sonst noch jemand?), dafür nur mit einem Spiel - das ist zu wenig. Und man weiß nicht, was für ein Setting und wie genau dieser Wert ermittelt wurde.

PCGH misst auch die Karte allein.

Spasstiger
2012-01-13, 18:58:24
Die HD 7970 ist bei Spielen sparsamer als so manche GeForce GTX 560 Ti OC: http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php.
HD 7970: 211 Watt
Zotac GTX 560 Ti Amp!: 221 Watt
MSI GTX 560 Ti Hawk: 222 Watt

Für GK104 wird es imo keine leichte Aufgabe, weniger zu verbrauchen als Tahiti und dabei schneller zu sein. OC-Versionen sind wie gerade gezeigt nicht sehr energieeffizienz und wenn NV mit dem GK104 nur GF110-Performance anstrebt, dann wird der Gegner wohl Radeon HD 7950 heißen, die sicherlich effizienter wird als die HD 7970.

boxleitnerb
2012-01-13, 18:59:00
Weil AMD noch keine mobilen 28nm Chips hat? :D
Oder nicht für den Ivy Release fertig gewesen wäre.

Muss nicht zwangsläufig die perf/W der entscheidende Faktor beim Win gewesen sein.

Wo wir wieder beim Thema von neulich wären. Muss nicht, kann. Wir wissen es nicht, auch wenn wir der Aussage von Jensen mit gesunder Skepsis begegnen.

PCGH misst auch die Karte allein.
Stimmt, bei den Werten hätte ich selbst drauf kommen sollen.

Hugo78
2012-01-13, 18:59:41
Sollte NV nicht sowieso anfangen selber viel Blödsinn zustreuen,
damit keine Sau mehr die echten Leaks 2-3 Tage vor Release zu ernst nimmt, selbst wenn die richtig liegen mit einer Spiellast von 170W*?!

Erhöht den Überraschungsfaktor. ;)

*= meine Hoffung bei Speed knapp über 7950.

Blediator16
2012-01-13, 19:01:18
Sollte NV nicht sowieso anfangen selber viel Blödsinn zustreuten,
damit keine Sau mehr die echten Leaks 2-3 Tage vor Release zuernst nimmt, selbst wenn die richtig liegen mit einer Spiellast von 170W*.

Erhöht den Überraschungsfaktor. ;)

*= meine Hoffung bei Speed knapp über 7950.

Man hatte den g80 und das Fermi Event von daher ist man wohl vor allem gewappnet :freak:

Orbmu2k
2012-01-13, 19:03:19
Sollten die low und middleclass GPUs nicht sowieso von APUs abgedeckt bzw. verdrängt werden?

Ich denke der GK106 steckt jede IGP noch locker in die Tasche.

AnarchX
2012-01-13, 19:23:25
Selbst GK107 (wohl ~150mm², 128-Bit), der laut Treiber als GTX 660M verkauft werden soll.

Und was nützt eine VLIW4-384SPs-APU, wenn diese mit einer IPC-schwachen CPU-Architektur kombiniert wird.
Mit Ivy Bridge + Kepler(@Optimus) bekommt man wohl das bessere Gesamtpaket.

btw.
VR-Zone Quellen meinen Hardlaunch-only ~März/April (http://vr-zone.com/articles/nvidia-kepler-to-arrive-in-march-or-april--hard-launch-only/14538.html).

Ailuros
2012-01-13, 19:33:40
Die HD 7970 ist bei Spielen sparsamer als so manche GeForce GTX 560 Ti OC: http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php.
HD 7970: 211 Watt
Zotac GTX 560 Ti Amp!: 221 Watt
MSI GTX 560 Ti Hawk: 222 Watt

Vielleicht hilft es eher eine uebertaktete gegen eine uebertaktete GPU zu vergleichen aus dem gleichen review:

http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index24.php

Für GK104 wird es imo keine leichte Aufgabe, weniger zu verbrauchen als Tahiti und dabei schneller zu sein. OC-Versionen sind wie gerade gezeigt nicht sehr energieeffizienz und wenn NV mit dem GK104 nur GF110-Performance anstrebt, dann wird der Gegner wohl Radeon HD 7950 heißen, die sicherlich effizienter wird als die HD 7970.

Wenn GK104 eher mit der 7950 konkurriert was auch am wahrscheinlichsten sein wird ist ein 225 TDP tatsaechlich schlecht. Da es aber nicht so sein muss, eben weil dann dass grosse Fragezeichen bleibt wieviel GK110 verbrauchen wird, wuerde ich noch etwas abwarten bis man es sichern kann. Bumsgeruechte gibt es Gott sei Dank genug im Netz momentan.

y33H@
2012-01-13, 19:35:06
Ok da wo ich geschaut habe stand 250W.Die TDP beträgt wie PCGH sagt 210W und die Maximum Board Power beträgt wie HT4U schreibt 250W. Beides ist korrekt, da die TDP nicht die Maximum Board Power ist ;)
PCGH misst auch die Karte allein.Und zwar in BC2 mit Full-HD und 4x/16:1 AF bei maximalen Details.

Orbmu2k
2012-01-13, 19:36:40
Die TDP beträgt wie PCGH sagt 210W und die Maximum Board Power beträgt wie HT4U schreibt 250W. Beides ist korrekt, da die TDP nicht die Maximum Board Power ist ;)

ht4u schreibt hier eindeutig TDP = 250W
http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index2.php

boxleitnerb
2012-01-13, 19:40:08
Und zwar in BC2 mit Full-HD und 4x/16:1 AF bei maximalen Details.

Reicht das für ein komplettes GPU-Limit bei so einer starken Karte? Habt ihr ermittelt, ob es noch intensivere Spiele/Szenen gibt, wo mehr verbraucht wird (im Schnitt, keine Spitzen)?
Sorry für OT :)

y33H@
2012-01-13, 19:42:19
ht4u schreibt hier eindeutig TDP = 250WUnd ein paar Seiten später völlig korrekt Maximum Board Power, denn die TDP beträgt bei der HD 7970 nur 210W. Im Falle der HD 69x0 gibt HT4U in der Tabelle übrigens auch die Maximum Board Power und nicht die TDP an ;)

@ boxleitnerb

Vor einigen Monaten haben wir ein Dutzend Spiele oder so getestet und BC2 hat am meisten gezogen. Das CPU-Limit mit dem i7 @ 4,5 GHz liegt bei weit über 200 Fps - da kommt keine aktuelle Grafikkarte in Full-HD und 4x/16:1 AF bei maximalen Details hin.

Gipsel
2012-01-13, 19:47:40
btw.
VR-Zone Quellen meinen Hardlaunch-only ~März/April (http://vr-zone.com/articles/nvidia-kepler-to-arrive-in-march-or-april--hard-launch-only/14538.html).
VR-Zone hat aber die nV-Ankündigung falsch im Gedächtnis. Die meinten Kepler-GeForce kommt Q1 FY2013 (Ende Januar bis April 2012), nicht schon Q4/12.

http://blog-imgs-17.fc2.com/k/i/s/kishinkannet/1_20110909045609.png

Ein Launch März/April wäre also immer noch Q1 FY2013 wie angekündigt.

Orbmu2k
2012-01-13, 19:48:57
Und ein paar Seiten später völlig korrekt Maximum Board Power, denn die TDP beträgt bei der HD 7970 nur 210W. Im Falle der HD 69x0 gibt HT4U in der Tabelle übrigens auch die Maximum Board Power und nicht die TDP an ;)

Jupp hatte das ja auch gleich nach dem Hinweis eingesehen. Wolle nur nachweisen das meine Quelle mich getäuscht hat nicht meine Augen. :D

Warten wir mal ab was der GK104 dann tatsächlich aus der Leitung zieht.
Die TDP Angaben sind für perf/W eh nicht relevant. Die 225W beim GK104 könnten genausogut die MBP sein oder vielleicht sogar nur weil die Anschlüsse das aussagen. ( 2x6 Pin oder so)

y33H@
2012-01-13, 19:51:30
Im Falle der HD 7970, HD 6990, HD 6970 und HD 6950 war die MBP auch zu Beginn oder immer noch einfach nur das theoretische Limit der Stromanschlüsse - könnte hier auch so sein, ja.

Gipsel
2012-01-13, 19:56:08
Ist hier zwar OT, aber meines Wissens gibt AMD gar keine TDP explizit an. Es gibt die Maximum Board Power (für die das Board und dann wohl auch die Kühllösung dimensioniert ist, wobei die Board Power auch die über Displayport ausgegebene elektrische Leistung [die nicht gekühlt werden muß, iirc 5W pro Port] mit erfaßt). Und es gibt die Typical Board Power (das ist keine TDP!), die wohl etwas schwammig als typischer Verbrauch in Spielen definiert ist (also im Einzelfall über- oder unterschritten wird).

y33H@
2012-01-13, 19:58:14
Auf den Slides steht iirc tatsächlich nur die Maximum Board Power, ja.

EDIT
http://www.abload.de/thumb/fileymxib.jpg (http://www.abload.de/image.php?img=fileymxib.jpg) http://www.abload.de/thumb/radeon_hd_6970_speccc6sa.jpg (http://www.abload.de/image.php?img=radeon_hd_6970_speccc6sa.jpg)

dargo
2012-01-13, 20:00:40
Die HD 7970 ist bei Spielen sparsamer als so manche GeForce GTX 560 Ti OC: http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php.
HD 7970: 211 Watt
Zotac GTX 560 Ti Amp!: 221 Watt
MSI GTX 560 Ti Hawk: 222 Watt

Das muss nicht unbedingt stimmen. Eine HD7970 ist um einiges schneller als die 560 TI. Da kann es schnell passieren, dass erstere teilweise im gewissen CPU-Limit liegt was in weniger Verlustleistung der Graka resultiert. Außerdem frage ich mich gerade was der Vergleich einer 28nm GPU mit einer 40nm GPU soll. :confused: Zudem spielen die Temperaturen der GPUs bei ebenfalls eine Rolle. Wenn die TIs (nicht geprüft) wärmer sind verbrauchen sie auch etwas mehr.

fondness
2012-01-13, 20:04:39
Die HD 7970 ist bei Spielen sparsamer als so manche GeForce GTX 560 Ti OC: http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php.
HD 7970: 211 Watt
Zotac GTX 560 Ti Amp!: 221 Watt
MSI GTX 560 Ti Hawk: 222 Watt

Für GK104 wird es imo keine leichte Aufgabe, weniger zu verbrauchen als Tahiti und dabei schneller zu sein. OC-Versionen sind wie gerade gezeigt nicht sehr energieeffizienz und wenn NV mit dem GK104 nur GF110-Performance anstrebt, dann wird der Gegner wohl Radeon HD 7950 heißen, die sicherlich effizienter wird als die HD 7970.

Naja, GK104 kann sich ggü. Tahiti doch GPGPU-Kram wie eine hohe DP-Leistung, ECC, etc. sparen. Das sollte doch etwas bringen.

y33H@
2012-01-13, 20:09:13
Die HD 7970 hat nicht mal mehr (aktives) ECC und ob NV die DP-Leistung bei GK104 stärker beschneidet als bei GF110 (GF1x4 vs. GF1x0 war ja nur 1:12 statt 1:8), gilt es abzuwarten - auch wenn es wahrscheinlich ist. Im Falle von GTX 560 Ti vs. HD 6870 hat die Ti zumindest das DP-Feature ;)

Gipsel
2012-01-13, 20:18:37
Wobei sich die Frage stellt, ob das ECC auf den internen SRAMs überhaupt deaktiviert wird, bei CPUs läuft es ja auch immer mit, auch bei den Desktop-Versionen ohne ECC-RAM. Da fehlt auch nur ECC beim externen DRAM.
Und Leaken werden die zusätzlichen Transistoren so oder so. ;)

y33H@
2012-01-13, 20:23:56
Die gute alte static leakage :biggrin:

aylano
2012-01-13, 23:03:19
Sollten die low und middleclass GPUs nicht sowieso von APUs abgedeckt bzw. verdrängt werden?
Definitionen richtigen sich an die Situation.
Low-End war früher quasi auch nur das, was jetzt iGPU bzw vorher ein Onbaord-GPU war. Low-Ends waren halt sehr beliebt, weil die Intel-Grafik & Video so schlecht waren und wie die Leute auf Multimedia & Co stehen, sieht amn jetzt am Tablet & Smartphone-Boom und Netbook-Rückgang.

Schlieißlich verbrauchten Low-End-Mobil-GPUs nur 7-15W.
Ich glaube, da ist noch der Speicher-Verbrauch drinnen, sodass die GPU selber noch weniger verbrauchte.

Wenn man sich den Destop-Stromverbrauch-Leveln von GPU vs CPU mit 250 zu 125W ansieht a la 2:1, dann war Low-End mit 1:2, wenn nicht 1:3-4 Performance-technisch sowieso viel zu schwach.

Durch die APU wird sich IMO die Definition ändern, da APU die Situation geändert hat, sodass Low-End hoffentlich so bei 1:1 einordnen wird und Mainstream 2:1. Also, was früher Mainstream & Performance war.

Weil AMD noch keine mobilen 28nm Chips hat? :D
Oder nicht für den Ivy Release fertig gewesen wäre.

Muss nicht zwangsläufig die perf/W der entscheidende Faktor beim Win gewesen sein.
Meine Vermutung ist, dass sehr viel/nicht wenige/ein paar OEMs sowohl ein Notebook mit einem Kepler-Modell ausstatten sowie einem Umgelabelten und diese Doppelt gezählt wurden, weil die OEMs wahrscheinlich TSMC in Sachen Verfügbarkeit (& Yield) auch nicht ganz trauen. TSMC hatte damals bei 40nm auch einige Märchen erzählt.
Und die Verfügbarkeit ist für OEMs das wichtigste. Das sieht man jetzt an der Thailand-Flutkatastrophe, wo die OEM-Versorgung am wichtigsten ist.

Peter Gräber
2012-01-14, 09:44:37
Die TDP für die 7970 sind eigentlich nur 210W. Die 250W sind die maximum board power mit Powertune @Standard.
--
ht4u misst (zumindest unter furmark, beim Spieleverbrauch bin ich nicht sicher) auch bei Stock-Taktraten mit Powertune auf +20%, was in aller Regel den Stromverbrauch unnötig erhöht.
Das Spiel für die Leistungsaufnahme-Messung müsste nach wie vor HAWX sein. wird im Test der HD 7970 nicht explizit erwähnt. HAWX steht jedenfalls nicht mehr im Benchmark-Parcours, deshalb keine Ahnung bei welchem Spiel sie genau gemessen wurde (wenn überhaupt, es heißt da ja "simulierte Spielelast").

AMD nennt 210 Watt als typische Leistungsaufnahme hier unter Spielen. Während AMD diese Angabe bei der Radeon HD 6900-Serie noch anhand des AVP-Benchmarks setzte, geschieht dies bei der HD 7900 anhand von Crysis. Die AVP-Last kam seinerzeit schon unseren Messungen zu Tom Clancy's Hawx sehr nahe, wohingegen wir unter Crysis / Warhead niemals so hohe Leistungsaufnahme feststellen konnten.

Es blieb natürlich bei den Messungen der 7970 bei Hawx, da unsere Messungen ja sonst untereinander kaum vergleichbar wären und dort war PT auf Default. Dass es bei der Testumgebung fehlte liegt an einem simplen Copy&Paste-Fehler durch Zeitdruck. Im Kapitel Temperaturverhalten und Lautstärke Detailbetrachtung wird es aber erwähnt.

Thx @ Hübie für den Hinweis.

EDIT: Wir sprechen von simulierter Spielelast, weil wir eben nicht 10 verschiedene Titel wählen um einen Querschnitt zu nehmen, sondern eben nur den einen Titel, welcher nach unseren Messungen der letzten Jahre die höchste Leistungsaufnahme produziert - aber eben nicht repräsentativ für alle Spiele ist.

EDIT2:
Im Falle der HD 7970, HD 6990, HD 6970 und HD 6950 war die MBP auch zu Beginn oder immer noch einfach nur das theoretische Limit der Stromanschlüsse - könnte hier auch so sein, ja.
Wie oben schon geschrieben sind die 210 Watt die AMD nennt nicht die TDP, sondern die typische Leistungsaufnahme unter Spielen. Während AMD zum Launch der 6900-Serie sehr bedacht hinsichtlich ihrer Angaben vorging und in der Tat bei der TDP von beispielsweise "< 300 Watt" sprach, ging man bei der 7970 ein wenig salopp mit dem Thema um, vermutlich davon abhängig, dass man sich weiter von etwaigen Grenzen entfernt hält.

Wenn man hier einem Kühlerhersteller (dem Entwickler des Referenzkühlers z.B.) eine TDP nennen muss, dann wird hier wohl weder 210 noch 250 Watt genannt, denn AMD ist sich dem Thema OC sicher auch bewusst. Ich vermute ebenfalls, dass man dort den Worst Case mit zirka < 375 Watt angeben dürfte.

M4xw0lf
2012-01-14, 10:44:05
Danke für die ausführliche Erläuterung :up:

Hübie
2012-01-14, 11:06:19
So nun haben wir Klarheit. Vielen Dank Peter. Dennoch sind die 225 Wat wie gesagt noch keine Grundlage für Rückschlüsse.
Da Kepler eh bald vorgestellt wird müssen wir halt ~4 Wochen weiter spekulieren ;D
Mal eine Frage aus Interesse: Wie schaffe ich es als Chip-Hersteller die Lecks zu stopfen bzw. die Leute dazu zu bringen wirklich dicht zu halten? Klar Redaktionen mit NDAs aber nehmen wir mal die kleinen Mittelsmänner wie Kühlerhersteller, custom-Boarddesigner... es würde reichen einen Menschen auf der Welt der bei einem großen Hersteller arbeitet zu "überzeugen" auszupacken. Ihr versteht??

Ailuros
2012-01-14, 11:10:06
Leute bei so zwielichtigen Quellen kann alles oder gar nichts stimmen oder es ist lediglich ein Resultat einer falschen Misinterpretation.

2*6pin + mobo liefern 225W, ebenso wie 6pin+8pin + mobo = 300W welches angeblich auch schon fuer "GK100" wo anders erwaehnt wurde.

Das waere das best case scenario; worst case waere dass sie noch weiter am Takt geschraubt haben um eher TahitiXT zu konfrontieren. Waere aber eine ziemliche Schnappsidee da sie wohl eher den Preis hoeher anlegen wuerden, der Luftraum fuer OCing waere verdammt klein und der Abstand zu GK110 zu klein und vielleicht sogar zu klein dass ein GK110 salvage part nicht idiotisch dagegen aussieht.

Nochmal silly season und Geduld.

So nun haben wir Klarheit. Vielen Dank Peter. Dennoch sind die 225 Wat wie gesagt noch keine Grundlage für Rückschlüsse.
Da Kepler eh bald vorgestellt wird müssen wir halt ~4 Wochen weiter spekulieren ;D

Genau :)

Mal eine Frage aus Interesse: Wie schaffe ich es als Chip-Hersteller die Lecks zu stopfen bzw. die Leute dazu zu bringen wirklich dicht zu halten? Klar Redaktionen mit NDAs aber nehmen wir mal die kleinen Mittelsmänner wie Kühlerhersteller, custom-Boarddesigner... es würde reichen einen Menschen auf der Welt der bei einem großen Hersteller arbeitet zu "überzeugen" auszupacken. Ihr versteht??

Im gegebenen Fall schwirren nur von ein paar sales-heinis wenige Einzelheiten rum die sowieso nicht viel wert sind. Komplett dicht machen wird verdammt schwer sein; im gegebene Fall sind die NV engineers einfach zu enthusiastisch ueber die Resultate dass sie sich ziemlich schwer von Kollegen bei anderen IHVs verstecken koennen. Solch einen leak zu finden wird verdammt schwer sein.

M4xw0lf
2012-01-14, 11:19:18
Fudzilla (http://www.fudzilla.com/graphics/item/25563-kepler-to-come-out-in-early-q2-2012) schreibt mal wieder was vom High End-Kepler im April, ansonsten nichts neues.

Hugo78
2012-01-14, 12:07:44
Dann würds doch passen mit dem 3 monatigen Releasefahrplan.
GK104 anfang Februar, dann GK106 und 107 und das dicke Ende dann im April.

Peter Gräber
2012-01-14, 12:11:13
Mal eine Frage aus Interesse: Wie schaffe ich es als Chip-Hersteller die Lecks zu stopfen bzw. die Leute dazu zu bringen wirklich dicht zu halten? Klar Redaktionen mit NDAs aber nehmen wir mal die kleinen Mittelsmänner wie Kühlerhersteller, custom-Boarddesigner... es würde reichen einen Menschen auf der Welt der bei einem großen Hersteller arbeitet zu "überzeugen" auszupacken. Ihr versteht??

Das ist eine sehr interessante Frage - gar nicht ist die Antwort aber vor allem weil das schon immer so war und wohl auch immer so bleiben wird, dass sobald etwas spruchreif wird, in Serie geht oder bald erwartet wird, sich die Lecks häufen und auch die Infos, sollte das hier zu denken geben. Es ist noch viel zu ruhig um Kepler, als dass wir in Kürze schon mit einem leistungsfähigeren Desktop-Produkt rechnen können. Das ist aber eine rein persönliche Einschätzung meinerseits ;)

Knuddelbearli
2012-01-14, 12:21:16
naja Lecks an sich sind ja egal solange sie nichts handfestes haben

und Lecks die Folien "lecken" kann man, wenn man es wirklich will, sehr einfach aufspüren.

Hübie
2012-01-14, 12:26:15
Wobei es zeitliche Abstände zwischen release und kauf der highend chips geben wird. Also sagen wir eher das es im Mai möglich sein wird eine (erste) GK100 ins System zu stecken ;)
Ich bin dennoch optimistisch was Performance anbelangt. Da die Treiber jetzt schon das bessere Gesamtpaket abliefern muss imo nur noch die hardware (wieder) aufschließen. Schön das endlich wieder Spannung da ist.

Edit: Vielleicht hat nVidia einen Weg gefunden Leute zum Schweigen zu bringen?¿ ;) Ich bin mir aber sehr sicher das wir - zumindest die Architektur - in spätestens vier Wochen kennen werden. Warum fragt ihr? pfff.. nur so ausm Bauch heraus ;)

Sunrise
2012-01-14, 13:33:12
Mal eine Frage aus Interesse: Wie schaffe ich es als Chip-Hersteller die Lecks zu stopfen bzw. die Leute dazu zu bringen wirklich dicht zu halten? Klar Redaktionen mit NDAs aber nehmen wir mal die kleinen Mittelsmänner wie Kühlerhersteller, custom-Boarddesigner... es würde reichen einen Menschen auf der Welt der bei einem großen Hersteller arbeitet zu "überzeugen" auszupacken. Ihr versteht??
Indem du (in diesem Fall NV) die AIBs komplett im Unklaren lässt (so wie das aktuell auch der Fall ist), was die AIBs aber natürlich nicht sonderlich gerne sehen, da diese ja auch eine gewisse Vorlaufzeit benötigen. Wobei sich das in Grenzen hält, sofern es nur Referenz-Designs gibt und NV vorerst keine Custom-Designs zulässt.

Sollten dann trotzdem Leaks kommen, ist das normalerweise von NV gewollt, außer du hast natürlich wieder jemanden direkt im engineering oder einem anderen Geschäftsbereich sitzen, der dir gerne davon erzählt.

OgrEGT
2012-01-14, 14:08:53
http://forum.beyond3d.com/showpost.php?p=1612187&postcount=846

March-April, only hard launch...

Zergra
2012-01-14, 16:46:48
http://forum.beyond3d.com/showpost.php?p=1612187&postcount=846

March-April, only hard launch...
Betrifft das jetzt GK 104 ? oder welchen :O

mapel110
2012-01-14, 16:58:19
GK104 im März, GK110 im April

Halt frühestens wenn alles nach Plan läuft. Aber bisher gibts noch keine Hinweise auf eine Verschiebung.

Peter Gräber
2012-01-14, 19:41:00
Da steht doch eindeutig, dass es eine Planänderung gibt. Plan war erstes (fiskalisches) Quartal 2012 und das endet bei NV Ende April. Und der geänderte Plan sieht vor, dass NVIDIA erst dann starten wird, wenn auch eine Verfügbarkeit gesichert ist.

Mehr haben die Quellen offenbar der VR-Zone nicht genannt. Damit bleiben NV eben noch etwas mehr als 3 Monate um das erste Quartal zu halten und sollte das nicht möglich sein, kommen die Kepler-GPUs eben später.

Ailuros
2012-01-15, 00:07:06
GK104 im März, GK110 im April

Halt frühestens wenn alles nach Plan läuft. Aber bisher gibts noch keine Hinweise auf eine Verschiebung.

Wenn sie 104 Ende Januar vorstellen werden, wird auch 110 im April vorgestellt. Wenn's jetzt Februar/Maerz fuer 104 werden sollte, wuerde ich persoenlich nicht auf 110 schon im April hoffen. Eher =/> Mai.

http://forum.beyond3d.com/showpost.php?p=1612187&postcount=846

March-April, only hard launch...

Bei VR-zone steht folgendes:

Will it be in the dying weeks or March or steal Ivy Bridge’s thunder with the launch around April 8... only time will tell.

Klingt mir weder nach irgendwelcher sicheren Daten sondern eher reine Spekulation bei der der Author wohl sich selber fragt. Sonst hat trinibwoy keine Quellen.

M4xw0lf
2012-01-15, 00:42:37
Auf Fudzilla las sich das ja noch eher so, dass GK110 im April ansteht und GK104 vermutlich Ende Januar / Anfang Februar. http://www.fudzilla.com/graphics/item/25563-kepler-to-come-out-in-early-q2-2012 Solange im Text mit "The April launch refers to the high end card launch..." eben GK110 und nicht GK104 gemeint ist.

Gipsel
2012-01-15, 09:58:26
Da steht doch eindeutig, dass es eine Planänderung gibt. Plan war erstes (fiskalisches) Quartal 2012 und das endet bei NV Ende April. Und der geänderte Plan sieht vor, dass NVIDIA erst dann starten wird, wenn auch eine Verfügbarkeit gesichert ist.

Mehr haben die Quellen offenbar der VR-Zone nicht genannt. Damit bleiben NV eben noch etwas mehr als 3 Monate um das erste Quartal zu halten und sollte das nicht möglich sein, kommen die Kepler-GPUs eben später.
Das haben die in den falschen Hals bekommen. Siehe hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9122572#post9122572). Das fiskalische Q1 2013 geht bei nV von Ende Januar bis Ende April. Nix mit Planänderung, die haben einfach die Quartale durcheinander gebracht.

Skysnake
2012-01-15, 10:26:09
Wahrscheinlich.

Für einen Januar Launch wird es aber langsam wirklich eng. Wir haben jetzt schon den 15. Ok ok, die 7950 sollte ja erst im Februar kommen, und so lange hat man noch Zeit, wobei ich eher den GK104 Launch nach dem 7950 Launch erwarte, um AMD ein bischen die Show zu stehlen.

Mich wundert es aber schon SEHR, wenn man sagen wir mal am 9 Februar launchen will, aber bis jetzt wirklich noch nichts durchgesickert ist. Das ist doch völlig unrealistisch oder was meint ihr?

Für mich spricht das dafür, das sollte Ende Januar/Anfang Februar der Launch von GK104 erfolgen, wir auf jeden Fall keine Karten werden kaufen können. Ich halte einen Monat, bzw ja inzwischen eher 3 Wochen für zu wenig um erst an zu fangen Karten zu produzieren.

VOR ALLEM! (Ja ganz deutlich) beim GK104 handelt es sich ja nicht um einen High-End chip für 500€+, sondern um das Volumenmodell. Da reicht es nicht ein paar hundert Karten für die ganze Welt zu haben. Ergo wird die Produktionszeit der Wafer UND auch der eigentlichen Kartenproduktion schon relevant, einfach wegen den benötigten Stückzahlen.


Oder wie sehr ihr das?

Knuddelbearli
2012-01-15, 10:31:07
um die Show zu stehlen müsste Nvidia eigentlich vor AMD kommen ( und überzeugen )

DarknessFalls
2012-01-15, 11:06:20
Das sehe ich auch so. Wenn ich meinem Konkurrenten die Show stehlen will, dann launche ich VOR ihm und biete dabei ein Produkt an, mit dem der Konkurrent höchstens über den Preis konkurrieren kann. Die Leistungsdaten von Tahiti Pro sind inzwischen hinreichend durchgekaut und bekannt, da wird nV wissen, wie ein "Showstopper" auszusehen hat.

Meiner Meinung nach wird es von den ersten "echten" Leaks bis zum Launch etwa 14 Tage dauern, ähnlich wie seinerzeit bei G80. Eher länger.

Iruwen
2012-01-15, 12:59:49
VOR ALLEM! (Ja ganz deutlich) beim GK104 handelt es sich ja nicht um einen High-End chip für 500€+, sondern um das Volumenmodell. Da reicht es nicht ein paar hundert Karten für die ganze Welt zu haben. Ergo wird die Produktionszeit der Wafer UND auch der eigentlichen Kartenproduktion schon relevant, einfach wegen den benötigten Stückzahlen.
Oder wie sehr ihr das?

Das trifft auf die 7970 genauso zu, oder ist das jetzt plötzlich wieder eine High-End Karte?

grobi
2012-01-15, 13:05:26
Das trifft auf die 7970 genauso zu, oder ist das jetzt plötzlich wieder eine High-End Karte?


Momentan ist sie Highend. :wink:

Skysnake
2012-01-15, 13:10:13
Naja, die 7970 wird für ~500€ verkauft. Daher reichen ja auch deutlich weniger Chips IM MOMENT!

Die 6950, die ja wirklich eher das Volumenmodell ist, wird ja auch erst noch gelaunched.

Seh da jetzt keinen Widerspruch.

Bucklew
2012-01-15, 13:19:36
Für einen Januar Launch wird es aber langsam wirklich eng. Wir haben jetzt schon den 15. Ok ok, die 7950 sollte ja erst im Februar kommen, und so lange hat man noch Zeit, wobei ich eher den GK104 Launch nach dem 7950 Launch erwarte, um AMD ein bischen die Show zu stehlen.
Stimmt, bei GF110 war ja auch alles vorher bekannt. Schon Wochen vorher.

Blediator16
2012-01-15, 13:27:45
Stimmt, bei GF110 war ja auch alles vorher bekannt. Schon Wochen vorher.

Da sollte auch nichts besonderes bekannt sein. Die 480 war für viele eine Enttäuschung und man hat einfach nur gehofft, dass da noch eine Verbesserung kommt.

Skysnake
2012-01-15, 14:15:55
Zudem konnte man ja praktisch schlicht den Chip austauschen. Von den ganzen Zulieferern etc. konnte man also nicht erwarten, dass die da groß was von wissen.

Und nochmals ganz davon abgesehen, gab es doch einige Zeit vorher (sofern ich mich richtig erinnere) einige leaks zur GTX580, wobei ja eigentlich nur die Taktraten unbekannt waren. Alles andere war ja fürn poppes und vorher schon bekannt.

Wenn musst du eher die Situation vor dem GF100 Launch als Vergleich heran ziehen. Da war alles Monate im Voraus klar bzgl der Architektur etc.

Das führt jetzt aber wieder in ne Grundsatzdiskussion, die wir kurz vor des CES schonmal hatten...

Die ist aber ja bekanntlich rum, und wir sind nicht schlauer, was einige als schlechter ansehen als beim letzten/vorletzten Launch und andere als Gleich oder Gleichwertig bzw. sogar total fürn Arsch.

Glaub das müssen wir nicht ausdiskutieren, da es einfach zu nichts führt.

Bucklew
2012-01-15, 15:17:56
Wenn musst du eher die Situation vor dem GF100 Launch als Vergleich heran ziehen. Da war alles Monate im Voraus klar bzgl der Architektur etc.
Ja, so klar, dass ein gewisser Charlie ne Woche vor Launch noch was von Softare-Tessellator erzählt hat...

Skysnake
2012-01-15, 16:02:57
Die Architektur an sich war aber seit Monaten vorher bekannt. Da gabs kaum Überraschungen. Und so was wie Software-Tesselation, das sind Implementierungsdetails, wobei das glaub eh keiner für voll genommen hat. Softwarelösungen bei solchen Sachen sind nicht sehr Performant.

Dennoch wusste man schon sehr genau, was Fermi kann, und wie eben die Blockschaltbilder aufgebaut sind. Nur die expliziete Leistung war nicht klar, aber da gabs auch genug Leaks, UND vor allem gab es ja für die Tesla Karten schon Monate vorher die Angaben zu Perf/Watt, die dann auch korrigiert wurden, noch bevor Fermi ursprünglich kommen sollte, was ja dann nicht geklappt hat, wie wir alle wissen.

Also von daher, wir wussten damals mehr als genug im Vergleich zu heute, wo wir praktisch gar nichts wissen.

Bucklew
2012-01-15, 16:15:15
Die Architektur an sich war aber seit Monaten vorher bekannt. Da gabs kaum Überraschungen. Und so was wie Software-Tesselation, das sind Implementierungsdetails, wobei das glaub eh keiner für voll genommen hat. Softwarelösungen bei solchen Sachen sind nicht sehr Performant.
Die Architektur war nur von der Computeseite her bekannt, von Grafik wusste keiner was. Schau doch mal in den alten Thread und du siehst, wie weit von der Realität das weg ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170

Es gab sogar Leute, die geglaubt haben, dass Fermi nur eine umgebastelte Compute-GPU ist ;D

Lyka
2012-01-15, 16:22:16
Nvidia hat das (Selbst)Vertrauen, dass die Leute warten, statt sich alternativ umzusehen: "Die kommen schon zu uns."

Skysnake
2012-01-15, 16:51:28
Die Architektur war nur von der Computeseite her bekannt, von Grafik wusste keiner was. Schau doch mal in den alten Thread und du siehst, wie weit von der Realität das weg ist:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443170

Es gab sogar Leute, die geglaubt haben, dass Fermi nur eine umgebastelte Compute-GPU ist ;D
Mag sein. Der Graphik-Teil hat mich nicht sonderlich interessiert. Kann sein, das sich diesbezüglich die Situation ähnelt. Was GPGPU angeht, liegen zwischen damals und heute aber Welten. Sprich nach deinen Schilderungen ist der GPGPU Bereich auf den gleichen Stand zurück gestutzt worden wie der Graphik-Teil.

Für mich inakzeptabel.

Bucklew
2012-01-15, 17:15:35
Mag sein. Der Graphik-Teil hat mich nicht sonderlich interessiert.
Da bist du die Ausnahme.

Sprich nach deinen Schilderungen ist der GPGPU Bereich auf den gleichen Stand zurück gestutzt worden wie der Graphik-Teil.

Für mich inakzeptabel.
Hä? Was redest du da für einen Quatsch?

Skysnake
2012-01-15, 18:34:07
Naja, du meinst ist die gleiche Situation wie bei Fermi (ausgehend von den Infos zum Graphikpart). Ich sag, die Situation ist sehr viel schlechter als bei Fermi (ausgehen von den Infos zum GPGPU-Part).

Also bin ich zurückgestutzt worden auf dein Informationsniveau, was mal total bescheiden ist in meinen Augen. Was ist daran schwer zu verstehen?

Mir doch egal, ob die die Graphik-Infos zurück halten. Sollen Sie von mir aus, aber ich will wieder meine GPGPU-Infos!

Bucklew
2012-01-15, 18:45:54
Mir doch egal, ob die die Graphik-Infos zurück halten. Sollen Sie von mir aus, aber ich will wieder meine GPGPU-Infos!
Kinder die was wollen... :rolleyes:

Meinste, dass das irgendwen bei nvidia interessiert?

Hugo78
2012-01-15, 19:03:22
NV hat bei Fermi zuviel versprochen, da hieß es dann das sie mal besser die Klappe gehalten hätten.
Jetzt halten sie die Klappe und es ist auch wieder verkehrt. :D

Skysnake
2012-01-15, 19:06:32
Kinder die was wollen... :rolleyes:

Meinste, dass das irgendwen bei nvidia interessiert?

Hmm.. also ganz ehrlich? Im Moment wohl eher nicht. Aber ich muss mal schauen, ob ich nicht bald in ne Forschungsgruppe wechsel die mit nVidia zusammen arbeitet. Dann wirds die schon interessieren, zumindest indirekt ;)

Das wird sich aber erst im laufe des Jahres zeigen, ob oder ob nicht.

Bucklew
2012-01-15, 19:18:57
Hmm.. also ganz ehrlich? Im Moment wohl eher nicht. Aber ich muss mal schauen, ob ich nicht bald in ne Forschungsgruppe wechsel die mit nVidia zusammen arbeitet. Dann wirds die schon interessieren, zumindest indirekt ;)
Wo?

Skysnake
2012-01-15, 19:48:17
Ist noch in der Schwebe, da ich ja im Moment noch in nem anderen Projekt bin, wo noch nicht fest steht, ob das weiter geführt wird. Je nachdem wird mal geschaut was geht. MIC von Intel steht auch noch im Raum.

Deswegen, mal schauen was sich daraus ergibt. Interesse an meiner Arbeitskraft besteht auf jeden Fall.

Ailuros
2012-01-16, 00:10:51
Dennoch wusste man schon sehr genau, was Fermi kann, und wie eben die Blockschaltbilder aufgebaut sind. Nur die expliziete Leistung war nicht klar, aber da gabs auch genug Leaks, UND vor allem gab es ja für die Tesla Karten schon Monate vorher die Angaben zu Perf/Watt, die dann auch korrigiert wurden, noch bevor Fermi ursprünglich kommen sollte, was ja dann nicht geklappt hat, wie wir alle wissen.

Erstens wurden die GF100 erstmal klar nur als sie die Dinger zur Produktion schickten und zweitens war GF100 der allererste chip der sein tape out im spaeten August 2009 hatte wenn ich mich richtig erinnere. Bei Kepler war der erste tape out 107 und 106, gefolgt von 104 und am letzten 110.

Nach dem Fall der Tesla Fermi Blamage wuerde ich persoenlich als NV keine Kepler Tesla Einzelheiten an die Luft lassen bevor man mit dem Ding erstmal in Produktion geht.

Also von daher, wir wussten damals mehr als genug im Vergleich zu heute, wo wir praktisch gar nichts wissen.

Besser die Klappe zu halten als im schlimmsten Fall einen weiteren Holzschrauben-Moment.

Sollen Sie von mir aus, aber ich will wieder meine GPGPU-Infos!

Irgendwo bei =/<1.5TFLOPs DP wird das Ding liegen mit einem Stromverbrauch den ich <230W einschaetzen wuerde. Die einzige vielleicht brennende Frage die Dich sonst noch interessieren koennte waere ob das Ding einen 384 oder 512bit bus haben wird. Was fehlt sonst noch berrauschendes bezueglich HPC genau?

Skysnake
2012-01-16, 00:40:31
Ailuros, die Klappe haben Sie aber beim wichtigsten Punkt aber nicht gehalten :ugly:

Das sind nämlich die 2,5 fache DP/Watt Leistung im Vergleich zu Fermi. Damit haben Sie so ziemlich die dümmste Metrik genommen, die man nur nehmen kann.... Denn da schlägt egal was man verbockt hat, es immer voll rein.

Wenn Sie DGEMM nehmen, würden wohl schon 1 TFlop/s bei unter 250W reichen um die 2,5 DP/Watt zu erreichen im Vergleich zu Fermi, müsste man jetzt nochmal genau die Tesla Specks nachschauen.

Ja die breite des Speicherbusses ist sehr interessant. Genau so interessant ist aber auch, ob Sie ebenfall Preemtive sheduling unterstützen wie GCN dies angeblich kann. Und eben die Größen der Caches. Damit kann man dann in Verbindung der daran hängenden #ALUs sagen, ob das Ding sich leichter auslasten lässt als Fermi, oder schwerer.

Also sprich ob die Datenlokalität im Vergleich zu Fermi eher steigen muss oder nicht für x% Auslastung.

Mir brennt aber vor allem gemeinsamer x86 Adressraum und preemtive Sheduling unter den Nägeln. Wenn das beides kommt wäre ich SEHR glücklich, egal was beim Rest genau bei rum kommt.

Es würde das Leben als Programmierer einfach in vielen Fällen sehr viel einfacher machen! Und wenn ich sehr sage, dann meine ich auch wirklich SEHR!

Ailuros
2012-01-16, 00:55:09
Ailuros, die Klappe haben Sie aber beim wichtigsten Punkt aber nicht gehalten :ugly:

Das sind nämlich die 2,5 fache DP/Watt Leistung im Vergleich zu Fermi. Damit haben Sie so ziemlich die dümmste Metrik genommen, die man nur nehmen kann.... Denn da schlägt egal was man verbockt hat, es immer voll rein.

Sicherheitsgruende ahoi.

Wenn Sie DGEMM nehmen, würden wohl schon 1 TFlop/s bei unter 250W reichen um die 2,5 DP/Watt zu erreichen im Vergleich zu Fermi, müsste man jetzt nochmal genau die Tesla Specks nachschauen.

Ja die breite des Speicherbusses ist sehr interessant. Genau so interessant ist aber auch, ob Sie ebenfall Preemtive sheduling unterstützen wie GCN dies angeblich kann. Und eben die Größen der Caches. Damit kann man dann in Verbindung der daran hängenden #ALUs sagen, ob das Ding sich leichter auslasten lässt als Fermi, oder schwerer.

Also sprich ob die Datenlokalität im Vergleich zu Fermi eher steigen muss oder nicht für x% Auslastung.

Mir brennt aber vor allem gemeinsamer x86 Adressraum und preemtive Sheduling unter den Nägeln. Wenn das beides kommt wäre ich SEHR glücklich, egal was beim Rest genau bei rum kommt.

Es würde das Leben als Programmierer einfach in vielen Fällen sehr viel einfacher machen! Und wenn ich sehr sage, dann meine ich auch wirklich SEHR!

Da es mit Kepler Tesla Verfuegbarkeit wohl vor Q3 nichts werden wird, ist es noch viel zu frueh schon alle Karten auf den Tisch zu legen und schon gar nicht irgend ein Risiko eingehen so lange der chip noch nicht in Produktion liegt. Von der einen Seite hast Du immer wieder gemeckert dass NV ihren anfangs verprochenen Mist fuer Tesla Fermi nicht einhalten konnte, eben weil sie zu frueh ihre Klappe aufgemacht hatte und jetzt meckerst Du dass sie zu still sind. Kein IHV wird es nie allen recht machen koennen; so viel sollte klar sein.

Mir ist es auch persoenlich lieber dass jeglicher IHV dezent die Klappe ueber Einzelheiten haelt bis er sich wirklich ueber zumindest dass was veroeffentlicht wird voll sicher ist.

Gipsel
2012-01-16, 01:23:03
Wenn Sie DGEMM nehmen, würden wohl schon 1 TFlop/s bei unter 250W reichen um die 2,5 DP/Watt zu erreichen im Vergleich zu Fermi, müsste man jetzt nochmal genau die Tesla Specks nachschauen.Die ersten Teslas hatten 515 GFlop/s theoretischen Peak, wovon man best case bei DGEMM so grob 70% oder so nutzen konnte, also ~360 GFlop/s. Mit den 1 TFlop/s kommt das also schon recht gut hin. NV hat ja erwähnt, daß das Verhältnis von nutzbarer Leistung zur Peakleistung bei DGEMM hochgehen soll (spricht eigentlich kaum was dagegen, daß man 90+% erreichen kann). Also wenn man nur das nimmt, würden wirklich 1 TFlop/s Peak bereits ausreichen.

V2.0
2012-01-16, 06:57:04
Wer im großen Umfang Kepler für Tesla kaufen will und ein entsprechendes Budget hat, kann sich durchaus heute schon sehr eindeutige Angebote besorgen....

Skysnake
2012-01-16, 08:46:35
Sicherheitsgruende ahoi.

:confused:


Da es mit Kepler Tesla Verfuegbarkeit wohl vor Q3 nichts werden wird, ist es noch viel zu frueh schon alle Karten auf den Tisch zu legen und schon gar nicht irgend ein Risiko eingehen so lange der chip noch nicht in Produktion liegt. Von der einen Seite hast Du immer wieder gemeckert dass NV ihren anfangs verprochenen Mist fuer Tesla Fermi nicht einhalten konnte, eben weil sie zu frueh ihre Klappe aufgemacht hatte und jetzt meckerst Du dass sie zu still sind. Kein IHV wird es nie allen recht machen koennen; so viel sollte klar sein.

Ja, da haste irgendwie Recht, ich seh da aber einen Unterschied, ob ich sag wir bekommen XY Flop bei UZ Watt und son Quark, oder ob ich sag: Hey wir werden x86 Adressraum haben, werden Preemtive Sheduling haben, werden die Caches vergrößern etc. Da weiß man praktisch alles, aber noch nicht wie genau die Sache aussieht, da man eben weder Taktraten noch Stromverbrauch kennt, was am Ende für den GPGPU-Markt die Knackpunkte sind.


Mir ist es auch persoenlich lieber dass jeglicher IHV dezent die Klappe ueber Einzelheiten haelt bis er sich wirklich ueber zumindest dass was veroeffentlicht wird voll sicher ist.
Ja, dann aber bitte Konsequent. Mir gehen halt diese 2,5x DP/W nicht aus dem Kopf raus... Das kann halt extreme Leistungsexplosion bedeuten, oder eben 0 Leistungssteigerung, dafür aber eben massig weniger Energiebedarf.

1. ist auch für Gamer gut, 2. naja, find ich nicht soo pralle, weil ich irgendwo doch auch noch 20% Gamer bein ;D


Die ersten Teslas hatten 515 GFlop/s theoretischen Peak, wovon man best case bei DGEMM so grob 70% oder so nutzen konnte, also ~360 GFlop/s. Mit den 1 TFlop/s kommt das also schon recht gut hin. NV hat ja erwähnt, daß das Verhältnis von nutzbarer Leistung zur Peakleistung bei DGEMM hochgehen soll (spricht eigentlich kaum was dagegen, daß man 90+% erreichen kann). Also wenn man nur das nimmt, würden wirklich 1 TFlop/s Peak bereits ausreichen.
Jup, wie gesagt, das sollte ausreichen, wenn man die Leistungsaufnahme konstant lässt.

Und weißt du was?

Jetzt nehm mal nicht DGEMM sondern DGSMM (stimmt das so?), also Matrix Vektor Multiplikation würde dir eventuell sogar noch deutlich weniger reichen. Das ist nämlich völlig Bandbreitenlimitiert durch den Hauptspeicher.

Ok wart mal, das geht nicht.... Du verwendest die Daten da gar nicht nicht :freak: Okok vergiss das. Da hängste sogar komplett an der Bandbreite des Speichers, und da wird man keine doppelte Perf/W sehen, es sei denn Sie bringen den RAM aufs Package mit Interposer, dann besteht die Chance, aber daran glaub (hoffentlich) wohl niemand.

Also bleibts bei DGEMM. Man müsste mal ausrechnen, wie groß die Caches sein müssten, um bei 1TFlop genug Bandbreite zu haben. Wird wohl auf so etwas wie doppelt so große Caches wie bei Fermi raus laufen. Fänd ich wirklich sehr geil, wäre auf der anderen Seite aber auch ziemlich langweilig. Ich dürfte mich aber eigentlich dann nicht beschweren, ich ich genau das ja immer gefordert habe ;D

ann4informer6
2012-01-16, 12:16:02
http://imageshack.us/f/855/imag0228u.jpg/


P.S.

Ich will meinen Ruf nicht ruinieren falls das nicht echt ist, daher ein neuer Account ...

... was meint ihr zu der Folie?

boxleitnerb
2012-01-16, 12:23:21
Sieht fake aus. Crysis 2 und CUDA? Das hat weder PhysX noch CUDA-Effekte wie Just Cause 2.
Und dann immer dieses GTR. Was soll das sein? Alle Karten heißen seit Jahren GT oder GTX.

ann4informer6
2012-01-16, 12:32:44
Sieht fake aus. Crysis 2 und CUDA? Das hat weder PhysX noch CUDA-Effekte wie Just Cause 2.
Und dann immer dieses GTR. Was soll das sein? Alle Karten heißen seit Jahren GT oder GTX.

Ist CUDA GPU nicht einfach so bezeichnung? Also für die Karten?
Ich glaube nicht, dass das direkt auf die spiele bezogen ist.
Wenn ich mich täusche sag es, will keinesfalls einen fake in schutz nehmen.

boxleitnerb
2012-01-16, 12:36:29
CUDA wird eher mit GPGPU in Verbindung gebracht. Ich wüsste nicht, dass ich das jemals auf einer Folie mit Spielebenchmarks gelesen hätte. Okay, die GPUs haben sog. CUDA-Cores. Dennoch wäre die Bezeichnung in diesem Zusammenhang merkwürdig.
Mehr noch irritiert mich aber eben der Zusatz GTR.

ann4informer6
2012-01-16, 12:39:07
Hm ja das GTR ist ungewöhnlich.
Die GTX hat auch nur eine 770. Macht zwar in sich sinn, aber ist .... anders.

Skysnake
2012-01-16, 12:42:26
Würde nur Sinn machen, wenn die GTX770 auch noch auf dem GK104 aufbauen würde, genau wie die GTX760, nur eben mit bis ans limit geprügelten Taktraten und die GTR780 dann der GK1x0 wäre, was aber nichts anderes als ein GK104 per Interposer wäre.

Ziemlich viele "wäre", wie du siehst. Ich halte die Folie daher für einen Fake.

boxleitnerb
2012-01-16, 12:44:23
GK104 per Interposer? Wann stirbt das Gerücht endlich, dass GK1x0 2x GK104 ist?

ann4informer6
2012-01-16, 12:46:10
es könnte auch sein, dass der GK104 nicht drauf ist. also, dass
- GK104 zwischen GTX 580 und GTX 770 liegt
- GTX 770 ist GK100
- GTR 780 ist 2x GK104
- irgendwann kommt dann eine GTR790 mit 2x GK100

Aber da sind auch viele "wäre". Zwischen den Zeilen sozusagen. :(

Don-Roland
2012-01-16, 12:53:06
http://imageshack.us/f/855/imag0228u.jpg/


P.S.

Ich will meinen Ruf nicht ruinieren falls das nicht echt ist, daher ein neuer Account ...

... was meint ihr zu der Folie?

welchen Ruf?

AnarchX
2012-01-16, 13:34:03
Mal etwas aus bisher verlässlicher Quelle:

NVIDIA GTX 680的一些小道消息

2月估计就能出来,原计划是3月,看来老黄也不希望HD7900占据了28nm的风光;
性能和HD7970差不多,上市能有多少差异不好说,得看驱动,但大家基本上可以视为同一水平的两个产品.
目前的核心频率780MHz,显存2GB.

NVIDIA GTX 680 in some of the gossip

Estimated to be able to come out in February, the original plan in March, it appears Huang do not want HD7900 28nm accounted for the scenery;
Similar performance and HD7970, listing how many differences can not say, depends on the drive, but we basically the same level as the two products.
The current core clock 780MHz, memory 2GB.
http://www.chiphell.com/thread-346223-1-1.html

Nur 780MHz und vergleichbare Leistung zur HD 7970? :|
Oder GK104 = GTX 680? Mit vielleicht 1536SPs @780MHz wäre man auch jenseits der 2 TFLOPs.

V2.0
2012-01-16, 13:35:56
similar performance to 7970 :rolleyes: :|

AnarchX
2012-01-16, 13:39:18
Bis auf die 780MHz klingt es nach bekannten GK104-Gerüchten/Informationen.

Weiter unten sagt er noch, dass es ein Hard-Launch im Februar sei und man die Kartons schon drucken würde.

boxleitnerb
2012-01-16, 13:41:39
Also zieht man Kepler auch vor von März auf Februar. Wäre denkbar, dass man das Namensschema ändert (jede Karte +10?) Man wird bei gescheiten Yields sicher eine noch flottere Karte bringen.

MorPheuZ
2012-01-16, 13:47:55
Was wäre wenn wir gar nie einen GK100 sehen werden. Sondern der Hot Dog erst mit GK110 (GTR)780) was dann bereits der refresh währe. Was dann heissen würde dass der gk104 ev. doch als GTX680 rauskommet.

AnarchX
2012-01-16, 13:48:57
Bei Digitimes gab es auch heute noch ein paar Gerüchte zu Kepler:
[...]
Nvidia, considering the yield rates of the 28nm process and its inventory levels, plans to officially release its 28nm Kepler in April, at the latest, according to sources from graphics card makers.
[...]
Nvidia is set to release several 28nm Kepler-based GPUs including GK104, which will replace the existing GeForce GTX 560Ti; GK107, targeting the entry-level PC market; GK106, targeting the mid-range to entry-level market; GK110, which is equipped with two GK104 GPUs; and the highest-end GK112, which may be released in the fourth quarter or 2013.
[...]
http://www.digitimes.com/news/a20120116PD210.html

Wobei das wieder ein Aufgriff der 4Gamer-Spekulation scheint.

Da ist Napoleon imo eine bessere Quelle.

Hugo78
2012-01-16, 13:49:02
welchen Ruf?
Eventuell ist er jemand der auch öfter mal einen "GPU-Z" Screen findet. X-D

Bis auf die 780MHz klingt es nach bekannten GK104-Gerüchten/Informationen.

Naja, nicht ganz. *g*
Also GK104 kommt mit 3,1Mrd. Transitoren, 1536 ALUs @ 600 - 700Mhz ?
Oder in welche Richtung geht deine Infolage?

Am Ende kommt GK104 doch mit XDR2 und 28HPL. ;D

Dural
2012-01-16, 13:52:36
Was wäre wenn wir gar nie einen GK100 sehen werden. Sondern der Hot Dog erst mit GK110 (GTR)780) was dann bereits der refresh währe. Was dann heissen würde dass der gk104 ev. doch als GTX680 rauskommet.

es sieht schon lange danach aus und es würde mich auch überhaupt nicht wundern wenn GK104 die hot clocks noch hat ;)

guest_29132
2012-01-16, 14:07:59
... was meint ihr zu der Folie?

Nen Fake - schräg vom Monitor abgelichtet - bleibt ein Fake. :-/

mapel110
2012-01-16, 14:30:54
Traue keinem Bild eines billigen HTC-Handys. ^^

Und 780 Mhz wäre wohl unrealistisch niedrig.

boxleitnerb
2012-01-16, 14:32:58
Traue keinem Bild eines billigen HTC-Handys. ^^

Und 780 Mhz wäre wohl unrealistisch niedrig.

Für einen sehr breiten Chip vielleicht nicht.

Seph
2012-01-16, 14:37:24
Würdet ihr auf die neuen warten oder jetzt ne 560TI kaufen? Habe auch nicht wirklich Lust mehr als 220€ auszugeben...

boxleitnerb
2012-01-16, 14:46:01
220, ich glaub das wird vor Sommer nix.

Seph
2012-01-16, 14:49:23
Dann nehm ich die 560TI OC-Variante, für 1 bis 1,5 Jahre sollte die noch ok sein, oder?

boxleitnerb
2012-01-16, 15:04:48
Was soll man dir da antworten? Ich kenn deine Ansprüche ja nicht. Ich persönlich würde noch auf GK104 warten. Wenn das eine richtig geile Karte wird, beißt du dir wegen 2 Monaten und/oder 100 Euro in den Arsch.

guest_29132
2012-01-16, 15:06:06
Ok wofür? Ich spiel auf LANs mit ner Quadro FX 770M, anderen wäre selbst ne GTX 580M (SLi) nicht schnell genug. Das sieht jeder anders.

dildo4u
2012-01-16, 15:07:59
Was soll man dir da antworten? Ich kenn deine Ansprüche ja nicht. Ich persönlich würde noch auf GK104 warten. Wenn das eine richtig geile Karte wird, beißt du dir wegen 2 Monaten und/oder 100 Euro in den Arsch.
Die wird NV in die Nähe der 7950 drücken um überhaupt was zu haben von daher sind das minimum 350€.

boxleitnerb
2012-01-16, 15:11:55
Es gibt ja Ti und non-Ti Varianten mit mehr und weniger Speicher (vermutlich). 350 wäre bissl viel für eine Performancekarte - sofern das eine solche wird. Vielleicht ändert sich ja das Gefüge komplett, wer weiß.

Schnitzl
2012-01-16, 15:56:46
Wie wärs denn jetzt ne 560 als Übergang und die dann später zur PhysX-Karte zu "degradieren"?
Das überleg ich mir gerade da ich nicht glaube dass da so bald was kommt :(
Wäre das was oder ist das Schwachsinn?
(für einen neuen SB-E-Rechner)

MfG

boxleitnerb
2012-01-16, 16:04:38
You've all probably read (especially on Fudzilla) VGAs with graphics architecture Kepler is postponed to April, May etc. It's all just BS and Camouflage maneuver. Launch is literally in a few weeks/days, all this is just to appease the competitor AMD ... before crushing blow!

http://www.obr-hardware.com/2012/01/kepler-is-on-track.html

Skysnake
2012-01-16, 16:06:03
Jaja, OBR schreibt viel wenn der Tag lang ist. Ich sag nur so bad 7970 und was der alles an Dünnpfiff rausgelassen hat.

boxleitnerb
2012-01-16, 16:07:44
Was für Dünnpfiff? Soviel flotter als die 580 ist sie ja nun nicht. Nur das OC-Potential hat er verschwiegen, aber sonst hatte er wieder mal Recht.

Schnitzl
2012-01-16, 16:12:12
Wäre schon toll wenn das diesen Monat noch was wird :)
Die Hoffnung stirbt zuletzt ^^

Lyka
2012-01-16, 16:12:57
http://www.obr-hardware.com/2012/01/kepler-is-on-track.html

na na na :freak:

woher hat denn der Mensch diese magischen Werte:redface: (bin noch immer verärgert, dass es so lang dauern soll, wollte mir ja schon im Dezember eine 560 ti kaufen :frown:)

Blediator16
2012-01-16, 16:14:37
Was für Dünnpfiff? Soviel flotter als die 580 ist sie ja nun nicht. Nur das OC-Potential hat er verschwiegen, aber sonst hatte er wieder mal Recht.

Dünnpfiff ist es trotzdem. Er hatte eine 50/50 Chance und hat nichtmal wirklich getroffen. Vom OC Potential nichtmal ein Wort verloren. Hätte jeder Affe schätzen können.
Und alsob AMD sich "appeasen" lässt. Bei Fud war zu lesen, dass die Kepler mit der 7950 ende Jan kommen soll, also nichts von April zu lesen. April war im Gespräch mit den mobilen Varianten und IB. Schnellere 7980(?) Modelle bereits scheinbar in Planung. Auf Reddit hat ein AMD Ingenieur ein IAMA gemacht, wo er sagte, dass egal welcher IHV sich nie ausruhen sollte und sie immer weiterarbeiten. Dieses Gewäsch von NV/AMD in Sicherheit wiegen ist immer Müll, der sich beim Spekulieren ausgedacht wird.

Käsetoast
2012-01-16, 16:15:58
Was für Dünnpfiff? Soviel flotter als die 580 ist sie ja nun nicht. Nur das OC-Potential hat er verschwiegen, aber sonst hatte er wieder mal Recht.
Naja, aber ich glaube er war's doch auch, der die 6000er Serie stets als "shitty slow" tituliert hat. Generell würde ich OBR News stets sehr skeptisch betrachten und auf seine "Kraftausdrücke" sowieso keinen Pfifferling geben...

Skysnake
2012-01-16, 16:22:38
Dünnpfiff ist es trotzdem. Er hatte eine 50/50 Chance und hat nichtmal wirklich getroffen. Vom OC Potential nichtmal ein Wort verloren. Hätte jeder Affe schätzen können.
Und alsob AMD sich "appeasen" lässt. Bei Fud war zu lesen, dass die Kepler mit der 7950 ende Jan kommen soll, also nichts von April zu lesen. April war im Gespräch mit den mobilen Varianten und IB. Schnellere 7980(?) Modelle bereits scheinbar in Planung. Auf Reddit hat ein AMD Ingenieur ein IAMA gemacht, wo er sagte, dass egal welcher IHV sich nie ausruhen sollte und sie immer weiterarbeiten. Dieses Gewäsch von NV/AMD in Sicherheit wiegen ist immer Müll, der sich beim Spekulieren ausgedacht wird.
Das trifft perfekt.

Naja, aber ich glaube er war's doch auch, der die 6000er Serie stets als "shitty slow" tituliert hat. Generell würde ich OBR News stets sehr skeptisch betrachten und auf seine "Kraftausdrücke" sowieso keinen Pfifferling geben...
Nicht nur die 6k auch die 7k Serie ist ja "shitty slow" :rolleyes:

Er ist halt der AMD Charlie, nur noch etwas schlimmer -.- Charlie hat zumindest noch Niveau

Blediator16
2012-01-16, 16:28:11
Wurde denn bei einer anderen Einführung negatives über "sich selbst" verbreitet wie OBR jetzt Fuad vorwirft?

Iruwen
2012-01-16, 16:32:01
Charlie hat zumindest noch Niveau

Also bitte...

[dzp]Viper
2012-01-16, 16:33:58
http://www.obr-hardware.com/2012/01/kepler-is-on-track.html
Die Seite is ja die totale AMD-Bash Seite :ulol:
Aber lustig allemal :D

boxleitnerb
2012-01-16, 16:59:10
Können wir zum Thema zurückkommen? Diskutiert OBR und Charlie in einem extra Thread, wenn ihr müsst.

3DMark11: P7422
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5036246&viewfull=1#post5036246

Das wäre exakt 10% über der 580.

Ronny145
2012-01-16, 17:03:07
3DMark11: P7422
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5036246&viewfull=1#post5036246

Das wäre exakt 10% über der 580.


GPU Übertaktung wäre naheliegend wenn der Typ CPU und RAM bis zum geht nicht mehr übertaktet. Davon abgesehen gehört eine Quellenangabe dazu.

boxleitnerb
2012-01-16, 17:03:47
Sag das dem, er hat keine gepostet. Ich hab ihn schon gefragt.

Zergra
2012-01-16, 17:06:05
Können wir zum Thema zurückkommen? Diskutiert OBR und Charlie in einem extra Thread, wenn ihr müsst.

3DMark11: P7422
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5036246&viewfull=1#post5036246

Das wäre exakt 10% über der 580.
sieht ziemlich nach nem Fake aus ... und wenns wirklich die 780GTX wäre, wäre das eine ziemlich schwache Leistung :O

dildo4u
2012-01-16, 17:09:12
sieht ziemlich nach nem Fake aus ... und wenns wirklich die 780GTX wäre, wäre das eine ziemlich schwache Leistung :O
Wenn jemand jetzt so ne Karte hat ist es ne 760Ti die 780 kommt definitiv später.

boxleitnerb
2012-01-16, 17:10:36
Die GTX780...da musste ich jetzt mal herzhaft lachen!
Das sind ziemlich genau 50% über der 560Ti. Nochmal 10% mit Treibern, dann wären wir bei 60%. Bei gleicher Leistungsaufnahme wäre das sehr gut.

Zergra
2012-01-16, 17:12:36
Die GTX780...da musste ich jetzt mal herzhaft lachen!
klar denk ich auch nicht wirklich, aber der einzige anhaltspunkt ist das, das das in dem "780GTX" Thread gepostet wurde... ich glaube das auch nicht wirklich, wie gesagt wohl ein Fake

Hood
2012-01-16, 17:13:02
Quelle warscheindlich
http://www.chiphell.com/thread-346223-7-1.html

boxleitnerb
2012-01-16, 17:16:17
^thx.
Oder ein kollosaler Treiberfuckup. Aber das wäre ungewöhnlich. Per Treiber mal 30-50% :D

Bucklew
2012-01-16, 17:25:21
Er ist halt der AMD Charlie, nur noch etwas schlimmer -.- Charlie hat zumindest noch Niveau
Charlie und Niveau? ;D

Das einzige Niveau bei Charlie ist der Scheck, den ihn AMD schickt jeden Monat.

dildo4u
2012-01-16, 17:26:08
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/26/#abschnitt_3dmark_11

Denke die 760Ti steht zur 780 wie die 560Ti zur 580(+40%),damit müsste die 780 bei ~10500 Punkte liegen.Wenn man von 7400 hochrechnet.

V2.0
2012-01-16, 17:30:38
http://www.obr-hardware.com/2012/01/kepler-is-on-track.html

Klar und Hardlaunch wohl auch noch ;D

boxleitnerb
2012-01-16, 17:31:59
Klar und Hardlaunch wohl auch noch ;D

Hast du handfeste Informationen, die was anderes behaupten?

Zergra
2012-01-16, 17:33:45
Klar und Hardlaunch wohl auch noch ;D
Lol :D der weiß ja wohl alles... aber mitlerweile ist er ja auch nicht mehr ernstzunehmene... vorallem was der alles vor dem Tahiti Launch Geleaket hat :D

y33H@
2012-01-16, 17:34:05
Bei der GTX 580 und 8800 GTX war das Zeug auch *plopp* da :biggrin:

@ Zergra

Wo hatte er denn Unrecht im Detail?

Zergra
2012-01-16, 17:35:18
Bei der GTX 580 und 8800 GTX war das Zeug auch *plopp* da :biggrin:

@ Zergra

Wo hatte er denn Unrecht im Detail?
naja die 580GTX war ja nicht wirklich eine neue Karte sondern nur eine Leicht überarbeitete

Skysnake
2012-01-16, 17:38:44
Charlie und Niveau? ;D

Das einzige Niveau bei Charlie ist der Scheck, den ihn AMD schickt jeden Monat.
Zumindest liest man bei ihm nicht so ne vulgäre Ausdrucksweise, was ich schon mal als angenehmer empfinde für meine Augen.

Mit dem zweiten Teil hast du aber wahrscheinlich sogar Recht ;) Das bestreitet aber ja auch keiner.

Zu den Werte:
Hmm.. keine Ahnung, was man davon halten soll. Könnte der GK104 sein für die GTXx60. Das würde auch ganz gut passen, denn damit wäre man hinter der 7970.

Die gepimpte 7970 würde dann wohl wieder an die GTXx70 ran kommen, und sich freudig mit der Balgen und die GTXx80 ist dann wieder ein Stück vorne weg, aber halt auch deutlich später dran.

Würde doch alles wie die Faust aufs Auge passen.

Ailuros
2012-01-16, 17:38:49
3DMark11: P7422
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5036246&viewfull=1#post5036246

Das wäre exakt 10% über der 580.

Alt; sonst ist der xtreme score um einiges interessanter von dem was ich hoere.

Zum Charlie oder sonst noch wen Kaffeekranz moechte ich Euch Damen bitte in das gossip forum umzusteigen.

Ailuros
2012-01-16, 17:43:43
Quelle warscheindlich
http://www.chiphell.com/thread-346223-7-1.html

http://forum.beyond3d.com/showpost.php?p=1612541&postcount=851

Originally Posted by minpayne
RE: GTX680 (not sure if this is the final model number)

May be seen as early as in February (not paper launch but retail), as Mr Huang doesn't like the HD7970 to shine most in the 28nm era.

The performance would be around the same as the HD7970, depending on the drivers.

So far the core clock is at 780MHz, with 2GB vram.

Source is from an AIC manufacturer, saying that even the retail packages are being printed now.

Mehr als die Haelfte ist natuerlich wieder falsch...

Bucklew
2012-01-16, 17:44:10
Klar und Hardlaunch wohl auch noch ;D
Von einem Hardlaunch kannst du ausgehen.

Ailuros
2012-01-16, 17:48:08
Von einem Hardlaunch kannst du ausgehen.

Dass NV mit Absicht schon seit einiger Zeit irrefuehrt will ja keiner glauben. Klar ich hab es auch nur gehoert ergo "hearsay", aber nicht alle AIBs sind darueber informiert sondern nur eine Anzahl von launch partners so wie es aussieht. NV hatte vertraulich in 2011 an einige Seiten vermittelt dass 104 im Maerz und 110 im Mai/Juni ankommt. Eigentlich wollten sie sogar mit spaet Januar und dem 104 ueberraschen, aber nachdem sie bei CES still gehalten haben sieht es eher nach Februar aus.

V2.0
2012-01-16, 17:57:50
Von einem Hardlaunch kannst du ausgehen.

Aber nicht in den nächsten Tagen. Nächsten Monat würde ich glauben...

Iruwen
2012-01-16, 17:59:24
Die nächsten Tage glaubt ja nichtmal NV :D

Bucklew
2012-01-16, 18:03:26
Aber nicht in den nächsten Tagen. Nächsten Monat würde ich glauben...
Redet ja auch niemand von Morgen :rolleyes:

Hübie
2012-01-16, 18:13:46
http://forum.beyond3d.com/showpost.php?p=1612541&postcount=851
Mehr als die Haelfte ist natuerlich wieder falsch...

Das die Verpackungen gedruckt werden ist aber richtig ;)

Aber nicht in den nächsten Tagen. Nächsten Monat würde ich glauben...

Hat auch niemand was von den nächsten Tagen gesagt. Valentinstag nicht vergessen ;) Da sind die Frauen an der Reihe!

AnarchX
2012-01-16, 18:14:06
Können wir zum Thema zurückkommen? Diskutiert OBR und Charlie in einem extra Thread, wenn ihr müsst.

3DMark11: P7422
http://www.xtremesystems.org/forums/showthread.php?277763-%E2%80%9CKepler%E2%80%9D-Nvidia-GeForce-GTX-780&p=5036246&viewfull=1#post5036246

Das wäre exakt 10% über der 580.

Die nicht geschwärzten GTs sind wohl höher als bei einer 1,1GHz 7970: http://www.overclockers.at/attachment.php?attachmentid=174500&fullpage=1
Selbst eine 950Mhz GTX 580 lässt man da weit hinter sich: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9085686#post9085686

:|
edit: Genaue Quelle: http://www.chiphell.com/forum.php?mod=viewthread&tid=346223&page=7#pid10613945

"上氮砲某款顯卡P分成績" "Graphics cards on a nitrogen gun score points P"
Also wohl ein LN2-OC.

Ailuros
2012-01-16, 18:23:44
Aber nicht in den nächsten Tagen. Nächsten Monat würde ich glauben...

Selbst wenn sie bei CES etwas vorgestellt haetten waere es nie zu einem hard launch bevor Ende Januar gekommen. Naechster Monat ist trotz allem um einiges frueher als viele momentan glauben bzw. verdauen koennen (und damit bist natuerlich nicht Du gemeint sondern einige "Top-Redakteure" dort draussen die in ihrer Mehrzahl immer noch nicht durchblicken).

Hübie
2012-01-16, 18:26:44
Das werden die Top-Redakteure schon merken wenn lustige Pakete mit Folien und Karten eintreffen ;D

Orbmu2k
2012-01-16, 18:31:05
edit: Genaue Quelle: http://www.chiphell.com/forum.php?mod=viewthread&tid=346223&page=7#pid10613945

"上氮砲某款顯卡P分成績" "Graphics cards on a nitrogen gun score points P"
Also wohl ein LN2-OC.

Fake, das ist ne AMD Karte. Sieht man noch im PS wenn man mal mit den Gradiationskurven spielt. :D

http://img.techpowerup.org/120116/Shot-20120116-182756.jpg

Hood
2012-01-16, 18:32:33
Photoshop^^
Danke für die Aufklärung

M4xw0lf
2012-01-16, 18:33:26
Fake, das ist ne AMD Karte. Sieht man noch im PS wenn man mal mit den Gradiationskurven spielt. :D

http://img.techpowerup.org/120116/Shot-20120116-182756.jpg

Das steht da sogar vermutlich drüber:跟7970的可比性
心裡有數

Google translate: "Comparability with the 7970
Idea in mind"

Hmm, dann solls wohl doch was anderes sein ^^

V2.0
2012-01-16, 18:35:59
Das werden die Top-Redakteure schon merken wenn lustige Pakete mit Folien und Karten eintreffen ;D

Bei uns @work kommen solche pakete immer wenn ich im Urlaub bin. Würde passen...:D

Peter Gräber
2012-01-16, 19:14:41
Das werden die Top-Redakteure schon merken wenn lustige Pakete mit Folien und Karten eintreffen ;D

Irgendwie habt ihr da falsche Vorstellungen. In aller Regel wissen wir schon Wochen zuvor, wann etwas kommen wird und in aller Regel nerven wir dann auch entsprechend die Hersteller, wenn die Zeit abläuft, wo die Sendung denn bitte bleibt.

Hugo78
2012-01-16, 19:24:18
Irgendwie habt ihr da falsche Vorstellungen. In aller Regel wissen wir schon Wochen zuvor, wann etwas kommen wird und in aller Regel nerven wir dann auch entsprechend die Hersteller, wenn die Zeit abläuft, wo die Sendung denn bitte bleibt.

Und wie war das denn bei der GTX 580?

y33H@
2012-01-16, 19:28:45
Peter sagte, in aller Regel. Und diese wird bekanntlich durch Ausnahmen bestätigt. Das Event der HD 7970 etwa war vier Wochen vor dem (ursprünglichen) Launch.

Hübie
2012-01-16, 19:29:06
Irgendwie habt ihr da falsche Vorstellungen. In aller Regel wissen wir schon Wochen zuvor, wann etwas kommen wird und in aller Regel nerven wir dann auch entsprechend die Hersteller, wenn die Zeit abläuft, wo die Sendung denn bitte bleibt.

IaR - wie du schreibst ;) Ich meinte das eh nicht allzu ernst. Aber mal Hand aufs Herz: Wusstet ihr immer 4 Wochen vorher bescheid? :cool:

Hugo78
2012-01-16, 19:32:51
Peter sagte, in aller Regel. Und diese wird bekanntlich durch Ausnahmen bestätigt. Das Event der HD 7970 etwa war vier Wochen vor dem (ursprünglichen) Launch.

Ja ebend, wenn AMD in der Woche vor Weihnachten ein paar ES Samples umlabelt und zum Paperlauchen an die Redakteure verteilt, dann ...

Screemer
2012-01-16, 19:38:30
Die GTX780...da musste ich jetzt mal herzhaft lachen!
Das sind ziemlich genau 50% über der 560Ti. Nochmal 10% mit Treibern, dann wären wir bei 60%. Bei gleicher Leistungsaufnahme wäre das sehr gut.aha das ist also sehr gut,wenn aber AMD ne Karte bringt die im gleichen Bereich vor ihrem Vorgänger liegt und noch weniger Energieverbrauch hat, dann ist die Karte nix wert....

Ailuros
2012-01-16, 19:39:31
Ich hab "Top Redakteure" mit Absicht mit Anfuehrungsstrichen erwaehnt.

boxleitnerb
2012-01-16, 19:51:38
aha das ist also sehr gut,wenn aber AMD ne Karte bringt die im gleichen Bereich vor ihrem Vorgänger liegt und noch weniger Energieverbrauch hat, dann ist die Karte nix wert....

Ich sehe da keine 60%. Und weniger Verbrauch auch nicht. Netter Versuch. Außerdem OT, hier geht es um Kepler. Wenn du über Tahiti sprechen willst, mach das im entsprechenden Thread.

Bucklew
2012-01-16, 20:12:30
Ich hab "Top Redakteure" mit Absicht mit Anfuehrungsstrichen erwaehnt.
Wie soll man denn bei dir auch zwischen den Zeilen lesen können, wenn es da nur eine Zeile gibt? ;D

Tarkin
2012-01-16, 20:13:32
Peter sagte, in aller Regel. Und diese wird bekanntlich durch Ausnahmen bestätigt. Das Event der HD 7970 etwa war vier Wochen vor dem (ursprünglichen) Launch.

2 1/2 Wochen, nicht 4

Reviews am 22.12. - 09.01. Verfügbarkeit

boxleitnerb
2012-01-16, 20:15:02
Event != Reviewtag

Bucklew
2012-01-16, 20:16:08
2 1/2 Wochen, nicht 4

Reviews am 22.12. - 09.01. Verfügbarkeit
"Das Event der HD 7970 etwa war vier Wochen vor dem (ursprünglichen) Launch."

dargo
2012-01-16, 21:38:19
Die GTX780...da musste ich jetzt mal herzhaft lachen!
Das sind ziemlich genau 50% über der 560Ti. Nochmal 10% mit Treibern, dann wären wir bei 60%. Bei gleicher Leistungsaufnahme wäre das sehr gut.
[Klugscheißermodus on]

Das wären dann + 65%.

[Klugscheißermodus off]

Die gute alte Prozentrechnung. :D

Screemer
2012-01-16, 21:43:17
@ boxleitnerb: Also ich seh im review schnitt bei 1080p mit aa und af 50 bis 60 Prozent bei knapp gleicher bis niedrigererLeistungsaufnahme. Zugegeben gibts auch mal 5W mehr (ht4u). Also hör auf mich anzuflamen, wenn ich deine aussagen in Bezug auf ein Produkt dass in diesem thread diskutiert wird ansprechen. Doch jetzt genug ot, schreib mir ne Antwort doch bitte als pm.

y33H@
2012-01-16, 22:52:05
2 1/2 Wochen, nicht 4Willst du nur trollen? Der ursprüngliche Launch-Termin war der 09.01.2012 und Techday war am 08.12.2011. Was rund vier Wochen sind :rolleyes:

Ailuros
2012-01-17, 00:44:29
Es reicht so langsam mit dem OT Zeug. Das Thema hier ist Kepler und von jetzt ab wird jeglicher irrelevante Beitrag einfach geloescht.

Ailuros
2012-01-17, 01:50:55
Ok neuer Beitrag...ich darf mich wohl auf einigen "meiner" bisherigen "Lorbeeren" ausruhen. Es sieht gut aus :smile:

Gipsel
2012-01-17, 02:21:47
Nun, wenn man sich Tahiti ansieht, scheint ja zumindest der Prozeß recht gut zu funktionieren. Wenn nV nicht ganz so konservativ rangeht wie AMD (sehr hohe Spannung für den gebotenen Takt, deswegen geht bei der HD7970 in beide Richtungen so viel, also OC oder Undervolting), können die das vielleicht auf Anhieb noch besser ausnutzen.

Ailuros
2012-01-17, 02:36:58
Nun, wenn man sich Tahiti ansieht, scheint ja zumindest der Prozeß recht gut zu funktionieren. Wenn nV nicht ganz so konservativ rangeht wie AMD (sehr hohe Spannung für den gebotenen Takt, deswegen geht bei der HD7970 in beide Richtungen so viel, also OC oder Undervolting), können die das vielleicht auf Anhieb noch besser ausnutzen.

Ich hab so langsam Zweifel dass das finale Resultat im "roten" Frequenz-Bereich einer uebertakteten TahitiXT liegt.

Dabei nehmen im Hintergrund die Geruechte zu dass AMD tatsaechlich etwas spaeter an offizielle 1GHz TahitiXTs denkt. Irgendwie aber schon absurd da es stets den Abstand zu New Zealand schrumpft. Gleiches gilt natuerlich auch fuer NV. Es sieht eher danach aus als ob sie ihr originales Taktziel mit GK104 erreicht haben, aber am Ende doch ein klein bisschen weiter unten takten, wahrscheinlich um vendors Luftraum fuer custom GPUs frueher oder spaeter zu lassen, den Hobby-Overclockers genug Luftraum fuer Experimente zu lassen und einen logischen Abstand zu 110 zu behalten.

Gipsel
2012-01-17, 02:51:51
Mit "besser ausnutzen" muß ja nicht unbedingt hoher Takt gemeint sein. Wie gesagt kann man offenbar die HD7970 außer gut übertakten oft auch ziemlich stark undervolten, was den Stromverbrauch sehr deutlich senkt. AMD verschenkt also durch die recht hohe Spannung etwas Performance/Watt (was umgedreht zu Taktreserven führt).
Dies kann nV also mindestens beim GK104 anders machen, auch da sie noch GK110 darüber haben. Da besteht doch gar kein Grund den GK104 auf >225W prügeln, nur um sich vielleicht doch mit einem 1GHz Tahiti anlegen zu können. Um Tahiti zu schlagen, ist GK110 da.

V2.0
2012-01-17, 06:53:47
Spannung ist aber bei TSMC ein relevantes Thema um Yields konstant zu halten. 40nm schwankte auch im Streuungsbereich der selben GPU erheblich. Hätte man z.B. alle GF104 aussortiert, die zur GTX460 nur mit mehr als 1V taugten hätte man große Teile der Produktion entsorgen können. Bei Tahiti hilft die Spannung zusätzlich den OC Ergebnissen. Und selbst für NV mag dioe Option reizvoll sein SKUs zu erlauben, die zwar gegen 225W TDP tendieren aber eben auch an der Tahiti XT kratzen.

Ailuros
2012-01-17, 08:32:45
Spannung ist aber bei TSMC ein relevantes Thema um Yields konstant zu halten. 40nm schwankte auch im Streuungsbereich der selben GPU erheblich. Hätte man z.B. alle GF104 aussortiert, die zur GTX460 nur mit mehr als 1V taugten hätte man große Teile der Produktion entsorgen können. Bei Tahiti hilft die Spannung zusätzlich den OC Ergebnissen. Und selbst für NV mag dioe Option reizvoll sein SKUs zu erlauben, die zwar gegen 225W TDP tendieren aber eben auch an der Tahiti XT kratzen.

GK104 kratzt gegen TahitiXT sowieso nur stellenweise und handausgesuchten Applikationen (als ob Ihr nicht wissen wuerdet wie marketing normalerweise denkt...), das aber mit default TDP der wohl ueberhaupt nichts mit dem 2*6pin board factor zu tun hat.

V2.0
2012-01-17, 08:36:26
2 x 6Pin sagt ja auch nur dass die TDP irgendwo zwischen 140W und 225W liegen sollte. Für die Referenzkarte würde ich solide in der mitte schätzen.

Ailuros
2012-01-17, 08:39:17
2 x 6Pin sagt ja auch nur dass die TDP irgendwo zwischen 140W und 225W liegen sollte.

Der TDP ist um einiges niedriger als 225W.

AffenJack
2012-01-17, 08:41:35
... Gleiches gilt natuerlich auch fuer NV. Es sieht eher danach aus als ob sie ihr originales Taktziel mit GK104 erreicht haben, aber am Ende doch ein klein bisschen weiter unten takten, wahrscheinlich um vendors Luftraum fuer custom GPUs frueher oder spaeter zu lassen, den Hobby-Overclockers genug Luftraum fuer Experimente zu lassen und einen logischen Abstand zu 110 zu behalten.

Kann natürlich sein, aber es ist auch möglich, dass man aufgrund der TDP die Taktraten senken musste, wobei du da vll schon bescheid weißt. GK104 ist für mich eigentlich nen 2x6pin Design und dementsprechend sollte die TDP nen gutes Stück unter den hier mal erwähnten 225W sein, damit für overclocker noch etwas Luft ist. Partnerkarten für OC könnten dann ja 6+8pin verbauen. Ich will nicht wissen in welche neuen Verbrauchsregionen GK110 vorstößt, wenn GK104 225W bräuchte.

Edit:
Danke Ailuros, du hast meinen Post jetzt schon beantwortet.;)

Hübie
2012-01-17, 09:15:24
Naja zwischen TDP und reellem Verbrauch gibts kleine Unterschiede. Die 244 Watt typical consumption meiner GF110 sind etwas optimistisch ;)
Der Framelimiter drückt den Verbrauch erst gut runter...

Blediator16
2012-01-17, 13:04:04
OBR hat seinen letzten Beitrag zu Kepler etwas abgeändert. Hört sich unsicherer an als zuvor.

Hübie
2012-01-17, 13:53:29
Der Kerl kann mir langsam gestohlen bleiben ;D Was hat der noch mal tolles gemacht??

Ailuros
2012-01-17, 17:31:34
OBR hat seinen letzten Beitrag zu Kepler etwas abgeändert. Hört sich unsicherer an als zuvor.

Wusste er je wo es langgeht? GK104 hat genauso viel einen 384bit bus wie damals G92. Die moechtegern "Quellen" wissen eben nicht dass sie lediglich Fetzen vom originalen CES Material aufgeschnappt haben. NV will einen hard launch und dieser ist wohl in den naechsten Wochen nicht moeglich. Eine moegliche Alternative waere gewesen bald zu launchen und die beschissene Verfuegbarkeit mit einem idiotischen hohen Preis unter den Teppich zu kehren.

foenfrisur
2012-01-17, 17:42:16
also ich hätte nix gegen einen paperlaunch...
dann müsste sich hier keiner über so rohes zeug unterhalten.

aber paperlaunch ist ja so schlecht und böse....
dabei wird davon nix schneller oder langsamer verfügbar, außer informationen^^

mfg

Iruwen
2012-01-17, 17:45:18
Paperlaunch is wie Playboy lesen, erst heißmachen und dann gibts nix zum Anfassen.