PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kepler - 28nm - 2012


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31

Ailuros
2012-02-28, 21:19:25
Wie ich schon mal sagte, helfen Tahiti die 384Bit bei 4xMSAA mehr als bei 8xMSAA. Bei letzterem liegt nämlich das ROP-Limit tiefer (AMD bräuchte also überarbeitete ROPs um unter 8xMSAA mehr Vorteil aus der schnelleren Speichernbindung zu ziehen).

Nur fuer 8xMSAA entweder die zusaetzliche R&D Kosten fuer bessere ROPs oder einfach nur mehr heutige ROPs (48) waere schon grenzwertig Ueberfluss.

boxleitnerb
2012-02-28, 21:25:38
Weil es eine Art "turbo modus" anscheinend auf dem Ding gibt. Zumindest vendors sind mehr als froh ueber den Mist da es um einiges helfen wird fuer Spezial-Varianten. Der hoechste Verbrauch wird eben nicht bei =/>200W liegen fuer den Quark. Und ja mit diesem Zeug ist GK104 schon eine denkbare TahitiXT "Gefahr". Bei default duerfte sie nach wie vor zwischen PRO und XT liegen was die Leistung betrifft.


Interessant, also eine Art Overdrive.


Wuerde NV keine Quadros bzw. Teslas brauchen, wuerde die Notwendigkeit fuer einen so grossen chip sofort entfallen. HPC bzw. workstation haben zwar verdammt hohe Margen als Maerkte koennen aber von sich alleine ohne desktop solche Projekte nicht finanzieren. Deshalb pruegelt man auch solche chips mit einer Unzahl von rasters/trisetups bzw. ALUs voll.


Und die GTX580 Käufer rüsten für 20% auf, weil...? Streich die großen Chips, klatsche 384bit und +20% auf GK104 und es wird trotzdem nicht ausreichen, damit die Enthusiasten in Jubelstürme ausbrechen. Wenn ich allerdings zurückdenke zur prä-G80 Zeit, so war das Fortschrittstempo mitunter recht gemütlich...ohne die großen Chips wären wir jetzt vielleicht erst auf GTX470 Level oder noch niedriger.


Soll wohl ein Witz sein. Ich fress einen Schokoladen-besen wenn Tesla-Kepler selbst die GTX580 core-Frequenz erreichen wird.


Ostern kommt bald ;D
Natürlich war es ein Witz. Wenn man Tahiti XT mit GK110 um 30% schlägt, reicht das vollkommen. Sogar 20% würden reichen, man sollte aber einen gesunden Abstand wahren, nicht dass AMD dann eine XTX mit 1100-1200 MHz rausbringt, die mit GK110 gleichzieht, weil man zu konservativ war und dachte "die machen schon nix..."

mczak
2012-02-28, 21:31:55
Nur fuer 8xMSAA entweder die zusaetzliche R&D Kosten fuer bessere ROPs oder einfach nur mehr heutige ROPs (48) waere schon grenzwertig Ueberfluss.
Ich denke mehr ROPs würden auch sonst helfen. Belegen kann ich das allerdings nicht (gut man sieht das in den synthetischen Benchmarks das ist aber kein Beweis dass es auch in Spielen gross helfen würde).
Aber mehr ROPs sind halt auch nur wirklich sinnvoll wenn da zumindest der Rasterizer auch auf 48 Pixel/Takt ausgebaut würde. Möglicherweise gäbe es da auch noch andere interne Engpässe die man auch noch beheben müsste um die Daten intern auch wirklich verschieben zu können. Daher also wohl einfach zu viel Transistoraufwand (die ROPs allein wären wohl ein relativ geringes Problem).
Klar ist aber auch dass ein gk104 (so er denn wirklich mit 16 SMs und 4x8 oder allenfalls 2x16 Pixel Rasterizer kommt) in der Beziehung deutlich ausgewogener ist als gf104 (der ja trotz 32 ROPs bloss 16 Farbpixel / Takt ausgeben konnte).

Ailuros
2012-02-28, 22:41:12
Und die GTX580 Käufer rüsten für 20% auf, weil...? Streich die großen Chips, klatsche 384bit und +20% auf GK104 und es wird trotzdem nicht ausreichen, damit die Enthusiasten in Jubelstürme ausbrechen. Wenn ich allerdings zurückdenke zur prä-G80 Zeit, so war das Fortschrittstempo mitunter recht gemütlich...ohne die großen Chips wären wir jetzt vielleicht erst auf GTX470 Level oder noch niedriger.

Tja es liegt leider der clue im letztem Satz.

Ostern kommt bald ;D
Natürlich war es ein Witz. Wenn man Tahiti XT mit GK110 um 30% schlägt, reicht das vollkommen. Sogar 20% würden reichen, man sollte aber einen gesunden Abstand wahren, nicht dass AMD dann eine XTX mit 1100-1200 MHz rausbringt, die mit GK110 gleichzieht, weil man zu konservativ war und dachte "die machen schon nix..."

"Wenn" alles Plan laeuft und dem chip nichts im Weg steht, sind selbst 30% konservativ und ja das eben "nur" mit einem 384bit bus. Kepler ist kein refresh sondern eine neue Generation.

boxleitnerb
2012-02-28, 22:52:28
Wobei ich mich da nochmal korrigieren muss - AMDs Chips waren nie so groß mit Ausnahme von R600 und das ist heute doch eine ganz gute Marke. Also ja, ein bisschen weniger Performance wäre es von NV, aber nicht viel weniger.

Ist halt eine Frage der Wirtschaftlichkeit. Ich erwarte zwar auch so 70+% auf die 580, aber wenn man nicht muss, warum sich die Messlatte unnötig hoch setzen? Dann doch lieber die Frequenzen senken, mehr voll funktionsfähige Chips haben und trotzdem 500 Piepen für verlangen.

Skysnake
2012-02-29, 09:51:39
Bei Leistung/Watt schon. Damit aber dieses auch gueltig sein wird, muessen "ihre" binning yields auch die angepeilten Frequenzen bei der Massenproduktion erreichen koennen. Da sie aber dicht gemacht haben kann ich leider nichts weiteres erfahren. Dieses wurde aber ausdruecklich notiert, aber wie immer bleibt man natuerlich nur an einem Fetzen haengen ohne den ganzen Satz durchzulesen und den Inhalt auch richtig zu ueberdenken.

Also dann doch, was ich schon länger vermutet habe. nVidia hat das Selbe Problem wie AMD mit zu großer Streuung und daraus folgend zu hohen notwendigen Spannungen, was dann die Perf/W versaut. Die ENTSCHEIDENDE Frage ist nun, beziehen sich deine Verbrauchswerte auf die angepeilte Spannung, oder auf die aktuell notwendige, um genügend große binning Yealds zu bekommen???

Wenn es mit der angepeilten Spannung ist, kann der Perf/W Abstand geringer ausfallen zu AMD als aktuell noch erwartet, da diese eben die Spannung hoch gesetzt haben, um den Chip überhaupt auf den Markt zu bringen.

Die nächste Frage ist dann, bringt nVidia dann den Chip mit angepeilter Spannung aber weniger Takt, oder hauen Sie die Spannung hoch und nehmen den angepeilten Takt mit?

Ich denke woh lein Mittelding, wobei man eher auf Perf/W geht, denn auf reine Perf.

Für nVidia natürlich eine ziemlich beschissene Situation, da Sie eben die Perf/W Angaben raus geknallt haben... Da kann man nicht sonderlich groß drunter bleiben, sonst wird man wieder in den Medien zerrissen, zu weit darf man für die Gamer aber auch nicht mit der Perf runter...

Marketing wird Dir erzaehlen wollen dass wenn Du den Stromverbrauch um N% steigen laesst es eine besseres perf/W und perf/mm2 ratio geben wird. Kein gerechter Vergleich IMHO, aber beim marketing geht es eher selten ueber Sachen wie "Gerechtigkeit" oder balancierte Wahrheiten.

Heist das Zauberwort hier etwa binning Yealds? Da die Aussage an sich stimmt, man damit aber eben nicht die nötigen binning Yealds erreichen würde? ;D

Ist halt nur die halbe Wahrheit, denn das Gleiche trifft halt auch auf Tahitit XT zu ;D


Kepler hat u.a. zwei wesentliche Ziele: durch bessere perf/W etwas mobile Marktanteil zurueck zu erobern und fuer HPC ein so gut wie moegliches DP perf/W ratio auf die Beine zu stellen. Glaubst NV haette einen besonderen Grund einen >500mm2 chip zu entwickeln wenn es Quadros bzw. Teslas nicht geben wuerde? Ja Intel's Knights Corner wird so manche eigene Vorteile haben, aber wenn es zu Stromverbrauch kommt sollte man wohl eher das Thema wechseln. Hier kommt es wohl eher darauf an am Ende ob Stromverbrauch fuer Supercomputer Kunden auch wirklich ein wichtiger Massstab sein kann fuer relevante Kaufs-entscheidungen.

Ist die Frage ironisch? :ugly:

Der Stromverbrauch ist SEHR entscheidend. Wenn das Ding weniger Verbraucht, musst du die Räume weniger herunter kühlen, bzw kleinere Kühler verbauen, was beides mal Geld spart. Ab einem gewissen Punkt, man darf ja auch nicht zu groß werden, muss ja in 1/2U passen, muss man also weiter runter kühlen, und das geht verdammt ins Geld.

Zudem muss man ja den Stromverbrauch als guten Richtwert immer mal 2 nehmen, so lange man keine WaKü einsetzt, da man für die Klimaanlagen auch Strom braucht, und da werden aus 50W Unterschied halt mal gleich 100W. Zudem werden die Kühlanlagen dann auch wieder teurer, wo man auch Faktor 2 nehmen muss, weil man braucht ja Redundanz, oder man kann nur eine kleinere Maschine betreiben, weil die aktuelle Klima zu schwach ist.

Klar, die Anschaffungskosten spielen auch eine wichtige Rolle, aber die Stromkosten sind genau so wichtig! Ist wenn ich mich recht erinnere beides so ca 50/50 für eine Karte wenn man die Kosten auf die ganze Betriebsdauer rechnet.

Zudem rennen wir ja ständig in eine powerwall. Man hätte durchaus Geld, für noch leistungsfähigere Rechner, aber der Unterhalt frisst einem die Haare vom Kopf UND man kommt auch in gewaltige Probleme mit der Stromversorgung und der Kühlung. Es ist einfach inakzeptabel, nur wenige Sekunden zu haben, bevor die Systeme abrauchen, wenn eine Klima mal ausfällt. Genau so wie die Kosten für die Absicherung, dass die Rechner Hops gehen wegen Spannungsschwankungen wenn plötzlich ein Lastwechsel im System erfolgt... Das sind einfach riesige Kostenfaktoren, die ab einem gewissen Punkt einfach nur noch explodieren.

Bei der Sache mit Knights Corner bin ich aber wirklich noch SEHR zwiespältig. Zum einen wollen die ja bei 200-300W 1 TFlop/s bei DGEMM erreicht haben, auf der anderen Seite habe ich jetzt aber auch schon aus verschiedenen Quellen gehört, dass das Ding einfach Strom ohne Ende fressen soll... Keine Ahnung, was man da glauben soll, und ob Intel da einfach EXTREMES Cherrypicking betrieben hat, was DGEMM betrifft, was ich wirklich befürchte....

Aber ja, die riesen Chips kommen nur in den Consumerbereich, weil der HPC Bereich einfach zu kleine Stückzahlen hat, um R&D zu finanzieren. Da würden die Kosten einfach explodieren. Deswegen ist die HPC Gemeinde ja den Gamern auch ziemlich dankbar. Wenn ich mich recht erinnere wurde auf der letzten/vorletzten ISC sogar das in einer Diskussion/Vortrag angesprochen, das man den Gamern dankbar sei und erst durch diese GPUs für den HPC Bereich interessant und finanzierbar geworden sind, einfach durch die sehr sehr großen Stückzahlen, die dort abgesetzt werden können.


Die letzten standalone GPUs die wohl in der weniger vorhersehbaren Zukunft ueberleben werden, werden wohl HPC/desktop high end GPUs sein. Der Rest wird mit der Zeit Stueck fuer Stueck von stets wachsenden SoCs mit der Zeit abgesetzt.

Danke, das mal jemand meine Meinung teilt, die ich seit den ersten APU Ankündigungen habe :up:

AnarchX
2012-02-29, 09:52:51
NV Italia:
Aspettando Kepler... pazienza, pazienza, pazienza che il momento giusto arriverà, e allora... non ce ne sarà più per nessuno! :-)
http://it-it.facebook.com/NVIDIAItalia/posts/262841833792337

Gipsel
2012-02-29, 10:15:07
Geduld, Geduld. Okay, dann warten wir noch ein wenig weiter. :|

boxleitnerb
2012-02-29, 10:16:42
Naja ist jetzt nicht so, dass es 6 Monate wären wie bei Fermi. Wenn das Ding im März noch kommt, sind das 2,5 Monate nach AMD (nein, der 22. Dezember Alibi-Launch zählt nicht). Nicht schön, aber auch nicht so schlimm.

Spasstiger
2012-02-29, 10:34:03
Naja ist jetzt nicht so, dass es 6 Monate wären wie bei Fermi.
Wissen wir noch nicht. Der GK104 muss erstmal AMDs Tahiti das Wasser reichen.

boxleitnerb
2012-02-29, 10:37:39
Muss er? Versteh mich nicht falsch, ich fände das auch gut. Aber wenn GK104 vielleicht 10% langsamer als eine 7970 ist, 30-40W weniger verbraucht und 350 Euro oder weniger kostet, wird der sich hervorragend verkaufen. Für die Publicity ist es blöd, die Krone nicht zu haben, aber das wars auch schon.

Bei Fermi gabs ja rein gar nichts bis Ende März 2010, und was dann kam, war mit einem bitteren Beigeschmack (laut, heiß, hungrig) versehen. Bis GF104 kam, hat es noch viel länger gedauert, ca. 9 Monate nach. Und der war etwas langsamer, hat etwas mehr verbraucht als die 5850. Also die Situation wäre schon komplett anders.

Dural
2012-02-29, 10:39:47
wenn die 3800 im 3DMark11 für GK107 stimmen, hat Kepler schon einiges drauf, den das sind 40% mehr als der indirekter vorgänger GF116.

somit kann man für GK104 sicher 50-60% gegenüber GF114 mehr erwarten, somit sind wir auf Tahiti höhe.

was GK110 imstande sein sollte, wäre ja mit 50-60% plus auf GF110 richtig cool, mit anderen worten die leistung einer 6990 oder GTX590 in einem chip wenn nicht sogar mehr :O

boxleitnerb
2012-02-29, 10:49:11
GK107 wird wie AnarchX sagte, wohl eher das Level zwischen GF116 und GF118 füllen. Da wären 3800 Punkte sehr sehr stark. 50% flotter als die 550Ti, die ihrerseits flotter ist als ein hypothetischer GF107. Ich denke 60% sind das Minimum. Wenn GK110 die 590 nicht schlagen würde, wäre es arg peinlich, denn diese ist so zusammengestutzt von den Taktraten her, die schafft ja selbst nichtmal die 60% auf die 580.

AnarchX
2012-02-29, 12:17:37
GK107 würde ich eher auf der Höhe der 550Ti im Vollausbau sehen.

Aber ansonsten sind das die Leistungseinschätzungen, die hier schon seit Monaten kursieren.
Und 6990/590 ist wirklich kein Maßstab, da kommt ja schon eine 7970 mit OCing hin.

Palpatin
2012-02-29, 12:18:14
Muss er? Versteh mich nicht falsch, ich fände das auch gut. Aber wenn GK104 vielleicht 10% langsamer als eine 7970 ist, 30-40W weniger verbraucht und 350 Euro oder weniger kostet.
Also faktisch eine 7950 mit 1GB weniger Ram :), wär mir zu wenig um aufzurüsten, obowhl ich meine 570 gern durch was schnelleres ersetzen würde und wegen 3dvision an nv gebunden bin.

boxleitnerb
2012-02-29, 12:23:09
Also faktisch eine 7950 mit 1GB weniger Ram :), wär mir zu wenig um aufzurüsten, obowhl ich meine 570 gern durch was schnelleres ersetzen würde und wegen 3dvision an nv gebunden bin.

Dafür ist ja GK110 da. Wenn das Ding noch einen Tick effizienter als die 7950 wird, wäre das krass.

GK107 würde ich eher auf der Höhe der 550Ti im Vollausbau sehen.


Und GK106? Ich weiß nicht, wieviele Parts Nvidia da jeweils bringt, aber dem Computerbaserating zufolge wäre da eine ziemlich große Lücke. GK104 könnte dann ca. 2,5x so flott sein wie GK107.

Ailuros
2012-02-29, 12:27:38
Also dann doch, was ich schon länger vermutet habe. nVidia hat das Selbe Problem wie AMD mit zu großer Streuung und daraus folgend zu hohen notwendigen Spannungen, was dann die Perf/W versaut. Die ENTSCHEIDENDE Frage ist nun, beziehen sich deine Verbrauchswerte auf die angepeilte Spannung, oder auf die aktuell notwendige, um genügend große binning Yealds zu bekommen???

Wenn es mit der angepeilten Spannung ist, kann der Perf/W Abstand geringer ausfallen zu AMD als aktuell noch erwartet, da diese eben die Spannung hoch gesetzt haben, um den Chip überhaupt auf den Markt zu bringen.

Die nächste Frage ist dann, bringt nVidia dann den Chip mit angepeilter Spannung aber weniger Takt, oder hauen Sie die Spannung hoch und nehmen den angepeilten Takt mit?

Ich denke woh lein Mittelding, wobei man eher auf Perf/W geht, denn auf reine Perf.

Für nVidia natürlich eine ziemlich beschissene Situation, da Sie eben die Perf/W Angaben raus geknallt haben... Da kann man nicht sonderlich groß drunter bleiben, sonst wird man wieder in den Medien zerrissen, zu weit darf man für die Gamer aber auch nicht mit der Perf runter...

Es ist zwar schoen wenn man aus 2-3 Saetzen eine ganze Nouvelle zusammendichten kann, aber es ist hier offensichtlich nicht ein Wettrennen wer die lebendigste Phantasie hat. Tahiti war fuer >925MHz anfangs bestimmt, GK104 kann das was bis jetzt erwaehnt wurde mit vergleichbarer Frequenz erreichen und nein NV wird nicht =/>1GHz wie sie anfangs auch selber wollten.

Heist das Zauberwort hier etwa binning Yealds? Da die Aussage an sich stimmt, man damit aber eben nicht die nötigen binning Yealds erreichen würde? ;D

Ist halt nur die halbe Wahrheit, denn das Gleiche trifft halt auch auf Tahitit XT zu ;D

Ich darf Dich Hemingway nennen oder? :D GK104 koennte eine Art turbo modus haben; was dieses jetzt mit binning yields zu tun haben koennter lieber Ernest weisst wohl nur Du :P

Ist die Frage ironisch? :ugly:

Offensichtlich.

Der Stromverbrauch ist SEHR entscheidend. Wenn das Ding weniger Verbraucht, musst du die Räume weniger herunter kühlen, bzw kleinere Kühler verbauen, was beides mal Geld spart. Ab einem gewissen Punkt, man darf ja auch nicht zu groß werden, muss ja in 1/2U passen, muss man also weiter runter kühlen, und das geht verdammt ins Geld.

Zudem muss man ja den Stromverbrauch als guten Richtwert immer mal 2 nehmen, so lange man keine WaKü einsetzt, da man für die Klimaanlagen auch Strom braucht, und da werden aus 50W Unterschied halt mal gleich 100W. Zudem werden die Kühlanlagen dann auch wieder teurer, wo man auch Faktor 2 nehmen muss, weil man braucht ja Redundanz, oder man kann nur eine kleinere Maschine betreiben, weil die aktuelle Klima zu schwach ist.

Klar, die Anschaffungskosten spielen auch eine wichtige Rolle, aber die Stromkosten sind genau so wichtig! Ist wenn ich mich recht erinnere beides so ca 50/50 für eine Karte wenn man die Kosten auf die ganze Betriebsdauer rechnet.

Zudem rennen wir ja ständig in eine powerwall. Man hätte durchaus Geld, für noch leistungsfähigere Rechner, aber der Unterhalt frisst einem die Haare vom Kopf UND man kommt auch in gewaltige Probleme mit der Stromversorgung und der Kühlung. Es ist einfach inakzeptabel, nur wenige Sekunden zu haben, bevor die Systeme abrauchen, wenn eine Klima mal ausfällt. Genau so wie die Kosten für die Absicherung, dass die Rechner Hops gehen wegen Spannungsschwankungen wenn plötzlich ein Lastwechsel im System erfolgt... Das sind einfach riesige Kostenfaktoren, die ab einem gewissen Punkt einfach nur noch explodieren.

Bei der Sache mit Knights Corner bin ich aber wirklich noch SEHR zwiespältig. Zum einen wollen die ja bei 200-300W 1 TFlop/s bei DGEMM erreicht haben, auf der anderen Seite habe ich jetzt aber auch schon aus verschiedenen Quellen gehört, dass das Ding einfach Strom ohne Ende fressen soll... Keine Ahnung, was man da glauben soll, und ob Intel da einfach EXTREMES Cherrypicking betrieben hat, was DGEMM betrifft, was ich wirklich befürchte....

Aber ja, die riesen Chips kommen nur in den Consumerbereich, weil der HPC Bereich einfach zu kleine Stückzahlen hat, um R&D zu finanzieren. Da würden die Kosten einfach explodieren. Deswegen ist die HPC Gemeinde ja den Gamern auch ziemlich dankbar. Wenn ich mich recht erinnere wurde auf der letzten/vorletzten ISC sogar das in einer Diskussion/Vortrag angesprochen, das man den Gamern dankbar sei und erst durch diese GPUs für den HPC Bereich interessant und finanzierbar geworden sind, einfach durch die sehr sehr großen Stückzahlen, die dort abgesetzt werden können.


Danke, das mal jemand meine Meinung teilt, die ich seit den ersten APU Ankündigungen habe :up:

Also wenn schon fuer Intel KC zwischen 200 und 300W angegeben wurde haetten sie auch gleich 100-500W angeben koennen um es spannender zu machen. Sparsam sind die Dinger auf jeden Fall nicht.

Also faktisch eine 7950 mit 1GB weniger Ram :), wär mir zu wenig um aufzurüsten, obowhl ich meine 570 gern durch was schnelleres ersetzen würde und wegen 3dvision an nv gebunden bin.

Selbst etwas auf theoretischem 7970 Nivaeu ist eine fragliche Investition im Vergleich zu einer GTX570 bei den heutigen Preisen.

BigKid
2012-02-29, 13:20:54
Selbst etwas auf theoretischem 7970 Nivaeu ist eine fragliche Investition im Vergleich zu einer GTX570 bei den heutigen Preisen.
Hmmm... DAS kommt echt auf die Effizienz und Preis an...
Ich hab ne GTX570 Phantom, die laut einigen Tests nu nicht gerade Laut sein soll... Trotzdem kommen in letzter Zeit immer mehr Spiele in denen sie zum Fön wird - keine Ahnung was die treiben, die lasten die Karte aber dann auch zu fast 100% aus... Meine Gegenmaßnahme war - Spannung so weit runter wie geht und Takt leicht runter (0.9V und 650Mhz glaube ich) sowie angepasste Lüftersteurung - dann wird sie halt 90Grad warm...

Würde mir NV nun eine Karte bieten mit GTX580 Leistung und weniger Verbrauch (und somit Hitzeentwicklung) als meine aktuelle GTX570 - und das zum Preis der GTX570 Anfang - ich glaube ich wäre in Versuchung. Sollte dann noch Luft für OC sein erst recht...

EDIT: Ich weiss ich bin nicht representativ - aber ich denke es gibt noch ein paar die so denken...

Hübie
2012-02-29, 13:28:39
Diese Investition ist nur dann fraglich wenn Kosten den Nutzfaktor deutlich überschreiten.
Ich selber rüste nur dann auf wenn irgendein Kepler-Chip The Witcher 2 mit Ubersampling @ FHD mit konstsant 35+ darstellt. Wenn das Ziel erreicht ist laufen alle Spiele mit min 4xSGSSAA sauber ;)

Raff
2012-02-29, 14:25:13
Hmm. HD 7970 @ 1,2 GHz?

MfG,
Raff

boxleitnerb
2012-02-29, 14:34:27
Sicher?
Da müsste er die Karte um mindestens 50% übertakten, eher mehr:
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/12/#abschnitt_leistung_mit_ssaa

Oder war das ein Treiberfehler, der gelöst wurde?

Raff
2012-02-29, 14:55:38
1.200 gegenüber 925 MHz sind ja schon 30 Prozent. Plus Treiberverbesserungen sind wir vielleicht schon bei 35 bis 40 Prozent.

MfG,
Raff

Gaestle
2012-02-29, 15:01:39
1.200 gegenüber 925 MHz sind ja schon 30 Prozent. Plus Treiberverbesserungen sind wir vielleicht schon bei 35 bis 40 Prozent.

MfG,
Raff

Also wenn 30%-40% über 7970 reichen, kommt mir nach den Andeutung von Ail sofort ein anderer (zukünftiger) Chip ins Großhirn ...

Hugo78
2012-02-29, 15:48:49
EDIT: Ich weiss ich bin nicht representativ - aber ich denke es gibt noch ein paar die so denken...
Spoiler da OT:

Geht mir auch so, aber wenn man Silentfreak und sich bewusst darüber ist,
dass jedes Lager egal von welchem Lüfter, egal wie teuer, irgendwann aufgibt und lauter wird, einfach weil es Verschleißteile sind.
Dann kauft man klugerweise das günstigste ASUS oder EVGA im Referenzdesign, dazu einen passenden Aftermarket Kühler, wo man dann im Fall der Fälle auch mal einen Lüfter austauschen kann.

So als Lösungsansatz für deine Phantom würde ich dir die PCI Slot Lüfterhalterung vom EKL Peter empfehlen + zwei 120mm.
http://www.caseking.de/shop/catalog/Luefter/Alpenfoehn/:Bewertungen:/Alpenfoehn-PCI-Slot-Montagesystem-fuer-Luefter::17415.html
Die könntest du dann unterstützend dazubauen oder eventuell ganz auf die Orignal Lüfter verzichten.

Duke Nukem
2012-02-29, 16:06:32
Wieder ein gerücht.
Zitat: die vermutlich als NVIDIA GeForce GTX 670 Ti an den Start gehen wird, könnte an der magischen 300-Watt-Marke kratzen.
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=21587%20%20&catid=38&Itemid=101

Blediator16
2012-02-29, 16:15:41
Die 7970 hätte es auch können tut sie aber nicht. Das wird die 670ti auch nicht. Vollkommen unrealistisch.
Den VR Zone Artikel hatten wir hier schon. Kein neues Gerücht.

Botcruscher
2012-02-29, 16:18:31
Das sind doch nur die Eigeninterpretationen von HWL gegenüber der org. Quelle. 300W Load im Fur für OC-Modelle sollte jetzt echt keine Leistung sein. Die 560TI lässt grüßen. Bei den Normalkarten wird es bei weitem nicht so sein.

Adam D.
2012-02-29, 16:24:06
Wieder ein gerücht.
Zitat: die vermutlich als NVIDIA GeForce GTX 670 Ti an den Start gehen wird, könnte an der magischen 300-Watt-Marke kratzen.
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=21587%20%20&catid=38&Itemid=101
Die beziehen sich auf den Artikel von VR-Zone. Die Werte haben nix mit dem finalen Stromverbrauch des GK104 zu tun.

Ronny145
2012-02-29, 16:39:48
Wieder ein gerücht.
Zitat: die vermutlich als NVIDIA GeForce GTX 670 Ti an den Start gehen wird, könnte an der magischen 300-Watt-Marke kratzen.
http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=21587%20%20&catid=38&Itemid=101


Hwl News kannst Du in der Regel vergessen. Zu lahm und zu inkompetent.

OgrEGT
2012-02-29, 17:45:03
Hmmm... DAS kommt echt auf die Effizienz und Preis an...
Ich hab ne GTX570 Phantom, die laut einigen Tests nu nicht gerade Laut sein soll... Trotzdem kommen in letzter Zeit immer mehr Spiele in denen sie zum Fön wird - keine Ahnung was die treiben, die lasten die Karte aber dann auch zu fast 100% aus... Meine Gegenmaßnahme war - Spannung so weit runter wie geht und Takt leicht runter (0.9V und 650Mhz glaube ich) sowie angepasste Lüftersteurung - dann wird sie halt 90Grad warm...

Würde mir NV nun eine Karte bieten mit GTX580 Leistung und weniger Verbrauch (und somit Hitzeentwicklung) als meine aktuelle GTX570 - und das zum Preis der GTX570 Anfang - ich glaube ich wäre in Versuchung. Sollte dann noch Luft für OC sein erst recht...

EDIT: Ich weiss ich bin nicht representativ - aber ich denke es gibt noch ein paar die so denken...

Ich kann Dich beruhigen ... Schuld ist der Sch.... Phantom Kühler ... Mit dem accelero keine Probleme mehr auch bei 100% GPU Auslastung < 60°C

Duke Nukem
2012-02-29, 18:01:22
Video angeblich nvidia kepler GK107 3Dmark11
http://v.youku.com/v_show/id_XMzU1ODc5NjMy.html

boxleitnerb
2012-02-29, 18:04:55
Könnte man bitte vielleicht kurz recherchieren, bevor man dieses alte Zeug zum 100. Mal auf die Allgemeinheit loslässt? ;)

BigKid
2012-02-29, 21:27:05
Ich kann Dich beruhigen ... Schuld ist der Sch.... Phantom Kühler ... Mit dem accelero keine Probleme mehr auch bei 100% GPU Auslastung < 60°C
Verflucht... Also mal ein Beispiel wo man nix auf die Testberichte geben kann...
Ist da wenigstens ein Referenzdesign drunter ?

Raff
2012-02-29, 21:37:09
Ihr erwartet zu viel von Custom-Designs. Die müssen trotzdem erschwinglich bleiben und sind daher fast nie volle Lotte auf Power ausgelegt. Die Phantom-Karten sind günstig. Ein 40-Euro-Nachrüstkühler ist natürlich besser.

MfG,
Raff

OgrEGT
2012-02-29, 21:53:08
Verflucht... Also mal ein Beispiel wo man nix auf die Testberichte geben kann...
Ist da wenigstens ein Referenzdesign drunter ?

Nee, leider nicht, ich musste mit roher Gewalt die Blechabdeckung des Doppel-DVI Anschlusses entfernen, sonst wären die Heatpipes des Accelero zu lang gewesen :ubash2:

Hab Dir ne PM geschickt...

BigKid
2012-02-29, 22:45:03
Ihr erwartet zu viel von Custom-Designs. Die müssen trotzdem erschwinglich bleiben und sind daher fast nie volle Lotte auf Power ausgelegt. Die Phantom-Karten sind günstig. Ein 40-Euro-Nachrüstkühler ist natürlich besser.

MfG,
Raff
Naja was heisst zu viel... Ich erwarte auf jeden Fall, dass sie besser sind als Standard wenn ein Modell als besonderst leise getestet wird... Bisher bin ich damit auch immer gut gefahren... Ist somit eigentlich mein erster Griff ins ... ... ... Wobei man sagen muss im Idle IST sie leise... Unter normaler Last auch... Nur bestimmte Titel treiben sie zur Weissglut (Witcher, Anno an manchen stellen - komischerweise auch SWTOR)

Nightspider
2012-02-29, 22:51:40
Wird Zeit das Kepler kommt, ich hab meine alten Karten schon veräußert und hab eben mit der Intel HD 3000 Onboard Grafik Battlefield 3 gezockt. :ulol:

Skysnake
2012-03-01, 00:51:15
Es ist zwar schoen wenn man aus 2-3 Saetzen eine ganze Nouvelle zusammendichten kann, aber es ist hier offensichtlich nicht ein Wettrennen wer die lebendigste Phantasie hat. Tahiti war fuer >925MHz anfangs bestimmt, GK104 kann das was bis jetzt erwaehnt wurde mit vergleichbarer Frequenz erreichen und nein NV wird nicht =/>1GHz wie sie anfangs auch selber wollten.

Ich versuch mir eigentlich nur einen Reim drauf zu machen, und die Sache passt für mich eigentlich recht gut zusammen. Vor allem, wenn man bedenkt, in wie weit das Marketing sich gern die Wahrheit zurecht biegt.

Zudem sind das eigentlich alles nur recht triviale Schlussfolgerungen mit klaren entweder-oder-Entscheidungen. Die gesagt, die entscheidende Frage ist halt, ob die ganzen "Marketingaussagen", die du hier angebracht hast (oder woher die Daten auch immer stammen), sich eben auf aktuelle Messungen und Voraussagen beziehen.



Ich darf Dich Hemingway nennen oder? :D GK104 koennte eine Art turbo modus haben; was dieses jetzt mit binning yields zu tun haben koennter lieber Ernest weisst wohl nur Du :P

Nein, den "Turbo" mein ich damit nicht, wobei dieser natürlich abhängig von der Chipqualität greifen könnte für Custom (OC) Designs.

Mir ging es eher darum, das man schauen muss, ob die Taktraten, welche angepeilt wurden erreicht werden, oder eben nicht, und wenn Sie erreicht werden, unter welchen Voraussetzungen diese erreicht werden.

Jetzt klar was ich meine?

PS: du hast ja selbst gesagt:


Tahiti war fuer >925MHz anfangs bestimmt, GK104 kann das was bis jetzt erwaehnt wurde mit vergleichbarer Frequenz erreichen und nein NV wird nicht =/>1GHz wie sie anfangs auch selber wollten.

Also du sagst ja selbst genau das, was ich auch sage. Beide hatten höhere Taktziele, haben es aber in beiden Fällen wohl nicht erreicht.

Meine Spekulation hierzu nun: Der Grund liegt in der Fertigungsstreuung
AMD Lösung-> Spannung anheben+weniger Takt für Ref Modell
NV Lösung->länger warten+Takt absenken fürs Ref Modell +vielleicht mehr Spannung???

Man erreicht bei nVidia damit aber wohl eine schlechtere Perf/W als erwartet, es sei denn man geht mit dem Takt soweit runter, das man die ursprünglichen Spannungen fahren kann, dann könnte das wieder aufs gleiche Perf/W raus laufen.

Wie gesagt, entscheidend ist halt, auf welchen Zustand sich die von dir genannten Verbrauchswerte beziehen. Je nach dem, kann es real bis zum Refresh wohl teils deutlich schlechter aussehen, bzw. Wenn das schon die korrigierten Werte sind, hat AMD ein echt dickes Problem an der Backe mit der Effizienz von Kepler.

john carmack
2012-03-01, 09:35:26
...da bin ich mal gespannt auf den GK. Deutet ja viel darauf hin das es ein zweiter G80 werden könnte. Wäre jedenfalls genial mal wieder eine brutal schnelle Karte im Rechner zu haben.

...hier und da ein wenig Marketing?! Sagte nicht irgendein Nvidia Futzi das der GK das Beste sei was sie je gebaut haben? Tahiti ist auch das Beste was AMD/ATI jemals gebaut hat. Wäre ja auch schlimm wenn es anders rum wäre!

...jedenfalls sollte man sich, wenn der GK raus kommt, für eine der beiden (AMD/NV) Karten entscheiden. Denn so schnell wird es keine so großen Performance Sprünge geben, wie wir aus der Vergangenheit gelernt haben. "RefreshChips" kommen wohl erst in 10-14 Monaten. Maxwell und das AMD Pendant erst in zwei Jahren...

Spasstiger
2012-03-01, 09:54:00
Sagte nicht irgendein Nvidia Futzi das der GK das Beste sei was sie je gebaut haben?
Das war NV-Ceo Huang und seine Aussage wurde aus dem Zusammenhang gerissen. Er wollte sagen, dass Kepler soviele Design Wins hat wie keine GPU-Generation zuvor.

Odal
2012-03-01, 11:37:00
...da bin ich mal gespannt auf den GK. Deutet ja viel darauf hin das es ein zweiter G80 werden könnte. Wäre jedenfalls genial mal wieder eine brutal schnelle Karte im Rechner zu haben.

...jedenfalls sollte man sich, wenn der GK raus kommt, für eine der beiden (AMD/NV) Karten entscheiden. Denn so schnell wird es keine so großen Performance Sprünge geben, wie wir aus der Vergangenheit gelernt haben. "RefreshChips" kommen wohl erst in 10-14 Monaten. Maxwell und das AMD Pendant erst in zwei Jahren...

beim G80 gabs aber gleich die HighEnd GPU und dessen mainstream performance ableger kam etwas später (88GT)

jetzt sieht das leider etwas anders aus - so kann man nicht den "G80" kaufen sondern nur die "88GT" dies aber fast zu "G80" preisen
wohingegen der eigentliche "G80" (GK110) noch auf sich warten lässt (mein spekuliertes Q3-Q4 scheint immer wahrscheinlicher zu werden)

ich bin auch gespannt wie ein Flitzebogen, nur darf man nicht aus den Augen verlieren das hier NICHT das Keppler HighEnd anrückt, dies aber für eine Weile das schnellste sein wird was NVidia zu bieten hat (=>Preise)

guest_29132
2012-03-01, 11:49:22
Das war NV-Ceo Huang und seine Aussage wurde aus dem Zusammenhang gerissen. Er wollte sagen, dass Kepler soviele Design Wins hat wie keine GPU-Generation zuvor.

Äh, ne. Ich glaube das war schon ein wörtliches Zitat mit "der besten GPU ever".

The company claims that it had signed contracts to supply mobile versions of GeForce “Kepler” chips with every single PC OEM in the world. In fact, Nvidia says Kepler is the best graphics processor ever designed by the company.

[With Kepler, we] won design wins at virtually every single PC OEM in the world. So, this is probably the best GPU we have ever built and the performance and power efficiency is surely the best that we have ever created,” said Mr. Huang.
(Quelle (http://www.xbitlabs.com/news/graphics/display/20120216125300_Nvidia_Kepler_Yields_Lower_Than_Expected_Chief_Executive_Officer. html))



beim G80 gabs aber gleich die HighEnd GPU und dessen mainstream performance ableger kam etwas später (88GT)

Der Mainstream / Performance Ableger vom G80 High End (GTX / Ultra) war nicht die 88GT, sondern die 88GTS mit 640 (320) MB.
Die 8800 GT ist der G92, ein shrink / refresh vom G80 in 60 statt 90nm, kam 12 Monate später, und war der salvage Part der GTS 512.

Die restlichen aufgeführten Verhältnisse passen daher auch nicht zusammen.

john carmack
2012-03-01, 12:06:42
Äh, ne. Ich glaube das war schon ein wörtliches Zitat mit "der besten GPU ever".




sag ich doch... ich meine, was soll der Mann sonst sagen? Ist doch klar das der Nachfolger immer besser ist als sein Vorgänger. (So sollte es zumindest sein :D )

Und natürlich ist der R1000/GK100 besser als der R900/GF11x der wiederrum besser als der R800/GF1xx und der R700/GT200 ist.

Er sagt das, weil es die Wahrheit ist und Nvidia-Intern auch zur Normalität gehört.

Und er weiß das es sich für den Normal-Verbraucher so anhört als wäre es was SuperTolles! Deswegen sagt er das!

Das IPhone 4s ist auch besser als das IPhone4...
Ein BMW E36 ist auch besser als ein BMW E30...
3fach verglaste scheiben sind auch besser als 2fach verglaste...

Es gehört einfach zur Normalität das der Nachfolger besser ist als der Vorgänger.

Ich habe fertig :freak:

Odal
2012-03-01, 12:17:15
Der Mainstream / Performance Ableger vom G80 High End (GTX / Ultra) war nicht die 88GT, sondern die 88GTS mit 640 (320) MB.
Die 8800 GT ist der G92, ein shrink / refresh vom G80 in 60 statt 90nm, kam 12 Monate später, und war der salvage Part der GTS 512.

Die restlichen aufgeführten Verhältnisse passen daher auch nicht zusammen.

technisch bzgl. "refresh" mag das zwar stimmen aber der mainstream chip (GK104) war die 8800GTS-640 daher offensichtlich nicht. Zu ihrer Einführung war das HighEnd (preislich) bzw. salvage der absolut schnellsten gpu (wie auch GTX470, GTX570 etc.)

88GT war mainstream gepreist (220€ strassenpreis was dann auf 180€ rum fiel bei besserer Verfügbarkeit)
vom GK110 wird es sicher auch salavage parts geben (ala 8800GTS 640)

Fakt ist nur wir werden eine gewisse zeit nach dem GK104 noch eine "fettere" gpu aus der Serie sehen und bis dahin wird GK104 schnellste NVidia GPU bleiben.
Und nicht wie beim G80 der faktisch über jahre schnellste nvidia GPU blieb

Ailuros
2012-03-01, 13:09:31
PS: du hast ja selbst gesagt:

Das Problem ist dass Du es einfach falsch verstehen WILLST.


Also du sagst ja selbst genau das, was ich auch sage. Beide hatten höhere Taktziele, haben es aber in beiden Fällen wohl nicht erreicht.

Eben nicht. GK104 Frequenzziel war nie ueber 9xxMHz durch 2011. Haette AMD auf =/>1GHz getaktet was sie selber wussten dass AMD es wollte, waeren sie auch auf =/>1GHz gestiegen.

boxleitnerb
2012-03-01, 13:18:05
Was bedeutet dann dieses "wie sie anfangs selber wollten"? Hat man Tahiti gesehen und sich gesagt, dass 9xx MHz dann doch reichen?

guest_29132
2012-03-01, 13:37:21
technisch bzgl. "refresh" mag das zwar stimmen aber der mainstream chip (GK104) war die 8800GTS-640 daher offensichtlich nicht. Zu ihrer Einführung war das HighEnd (preislich) bzw. salvage der absolut schnellsten gpu (wie auch GTX470, GTX570 etc.)

Das lässt sich alles so 1 zu 1 gar nicht in Relation bringen.
Zum einen war der G92 mit 128 Shadern (als GTS 512 später 9800 GTX), und 112 Shadern (als GT8800) der schnellste Chip nach dem G80, aber in der Leistung nicht über dem G80, und Preislich weit unter dem zu dem Zeitpunkt viel teureren alten Karten. Die schnellste GPU gab es für Preise, die man heute Performance zuordnen würde.
Warum? Weil die 3870 so günstig war.


88GT war mainstream gepreist (220€ strassenpreis was dann auf 180€ rum fiel bei besserer Verfügbarkeit)
Und deswegen war die 88GT auch nicht viel teurer. Sie hätte sich nicht verkauft. Mit der heutigen Situation lässt sich das eben nicht vergleichen, zum einen wegen dem Preis, und eben weil sich seit 8800 GTX in der Zeit bis zur GTX 280 in der Leistung nicht viel getan hat.


Fakt ist nur wir werden eine gewisse zeit nach dem GK104 noch eine "fettere" gpu aus der Serie sehen und bis dahin wird GK104 schnellste NVidia GPU bleiben.
Und nicht wie beim G80 der faktisch über jahre schnellste nvidia GPU blieb

Das ist korrekt, hat aber auch gar niemand bestritten, wobei wir beim Kern des Missverständnisses sind;
john carmack sprach vom GK, und nicht speziell GK104. Er wird also den GK110 gemeint haben.

Whatever; die 8800 GT war nicht der Performance ableger des G80, sondern der salvage vom refresh des G80, und aufgrund der Konkurrenz und nicht vorhandener Mehrleistung so günstig wie (heute) Performance.

@Iruwen; zur Info, das G80-Luftschloss ist entspricht NICHT MEINEN Erwartungen. Ich wollte lediglich klar stellen.

Iruwen
2012-03-01, 14:07:41
Die Träumereien vom G80 finde ich ja immer wieder faszinierend, die Erkenntnis dass das ein toller Fortschritt war bringt heute aber irgendwie auch nichts mehr, vor allem den Thread nicht weiter.

MorPheuZ
2012-03-01, 14:30:03
Was bedeutet dann dieses "wie sie anfangs selber wollten"? Hat man Tahiti gesehen und sich gesagt, dass 9xx MHz dann doch reichen?

Pssst...! Ail hats nicht gehört :biggrin:

Skysnake
2012-03-01, 14:32:20
Was bedeutet dann dieses "wie sie anfangs selber wollten"? Hat man Tahiti gesehen und sich gesagt, dass 9xx MHz dann doch reichen?
Sieht wohl so aus :ugly:

Anders versteh ich die Kommentare von Ailuros nämlich jetzt nicht mehr, wobei das irgendwie ziemlich hinrissig wäre, wenn man knapp unterhalb der 7970 bleiben würde, so wie Ailuros das ja für den Durchschnitt kund getan hat.

Die binning Yealds, wie von mir vermutet, sind ja scheinbar doch nicht der Grund dafür.

Irgendwie verwirrt mich Ailuros in letzter Zeit mehr als das er erhellend tätig wird :frown:

boxleitnerb
2012-03-01, 14:35:05
Vielleicht haben wir ihn auch nur falsch verstanden und es gibt noch eine dritte Interpretation.
Allerdings ist Tahiti XT ja nicht der Gegner von GK104, genausowenig wie die 6970 der Gegner der 560 war. Man kann also das Ziel erreichen ohne Tahiti XT zu schlagen - wir wissen ja nicht, was genau das Ziel ist. Wenn man knapp unter Tahiti XT liegt, reicht es für Pitcairn allemal.

Edit:
Oder aber man schlägt die 7970 doch ;)
Selbst wenn nur sehr knapp, dann würde es reichen.

Duplex
2012-03-01, 14:38:53
Irgendwie verwirrt mich Ailuros in letzter Zeit mehr als das er erhellend tätig wird :frown:
Besser abwarten bis etwas offizielles kommt.
Als Tahiti noch nicht vorgstellt wurde waren Ailuros Erwartungen für GCN viel höher...

Skysnake
2012-03-01, 14:42:57
Vielleicht haben wir ihn auch nur falsch verstanden und es gibt noch eine dritte Interpretation.
Allerdings ist Tahiti XT ja nicht der Gegner von GK104, genausowenig wie die 6970 der Gegner der 560 war. Man kann also das Ziel erreichen ohne Tahiti XT zu schlagen - wir wissen ja nicht, was genau das Ziel ist. Wenn man knapp unter Tahiti XT liegt, reicht es für Pitcairn allemal.

Edit:
Oder aber man schlägt die 7970 doch ;)
Selbst wenn nur sehr knapp, dann würde es reichen.
Naja, ich versuch ja seine Aussagen zu deuten, und die entsprechenden Konsequenzen aus diesen Schlüssen klar zu machen, aber das verkommt ja laut Ailuros zur Märchenstunde :ugly:

Wobei ich finde, dass das schon logische Schlussfolgerungen ausgehend von einer Grundannahme sind. :rolleyes:

Wir scheinen ja aber alle irgendwie ziemlich auf dem Holfweg zu sein. Da fragt ich mich dann inzwischen schon, was denn dann der richtige Weg ist.

Ich seh nämlich absolut keinen Weg mehr alle Aussagen unter einen Hut zu bringen, ohne eine er bereits vorgeschlagenen Möglichkeiten zu wählen. :uexplode:

guest_29132
2012-03-01, 17:12:01
Mehrere Posts löschen ist gar nicht schön.

Ailuros
2012-03-01, 17:59:24
Was bedeutet dann dieses "wie sie anfangs selber wollten"? Hat man Tahiti gesehen und sich gesagt, dass 9xx MHz dann doch reichen?

NV hat selber angegeben dass sie nicht von Tahiti besonders beindruckt waren. Ich kann Dich versichern dass Korken geflogen sind als ihnen vor dem launch die finalen specs klar wurden.

***edit:

Beitraege wurden zwar nicht von mir geloescht, aber trotz allem vollkommen gerechtfertigt denn ich haette die Spammerei bzw. OT auch selber geloescht. Nochmal ich bin nicht das Thema hier.

Sonst glaubt bloss nicht dass ich nicht noch einige Asse im Aermel habe und nein mich versuchen links anzureden wird auch nicht helfen :P

boxleitnerb
2012-03-01, 18:04:07
Ist ja witzig. Ich dachte bisher, das ist das übliche Marketinggeschwafel. Also gehe ich jetzt einfach mal davon aus, dass meine Interpretation stimmt :D
Auf Twitter hat mal ein Mitarbeiter von Nvidia gesagt, dass 2012 sehr gut werden würde. Das war am 22.12.2011...

Nur sollte sich Nvidia nicht zu sehr ausruhen. Wir alle wissen, wie taktfreudig Tahiti ist, und es hat schon gute Verbesserungen mit den Treibern gegeben hier und da.

Sag mal, so eine Architektur wirft man ja jetzt nicht bei der nächsten Generation über den Haufen. Wenn Nvidia diesmal so gut dasteht, ist es denkbar, dass sich das mindestens bei Maxwell wiederholt? Es sei denn AMD erfindet den heiligen Gral oder Nvidia tritt wieder in ein Fettnäpfchen.

Soul
2012-03-01, 18:11:06
NV hat selber angegeben dass sie nicht von Tahiti besonders beindruckt waren. Ich kann Dich versichern dass Korken geflogen sind als ihnen vor dem launch die finalen specs klar wurden.

Finale Specs = weit unter der geplanten Frequenzen?

Ailuros
2012-03-01, 18:27:44
Finale Specs = weit unter der geplanten Frequenzen?

NV wusste dass Tahiti sehr uebertaktungsfreundlich ist und schaetzten anfangs eher =/>1GHz. Ihr eigentlicher Plan war eigentlich nie mit GK104 Tahiti zu kontern. Als die Situation klarer wurde und sie noch etwas Zusatz aus den Treibern kitzeln konnten entschieden sie sich die perf/W Relation noch etwas besser auszukitzeln und nicht ueber 9xxMHz zu takten.

MiamiNice
2012-03-01, 18:37:14
Soll dat heissen das schon der GK104 auf Tahiti XT level ist :confused:

cR@b
2012-03-01, 18:50:54
NV wusste dass Tahiti sehr uebertaktungsfreundlich ist und schaetzten anfangs eher =/>1GHz. Ihr eigentlicher Plan war eigentlich nie mit GK104 Tahiti zu kontern. Als die Situation klarer wurde und sie noch etwas Zusatz aus den Treibern kitzeln konnten entschieden sie sich die perf/W Relation noch etwas besser auszukitzeln und nicht ueber 9xxMHz zu takten.

Boah wehe das stimmt nicht! :D Habe soeben meine 7970 Bestellung abgebrochen...
Eigentlich bin ich das Warten auf nVidias Karte leid (war schon beim Fermi ekelhaft) aber wenn das stimmt was du schreibst, lohnt es sich doch noch. Hoffentlich geht das noch im März über die Bühne und nicht erst im April :rolleyes:

Odal
2012-03-01, 18:55:23
Soll dat heissen das schon der GK104 auf Tahiti XT level ist :confused:

das soll wohl eher heissen das GK104 auf tahiti xt level hätte sein können aber man zugunsten des Performance/watt Verhältnisses hier mit konservativem Takt&Spannung rangeht...da tahiti unerwarted "langsam" geworden ist und die Konkurenz als GK110 (und salvage parts) geplant war

Adam D.
2012-03-01, 18:55:46
Soll dat heissen das schon der GK104 auf Tahiti XT level ist :confused:
Es heißt, dass GK104 mehr oder weniger unbeabsichtigt mit ATis Topdog konkurriert und dabei womöglich das bessere Gesamtpaket abliefert - nicht mehr.

Ailuros
2012-03-01, 18:58:03
Soll dat heissen das schon der GK104 auf Tahiti XT level ist :confused:

Nochmal: nach NV vielleicht schon. Bums-marketing zur Seite und von einer logischeren Perspektive ohne uebertriebene Schoenmalereien betrachtet, duerfte das Endresultat auf dem Nivaeu liegen wie schon zich Male beschrieben.

Es gilt fuer jeglichen der beiden IHVs: schlaegt man einen chip zu hoch an, hat man mehr Nachteile als Vorteile.

1. Zu hohe Frequenzen helfen fuer heutige yields nicht besonders.
2. Uebertaktungs-Moeglichkeiten schrumpfen viel zu stark.
3. Der Abstand zum naechsten groesseren Produkt wird zu laecherlich klein.

AMD hat TahitiXT sehr gut positioniert mit ihren 925MHz weil man das Ding wunderbar uebertakten kann und ein logischerer Leistungs-abstand zur kommenden 7990 damit garantiert ist. NV hat ueber GK104 dann spaeter die GK110 salvage parts. Es sollte wohl verstaendlich sein dass NVIDIA auch eine Unmenge von GK110 mit deaktivierten Einheiten verkaufen will und diese nicht nur wegschmeisst (so viele cores koennen Quadros nun auch wieder verkaufen).

Sonst ist es zwar OT aber man wuerde wohl total naiv sein kommenden AMD Pitcairn zu unterschaetzen. Zwischen diesem und GK104 salvage parts wird es wohl zu einer sehr interessanten Schlacht kommen.

Virtual
2012-03-01, 19:46:27
... AMD hat TahitiXT sehr gut positioniert mit ihren 925MHz weil man das Ding wunderbar uebertakten kann ... ... Oder wunderbar untervolten kann. Meine R7970 läuft bei 1920x1080 BF3 in Ultra mit 925MHz/940mV/ca.130W/Referenzboard-lüfter absolut stabil.
Ähnliche Leistungsregionen kann man für einen individuell optimierten GK104 mit hoher Wahrscheinlichkeit erwarten. Zaubern kann keiner der beiden IHVs und wenn hier auch gerne einige fast krampfhaft hoffen und träumen, so wird's doch nur 'Realität' geben! (Edit: R9770->R7970)

Ailuros
2012-03-01, 20:20:37
... Oder wunderbar untervolten kann. Meine R7970 läuft bei 1920x1080 BF3 in Ultra mit 925MHz/940mV/ca.130W/Referenzboard-lüfter absolut stabil.
Ähnliche Leistungsregionen kann man für einen individuell optimierten GK104 mit hoher Wahrscheinlichkeit erwarten. Zaubern kann keiner der beiden IHVs und wenn hier auch gerne einige fast krampfhaft hoffen und träumen, so wird's doch nur 'Realität' geben! (Edit: R9770->R7970)

Das mit dem voltage auf Tahitis hab ich ehrlich nie richtig verstanden, ist aber auch OT.

GK104 wird IMHO weder bei default eine TahitiXT im Durchschnitt gleichstehen, welches aber auch fuer den default TDP gelten wird. Wer die absolute Wundertuete von dem Ding erwartet wird wohl enttaeuscht werden, was aber nicht heissen sollte dass ein perf/W Vorteil nicht existiert. Ist der Vorteil jetzt bei N% heisst es fuer die eine fanatische Fraktion dass es das 8. Wunder ist und fuer das andere Ufer dass es eben nicht der Rede wert ist. Die Realitaet liegt eben wie fast immer irgendwo zwischen zwei extremen Perspektiven.

Es gibt logische Erklaerungen fuer das meisste wenn nicht alles, aber dafuer muss man eben noch etwas Geduld aufweissen.

aufkrawall
2012-03-01, 20:28:30
Wenn der Performanceeinbruch bei hohen Auflösungen mit dem von AMD vergleichbar sein wird, wär das doch schon ein guter Fortschritt.
Hast du in die Richtung schon eine "Ahnung"? ;)

Schaffe89
2012-03-01, 20:57:43
NV hat selber angegeben dass sie nicht von Tahiti besonders beindruckt waren. Ich kann Dich versichern dass Korken geflogen sind als ihnen vor dem launch die finalen specs klar wurden.

Ja, ganz bestimmt und nebenher hat man die schlechte Fertigung, die PCie 3 Spec Probleme und die Tatsache dass man wieder zeitlich zurückliegt völlig unter den Teppich gekehrt.

NV wusste dass Tahiti sehr uebertaktungsfreundlich ist und schaetzten anfangs eher =/>1GHz. Ihr eigentlicher Plan war eigentlich nie mit GK104 Tahiti zu kontern. Als die Situation klarer wurde und sie noch etwas Zusatz aus den Treibern kitzeln konnten entschieden sie sich die perf/W Relation noch etwas besser auszukitzeln und nicht ueber 9xxMHz zu takten.

Ich denke nicht, dass man das so entscheiden kann, vielmehr sind sie dadurch gezwungen.
Die Geschichte mit den binnign yields weißt du schon noch?

Sry, aber mir kommts so vor als ob du hier etwas zu viel reininterpretierst.

Duplex
2012-03-01, 21:06:34
Wenn GK110 auf GTX590 Level landet, dann braucht AMD nur ein 1,1Ghz Chip (7980?) & bessere Treiber um mithalten zu können, die GTX590 ist in FullHD nur 23% vor der 7970 http://www.abload.de/img/gk1042l5k5s.jpg

GK104 <> Tahiti Pro > GK110 (320 Bit SI) > Tahiti XT > GK110 (384 Bit SI) >< Tahiti XTX

Ailuros
2012-03-01, 21:16:44
Ja, ganz bestimmt und nebenher hat man die schlechte Fertigung, die PCie 3 Spec Probleme und die Tatsache dass man wieder zeitlich zurückliegt völlig unter den Teppich gekehrt.

Ein jeglicher engineer "feiert" in solch einem Fall lediglich weil er nach seinem Ansehem bessere Arbeit geleistet hat als er selber bisher erwartet hatte. Wenn Du die Einzelheit nicht verstehen willst, dann ist es Dein Problem.

Ich denke nicht, dass man das so entscheiden kann, vielmehr sind sie dadurch gezwungen.
Die Geschichte mit den binnign yields weißt du schon noch?

Sry, aber mir kommts so vor als ob du hier etwas zu viel reininterpretierst.

Es ist immer die gleiche Geschichte mit dem Scheiss. Natuerlich waere es besser wenn ich meine Klappe ganz halten wuerde, dann hab ich naehmlich erstmal Ruhe von den diversen vorerwaehnten Fraktionen die jeglichen Mist so interpretieren wollen wie es ihnen gerade passt. Wenn Du es auch nicht schaffen solltest zwischen den Linien lesen zu koennen, dann hast Du ein noch groesseres Problem.

Käsetoast
2012-03-01, 22:06:34
Ich denke es ist hier ein wenig der Subtext, der alles ein wenig verzerrt. Vor allem das Sinnbild des Korken fliegen lassens im Angesicht von Tahiti war aus meiner Sicht überdramatisiert. Vor allem wenn GK104 Tahiti XT nun doch nicht ernsthaft gefährlich wird (vom Preis mal abgesehen) und wenn man sich ansieht, wieviel schlummernde Taktreserven da vorliegen die AMD einsetzen kann sobald der 28nm Prozess etwas besser beherrscht wird. Gerade Letzteres ist in Kombination mit NVIDIAs verspätetem Start (vor allem der Launch des GK110 ist ja noch sehr vage und wird evtl. noch so einige Monate auf sich warten lassen - Zeit in der AMD einen hochgezüchteten Tahiti vorbereiten kann) doch ein ganz schöner "Euphoriedämpfer" wie ich finde...

Blediator16
2012-03-01, 22:16:23
Mich würde schon ein 104 beeindrucken, der die Leistung und Übertaktbarkeit eines 7970 hat und den Verbrauch einer 7950:freak:

boxleitnerb
2012-03-01, 22:19:33
Es gibt 7950er, die man um 50% übertakten kann. Das ist wirklich krank - ich fürchte, da kommt Nvidia nicht hin was diesen prozentualen Anstieg angeht.

M4xw0lf
2012-03-01, 22:24:01
Mich würde schon ein 104 beeindrucken, der die Leistung und Übertaktbarkeit eines 7970 hat und den Verbrauch einer 7950:freak:

"schon"?? ;D

Odal
2012-03-01, 22:30:52
ich frag mich immer was das hier mit der ausgezeichneten übertaktbarkeit von Tahiti bedeuten soll...

1100mhz im vergleich zu den default 925mhz sind auch "nur" 19%

in diesen regionen liessen sich bisher praktisch fast alle gpus übertakten, welche ich hatte

Gipsel
2012-03-01, 22:33:09
Es gibt 7950er, die man um 50% übertakten kann. Das ist wirklich krank - ich fürchte, da kommt Nvidia nicht hin was diesen prozentualen Anstieg angeht.
Das kommt immer drauf an, wie aggressiv oder eben defensiv man die Bins festlegt. Wenn man das Risiko eingeht, daß nicht nur einige wenige Dies auch für den Salvage Part zu schlecht sind (und deswegen im Zweifelsfall weggeworfen werden müssen), kann man mit den gleichen Chips schneller sein (und gegebenfalls weniger Reserven für Übertaktung bieten, wenn man gleichzeitig auf den Stromverbrauch achtet und die Spannung niedrig wählt, sind eben viele Parameter, die in das Binning eingehen).
Wenn man es so wie bei Tahiti macht, dreht man die Spannung hoch und setzt die Taktraten relativ niedrig an. Dann wird es für GK104 vielleicht schwierig, mit TahitiXT zu konkurrieren (oder gar schneller zu sein), muß also wahrscheinlich mit etwas niedrigeren Preisen in den Markt, aber dafür kann man auch so ziemlich jedes Die verticken. Ist am Ende halt nur eine Kosten-Nutzen-Rechnung, die zu einem Teil auch von Abschätzung geprägt sein kann. Man könnte da natürlich ein wenig zocken bei der Frage, wie stark sich das Binning in den nächsten paar Monaten verbessern könnte. Ist eben ein Risiko und wäre vor allem am Anfang für die Verfügbarkeit auch nicht gut (weil es weniger Dies für das Top-Bin gibt). Deswegen hat das AMD offenbar nicht gemacht (oder die sparen sich das Top-Bin [Tahiti XTX] für eine 7980 auf, bezweifel ich aber ein wenig, OC-Modelle der 7970 halte ich für wahrscheinlicher).

Blediator16
2012-03-01, 22:33:15
OK, dieser sollte dann aber auch bitte 299UVP haben und schnell auf 250 fallen :D
Den Großen können die anderen dann von mir aus für >500 haben^^

ich frag mich immer was das hier mit der ausgezeichneten übertaktbarkeit von Tahiti bedeuten soll...

1100mhz im vergleich zu den default 925mhz sind auch "nur" 19%

in diesen regionen liessen sich bisher praktisch fast alle gpus übertakten, welche ich hatte


Soweit ich mich erinnere ist das "besondere" daran, dass der Stromverbrauch gleich bleibt.

Gipsel
2012-03-01, 22:34:23
1100mhz im vergleich zu den default 925mhz sind auch "nur" 19%

in diesen regionen liessen sich bisher praktisch fast alle gpus übertakten, welche ich hatteDann hattest Du Glück.

Raff
2012-03-01, 22:37:24
Es gibt 7950er, die man um 50% übertakten kann. Das ist wirklich krank - ich fürchte, da kommt Nvidia nicht hin was diesen prozentualen Anstieg angeht.

Prozentual, ja. Absolut ist bei Tahiti aber um 1.200 MHz Schluss, es sei denn man packt eine ganz dicke Keule aus. Das sind gegenüber der XT-Spec immerhin noch +30 Prozent.

MfG,
Raff

y33H@
2012-03-01, 22:37:56
Es gibt 7950er, die man um 50% übertakten kann. Das ist wirklich krank - ich fürchte, da kommt Nvidia nicht hin was diesen prozentualen Anstieg angeht.1.200 MHz sind aber nichts, was in Serie geht - da muss gut Spannung drauf und selbst dann schafft es nicht jedes Exemplar. Dennoch sehr beeindruckend, so gut gingen nur einst die 8800 GTS (G80-A3.

boxleitnerb
2012-03-01, 22:42:20
Wieso sind die binning yields hier so wichtig? Nur weil das Ding die 1200 oder sonstige MHz nicht schafft, muss man es nicht wegwerfen, sondern pappt es auf die normale XT. Man pickt einfach die besten Dies aus, die nicht auf die 7990 wandern und macht die angesprochene XTX. Ist ja nicht so, dass das mehr als ein paar Hundert oder Tausend Stück werden müssen...

Gipsel
2012-03-01, 22:56:08
Für die Beantwortung der Frage schaust Du auf das falsche Ende der Verteilung. ;)

Dural
2012-03-01, 23:54:29
Es gibt 7950er, die man um 50% übertakten kann. Das ist wirklich krank - ich fürchte, da kommt Nvidia nicht hin was diesen prozentualen Anstieg angeht.

ich könnte dir locker eine Handvoll GPUs auf zählen die bei mir schon 50% und mehr gemacht haben, gut ist es ja schon aber sicher nicht aussergewöhnlich!

wie so Tahiti da so in den himmel gelobt wird verstehe ich auch nicht, ja er lässt sich gut takten aber nichts was es vorher nicht auch schon in massen gab :rolleyes:

gerade die NV GPUs waren schon immer für ihre guten OC eigenschaften bekannt, AMD hatte vor Tahiti da so ihre probleme.

Knuddelbearli
2012-03-02, 00:26:27
Dural wie viele davon waren das Spitzenmodell ? bei salvage ist 50% nichts außergewöhnliches da hast du recht. absoluter Rekord war bei mir ne 5850 die unter Luft ( ok Lärm war extremst ) ca 90% mitmachte

MadManniMan
2012-03-02, 00:48:47
ich könnte dir locker eine Handvoll GPUs auf zählen die bei mir schon 50% und mehr gemacht haben, gut ist es ja schon aber sicher nicht aussergewöhnlich!

Hm ... ich hatte mal ein paar OC-GeForce2-MX zum Test, die von 175 auf 265 gingen, meine alte Radeon 9500 Pro ging von 275 auf 380 - aber sonst?

Palpatin
2012-03-02, 08:04:03
1.200 MHz sind aber nichts, was in Serie geht - da muss gut Spannung drauf und selbst dann schafft es nicht jedes Exemplar. Dennoch sehr beeindruckend, so gut gingen nur einst die 8800 GTS (G80-A3.
Also die 1800XL von ATI sollte man hier schon erwähnen, damit hab sogar ich Noob fast die 50% geknackt. Ich glaub 730 hatte ich die damals mit Standartkühlung.

boxleitnerb
2012-03-02, 08:35:29
Sowas hab ich auch noch nie gesehen :eek:

http://bbs.expreview.com/thread-49708-1-1.html

http://www.abload.de/img/40101961iayl3.jpg (http://www.abload.de/image.php?img=40101961iayl3.jpg)

Hugo78
2012-03-02, 08:44:05
Kann man den Lüfter noch ein paar Millimeter weiter nach hinten bauen wenn man DHE verwendet.

Godmode
2012-03-02, 08:45:26
Sowas hab ich auch noch nie gesehen :eek:


Die Schwärzung oder den komischen Stromstecker?

boxleitnerb
2012-03-02, 08:45:34
Na den Stecker.
DHE?

Hugo78
2012-03-02, 08:46:18
Direct Heat Exhaust^^

Skysnake
2012-03-02, 09:13:24
Der Stecker sieht ja mal abgefahren aus :ugly:

Das gibt dann bei 3x6pin maximal 375W Leistungsaufnahme, und wenn der eine noch zum 8 Pin aufgebohrt wird, wären das dann maximal 450W

EDIT:

Sind natürlich 300 bzw 375 Watt. Hab wohl unabsichtlich die 75W vom Slot doppelt gezählt. War wohl auch für mich noch zu fruh ;D shame on me

Raff
2012-03-02, 09:18:03
Hm ... ich hatte mal ein paar OC-GeForce2-MX zum Test, die von 175 auf 265 gingen, [...]

Bei denen (und der GF2 Ti) war das lustig. Man konnte die GPU zwar fett keulen, davon kam aber praktisch nichts an, weil die Karten so dermaßen an ihrer Speicherbandbreite verhungert sind.

MfG,
Raff

boxleitnerb
2012-03-02, 09:18:05
Das gibt dann bei 3x6pin maximal 375W Leistungsaufnahme, und wenn der eine noch zum 8 Pin aufgebohrt wird, wären das dann maximal 450W

Wo siehst du da 3x6pin? Ich sehe 2x6pin, halt übereinander.
450W...du malst scheinbar gerne den Teufel an die Wand auch wenn du selbst weißt, dass es völliger Quatsch ist, den du da schreibst, oder?

Soul
2012-03-02, 09:21:55
Das PCB wäre für 6+8 ausgelegt aber 2 Anschlüsse auf die gleichen Bahnen? Schmelzen da nicht die Kontakte weg?

Skysnake
2012-03-02, 09:26:52
Wo siehst du da 3x6pin? Ich sehe 2x6pin, halt übereinander.
450W...du malst scheinbar gerne den Teufel an die Wand auch wenn du selbst weißt, dass es völliger Quatsch ist, den du da schreibst, oder?
Dann reib dir mal den Schlafdreck aus den Augen, hol dir nen Kaffee und schau dann nochmal aufs PCB ;)

Dann siehste sicherlich auch Anschlüsse für 2x6Pin + 1x8Pin, wovon 2x6Pin verbaut sind. Da kann man aber davon ausgehen, das der einzelne 6Pin auch noch belegt wird.

Mit den 75W aus dem PCI-E Slot gibt das halt die von mir genannten maximal Werte laut Spezifikation.

MadManniMan
2012-03-02, 09:28:04
Bei denen (und der GF2 Ti) war das lustig. Man konnte die GPU zwar fett keulen, davon kam aber praktisch nichts an, weil die Karten so dermaßen an ihrer Speicherbandbreite verhungert sind.

Bei den 2MX (ich glaube Gainward unter anderem) ging aber gleichsam der Speicher so abartig mit, dass zumindest Q3 quasi 1:1 skalierte ... hach, hätte ich doch damals nur weiter reviewt ...

Hugo78
2012-03-02, 09:28:45
Wo siehst du da 3x6pin? Ich sehe 2x6pin, halt übereinander.
450W...du malst scheinbar gerne den Teufel an die Wand auch wenn du selbst weißt, dass es völliger Quatsch ist, den du da schreibst, oder?

Fütter den Troll nicht noch.

boxleitnerb
2012-03-02, 09:29:27
Es sind 2x6pin verbaut. Vielleicht kann Skysnake unsichtbare Stecker sehen, ich nicht.

guest_29132
2012-03-02, 09:29:43
Es sind 1x 8 Pin und 1x 6 Pin vorbereitet, und 2x 6 Pin übereinander angeschlossen.
Und da schmilzt auch nichts weg, weil die Anschlüsse versetzt sind .. wo werden denn da die "gleichen Bahnen" genutzt?

Raff
2012-03-02, 09:30:53
Bei den 2MX (ich glaube Gainward unter anderem) ging aber gleichsam der Speicher so abartig mit, dass zumindest Q3 quasi 1:1 skalierte ... hach, hätte ich doch damals nur weiter reviewt ...

Ich hab' auch noch solche "Golden Samples" herumliegen. Dort kam Speicher mit geringerer Zugriffszeit als üblich zum Einsatz, daher gingen die so gut. :)

MfG,
Raff

AnarchX
2012-03-02, 09:31:20
Da kann man aber davon ausgehen, das der einzelne 6Pin auch noch belegt wird.

3*6-Pin?

Wie schon gesagt werden die gestappelten Stecker wohl für einen fetten Radiallüfter benötigt, der die Kontakte des vorderen Stecker bedeckt.
Bei einem Axial-Lüfter kann man die Stecker nebeneinander nutzen.

Mehr als 300W sind wohl bei den 5(?) Phasen eh nicht sinnvoll.

Hugo78
2012-03-02, 09:34:55
Jeder der auch nur halbwegs die Entwicklung der Referenzplatinen verfolgt hat, wird mitbekommen haben, dass man diese so flexibel wie möglich gestaltet.
Einfach damit man jede Art von Kühlung und Stromversorgung verbauen kann.

Wenn Boardpartner statt des DHE, zb. axiale Kühlungen verbauen wollen, verlöten sie einfach 2*6Pin klassisch nebeneinander und für max. OC Versionen ebend 8+6Pin.

Skysnake
2012-03-02, 09:43:44
Dann halt doch für die Blinden markiert... :rolleyes:

Das sollte man doch wirklich jetzt sehen.

Das ein Radiallüfter den einen 6Pin verdeckt stimmt btw. Hatte ich jetzt gar nicht bewusst wahr genommen. Ist halt nur die Frage, ob für diesen Fall dann 2x6 Pin oder 6+8Pin genutzt werden sollen.

Auch seltsam ist, das da keine Aussparungen sind. Das ist normal bei nVidia Karten immer so bei Radiallüftern. Schon sehr seltsam...

Eventuell gar kein nVidia PCB? (ich glaub selbst nicht, das es ein AMD PCB ist so btw.)

EDIT:

Und btw. wer lesen kann ist klar im Vorteil. Das Schlüsselwort ist "maximal" könnte ja mal danach schauen ;)

boxleitnerb
2012-03-02, 09:47:19
Und deshalb muss man es auch nutzen oder wie? Ich sprach von Steckern, nicht Lötpunkten. Vielleicht mal genauer lesen. Es sind einfach unterschiedliche Konfigurationen. Für ein GK104x2 Board kann ich mir das noch vorstellen mit mehr als 6+8pin, aber niemals für eines mit einer GPU. Das Bild wurde im GTX680 Thread gepostet - Nvidia wird die Dualkarte, auf welchen Chips sie auch immer basiert, kaum GTX680 nennen.

Dural
2012-03-02, 09:50:33
doch doch es ist ein NV PCB

also doch nur 2x 6-Pin, es sei den auf dem Bild ist eine GTX660 und keine GTX670!

das Interessante auf dem Foto hat aber noch keiner erwähnt, im ganzen vier Ausgänge davon zwei DVI übereinander angeordnet, was wiederum bedeutet das der Bereich wo die lüftungsschlitze sind kleiner ist.

Hübie
2012-03-02, 09:59:34
Allein das mit diesem PCB vier Grakas verbunden werden können deutet auf höhere Spheren hin ;)
@Dural: Wollte ich auch schreiben. Wahrscheinlich teilen sich mehrere Modelle dieses Design.

LG Hübie

Edit: Die 560 geht z.B. gar nicht für Quad SLi... das wird sich sicher auch in dieser Gen fortsetzen.

AnarchX
2012-03-02, 10:04:47
Die 9800 GTX hat damals auch Triple-SLI unterstützt, das wird man wohl bei einer GK104 GTX 680 ähnlich handhaben.

Dural
2012-03-02, 10:05:16
es gab sogar 9800Pro mit 3-Way SLI :) das es von den GF104 und GF114 Chips nie Karten mit 3-Way SLI gab, hab ich mich auch schon gewundert.
Drei GTX560Ti 2GB @ 1000MHz+ im 3-Way SLI hätte zum benchen sicher richtig spass gemacht ;)


cool ist auch das es entlich mal mit was handfestem vorwärts geht :biggrin:

und gerade gestern hab ich meine 7970 in die bucht gestellt ;D

Hübie
2012-03-02, 10:12:33
Afaik war aber seit dem GT200 SLi mit mehr als zwei Karten der Oberklasse vorbehalten :| Lasst die Schinken mal aussen vor.

es gab sogar 9800Pro mit 3-Way SLI :)
Eine 9800 Pro gab es garantiert NICHT mit 3-Way SLI :tongue: ;D

Dural
2012-03-02, 10:16:47
GT mein ich natürlich ;D


Edit:
http://www.computerbase.de/news/2008-08/asus-geforce-9800-gt-bietet-3-way-sli/

Hübie
2012-03-02, 10:19:49
Wie gesagt ist das uninteressant, da wir uns schon lange weiter bewegt haben. Ihr seid doch nicht wirklich so naiv und glaubt das eine potenzielle GTX 660 Ti 3-way SLi bietet oder?? Vor allem eine mit 5 Phasen und 6+6 Pin... :rolleyes:

AnarchX
2012-03-02, 10:22:37
Vielleicht bietet man ab dieser Generation mehr Wahlmöglichkeiten bei SLI, wie es auch AMD bei CF tut?

Und wenn es eine "GTX 680" ist, wie PHK schreibt, dann sollte sie schon 3/4-Way-SLI unterstützen.

Spasstiger
2012-03-02, 10:26:54
Ich kenne Niemanden, der eine GTX 560 Ti NICHT gekauft hat, weil sie kein Triple-SLI untersützt. Die Leute, die Triple-SLI fahren, setzen zu 99% auf High-End.
Aber ok, man muss immer mit dem OEM-Markt rechnen, da könnten unter Umständen Kuriositäten das Tageslicht erblicken. High-End-PC mit dreimal GT 640, wobei zwei Karten mit PCIe 2.0 x8 und eine Karte mit PCIe 2.0 x4 laufen. Ich weiß aber nicht, ob sowas für NV überhaupt ein Problem wäre, man hätte schließlich drei GPUs verkauft statt einer, was bei den Absatzzahlen besser aussieht (auch wenn es beim Gewinn keinen Unterschied macht).

Screemer
2012-03-02, 10:28:10
Und deshalb muss man es auch nutzen oder wie? Ich sprach von Steckern, nicht Lötpunkten. Vielleicht mal genauer lesen. Es sind einfach unterschiedliche Konfigurationen. Für ein GK104x2 Board kann ich mir das noch vorstellen mit mehr als 6+8pin, aber niemals für eines mit einer GPU. Das Bild wurde im GTX680 Thread gepostet - Nvidia wird die Dualkarte, auf welchen Chips sie auch immer basiert, kaum GTX680 nennen.
und er sprach ja von maximal möglichem. wo liegt das probelm?

€dit: sorry die diskussion war ja schon beendet.

Hübie
2012-03-02, 10:32:43
Wie meinst du das? Bei AMD konnte man schon seit der 2000er-Serie alles ab Midrange mit bis zu vier Karten betreiben. Also vier HD 2600 gingen genau so wie vier HD 4770. Das ist jetzt immer noch so.

Bei nVidia halt nicht. Da geht seit dem G200 nur GTX 260 und höher im Viererverbund. Wenn ich falsch informiert bin dann verbessert mich (mit Quelle :P)

Edit: Meine Diskussion ziel natürlich darauf ab, das es sich hier um das PCB einer GTX 670/80 handeln muss (wenn sie denn so heißen ;D).

Dural
2012-03-02, 10:33:47
Ich hätte garantiert ein GTX560Ti 3-Way SLI wenn es möglich wäre, der GF114 Chip ist was Takt, Verbrauch und Leistung anbelangt einfach richtig gut und ich hätte 100x lieber ein 3-Way SLI mit drei GTX560Ti als mit drei GTX570. Gerade in Anbetracht von GPU PhysX ist es einfach nur doof das solche Karten kein 3-Way SLI unterstützen, den dann könnte man selber frei wählen ob man 3-Way SLI nuten möchte oder eventuell eine Karte nur für GPU PhysX zu verwenden.

So hab ich jetzt zwei GTX560Ti im SLI und eine GTX550Ti als reine GPU PhysX Karte die sich zu 95% nur langweilt...

Duke Nukem
2012-03-02, 10:37:32
GK104-Based Products Arriving March 23
http://www.techpowerup.com/161587/GK104-Based-Products-Arriving-March-23.html

Raff
2012-03-02, 10:40:34
Ja. Und die Quelle ist Expreview, wir drehen uns also im Kreis.

MfG,
Raff

Dural
2012-03-02, 10:45:33
Was an den neuen Informationen rund um „Kepler“ dran ist, dürfte sich bereits in den kommenden Tagen und Wochen zeigen. Denn eines ist sicher: Auch wenn das Datum nicht exakt stimmt, der Starttermin rückt immer Nähe.

http://www.computerbase.de/news/2012-03/erscheint-nvidias-kepler-als-gk104-grafikchip-am-23.-maerz/

da weis cb wohl mehr ;)

Ronny145
2012-03-02, 10:46:56
Ja. Und die Quelle ist Expreview, wir drehen uns also im Kreis.

MfG,
Raff


Deckt sich aber immerhin mit der anderen Quelle (Vr-zone).

http://www.computerbase.de/news/2012-03/erscheint-nvidias-kepler-als-gk104-grafikchip-am-23.-maerz/

da weis cb wohl mehr ;)

Gerüchteweise sind die Leute unter NDA. Wäre doch nur allzu logisch.

Hübie
2012-03-02, 10:48:09
Da hat jemand einfach mal mit dem Finger auf dem Kalendar getippt und lag nicht ganz falsch - ZACK! was ne News wert. Ihr rotiert sicher auch schon wie Flipp. ;)

Ach und noch was, falls es dir nicht auffiel: Wir drehen uns hier schon länger im Kreis.

Ailuros
2012-03-02, 10:50:39
Ich denke es ist hier ein wenig der Subtext, der alles ein wenig verzerrt. Vor allem das Sinnbild des Korken fliegen lassens im Angesicht von Tahiti war aus meiner Sicht überdramatisiert.

Nein das Problem liegt eher zwischen dem was jeder darunter verstehen will. NV engineering war es zu dem Zeitpunkt klar dass sie einen chip entwickelt haben der Vorteile im Bereich perf/$, perf/mm2 und perf/W hat. Ob sich am Preis am Ende etwas aendert keine Ahnung, aber wenn man sich nach 3-4 Jahren die Finger wundgeschuftet hat und man so etwas sieht, dann gibt es auch Grund zu Feiern. Das Problem war eben dass sie alle so euphorisch waren und bunt weitergeblubbert haben sonst haetten wir nie etwas darueber erfahren bis zur letzten Minute.

Vor allem wenn GK104 Tahiti XT nun doch nicht ernsthaft gefährlich wird (vom Preis mal abgesehen) und wenn man sich ansieht, wieviel schlummernde Taktreserven da vorliegen die AMD einsetzen kann sobald der 28nm Prozess etwas besser beherrscht wird.

Da AMD mit Performance chips halt macht, ueberkreuzen sich die Leistungen pro chip mit NVIDIA's Gegenprodukten auf ganz anderem Nivaeu. NV macht beim GK104 nicht halt. Sonst ja natuerlich haben ALLE chips die frueh unter 28nm hergestellt werden spaeter noch groessere Taktreserven wenn sich die yields verbessern. Und?

Eines der Ziele von Kepler war einen Anteil vom mobilen Marktanteil zurueckzuerobern. Mit einem besserem perf/W ratio hat man durchaus bessere Chancen dieses zu erreichen.

Gerade Letzteres ist in Kombination mit NVIDIAs verspätetem Start (vor allem der Launch des GK110 ist ja noch sehr vage und wird evtl. noch so einige Monate auf sich warten lassen - Zeit in der AMD einen hochgezüchteten Tahiti vorbereiten kann) doch ein ganz schöner "Euphoriedämpfer" wie ich finde...

GK110 war stets als letztes geplant weil es einfach Bloedsinn ist einen so grossen chip gleich von Anfang an bei einem so jungen Prozess auf die Laufband zu schicken. So lange sie ihre Quadro/Tesla Versprechungen nicht allzu stark verpassen koennen sie sich die Abwesenheit vom GK110 temporaer auch leisten. Gegen eine 7990 koennen sich auch ein 2*GK104 Gespann schicken.

Den "Euphoriedaempfer" gibt es jetzt erst: falls Ihr immer noch erwartet dass GK110 nur die typischen 15-20% schneller ist als Tahiti, waere es vielleicht eine Idee sich dazu vorzubereiten ueber die Schulter glotzen zu muessen. Und nein den Unterschied kann man eben nicht mit irgend einer bunten Uebertaktung decken.

Dural
2012-03-02, 10:50:59
einen Freitag hätte mich auch sehr erstaunt! ich tippe mal auf Dienstag 20.03 ;D

Ailuros
2012-03-02, 10:53:08
einen Freitag hätte mich auch sehr erstaunt! ich tippe mal auf Dienstag 20.03 ;D

Hat NV etwas gegen Mittwoche? Sonst zu frueh :P

Dural
2012-03-02, 10:54:53
also mittwoch ist für mich auch OK ;D

boxleitnerb
2012-03-02, 10:59:49
Sag mal Ailuros, steht schon irgendwie fest, was für eine Dualkarte es geben wird? Ist es denkbar, dass wir GK104*2 und zusätzlich noch GK110*2 sehen?

Hübie
2012-03-02, 11:03:23
Den "Euphoriedaempfer" gibt es jetzt erst: falls Ihr immer noch erwartet dass GK110 nur die typischen 15-20% schneller ist als Tahiti, waere es vielleicht eine Idee sich dazu vorzubereiten ueber die Schulter glotzen zu muessen. Und nein den Unterschied kann man eben nicht mit irgend einer bunten Uebertaktung decken.

Tut mir leid Ail. Ich bin vllt. zu müde und verpeilt aber ich checke diese Aussage auch nach dem dritten Mal nicht :| :redface: Euphoriedämpfer? 15-20%? Über die Schulter glotzen? Ich so: Hä? :confused:

Ich geh nun pennen! Gn8...

Godmode
2012-03-02, 11:17:12
Den "Euphoriedaempfer" gibt es jetzt erst: falls Ihr immer noch erwartet dass GK110 nur die typischen 15-20% schneller ist als Tahiti, waere es vielleicht eine Idee sich dazu vorzubereiten ueber die Schulter glotzen zu muessen. Und nein den Unterschied kann man eben nicht mit irgend einer bunten Uebertaktung decken.

Endlich wieder mal eine richtige High-End Karte.


Tut mir leid Ail. Ich bin vllt. zu müde und verpeilt aber ich checke diese Aussage auch nach dem dritten Mal nicht :| :redface: Euphoriedämpfer? 15-20%? Über die Schulter glotzen? Ich so: Hä? :confused:

Ich geh nun pennen! Gn8...

Naja wird halt nicht nur 15-20% schneller als Tahiti XT. Und selbst mit OCed Tahiti wirds nix. Also ich finde das jetzt auch keine Kunst, weil Tahiti doch relativ klein ist und vom Maximum des Möglichen (Transitorenanzahl, Wattage, ...) weit weg ist.

Ailuros
2012-03-02, 11:22:08
Sag mal Ailuros, steht schon irgendwie fest, was für eine Dualkarte es geben wird? Ist es denkbar, dass wir GK104*2 und zusätzlich noch GK110*2 sehen?

Es wird entweder/oder chips fuer mGPU geben. Wenn es 2*GK104 werden sollte dann wird es auch nichts anderes fuer mGPU geben. Und ja die Tendenz ist schon seit einiger Zeit in der Richtung.

boxleitnerb
2012-03-02, 11:22:46
K thx. Macht wohl auch wenig Sinn, wenn die nahe zusammen liegen würden.

Käsetoast
2012-03-02, 12:27:47
Das Problem war eben dass sie alle so euphorisch waren und bunt weitergeblubbert haben sonst haetten wir nie etwas darueber erfahren bis zur letzten Minute.
Ich bin bei sowas immer skeptisch bzw. gebe auf solche Berichte nicht viel. Das letzte Beispiel warum das auch Sinn macht: Bulldozer. Im Vorfeld viel Trara von wegen neuem Design, höheren Taktraten und gestiegener IPC zusammen mit der Meldung die FX Bezeichnung wieder auszupacken weil man jetzt wieder ganz vorne mitmischen kann. Und was war? Gar nix...
Von daher sollte man meiner Meinung nach Meldungen in denen Kepler schon im Vorfeld abgefeiert wird erstmal ignorieren - ob was dran ist wird das fertige Produkt dann zeigen...

Sonst ja natuerlich haben ALLE chips die frueh unter 28nm hergestellt werden spaeter noch groessere Taktreserven wenn sich die yields verbessern. Und?
Die Tahitis haben aber nicht später größere Taktreserven, sondern schon jetzt und zwar lange Zeit ohne Spannungserhöhung (weil die Grundspannung an sich relativ hoch ist, was den derzeitigen Tahiti in Puntko Verbrauch sicherlich auch etwas herabstuft). Zusammen mit den Gerüchten, dass man die Taktfreudigkeit bei Pitcairn durch die zusätzliche Zeit verbessern konnte spricht für mich dafür, dass es AMD nicht unbedingt schwer fallen sollte einen Tahiti mit 1,1-1,2GHz zu postieren...

GK110 war stets als letztes geplant weil es einfach Bloedsinn ist einen so grossen chip gleich von Anfang an bei einem so jungen Prozess auf die Laufband zu schicken. So lange sie ihre Quadro/Tesla Versprechungen nicht allzu stark verpassen koennen sie sich die Abwesenheit vom GK110 temporaer auch leisten. Gegen eine 7990 koennen sich auch ein 2*GK104 Gespann schicken.
Dagegen habe ich ja auch gar nichts gesagt. Es ging hier letztlich aber ja vor allem darum, ob GK104 Tahiti gefährlich werden kann was die Performancekrone angeht - da gab's dann ja geteilte Meinungen...

Den "Euphoriedaempfer" gibt es jetzt erst: falls Ihr immer noch erwartet dass GK110 nur die typischen 15-20% schneller ist als Tahiti, waere es vielleicht eine Idee sich dazu vorzubereiten ueber die Schulter glotzen zu muessen. Und nein den Unterschied kann man eben nicht mit irgend einer bunten Uebertaktung decken.
Ich glaube da hast du mich falsch verstanden. Mit "Euphoriedämpfer" meinte ich die Ernüchterung die sich im von dir beschriebenen "Korken-knall-Szenario" einstellte, als dann offensichtlich wurde, dass Tahiti den Yields bzw. dem frühen Start zuliebe deutlich unter seinen Möglichkeiten getaktet wurde und GK104 dann nicht mehr ganz so überragend dasteht, wie man noch dachte, als man nur auf die Zahlen auf den Specs geguckt hat...

Was GK110 nun angeht - da kann ich keine wirklich profunde Vorhersage machen. Du täuschst dich aber wenn du glaubst, dass ich ihn nur 20% vor Tahiti sehe. Vielmehr ist es so, dass ich ihn 20% vor jenem spekulativen Tahiti mit erhöhtem Takt sehe. Im Endeffekt also eine ähnliche Situation wie wir sie heute auch haben - NVIDIA liegt dank größerem Chip klar vorne, allerdings sehe ich AMD mit einem hochgezüchtetem Tahiti dann nicht ganz so arg abgeschlagen wie zu HD2900 oder HD3870 Zeiten. Das ist aber nach wie vor alles Spekulatius - allerdings kann ich mir nicht vorstellen, dass NVIDIA zaubern kann was die Leistung angeht und ein GK110 ist ja im Gegensatz zum GK104 stärker auf GPGPU ausgelegt, weswegen ich nicht denke, dass man dort im Hinblick auf Spiele ein ähnliches Perf/W Verhältnis erreicht, also die evtl. Vorteile eines GK104 einfach extrapolieren kann...

AnarchX
2012-03-02, 13:25:29
GK104 definitv im März, laut einiger Mitarbeiter der Kartenhersteller:
http://translate.google.de/translate?u=http%3A%2F%2Fnews.mydrivers.com%2F1%2F219%2F219857.htm&sl=zh-CN&tl=en&hl=&ie=UTF-8

Thunder99
2012-03-02, 13:50:45
Was mir noch einfällt ist eine logische Schlussfolgerung warum der GK110 später erscheint als GK10x:
Sie wollten den/die "Fehler" vom GF100 nicht wiederholen eine neue Architektur mit einem neuen Prozess zu kombinieren. Wobei NV hatte ja 40nm GT2xx Chips... :confused:

AnarchX
2012-03-02, 13:54:48
Man fährt halt eine Strategie, die ähnlich der von Intel ist, diese stellen auch erst ihre Performance-CPUs vor, während das Server-Flagschiff mit dem maximalen Ausbau deutlich später kommt.

btw.
TPU zeigt einen 6+8-Pin Stecker-Turm, aus eigenen Quellen: http://www.techpowerup.com/161597/NVIDIA-GK104-PCB-Drawings-Unusual-Power-Connector-Designs-Surface.html

Skysnake
2012-03-02, 14:52:26
Btw. worauf noch keiner eingegangen ist:

Ist es mit dem Turm überhaupt möglich ein 2 Slot design zu machen? sieht schon verdammt hoch aus, wenn ich da an meine 5870 denke.

Wird auf jeden Fall verdammt knapp mit den 2 Slots.

PS: Ich geh davon aus, das es grad so rein passt in 2 Slots, man also am Besten einen Slot frei lassen sollte/muss zwischen zwei Karten.

Odal
2012-03-02, 15:00:42
Ich bin bei sowas immer skeptisch bzw. gebe auf solche Berichte nicht viel. Das letzte Beispiel warum das auch Sinn macht: Bulldozer. Im Vorfeld viel Trara von wegen neuem Design, höheren Taktraten und gestiegener IPC zusammen mit der Meldung die FX Bezeichnung wieder auszupacken weil man jetzt wieder ganz vorne mitmischen kann. Und was war? Gar nix...
Von daher sollte man meiner Meinung nach Meldungen in denen Kepler schon im Vorfeld abgefeiert wird erstmal ignorieren - ob was dran ist wird das fertige Produkt dann zeigen...

bei Bulldozer war es doch schon lange vorher klar das der nicht so der Bringer wird, nur wollten dies einige nicht wahrhaben.

Das der GK110 mit bisherigen Tahitis den Boden wischt verwundert mich nicht, da man ja mittlerweile schon allgemein akzeptiert hat das GK104 irgendwo zw. 7950 und 7970 liegt (ob nun weit weg vom 7950 sei mal dahin gestellt)

Käsetoast
2012-03-02, 15:05:11
bei Bulldozer war es doch schon lange vorher klar das der nicht so der Bringer wird, nur wollten dies einige nicht wahrhaben.
Also das habe ich anders in Erinnerung. Neben OBRs Fake Benchmarks die zunächst ja noch ganz positiv klangen, die aber auch erst relativ spät kamen, gab es solche und solche Meinungen. "Lange vorher klar" war da nichts (vor allem wenn man daran denkt, dass JF-AMD quasi bis zum Schluss von der gestiegenen IPC sprach). Aber damit driften wir wohl ins OT ab...

boxleitnerb
2012-03-02, 15:18:13
Well hello, Mr. Kepler...

http://www.abload.de/img/54617197w4z0h.jpg (http://www.abload.de/image.php?img=54617197w4z0h.jpg)

http://www.chiphell.com/forum.php?mod=viewthread&tid=371058&page=7#pid11248448

Schaffe89
2012-03-02, 15:26:08
Mit einem besserem perf/W ratio hat man durchaus bessere Chancen dieses zu erreichen.

AMD hat doch schon sehr gut vorgelegt.
Unter anderem mit der HD 7750. Knapp HD 5770/6770 Leistung bei einem verbrauch von knapp über 40Watt.
Ich verstehe nicht, warum Nvidia nicht etwas mehr Details preisgibt, wenn doch soo bald schon der Launch sein soll.
Wann jetzt nochmal? 30.3 nehme ich an.

@ boxleitnerb

Ohne klassischen Nvidia Heatspreader?

Blediator16
2012-03-02, 15:30:05
Well hello, Mr. Kepler...
http://www.abload.de/img/54617197w4z0h.jpg (http://www.abload.de/image.php?img=54617197w4z0h.jpg)

http://www.chiphell.com/forum.php?mod=viewthread&tid=371058&page=7#pid11248448

2 Lüfteranschlüsse?

Iruwen
2012-03-02, 15:31:33
Vor kurzem hieß es noch wenn Nvidia großes Trara macht (wie bei Fermi) wirds am Ende ein Fail und wenn sie die Klappe halten kommt was Nettes, passt euch das jetzt auch wieder nicht? Wartets halt ab, bestenfalls wissen wir in einem knappen Monat Bescheid und egal was kommt, ob Granate oder nur brauchbar, es wird gut genug sein dass die Preise hoffentlich endlich nachgeben.

Nighthawk13
2012-03-02, 15:32:12
Anschlusstechnisch sieht's nach 2xDVI, 1xDP, 1xHDMI aus. Hoffentlich gehen dieses Mal wenigstens 3 davon gleichzeitig:freak:

boxleitnerb
2012-03-02, 15:33:13
Jetzt mal sehen wie groß das ist. Sieht aber ein gutes Stück kleiner aus wie Tahiti.

Iruwen
2012-03-02, 15:35:11
Ist es mit dem Turm überhaupt möglich ein 2 Slot design zu machen? sieht schon verdammt hoch aus, wenn ich da an meine 5870 denke.

Wird auf jeden Fall verdammt knapp mit den 2 Slots.

PS: Ich geh davon aus, das es grad so rein passt in 2 Slots, man also am Besten einen Slot frei lassen sollte/muss zwischen zwei Karten.

Well hello, Mr. Kepler...

http://www.abload.de/img/54617197w4z0h.jpg (http://www.abload.de/image.php?img=54617197w4z0h.jpg)

http://www.chiphell.com/forum.php?mod=viewthread&tid=371058&page=7#pid11248448

Frage beantwortet.

dargo
2012-03-02, 15:35:15
2 Lüfteranschlüsse?
Ich sehe da nur einen (4 Pin).

AnarchX
2012-03-02, 15:36:25
Jetzt mal sehen wie groß das ist. Sieht aber ein gutes Stück kleiner aus wie Tahiti.

Wohl vergleichbar groß. Zwischen 320mm² und 365mm² liegen ja auch nur 1mm pro Kante.
Kleiner als diese 320mm² ist er imo nicht.

boxleitnerb
2012-03-02, 15:37:34
Wer will messen? :)
Wie sind die Maße für die Speicherchips?

dildo4u
2012-03-02, 15:41:01
Ich sehe da nur einen (4 Pin).
Neben dem 8 und 6 Pin Anschluss.

Gipsel
2012-03-02, 15:44:25
Well hello, Mr. Kepler...

http://www.abload.de/img/54617197w4z0h.jpg (http://www.abload.de/image.php?img=54617197w4z0h.jpg)

http://www.chiphell.com/forum.php?mod=viewthread&tid=371058&page=7#pid11248448
Kennt einer die typischen Lochabstände oder die Breite der Speicherchips, damit wir endlich mal rauskriegen, ob GK104 ~340mm² oder doch nur ~300mm² groß ist? Der PCI-Express-Slot ist ja nicht zu sehen.

Iruwen
2012-03-02, 15:45:01
Neben dem 8 und 6 Pin Anschluss.

Den meint er doch, vierpoliger PWM-Anschluss.

/e: ist der zweipolige Anschluss nicht für Sound via HDMI? Da kommt S/PDIF vom Mobo bzw. der Soundkarte drauf.

boxleitnerb
2012-03-02, 15:53:57
Kennt einer die typischen Lochabstände oder die Breite der Speicherchips, damit wir endlich mal rauskriegen, ob GK104 ~340mm² oder doch nur ~300mm² groß ist? Der PCI-Express-Slot ist ja nicht zu sehen.

Aus dem Southern Island Thread von Davidzo:

Und ein FBGA-170-Ball-Package wie es Samsung und Hynix verwenden misst 12 mm * 14 mm = 168 mm².

Hier nochmal direkt von Hynix:
http://www.hynix.com/mail/newsletter_2010_01/eng/sub03.html

Ich hab mal grob abgemessen. Das Die ist 45x47 Pixel, die kleinere Seite eines Speicherchips (12mm) sind 30 Pixel. Macht ca. 340mm2. Unter 300mm2 scheint es garantiert nicht zu sein.

Blediator16
2012-03-02, 16:11:36
Falls dieser wirklich 340mm² klein sein sollte, dann wären das ein Unterschied von ca. -7% zu Tahiti.

@Iruwen: Ich dachte der Sound wurde auch immer über 4 pol angeschlosse...zumindest bei meiner alten NV ^^

Gipsel
2012-03-02, 16:13:35
Das mit den Speicherchipabmessungen hatte ich mir auch gerade bei Hynix aus dem Datenblatt geholt. Aber danke.
Ich hab mal grob abgemessen. Das Die ist 45x47 Pixel, die kleinere Seite eines Speicherchips (12mm) sind 30 Pixel. Macht ca. 340mm2. Unter 300mm2 scheint es garantiert nicht zu sein.

Wie bei B3D schon geschrieben, komme ich rein rechnerisch auf 349mm². Aber da ist der Fehler auch ziemlich groß wegen der geringen Auflösung der Aufnahme. Aber unter 330mm² dürfte es wohl eher nicht sein. Insofern kommen die von Charlie mal angegeben ~342mm² (18,5x18,5mm² als Mitte des Bereiches) schon ganz gut hin.

Edit:
Falls nVidia die gleiche Transistoren-Packdichte wie AMD erreicht, könnten sie wegen dem 256bittigen Speicherinterface (weniger platzfressendes IO-Pads als Tahiti) da ebenfalls ~4,3 Milliarden Transistoren reinpacken.

Iruwen
2012-03-02, 16:15:30
@Iruwen: Ich dachte der Sound wurde auch immer über 4 pol angeschlosse...zumindest bei meiner alten NV ^^

Nö (http://www.google.de/search?hl=de&newwindow=1&safe=off&q=nvidia+spdif&ix=seb&ion=1&bav=on.2,or.r_gc.r_pw.r_cp.,cf.osb&biw=1024&bih=621&um=1&ie=UTF-8&tbm=isch&source=og&sa=N&tab=wi&ei=teNQT-O1GMjQhAftw6SEDA)

Blediator16
2012-03-02, 16:17:48
Na gut. Kann natürlich sein, dass bei mir ein 4pol großer Anschluss war, aber nur 2 wirklich gebraucht bzw. verbaut waren^^

Zergra
2012-03-02, 16:27:45
Vor kurzem hieß es noch wenn Nvidia großes Trara macht (wie bei Fermi) wirds am Ende ein Fail und wenn sie die Klappe halten kommt was Nettes, passt euch das jetzt auch wieder nicht? Wartets halt ab, bestenfalls wissen wir in einem knappen Monat Bescheid und egal was kommt, ob Granate oder nur brauchbar, es wird gut genug sein dass die Preise hoffentlich endlich nachgeben.
Nur das es auch Wunschdenken war, :) und durch die nichtankündigungen wirds immer Spannender.
Noch einen Monat und wir sollten mehr wissen, wenn das Datum den stimmt. Denn was Offizielles gab es dort nicht.

Dural
2012-03-02, 16:28:25
das sieht mir ziemlich nach G92 grösse aus, also was um die 320-340mm2

nach augenmass ;)

boxleitnerb
2012-03-02, 16:28:47
Woanders wird überlegt, ob das nicht ein Testboard ist und die Anschlüsse sind u.a. für Testequipment.

Dural
2012-03-02, 16:31:35
naja glaub ich nicht, die karte ist hässlich, geht ja mal gar nicht... auch die Phasen Anordnung finde ich nicht gerade gelungen...

NV hat in einem Punkt schon mal Versagt ;D

boxleitnerb
2012-03-02, 16:32:25
Nach Retailboard siehts wohl kaum aus ;)

Blediator16
2012-03-02, 16:39:27
Vorallem ist da noch neben dem 6pol Turm etwas Platz für einen 8pol Anschluss. Wird bestimmt nru ein Testboard sein. Wer weiß wie alt das Teil ist.

AnarchX
2012-03-02, 16:42:08
Vorallem ist da noch neben dem 6pol Turm etwas Platz für einen 8pol Anschluss. Wird bestimmt nru ein Testboard sein. Wer weiß wie alt das Teil ist.
Ein 6-Pol ist da noch frei.
Und es wurde doch im Thread mehrfach erklärt, dass hier einfach eine Flexibilität bzgl. der Stromanschlüsse besteht.
Eine 7970 Retail ist auch "2x8-Pin"-ready.


Falls nVidia die gleiche Transistoren-Packdichte wie AMD erreicht, könnten sie wegen dem 256bittigen Speicherinterface (weniger platzfressendes IO-Pads als Tahiti) da ebenfalls ~4,3 Milliarden Transistoren reinpacken.
Laut Ailuros sollten es doch eher 3,xx Mrd. sein und näher an 3 als an 4 Mrd..

Gipsel
2012-03-02, 16:46:50
Laut Ailuros sollten es doch eher 3,xx Mrd. sein und näher an 3 als an 4 Mrd..
Deswegen habe ich das "falls" und "könnte" extra fett gekennzeichnet. Es kann nur eines von beiden stimmen (also entweder 3,x Mrd. Tranistoren oder vergleichbare Packdichte). ;)

AnarchX
2012-03-02, 16:49:37
War es nicht so, dass die geringeren Packdichten für NV ein teilweise höhere Ausbeute ermöglicht haben?

Gipsel
2012-03-02, 16:52:56
Neuer Prozeß, neues Spiel.
Die Packdichten haben eher weniger mit der Ausbeute an sich zu tun, eher mit den möglichen Taktraten oder anderen Anteilen verschieden dichter Strukturen (SRAM, [custom?] Logik und deren Vernetzung mittels Datenleitungen und Crossbars/Bussen).

M4xw0lf
2012-03-02, 17:29:34
Woanders wird überlegt, ob das nicht ein Testboard ist und die Anschlüsse sind u.a. für Testequipment.

Das wollte ich auch schreiben, das Board sieht nicht so aus als wäre es für die Serienproduktion bestimmt. Erstens die seltsame Vielfalt an Stromanschluss-Pins mitsamt dem 6+6-Pin Doppeldecker, dann noch die verschiedenen Lüfter- oder sonstwas -anschlüsse und vor allem das seltsame Layout der Spannungsversorung, das sieht alles nicht nach einer produktfertigen Karte aus.

Ailuros
2012-03-02, 18:18:19
Ich bin bei sowas immer skeptisch bzw. gebe auf solche Berichte nicht viel. Das letzte Beispiel warum das auch Sinn macht: Bulldozer. Im Vorfeld viel Trara von wegen neuem Design, höheren Taktraten und gestiegener IPC zusammen mit der Meldung die FX Bezeichnung wieder auszupacken weil man jetzt wieder ganz vorne mitmischen kann. Und was war? Gar nix...
Von daher sollte man meiner Meinung nach Meldungen in denen Kepler schon im Vorfeld abgefeiert wird erstmal ignorieren - ob was dran ist wird das fertige Produkt dann zeigen...

Das einzige was man festhalten sollte, ist dass NV selber einfach mehr von Tahiti erwartet haben.


Die Tahitis haben aber nicht später größere Taktreserven, sondern schon jetzt und zwar lange Zeit ohne Spannungserhöhung (weil die Grundspannung an sich relativ hoch ist, was den derzeitigen Tahiti in Puntko Verbrauch sicherlich auch etwas herabstuft). Zusammen mit den Gerüchten, dass man die Taktfreudigkeit bei Pitcairn durch die zusätzliche Zeit verbessern konnte spricht für mich dafür, dass es AMD nicht unbedingt schwer fallen sollte einen Tahiti mit 1,1-1,2GHz zu postieren...

Pitcairn ist ein ganz anderes Tier da der chip auch >30% weniger die area hat als Tahiti. Sonst haben sowohl AMD als auch NVIDIA das gleiche eigentliche Problem und das liegt in einer neuen Architektur und die relevanten Treiber/Leistungs-anpassungen werden nicht ueber Nacht kommen.

GK104 die area liegt ein gesundes Stueck unter Tahiti die area.

Dagegen habe ich ja auch gar nichts gesagt. Es ging hier letztlich aber ja vor allem darum, ob GK104 Tahiti gefährlich werden kann was die Performancekrone angeht - da gab's dann ja geteilte Meinungen...

Es war NIE die Rede zumindest von mir ausser von HANDAUSGESUCHTEN benchmark Faellen. Um mich selber zu zitieren eine relevante Beschreibung war dass GK104 lediglich etwas am Hintern von einer XT kratzt.


Ich glaube da hast du mich falsch verstanden. Mit "Euphoriedämpfer" meinte ich die Ernüchterung die sich im von dir beschriebenen "Korken-knall-Szenario" einstellte, als dann offensichtlich wurde, dass Tahiti den Yields bzw. dem frühen Start zuliebe deutlich unter seinen Möglichkeiten getaktet wurde und GK104 dann nicht mehr ganz so überragend dasteht, wie man noch dachte, als man nur auf die Zahlen auf den Specs geguckt hat...

Wenn Du anfangs als engineer erwartet haettest dass GK104 sich eher mit Pitcairns pruegeln wird und es stellt sich danach heraus dass es doch eher teilweise Tahiti Konkurrenz ist wuerdest auch euphorisch darueber sein. Was genau ist daran schwer zu verstehen?

Was GK110 nun angeht - da kann ich keine wirklich profunde Vorhersage machen. Du täuschst dich aber wenn du glaubst, dass ich ihn nur 20% vor Tahiti sehe. Vielmehr ist es so, dass ich ihn 20% vor jenem spekulativen Tahiti mit erhöhtem Takt sehe. Im Endeffekt also eine ähnliche Situation wie wir sie heute auch haben - NVIDIA liegt dank größerem Chip klar vorne, allerdings sehe ich AMD mit einem hochgezüchtetem Tahiti dann nicht ganz so arg abgeschlagen wie zu HD2900 oder HD3870 Zeiten. Das ist aber nach wie vor alles Spekulatius - allerdings kann ich mir nicht vorstellen, dass NVIDIA zaubern kann was die Leistung angeht und ein GK110 ist ja im Gegensatz zum GK104 stärker auf GPGPU ausgelegt, weswegen ich nicht denke, dass man dort im Hinblick auf Spiele ein ähnliches Perf/W Verhältnis erreicht, also die evtl. Vorteile eines GK104 einfach extrapolieren kann...

GK110 ist eine leicht andere Geschichte und das von vielen Aspekten und nicht nur HPC relevantes Zeug. Zur Erinnerung GF110 hatte um die 12% mehr Transistoren als Cayman; ergo ist der durchschnittliche Leistungs-Unterschied zwischen diesen beiden auch keine allzu besondere Ueberraschung. Wie's jetzt bei GK110 vs. Tahiti aussehen koennte ueberlasse ich jederman's Phantasie.

boxleitnerb
2012-03-02, 18:19:02
Kyle Bennett vor 3 Minuten :D

I am seeing information out of China this morning showing 45% to 50% performance increase over 580 in canned benchmarks.

It will have NV Surround out of the box on a single card.

Gut, wenn man krank ist, dann verpasst man nix, hehe.

Ailuros
2012-03-02, 18:28:49
Kyle Bennett vor 3 Minuten :D

Das sind lediglich die best case scenarios. Ich wuerde nicht allzu viel Wert auf diese legen.

boxleitnerb
2012-03-02, 18:32:46
Schon klar, ich kann Englisch ;)
Ich hoffe bloß, man hat die Schwäche bei hohen Auflösungen mit Kepler ausgeräumt? Auch wenn GK104 nicht primär für 1600p und höher gedacht ist, könnte ich mir vorstellen, dass man dort trotzdem überdurchschnittlich weit vor der 580 liegt.

Käsetoast
2012-03-02, 18:59:11
Wenn Du anfangs als engineer erwartet haettest dass GK104 sich eher mit Pitcairns pruegeln wird und es stellt sich danach heraus dass es doch eher teilweise Tahiti Konkurrenz ist wuerdest auch euphorisch darueber sein. Was genau ist daran schwer zu verstehen?
Ich würde da wohl eher von erfolgreicher Selbsttäuschung reden wenn deine Beschreibung zutreffend ist. AMD hat doch an den Größen ihrer Chips nicht viel geändert und vorausgesetzt beide Seiten machen einen guten Job, dann ist doch ein ähnliches Ergebnis zu erwarten wie wir es derzeit auch haben. Der GF114 kratzt auch am Cayman. Sind da damals auch die Korken geknallt? Wenn ich jetzt höre, dass NVIDIA davon ausgegangen ist, dass GK104 nicht an Tahiti herankommt, dann würde ich das eher als unbegründete deutliche Überschätzung des Konkurrenten sehen und nicht als eine Leistung des eigenen Teams die man abfeiern kann...

Aber selbst wenn relativiert sich die Sache meiner Ansicht nach dahigehend, dass Tahiti einfach unter den Möglichkeiten rausgedrückt wurde um im Januar den Marktführer zu bilden was Performance angeht. Hätte man Tahiti als letztes im März / April gebracht wäre da sicher etwas mehr Takt bei rumgekommen. Das ist halt der Punkt den ich als Euphoriedämpfer meinte: Man sollte auch das "Big Picture" im Auge behalten. Ist die Stimmung immer noch so gut wenn man sich die Möglichkeiten die Tahiti in der Hinterhand hat ansieht (und die ohne Frage überdurchschnittlich sind und wo man nicht nur mit "alle Chips werden durch bessere Fertigungsbeherrschung mit der Zeit taktfreudiger" argumentieren kann mit Blick in die Zukunft)?

Ailuros
2012-03-02, 19:17:52
Ich würde da wohl eher von erfolgreicher Selbsttäuschung reden wenn deine Beschreibung zutreffend ist. AMD hat doch an den Größen ihrer Chips nicht viel geändert und vorausgesetzt beide Seiten machen einen guten Job, dann ist doch ein ähnliches Ergebnis zu erwarten wie wir es derzeit auch haben. Der GF114 kratzt auch am Cayman.

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/10/#abschnitt_leistung_mit_aaaf

11% unter einer 6950 im Durchschnitt und 27% unter einer 6970. Und genau hier liegt eben das Problem, dass jeder "kratzen" so versteht wie es ihm gerade passt.

Sind da damals auch die Korken geknallt? Wenn ich jetzt höre, dass NVIDIA davon ausgegangen ist, dass GK104 nicht an Tahiti herankommt, dann würde ich das eher als unbegründete deutliche Überschätzung des Konkurrenten sehen und nicht als eine Leistung des eigenen Teams die man abfeiern kann...

NV ist wohl lediglich zuversichtlich dass sich die bisherige Geschichte nicht wiederholt.

Aber selbst wenn relativiert sich die Sache meiner Ansicht nach dahigehend, dass Tahiti einfach unter den Möglichkeiten rausgedrückt wurde um im Januar den Marktführer zu bilden was Performance angeht. Hätte man Tahiti als letztes im März / April gebracht wäre da sicher etwas mehr Takt bei rumgekommen. Das ist halt der Punkt den ich als Euphoriedämpfer meinte: Man sollte auch das "Big Picture" im Auge behalten. Ist die Stimmung immer noch so gut wenn man sich die Möglichkeiten die Tahiti in der Hinterhand hat ansieht (und die ohne Frage überdurchschnittlich sind und wo man nicht nur mit "alle Chips werden durch bessere Fertigungsbeherrschung mit der Zeit taktfreudiger" argumentieren kann mit Blick in die Zukunft)?

Genau das "big picture" wurde und wird im Auge behalten bei solch einer Beschreibung. Wie schon zich Male erwaehnt eins der Ziele NV's war mobilen Marktanteil zurueckzuerobern und sie haben sehr gute Chancen dafuer.

Sonst tut mir leid aber ich hab auch besseres zu tun als jeglichen albernen Mist bis zum geht nicht mehr zu ueberanalysieren nur weil manches nicht in jegliches subjektives Anschaubild nicht passen sollte. Euphorisch waren sie auch nach dem ersten Fermi tape out bis sie in ihre eigene Pampe selber getrabt sind. Einfacher: Du liesst viel zu stark in den Mist rein. Langfristig kann sich keiner von der Realitaet verstecken.

boxleitnerb
2012-03-02, 19:39:48
Btw...noch was von Kyle Bennett:

I am not under NDA/Embargo on this GPU at this moment. None of my information is coming from NVIDIA.

Es geht ja um GK104. Das wäre extrem komisch. Er hat Infos gekriegt, eindeutig. Aber über welchen Chip?? Kommt GK110 vielleicht doch zuerst und alles, was wir bisher zu GK110 gehört haben, war massiver FUD?

Zur Erinnerung (18.2.):
FWIW, NVIDIA has never spoken to us about its next-gen GPU. We have no dates as to when we are to see it, no NDAs or information embargoes exists.....nada, nothing, zip.

Am 21.2.
I retract this statement.

Könnte auch heißen, ihnen wurde gesagt, dass GK104 auf der GDC gezeigt wird und das NDA erst dann beginnt. Dann würden seine Aussagen zusammenpassen (fett markierte Sätze). Man unterschreibt das NDA ja erst, wenn man gebrieft wird, oder? Und das wäre eben erst auf der GDC.

Käsetoast
2012-03-02, 19:40:09
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/10/#abschnitt_leistung_mit_aaaf

11% unter einer 6950 im Durchschnitt und 27% unter einer 6970. Und genau hier liegt eben das Problem, dass jeder "kratzen" so versteht wie es ihm gerade passt.
11% mag zwar nach viel klingen, aber du musst das auch mal praktisch sehen. Geh in irgendein Kaufberatungsforum und du wirst mit Sicherheit zig Themen finden von wegen "Soll ich eine 6950 oder 560 Ti kaufen?", wo es neben der reinen Leistung dann ja auch noch andere Faktoren wie PhysX gibt. Ansonsten würde ich ein "nahe herankommen" durchaus als "kratzen" bezeichnen und in diesem Fall ist die 560 Ti nicht allzu weit von der 6950 entfernt (was auf der 560 Ti nicht flüssig läuft wird auch auf der 6950 nicht wirklich besser sein) bzw. die 560 Ti ist sogar die Karte beider Hersteller, die der 6950 am Nächsten kommt...

Wie schon zich Male erwaehnt eins der Ziele NV's war mobilen Marktanteil zurueckzuerobern und sie haben sehr gute Chancen dafuer.
Habe ich irgendwo was dagegen gesagt? Nein...

Sonst tut mir leid aber ich hab auch besseres zu tun als jeglichen albernen Mist bis zum geht nicht mehr zu ueberanalysieren nur weil manches nicht in jegliches subjektives Anschaubild nicht passen sollte. Euphorisch waren sie auch nach dem ersten Fermi tape out bis sie in ihre eigene Pampe selber getrabt sind. Einfacher: Du liesst viel zu stark in den Mist rein. Langfristig kann sich keiner von der Realitaet verstecken.
Ich glaube du verstehst überhaupt nicht was ich eigentlich sagen will. Ich habe lediglich deine Wortwahl dahingehend, dass da im Angesicht von GK104 <-> Tahiti Korken fliegen, als überdramatisiert dargestellt. Damit hast du im Endeffekt was anderes impliziert als du anscheinend sagen wolltest, weswegen du dich dann ja auch darüber aufregst hier nun ständig "zurückrudern" zu müssen (und damit meine ich nicht nur unsere Konversation), obwohl es aus deiner Sicht dafür keinen Grund gibt. Das war halt der Punkt den ich ansprechen wollte: Ich denke du hast einige Dinge einfach unglücklich formuliert, denn die kommen ganz anders rüber als du dir vielleicht bewusst bist...

Von daher brauchst du mit mir auch gar nicht über die Position von GK110 diskutieren die du dann ins Spiel brachtest, oder auch jetzt die Geschichte mit dem Ziel der mobilen Marktanteile. Da implizierst du Kritik von mir an deinen Aussagen, die ich gar nicht geäußert habe... :smile:

Ailuros
2012-03-02, 19:46:56
Btw...noch was von Kyle Bennett:



Es geht ja um GK104. Das wäre extrem komisch. Er hat Infos gekriegt, eindeutig. Aber über welchen Chip?? Kommt GK110 vielleicht doch zuerst und alles, was wir bisher zu GK110 gehört haben, war massiver FUD?

GK110 kann und wird nicht in so einem praesentablem Zustand sein wie GK104. Natuerlich redet er ueber GK104 oder GTX680 und eben nicht ueber GK110.

y33H@
2012-03-02, 19:54:51
Könnte auch heißen, ihnen wurde gesagt, dass GK104 auf der GDC gezeigt wird und das NDA erst dann beginnt.Hat OBR bereits geschrieben - GDC wird Kepler GK104 angeblich gezeigt, nur hat Kyle halt wohl das NDA noch nicht signiert und er macht es erst vor Ort :wink:

boxleitnerb
2012-03-02, 19:55:16
Dann denke ich, macht meine Interpretation am Schluss noch am meisten Sinn, oder? Infos über GK104 aber noch kein NDA, erst in ca. einer Woche. Bloß: Welche Infos hat er dann gekriegt? Wenn ich es mir nochmal überlege, macht es keinen Sinn: Man wird ja kaum hergehen und ihm schreiben "Es wird um GK104 gehen auf der GDC, das NDA musst du aber erst später unterschreiben, wenn du hier antanzt."

Hat OBR bereits geschrieben - GDC wird Kepler GK104 angeblich gezeigt, nur hat Kyle halt wohl das NDA noch nicht signiert und er macht es erst vor Ort :wink:

Ist das üblich? Naja die richtig brisanten Details erfährt er wohl auch erst dort, also ist es halb so wild, dass er mit dem "I retract this statement" was angedeutet hat. Ich dachte, das wäre dann schon Vertragsbruch.

y33H@
2012-03-02, 20:21:30
Sofern er nichts unterschrieben hat, kann Kyle machen, was er will. Gut - das kann er auch nach dem NDA, allerdings gestaltet sich dann wohl die Zusammenarbeit mit NV in Zukunft schwierig ^^

Man wird ja kaum hergehen und ihm schreiben "Es wird um GK104 gehen auf der GDC, das NDA musst du aber erst später unterschreiben, wenn du hier antanzt."Bei guten Kontakten (und da fällt Kyle rein) kann man das schon machen. Gerade bei Leuten die für Print arbeiten sind ein paar grundlegende Informationen wichtig, da ja zB geplant werden muss, ob das Event Seiten hergibt und wenn ja, wie viele. Außerdem ist bei den aktuellen Leaks ziemlich klar, worum es sich handeln dürfte.

Zudem ist das Ganze einfach eine Sache des Vertrauens - niemand, der NDAs unterzeichnet und seriös arbeitet, wird diese bewusst brechen. Weder vor noch nach dem eigentlichen schriftlichen Unterzeichnen. Zumal er betont, er hat kein NDA aktuell - also kann ihm NV nichts Böses, außer er übertreibt und sie laden ihn aus ... was unwahrscheinlich ist.

AnarchX
2012-03-02, 21:48:21
Ein Leck kann wohl ganze Dämme zum Einsturz bringen. ;)

GK107 - GT 650M DDR3!:
http://we.pcinlife.com/data/attachment/forum/201203/02/221138yniyzzoykyy5ikyi.jpg

Wohl wieder das Problem, dass GPU-Z versucht einen Base-Clock zu errechen, der bei Kepler aber nun der Shaderclock ist. Also wohl möglich 810MHz Takt für TMUs und SPs.

http://we.pcinlife.com/data/attachment/forum/201203/02/221138fa4pe5z03pnf0er5.jpg

Die-Size: ~130-140mm² (http://forum.beyond3d.com/showpost.php?p=1624483&postcount=2036)

http://we.pcinlife.com/data/attachment/forum/201203/02/2211389hlhr3zl0ulz85e8.jpg

http://we.pcinlife.com/forum.php?mod=redirect&goto=findpost&ptid=1844549&pid=33452412

Vergleichswerte:
GT 550M@768p:
http://i51.tinypic.com/nq44li.jpg
http://www.cooltoyzph.com/viewitem.php?iid=632

~50% Leistungzuwachs im SM3.0/HDR Score, trotz gleicher Bandbreite.

GK107-Überblick (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209)

boxleitnerb
2012-03-02, 22:00:49
Was ist denn ein guter Vergleichswert? Der OBR von Futuremark nervt, da tauchen erst Hundert OC-Resultate auf und dann nix. Sortierfunktion mangelhaft...

AnarchX
2012-03-02, 22:02:04
Was ist denn ein guter Vergleichswert? Der OBR von Futuremark nervt, da tauchen erst Hundert OC-Resultate auf und dann nix. Sortierfunktion mangelhaft...
http://www.notebookcheck.com/NVIDIA-GeForce-GT-550M.42263.0.html

20-30% gegenüber dem Vorgänger bei gleicher Bandbreite.

In 3DMark Vantage/11 könnte wohl die Leistung besser ankommen.

dargo
2012-03-02, 22:04:40
Ein Leck kann wohl ganze Dämme zum Einsturz bringen. ;)

GK107 - GT 650M DDR3!:
http://we.pcinlife.com/data/attachment/forum/201203/02/221138yniyzzoykyy5ikyi.jpg
http://we.pcinlife.com/data/attachment/forum/201203/02/221138fa4pe5z03pnf0er5.jpg
http://we.pcinlife.com/data/attachment/forum/201203/02/2211389hlhr3zl0ulz85e8.jpg

http://we.pcinlife.com/forum.php?mod=redirect&goto=findpost&ptid=1844549&pid=33452412

Im bandbreitenlastigen 3DM06 verhungert die recht potente GPU aber durch den DDR3.
Boah... die Speicherbandbreite ist echt der absolute Witz. X-D

boxleitnerb
2012-03-02, 22:06:18
Ist denn inzwischen klar, ob diese 650M auf Fermi oder Kepler basiert?

dildo4u
2012-03-02, 22:06:30
Interresant Shadereinheiten von 96 auf 384 dann kommen für Kepler die 1536 wohl hin.560Ti (384 *4)

AnarchX
2012-03-02, 22:07:45
Ist denn inzwischen klar, ob diese 650M auf Fermi oder Kepler basiert?
Device-ID (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209) und die 384SPs sprechen doch deutlich für Kepler.

Boah... die Speicherbandbreite ist echt der absolute Witz. X-D
Leider im Mobile-Bereich üblich und auch bei <100€ Desktop-GraKas (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9163832#post9163832).

derguru
2012-03-02, 22:10:20
interessant ist der geringe gpu-takt von 405mhz,wenn es richtig ausgelesen wird.

dildo4u
2012-03-02, 22:11:15
interessant ist der geringe gpu-takt von 405mhz,wenn es richtig ausgelesen wird.
2DState?

boxleitnerb
2012-03-02, 22:12:39
Vielleicht gibts von dem Teil auch noch eine GDDR5-Version im Desktop.

AnarchX
2012-03-02, 22:13:22
2DState.
GPU-Z zeigt doch keinen 2D-State an als Default-Clock.
Meine Vermutung, wie bei dem BSN-Treiberbild, die GPU gibt eine Taktrate aus, die dann hier nach Fermi-Muster durch 2 geteilt wird, was für Kepler aber nicht mehr passt.

Imo sind es wohl 384SPs@810MHz.

Vielleicht gibts von dem Teil auch noch eine GDDR5-Version im Desktop.
Natürlich wird es diese geben. Ebenso wird die GTX 660M GDDR5 verwenden, theoretisch könnte es wohl eine 650M mit GDDR5 geben, aber diese wird wohl sehr selten verbaut.

boxleitnerb
2012-03-02, 22:22:40
Wie war noch gleich der Unterschied zwischen GDDR3 und GDDR5? Nur höhere Taktraten oder lag da noch ein Faktor 2 bei der übertragenen Datenmenge pro Takt dazwischen?

Dural
2012-03-02, 22:25:24
bei einer ddr3 version wird wohl kein voller gk107 verbaut :rolleyes:

512sp für gk107 wären zwar richtig viel hmmm

Undertaker
2012-03-02, 22:25:40
http://www.notebookcheck.com/NVIDIA-GeForce-GT-550M.42263.0.html

20-30% gegenüber dem Vorgänger bei gleicher Bandbreite.

Eher noch mehr, der schwache i3-2350M dürfte im 3DM06 schon etwas limitieren. Für 128Bit-DDR3 ist der Wert äußerst beeindruckend - ist Kepler so effizient mit seiner Bandbreite? :confused: Eine HD 6850M DDR3 kommt da nicht einmal annähernd heran.

AnarchX
2012-03-02, 22:26:07
Wie war noch gleich der Unterschied zwischen GDDR3 und GDDR5? Nur höhere Taktraten oder lag da noch ein Faktor 2 bei der übertragenen Datenmenge pro Takt dazwischen?
900MHz DDR3 - 1,8Gbps
900MHz* GDDR5 - 3,6Gbps

*Command-Rate/Steuer-Takt

Eher noch mehr, der schwache i3-2350M dürfte im 3DM06 schon etwas limitieren. Für 128Bit-DDR3 ist der Werte äußerst beeindruckend - ist Kepler so effizient mit seiner Bandbreite? :confused: Eine HD 6850M DDR3 kommt da nicht einmal annähernd heran.
Bei den Einzelwerten geht der Unterschied zwischen 550M und 650M wohl doch in Richtung 50%:
http://we.pcinlife.com/data/attachment/forum/201203/02/2211389hlhr3zl0ulz85e8.jpg
550M Vergleich: http://hwbot.org/image/714461.jpg

Wobei sich die Frage stellt ob die 650M mit 1280x1024 getestet wurde.

edit: 550M@768p: http://i51.tinypic.com/nq44li.jpg
Im SM3.0 Score trotzdem noch ~50% Zuwachs.

bei einer ddr3 version wird wohl kein voller gk107 verbaut :rolleyes:

512sp für gk107 wären zwar richtig viel hmmm
Es gibt ja noch eine GT 640M (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9061209#post9061209), aber durchaus möglich, dass die finale 650M nur 288SPs hat.
Bei dem BSN-Screen sah es danach aus: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9142229#post9142229

Skysnake
2012-03-03, 00:05:24
Eher noch mehr, der schwache i3-2350M dürfte im 3DM06 schon etwas limitieren. Für 128Bit-DDR3 ist der Werte äußerst beeindruckend - ist Kepler so effizient mit seiner Bandbreite? :confused: Eine HD 6850M DDR3 kommt da nicht einmal annähernd heran.
sieht wohl so aus.

Könnte für recht große Caches sprechen, oder eben ein effizienteres packen der Daten.

Ich tendiere eher zu größeren Caches, da sich die GPGPU Gemeinde darüber sehr freuen würde, und man sich damit auch öfters erspart vom Chip überhaupt runter zu gehen.

Die Daten sind näher an den Funktionseinheiten, und wie wir aus dem Beitrag von Gipsel ja spätestens wissen, ist das SEHR wichtig, um eine gute Perf/W zu erreichen ;D

derguru
2012-03-03, 00:31:17
finde den wert auch saustark,die performance liegt in etwa auf 8800gtx niveau.

edit:nee ein gutes stück schneller sogar.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5023724&postcount=66

mczak
2012-03-03, 00:46:43
Eher noch mehr, der schwache i3-2350M dürfte im 3DM06 schon etwas limitieren. Für 128Bit-DDR3 ist der Wert äußerst beeindruckend - ist Kepler so effizient mit seiner Bandbreite? :confused: Eine HD 6850M DDR3 kommt da nicht einmal annähernd heran.
Naja also nicht annäherend ist etwas übertrieben. Die kommt auch so auf etwa ~10k.
Ausserdem haben die 6850M bloss 800Mhz ddr3-Takt gegenüber den 900Mhz dieses gk107 - das macht dann bei diesen extrem bandbreitenlimitierten Varianten sicher auch wieder mindestens 5% im Gesamtscore aus. Wären dann also nur noch so um die 10% Differenz.
Aber interessanter wäre sowieso ein Cape Verde zum Vergleich, den gibt's dann doch sicher auch als ddr3-Variante für Notebooks. Auch wenn ich das für kaum sinnvoll halte...
50% mehr im sm3-Score (und bloss 30% gesamt) gegenüber gt550m ist ja erstmal auch nicht so wahnsinnig, hat der Chip (bei diesem Takt) doch 110% mehr SM-Resourcen. Bei der ddr3-Variante sieht man aber leider wohl kaum wozu der wirklich Chip fähig ist (bei gf108 war das noch anders, der hat bloss marginal von gddr5 profitiert). gk107 _muss_ ganz einfach stark von höherer Speicherbandbreite profitieren können, sonst wäre der Chip im Vergleich zu Cape Verde doch arg misslungen.

Hübie
2012-03-03, 01:21:52
Kyle's Informant ist derjenige der das NDA unterschrieben hat und bricht. Ist doch ganz einfach. Kyle selber braucht sich also so oder so keine Sorgen machen, da die Infos nicht von NVIDIA kamen.

Das gezeigte PCB ist natürlich nicht das retail-board...

AnarchX
2012-03-03, 11:28:01
Die Die-Size von GK107 liegt wohl bei 130-140mm² (http://forum.beyond3d.com/showpost.php?p=1624483&postcount=2036) und damit auf einem vergleichbaren Niveau zu Cape Verde.

Dural
2012-03-03, 11:32:30
hoffentlich wird kepler gut, mal endlich wieder vernünftige GPUs müssen her.

die 7xxx serie von amd ist ja nett ausgedrückt sehr bescheiden, 20-30% mehr leistung als die direkten vorgänger bei selben verbrauch und das bei einem neuen prozess und neuer architektur... einfach nur schwach! :rolleyes:

mir ist es auch ein rätsel wie so amd da so voreilig karten raus haut, bisschen optimieren und die ganze 7xxx würde deutlich besser da stehen!

naja ist halt amd ;)

horn 12
2012-03-03, 11:46:23
Da muss NV erst mal kontern.
Max. HD 7950 OC dürfte drinnen sein,-
Zudem wird GF104 wohl auch 350+ Euro kosten, da NV die Karten nicht verschenken will.

foenfrisur
2012-03-03, 11:51:02
es wird mal wieder gerne vergessen, das das frühe erscheinungsdatum und die damit einhergehenden fertigungsprobleme zu dem aktuellen tahiti geführt haben ;)

bekannt ist auch, das tahiti HEUTE schon weitere 30% schneller sein kann, bei NUR 30watt mehr verbrauch.
siehe diverse reviews.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/21154-test-gigabyte-gv-r797oc-3gd.html?start=14

kepler wird sicher gut, vielleicht auch hier und da etwas besser, als der aktuelle tahiti, aber eben auch keine wunderkarte.

mfg

Käsetoast
2012-03-03, 12:08:36
die 7xxx serie von amd ist ja nett ausgedrückt sehr bescheiden, 20-30% mehr leistung als die direkten vorgänger bei selben verbrauch und das bei einem neuen prozess und neuer architektur... einfach nur schwach! :rolleyes:
Also das mit dem Verbrauch stimmt nicht. Eine 7950 ist etwa so schnell wie eine GTX 580, verbraucht aber weniger als eine 6970 und eine 7970 ist ein gutes Stück schneller wie eine GTX 580, verbraucht aber in etwa soviel wie eine 6970. Da bekommt man schon mehr Leistung bei weniger Verbrauch und das trotz der recht hohen Spannungen, die bei Tahiti ab Werk anliegen und die dem Verbrauch nicht gerade zuträglich sind (bzw. auf der anderen Seite das Übertakten mit nur geringfügig steigender Leistungsaufnahme ermöglichen)...

Knuddelbearli
2012-03-03, 12:26:36
ach lass ihn doch trollen

Blediator16
2012-03-03, 13:34:32
Mal schauen ob er das bei seiner NV dann auch sagen wird ;)

boxleitnerb
2012-03-03, 20:28:58
Ist es eigentlich denkbar, dass es zu GK110 beim GK104 Launch auch Infos gibt? Also ein Hardlaunch und dazu ein Softlaunch/Preview/Teaser...

Was ist davon zu halten?

With nearly 1,000 GPUs now available, researchers will have an opportunity to optimize their applications for the accelerated Titan system.

“This is going to be an exciting year in Oak Ridge as our users take advantage of our new XK6 architecture and get ready for the new NVIDIA Kepler GPUs in the fall,” Wells said. “A lot of work by many people is beginning to pay off.”

http://www.scientificcomputing.com/news-HPC-First-Phase-of-Titan-Supercomputer-Transition-Completed0-030212.aspx

Haben die da zum Spass 1000x Fermi-Teslas reingepappt, um sie nachher wieder zu wechseln?

Hugo78
2012-03-03, 21:10:03
Das ORNL schon Vorserienkarten bekommen hat ist nicht abwegig, schließlich forschen Nvidia und ORNL zusammen für die DARPA.
http://research.nvidia.com/news/NVIDIA-DARPA

Man From Atlantis
2012-03-03, 21:16:52
Ist es eigentlich denkbar, dass es zu GK110 beim GK104 Launch auch Infos gibt? Also ein Hardlaunch und dazu ein Softlaunch/Preview/Teaser...

Was ist davon zu halten?

“This is going to be an exciting year in Oak Ridge as our users take advantage of our new XK6 architecture and get ready for the new NVIDIA Kepler GPUs in the fall,” Wells said.

http://www.scientificcomputing.com/news-HPC-First-Phase-of-Titan-Supercomputer-Transition-Completed0-030212.aspx


So September is the time for GK110

boxleitnerb
2012-03-03, 21:20:53
Im Luxx sagen sie, das wären X2090-Teslas, also noch Fermi. So geplant für die erste Ausbaustufe zusammen mit Bulldozer. Erst dann kommt Kepler. Hm...

Godmode
2012-03-03, 21:41:59
So September is the time for GK110

I think only for Tesla not Geforce!

Hugo78
2012-03-03, 22:31:26
Im Luxx sagen sie, das wären X2090-Teslas, also noch Fermi. So geplant für die erste Ausbaustufe zusammen mit Bulldozer. Erst dann kommt Kepler. Hm...

Wenn es "alte" X2090 sind, ist der Satz "With nearly 1,000 GPUs now available" schräg. Betonung auf now.
Bei GF110 basierten X2090 ein "now" einzusetzen, würde nur dann Sinn ergeben, wenn ORNL aufgrund ihrer Budgetkürzungen erst jetzt auf X2090 wechseln konnten.
Dann hätten sie sich aber auch die Kohle gleich sparen können bis Q3, wenn Nvidia in der Masse mit Kepler-Tesla kommt.

PCGH_Carsten
2012-03-03, 22:39:11
Der entscheidende Satz wurde doch mitgequotet:
„With nearly 1,000 GPUs now available, researchers will have an opportunity to optimize their applications for the accelerated Titan system.“

Die 1.000 GPUs sind da drin, damit die Programme bereits angepasst und optimiert werden können und so möglichst kurz nach dem Upgrade auf „Titan“ fantastische Erfolgsmeldungen publiziert werden können.

Hugo78
2012-03-03, 23:16:17
Ah ok ich hatte da einen Denkfehler.
Ich bin davon ausgegangen, der aktuelle XT5 hätte schon ältere Fermis und XK6 wäre dann für Kelper, aber in der ersten Ausbaustufe sind es in der Tat X2090.
http://en.wikipedia.org/wiki/Cray_XK6

Ailuros
2012-03-04, 10:30:35
Tesla war schon immer fuer Q3 geplant.

horn 12
2012-03-04, 12:06:36
@Ailuros

Somit hast ja indirekt die Performance des GF104 bzw. GF104 OC preisgegeben.
HD 7950 Performance mehr oder weniger.

Knuddelbearli
2012-03-04, 12:08:44
na was heißt da preisgeben ? das gilt doch schon länger als sogut wie sicher hast ja selbst du einige male gepostet ^^

horn 12
2012-03-04, 12:18:27
Ja, weiss selbst!
Dennoch hat er die Performance als weitaus höher einstufen lassen.
Vielleicht bei auserwählten Benchmarks wird GF104 selbst HD7970 schlagen, aber umgekehrt auch wieder und dies nicht zu knapp.

Knuddelbearli
2012-03-04, 12:32:01
na das ja nichts neues. bei sc2 wird wohl mit aa und schatten auf max selbst der salvage GK104 mit der 7970 den boden wischen.

zB in Anno2070 dann umgekehrt

foenfrisur
2012-03-04, 13:31:06
ein kepler-konter von amd ? lol

http://www.computerbase.de/news/2012-03/amds-tenerife-ueber-20-prozent-mehr-leistung-als-tahiti/

mfg

Gaestle
2012-03-04, 14:18:39
Ich find's gut. Hält den Markt in Bewegung. Gut für die Preise.

AwesomeSauce
2012-03-04, 15:03:30
ein kepler-konter von amd ? lol

http://www.computerbase.de/news/2012-03/amds-tenerife-ueber-20-prozent-mehr-leistung-als-tahiti/

mfg
Graphics Core Next 2.0? :freak:

cR@b
2012-03-04, 19:05:52
Ich bin echt von nV enttäuscht, dass es so wenige Informationen gibt...
Ich als jahrelanger nV Fan muss mitansehen wie AMD derzeit einfach alles richtig macht. Ich versuche nicht schwach zu werden und zumindest den Keplerstart abzuwarten. Aber das ist von nV wirklich mehr als mager... :(

boxleitnerb
2012-03-04, 19:06:50
Die Ruhe vor dem Sturm ;)

Duplex
2012-03-04, 19:14:52
@cR@b
So groß ist AMDs Vorsprung gegenüber der GTX580 nun auch nicht, das warten lohnt sich immer siehe RV870 > GF100, Nvidia hat mehr Tesselation Power, bietet CUDA & PhysX, außerdem ist Nvidias BQ immer noch besser als AMDs BQ, z.b. HQ.

dildo4u
2012-03-04, 19:19:54
AMD war eher zu früh dran und war zu Konservativ mit den Taktraten.Gibt nicht umsonst Gerüchte um ne schneller 7970,bissel bitter wenn man grad 500€ auf den Tisch gelegt hat.

derguru
2012-03-04, 19:46:05
Wozu auf den Osterhasen warten wenn man jetzt schon 20-30% mehr zur Verfügung hat.

Duplex
2012-03-04, 19:46:22
@dildo4u
1,0 Ghz Basistakt macht die sache auch nicht gerade viel besser als 925 MHz & für 1,1Ghz brauchst du erstmal eine Sicherheit das alle Chips von TSMC diesen Takt bei der eingestellten Spannung von AMDs Boardpartner auch schaffen...
Auf der anderen Seite gibt es eine dumme Politik bei der Namensgebung, wenn man noch ein Modell nachschieben würde, warum hat man dann die 7970 nicht als 7950 getauft & die 7950 nicht als 7930 getauft? Die 7990 wird doch ein Dual Karte oder geht jemand davon aus das diese wieder nen X2 kürzel bekommt?

sry für das offtopic.

zurück zum Thema: Kepler

foenfrisur
2012-03-04, 19:56:27
na denn:
http://www.xbitlabs.com/news/graphics/display/20120301203127_Nvidia_GeForce_Kepler_Graphics_Processors_Will_Be_Unbeatable.html

oder wurde das schon gepostet?

mfg

Adam D.
2012-03-04, 20:21:04
na denn:
http://www.xbitlabs.com/news/graphics/display/20120301203127_Nvidia_GeForce_Kepler_Graphics_Processors_Will_Be_Unbeatable.html

oder wurde das schon gepostet?

mfg
Leider alt ;(

horn 12
2012-03-05, 00:09:43
Schaun was der HEUTIGE Tag an Neuen Infos auswirft.
Langsam scheinen sich die Preise zu bewegen...

@AnarchX
Wie schätzt Du nun die NV Karte (GF104) ein.
Weitaus schneller als HD7970 oder etwas unter jener Performance?

AnarchX
2012-03-05, 08:29:54
Pitcairn bringt ein 256-Bit 4,8Gbps IMC auf 212mm² unter, ob man bei NV ähnliches bei GK106 erwarten könnte?

Dural
2012-03-05, 09:33:50
naja Pitcairn hat 40% mehr Leistung aber 25Watt mehr Verbrauch als 6870. Ich habe es jetzt nicht ausgerechnet aber da dürfte man wieder im schwachen 20-30% besserem Perf./Leistung Verhältnis sein. Schätzungsweisse dürfte bei der 7870 das Verhältnis sogar schlechter sein als noch bei der 7970, so viel zum Thema AMD kann bei gleichem Verbrauch derzeit 1GHz+ ohne Probleme Ausliefern... ;) AMD scheint mit der 28nm Generation ihren Vorteil massiv einzubüssen, kein Wunder da man mit den GCN GPUs Technisch auf höhe von Fermi ist wenn nicht sogar darüber, das ging bei NV nur zu Lasten des Verbrauches und bei AMD genauso.

Da kann von mir aus GK106 über 250mm2 sein wenn er da was ändern kann :wink:

Aber ich befürchte fast dass diese Generation sehr langweilig werden kann wenn NV nicht noch was in der Hinterhand hat. :wink:

Henroldus
2012-03-05, 10:28:16
Aber ich befürchte fast dass diese Generation sehr langweilig werden kann wenn NV nicht noch was in der Hinterhand hat. :wink:
Bisher wurde alles richtig gemacht, mehr Leistung und weniger Verbrauch.
Was jetzt noch fehlt sind realistische Preise denn da tat sich schon bei der vorherigen Generation fast ein Jahr nichts!
GTX580er Niveau für 250Eur stelle ich mir vor, was mit Blick in die Vergangenheit längst hätte möglich sein können.
Sobald Nvidia jetzt also was mindestens Gleichwertiges zur AMD 7er Reihe hinstellt kommt endlich mal Bewegung in den Markt.

boxleitnerb
2012-03-05, 10:35:32
Pitcairn bringt ein 256-Bit 4,8Gbps IMC auf 212mm² unter, ob man bei NV ähnliches bei GK106 erwarten könnte?

Wenn wir bei GK104 von ca. 300mm2 ausgehen (Ail hat ja schon gesagt, dass das Die kleiner sein könnte als es auf dem Foto aussieht), bei GK107 von 130-140mm2 könnte GK106 durchaus bei 200-250mm2 landen.

Angenommen GK104 (10-20% kleiner als Tahiti) erreicht Tahiti -10% Level, könnte GK106 Pitcairn bei der Leistung/mm2 Paroli zeigen oder gar leicht überholen.

uweskw
2012-03-05, 10:42:34
....AMD scheint mit der 28nm Generation ihren Vorteil massiv einzubüssen,.....



Typisch Dural-Fanboy Schwachsinn. Kanns nicht mehr hören. Sogar den Keppler Tread missbraucht er um gegen AMD zu bashen...:freak:

Die 7870 bewegt sich Leistungsmässig auf Niveau einer GTX580 und verbraucht die Hälfte. Und das bei 212mm² und 1000MHz Takt.

Palpatin
2012-03-05, 10:53:16
Typisch Dural-Fanboy Schwachsinn. Kanns nicht mehr hören. Sogar den Keppler Tread missbraucht er um gegen AMD zu bashen...:freak:

Die 7870 bewegt sich Leistungsmässig auf Niveau einer GTX580 und verbraucht die Hälfte. Und das bei 212mm² und 1000MHz Takt.
Genau so seh ich das auch und das in etwa erhoffe ich mir auch vom GK104. Performance ohne Ende muss dann der GK110 liefern.
7870 = GTX580 Leistung bei halben Verbrauch oder doppelte HD5850 Leistung bei gleichem verbrauch und das ist schon sehr ordentlich.

AnarchX
2012-03-05, 10:59:55
S|A:
Nvidia will ‘launch’ GK104/Kepler/GTX680 in a week
Paper though it is (http://semiaccurate.com/2012/03/05/nvidia-will-launch-gk104keplergtx680-in-a-week/)

boxleitnerb
2012-03-05, 11:10:33
Also heißt GK104 wirklich 680...auch wenn die Performance höher als erwartet fast auf Tahiti XT Niveau liegen sollte, finde ich diesen Namen höchst unpassend für eine Performancekarte.

Hoffen wir, dass sie keine x80er Preise verlangen.

Ailuros
2012-03-05, 11:12:59
Pitcairn bringt ein 256-Bit 4,8Gbps IMC auf 212mm² unter, ob man bei NV ähnliches bei GK106 erwarten könnte?

13Mio/mm2 liegt nur 1.5Mio/mm2 entfernt von GK104. Moeglich ist es schon, denn NV scheint diesmal ziemlich aggressiver mit den Packdichten zu sein als in der Vergangenheit und DAS ist IMHO ein sehr wesentlicher Grund hotclocks los zu werden ;)

AnarchX
2012-03-05, 11:15:36
Also doch nicht nur knapp über 3 Mrd. :D

Ailuros
2012-03-05, 11:17:12
Typisch Dural-Fanboy Schwachsinn. Kanns nicht mehr hören. Sogar den Keppler Tread missbraucht er um gegen AMD zu bashen...:freak:

Die 7870 bewegt sich Leistungsmässig auf Niveau einer GTX580 und verbraucht die Hälfte. Und das bei 212mm² und 1000MHz Takt.

Zum zweiten Paragraphen kein Einwand. Ich hab schon vor ein paar Seiten gesagt dass Pitcairn ein ziemlich gefaehrlicher Gegner fuer GK104 teilweise sein wird.

Das gibt Dir trotzdem nicht das Recht jemand hier indirekt persoenlich anzugreifen. Vorwarnung und beim naechsten aehnlichen Streich gibt es Punkte, welches auch fuer jeglichen anderen gilt der auf solchen nutzlosen Mist eingeht.

Adam D.
2012-03-05, 11:17:39
S|A:
Nvidia will ‘launch’ GK104/Kepler/GTX680 in a week
Paper though it is (http://semiaccurate.com/2012/03/05/nvidia-will-launch-gk104keplergtx680-in-a-week/)
Das würde die "Verspätung" von Kepler ad absurdum führen :ulol: Ich dachte, gute Verfügbarkeit wäre ab April möglich, die 3 Wochen kann man dann auch grad noch warten.

Ailuros
2012-03-05, 11:20:40
Das würde die "Verspätung" von Kepler ad absurdum führen :ulol: Ich dachte, gute Verfügbarkeit wäre ab April möglich, die 3 Wochen kann man dann auch grad noch warten.

Ich hab hingegen gehoert dass Mitte Maerz fuer eine Einweihung der Presse gilt und NICHT einen launch der eher Wochen spaeter geplant ist. Ich bestehe aber nicht darauf um einen Unterschied zu machen :P

Konami
2012-03-05, 11:37:06
Also heißt GK104 wirklich 680...auch wenn die Performance höher als erwartet fast auf Tahiti XT Niveau liegen sollte, finde ich diesen Namen höchst unpassend für eine Performancekarte.

Hoffen wir, dass sie keine x80er Preise verlangen.
Bei nVidia ist der Name genauso passend/unpassend wie die "7970" bei AMD ;)

Und beim Preis wären sie auch dumm, wenn sie die Karten sofort 200$ billiger als das Tahiti-Äquivalent verkaufen würden. Vielleicht folgt dann aber bald ein Preiskampf, oder erst zum Launch von GK110/Tenerife, das werden wir dann ja sehen...

Was ich mich aber frage: Wenn GK110 also GTX 780 heißen wird, werden dann die unteren Ränge (z.B. GTX 760) eher mit umgelabelten GTX 680 aufgefüllt, oder kommt da schon ein (möglicher) GK114 rein?

boxleitnerb
2012-03-05, 11:47:51
Vielleicht ist die bessere Möglichkeit, dem Preiskampf zuvorzukommen und gleich Marktanteile zu erhaschen, wenn man gute Mengen liefern kann (sollte nach so langer Verzögerung im Vergleich zu AMD möglich sein). So hat man das gute Image des klaren P/L-Siegers und vergrault die Leute nicht, wenn die Preise dann sowieso stark sinken, was Nvidia nicht beeinflussen kann.

Adam D.
2012-03-05, 11:55:47
Ich hab hingegen gehoert dass Mitte Maerz fuer eine Einweihung der Presse gilt und NICHT einen launch der eher Wochen spaeter geplant ist. Ich bestehe aber nicht darauf um einen Unterschied zu machen :P
Bin mal gespannt, ob dann jemand schon mit Informationen rausrückt. Wenn Nvidia Slides an die Presse verteilt, wird das bestimmt von 99% der Internetgemeinschaft als Launch interpretiert ;)

Ailuros
2012-03-05, 12:06:52
Bin mal gespannt, ob dann jemand schon mit Informationen rausrückt. Wenn Nvidia Slides an die Presse verteilt, wird das bestimmt von 99% der Internetgemeinschaft als Launch interpretiert ;)

Mitte Maerz war/ist fuer die Presse-Einweihung unter NDA gedacht. Ist ja auch ziemlich wurscht, hauptsache sie ruecken endlich mit einem Architektur-whitepaper raus, obwohl das wirklich interessante wohl erst mit GK110 kommen wird.


Was ich mich aber frage: Wenn GK110 also GTX 780 heißen wird, werden dann die unteren Ränge (z.B. GTX 760) eher mit umgelabelten GTX 680 aufgefüllt, oder kommt da schon ein (möglicher) GK114 rein?

GK11x und GK10x sind zwar alles Mitglieder der Kepler Familie, aber es gibt ein paar kleine aber wesentliche Unterschiede zwischen den beiden. GF114 ist ca. 2/3 an Transistoren eines GF110; diesmal ist der Unterschied wohl um einiges.....;)

Hugo78
2012-03-05, 12:07:32
Bin mal gespannt, ob dann jemand schon mit Informationen rausrückt. Wenn Nvidia Slides an die Presse verteilt, wird das bestimmt von 99% der Internetgemeinschaft als Launch interpretiert ;)

Nach der Logik wäre der Pitcairn-launch nicht heute, sondern schon vor ca. zwei Wochen passiert.

Käsetoast
2012-03-05, 12:13:05
Also heißt GK104 wirklich 680...auch wenn die Performance höher als erwartet fast auf Tahiti XT Niveau liegen sollte, finde ich diesen Namen höchst unpassend für eine Performancekarte.
Oder NVIDIA ändert ihr Namensschema ähnlich wie's AMD bei der 6000er Serie gemacht hat. Zumindest muss GK110 ja noch irgendwo untergebracht werden und außer einer GTX 690 bleibt da nicht viel. Den als 700er Serie zu verkaufen wie hier und da mal gemunkelt wurde, fände ich nicht passend...

Ich würde daher noch keinen GTX 680 <-> Tahiti Vergleich ziehen, zumal eine GTX 660 Ti die Tahiti Paroli bietet doch weitaus beeindruckender wäre (bzw. entsprechend klingen würde) als eine GTX 680. Unter der 680er hatten wir uns eigentlich doch GK110 vorgestellt und da war Tahiti ja kein ernstzunehmender Gegner... :smile:

Ailuros
2012-03-05, 12:19:06
Oder NVIDIA ändert ihr Namensschema ähnlich wie's AMD bei der 6000er Serie gemacht hat. Zumindest muss GK110 ja noch irgendwo untergebracht werden und außer einer GTX 690 bleibt da nicht viel. Den als 700er Serie zu verkaufen wie hier und da mal gemunkelt wurde, fände ich nicht passend...

Erklaerung steht im vorigen Post.

Ich würde daher noch keinen GTX 680 <-> Tahiti Vergleich ziehen, zumal eine GTX 660 Ti die Tahiti Paroli bietet doch weitaus beeindruckender wäre (bzw. entsprechend klingen würde) als eine GTX 680. Unter der 680er hatten wir uns eigentlich doch GK110 vorgestellt und da war Tahiti ja kein ernstzunehmender Gegner... :smile:

Er soll nicht glauben dass die volle GK104 Variante GTX680 heissen wird oder was? Es gibt GTX680-er bei vendors momentan und es liegen garantiert keine GK110 chips drauf.

Adam D.
2012-03-05, 12:36:24
Nach der Logik wäre der Pitcairn-launch nicht heute, sondern schon vor ca. zwei Wochen passiert.
Jo, hast schon recht. Dachte halt, dass der Presse-Launch nicht unter NDA steht.
Ich würde daher noch keinen GTX 680 <-> Tahiti Vergleich ziehen, zumal eine GTX 660 Ti die Tahiti Paroli bietet doch weitaus beeindruckender wäre (bzw. entsprechend klingen würde) als eine GTX 680. Unter der 680er hatten wir uns eigentlich doch GK110 vorgestellt und da war Tahiti ja kein ernstzunehmender Gegner... :smile:
GTX680 = GK104 im Vollausbau. Die Bezeichnung geht wohl darauf zurück, dass man näher an Tahiti dran ist als anfangs spekuliert.