PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 3 4 5 6 7 8 9 [10] 11 12 13 14 15 16

Ailuros
2013-01-25, 15:39:43
NV braucht in jedem Fall noch nen Refresh bis 20nm für Monster Chips brauchbar wird daher wirds im März kein vollen Chip geben.

GM10x@28nm ist keine wilde Erfindung.

boxleitnerb
2013-01-25, 15:40:27
Das was sweclockers da aufzählt, sind die Specs von K20X und nix anderes. Es wäre sehr sehr komisch, wenn Nvidia eine Geforce mit exakt denselben Specs rausbringt. Das ergibt gar keinen Sinn, daher bin ich zu 100% der Meinung, dass wir die echten Specs noch gar nicht kennen und das eben von sweclockers ein Fehler war.

|MatMan|
2013-01-25, 15:40:40
Dir ist aber schon klar, dass das alles noch relativ Beta-stylisch ist?

Und bzgl dem Flushen. Da kann man dann auch schauen, das man sich einen Core fürs OS weg nimmt, und auf den anderen die Tasks ausführt. Damit lassen sich solche Probleme minimieren.

Beta-style: Naja die Dinger werden ja verkauft, oder nicht?
1 oder 2 Cores sind ohnehin schon für das OS reserviert. Ich denke das hat eher was mit dem Speicherzugriff was zu tun. Wenn das OS etwas aus einem Speicherbereich will muss es über den Ringbus über die anderen Cores auf das entsprechende Speichersegment zugreifen und das geht dann wohl u.U. durch den Cache dort. Allgemein ist der Cache-Koheränz-Traffic wohl auch ein Problem von KNC...


Man hat aber auf jeden Fall den Vorteil, das man seinen Code recht einfach portieren kann, was bei nVidia gar nicht geht, oder der reinste Graus ist...
Das ist eben ein Märchen bzw. Intel-Marketing. Klar läuft es durch Neukompilieren auf KNC, aber absolut unbraucht langsam, weil es der Compiler nicht schafft die Vektoreinheiten zu benuten. Außerdem ist bei bestehendem Code u.a. das Threading-Modell nicht ideal. Das ist vielleicht für 4-8 Cores ideal, aber nicht für >60. Vernünftig für KNC zu optimieren ist im Endeffekt genauso aufwendig wie für eine GPU (die Aussage stammt nicht von mir!). Nur ist KNC dann trotzdem oft noch langsamer als die 16 Sandy-Xeon-Cores des Knotens ;D
Bei meinen Aussagen gings übrigens um Code von hier (http://www.mantevo.org).

zu DirectGPU: hier hat Intel auch noch ein Problem mit der Bandbreite von Karte zu Karte, die erreichen nur einen Bruchteil der PCIe-Bandbreite (während DirectGPU das hinbekommt). Dafür gibts bei Intel einen Vorteil bei der Latenz, ist wohl etwas "black-magic" auf Chipsatzebene.

Skysnake
2013-01-25, 16:27:02
Beta-style: Naja die Dinger werden ja verkauft, oder nicht?
1 oder 2 Cores sind ohnehin schon für das OS reserviert. Ich denke das hat eher was mit dem Speicherzugriff was zu tun. Wenn das OS etwas aus einem Speicherbereich will muss es über den Ringbus über die anderen Cores auf das entsprechende Speichersegment zugreifen und das geht dann wohl u.U. durch den Cache dort. Allgemein ist der Cache-Koheränz-Traffic wohl auch ein Problem von KNC...

Nö, da ist nichts reserviert. Du kannst alle Cores nutzen, wenn du bock hast.

Das mit dem Cache stimmt auch nicht wirklich, auch wenn man über die Sache mit der Cachekohärenz nochmal nachdenken könnte, aber zu der ganzen Thematik werde ich mich nicht äußern.

|MatMan|
2013-01-25, 16:57:17
Nö, da ist nichts reserviert. Du kannst alle Cores nutzen, wenn du bock hast.

Das mit dem Cache stimmt auch nicht wirklich, auch wenn man über die Sache mit der Cachekohärenz nochmal nachdenken könnte, aber zu der ganzen Thematik werde ich mich nicht äußern.
Ich hab die Software nicht programmiert, sondern nur die Messwerte gesehen und die Diskussion dazu verfolgt. Dabei haben sogar Kerle von Intel am Code optimiert und trotzdem waren die Ergebnisse teilweise desaströs.

Um mal etwas zum Topic beizutragen: K20 war bei den selben Tasks gegenüber der Vorgängergeneration "out of the box" etwa doppelt so schnell, angeblich ohne Anpassung des Cuda-Codes.

Hübie
2013-01-25, 17:12:44
GM10x@28nm ist keine wilde Erfindung.

GKxxx@20nm hingegen schon. ;D Ich denke nicht das Titan mit 732MHz und 6 GB kommt. Wäre ja nur K20x mit Display-Anschluss...
Bei dem Preis zweifel ich auch stark an "teriffic" yieldrates :freak:

Thunder99
2013-01-25, 17:16:32
Beim GF110 waren es taktnormiert oder auch SMX normiert mehr als 5% (ca.15-20% je nach Setting/Test). Gut hier wurden auch am Chip Sachen optimiert (FP16 ect.). Könnte ja mit meiner GTX470SOC und der GTX480 mal gegen testen :D

Nur ca.5% ist natürlich sehr wenig was man durch mehr Takt locker ausgleichen kann

Ailuros
2013-01-25, 17:52:22
GKxxx@20nm hingegen schon. ;D

Damit den Scherz niemand ernst nimmt: GK1xx zuerst mit 28nm und dann 20nm.

Beim GF110 waren es taktnormiert oder auch SMX normiert mehr als 5% (ca.15-20% je nach Setting/Test). Gut hier wurden auch am Chip Sachen optimiert (FP16 ect.). Könnte ja mit meiner GTX470SOC und der GTX480 mal gegen testen :D

Nur ca.5% ist natürlich sehr wenig was man durch mehr Takt locker ausgleichen kann

Wenn der GPU Speicher der 470SOC eine Uebertaktung von 837 zu 1232MHz aushaelt gerne. Bei gleichen core und Speicher-Frequenzen sind es bei 1 aus 15 clusters minus 6.67% fuer GK110 fuer ALUs und Texel-fuellrate. Bei Fermi -6.25%.

Ich bin ja nicht der einzige der brainfarts hat; hier hat wohl jemand den Faktor Bandbreite vergessen ;)

Thunder99
2013-01-25, 19:26:33
Damit den Scherz niemand ernst nimmt: GK1xx zuerst mit 28nm und dann 20nm.



Wenn der GPU Speicher der 470SOC eine Uebertaktung von 837 zu 1232MHz aushaelt gerne. Bei gleichen core und Speicher-Frequenzen sind es bei 1 aus 15 clusters minus 6.67% fuer GK110 fuer ALUs und Texel-fuellrate. Bei Fermi -6.25%.

Ich bin ja nicht der einzige der brainfarts hat; hier hat wohl jemand den Faktor Bandbreite vergessen ;)
my fail :whistle: :) Muss dann halt den Speicher der GTX480 unterakten. Glaube dir aber schon, so ist es nicht *peace*

Ailuros
2013-01-25, 19:33:21
my fail :whistle: :) Muss dann halt den Speicher der GTX480 unterakten. Glaube dir aber schon, so ist es nicht *peace*

Nein ehrlich wenn Du Zeit und Bock dazu hast mach es. Ich bin sicher nicht sauer wenn ich nicht recht haben sollte.

Pentium M
2013-01-26, 09:11:28
In der c't 02/2013 (http://www.heise.de/ct/inhalt/2013/02/76/) hatten sie eine Tesla K20 im Test,scheint so als hätten die den Kühler abgeschraubt und ein Foto vom Chip gemacht.

NVIDIA
S TAIWAN 1235A1
NCM268.M1W
GK110-885-KA-A1

Dural
2013-01-26, 09:53:24
krasss wenn bei einem so grossen chip der A1 schon so gut läuft.

OgrEGT
2013-01-26, 11:51:21
In der c't 02/2013 (http://www.heise.de/ct/inhalt/2013/02/76/) hatten sie eine Tesla K20 im Test,scheint so als hätten die den Kühler abgeschraubt und ein Foto vom Chip gemacht.

NVIDIA
S TAIWAN 1235A1
NCM268.M1W
GK110-885-KA-A1

Heisst also dann dass der Chip in Woche 35 2012 (27.08.-02.09.) produziert wurde?

Edit:
Damit steigt die Chance auf SMX15 GF auch bei geringer Ausbeute da die Zeit diese zu sammeln nicht gerade klein ist. Absolut werden es dennoch nicht viele sein aber für einen Titan mit 900Eur sollte die Nachfrage auch nicht so hoch sein.

Thunder99
2013-01-26, 13:02:06
Nein ehrlich wenn Du Zeit und Bock dazu hast mach es. Ich bin sicher nicht sauer wenn ich nicht recht haben sollte.
Nur dann möglich wenn das Speicherinterface als Beispiel nicht limitiert. Hier (http://ht4u.net/reviews/2012/nvidia_geforce_gtx_670_im_test/index43.php?dummy=&advancedFilter=false&prod[]=Gainward+GeForce+GTX+670+Phantom&prod[]=NVIDIA+GeForce+GTX+680+[EVGA]&filter[0][]=1920&filter[2][]=2x2+SSAA&filter[2][]=2x2+SSAA+%2B+MLAA&filter[2][]=4&filter[2][]=8&filter[2][]=FXAA+-+hoch&filter[2][]=MLAA&filter[3][]=16&aa=on) sieht man schön das bei annähernd gleichem Takt die GTX680 sich kaum absetzen kann. Aber wenn ich schon solche Töne anschlage sollten auch Taten folgen :D

Skysnake
2013-01-26, 13:30:15
In der c't 02/2013 (http://www.heise.de/ct/inhalt/2013/02/76/) hatten sie eine Tesla K20 im Test,scheint so als hätten die den Kühler abgeschraubt und ein Foto vom Chip gemacht.

NVIDIA
S TAIWAN 1235A1
NCM268.M1W
GK110-885-KA-A1
Ja, die K20, die man so bekommt, sind scheinbar A1

Siehe auch hier:
Also K20 scheint a1 Silicon zu sein.

Genau deswegen aber jetzt noch nicht.

Man muss sich ja noch was aufheben, 2013 kommt 20nm definitiv nicht, und 2014 glaub ich auch nicht so recht dran. Da wäre so ein Midlifekicker gegen Ende 2013/Anfang 2014 ne gute Sache.

Die Frage ist nur, ob sich da eben bis jetzt etwas getan hat oder nicht.

Blaire
2013-01-26, 16:25:01
Wenn der MSRP von $899 stimmen sollte fuer Titan, dann wird AMD in absehbarer Zeit mit dem Sea Islands top dog ein besseres perf/$ haben, egal ob sie diesen wieder bei $599 anlegen.

Die 6GB könnten auch ein guter Grund sein, warum die Karte so teuer wird. Vergleichbare HD7970 mit 6GB bekommt man auch nicht unter 500€, von daher ist der Aufpreis durchaus gerechtfertigt, wenn es denn zutrifft.
Sollte man es schaffen ca. 50-60% vor einen GTX680 zu liegen, wird das in diesem Jahr schwer zu knacken sein und entsprechend teuer ist auch das Produkt.

Vollausbau mit
15 SMX
6 GB Speicher
384 Bit SI
300W TDP

sonst können sie das Ding behalten.

14 SMX schätz ich, dafür etwas mehr Takt, der Rest könnte passen.

Godmode
2013-01-26, 16:28:47
Die 6GB könnten auch ein guter Grund sein, warum die Karte so teuer wird. Vergleichbare HD7970 mit 6GB bekommt man auch nicht unter 500€, von daher ist der Aufpreis durchaus gerechtfertigt, wenn es denn zutrifft.
Sollte man es schaffen ca. 50-60% vor einen GTX680 zu liegen, wird das in diesem Jahr schwer zu knacken sein und entsprechend teuer ist auch das Produkt.



14 SMX schätz ich, dafür etwas mehr Takt, der Rest könnte passen.

Die Frage ist, sind 6 GB nicht totaler Overkill? 3 sind IMO für so eine Karte zu wenig, 4 wäre optimal, was P/L angeht, aber schon klar dass das mit einem 384er SI schwer möglich ist.

Timbaloo
2013-01-26, 17:00:27
Ich hab gerade mal geschaut was der Preisunterschied zwischen 680 2GB und 4GB ist (bei gleichen Modellen). Bewegt sich so um die 40€ mit Ausreissern nach oben und unten. Laut Milchmädchen wären das dann ~60€ Aufpreis für die 6GB Variante gegenüber 3GB beim GK110. Bei den Preisen die so spekuliert werden ist das ja vernachlässigbar.

Ailuros
2013-01-26, 17:33:33
Heisst also dann dass der Chip in Woche 35 2012 (27.08.-02.09.) produziert wurde?


Ja. Ich sagte doch Anfang September :P

Die 6GB könnten auch ein guter Grund sein, warum die Karte so teuer wird. Vergleichbare HD7970 mit 6GB bekommt man auch nicht unter 500€, von daher ist der Aufpreis durchaus gerechtfertigt, wenn es denn zutrifft.
Sollte man es schaffen ca. 50-60% vor einen GTX680 zu liegen, wird das in diesem Jahr schwer zu knacken sein und entsprechend teuer ist auch das Produkt.

Sei mir nicht boese aber neben marketing gibt es keinen realen Grund dafuer. Ich bleib so frech und behaupte nach wie vor dass sie mit den Einstiegspreisen und auch den heutigen reduzierten Preisen auch locker 4GB auf die 680 haetten stecken koennen und dann haetten sie halt Gott hilf etwas weniger Gewinn damit gemacht.

Man "braucht" es nicht in den meisten wenn nicht allen heutigen Faellen aber wenn man $600 und dann spaeter fuer eine GK110 hypothetisch $900 auf den Ladentisch legt dann ist man als Verbraucher psychologisch besser gedeckt.

Die Frage ist, sind 6 GB nicht totaler Overkill? 3 sind IMO für so eine Karte zu wenig, 4 wäre optimal, was P/L angeht, aber schon klar dass das mit einem 384er SI schwer möglich ist.

Fuer die absehbare Zukunft fuer triple monitor bzw. moegliche >2560 Aufloesungen wohl nicht. Ich will als User $900 ausgeben gehoer aber nicht zur Kategorie der User die jedes Jahr aufruesten. Wenn sich NV bei ~6Gbps DDR5 bewegt (oder sogar etwas daruber) dann sie die zusaetzlichen Kosten fuer nochmal 3GB Speicher von Grund auf laecherlich klein im Vergleich zu dem Mordspreis und ich bezweifle auch dass wenn irgendwann der Preis auf $500 purzeln sollte dass sie nicht immer noch Gewinn an dem Ding machen.

Aussnahme waere natuerlich wenn sie sich irgendwelchen super-seltenen 7Gbps Speicher ausgesucht haben. Aber das liefert wiederrum womoeglich auch wieder mehr Leistung ;)

***edit: uebrigens fuer die TDP und das stets IMHO:

Bei 850-875MHz/1500-1550MHz (stets +turbo noch dazu) = 255-265W
Ob 14 oder 15 SMXs ist fuer den Fall wurscht und ebenso ob 3 oder 6GB so lange es die gleiche Anzahl von Speicherchips in beiden Faellen sind.

krasss wenn bei einem so grossen chip der A1 schon so gut läuft.

Erzaehl dass den Herren die mir nichts dir nichts Kepler problematische hw anrechnen wollen. Nicht nur A1 sondern auch genau 6 Monate Massenproduktion nach dem tape out.

Duplex
2013-01-26, 17:39:51
GM10x@28nm ist keine wilde Erfindung.
Unterscheidet sich die Architektur stark von Kepler?

boxleitnerb
2013-01-26, 17:42:11
1500MHz für den Speicher sollten es schon sein, sonst hungert die GPU doch wieder an der Bandbreite. Problematisch sollte das auch nicht sein, die 7970 GE kriegt es ja auch hin.

Ailuros
2013-01-26, 17:47:30
Unterscheidet sich die Architektur stark von Kepler?

28nm fuer Maxwell ist IMHO nur fuer den Anfang fuer =/<performance chips. Sonst um Deine Frage zu beantworten und wenn ich mich nicht irren sollte:

Fermi > Kepler >> Maxwell

1500MHz für den Speicher sollten es schon sein, sonst hungert die GPU doch wieder an der Bandbreite. Problematisch sollte das auch nicht sein, die 7970 GE kriegt es ja auch hin.

Ein weiterer brainfart. Hab's auf 1500-1550 angepasst.

Nightspider
2013-01-26, 17:57:43
Für 4K braucht man auf jeden Fall 6GB. Die PCGH hat schon mit aktuellen Titeln oft die 3GB geknackt, teilweise nicht weit von 4GB entfernt.

Was glaubt ihr wie der VRAM Verbrauch in einem Jahr explodiert wenn im Herbst die neuen Konsolen erscheinen?

Ailuros
2013-01-26, 18:00:03
Für 4K braucht man auf jeden Fall 6GB. Die PCGH hat schon mit aktuellen Titeln oft die 3GB geknackt, teilweise nicht weit von 4GB entfernt.

Was glaubt ihr wie der VRAM Verbrauch in einem Jahr explodiert wenn im Herbst die neuen Konsolen erscheinen?

Es wird schon um einiges mehr dauern und ausser 4k TV sets wird man nicht so schnell 4k PC displays sehen. Sonst Vorsicht: Ankuendigung != Verfuegbarkeit und schon gar nicht weltweit ;)

boxleitnerb
2013-01-26, 18:01:47
Es ist auf jeden Fall sehr schade, dass Nvidia offenbar nur ein einziges Design zulässt. Wahrscheinlich auch wieder nur beschränktes OC (keine Spannungserhöhung außer per Hardwaremod). Gerade so einer Monsterkarte würde es gut zu Gesicht stehen, ungezügelt laufen zu können.

Ailuros
2013-01-26, 18:08:25
Es ist auf jeden Fall sehr schade, dass Nvidia offenbar nur ein einziges Design zulässt. Wahrscheinlich auch wieder nur beschränktes OC (keine Spannungserhöhung außer per Hardwaremod). Gerade so einer Monsterkarte würde es gut zu Gesicht stehen, ungezügelt laufen zu können.

Bei so einem Monster-chip wuerde ich das Risiko als IHV auch nicht eingehen. Du wirst schon uebertakten koennen, nur haben eben die Hersteller temporaer nicht die Freheit ueber N% und ihrer eigenen Garanatie zu uebertakten oder zumindest so interpretiere ich das Ganze.

Zu was denn ueberhaupt so ein Monster uebertakten? Bis zu 10% merkst Du in Echtzeit meistens von sehr wenig bis gar nichts und bei =/>15% wird's zwar etwas besser aber wenn man bedenkt wie viel es den Stromverbrauch beinflusst ist es nicht der Rede wert.

Duplex
2013-01-26, 18:17:55
28nm fuer Maxwell ist IMHO nur fuer den Anfang fuer =/<performance chips.
Und wofür braucht man nächstes Jahr 28nm Maxwell Chips wenn man mit 20nm dann viel effizientere & kleinere Chips liefern kann? :rolleyes:


Sonst um Deine Frage zu beantworten und wenn ich mich nicht irren sollte:

Fermi > Kepler >> Maxwell
Was willste mir damit sagen?
40 > 28 > 20nm sollte der Plan sein

boxleitnerb
2013-01-26, 18:18:54
Bei so einem Monster-chip wuerde ich das Risiko als IHV auch nicht eingehen. Du wirst schon uebertakten koennen, nur haben eben die Hersteller temporaer nicht die Freheit ueber N% und ihrer eigenen Garanatie zu uebertakten oder zumindest so interpretiere ich das Ganze.

Zu was denn ueberhaupt so ein Monster uebertakten? Bis zu 10% merkst Du in Echtzeit meistens von sehr wenig bis gar nichts und bei =/>15% wird's zwar etwas besser aber wenn man bedenkt wie viel es den Stromverbrauch beinflusst ist es nicht der Rede wert.

Enthusiasten interessiert sowas doch nicht, und Titan ist ohne Zweifel eine Karte für solches Klientel. Da ist es einfach ein bitterer Beigeschmack, wenn die Auswahl mau ist und man bevormundet wird. Sowas muss ich nicht gutheißen.

aufkrawall
2013-01-26, 18:23:23
Enthusiasten interessiert sowas doch nicht, und Titan ist ohne Zweifel eine Karte für solches Klientel. Da ist es einfach ein bitterer Beigeschmack, wenn die Auswahl mau ist und man bevormundet wird. Sowas muss ich nicht gutheißen.
Spannung erhöhen ist bei nem Verbrauch von 300W aber schon recht heftig, da würde es sicherlich häufiger mal knallen.

boxleitnerb
2013-01-26, 18:26:10
Na erstens müssen es ja keine 300W sein und zweitens kann man auch ohne Spannungserhöhung ein bisschen übertakten. Also das ist jetzt, was ich machen würde. Die Verrückten kühlen eh mit Wasser, LN2, Eis oder sonstwas ;)

fondness
2013-01-26, 18:28:02
Spannung erhöhen ist bei nem Verbrauch von 300W aber schon recht heftig, da würde es sicherlich häufiger mal knallen.

Warum sollte es bei 300W häufiger knallen als zB bei 200W? Sofern die Kühlung und die Dimensionierung der Bauteile ausreichend ist, ist der absolute Verbrauch doch kein Argument beim übertakten. Ich finde es auch schade, ich habe mir die 7950 u.a. deswegen gekauft, weil sie sich toll übertakten lässt. Das dabei der Stromverbrauch steigt ist mir relativ egal. NV tut sich IMO keinen Gefallen damit das zu unterbinden, gerade nicht bei einer Entusiastenkarte. Zumal ich mir die Frage stelle was ist wenn sich Sea Island ähnlich gut übertakten lässt? Das würde den realen Unterschied für Übertakter schrumpfen lassen.

Ailuros
2013-01-26, 18:28:22
Und wofür braucht man nächstes Jahr 28nm Maxwell Chips wenn man mit 20nm dann viel effizientere & kleinere Chips liefern kann? :rolleyes:

Damit NVIDIA nicht so lange warten muss bis 20nm sinnvoll produktionsreif ist? Man sollte es eher fuer moeglich halten dass fuer eine gewisse Zeit auch AMD eine aehnliche Masche anwenden wird.

Was ist genau effizienter und kleiner wenn Dir bei ultrabeschissenen yields die Produktion der gleichen Anzahl der chips um zich mal mehr kostet? Wie schon oefters erwaehnt 20nm ist in einem miserablerem Zustand als 28nm.


Was willste mir damit sagen?
40 > 28 > 20nm sollte der Plan sein

Ich hab mich auf architektur-bedingte Aenderungen bezogen, deshalb auch 2 Pfeile zwischen Kepler & Maxwell.

Sonst Fermi 40nm, Kepler 28nm, Maxwell 28 & 20nm.

Duplex
2013-01-26, 18:29:13
Spannung erhöhen ist bei nem Verbrauch von 300W aber schon recht heftig, da würde es sicherlich häufiger mal knallen.
Gute Kühlung immer vorrausgesetzt, natürlich darf auch im Case kein billig Netzteil vorhanden sein, gute Schienen sind ein muss in dem bereich.

Bei GF110 (GTX580) waren bei mir immerhin 30% OC möglich und der Chip ist mit 520mm² fast so groß wie GK110!

Duplex
2013-01-26, 18:38:04
Damit NVIDIA nicht so lange warten muss bis 20nm sinnvoll produktionsreif ist? Man sollte es eher fuer moeglich halten dass fuer eine gewisse Zeit auch AMD eine aehnliche Masche anwenden wird.

Was ist genau effizienter und kleiner wenn Dir bei ultrabeschissenen yields die Produktion der gleichen Anzahl der chips um zich mal mehr kostet? Wie schon oefters erwaehnt 20nm ist in einem miserablerem Zustand als 28nm.
Du kannst garnicht wissen wie der Zustand von 20nm in 1 Jahr ist.

Es macht keinen sinn Maxwell in 28nm zu fertigen, Nvidia hat GK104, GK110 & evtl. GK204. Nächstes Jahr könnte man GK104 in 20nm einfach verdoppeln oder GK110 mit 2880 Shader auf 20nm shrinken damit man erfahrungen mit 20nm sammeln kann, dafür braucht Nvidia noch kein Maxwell und 350-400mm² sind selbst in 20nm kein Problem wenn man bedenkt das Nvidia in 65nm größere Chips als Fermi & Kepler gebaut hat, der Prozess war auch nicht der beste und trotzdem hat man es gemacht!

boxleitnerb
2013-01-26, 18:43:56
Das Problem ist wohl, dass 20nm sooo schlecht ist, dass man da zeitnah (H1 2014) auch keinen Performancechip drauf bauen kann wirtschaftlich. Also macht man Tick-Tock - eine neue Architektur auf demselben Prozess und danach der Shrink.
Davon abgesehen glaube ich auch nicht, dass man 65nm auch nur ansatzweise mit 20nm vergleichen kann. Es wird immer schwieriger, da liegen Welten dazwischen.

Maxwell könnte wohl die Shaderleistung um gut 50% steigern, bei nahezu gleicher Chipfläche und Verbrauch.

Wie stellst du dir das vor? Meinst du theoretische Leistung, also mehr Shader verbauen (kostet Platz und Strom) oder die vorhandene Leistung besser ausnutzen?

AnarchX
2013-01-26, 18:46:24
Wenn 20nm noch problematischer als 28nm ist, macht der Maxwell@28nm Zwischenschritt wohl durchaus Sinn. Maxwell könnte wohl die Shaderleistung um gut 50% steigern, bei nahezu gleicher Chipfläche und Verbrauch.

aufkrawall
2013-01-26, 18:48:44
Na erstens müssen es ja keine 300W sein und zweitens kann man auch ohne Spannungserhöhung ein bisschen übertakten. Also das ist jetzt, was ich machen würde. Die Verrückten kühlen eh mit Wasser, LN2, Eis oder sonstwas ;)
Man soll die Takte gar nicht ändern können, hab ich was verpasst?
Das wär natürlich totaler Mist.

Warum sollte es bei 300W häufiger knallen als zB bei 200W? Sofern die Kühlung und die Dimensionierung der Bauteile ausreichend ist, ist der absolute Verbrauch doch kein Argument beim übertakten.

Ich denke, wenn man bei der hohen TDP noch Vcore drauflegt, können das schnell mal noch 100W mehr sein. Könnte mir vorstellen, dass das nicht unbedingt gesund für die Bauteile ist.


Ich finde es auch schade, ich habe mir die 7950 u.a. deswegen gekauft, weil sie sich toll übertakten lässt. Das dabei der Stromverbrauch steigt ist mir relativ egal. NV tut sich IMO keinen Gefallen damit das zu unterbinden, gerade nicht bei einer Entusiastenkarte. Zumal ich mir die Frage stelle was ist wenn sich Sea Island ähnlich gut übertakten lässt? Das würde den realen Unterschied für Übertakter schrumpfen lassen.
Asus hat bei den Radeons auch die Vcore gelockt.
Aber stimme dir zu, ist schade.


Bei GF110 (GTX580) waren bei mir immerhin 30% OC möglich und der Chip ist mit 520mm² fast so groß wie GK110!
Es waren eher 20%. ;)
1Ghz war die absolute Seltenheit.

boxleitnerb
2013-01-26, 18:50:17
Man soll die Takte gar nicht ändern können, hab ich was verpasst?
Das wär natürlich totaler Mist.


Ne, ich meinte, wenn man ohne Spannungserhöhung übertaktet, wirkt sich das nur marginal auf den Verbrauch aus, zumal man ja wohl eh nicht weit kommt.

fondness
2013-01-26, 18:52:07
Wenn 20nm noch problematischer als 28nm ist, macht der Maxwell@28nm Zwischenschritt wohl durchaus Sinn. Maxwell könnte wohl die Shaderleistung um gut 50% steigern, bei nahezu gleicher Chipfläche und Verbrauch.

Das Problem ist wohl weniger der Prozess, als viel mehr der Preis den TSMC dafür pro Wafer verlangt. NV hat sich ja mal öffentlich darüber beschwert das TSMCs 20nm Prozess trotz deutlich kleinerer Die-Size keine Kostenersparnis ggü. 28nm bringt sondern ganz im Gegenteil die Kosten eher steigen werden. Solange die Yieldrate nicht entsprechend hoch sind und man keine deutlichen Vorteile daraus hat lohnt sich der Umstieg also nicht.

aufkrawall
2013-01-26, 18:52:19
Ne, ich meinte, wenn man ohne Spannungserhöhung übertaktet, wirkt sich das nur marginal auf den Verbrauch aus, zumal man ja wohl eh nicht weit kommt.
Wie ist denn das jetzt eigentlich mit verfügbaren Keplers?
Hab meine Windforces im Oktober gekauft und kann per NVAPI definitiv die Spannung erhöhen.
Geht das bei neueren Karten nicht mehr?

boxleitnerb
2013-01-26, 18:56:30
Wie ist denn das jetzt eigentlich mit verfügbaren Keplers?
Hab meine Windforces im Oktober gekauft und kann per NVAPI definitiv die Spannung erhöhen.
Geht das bei neueren Karten nicht mehr?

Keine Ahnung, mein Wissensstand ist, dass mehr wie 1.175V nicht gehen.

Duplex
2013-01-26, 18:56:37
Wenn 20nm noch problematischer als 28nm ist, macht der Maxwell@28nm Zwischenschritt wohl durchaus Sinn. Maxwell könnte wohl die Shaderleistung um gut 50% steigern, bei nahezu gleicher Chipfläche und Verbrauch.
Bei gleicher Anzahl der Shader 50% mehr Power? Du bist viel zu optimistisch...
GK104 hat 3x soviele Einheiten wie GF110 und ist mit über 1Ghz Takt gerade mal 30-35% schneller geworden, also AnarchX 50% mehr Power bei gleicher Anzahl verbauter Shader klingt doch etwas zu hoch oder woher hast du diese wunderzahlen?

Es waren eher 20%. ;)
1Ghz war die absolute Seltenheit.
Die letzten Karten habe faste alle 1 Ghz gepackt, Anfangs waren 900-950 der Durchschnitt, meine hat 1Ghz ohne Probleme gemacht und das sind 30% :smile:

LSSJBroly
2013-01-26, 19:07:52
Keine Ahnung, mein Wissensstand ist, dass mehr wie 1.175V nicht gehen.

Mit BIOS-mod gehen bis zu 1,212V, also ist leichtes overvolting möglich. Komisch ist nur, dass meine Karte (März 2012) statt 1,175 nur 1,162V annimmt, bzw. lassen sich 1,175V auswählen, standardmäßig kommt mit max. Boost da nur 1,162V an...

Duplex
2013-01-26, 19:08:22
Das Problem ist wohl, dass 20nm sooo schlecht ist, dass man da zeitnah (H1 2014) auch keinen Performancechip drauf bauen kann wirtschaftlich.
Und woher willst du wissen der der Prozess tatsächlich in 1 Jahr nicht rund laufen wird?

Also macht man Tick-Tock - eine neue Architektur auf demselben Prozess und danach der Shrink.
Tick Tock ist von Intel bekannt, die machen das aber anders, alte Architektur in neuen Strukturen, danach anschließend neue Architektur im selben Prozess, eine neue Architektur in alten Strukturen macht nur dann sinn wenn AnarchX mit seiner Behauptung recht hat das die Shader Leistung von Maxwell 50% höher als Kepler ausfallen wird.

Skysnake
2013-01-26, 19:10:59
Erzaehl dass den Herren die mir nichts dir nichts Kepler problematische hw anrechnen wollen. Nicht nur A1 sondern auch genau 6 Monate Massenproduktion nach dem tape out.
Und wie hoch ist die "Massenproduktion"? Du meintest doch mal, das man nur so viel Chip gefertigt hat, wie man brauchte für die Deals. Oder nicht :confused:

Es macht keinen sinn Maxwell in 28nm zu fertigen, Nvidia hat GK104, GK110 & evtl. GK204. Nächstes Jahr könnte man GK104 in 20nm einfach verdoppeln oder GK110 mit 2880 Shader auf 20nm shrinken damit man erfahrungen mit 20nm sammeln kann, dafür braucht Nvidia noch kein Maxwell und 350-400mm² sind selbst in 20nm kein Problem wenn man bedenkt das Nvidia in 65nm größere Chips als Fermi & Kepler gebaut hat, der Prozess war auch nicht der beste und trotzdem hat man es gemacht!
Was hat denn bitte die DIE-Größe in 65nm mit der fertugbaren DIE-Größe in einem neuen Prozess zu tun, scheis egal mit welchen neuen Prozess :ufail:

Sorry, aber das ist doch kompletter schwachsinn. Es ist absolut zu erwarten, das zumindest nVidia nicht sofort auf den neuen Prozess umsteigen, sondern erst mal ihren neuen Chip in einem ausgereiften Prozess bringen. AMD würde ich zutrauen, gleich den neuen Prozess zu nehmen, wobei ich auch da sehr sehr sehr starke Zweifel dran habe, dass die das machen werden.

40nm war schon nicht toll, 28nm noch weniger, und 20nm soll noch beschissener sein... Da springt doch keiner mit nem Köpfer in ein unbekanntes Gewässer...

boxleitnerb
2013-01-26, 19:12:28
Weil Ailuros angedeutet hat, dass 20nm im Vergleich zu 28nm schlecht läuft. Sprich 20nm läuft jetzt schlechter wie 28nm es vor zwei Jahren war. Daraus folgere ich, dass - wenn es so weiterläuft und es kein Wunder gibt - die Aussichten für 2014 nicht sonderlich gut sind.

Und bzgl. Intel: Sie machen es eben nicht anders. Du schreibst doch selbst
neue Architektur im selben Prozess
Das genau wäre Maxwell@28nm

Duplex
2013-01-26, 19:12:53
@Skysnake
Bisher war es doch immer Nvidia die ihre neuen Architekuren in neuen Struktruren gefertigt haben, also erzähl mir nichts!
G80, GT200, Fermi. Kepler. diese 4 Architekturen wurden alle im neuen Prozess gefertigt! Es gab noch nie Nvidia Träum Tick-Tock :rolleyes:
Woher kommt plötzlich das umschwenken? Nur weil Ailuros das sagt "GM @28nm" muss das noch lange keine tatsache sein!

Duplex
2013-01-26, 19:26:14
Und bzgl. Intel: Sie machen es eben nicht anders.
Doch machen Sie ganz anders!

Ivy Bridge (altes CPU Design) > Neuer Prozess 22nm
Haswell (neues CPU Design) > Neuer Prozess 22nm

Du sagst Maxwell im alten Prozess und dann im neuen, also:
Maxwell a 28nm
Maxwell b 20nm

Das ist ein großer Unterschied, Intel fertigt neue Designs niemals im neuen Prozess, erst wird vorher das alte Design im neuen Prozess getestet!
Nvidia hat also nichts davon Maxwell im alten Prozess zu fertigen, nur wenn AnarchX recht hat das Maxwell 50% mehr Shader Power als Kepler hat, dann macht das sinn, ansonsten sind schwierigkeiten=schwierigkeiten und hier hat man im alten Prozess genauso Probleme wenn man eine neue Architektur noch niemals in so einem Prozess gefertigt hat, gefickt ist man so oder so wenn was schief läuft!

Skysnake
2013-01-26, 19:29:38
nVidia hat bis zu Fermi deutlich länger auf den älteren Node gesetzt, aber dafür größere Chips gebaut.

boxleitnerb
2013-01-26, 19:29:43
Ich meinte nicht, dass man die gesamte Tick-Tock-Strategie übernimmt! Ich meinte, dass man diesmal einfach auf den reifen bewährten Prozess setzt bis 20nm bereit ist.

Außerdem verschieb doch mal die Sache um eine Generation, dann sieht es so aus:

Sandy Bridge (altes CPU Design) > Alter Prozess 32nm -> analog zu Maxwell@28nm
Ivy Bridge (altes CPU Design) > Neuer Prozess 22nm -> analog zu Maxwell@20nm

Beides sind nur Shrinks.

Haswell (neues CPU Design) > Neuer Prozess 22nm -> könnte Einstein@20nm werden

Thunder99
2013-01-26, 20:52:23
Aus wirtschaftlicher Sicht gehe ich davon aus das Maxwell @28nm kommt wie Kepler zuerst in der GK104 Ausführung. Die alten Strukturen und Wege können wir getrost vergessen!

AMD hat btw auch zuerst den 40nm Prozess getestet bevor sie die HD5000er Serie released haben (war die HD47770). Nvidia mit GT21x ja ebenso. Wieso sollte nvidia das nicht wieder machen?

Hübie
2013-01-26, 21:00:54
Du meinst 4770 ;) Kepler @20nm ist für mich derart abwegig...

Thunder99
2013-01-26, 21:03:59
Du meinst 4770 ;) Kepler @20nm ist für mich derart abwegig...
Ups, verbessert :redface:

Eher Kepler GK117 als GK217@20nm als Maxwell @20nm mit GM1xx

Ailuros
2013-01-28, 10:01:21
Es macht keinen sinn Maxwell in 28nm zu fertigen, Nvidia hat GK104, GK110 & evtl. GK204. Nächstes Jahr könnte man GK104 in 20nm einfach verdoppeln oder GK110 mit 2880 Shader auf 20nm shrinken damit man erfahrungen mit 20nm sammeln kann, dafür braucht Nvidia noch kein Maxwell und 350-400mm² sind selbst in 20nm kein Problem wenn man bedenkt das Nvidia in 65nm größere Chips als Fermi & Kepler gebaut hat, der Prozess war auch nicht der beste und trotzdem hat man es gemacht!

Ich glaube Du willst immer noch nicht verstehen in welchen Zustand genau 20nm ist. IHVs werden wohl nicht total besoffen sein wenn sie fuer N Zeitraum 28 zu 20nm bevorzugen. Ja man kann mehr in 20nm quetschen aber es ist eben totaler Irrsinn unter 20nm herzustellen wenn die wafer yields fuer eine Zeit lang zu beschissen sind. In solch einem Fall wenn die yields unter 30% im Durchschnitt liegen wird Dir eine 20nm Herstellung doppelt so viel kosten und dabei ist es wurscht ob man im einen Fall sagen wir mal 300mm2@28nm vs. 190mm2@20nm hast. Was genau ist daran so schwer zu verstehen?

Bei gleicher Anzahl der Shader 50% mehr Power? Du bist viel zu optimistisch...
GK104 hat 3x soviele Einheiten wie GF110 und ist mit über 1Ghz Takt gerade mal 30-35% schneller geworden, also AnarchX 50% mehr Power bei gleicher Anzahl verbauter Shader klingt doch etwas zu hoch oder woher hast du diese wunderzahlen?

GF114@360mm2/40nm vs. GK104@294mm2/28nm um erstmal Aepfel mit Aepfel zu vergleichen und ja heutzutage ist eine GTX680 um fast 2x Mal schneller im Durchschnitt als eine GeForce 560Ti. Zwischen 85-95% schneller wird auch Titan sein im Vergleich zur GTX580.

Denk mal nach wie viel Transistoren hypothetisch in sagen wir mal 400mm2/28nm passen. Im schlimmsten Fall wird halt "GM104" oder wie immer das Ding heissen sollte nicht um >80% schneller als GK104 sondern zum Anfang um etwas weniger und man holt sich dann mit 20nm einen aehnlichen Leistungsunterschied wie zwischen GK104 und GF114 wieder rein. Dafuer hat man aber auch rechtzeitig und bei ausgezeichneter Verfuegbarkeit chips auf dem Laufband anstatt bis Mitte 2014 warten zu muessen.


Das ist ein großer Unterschied, Intel fertigt neue Designs niemals im neuen Prozess, erst wird vorher das alte Design im neuen Prozess getestet!

Bumsvergleich. Wo stellt Intel irgendwelche so hochkomplizierte GPU chips her die selbst in die Groesse eines GK106 reichen? Noch dazu dass bis zu Haswell ihre Prozesse eher suboptimal fuer GPUs sind, aber eigentlich eine Nebenaffaere da sie nur SoCs bzw. CPUs eigentlich herstellen.

Nvidia hat also nichts davon Maxwell im alten Prozess zu fertigen, nur wenn AnarchX recht hat das Maxwell 50% mehr Shader Power als Kepler hat, dann macht das sinn, ansonsten sind schwierigkeiten=schwierigkeiten und hier hat man im alten Prozess genauso Probleme wenn man eine neue Architektur noch niemals in so einem Prozess gefertigt hat, gefickt ist man so oder so wenn was schief läuft!

Maxwell ist genauso eine neue Architektur wie Kepler zu Fermi. Unter normalen Umstaenden schielt man in solchen Faellen auf irgendwelche Aenderungen was die generelle Effizienz betrifft und nicht nur auf sterile FLOPs und nein es wird Mitte 2013 kein einziges Problem geben unter 28nm. Der chip wird wie erwaehnt zweifellos unter 28nm etwas groesser, wird aber um etliche Male besser verfuegbar sein und wird auch temporaer billiger sein herzustellen. Was ist denn zwischen NV35 und GT200 genau schiefgelaufen?

boxleitnerb
2013-01-28, 10:03:43
Ich glaube die Frage, die hier im Raum steht ist, ob man die Leistung pro N Alus u. Bandbreite nennenswert steigern kann ggü. Kepler. Wenn ein GM104 gleichviele Einheiten und Bandbreite wie GK104 hat, wie kann er dann nennenswert schneller sein? Vielleicht ist das eine blöde Frage, aber wir wissen ja noch gar nichts zur Maxwell-Architektur.

Alternativ wäre es natürlich denkbar, dass die ALUs selbst so verändert werden, dass sie weniger Strom und Platz brauchen @28nm und man einfach mehr verbauen kann deshalb. Da würde sich aber die Frage stellen, warum man das nicht schon bei Kepler gemacht hat.

V2.0
2013-01-28, 10:05:04
Ich meinte nicht, dass man die gesamte Tick-Tock-Strategie übernimmt! Ich meinte, dass man diesmal einfach auf den reifen bewährten Prozess setzt bis 20nm bereit ist.

Außerdem verschieb doch mal die Sache um eine Generation, dann sieht es so aus:

Sandy Bridge (altes CPU Design) > Alter Prozess 32nm -> analog zu Maxwell@28nm
Ivy Bridge (altes CPU Design) > Neuer Prozess 22nm -> analog zu Maxwell@20nm

Beides sind nur Shrinks.

Haswell (neues CPU Design) > Neuer Prozess 22nm -> könnte Einstein@20nm werden

Sandy war eine größere Evolution beim Chipdesign. Tick-Tock.

Abgesehen davon kann man Intel nicht wirklich als Vorbild nutzen, denn Intel hat nun einmal Design und Fertigung in einer Hand und Intel zielt gar nicht auf Leistungssprünge, die GPUs bisher gemacht haben.

Wenn man das Intel-Modell ansieht, dann muss man seine Erwartungen bei den GPUs nämlich mal gewaltig senken.

Intel reduziert die Diegröße mit jedem Shrink, GPUs nutzen die möglichen Einsparungen bei der Größe bisher fast vollständig für mehr Transistoren, so dass man am Ende ähnliche Chipgrößen in mm² hatte. Das wird nicht mehr laufen, da muss man sich keine Illusion machen.

Wir werden jetzt eher 300 mm² @ 28nm ersetzt durch 170 mm² @ 20mm und dannach eben 240 mm² @ 20mm und dann wahrscheinlich auch noch 300 mm² @ 20nm sehen. Und vorher wahrscheinlich auch noch 330mm² @ 28nm und 360 mm² @ 28nm.

Der Lesitungsprung pro Geenration wird sich eher (wie bei Intel) gegen 15-25% bewegen. Die 100% Sprünge sind vorbei, wobei sie natürlich noch da sein werden wenn man Chipgröße XY in mm² in Porzess alt gegen exakt die gleiche Chipgröße in mm² in neuen Prozess vergleicht.

Timbaloo
2013-01-28, 10:05:23
Finde ich eigentlich sogar spannender zu sehen wie sich zwei Architekturen auf dem selben Prozess vergleichen.

Godmode
2013-01-28, 10:08:36
Alternativ wäre es natürlich denkbar, dass die ALUs selbst so verändert werden, dass sie weniger Strom und Platz brauchen @28nm und man einfach mehr verbauen kann deshalb. Da würde sich aber die Frage stellen, warum man das nicht schon bei Kepler gemacht hat.

Naja man hat ein begrenztes Zeitbudget bei der Entwicklung und somit geht sich nicht immer alles aus was man implementieren möchte. Ich denke das ist ein evolutionärer Prozess.

boxleitnerb
2013-01-28, 10:16:46
Sandy war eine größere Evolution beim Chipdesign. Tick-Tock.

Alt und neu sind relative Begriffe. Alt dann eben im Vergleich zu Haswell oder neu im Vergleich zu Nehalem/Lynnfield. Du weißt schon wie es gemeint war :)
Es ist genau dasselbe vom Vorgehen her.

Ailuros
2013-01-28, 10:35:00
Naja man hat ein begrenztes Zeitbudget bei der Entwicklung und somit geht sich nicht immer alles aus was man implementieren möchte. Ich denke das ist ein evolutionärer Prozess.

Huh? Maxwell liegt schon ueber 3 Jahre in Entwicklung.

Ich glaube die Frage, die hier im Raum steht ist, ob man die Leistung pro N Alus u. Bandbreite nennenswert steigern kann ggü. Kepler. Wenn ein GM104 gleichviele Einheiten und Bandbreite wie GK104 hat, wie kann er dann nennenswert schneller sein? Vielleicht ist das eine blöde Frage, aber wir wissen ja noch gar nichts zur Maxwell-Architektur.

Und jedesmal wenn man spekulativ so ein Thema anpackt faellt man mit mathematischer Genauigkeit platt auf die Nase eben weil sterile Einheits-anzahlen einfach bedeutungslos sind.

Alternativ wäre es natürlich denkbar, dass die ALUs selbst so verändert werden, dass sie weniger Strom und Platz brauchen @28nm und man einfach mehr verbauen kann deshalb. Da würde sich aber die Frage stellen, warum man das nicht schon bei Kepler gemacht hat.

Maxwell ist kein Kepler refresh. Es gibt schon einen thread dafuer.

Godmode
2013-01-28, 10:41:17
Huh? Maxwell liegt schon ueber 3 Jahre in Entwicklung.


Genau lesen, das war die Antwort auf:
"Da würde sich aber die Frage stellen, warum man das nicht schon bei Kepler gemacht hat."

Ailuros
2013-01-28, 11:03:00
Genau lesen, das war die Antwort auf:
"Da würde sich aber die Frage stellen, warum man das nicht schon bei Kepler gemacht hat."

Nur hat sich box sehr spezifisch auf platzsparendere ALUs unter 28nm im Satz genau davor bezogen. ALUs sind (wie wir wohl alle hier wissen) relativ billig in hw und sind natuerlich auch nicht alles. Kepler hat einen neu entwickelten uncore im Vergleich zu Fermi und ich bezweifle ernsthaft dass Maxwell immer noch den Kepler uncore unveraendert mit sich schleppt.

Hübie
2013-01-28, 15:23:35
Blöde Frage: Was alles fällt unter den Begriff "uncore" im Falle einer GPU? Display-Ports, PCIe-Anbindung... was noch alles? Maxwell wird doch einen ARM-Core fürs APM haben. Der kann sicher auch Aufgaben wie diese übernehmen.

boxleitnerb
2013-01-28, 19:26:53
Jemand mit ein paar weitergehenden Kenntnissen über GPU Architekturen und Game Engines hat sich ein paar Gedanken über Titan gemacht. Laut eigener Angabe hat er schon seit einiger Zeit Zugang zu einer GK110 GPU und steht unter NDA

First of all, ALL of this information is either public, or derived only from public information. The gk110 GPU is already available to the public and I have had access to them for a while now. What I will not and cannot talk about is any benchmark performance, unreleased information and features, prices, future cards, etc. I cannot disclose any NDA information.

I will also skip the parts that are already floating around such as improved fp64 performance and such. I will focus on gaming applications.

Performance

Die Layout, extra cores, more meat
Unlike the gk104, gk110 appears to not only have additional cores and other units, but more advanced logic circuitry in multiple areas. Namely, the gk110's central command processor is significantly larger and more advanced. It appears to have more instruction and data cache as well. This implies that the GPU will be able to support much more complicated drivers and pipeline queues. This will be particularly useful for games with complicated and long graphics pipelines such as the original Crysis, Metro2033, and GTA4.

SIMD scheduling performance improvements
You will also notice the gk110 has 2 additional SPUs. This will provide a theoretical 50% improvement in pipeline throughput compared to gk104. This means that theoretically, gk110 could issue 50% more frames than gk104 in the same amount of time (note I said issue, not render). This will be great for games with heavy shadow map rendering and long graphics pipelines.

SMX and IPC gains
Although I remember hearing somewhere that the shader units are the same, you can clearly see that the shader units are not the same at all. Most notably they appear to have many more cache chips (they appear larger too but I'm not sure). This will be great for pretty much everything as the GPU will be able to reduce memory misses and theoretically improve average IPC. I'm also guessing that the beefier SMXs will provide improved average IPC as well. Note I am assuming normal cases that don't break some reasonable standard deviation (theoretical isn't always practical). I would guess, based on the diagram, that you will see between a 90% and 150% increase in average IPC for the entire GPU compared to gk104.

Clock Speed and Overall Performance Gains
If you assume reasonable power targets, the clocks are likely to be much lower than they were in gk104. I would guess they would need to be somewhere near the 720MHz range. If we compare this to say a 1GHz gk104, my analysis will show at least a 64.8% increase in performance compared to the gk104! Most likely this number will be closer to 86.4% but not higher than 108% increase (this might occur in some hand-picked cases but I doubt it). This would indeed put it very close to the current gtx690. which is often about 83% faster than a gtx680 at 1ghz.

VS gtx690
Many people are saying it would be 80% the performance of a gtx690 but I just don't see that. I believe, based on analysis, that is will be much closer in performance to a gtx690 than 80%. It may be that in benchmarks 80% is correct, but after looking at some benchmarks on anandtech, I think that in many games like metro2033, once the drivers are matured, the performance will be very close.


http://www.overclock.net/t/1354372/nvidia-gk110-titan-performance-analysis

Manches klingt vernünftig, anderes ziemlich verrückt :D

Ailuros
2013-01-28, 19:45:26
Tschuldigung aber das meiste ist eine Sammlung von clueless bullshit.

Godmode
2013-01-28, 20:11:08
Tschuldigung aber das meiste ist eine Sammlung von clueless bullshit.

Habs am morgen schon gelesen und hab mir genau das Gleiche gedacht. Ich denke momentan hat niemand Boards darum gibt es auch keine Neuigkeiten. Die ersten Leaks werden wieder aus Asien kommen, wo die Dinger zusammengesetzt werden.

Ailuros
2013-01-28, 20:42:53
Habs am morgen schon gelesen und hab mir genau das Gleiche gedacht. Ich denke momentan hat niemand Boards darum gibt es auch keine Neuigkeiten. Die ersten Leaks werden wieder aus Asien kommen, wo die Dinger zusammengesetzt werden.

Neben dem ueblichen zusammengereimten Bloedsinn, weiss er nichtmal wieviel Speicher die desktop Variante haben wird.

http://www.overclock.net/t/1354372/nvidia-gk110-titan-performance-analysis

Tried the GPU or the analysis? I guess I can go back and make some figures highlighting what I'm talking about on the dies. Also I can add my math work in. As for trying the GPUs, it doesn't matter much anyway since the cards I've seen are literally incapable of even putting out a video signal. They are purely for compute purposes only.

*seufz* :rolleyes:

Godmode
2013-01-28, 20:50:05
Neben dem ueblichen zusammengereimten Bloedsinn, weiss er nichtmal wieviel Speicher die desktop Variante haben wird.

http://www.overclock.net/t/1354372/nvidia-gk110-titan-performance-analysis



*seufz* :rolleyes:

6GB?:biggrin:

Hübie
2013-01-28, 21:12:21
Weils auch so sinnig ist, nech? :facepalm: ;D

Ailuros
2013-01-28, 21:17:40
6GB?:biggrin:

Ich bezweifle dass der Kerl ueberhaupt eine Tesla in Echtzeit gesehen hat.

Nightspider
2013-01-28, 21:21:56
Weils auch so sinnig ist, nech? :facepalm: ;D

Für 4K sind 6GB sogar zwingend notwendig, wenn man keine Details herunterschrauben will.

Selbst wenn nur jeder 100. Enthusiast in einem Jahr 4K-Displays haben wird ist ein Bedarf da.

Godmode
2013-01-28, 21:23:44
Weils auch so sinnig ist, nech? :facepalm: ;D

Sicher ist es sinnvoll, wenn man zb in 4k mit 8xSGSSAA spielen will. ;D
Da machen dann vier Titanen auch Sinn.

Ich dachte über Sinnhaftigkeit stehen wir schon drüber.

Hübie
2013-01-28, 21:36:32
Sicher ist es sinnvoll, wenn man zb in 4k mit 8xSGSSAA spielen will. ;D
Da machen dann vier Titanen auch Sinn.

Ich dachte über Sinnhaftigkeit stehen wir schon drüber.

Hahahaaa :freak: 4k @30 Hz und 30 fps!

Botcruscher
2013-01-28, 21:40:25
Für 4K fehlt erst mal eine brauchbare Monitoranbindung. Heute ist doch schon alles für den Arsch und wenn es dann noch 120Hz sein sollen...

Zergra
2013-01-28, 21:45:45
Eben... wieso brauchen wir JETZT eine Grafikkarte die 4k stemmen kann, wenn in 3-5 Jahren oder noch später bezahlbare Bildschirme dafür erscheinen ?

Sowas hat AMD auch versucht.....

Nightspider
2013-01-28, 21:49:58
Klar wäre es schön nur ein Kabel zu haben aber aktuell geht es ja auch mit 2 Kabeln.

Und 120Hz braucht man nicht in jedem Spiel. Erst recht bei 4K.
Rollenspiele und RTS Games kann man wundervoll auch in 4K mit 60Hz genießen.
Für den Anfang reicht das.


Und erzählt mir nichts von Leistung. Schaut euch an was die PCGH an fps mit nur einer 7970 geschafft hat.
GK110 SLI ist da schon 3 mal schneller.

Und die ersten Portierungen von den NextGen Konsolen werden schon im Winter deutlich höhere Textur-Auflösungen haben.
Seit doch alle nicht so kurzsichtig.

Wenn wir über GK110 reden, reden wir auch über HighEnd und 1440p sind kein HighEnd mehr.
Zocken tun hier viele schon lange mit Downsampling und Auflösungen ab 2880*1800.

3GB VRAM sind zu wenig. 4GB wären optimal.
Dann lieber zu viel als zu wenig. Oder sieht das einer bei einer 800 Euro GPU anders? Gerade für Leute die sich ein SLI System aufbauen wollen sind 3GB 2013 ein schlechter Witz.


Eben... wieso brauchen wir JETZT eine Grafikkarte die 4k stemmen kann, wenn in 3-5 Jahren oder noch später bezahlbare Bildschirme dafür erscheinen ?

Sowas hat AMD auch versucht.....

Wenn ein SLI System mit Wasserkühlung fast 2000 Euro kostet wird sich ein echte HighEnd-User auch in baldiger* Zeit ein 4K Monitor zulegen.

*1-2 Jahren

Die nächste Grafikkarte, die merklich schneller als GK110 wird, wird sicherlich erst in 2-2,5 Jahren erscheinen.
Maxwell Performance Karten werden wohl genauso am Speicherdurchsatz hängen wie die GTX680.

Selbst für Downsampling mit NextGen Titeln werden 3GB keine 1,5 Jahre reichen, wenn die neuen 8 mal soviel Speicher für Texturen zur Verfügung haben wie die Alten.

Und selbst wenn die Leistung nicht mal mit zwei GK110 Karten im SLI für Downampling reicht werden 3GB sicherlich nicht für 2560*1440 bei NextGen Titeln reichen.

Edit:

Selbst ein GTX480 SLI Gespann hat heute noch Top-Leistung für alle Spiele mit DS. Dennoch ist der Speicher für manche aktuellen Games mit DS zu wenig. Spätestens mit Textur-Mods kackt dann das SLI Gespann ab obwohl die Leistung reicht.

Edit 2:

Crysis 3 würde von der GPU Leistung noch Top auf einem GTX480 SLI Gespann laufen aber der Speicher ist viel zu gering, Crysis 3 wird wohl selbst unter FullHD 2GB VRAM voll kriegen.

Und Crysis 3 gehört noch zur aktuellen Gen.

Was glaubt ihr wie das mit den PS4 Games wird?

Edit 3:

Noch eine Bemerkung: UHD Displays sind in der Herstellung nicht viel teurer herzustellen. Das 32 Zoll IGZO Display von Sharp kostet auch wegen der Größe 4000 Euro.
Es wurden ja selbst 22 zoll 4K Displays gezeigt.

Und 2560*1600 sind ja selbst auf einem Mainstream-10-Zoll-Tablet nichts besonderes. Ein 24-27" 4K Display könnte es locker in einem Jahr für 1500-2000 oder weniger geben.

Schaut euch an wie schnell 3D in alle Geräte einzug hielt und nichts besonderes mehr bedeutete. Wäre bei 4K mit 3-5 Jahren rechnet hat entweder falsche Preisvorstellungen für Displays, wenn man über 4K Displays redet oder schlechte Weitsicht.

Meine Meinung.

Dural
2013-01-28, 21:55:06
ich wette mit 100.- einsatz das die karte nicht mit 6GB kommt :cool:

Hübie
2013-01-28, 22:06:41
@Nightspider: Hast du auch gesehen dass die HD 7970 schon am Limit läuft und sogar im Video Bildfehler produziert? Abgesehen davon denk doch mal an den Kostenfaktor :rolleyes: Dann lieber TriCFX.

http://www.abload.de/img/bf3_4k_wtffrs98.png (http://www.abload.de/image.php?img=bf3_4k_wtffrs98.png)

Nightspider
2013-01-28, 22:14:26
Eine neue Technik hat Bugs. Und?

Neuer Treiber -> Fertig. Problem solved.

Godmode
2013-01-28, 22:15:34
Eben... wieso brauchen wir JETZT eine Grafikkarte die 4k stemmen kann, wenn in 3-5 Jahren oder noch später bezahlbare Bildschirme dafür erscheinen ?

Sowas hat AMD auch versucht.....

2x2 Downsampling reicht schon, da brauchts nichtmal ein 4k Display.

Timbaloo
2013-01-28, 22:16:50
ich wette mit 100.- einsatz das die karte nicht mit 6GB kommt :cool:
Wenn es nur "die" Karte gibt hast du wahrscheinlich recht :tongue:

Godmode
2013-01-28, 22:21:10
Mein Meinung.

Endlich einer der es checkt was ich so haben will.

Ailuros
2013-01-29, 09:31:43
Bis 4k PC displays erscheinen bleibt die Sache leider nur theoretisch. Fuer mich liegt der Punkt woanders: haette NV die GTX680 mit 4GB ausgestattet, haette der Verbraucher sehr wenig bis gar nichts damit anfangen koennen. Aber sie haetten es sich mit dem MSRP und auch den heutigen Preisen durchaus leisten koennen und nein es wird mich keiner dazu ueberreden koennen dass sie mit einem 294mm2 dass der Gewinn beim launch und heute gering ist.

Speicher ist heutzutage nach wie vor relativ spottbillig; wenn sich jetzt der Titan Speicher nicht ueberhalb der 6-6.5Gbps Grenze bewegen sollte und dessen MSRP ist so hoch wie die Geruechte andeuten dann geht es eher um's Prinzip als alles andere.

boxleitnerb
2013-01-29, 09:36:55
Gibt es überhaupt schon 4 Gbit Speicherchips, die 6 Gbps schaffen? Irgendjemand hat hier mal gesagt, dass der Verbrauch durch die Anzahl der Chips beeinflusst wird, nicht durch die Speicherdichte. Bei 4 GB oder gar 6 GB brauchst du doppelt soviele Chips, was den Verbrauch etwas in die Höhe treibt. Im Ultrahighend im Prinzip egal, allerdings "fehlen" die paar Watt dann der GPU, wenn du dich an die PCIe-Specs halten willst oder eine gewisse TDP anpeilst.

Ailuros
2013-01-29, 09:52:43
Gibt es überhaupt schon 4 Gbit Speicherchips, die 6 Gbps schaffen? Irgendjemand hat hier mal gesagt, dass der Verbrauch durch die Anzahl der Chips beeinflusst wird, nicht durch die Speicherdichte.

Keine Ahnung, aber es ist ein wichtiger Punkt den ich total uebersehen habe.

Bei 4 GB oder gar 6 GB brauchst du doppelt soviele Chips, was den Verbrauch etwas in die Höhe treibt. Im Ultrahighend im Prinzip egal, allerdings "fehlen" die paar Watt dann der GPU, wenn du dich an die PCIe-Specs halten willst oder eine gewisse TDP anpeilst.

Bei doppelt so viel chips wuerde ich persoenlich von 6GB abraten. Gibt es irgendwo Infos wie viele Speicherchips eine K20X genau hat?

boxleitnerb
2013-01-29, 10:02:31
Selbst wenn es 4 Gbit-Chips gäbe, hätten K20 oder K20X die ganz sicher nicht. Für ne limitierte Auflage wie eine 7970 6GB oder Titan wär das vielleicht noch machbar (und wohl sehr sehr teuer), aber wenn du Zehntausende Karten damit ausliefern willst...ich weiß ja nicht.

K5000 und die 7970 Toxic mit 6GB haben nur 2Gbit Chips.

john carmack
2013-01-29, 11:21:32
Schaut euch an wie schnell 3D in alle Geräte einzug hielt und nichts besonderes mehr bedeutete. Wäre bei 4K mit 3-5 Jahren rechnet hat entweder falsche Preisvorstellungen für Displays, wenn man über 4K Displays redet oder schlechte Weitsicht.

Meine Meinung.


Naja... 3D ist ja auch keine Technik die viel kostet. Mag sein das die ersten geräte teuer waren, aber auch nur weil die Hersteller geld scheffeln wollten.

3D ist wie nichts anderes so schnell sehr sehr günstig geworden. Und eine steinalte Playstation3 wurde durch ein einfaches SoftwareUpdate 3D fähig gemacht.

3D würde ich jetzt nicht als Maßstab nehmen!

boxleitnerb
2013-01-30, 22:49:37
Silly Season:

New details of the GeForce Titan have been revealed by RedQuasar forums. The very first information is that the GeForce Titan is not a GeForce 700 series product as some sites earlier speculated that it could be the GTX 780, a part of the Kepler refresh. However according to the leaked info, that is to be deemed false. The new card would just be known as GeForce Titan. The information suggests that the actual GeForce 700 series cards won’t be out till June 2013 giving AMD an headstart with their Sea Islands HD 8000 lineup in Q2 2013.

However the most interesting thing about the leak is this next piece of information which suggests that the Titan would end up with the performance level surpassing the dual core GeForce GTX 690. We know this much that any GPU featuring the GK110 would indeed be faster than the GTX 680 but better performance than the GTX 690 (if true) is seriously mind-boggling. In another leak, PHK from Expreview has leaked details showing that GeForce Titan has a PCB similar to GTX 680 but with a beefed up memory area which can confirm 6 GB 384-bit on the card itself and tells that the card has been listed in Hong Kong with arrival slated at then end of February.

http://wccftech.com/nvidia-geforce-titan-gtx-780-performance-surpasses-gtx-690/

Godmode
2013-01-30, 22:53:13
Silly Season:



http://wccftech.com/nvidia-geforce-titan-gtx-780-performance-surpasses-gtx-690/

Naja es kann schon sein, wenn ich in Setting messe, wo der 690 der Speicher ausgeht. Das der Titan aber eine ähnliches PCB wie die 680 haben soll, ist nicht ganz glaubwürdig.

Nightspider
2013-01-30, 22:58:39
Das eine GK110 Karte in bestimmten Settings deutlich vor einer 690 liegt sollte klar sein.

Nichts Neues also. Das PCB muss ich alleine schon bei der Speicheranbindung unterscheiden.
Der Rest vom PCB interessiert doch sowieso fast niemanden.

Godmode
2013-01-30, 22:59:50
Das eine GK110 Karte in bestimmten Settings deutlich vor einer 690 liegt sollte klar sein.

Nichts Neues also. Das PCB muss ich alleine schon bei der Speicheranbindung unterscheiden.
Der Rest vom PCB interessiert doch sowieso fast niemanden.

Spannungsversorgung und Stromanschlüsse sind immer interessant.

Nightspider
2013-01-30, 23:04:17
Solange die Karte genug Saft für starkes OC ziehen kann ist mir der Rest egal.^^

Würde so eine Karte unter Wasser natürlich übertakten.

Godmode
2013-01-30, 23:05:52
Solange die Karte genug Saft für starkes OC ziehen kann ist mir der Rest egal.^^

Würde so eine Karte unter Wasser natürlich übertakten.

Was kostet eine Wakü für 4 solche Karten, 1.000 €?
Hab weder Radi noch Pumpe noch Schläuche...

Blaire
2013-01-30, 23:07:27
Naja es kann schon sein, wenn ich in Setting messe, wo der 690 der Speicher ausgeht. Das der Titan aber eine ähnliches PCB wie die 680 haben soll, ist nicht ganz glaubwürdig.

Da muss aber schon ziemlich viel falsch laufen, damit dies zutrifft. Bei irgendwelchen Mickey-Mouse-Settings vieleicht. Der VRAM war eigentlich nie ein Problem , wenn man nicht irgendwelche Mods bzw. unspielbare Settings testete.

Nightspider
2013-01-30, 23:09:40
Pro Karte 90 Euro = 360, 1-2 Radiatoren ~200, Pumpe 50m CPU Kühler 60 und mit dem ganzen anderen Gedöns bist du schnell bei 750-1000 Euro.

Dafür könnte man eine GK110 Karte dann vllt mit 1100-1200 Mhz betreiben. :naughty:

boxleitnerb
2013-01-30, 23:11:18
Wenn Übertakten überhaupt geht, Stichwort Voltage Lock.

boxleitnerb
2013-01-30, 23:13:02
Ist eigentlich mal jemand auf die Idee gekommen, dass Titan eine Dual-GPU Karte sein könnte? Die 6 GB und der Preis würden dazu ja in der Tat passen. Weil 6 GB für eine GPU macht jetzt wirklich kaum Sinn.

Godmode
2013-01-30, 23:15:10
Pro Karte 90 Euro = 360, 1-2 Radiatoren ~200, Pumpe 50m CPU Kühler 60 und mit dem ganzen anderen Gedöns bist du schnell bei 750-1000 Euro.

Dafür könnte man eine GK110 Karte dann vllt mit 1100-1200 Mhz betreiben. :naughty:

Das wäre schon ein ziemlicher Boost, wobei ich nicht wissen will was GK110 mit 1100-1200 MHz verbraucht, bzw. ob der überhaupt soch hoch Taktbar ist, selbst unter Wasser.

Godmode
2013-01-30, 23:16:29
Ist eigentlich mal jemand auf die Idee gekommen, dass Titan eine Dual-GPU Karte sein könnte? Die 6 GB und der Preis würden dazu ja in der Tat passen. Weil 6 GB für eine GPU macht jetzt wirklich kaum Sinn.

Also ich würde das wirklich begrüßen, weil dann könnte ich mir viel ersparen. Ich will 4 GPUs, das ist fix. Der Vorteil ist, mit Dual-GPU karte ist das viel einfacher als mit 4 Einzelkarten (Wärme, Platz, etc...).

boxleitnerb
2013-01-30, 23:23:41
Würde auch passen:

GTX680=100%
GTX690=190%
GK110 Single=150%
GK110 Single x1,6 (durch reduzierte Taktraten) = 240%

Den 1,6-Faktor haben wir bei der 590 ja auch schon gesehen.

2x3GB=6GB...check
$999...check
Titanische Leistung...check
Durchgehend schneller wie 690...check

Hübie
2013-01-30, 23:24:47
Ist eigentlich mal jemand auf die Idee gekommen, dass Titan eine Dual-GPU Karte sein könnte? Die 6 GB und der Preis würden dazu ja in der Tat passen. Weil 6 GB für eine GPU macht jetzt wirklich kaum Sinn.

Dann muss die Karte aber schneller sein als eine GTX 690. 2*384 bit + 2* 2688 ALUs, TMUs, ROPs etc.... :freak: Und dann wäre der Preis sicher 1000+ €

Edit: Ach so du meinst da kommt eine single GK110 mit hohen Taktraten und dann eine Dual mit sagen wir die 732 von K20? Näää. K20 hat 225 W TDP. Wie willst du es jemanden verklickern 450W zu verbraten? :freak: Vergiss den Gedanken.

boxleitnerb
2013-01-30, 23:27:56
Nein ich meine, es kommt vielleicht gar keine single GK110, sondern nur eine Dual. Wo ist das Problem mit 450W TDP? Ares und Mars machen es vor. Das wäre Ultrahighend, da ist das egal. Hochwertiger Kühler drauf, fertig.
Analog zum Vergleich 580/590 und bei angenommenen 850 MHz für eine theoretische single GK110 könnte die Dual GK110 bei 670 MHz liegen. Damit sollte man die TDP noch etwas drücken können. Durch zwei GPUs auf einem PCB sowieso. Die GTX690 hat auch nicht die doppelte TDP einer GTX680 ;)

Hübie
2013-01-31, 00:15:09
Also ich habe eben beim rasieren noch mal darüber nachgedacht und es wiederspricht zuvielen Infos von zu unterschiedlichen Ausgangslagen. Durch deine Argumentation wird diese Idee nicht weniger absurd :freak: Du weißt das ich auch gerne spekuliere und Dinge umreiße, Ideen hier teile aber das? Neee... 5376 ALUs. Da kannst du ein HPC-Cluster aufmachen und Rechenkraft "vermieten". Musst dich nur voher mit einem Energielieferanten gutstellen ;D

boxleitnerb
2013-01-31, 00:17:25
Also die 590 fand ich jetzt auch nicht sonderlich absurd...

Hübie
2013-01-31, 00:34:23
*hust* ;D

boxleitnerb
2013-01-31, 00:40:51
Gutes Argument! :tongue:

Hübie
2013-01-31, 01:15:46
Geh ins Bett, box! :tongue:

M4xw0lf
2013-01-31, 08:17:03
Das wäre sicher eine kolossale Verschwendung von funktionierenden Dies (äh- Dice? ;) ) - bei nur einem Viertel mehr Leistung als ne GTX690 aber fast der doppelten Die-Fläche wäre auch Perf/mm² echt unterirdisch.

Ailuros
2013-01-31, 08:55:00
Würde auch passen:

GTX680=100%
GTX690=190%
GK110 Single=150%
GK110 Single x1,6 (durch reduzierte Taktraten) = 240%

Den 1,6-Faktor haben wir bei der 590 ja auch schon gesehen.

2x3GB=6GB...check
$999...check
Titanische Leistung...check
Durchgehend schneller wie 690...check

TDP =/<300W uncheck.

boxleitnerb
2013-01-31, 09:33:57
TDP =/<300W uncheck.

Ist es ein Gesetz, dass so eine Karte eine TDP von <=300W haben muss? 590, 6990 (bissl drüber hier und da), 7990, Ares, Mars...Titan?

Die >690 Angabe kann aber natürlich auch heftiges Cherrypicking sein, wo dieser der VRAM ausgeht. Die 6GB, weil man es halt kann und der Preis, weil man gierig ist ;)

Ailuros
2013-01-31, 09:44:19
Ist es ein Gesetz, dass so eine Karte eine TDP von <=300W haben muss? 590, 6990 (bissl drüber hier und da), 7990, Ares, Mars...Titan?

Seit wann scheren gerade Dich solche alberne Produkte? :P

Die >690 Angabe kann aber natürlich auch heftiges Cherrypicking sein, wo dieser der VRAM ausgeht. Die 6GB, weil man es halt kann und der Preis, weil man gierig ist ;)

Ich hab keine Ahnung ueber die eigentliche Speichermenge von Titan, aber selbst mit nur einem 3GB framebuffer sind es immer noch 50% mehr Speicher pro FRAME im Vergleich zu einer 690.

boxleitnerb
2013-01-31, 09:48:23
Ich spekuliere nur und schließe nichts aus.
In den meisten Fällen kommst du aber auch mit 2GB pro GPU gut aus. Ergo Cherrypicking ;)

Aber um ehrlich zu sein, ergibt es von der Notwendigkeit eher wenig Sinn. Die 690 steht noch sehr gut da, es ist eher das Single-GPU Segment, wo man etwas auffrischen müsste.

Ailuros
2013-01-31, 09:58:32
Wir brauchen generell billigere 28nm GPUs und nicht super-idiotische super-teure Hw- und Strom-Verschwendungs-Schleuder :freak:

Hugo78
2013-01-31, 10:22:48
„Grünster“ Supercomputer mit Nvidias Tesla K20 schafft 3,15 GFLOPS/W
http://www.computerbase.de/news/2013-01/gruenster-supercomputer-mit-nvidias-tesla-k20-schafft-3.15-gflops-w/

Dural
2013-01-31, 10:24:25
so viel zum thema effizient bei Kepler:

...Die 3,15 GFLOPS pro Watt stellen einen neuen Rekord dar, der bisherige Bestwert von 2,5 GFLOPS/W wurde erst im November 2012 von einem System mit Intels Xeon Phi aufgestellt...

http://www.computerbase.de/news/2013-01/gruenster-supercomputer-mit-nvidias-tesla-k20-schafft-3.15-gflops-w/


Edit: Ups da war einer schneller :)

boxleitnerb
2013-01-31, 10:29:06
Titan 3DMark11 Extreme Score?
http://diy.pconline.com.cn/317/3172950.html

X7107
Zum Vergleich, eine 680 schafft aktuell um die 3500. Kepler vs Kepler ist ziemlich gut vergleichbar im 3DMurks.

dildo4u
2013-01-31, 10:31:25
Bissel hoch imo würde eine 680 SLI um fast 1000 Punkte schlagen.

http://www.computerbase.de/artikel/grafikkarten/2012/3x-gtx-680-und-3x-hd-7970-mit-i7-3970x/12/

boxleitnerb
2013-01-31, 10:33:38
Bei Computerbase wurden auch recht alte Treiber getestet. Die Ergebnisse für die anderen Karten, die da (bei pconline) angegeben sind, sind 5-10% zu niedrig.
Die CPU hat auch einen geringen Einfluss, das kann schon 100-200 Punkte ausmachen.

Ailuros
2013-01-31, 10:35:42
Titan 3DMark11 Extreme Score?
http://diy.pconline.com.cn/317/3172950.html

X7107
Zum Vergleich, eine 680 schafft aktuell um die 3500. Kepler vs Kepler ist ziemlich gut vergleichbar im 3DMurks.

Keine Ahnung. Klingt aber zu gut um kein fake zu sein.

dildo4u
2013-01-31, 10:40:24
Bei Computerbase wurden auch recht alte Treiber getestet. Die Ergebnisse für die anderen Karten, die da (bei pconline) angegeben sind, sind 5-10% zu niedrig.
Die CPU hat auch einen geringen Einfluss, das kann schon 100-200 Punkte ausmachen.
Nein der 3XSLI test nutzt neue Treiber,beim alten Test hat das 680 SLI nur was um 5000.

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/16/

boxleitnerb
2013-01-31, 10:47:09
310.54 ist wohl kaum der neueste Treiber. Es kommt außerdem darauf an, wie hoch die Karte boostet, da gibts ja durchaus etwas Unterschied zwischen verschiedenen Karten. Ich hab schon Ergebnisse in Reviews gesehen, die nochmal 100 Punkte höher liegen für eine einzelne 680.

PCGH_Carsten
2013-01-31, 10:52:57
Titan 3DMark11 Extreme Score?
http://diy.pconline.com.cn/317/3172950.html

X7107
Zum Vergleich, eine 680 schafft aktuell um die 3500. Kepler vs Kepler ist ziemlich gut vergleichbar im 3DMurks.

Der Wert im Combined Test passt nicht. Da schafft eine normale 680 mit flottem i7 schon ~3400.

edit: Mist, im Excel verrutscht. Ich nehmen alles zurück. :)

boxleitnerb
2013-01-31, 10:57:13
Wie genau wird der Combined Score errechnet?
Laut den Angaben auf der Seite wurde nur 5.2 Gbps GDDR5 verwendet. Das könnte unter bestimmten Bedingungen schon bremsen. Oder es ist noch eine Treibergeschichte.

Spasstiger
2013-01-31, 11:12:34
3DMark 11 skaliert bei der GPU-Bewertung eigentlich ziemlich gut mit der Rechenleistung, deshalb kann ich mir bei Titan keine 100%-Steigerung vorstellen. Zumal auch GK104 in 3DMark 11 schon gut abschneidet. Wenn es an GPGPU-relevanten Dingen liegen würde, müsste Tahiti deutlich besser abschneiden als der GK104, was er im 3DMark 11 aber nicht tut.

Skysnake
2013-01-31, 11:31:50
„Grünster“ Supercomputer mit Nvidias Tesla K20 schafft 3,15 GFLOPS/W
http://www.computerbase.de/news/2013-01/gruenster-supercomputer-mit-nvidias-tesla-k20-schafft-3.15-gflops-w/
Es fehlen aber noch viele wichtige Informationen, wie Speicherausbau, Interconnect usw.

Bei so gewaltigen Effizienzsteigerungen bin ich etwas skeptisch. Die anderen Systeme in der Green500 sind so ja im Produktiveinsatz. Das ist also nicht bis zum letzten Quäntchen durchoptimiert für die Green500.

Wenn ich mir das Bild so anschaue, such ich z.B. nach dem Interconnect. Das sieht irgendwie nur nach Gigabit Ethernet aus, womit man schon wieder einige Watt sparen kann. Auf dem Bild kann man das aber nur schwer sagen.

Nähere Infos wären schon gut. Leider finde ich die Pressemitteilung nirgends. Falls jemand einen Link hat, immer her damit.

Ansonsten aber ne gute Leistung mit den Karten :up:

Godmode
2013-01-31, 11:32:45
Der Name der Karte scheint etwas länger zu sein, als bei der 690. Hab zwei die zwei Bilder übereinander gelegt und das eine etwas noch oben hin verschoben.

http://www.abload.de/img/3172950_084422xj74f6zlkiq3.png

Das könnten schon genau die drei Buchstaben zusätzlichen Buchstaben sein für Titan, anstatt 690

edit: habs gerade ausprobiert, Titan geht sich nicht aus, der Text würde auf der rechten Seite nicht mehr bündig sein.

M4xw0lf
2013-01-31, 11:39:59
Der Schriftgrad ist erstens ne Ecke größer und zweitens kann da alles stehen was will ohne dass es davon wahrer wird :freak:

PCGH_Carsten
2013-01-31, 12:06:54
Wie genau wird der Combined Score errechnet?

Fps*215

boxleitnerb
2013-01-31, 13:09:21
Sollte die Karte nicht auch "Geforce Titan" und nicht "Geforce GTX Titan" heißen? Man achte auf das "G", das vor dem Geschwärzten noch herausschaut.
Wohl doch Fake.

mac_skull
2013-01-31, 13:25:14
Könnte es nicht auch GTX 780Ti heißen? Das könnte von der Länge her doch knapp passen...Fake hin oder her. Dann könnte Nvidia weiter von Titan reden und würde ihrer Namensgebung im Prinzip treu bleiben.

Thunderburne
2013-01-31, 13:28:59
http://www.computerbase.de/news/2013-01/nvidias-geforce-titan-schneller-als-geforce-gtx-690/

Nvidias „GeForce Titan“ schneller als GeForce GTX 690?

Darüber hinaus gibt es erste Spekulationen über die zu erwartende Geschwindigkeit. Diese soll angeblich gar die hauseigene Multi-GPU-Karte GeForce GTX 690 übertreffen können, womit AMDs Radeon-HD-8000-Serie zumindest mit nur einem Rechenkern voraussichtlich chancenlos wäre. Allerdings sagt die Angabe alleine wenig aus, da die Geschwindigkeit der GeForce GTX 690 ausschließlich vom SLI-Profil abhängig ist. So ist die Karte im Optimalfall vielleicht 90 Prozent zügiger unterwegs als eine GeForce GTX 680, in unseren Tests sind es dagegen je nach Qualitätseinstellung aber „nur“ 50 bis 60 Prozent. Dementsprechend lässt sich derzeit nur schwer einordnen, wo GeForce Titan genau landen wird.

Zudem gibt es auch Gerüchte über das PCB, welches angeblich dem der GeForce GTX 680 ähnlich sein soll, abgesehen davon, dass dieses sechs Gigabyte Speicher sowie ein 384 Bit breites Speicherinterface tragen soll.
Zu guter Letzt etwas zum Erscheinungsdatum: GeForce Titan könnte Ende Februar erscheinen, denn für diesen Zeitraum soll die Karte in Hong Kong gelistet sein. Damit würde Nvidia die Grafikkarte noch vor der diesjährigen CeBIT vorstellen.

6GB klingt unglaublich wäre aber der Hammer eigentlich geizt NV mit dem Ram immer.

boxleitnerb
2013-01-31, 13:33:42
Sources SweClockers state that both AMD and Nvidia decided to postpone the next generation of video cards. The new circuits can be "at best" pop up in the fourth quarter of 2013, ie in the period October-december. This could mean, for example, the Radeon HD 7970 has time to fill two years before a proper replacement can find on the market.

http://www.sweclockers.com/nyhet/16480-nasta-generation-geforce-och-radeon-skjuts-upp-till-q4-2013

Einer im Luxx mit angeblichen Connections zu NV meinte, man würde sich bei Nvidia hauptsächlich auf das Weihnachtsgeschäft 2013 konzentrieren wollen. Das würde sich mit dem Gerücht hier decken.

Gaestle
2013-01-31, 13:35:22
http://www.computerbase.de/news/2013-01/nvidias-geforce-titan-schneller-als-geforce-gtx-690/

Nvidias „GeForce Titan“ schneller als GeForce GTX 690?

[...]

Sind das unterschiedliche Quellen, oder schreiben die alle den X7107 - Punktestand ab?

Godmode
2013-01-31, 14:16:50
Sind das unterschiedliche Quellen, oder schreiben die alle den X7107 - Punktestand ab?

Niemand weiß was, aber jeder schreibt was. ^^

Konami
2013-01-31, 14:37:12
http://www.sweclockers.com/nyhet/16480-nasta-generation-geforce-och-radeon-skjuts-upp-till-q4-2013

Einer im Luxx mit angeblichen Connections zu NV meinte, man würde sich bei Nvidia hauptsächlich auf das Weihnachtsgeschäft 2013 konzentrieren wollen. Das würde sich mit dem Gerücht hier decken.
http://www.abload.de/img/emoticon-memes-baww43yrp.gif

(Könnte aber auch bedeuten, dass GK110 dann doch in reguläre GeForces kommt, nachdem man das Jahr über mit Titan die hohen Margen abgeschöpft hat :))

Ailuros
2013-01-31, 15:06:28
http://www.sweclockers.com/nyhet/16480-nasta-generation-geforce-och-radeon-skjuts-upp-till-q4-2013

Einer im Luxx mit angeblichen Connections zu NV meinte, man würde sich bei Nvidia hauptsächlich auf das Weihnachtsgeschäft 2013 konzentrieren wollen. Das würde sich mit dem Gerücht hier decken.

Nichts dagegen persoenlich so lange die existierenden SKUs eine anstaendige Preisreduktion sehen werden errr und lyncht mich bitte nicht dafuer.

Botcruscher
2013-01-31, 19:08:49
Aber bitte nicht erst zum Weihnachtsgeschäft 2013.:freak:

Ailuros
2013-01-31, 19:10:07
Aber bitte nicht erst zum Weihnachtsgeschäft 2013.:freak:

Wenn es ueberhaupt stimmt muss es nicht unbedingt Titan betreffen.

horn 12
2013-01-31, 20:19:25
Der Name der Karte scheint etwas länger zu sein, als bei der 690. Hab zwei die zwei Bilder übereinander gelegt und das eine etwas noch oben hin verschoben.

http://www.abload.de/img/3172950_084422xj74f6zlkiq3.png

Das könnten schon genau die drei Buchstaben zusätzlichen Buchstaben sein für Titan, anstatt 690

edit: habs gerade ausprobiert, Titan geht sich nicht aus, der Text würde auf der rechten Seite nicht mehr bündig sein.


Würde sicher GFTitan heissen
Dann würde es sich asusgehen

N0Thing
2013-01-31, 22:16:27
GeForce und nochmal GF würde keinen Sinn ergeben, außerdem kann man auf dem Bild das GTX noch gut erkennen. Da die CPU-Bezeichnung am Ende auch nicht bündig ist, kann unter dem geschwärzten Teil immer noch eine dreistellige Zahl verborgen sein.

Dural
2013-02-01, 09:13:47
ist eh ein Fake, für einen GK110 ist der wert etwas zu hoch zudem wird NV die karte garantiert nicht mit 6GB bringen. 6GB ist derzeit sowas von sinnlos... und NV war noch nie dafür bekannt sinnlos viel speicher zu verbauen, zu dem der anstieg von der alten (1,5GB) und der aktuellen generation (2GB) in keinem verhältnis steht! :rolleyes:


die 6GB würden ehner zu einer dual GPU karte passen, der 3dmark wert wäre aber sehr nidrig dazu, eventuell musste NV auch krasse einschneidungen bei der GPU vornehmen um in einer vernünftigen TDP bereich zu sein.

boxleitnerb
2013-02-01, 09:21:44
Dual-GPU wäre mit der Score sinnlos, man macht keine neue Karte der Art, die nur 15% schneller ist.
Das Problem mit den 6 GB ist, dass 3 GB hier und da etwas zu wenig sein könnten. Entsprechende Rohleistung vorausgesetzt, kann man mit 2160p und 4xMSAA/SGSSAA das schon knapp knacken, siehe Raffs 4K-Videos auf PCGH. Und die Karte soll ja sicher 2 Jahre halten. Da gleich auf 6 GB zu gehen ist also nicht so unsinnig wie ich anfangs dachte. Davon werden aber wohl nur die Leute etwas haben, die mindestens zwei dieser Karten besitzen.

Spasstiger
2013-02-01, 09:25:14
die 6GB würden ehner zu einer dual GPU karte passen, der 3dmark wert wäre aber sehr nidrig dazu
Wäre eigentlich genau in dem Bereich, den ich von einer Dual-GK110-Karte mit 450 Watt TDP erwarten würde. Eine Tesla K20X mit 235 Watt TDP weist ja gerade mal 20% mehr Rechenleistung und 30% mehr Speicherbandbreite als die GTX 680 auf, was in einer Mehrperformance von schätzungsweise 25% resultieren dürfte.
Bei Dual-GPU, 450 Watt TDP und voller Einheitenzahl je GPU kann man darauf bestenfalls noch 90% an Performance draufschlagen (450/235=1,91), was einer Mehrperformance von rund 135-140% gegenüber der GTX 680 entspricht. Und das zeigt genau das 3DMark-11-Resultat (+137%).

Ailuros
2013-02-01, 09:26:50
1300MHz GDDR5 ist aber wenn wahr fuer meinen Geschmack etwas zu wenig. Natuerlich haengt das meiste vom MSRP ab, aber bei einem verrueckt hohen Startpreis wuerde ich zumindest auf 1500MHz GDDR5 hoffen.

Spasstiger
2013-02-01, 09:37:56
1300MHz GDDR5 ist aber wenn wahr fuer meinen Geschmack etwas zu wenig. Natuerlich haengt das meiste vom MSRP ab, aber bei einem verrueckt hohen Startpreis wuerde ich zumindest auf 1500MHz GDDR5 hoffen.
Vielleicht ist dieser Speichertakt bei einem vollen 384-Bit-SI der Sweet Spot aus Sicht der Energieeffizienz.
Und falls die Resultate von Dual-GPU stammen sollten, hätte man ja effektiv sogar ein 768-Bit-SI (3*GTX 680!) und dann muss man eh nicht ans Taktlimit des Speichers gehen.

boxleitnerb
2013-02-01, 09:41:34
3DMark11 ist kaum bandbreitenlimitiert. Bei doppelter Rechenleistung ggü. GK104, wie das Ergebnis andeutet, würde man in vielen Spielen, gerade in höheren Auflösungen mit MSAA, deutlich einbrechen. Ich glaube nicht, dass Nvidia so einen unbalancierten Chip herausbringen würde, das ergibt keinen Sinn.

Spasstiger
2013-02-01, 09:44:26
Bei doppelter Rechenleistung ggü. GK104, wie das Ergebnis andeutet
Das Ergebniss - +137% GPU-Score gegenüber der GTX 680 - ist imo nur mit Dual-GPU bei moderaten Taktraten wie bei der Tesla K20X plausibel.

V2.0
2013-02-01, 09:47:37
Man muss bei doppelter Rechenleistung nicht zwangsläufig die dopplete Bandbreite haben um nicht limitiert zu sein. 384 Bit @ 1300mhz dürften schon ok sein. Gerade wenn man an die Kühlung und den Stromverbrauch denkt.

boxleitnerb
2013-02-01, 09:48:04
Das würde wie Spasstiger sagt nur bei Dual-GPU gehen, weil da die Bandbreite "verdoppelt" wird. Aber wie gesagt, das Ergebnis ist zu niedrig, das würde sich kaum ggü. der 690 lohnen.

Ailuros
2013-02-01, 09:48:56
Vielleicht ist dieser Speichertakt bei einem vollen 384-Bit-SI der Sweet Spot aus Sicht der Energieeffizienz.
Und falls die Resultate von Dual-GPU stammen sollten, hätte man ja effektiv sogar ein 768-Bit-SI (3*GTX 680!) und dann muss man eh nicht ans Taktlimit des Speichers gehen.

Kann sein dass ich total falsch liege aber mir ist nichts ueber eine mGPU momentan bekannt. Hoechstwahrscheinlich ist das bloede Bildchen eher ein fake als alles andere. Fuer eine single chip SKU zu viel und fuer eine mGPU zu wenig, ergo pick your poison.

http://forum.beyond3d.com/showpost.php?p=1700911&postcount=644

http://www.3dmark.com/3dm11/4814338

Eine uebertaktete GTX690 liefert fast genauso viel als im dem daemlichen fake aber mit einem combined score von 6569 welches normal ist fuer 2*GK104. Eine GK110 mGPU wuerde aber nur bei 3k liegen?

Dural
2013-02-01, 09:56:36
da ist halt die CPU noch wichtig.

wenn die 7k mit einer schwachen CPU gebencht wurde könnte es in etwas hinkommen mit der Dual GPU GK110 karten die kein TDP schleuder ist.

aber ja, ich würde das verhalten von NV ziemlich merkwürdig finden, eventuell kommt von NV gliech alles auf einen schlag: 770,780 und eben 790 alias Titan

boxleitnerb
2013-02-01, 09:57:24
Wieso 3k? Die geleakten Werte liegen fast exakt bei dem, was du verlinkt hast. Combined Score von 64xx.

Edit:
Ist aber wohl wirklich ein Fake, da hat jemand die Schwärzung halbwegs aufheben können und es steht klar GTX 690 da:
http://www.abload.de/thumb/titan7zk87.jpeg (http://www.abload.de/image.php?img=titan7zk87.jpeg)

Ailuros
2013-02-01, 10:02:19
GeForce und nochmal GF würde keinen Sinn ergeben, außerdem kann man auf dem Bild das GTX noch gut erkennen. Da die CPU-Bezeichnung am Ende auch nicht bündig ist, kann unter dem geschwärzten Teil immer noch eine dreistellige Zahl verborgen sein.

Wie waere es damit wenn der ausgekritzelte Text zu 100% identisch ist mit dem genau darueber?

Wieso 3k? Die geleakten Werte liegen fast exakt bei dem, was du verlinkt hast. Combined Score von 64xx.

Mensch schau Dir das angebliche 3dfurz Bildchen fuer "Titan" an; da steht deutlich 3k etwas. Wenn es zwei chips waeren waeren es nicht 3 sondern 6+k.


Edit:
Ist aber wohl wirklich ein Fake, da hat jemand die Schwärzung halbwegs aufheben können und es steht klar GTX 690 da:
http://www.abload.de/thumb/titan7zk87.jpeg (http://www.abload.de/image.php?img=titan7zk87.jpeg)

Pah :rolleyes:

boxleitnerb
2013-02-01, 10:03:36
Mensch schau Dir das angebliche 3dfurz Bildchen fuer "Titan" an; da steht deutlich 3k etwas. Wenn es zwei chips waeren waeren es nicht 3 sondern 6+k.

Pah :rolleyes:

Nö, da steht 6470, oder bin ich blind?
Ist aber eh egal jetzt. Warten wir auf den nächsten Fake :tongue:

Ailuros
2013-02-01, 10:06:52
Nö, da steht 6470, oder bin ich blind?
Ist aber eh egal jetzt. Warten wir auf den nächsten Fake :tongue:

Also ich sehe deutlich GeForce GTX690.

boxleitnerb
2013-02-01, 10:09:43
Ja, ich auch, deshalb hab ich das Bild ja gepostet ;)

OgrEGT
2013-02-01, 16:45:20
Wäre eigentlich genau in dem Bereich, den ich von einer Dual-GK110-Karte mit 450 Watt TDP erwarten würde. Eine Tesla K20X mit 235 Watt TDP weist ja gerade mal 20% mehr Rechenleistung und 30% mehr Speicherbandbreite als die GTX 680 auf, was in einer Mehrperformance von schätzungsweise 25% resultieren dürfte.
Bei Dual-GPU, 450 Watt TDP und voller Einheitenzahl je GPU kann man darauf bestenfalls noch 90% an Performance draufschlagen (450/235=1,91), was einer Mehrperformance von rund 135-140% gegenüber der GTX 680 entspricht. Und das zeigt genau das 3DMark-11-Resultat (+137%).
Mal ehrlich ein GK110 mit doppelt so vielen Transistoren als GK104 soll nur 25% mehr Leistung bringen? Dann kann man sich den gleich sparen... dann macht der auch als dual GPU Karte keinen Sinn...

boxleitnerb
2013-02-01, 16:50:09
Spasstiger setzt TDP mit Performance gleich, was natürlich Käse ist.
GTX690 hat 58% mehr Verbrauch, aber 85% mehr Performance, ist also deutlich effizienter. Warum soll das nicht auch auf eine mögliche GK110-Dualkarte zutreffen?

Aber abgesehen davon kann Titan doch keine Dual-GPU Karte sein. Ich darf nicht sagen warum, aber es ist so :)

Spasstiger
2013-02-02, 12:28:34
Mal ehrlich ein GK110 mit doppelt so vielen Transistoren als GK104 soll nur 25% mehr Leistung bringen? Dann kann man sich den gleich sparen... dann macht der auch als dual GPU Karte keinen Sinn...
Ich sage nicht, dass ich so eine Karte erwarte, ich sage nur, dass sich so dieses vermutliche Fake-Ergebniss erklären lassen würde.

Hübie
2013-02-02, 17:59:50
Spasstiger setzt TDP mit Performance gleich, was natürlich Käse ist.
GTX690 hat 58% mehr Verbrauch, aber 85% mehr Performance, ist also deutlich effizienter. Warum soll das nicht auch auf eine mögliche GK110-Dualkarte zutreffen?

Aber abgesehen davon kann Titan doch keine Dual-GPU Karte sein. Ich darf nicht sagen warum, aber es ist so :)

Hast du etwa eine NDA unterschrieben? ;D Ich glaub ich weiß auch warum. War eh ne absurde Idee =)

boxleitnerb
2013-02-02, 20:10:06
Ich nicht, die beiden Kerle aber zumindest:
235W I heard but it might be 300W.

PC Perspective and TechReport have them in hand for testing now. Others may too, but not me.
Rage3D Discussion Area - View Single Post - Nvidia Kepler, Part 2 (http://www.rage3d.com/board/showpost.php?p=1337152339&postcount=6679)

Godmode
2013-02-02, 20:29:43
Ich nicht, die beiden Kerle aber zumindest:

Rage3D Discussion Area - View Single Post - Nvidia Kepler, Part 2 (http://www.rage3d.com/board/showpost.php?p=1337152339&postcount=6679)

WTF? Kann doch nur ein Scherz sein, oder?:confused:

edit: Also ich meine das die ne Karte haben.

boxleitnerb
2013-02-02, 20:33:20
Kommt mir auch etwas früh vor. Aber hey, warum nicht?
300W wären etwas viel, kommt aber drauf an wie der reale Verbrauch ist und wie die Performance aussieht.

Godmode
2013-02-02, 20:38:14
Kommt mir auch etwas früh vor. Aber hey, warum nicht?
300W wären etwas viel, kommt aber drauf an wie der reale Verbrauch ist und wie die Performance aussieht.

300W würde für mich heißen, dass das Teil die Leistung einer 690 bringt, weil die bewegt sich in ähnlichen Verbrauchshöhen.

4 Stücke = 2x Quad 690 = Geil

boxleitnerb
2013-02-02, 20:39:27
Naja die 680 hat eine TDP von 195W, braucht real aber 170W. Rechne 50% drauf, dann biste bei knapp 300W TDP und real 255W.

M4xw0lf
2013-02-02, 20:46:15
Immer vorausgesetzt, GK110 sei genauso effizient wie GK104 - was ich anhand des Beispiels Tahiti / Pitcairn nicht unbedingt glaube.

Timbaloo
2013-02-02, 20:48:23
4 Stücke = 2x Quad 690 = Geil
Eh?

boxleitnerb
2013-02-02, 20:50:01
K20X sollte mit seinen Specs 25-30% flotter sein als ne 680 und hat eine 20% höhere TDP. Find das nicht so abwegig. Was bei diesen großen Chips der Tradeoff ist, ist Die Space, nicht unbedingt Verlustleistung.

Godmode
2013-02-02, 21:04:32
Eh?

Wenn GK110 die doppelte Leistung von GK104 hat, hab ich mit GK110 4-Way-SLI die doppelte Leistung von zwei GTX 690. Aber 50% zu GK104 sind für mich realistisch.

Hugo78
2013-02-02, 21:12:34
Immer vorausgesetzt, GK110 sei genauso effizient wie GK104 - was ich anhand des Beispiels Tahiti / Pitcairn nicht unbedingt glaube.

Nvidia hat bei GK110 sicherlich nicht das Frontend Problem, wie AMD bei Tahiti.
Eher limitiert die Bandbreite GK110, denn auch GK104 würde mit mehr Bandbreite nochmal zulegen und
"Geforce Titan" dürfte bei der Rechenleistung wohl erst mit einem 512bit @ 6Gbps "wirklich zufrieden" sein.

Aber gut, dann könnte man den Chip auch nicht mehr herstellen.

Edgecrusher86
2013-02-03, 02:13:32
300W als maximales Power-Target (~ 128%) wären schon möglich - und 235W für 100% PT. Mal schauen - schön, dass wohl bald bezüglich GK110 Desktop Fahrt auf kommt (sofern dies oben kein Fake sein sollte). :D

Thunder99
2013-02-03, 12:23:35
Nvidia hat bei GK110 sicherlich nicht das Frontend Problem, wie AMD bei Tahiti.
Eher limitiert die Bandbreite GK110, denn auch GK104 würde mit mehr Bandbreite nochmal zulegen und
"Geforce Titan" dürfte bei der Rechenleistung wohl erst mit einem 512bit @ 6Gbps "wirklich zufrieden" sein.

Aber gut, dann könnte man den Chip auch nicht mehr herstellen.
Dann kannst du dir ja vorstellen was bei GK2xx möglich ist :) Nvidia hat ja beim GK106 ja auch noch was dazugeklatscht, daher wäre es ja mit einem 384bit Bus ja beim Refresh möglich.

Titan sollte dann halt immer noch schneller sein, sonst wäre er ja "nur" ein halbes Jahr die schnellste Desktop single GPU bis ja Ende 2013? GTX700er Serie erscheint

Timbaloo
2013-02-03, 14:33:29
Dann kannst du dir ja vorstellen was bei GK2xx möglich ist :) Nvidia hat ja beim GK106 ja auch noch was dazugeklatscht, daher wäre es ja mit einem 384bit Bus ja beim Refresh möglich.
384Bit kann ich mir nicht vorstellen. 320Bit schon eher.

cR@b
2013-02-06, 14:20:19
So das Warten hat ein Ende!!11 :D

http://gamegpu.ru/zapisi-polzovateley%7C%7Cpodelis-so-vsemi/entry/geforce-gtx-780-protiv-radeon-hd-8970-predvaritelnyj-obzor.html

Skysnake
2013-02-06, 14:23:53
So Diagramme kann ich auch machen :rolleyes:

boxleitnerb
2013-02-06, 14:25:05
Wenn die Faker wenigstens rechnen könnten...aber das ist ja anscheinend schon zuviel verlangt.

Ailuros
2013-02-06, 14:58:07
So das Warten hat ein Ende!!11 :D

http://gamegpu.ru/zapisi-polzovateley%7C%7Cpodelis-so-vsemi/entry/geforce-gtx-780-protiv-radeon-hd-8970-predvaritelnyj-obzor.html

Witzbold ;D

BigKid
2013-02-06, 15:05:29
Witzbold ;D
Ahhh... Meine Nerven... Ich bin grad in so einer "kaufen" Laune...

serp202
2013-02-06, 15:57:40
http://img560.imageshack.us/img560/8149/titan01.jpg

http://img811.imageshack.us/img811/7030/titan02.jpg

http://img854.imageshack.us/img854/6080/titan03.jpg

http://www.arabpcworld.com/?p=25911

dreamweaver
2013-02-06, 16:02:48
Das mit der Aufhellung und dem "GTX 690" ist doch wohl selber Fake.

Warum ist in dem unteren geschwärzten Bereich nix zu sehen?
Und wie soll das überhaupt gehen? Pixel, die zu 100% geändert sind, egal mit welcher Farbe, sind futsch.

Godmode
2013-02-06, 16:05:07
Ist doch nur eine Tesla wo das Label weg gemacht wurde.

Skysnake
2013-02-06, 16:55:34
http://img560.imageshack.us/img560/8149/titan01.jpg

http://img811.imageshack.us/img811/7030/titan02.jpg

http://img854.imageshack.us/img854/6080/titan03.jpg

http://www.arabpcworld.com/?p=25911
:facepalm:

Das ist ne Tesla...

Ailuros
2013-02-06, 17:06:44
"Nur" 502mm2? Nicht dass ich glaube dass es stimmt, aber im Gegenfall sind es 14,14Mio Transistoren/mm2.

serp202
2013-02-06, 18:05:10
:facepalm:

Das ist ne Tesla...
Yeah, could be.
But I can't find any GPU-Z screenshots with Tesla K20, or how it's real name :redface:

G 80
2013-02-06, 18:17:32
PciE 1.1 @ 8 x - zeigt nur mal wieder wie unwichtig die Anbindung bei Highend Karten ist und trotzdem Performance liefert ...... sofern man den Bildern glaubt. ;D :ubash2:

boxleitnerb
2013-02-06, 18:21:44
Der PCIe-Bus reduziert im idle den Takt und schaltet Leitungen ab, um Energie zu sparen.

Godmode
2013-02-06, 18:34:37
Warum schenkt man diesen Trollen überhaupt Aufmerksamkeit? Ich meine jeder Klick bringt ihm Geld und er wird beim nächsten Mal, genau das selbe tun. Ich würde solche Links einfach nicht posten.

Ailuros
2013-02-06, 19:10:47
Warum schenkt man diesen Trollen überhaupt Aufmerksamkeit? Ich meine jeder Klick bringt ihm Geld und er wird beim nächsten Mal, genau das selbe tun. Ich würde solche Links einfach nicht posten.

Erinner mich beim naechsten Mal dran dass ich mal solches "Material" selber fabriziere und ins Netz schicke. Schliesst Du es aus dass manche einfach harmlose Scherze damit machen?

Godmode
2013-02-06, 19:22:01
Erinner mich beim naechsten Mal dran dass ich mal solches "Material" selber fabriziere und ins Netz schicke. Schliesst Du es aus dass manche einfach harmlose Scherze damit machen?

Ich schreibs mir auf, machs dann aber selber ;)

Nein kann natürlich sein, das er nur lustig sein will. ich würde jedenfalls meine Website mit Ads und Malware füllen ^^

Hübie
2013-02-07, 08:28:34
Toll und nun muss ich mir euch zwei notieren damit ich nächstes mal keine links von euch klicke ;D

G 80
2013-02-07, 08:40:08
Der PCIe-Bus reduziert im idle den Takt und schaltet Leitungen ab, um Energie zu sparen.


Na über APSM States D/L je nachdem was betroffen ist, hier wohl halt die PHY, weil Link, weis ich schon (laienhaft) bescheid. Mir war nur nicht klar das GPU-Z das in Echtzeit anzeigt.

Ich hatte das theoretsiches Max./praktisches Max auf dem System-Anzeige auf dem System interpretiert. Nachdem ich mir ne aktuelle Version von GPU-Z angeschaut hab war recht schnell klar, (mit dem rießen Tooltip + Renderfenster ...).


Trotz allem isses Mea Culpa, daher dangö für den Post. :wink:

Ailuros
2013-02-07, 12:55:06
http://www.proshop.dk/Grafikkort/ASUS-GeForce-GTX-Titan-6GB-GDDR5-2394804.html

Darf ich Euch die Asus GeForce GTX Titan bei so beschissen hohem Preis wie bisher angedeutet vorstellen? :mad:

Hoffentlich nur eine pre-order Tendenz und nicht der finale MSRP. Wenn die Leistungssteigerung auch nicht auf den bisher erwarteten ~50% liegt zur 680, beschreib ich lieber nicht wo sich NV das Teil genau reinstecken kann....

Gaestle
2013-02-07, 12:58:16
Wie ernst ist das Datum 18-02-2013 zu nehmen?
Wenn das stimmt, dann ist an den X7k vielleicht doch was dran...

Skysnake
2013-02-07, 13:02:16
hm...

Da steht was von PCI-E 3.0 die Teslas laufen doch aber, wenn ich mich recht erinnere, nur mit 2.0 mal schauen, ob das Hand un Fuß hat, oder nicht.

Wenn man vom Brutto-Preis ausgeht, dann liegt man mit 19% Mehrwertsteuer bei 927€. Das wäre ziemlich genau der bisher genannte Preis.

Da die Karte mit 6GB kommen soll, wäre es auf jeden Fall ein 384 Bit Interface. Kann ich mir kaum vorstellen. Da wären wohl ziemlich viele K20 Käufer ganz schön pissed.

robbitop
2013-02-07, 13:05:24
Fast 1000 € in dem dänischen Shop. Naja das wird sich schon noch nach dem Launch etwas nach unten korrigieren. Aber NV nutzt ganz offenbar die Situation extrem aus. So eine teure GPU gab es noch nie. Selbst die GF2U für stellenweise 1200 DM nicht.

Aber nach Peter's (HT4U) Statement im Nebenthread, sieht es wohl so aus, als wenn es nicht mehr lange dauern wird...

boxleitnerb
2013-02-07, 13:09:38
hm...

Da steht was von PCI-E 3.0 die Teslas laufen doch aber, wenn ich mich recht erinnere, nur mit 2.0 mal schauen, ob das Hand un Fuß hat, oder nicht.

Wenn man vom Brutto-Preis ausgeht, dann liegt man mit 19% Mehrwertsteuer bei 927€. Das wäre ziemlich genau der bisher genannte Preis.

Da die Karte mit 6GB kommen soll, wäre es auf jeden Fall ein 384 Bit Interface. Kann ich mir kaum vorstellen. Da wären wohl ziemlich viele K20 Käufer ganz schön pissed.

Auf Ivy Bridge funktioniert PCIe 3.0, nur auf Sandy Bridge-E wurde es nicht freigegeben. Das haben wir doch schon durchgekaut.

Und was kannst du dir nicht vorstellen, und warum wären K20 Käufer ganz schön pissed? Dir ist hoffentlich bekannt, dass hinter den Teslas noch mehr steckt als nur die Hardware, oder? Dann müssten ja die W9000 Pro oder S10000 Käufer auch ziemlich pissed sein, das kriegt man ja deutlich billiger...

Skysnake
2013-02-07, 13:27:51
Auf Ivy Bridge funktioniert PCIe 3.0, nur auf Sandy Bridge-E wurde es nicht freigegeben. Das haben wir doch schon durchgekaut.

Bzgl. GK110? ich glaube du meinst GK104. Bei GK110 meine ich mich daran zu erinnern, dass die Teslas nur 2.0 unterstützen.


Und was kannst du dir nicht vorstellen, und warum wären K20 Käufer ganz schön pissed? Dir ist hoffentlich bekannt, dass hinter den Teslas noch mehr steckt als nur die Hardware, oder? Dann müssten ja die W9000 Pro oder S10000 Käufer auch ziemlich pissed sein, das kriegt man ja deutlich billiger...
Das Sie keine K20x kaufen können, die Chips aber für olle GeForce verschleudert werden?

Und Tesla != Quadro. Da ist der ECC Schutz wichtig usw. Aber man kommt sich da eben schon verarscht vor, wenn man als normaler Kunde nicht mal die K20x kaufen kann obwohl man es gerne täte....

boxleitnerb
2013-02-07, 13:38:24
Aus gutem Grund - weil man nicht garantieren kann, dass es keine Übertragungsfehler gibt. Die Plattformen, auf denen die Teslas laufen, sind doch mit Sandy-E sehr verwandt, und auch dort gibt es keine Freigabe. Das heißt aber eben nicht, dass GK110 kein PCIe 3.0 auf Plattformen, die dies ordentlich unterstützen, kann. z.B. Ivy Bridge oder später Haswell.

Bzgl. K20X - K20 hat 225W TDP, K20X 235W. 225W ist üblicherweise die Grenze, bis zu der hin entsprechende Systeme thermisch und elektrisch ausgelegt sind. K20X passt in den Mainstream nicht rein, vielleicht später mit einem neuen Stepping.

Skysnake
2013-02-07, 13:45:51
Aus gutem Grund - weil man nicht garantieren kann, dass es keine Übertragungsfehler gibt. Die Plattformen, auf denen die Teslas laufen, sind doch mit Sandy-E sehr verwandt, und auch dort gibt es keine Freigabe. Das heißt aber eben nicht, dass GK110 kein PCIe 3.0 auf Plattformen, die dies ordentlich unterstützen, kann. z.B. Ivy Bridge oder später Haswell.

Wollen wir jetzt die Diskussion wieder anfangen, von wegen Platform usw?

SB-E Xeons unterstützen PCI-E 3.0 und damit punkt aus fertig. Nur bei den Core i SB-E hat Intel keine PCI-E 3.0 Zertifizierung. Wenn Tesla also PCI-E 3.0 kann, dann kann Sie das mit den Xeons auch zeigen. Aber in nem K20 Dokument stand ja, dass die Karte eben nur 2.0 kann... Das hatte mich auch total überrascht, aber ist so.


Bzgl. K20X - K20 hat 225W TDP, K20X 235W. 225W ist üblicherweise die Grenze, bis zu der hin entsprechende Systeme thermisch und elektrisch ausgelegt sind. K20X passt in den Mainstream nicht rein, vielleicht später mit einem neuen Stepping.
Und was hat das damit zu tun, dass die Karte nicht käuflich erwerbbar ist? Zudem sind die 10W jetzt auch kein unüberwindbares Hindernis...

Du kannst Sie aber einfach nicht kaufen, da kannste dich auf den Kopf stellen und Geld scheisen....

boxleitnerb
2013-02-07, 13:51:07
Ich bin nach wie vor der Meinung, dass Intel mit SB-E Mist gebaut hat bei PCIe 3.0. Wenn Nvidia da engere Qualitätsmaßstäbe anlegt als Intel, ist das eben so. Man bewirbt die Karte nicht mit 3.0, wenn das Probleme machen könnte, und wenn es nur in einem von Tausend Fällen ist. Ergo nur 2.0. Auf dem Desktop gibt es auch andere Plattformen, dort wird auch 3.0 funktionieren. Aber du darfst gerne weiterträumen, dass PCIe 3.0 bei Kepler kaputt ist ;)

Man will eben keine Karte verkaufen, die solche Specs verletzt, und wenn es nur 10W sind. Das wäre jetzt meine Interpretation. Indirekt bekommt man solche Karten evtl. schon, halt nicht über die üblichen Wege via Distributor.

Skysnake
2013-02-07, 14:24:24
Ich bin nach wie vor der Meinung, dass Intel mit SB-E Mist gebaut hat bei PCIe 3.0. Wenn Nvidia da engere Qualitätsmaßstäbe anlegt als Intel, ist das eben so. Man bewirbt die Karte nicht mit 3.0, wenn das Probleme machen könnte, und wenn es nur in einem von Tausend Fällen ist. Ergo nur 2.0. Auf dem Desktop gibt es auch andere Plattformen, dort wird auch 3.0 funktionieren. Aber du darfst gerne weiterträumen, dass PCIe 3.0 bei Kepler kaputt ist ;)

Was willst du jetzt mit "Qualitätsmaßstäbe"? Soll das jetzt witzig sein? PCI-E 3.0 ist ein Standard wie jeder andere auch. Entweder man erfüllt ihn innerhalb der Spezifikation, oder man erfüllt ihn nicht.... Punkt aus. Da gibts nichts, zum dran rumlamentieren. Da gibt es nur eine binäre Antwort. 1 oder 0 und aus die Maus...

Under wer spricht von "kaputt"? Bzw. was verstehst du unter "kaputt"? Ganz sicher dass das Ding komplett nicht funktioniert...

Das muss aber gar nicht sein. Du bist ja schon selbst auf den Trichter gekommen, das nur ein Teil nicht funktionieren muss. Wenn man die Specs nicht einhält, dann gibts halt kein 3.0. Und wenn man nicht garantieren kann, das man die Specs einhält gibts eben auch kein 3.0, und im Umkehrschluss ist es dann eben "kaputt" oder man ist halt einfach nicht in der Lage es auf die Reihe zu bekommen. PCI-E 3.0 ist ja wie man an Intel sieht wirklich nicht so einfach zu implementieren.


Man will eben keine Karte verkaufen, die solche Specs verletzt, und wenn es nur 10W sind. Das wäre jetzt meine Interpretation. Indirekt bekommt man solche Karten evtl. schon, halt nicht über die üblichen Wege via Distributor.
Wie bei nVidia betteln? Glaubst du ernsthaft bei nVidia Antworten die dir überhaupt? Naja, erstmal musst du ja nen Kontakt bekommen, und für 10-20 Karten machen die keinen Aufstand. Wenn müssteste da schon richtig viele abnehmen, wobei das dann wohl wieder nicht geht..

Du kannst ja mal gern versuchen eine K20x zu bekommen. Ich wünsche viel Spaß dabei.

Und noch was.
Aha, also hier sind 10 Watt wegen den Specs so wichtig, aber wenn man die Specs von 3.0 verletzt, dann ist das natürlich nicht der Rede wert, weil eigentlich funktioniert es ja.. -.-

boxleitnerb
2013-02-07, 14:37:07
Nein es soll nicht witzig sein. Laut Nvidia gibt es bei gewissen Konfigurationen Signal-Timing Probleme auf X79. Du gehst stur davon aus, dass der Fehler bei Nvidia liegt, nicht bei Intel. Vielleicht konnte Intel diese Timingprobleme, weil sie selten auftreten, nicht nachstellen, hat sie gar nicht erst entdeckt oder einfach ignoriert. Aber du bist dir ja so total sicher, dass es Nvidias Schuld ist...klar.

Ich meinte Größenordnungen ala Titan.

Und warum legst du mir Zeug in den Mund, das ich nie gesagt habe? Gerade weil 3.0 nicht gescheit läuft mit X79 und Co, geht man auf Nummer sicher und unterstützt offiziell nur 2.0 auf den betroffenen Plattformen. Das hab ich aber schon gesagt, lese halt richtig statt Unwahrheiten zu behaupten.

Skysnake
2013-02-07, 14:46:16
Dann solltest du dir die Spezifikation vom X79 Chipsatz mal anschauen... Der kann nämlich gar kein PCI-E 3.0 nurmal so ;)

Es gibt auch keine Boards mit X79, welche PCI-E 3.0 spezifiziert sind. Warum sollte da also PCI-E 3.0 laufen?

Ich glaub du hast den Sinn von einem Standard wie PCI-E 3.0 noch immer nicht verstanden. Die gibt es ja eben GENAU damit man unabhängig von gewissen Hardwarekombinationen einen Betrieb gewährleisten kann... Daher reicht es ja auch schon, wenn einer die Spezifikation nicht einhält, das sich alle eben auf den kleinsten gemeinsamen Nenner einigen.

Was du hier ansprichst sind böse Firmware/Bios/Treiber hacks. Über so was muss man aber gar nicht reden....

Wenn einer Schuld ist daran, dass die GK110 nur mit PCI-E 2.0 zertifiziert sind, und damit ohne Hacks eben auch nur als 2.0 laufen, dann nVidia und sonst keiner. Das ist deren Problem, und sonst von niemandem.

AMD bekommts ja komischerweise auch gebacken PCI-E 3.0 in ihre GPUs zu implementieren. Ebenso bekommt es Intel auch gebacken, auch wenn nicht bei allen Produkten.

boxleitnerb
2013-02-07, 14:55:43
Ich meinte natürlich die CPUs, der Controller sitzt dort.

Und nochmal: Was macht dich so sicher, dass es nicht Intel ist, auf deren Seite das Problem liegt? Kannst du hundertprozentig ausschließen, dass besagte Timingprobleme nicht auch mit AMD-GPUs auf SB-E auftreten? Darum geht es, nicht um den Standard. Es ist nämlich nicht zweifelsfrei geklärt, wo exakt das Problem ist. Du machst es dir viel zu einfach, indem du auf die Firma zeigst, die hier lieber vorsichtig vorgeht, statt ein potentielles Problem durchzuwinken, bei dem Intel und AMD vielleicht beide Augen zudrücken.

Aber gut, du glaubst ja eh was du glauben willst. Ich bin offen für beide Möglichkeiten.

dildo4u
2013-02-07, 15:12:45
Erste Listung der GeForce GTX Titan für rund 900 Euro


http://www.computerbase.de/news/2013-02/erste-listung-der-geforce-gtx-titan-fuer-rund-900-euro/

Soll am 18.2 kommen.

|MatMan|
2013-02-07, 15:15:12
AMD bekommts ja komischerweise auch gebacken PCI-E 3.0 in ihre GPUs zu implementieren. Ebenso bekommt es Intel auch gebacken, auch wenn nicht bei allen Produkten.
Nachdem alle Desktop Keplers bisher mit PCIe 3.0 veröffentlicht wurden glaubst du ernsthaft Titan kommt nur mit 2.0? Naja die Hoffnung stirbt bekanntlich zuletzt...

Duplex
2013-02-07, 15:18:50
Erste Listung der GeForce GTX Titan für rund 900 Euro
http://www.computerbase.de/news/2013-02/erste-listung-der-geforce-gtx-titan-fuer-rund-900-euro/
Soll am 18.2 kommen.
Für den Preis muss die Karte doppelte GTX680 Performance liefern.

Skysnake
2013-02-07, 15:20:50
Ich meinte natürlich die CPUs, der Controller sitzt dort.

Das ist aber ein großer Unterschied.


Und nochmal: Was macht dich so sicher, dass es nicht Intel ist, auf deren Seite das Problem liegt?

Weil Sie die PCI-E 3.0 Zertifikation haben, genau wie die entsprechenden Bretter und auch die AMD Karten.

Zudem wurde nichts an den Specs geändert. Wäre auch ein ziemliches Desaster, wenn man die Specs von PCI-E 3.0 nochmals ändern hätte müssen. Dann hätten nämlich über Jahre extrem viele Leute gepennt.


Kannst du hundertprozentig ausschließen, dass besagte Timingprobleme nicht auch mit AMD-GPUs auf SB-E auftreten?

Innerhalb der PCI-E 3.0 Specs ja. Ansonsten hätten Sie keine Zertifizierung erhalten, oder hätten eben wie schon gesagt die Specs anpassen müssen, was nicht geschehen ist.


Darum geht es, nicht um den Standard. Es ist nämlich nicht zweifelsfrei geklärt, wo exakt das Problem ist. Du machst es dir viel zu einfach, indem du auf die Firma zeigst, die hier lieber vorsichtig vorgeht, statt ein potentielles Problem durchzuwinken, bei dem Intel und AMD vielleicht beide Augen zudrücken.

Aber gut, du glaubst ja eh was du glauben willst. Ich bin offen für beide Möglichkeiten.
Es ist egal, welches Problem auftritt. Entweder liegt in den Spezifikationen selbst ein Fehler vor, dann wären diese schon lange angepasst worden, und du hättest einen medialen Aufschrei gehört, oder eben einer der Partner hält sich nicht an die Spezifikation, und dann ist demjenigen die Schuld daran zu geben. Im Falle von Core i SB-E ist es Intel die nicht die Specs einhalten, oder ihre MB Specs für die X79 Boards fehlerhaft waren, so das man die PCI-E 3.0 Specs nicht einhält. Das ist aber ein ganz eigenes Thema, das auch gar nicht zu Diskussion steht. Die Dinger sind nicht für 3.0 zertifiziert, also muss man da auch nicht über 3.0 reden.

nVidia hat aber eben keine 3.0 Zertifizierung. Punkt aus. Also kann die Karte auch offiziell eben kein 3.0, da sie sich nicht an die Specs hält, und wenn es nur das fehlende Zertifikat ist. Wenn dem so ist, ist nVidia halt zu dumm gewesen die Hardware zertifizieren zu lassen, das ist dann aber noch immer deren Fail. Oder Sie haben ihr Design verkackt. Dann ist nVidia auch der Schuldige. Genau wie im Falle, das TSMC eben einfach die Chips nicht so gut produziert wird, das man dauerhaft in den 3.0 Specs bleibt. Dann hat es nVidia auch zu einem gewissen Grade verkackt. Hätten Sie ihren Controller halt anders designen müssen. AMD hat es ja auch gebacken bekommen....

Sorry, aber wenn einer für das Produkt verantwortlich ist, dann nVidia. Wer denn sonst.

Die müssen sich einfach nur an die Specs halten und sich zertifizieren lassen. Wenn dann etwas nicht funktioniert, ist die PCI Sig verantwortlich, oder eben der Partner, der sich nicht an die Specs hält.

Was du nämlich versucht hier zu erzählen ist nämlich, dass die PCI-E 3.0 Specs fehlerhaft wären. Davon ist aber nicht aus zu gehen, zumal es eben keine Anpassungen gibt, und das ist ein sehr sehr sehr schwerwiegender Vorwurf, den du hier anbringst. Da sitzen ja unglaublich viele Firmen mit dran und entwickeln so eine Spezifikation zusammen, und du willst jetzt einem weiß machen, dass die nicht wüssten was Sie da machen, und die Specs verkackt haben, so das es nicht funktioniert, obwohl sich alle an die Specs halten? Ja ne is klar... Allein die Regressansprüche die nVidia daraus ableiten würde, würden die sich NIEMALS entgehen lassen....

Also bitte geh mit deinen Verschwörungstheorien da hin, wo Sie hingehören, nämlich auf den Müll und lad Sie da ab....

M4xw0lf
2013-02-07, 15:22:11
Bring it on... doppelte Leistung? Wohl eher nicht.

boxleitnerb
2013-02-07, 15:22:21
In die Rechnung sollte schon noch SingleGPU vs AFR mit rein ;)
Mit 90% der 690 wär ich schon extrem zufrieden (obwohl mehr natürlich immer gut ist, aber wir wollen ja realistisch bleiben).

@Skysnake:
Lass gut sein. Nvidia unfähig, was anderes kommt für dich eh nicht in Betracht. Kapiert.

dildo4u
2013-02-07, 15:22:53
Für den Preis muss die Karte doppelte GTX680 Performance liefern.
Naja wenn man 50€ Early Adopter abzieht ist man beim 690 Preis nur das Titan wesentlich mehr nutzbaren V-Ram hat.Denke mal die Karte wird ne Punktlandung auf der 690 machen.

Coda
2013-02-07, 15:23:57
Fast 1000 € in dem dänischen Shop. Naja das wird sich schon noch nach dem Launch etwas nach unten korrigieren. Aber NV nutzt ganz offenbar die Situation extrem aus. So eine teure GPU gab es noch nie. Selbst die GF2U für stellenweise 1200 DM nicht.
Die Materialkosten sind wohl stark gestiegen seit dieser Zeit und das sind immerhin ~750€ nach heutiger Kaufkraft.

derguru
2013-02-07, 15:24:05
Für den Preis muss die Karte doppelte GTX680 Performance liefern.
sehe ich auch so zumindest muss die 690 geschlagen werden aber dann ist sie es auch locker wert.:biggrin:

Skysnake
2013-02-07, 15:29:57
Nachdem alle Desktop Keplers bisher mit PCIe 3.0 veröffentlicht wurden glaubst du ernsthaft Titan kommt nur mit 2.0? Naja die Hoffnung stirbt bekanntlich zuletzt...
Ich finde jetzt gerade nicht mehr das offizielle Dokument von nVidia, wo drin steht das K20(x) nur 2.0 kann, aber hier mal ein kleiner Auszug aus nem HP-Dokument http://h18006.www1.hp.com/products/quickspecs/13743_div/13743_div.pdf

K10

The high speed PCIe Gen 3.0 data transfer maximizes bandwidth between the HP ProLiant server and the Tesla processors.

K20(x)

The high speed PCIe Gen 2.0 data transfer maximizes bandwidth between the HP ProLiant server and the Tesla processors.


Du darfst nicht vergessen K10 ist ein GK104 und K20(x) ist ein GK110.

Das sind einfach zwei komplett unterschiedliche Chips, wovon der eine ein >500mm² Monster ist, welches auch noch ein 384 Bit Interface anbinden muss im Optimalfall. Du kannst aus der Funktion des einen Chips nicht auf die Funktion des anderen schließen...

nVidia kann das durchaus verkackt haben. Es reicht ja schon, wenn man die Specs nur unter gewissen Umständen eben nicht einhalten kann. Wie schon gesagt. Da gibt es nur eine binäre Betrachtungsweise. Entweder ich halte mich an die Specs vollumfänglich, oder eben nicht.

EDIT:
So, ich hab jetzt doch wieder das entsprechende nVidia Dokument gefunden....

http://www.nvidia.com/content/PDF/kepler/Tesla-K20-Passive-BD-06455-001-v05.pdf

Oder weiß nVidia jetzt nicht mal mehr selbst, was ihre Produkte können und was nicht...?

Hier sind ja massig Spezialist, die die ganzen Sachen ganz genau abchecken, was geht und was nicht geht...

Skysnake
2013-02-07, 15:37:09
@Skysnake:
Lass gut sein. Nvidia unfähig, was anderes kommt für dich eh nicht in Betracht. Kapiert.
Willste mich jetzt hier dumm von der Seite anmachen oder was? Wenn man keine Argumente mehr hat, wird man persönlich oder wie?

Falls es dir entgangen ist. nVidia war genau so mit am Tisch bei der Entwicklung der Specs....

Es gibt nur die Möglichkeiten, das entweder nVidia sich nicht an die Specs hält, dies Specs an sich nicht fehlerfrei/ausreichend sind, oder das nVidia schlicht zu dumm ist seine Chips zertifizieren zu lassen....

Die letzte Möglichkeit schliese ich aus.

Bleiben noch zwei, und bei beiden trägt nVidia zumindest eine Mitschuld. Wenn sies bei sich verkackt haben, sind Sie schuld, und zwar egal ob TSMC indirekt daran schuld ist oder nicht.

Und wenn die Specs nicht passen, dann haben Sies bei der Entwicklung verpasst darauf hin zu weisen, wobei sich IBM, AMD, Intel usw usw usw usw noch dazu an die Nase fassen müssen, weil Sie alle zusammen gepennt haben.

Was ist also realistischer? nVidia hat zusammen mit allen anderen gepennt/scheise gebaut, oder nVidia hats halt verbockt?

Und mit unfähig hat das absolut nichts zu tun. Sowohl AMD als auch nVidia arbeiten an den Grenzen des technisch machbaren... Da passieren einfach Fehler, vor allem bei solchen Monsterchips, wie Sie nVidia immer wieder bringt. Für die Entscheidung solche Monster zu bringen müssen Sie aber eben auch die Konsequenzen tragen.

Wer nichts wagt, der nichts gewinnt. Wenns ne Bruchlandung gibt, muss man aber eben auch dazu stehen, und nicht die Schuld bei anderen suchen...

BigKid
2013-02-07, 15:46:23
sehe ich auch so zumindest muss die 690 geschlagen werden aber dann ist sie es auch locker wert.:biggrin:

Seh ich anders... Wenn sie auch nur 85%-90% einer 690 bringt ohne, dass ich mir Micro-Ruckler und die ganze SLI Problematik aufhalse, dann ist das durchaus ne überlegung Wert...

Und für die Performance-Krone im Single-Chip Bereich hat man schon immer ungleich mehr Kohle hinlegen müssen. Die letzten 15% Mehrleistung haben schon immer ungleich mehr gekostet. Die Frage ist halt ob man den Titan jetzt zur Generation 6X0 rechnet oder schon zur Generation 7X0...
Von ersterem Standpunkt aus bringt man halt jetzt eine neue Top Karte zum Top Preis...
Von letzterem Standpunkt aus kann man sich Aufregen und sagen - die Karte müsste eigentlich mehr Performance zum selben Preis bringen wie der alte Spitzenreiter...

Wo bleibt eigentlich der Nude-Patch zur neusten Elfe ? *öhm*

|MatMan|
2013-02-07, 15:47:36
Du darfst nicht vergessen K10 ist ein GK104 und K20(x) ist ein GK110.

Das sind einfach zwei komplett unterschiedliche Chips, wovon der eine ein >500mm² Monster ist, welches auch noch ein 384 Bit Interface anbinden muss im Optimalfall. Du kannst aus der Funktion des einen Chips nicht auf die Funktion des anderen schließen...
Tapeout von GK110 war nach GK104, also kann man annehmen, dass etwas funktionierendes im Nachfolgeprodukt auch noch funktioniert. Vielleicht ist auch wirklich was kaputt, aber man hat die Tesla trotzdem produziert um die Verträge einzuhalten. In der Zwischenzeit hat man ein neues Stepping mit dem Fix für 3.0 gebracht?!

Es ging mir auch gar nicht um technische Details, sondern rein darum dass ein ~1000 € Enthusiast Produkt mit solch einem Makel auf den Markt kommen soll (vor allem wenn es alle anderen Keplers können!). Das halte ich einfach für nicht wahrscheinlich. Tesla hin oder her.

Skysnake
2013-02-07, 16:08:34
Wie du aber siehst, spricht selbst nVidia nur von 2.0. Und nur weils bei GK104 geht muss es nicht bei GK110 funktionieren. Da ist schon allein das Package ein anderes usw usw usw. Es gibt einfach so viele Stellen, wo das noch immer schief gehen kann. Und ja son Package ist nicht trivial... Da kann leicht was schief gehen.

Das mit dem "die Karte bringen müssen" kann durchaus sein. Ailuros meinte ja auch mal, dass die Produktion einfach extrem teuer gewesen sei am Anfang usw usw.

Bringen musste man die Karte aber, sonst wäre Titan nicht rechtzeitig für die Top500 fertig geworden, und man hätte ein halbes Jahr warten müssen für die nächsten Top500, und da wäre dann nicht mehr sicher, das er noch immer auf Platz 1 gelandet wäre... Und da hätten die Abnehmer bestimmt stunk gemacht...

Ich muss btw. meine Aussage bzgl Verfügbarkeit von K20x revidieren! In der HP-Preisliste (https://procure.ohio.gov/PriceList/533268-2%20pricelist.pdf) gibt die K20x für 7545,02$. Die Preisliste ist vom 17.01.2013.

Die oben schon verlinkten QuickSpecs von HP sind vom 15.01.2013. Da muss K20x scheinbar für die "breite" Masse verfügar geworden sein.

Es gibt jetzt auch ne Listung bei CompSource.com (http://www.compsource.com/pn/TESLAK20X6GBGPUCARD/Asus_46/Tesla-Kepler-K20x-Fd-Only-TESLAK20X6GBGPUCARD/) für gerade mal 4052,00$. Die ist auch nicht von PNY sondern von ASUS. Die Chips scheinen jetzt besser verfügbar zu sein. PNY ist sonst immer der Standardlieferant, und die anderen kommen dann erst.

Damit ändert sich auch meine Einschätzung bzgl. dem 384 Bit Interface. Das liegt jetzt im Bereich des möglichen.

Selbst 14 SMX liegen jetzt im Bereich des möglichen, wobei ich noch immer eher von 12/13 ausgehe. Der Schwerpunkt hat sich aber ganz eindeutig von Richtung 12 auf 13 SMX verschoben.

derguru
2013-02-07, 16:25:08
Seh ich anders... Wenn sie auch nur 85%-90% einer 690 bringt ohne, dass ich mir Micro-Ruckler und die ganze SLI Problematik aufhalse, dann ist das durchaus ne überlegung Wert...
ansichtssache,wenn für jemand eh nur nvidia in frage kommt könnte man es nachvollziehen aber wenn es wie du sagst "nur die 85-90%" gegenüber der 690 werden würde ist der abstand gegenüber amd´s topmodel nicht mehr ganz so groß aber preislich aber so was von überteuert.(3 zu 1):rolleyes:
http://www.abload.de/img/1ugues.png

boxleitnerb
2013-02-07, 16:34:33
Da hat Computerbase aber schön im CPU-Limit getestet bzw. das Rating ist irreführend. Dort skaliert die 690 nur mit 60%, während es eigentlich 85-90% sind.

dildo4u
2013-02-07, 16:34:47
Die Karte ist so teuer weils kaum welche geben wird,daher ist das auch ne sonder Serie und nicht die 780.Die paar die sie haben werden sie zu dem Preis los und so überteuert ist das nicht wenn man sie mit 6GB 7970 Ghz vergleicht.

http://geizhals.at/de/?cat=gra16_512&xf=132_4096~1440_HD+7970+GHz+Edition#xf_top

Sagen wir sie ist 40% schneller dann passt das.

derguru
2013-02-07, 16:40:39
Da hat Computerbase aber schön im CPU-Limit getestet bzw. das Rating ist irreführend. Dort skaliert die 690 nur mit 60%, während es eigentlich 85-90% sind.
die nächst höhere auflösung konnte ich von cb nicht nehmen denn dann spielt der geringere ram der 690 eine entscheidende rolle und der abstand wird noch geringer.(naja, die skalierung ist bei der 690 eh nicht pralle,mit ssaa wird es auch nicht besser)

M4xw0lf
2013-02-07, 16:42:44
Da hat Computerbase aber schön im CPU-Limit getestet bzw. das Rating ist irreführend. Dort skaliert die 690 nur mit 60%, während es eigentlich 85-90% sind.

CPU-Limit bei 1600p, hmm? ^^
Wird wohl eher ein Vram-Limit sein.

boxleitnerb
2013-02-07, 16:44:42
CPU-Limit bei 1600p, hmm? ^^
Wird wohl eher ein Vram-Limit sein.

Unwahrscheinlich bei so einer Auflösung. Es muss kein vollständiges CPU-Limit sein, sonst würde die Karte gar nicht skalieren. Denk dran, eine Benchmarkszene ist ja nicht sofort vorbei. Wenn nur 30% davon CPU-limitiert sind, reicht das schon, um das Ergebnis ordentlich zu drücken.

derguru
2013-02-07, 16:48:11
dann schau dir die ssaa werte an und fetig,da ist skalierung sogar noch schlechter(53%),warum auch immer.

boxleitnerb
2013-02-07, 16:50:12
Das stimmt doch gar nicht. Die 690 skaliert mit ca. 80% ggü. der 680 mit SSAA. Skyrim, das bei dreistelligen fps CPU-limitiert wird, zieht den Schnitt noch ein paar Prozent nach unten.

derguru
2013-02-07, 16:54:49
gesamtrating

http://www.abload.de/img/2phudw.png

boxleitnerb
2013-02-07, 16:57:17
Und dann schaust mal die einzelnen Ergebnisse an, statt nur das Rating zu studieren. SLI geht nicht in Dirt Showdown und Project Cars, ansonsten ist überall 80+%
Und selbst das erklärt das Rating noch nicht - Computerbase hat wahrscheinlich Ergebnisse ohne SSAA noch mit reingemischt aus Unachtsamkeit. Ratings sind für die Mülltonne, besonders bei Computerbase.

M4xw0lf
2013-02-07, 17:00:42
Ich glaub das Problem, das das Gesamtergebnis unter 1600p runterzieht, ist das negative SLI-Scaling bei Trackmania 2. http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7970-ghz-edition/22/

boxleitnerb
2013-02-07, 17:04:03
Ich bezog mich eigentlich auf diesen neuesten Test hier, der hat die meisten SSAA-Ergebnisse:
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/

Abgesehen davon wurde Trackmania 2 gar nicht mit SSAA gebencht, weil es mangels MSAA nicht geht. Es ist sowieso müßig zu spekulieren, weil wir nicht wissen, wo Nvidia selbst die 690 ansetzt beim Vergleich mit Titan.

derguru
2013-02-07, 17:04:37
Und dann schaust mal die einzelnen Ergebnisse an, statt nur das Rating zu studieren. SLI geht nicht in Dirt Showdown und Project Cars, ansonsten ist überall 80+%
Und selbst das erklärt das Rating noch nicht - Computerbase hat wahrscheinlich Ergebnisse ohne SSAA noch mit reingemischt aus Unachtsamkeit. Ratings sind für die Mülltonne, besonders bei Computerbase.
nee mit reingemicht glaub ich nicht,das würde auffallen aber einfach weggelassen.ansonsten haste recht! 80%+

M4xw0lf
2013-02-07, 17:06:36
Hm mit SSAA wurde TM2 nicht gebencht. Auch im neueren Test ist das Scaling bei dem Spiel noch zum Teil negativ und ansonsten bescheiden.

Duplex
2013-02-07, 17:38:44
Naja wenn man 50€ Early Adopter abzieht ist man beim 690 Preis nur das Titan wesentlich mehr nutzbaren V-Ram hat.Denke mal die Karte wird ne Punktlandung auf der 690 machen.
sehe ich auch so zumindest muss die 690 geschlagen werden aber dann ist sie es auch locker wert.:biggrin:
Ab Q3 könnte es sein das die Karte nur noch um die 550-600 Euro kosten wird, dann gibt es sicher auch mehrere Leute die sich dann gleich 2x Karten kaufen werden.

dildo4u
2013-02-07, 17:43:48
Die 680 sind auch kaum billiger geworden,denke nich das es bei einem wesentlich größeren Chip mit komplexeren PCB anders sein wird.

70€
http://geizhals.at/de/?phist=753753&age=9999

Unter 700€ würde ich sie Ende 2013 nicht erwarten.

Ailuros
2013-02-07, 17:45:58
Ich hab einen besseren Vorschlag fuer NVIDIA: der "Titan" wird zurueckgezogen und nicht kommerziell erhaeltlich sein. Stattdessen wird eine Titan GPU jedem NV Angestellten pflichtmaessig angedreht und es werden die >800 Euros von ihrem Lohn abgezogen. Obriges management pflichtmaessig Titan quad SLi. Somit finanziert erstmal NV die ganze Sache und wir haben unsere Ruhe. Wegen begrenzter Verfuegbarkeit bekommen Angestellte nach alphabetischer Namensreihe ihre heisserwuenschten GPUs :D

Duplex
2013-02-07, 17:46:54
Wenn das Top Modell von Sea Islands ab Q2/Q3 15% langsamer als GK110 ist, preislich zwischen 450-500 Euro kostet, dann wird Nvidia kaum mehr als 550-600 Euro verlangen können oder wäre dann noch jemand bereit mehr auszugeben?

dildo4u
2013-02-07, 17:52:55
Titan ersetzt ja die 690 wenn man sich die Preise so anguckt orientiert man sich nicht an AMD,7970 im Crossfire sind schneller und kosten 200€ weniger.

Ailuros
2013-02-07, 17:55:44
Wenn das Top Modell von Sea Islands ab Q2/Q3 15% langsamer als GK110 ist, preislich zwischen 450-500 Euro kostet, dann wird Nvidia kaum mehr als 550-600 Euro verlangen können oder wäre dann noch jemand bereit mehr auszugeben?

Ich frage mich eher so langsam ob der Leistungs-unterschied nicht kleiner ist im Durchschnitt am Ende. Verfuegbarkeit ist begrenzt und AMD bringt womoeglich Sea Islands nicht vor Herbst ergo kann man die Milchkuh fuer ein paar Monate melken.

gnahr
2013-02-07, 17:56:35
generell wird der top-dog im preis nicht per dreisatz auf kleinere karten ausgelegt,
also muss auch niemand mehr ankommen mit
"karte xy von amd kostet nur ein drittel und leistet auch halb so viel!!!".

Ailuros
2013-02-07, 18:01:37
generell wird der top-dog im preis nicht per dreisatz auf kleinere karten ausgelegt,
also muss auch niemand mehr ankommen mit
"karte xy von amd kostet nur ein drittel und leistet auch halb so viel!!!".

Dem sind auch die meisten hier klar. Es aendert aber auch nichts an der Tatsache dass wenn man es nuechtern betrachtet das Ding seinem Preis nicht wuerdig sein wird. Je weniger die durchschnittliche Leistung als original erwartet, desto laecherlicher wird die Affaere eben.

Gipsel
2013-02-07, 18:46:49
So, ich hab jetzt doch wieder das entsprechende nVidia Dokument gefunden....

http://www.nvidia.com/content/PDF/kepler/Tesla-K20-Passive-BD-06455-001-v05.pdfHast Du eigentlich gesehen, daß zuerst PCI Express 3.0 drinstand und das erst am 09.Oktober 2012 in 2.0 geändert wurde? Das spricht irgendwie wirklich dafür, daß man knapp außerhalb der Specs gelandet ist (was man natürlich erst feststellen konnte, nachdem man ein paar Samples im Labor ordentlich gequält hat) und das vermutlich erst mit einer neuen Revision hinbiegt. Wenn ein Metal-Spin reicht (evtl. ja sogar nur eine Revision des PCBs), könnte die Geforce Version durchaus schon mit 3.0 kommen. Seit Oktober war ja genug Zeit.

Coda
2013-02-07, 19:55:32
Also, dass da eigentlich Logik für PCIe 3.0 im Chip vorhanden ist, darüber brauchen wir doch nicht streiten?

Das sollte sich natürlich mit einem neuen Tapeout oder sogar nur einem Metal-Layer-Respin lösen lassen. Vor allem in der Zeit die sie jetzt hatten. Die Probleme deuteten sich ja schon bei GK104 an.

Zergra
2013-02-07, 20:05:21
Ist schon bekannt ob den Titan Dx 11.1 unterstützt ? :D Nicht das die wieder bei Werben betrügen...

DavChrFen
2013-02-07, 20:21:55
Die Sache mit PCIe 3.0 kann ich nicht so richtig nachvollziehen: Wieso baut man da nicht einfach eine Art Verstärkerchip oder ähnliches ein, wenn man nur knapp an der Zertifizierung scheitert? Bei dem Stückpreis für eine Tesla-Karte sollte das doch möglich sein?

HarryHirsch
2013-02-07, 20:27:00
so wie ich das verstanden hab liegt es nicht an den gpus sondern an den cpus.

Schaffe89
2013-02-07, 20:41:01
Wie siehts eigentlich mit Directx11.1 aus?
Man hatte doch jetzt genug Zeit für nen Metal Layer Respin.
Gibts da schon infos? :)

Habe die Frage oben übersehen^^

Ailuros
2013-02-07, 20:50:22
Ich bezweifle dass GK110 voll DX11.1 sein wird; und nein ein metal spin reicht dafuer nicht aus und waere auch wirtschaftlich Bloedsinn egal von welchem IHV.

Gipsel
2013-02-07, 20:56:15
so wie ich das verstanden hab liegt es nicht an den gpus sondern an den cpus.Wenn es an den CPUs liegen würde, könnte nV die Dinger trotzdem mit PCI Express 3.0 bewerben. Vermutlich wird irgendein Timing nicht 100% eingehalten oder irgendeine Flanke ist ab und an mal nicht steil genug oder sowas. Vermutlich würde das sogar oft laufen (wenn die Gegenstelle entsprechende Toleranzreserven hat). Aber man schafft halt die Spezifikation ganz knapp nicht und deswegen wird es nicht zertifiziert (weil eben nicht garantiert werden kann, daß es immer funktioniert, 99,9% der Spec zu erfüllen, hilft in der Frage nunmal nicht). Offensichtlich weiß nV das seit Oktober (als 3.0 im Spec-Sheet gestrichen und durch 2.0 ersetzt wurde). Coda hat schon recht, daß nV in der Zeit locker ein neues Stepping auflegen konnte, so daß die vielleicht seit ein paar Wochen Chips haben, die auch 3.0 schaffen. Die Zeit reicht sogar bald für einen base layer respin (vor 4 Monaten wurde das Specsheet entsprechend geändert, intern bekannt war es vermutlich schon etwas länger), falls es ein metal spin nicht tut (und dem Ganzen entsprechende Wichtigkeit zugemessen wird).

HarryHirsch
2013-02-07, 21:07:01
nv sagt aber das es nur bei sandy (e) probleme gibt.
ivy läuft wohl. (http://nvidia.custhelp.com/app/answers/detail/a_id/3135/~/geforce-600-series-gen3-support-on-x79-platform)

Gipsel
2013-02-07, 21:10:25
nv sagt aber das es nur bei sandy (e) probleme gibt.
ivy läuft wohl. (http://nvidia.custhelp.com/app/answers/detail/a_id/3135/~/geforce-600-series-gen3-support-on-x79-platform)
Ja, mit GK104 (für den nV explizit PCI Express 3.0 Support angibt). Wir reden hier von GK110, für den sie das nicht tun. ;)
GeForce GTX 680 and GTX 670 GPUs support PCI Express 3.0. They operate properly within the SIG PCI Express Specification and have been validated on multiple PCI Express 3.0 platforms. Some motherboard manufacturers have released an updated SBIOS to enable the Intel X79/SNB-E PCI Express 2.0 platform to run at up to 8GT/s bus speeds. We have tested GeForce GTX 680 and GTX 670 GPUs across a number of X79/SNB-E platforms at 8GT/s bus speeds, but have seen significant variation in signal timing across different motherboards and CPUs.Was sie nicht garantieren, ist die Funktion im Zusammenspiel mit auf 3.0-Speed übertakteten 2.0 Interfaces (die die 3.0 Spec nicht einhalten).