PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GTX-700-Karten/Titanen - GK180/GK110-B1 - GTX 790?


Seiten : 1 2 [3] 4 5 6 7

ShinyMcShine
2013-05-28, 13:43:10
NV legt Metro:LL bei um die alten Karten ab zu verkaufen,die 7XX Serie kommt ohne Game.Daher erwarte ich keine Preissenkung.

http://www.nvidia.de/object/metro-last-light-pc-game-de.html#gameContent=2

Argh! Und ich war mir sicher, dass Metro auch bei den neuen GTX Karten mit beiligt. Naja, muss ich halt noch paar Monate warten, bis es das in irgendeinem Sale für'n 10er gibt...

Eigentlich schon schade, wenn man überlegt, was AMD den Grafikkarten beilegt... Naja, hab' eh' schon bei fast allen Spielen aus dem Never Settle Bundle bei irgendeinem Sonderangebot zugeschlagen.

VG
Shiny

P.S.: Haben die GK110er karten auch keinen Steam-Code für Metro?

Skysnake
2013-05-28, 13:59:20
LOL

Ja ne ist klar.... :P


Du findest es wirtschaftlich logisch wenn die alte Ware wie Blei in den Regalen liegt? :D

Die Verkaufszahlen der 680 sind auf keinen Fall so hoch wie zu früheren HighEnd-Generationen. Viele Leute haben einfach keinen Bock auf das schlechte P/L-Verhältnis.

Indem NV die teure Ware so teuer in den Regalen lässt wird man mit der Zeit nur immer weniger verkaufen, weil das Leistungs-pro-Euro-Verhältnis mit der Zeit immer schlechter wird im Vergleich zu AMD.

NV könnte die 680 auch für 300 Euro abverkaufen und Gewinne damit einfahren. Der Chip ist kleiner als der, der GTX 460/560, der nach einem Jahr für 160 Euro über die Ladentheke ging.

Du fragst warum NV das machen sollte? Weil man es bis vor einem Jahr bei jeder Generation so gemacht hat!
Ich meine, Nvidia könnte das gern machen, wäre schön für die Verbraucher, aber dann müsste spätestens jetzt der 680er-Abverkauf anrollen.

MfG,
Raff
Naja, vielleicht ist ja an dem Umflashen der GTX680 -> GTX770 ja doch was dran. Dann hätte sich das "Blei im Regal" Problem gelöst.

Ansonsten ist die Masche mit Metro natürlich auch ne Möglichkeit, wenn auch ne ganz schön link... :mad:

boxleitnerb
2013-05-28, 14:02:01
Das Umflashen geht nicht, es sind andere Speicherchips verbaut.

dildo4u
2013-05-28, 14:11:09
Ansonsten ist die Masche mit Metro natürlich auch ne Möglichkeit, wenn auch ne ganz schön link... :mad:
Na klar ist es bei NV Link aber beim AMD der Hammer die Karten sind genau so uralter Ramsch der sonst nicht's absetzt.

Die 7970 ist offiziell von 2011! lollol.

fondness
2013-05-28, 14:21:50
Die 7970 ist offiziell von 2011! lollol.

Was genau ist daran schlecht? Selbst die NV-Chips von 2013 haben noch ein älteres Featureset. ;)

Akkarin
2013-05-28, 14:22:40
Ich hab inn letzter Zeit öfter mal das Argument "die 780 hat ein gutes P/L verhältnis weil sie nur 10% langsamer als eine Titan ist" auf reddit gelesen. Klar, es ist reddit, aber das sollte doch einen guten einblick in das mindset einiger User/Kaufer/nVidia fanboys geben. Solange es genug solcher Typen gibt und sie noch eine Karte anbieten die Teurer ist brauchen sie sich nicht groß sorgen zu machen ob ihre Preise zu hoch sind.

Skysnake
2013-05-28, 14:24:50
Klar ist es uralter "Ramsch", um es mal in deinen Worten zu sagen, aber Sie drücken direkt und indirekt wenigstens den Preis dafür.

Ok, die HD8k Serie ist genau so ne elendige Verarsche... Aber die gibts ZUM GLÜCK! wenigstens nicht im freien Handel...

AMD ist da quasi der Einäugige unter den Blinden :ugly:

Ich hoffe ja immer noch inständig, dass sich nVidia dazu genötigt fühlt die Preise recht zügig zu senken, um dann AMD unter Druck zu setzen, doch etwas schneller was Neues zu bringen, aber das wird wohl eher Wunschdenken bleiben -.-

dildo4u
2013-05-28, 14:28:56
Was genau ist daran schlecht? Selbst die NV-Chips von 2013 haben noch ein älteres Featureset. ;)
Es ist Schrott der von AMD verkauft wird einfach mit dem V-Core Hammer Boost Karten verkaufen,die nie dafür ausgelegt wurden.Nicht mal die Baseclock wird gehalten in normalen Games!

AMD sprach von einem GPU-Takt von 850 MHz, welcher im besten Falle bis auf 925 MHz hochtakten soll. Doch im Auslieferungszustand (Power Tune: Default) erkennen wir bereits unter Spiele-Last mittels Tom Clancy's Hawx, dass nach einer Weile nicht einmal mehr die 850 MHz GPU-Takt gehalten werden. Bis auf 810 MHz taktet die Karte herunter,

Einen weiteren Eingriff, welchen AMD mittels des BIOS vorgenommen hat: man hat das Power-Tune-Limit im Werkszustand von 167 Watt auf rund 180 Watt erhöht. Doch wie unsere Screenshots und Messungen zeigen, ist dies bei unserem Muster noch immer nicht genug. Furmark und Hawx erreichen beide bereits diese Leistungsaufnahme und damit verpufft der höhere Takt meist im Nichts.



http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index5.php

Das 28nm Binning wird nicht schlechter mit der Zeit sondern besser davon gibt AMD nix weiter,vermutlich damit sich ihre Ramsch Preise für sie rechnen.

fondness
2013-05-28, 14:46:02
Es ist Schrott der von AMD verkauft wird einfach mit dem V-Core Hammer Boost Karten verkaufen,die nie dafür ausgelegt wurden.Nicht mal die Baseclock wird gehalten in normalen Games!



http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index5.php

Das 28nm Binning wird nicht schlechter mit der Zeit sondern besser davon gibt AMD nix weiter,vermutlich damit sich ihre Ramsch Preise für sie rechnen.

Muss man wirklich auf einem solchen Niveau diskutieren? Mir ist es zu blöd auf einen solchen Beitrag einzugehen.

Dural
2013-05-29, 09:14:00
die GTX770 finde ich echt interessant, wie so nicht gleich so NV?

http://www.computerbase.de/news/2013-05/daten-und-preis-der-geforce-gtx-770-durchgesickert/

ShinyMcShine
2013-05-29, 09:17:37
Damit wäre eine Custom Design GTX 770 (z.B. eine ASUS DC2) mit 4GB evtl. sogar in Regionen unter 450€ machbar. Das wäre echt was Feines! Bin auf morgen 15:00 Uhr gespannt...

VG
Shiny

Edit: Auf dem zweiten Bild bei CB wird ein Thermal Threshold von 95°C angegeben. Ist das derselbe Wert wie bei der GTX 680?

Rampage 2
2013-05-29, 09:21:54
die GTX770 finde ich echt interessant, wie so nicht gleich so NV?

http://www.computerbase.de/news/2013-05/daten-und-preis-der-geforce-gtx-770-durchgesickert/

~ 360€ mit MWst. für eine 2GB-Version - das klingt doch richtig gut:)

hoffe, dass sich das bestätigt...

Wie hoch ist eigentlich der durchschnittliche Preisaufschlag von 4GB-Versionen der Nvidia-Karten?

Dural
2013-05-29, 09:22:12
mit reichen 2GB, würde die Karte eh nur als PhysX Karte verwenden :freak:

ich frage mich gerade ob der GK110 jemals voll kommen wird, AMD bringt ja nix raus und ende Jahr wird NV sicher nicht mehr ein voller GK110 nach schieben. und wenn doch müsste die preislich doch ziemlich überzeugen da 2014 sicher bald mal die 20nm GPU kommen werden.

dann wird das die erste High End GPU seit G71 von NV, die ich aus lassen werde. :freak:

boxleitnerb
2013-05-29, 09:25:00
230W, da ist GK104 aber schon an der Kotzgrenze. Das erste Review neulich hat ja auch eine deutlich höhere Leistungsaufnahme gemessen.

ShinyMcShine
2013-05-29, 09:26:53
Der Preisunterschied zwischen der ASUS GTX680-DC2G-4GD5 DirectCU II und der ASUS GTX680-DC2-2GD5 DirectCU II ist ~50€. Du kannst aber davon ausgehen, dass die schnelleren RAMs der GTX 770 doch teurer sind, als die der GTX 680.

VG
Shiny

Rampage 2
2013-05-29, 09:31:10
Der Preisunterschied zwischen der ASUS GTX680-DC2G-4GD5 DirectCU II und der ASUS GTX680-DC2-2GD5 DirectCU II ist ~50€. Du kannst aber davon ausgehen, dass die schnelleren RAMs der GTX 770 doch teurer sind, als die der GTX 680.

VG
Shiny

Also 400 - 425€ für 4GB-Versionen im optimalen Fall? (nachdem sich die Preise normalisiert haben - so ab Juli)

PS: Warum willst du eigentlich ein Custom-Design? Du willst ja nicht massiv übertakten:freak:

ShinyMcShine
2013-05-29, 10:06:13
230W, da ist GK104 aber schon an der Kotzgrenze. Das erste Review neulich hat ja auch eine deutlich höhere Leistungsaufnahme gemessen.

Ich kann mir nicht vorstellen, dass die Referenzkarte der GTX 770 so viel mehr Strom ziehen soll ("deutlich höhere Leistungsaufnahme") als eine GTX 680.
Das sind nur 40 MHz mehr bei der Base-Clock. Selbst stärker übertaktete 680er haben doch nur 2x 6-Pin und auch da geht der GK104 nicht auf Grundeis...

@Rampage 2: Es geht mir um die Lautstärke. Sollte der Titan-Kühler bei der GTX 770 auch unter Last sehr leise sein, kann es gerne auch eine Referenzkarte sein. Aber für 'nen WindForce oder Direct Copper II Kühler zahle ich gerne auch 20-30 EUR mehr...

VG
Shiny

boxleitnerb
2013-05-29, 10:19:02
Wieso hat man dann die TDP so deutlich erhöht, um fast 18%?

Loeschzwerg
2013-05-29, 10:22:05
Möglicherweise ist die Karte einfach besser auf Taktspielereien ausgelegt als die GTX 680. Das wird sich aber zeigen welche Detailänderungen das PCB aufweist.

ShinyMcShine
2013-05-29, 10:34:49
Die Frage ist natürlich berechtigt. Evtl. wurde der GK104 auf dem Platinenlayout der GTX 680 nicht "passend" untergebracht und stieß da an's Limit der TDP obwohl mehr möglich gewesen wäre. Darum hat man u.a. auch dem Turbo der GTX 770 durch die höhere TDP mehr Spielraum gegeben. Anscheinend soll der GK104 auf der GTX 770 ja auch mit bis zu 1,3V Kernspannung versorgt werden können...

Im Endeffekt ist es mir auch egal, ob die karte jetzt 10W oder 20W im Spieleverbrauch mehr benötigt als eine GTX 680. Der Idle-Verbrauch wird sicher auf ähnlichem Level sein, und wenn der Kühler der GTX 770 leise zu Werke geht, dann sind (mir) die 230W wurschd. ;)

VG
Shiny

john carmack
2013-05-29, 10:35:32
~ 360€ mit MWst. für eine 2GB-Version - das klingt doch richtig gut:)

hoffe, dass sich das bestätigt...

Wie hoch ist eigentlich der durchschnittliche Preisaufschlag von 4GB-Versionen der Nvidia-Karten?


~80€

Knuddelbearli
2013-05-29, 11:04:48
na der schnellere Speicher wird sicher auch gut was verbrauchen

ShinyMcShine
2013-05-29, 11:07:51
na der schnellere Speicher wird sicher auch gut was verbrauchen

Können die Speicherchips so viel ausmachen? Ich muss gestehen, dass ich die überhaupt nicht in Betracht gezogen habe...

VG
Shiny

Dural
2013-05-29, 11:43:10
naja der speicher für sich sicher auch etwas ja

aber ich vermute mal das der grösste teil auf den memory kontroller fällt, eventuell benötigt man auf der GPU sogar etwas mehr spannung.

Godmode
2013-05-29, 11:49:24
Jensen leckt sich sicher schon alle zehn Finger ab. Damit graben sie den AMD GPUs noch mehr das Wasser ab, wenn jetzt schon mehr überteuerte 680 als 7970 gekauft wurden.

Iruwen
2013-05-29, 13:00:13
Bäh, danke für das Bild.

Spasstiger
2013-05-29, 13:15:34
~ 360€ mit MWst. für eine 2GB-Version - das klingt doch richtig gut:)
Naja, 40.000 Yen sind 394 US-Dollar, das werden bei uns wieder 400€. Also da, wo derzeit die "günstigen" GTX 680 liegen. Die Performance der GTX 770 wird bestenfalls 5% über der GTX 680 liegen, ich sehe da keine große Bewegung am Markt.
/EDIT: Aber ich sehe gerade, dass jetzt schon einige GTX-780-Modelle (MSRP 649 US-$) für unter 600€ lieferbar sind. Vielleicht ist die GTX 770 bei einer angenommenen MSRP von 399 US-$ kurz nach Start doch für 360-370€ verfügbar.

boxleitnerb
2013-05-29, 13:18:00
Durch die deutlich höhere Bandbreite könnten es sicher auch mal 15% werden. Kepler ist ja recht limitiert hierdurch.

Raff
2013-05-29, 13:35:59
Das sehe ich höchstens bei 32x CSAA. :D

MfG,
Raff

boxleitnerb
2013-05-29, 13:42:27
4-8x MSAA reicht schon je nach Spiel.

Spasstiger
2013-05-29, 13:46:14
Den Test der Speicherskalierung gabs ja hier schon: http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970-875267/.
18% mehr Speichertakt bei der GTX 680 -> 7%-9% mehr Performance.
Die 7 Gbps bei der GTX 770 sind ja auch nur ein Gerücht.

Und hier ein weiterer Skalierungstest: http://www.hardware-infos.com/tests/grafikkarten/taktskalierung-kepler-vs.-tahiti.html.
10% mehr Speichertakt bei der GTX 670 -> 2%-4% mehr Performance.

Performancesteigerungen über 10% halte ich auch mit 7 Gbps für die absolute Ausnahme.

Dural
2013-05-29, 15:01:07
hoffe ich doch schwer das es 7 Gbps Speicher ist.
wenn mit OC 4GHz möglich sind, wären das immerhin 256GB/s mit einem 256Bit SI :biggrin:

In verbindung mit einem GK104 @ 1300-1400MHz dürfte das schon recht abgehen.

ShinyMcShine
2013-05-29, 15:06:48
wenn mit OC 4GHz möglich sind, wären das immerhin 256GB/s mit einem 256Bit SI :biggrin:

In verbindung mit einem GK104 @ 1300-1400MHz dürfte das schon recht abgehen.

:eek:
:freak:
:biggrin:
;D

Mehr kann ich dazu nicht sagen...

boxleitnerb
2013-05-29, 15:07:29
Den Test der Speicherskalierung gabs ja hier schon: http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970-875267/.
18% mehr Speichertakt bei der GTX 680 -> 7%-9% mehr Performance.
Die 7 Gbps bei der GTX 770 sind ja auch nur ein Gerücht.

Und hier ein weiterer Skalierungstest: http://www.hardware-infos.com/tests/grafikkarten/taktskalierung-kepler-vs.-tahiti.html.
10% mehr Speichertakt bei der GTX 670 -> 2%-4% mehr Performance.

Performancesteigerungen über 10% halte ich auch mit 7 Gbps für die absolute Ausnahme.

Im Schnitt mehr als 10% sind natürlich Unsinn, jedenfalls von mehr Speichertakt allein. Die Kombination machts. Ich denke mit dem Kühler könnte die 770 recht hoch boosten. Die 7 Gbps sind fix, das weiß ich aus sicherer Quelle.

AnarchX
2013-05-29, 15:17:11
Definitv 7Gbps:
http://videocardz.com/42149/msi-geforce-gtx-770-lightning-tested-sli

FC28 Chips:
http://videocardz.com/images/2013/05/MSI-GeForce-GTX-770-Lightning-9.jpg
http://www.samsung.com/global/business/semiconductor/file/product/graphic_product_guide_nov_12-0.pdf

Potential für 8Gbps GDDR5 besteht offenbar. Den Package-Code gibt es auch schon und die MSI erreicht schon 8.2Gbps OC.

ShinyMcShine
2013-05-29, 15:20:00
FC28 Chips:
http://videocardz.com/images/2013/05/MSI-GeForce-GTX-770-Lightning-9.jpg
http://www.samsung.com/global/business/semiconductor/file/product/graphic_product_guide_nov_12-0.pdf

Potential für 8Gbps GDDR5 besteht offenbar. Den Package-Code gibt es auch schon.

Ihr macht mich hier ganz wuschig! :naughty: ;D

boxleitnerb
2013-05-29, 15:23:57
Ob der Original-Speichercontroller das mitmacht oder ob er bei GK104-425 überarbeitet werden musste?

Dural
2013-05-29, 15:27:21
naja, meine GTX690 macht 1850MHz auf den Speicher mit, das sind schon mal 100MHz mehr als die GTX770 stock.

boxleitnerb
2013-05-29, 15:29:32
Solche Einzelfälle gibt es sicher, klar. Ich hab mit Titan schon ab ca. 1700 MHz mit Abstürzen zu kämpfen, welche der beiden Karten das ist oder ob gar beide, hab ich nicht nachgeprüft. Man weiß auch nicht, ob es am Speicher oder am Controller liegt.
Was sind bei dir für Chips verbaut?

robbitop
2013-05-29, 15:32:08
Ihr macht mich hier ganz wuschig! :naughty: ;D
Oh ja - höchst aufregend - eine umgelabelte, 10 % höher getaktete Karte als schon seit über einem Jahr auf dem Markt. Basierend auf einem Mainstream Chip. Mir schlottern schon die Knie... :freak:

Dural
2013-05-29, 15:37:05
naja wenn man noch keine 6xx oder 7xxx karte hat ist die 770 sicher immer einen blick wert.

Spasstiger
2013-05-29, 15:39:42
Solche Einzelfälle gibt es sicher, klar. Ich hab mit Titan schon ab ca. 1700 MHz mit Abstürzen zu kämpfen, welche der beiden Karten das ist oder ob gar beide, hab ich nicht nachgeprüft. Man weiß auch nicht, ob es am Speicher oder am Controller liegt.
Bei Titan sinds auch 50% mehr Datenleitungen und zwei Speichercontroller mehr, d.h. mehr Übersprechen und statistisch eine größere Wahrscheinlichkeit, dass einer der Speichercontroller nicht so weit geht.

robbitop
2013-05-29, 15:41:24
Mag sein - aber besonders toll sind sie nicht. Weder in Preis noch in Leistung. Wenn es eine GTX780 (12/15 SMX nur aktiv!!) zum üblichen GTX X70 Preis gäbe - also 400 € - dann wäre das schon eher toll. Aber so... *gähn*

Spasstiger
2013-05-29, 15:45:09
Wenn es eine GTX780 (12/15 SMX nur aktiv!!
Der denkbare Vollausbau mit 15 SMX @ 1 GHz wäre aber schon außergewöhnlich potent im Vergleich zur Konkurrenz und im Vergleich zum Vorgänger im letzten Fertigungsprozess (GTX 580). In der Vergangenheit war der Vorsprung von Nvidia mit dem Vollausbau meist im Bereich von 15-20% gegenüber der schnellsten Radeon.

Godmode
2013-05-29, 15:47:06
Den könnten sie dann um 1.200 Euro verkaufen. Und ja, sowas hätte ich mir mir wohl geholt.

Rampage 2
2013-05-29, 16:07:50
Den Test der Speicherskalierung gabs ja hier schon: http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970-875267/.
18% mehr Speichertakt bei der GTX 680 -> 7%-9% mehr Performance.
Die 7 Gbps bei der GTX 770 sind ja auch nur ein Gerücht.

Und hier ein weiterer Skalierungstest: http://www.hardware-infos.com/tests/grafikkarten/taktskalierung-kepler-vs.-tahiti.html.
10% mehr Speichertakt bei der GTX 670 -> 2%-4% mehr Performance.

Performancesteigerungen über 10% halte ich auch mit 7 Gbps für die absolute Ausnahme.

Ich versteh das Ganze nicht - wo ist denn bei den GK104's der Flaschenhals? Füllrate oder Speicherbandbreite oder was anderes? Irgendeinen Grund muss es doch geben, warum sich die GK104-GPU's nicht deutlich von Fermi (GTX580) absetzen können...

Wenn die Speicherbandbreite keine Mehrleistung bringt (bzw. es sinnvoll ist, den Chiptakt auch ohne Speicherübertaktung zu erhöhen), dann kaufe ich mir lieber eine 670.

boxleitnerb
2013-05-29, 16:11:52
GTX580 und 680 haben dieselben Speicherbandbreite. Die 680 ist aber 35% schneller. Ich denke, es hat irgendwie auch mit den Rechenheiten zu tun. z.B. die HD6970 hatte knapp 3 TFLOP, fast doppelt soviel wie die GTX580 - und trotzdem war sie langsamer. So richtig vergleichbar ist das also nicht.

Rampage 2
2013-05-29, 16:14:53
GTX580 und 680 haben dieselben Speicherbandbreite. Die 680 ist aber 35% schneller. Ich denke, es hat irgendwie auch mit den Rechenheiten zu tun. z.B. die HD6970 hatte knapp 3 TFLOP, fast doppelt soviel wie die GTX580 - und trotzdem war sie langsamer. So richtig vergleichbar ist das also nicht.

Naja, als Kaufberatung macht es nur Sinn, wenn man weiß, wo der Flaschenhals bei Nvidia-GPU's liegt - ich will gewiss nicht umsonst 50-100€ mehr für eine 770 ausgeben, wenn der Flaschenhals am Chiptakt liegt...

R2

dildo4u
2013-05-29, 16:16:16
Ich versteh das Ganze nicht - wo ist denn bei den GK104's der Flaschenhals? Füllrate oder Speicherbandbreite oder was anderes? Irgendeinen Grund muss es doch geben, warum sich die GK104-GPU's nicht deutlich von Fermi (GTX580) absetzen können...

Wenn die Speicherbandbreite keine Mehrleistung bringt (bzw. es sinnvoll ist, den Chiptakt auch ohne Speicherübertaktung zu erhöhen), dann kaufe ich mir lieber eine 670.
GK104 braucht häufig Anpassungen per Treiber siehe Dirt Showdown,bei Metro Last Light wurde der Treiber schon vor der Release angepasst,dort liegt die 680 deutlich vor der 580.

Skysnake
2013-05-29, 16:19:01
GTX580 und 680 haben dieselben Speicherbandbreite. Die 680 ist aber 35% schneller. Ich denke, es hat irgendwie auch mit den Rechenheiten zu tun. z.B. die HD6970 hatte knapp 3 TFLOP, fast doppelt soviel wie die GTX580 - und trotzdem war sie langsamer. So richtig vergleichbar ist das also nicht.
VLIW<->SIMD

Äpfel<->Birnen

:rolleyes:

Rampage 2
2013-05-29, 16:19:07
GK104 braucht häufig Anpassungen per Treiber siehe Dirt Showdown,bei Metro Last Light wurde der Treiber schon vor der Release angepasst,dort liegt die 680 deutlich vor der 580.

es bringt also keinen signifikanten Mehrwert, wenn man bei den GK104's Chip- und Speichertakt gleichzeitig erhöht? (Sollte ich eine 770 jemals kaufen, will ich sie auf 1250/4000MHz hochprügeln - ist das Verhältnis so ausbalanciert?)

ShinyMcShine
2013-05-29, 16:25:38
naja wenn man noch keine 6xx oder 7xxx karte hat ist die 770 sicher immer einen blick wert.

Exakt!

Spasstiger
2013-05-29, 16:30:51
Es bringen natürlich die Erhöhungen von Chip- und Speichertakt etwas, GK104 profitiert von Beidem. Wenn eine Erhöhung des Speichertakts um z.B. 20% tatsächlich in vollen 20% Performancezuwachs resultieren würde, dann wäre der Chip mehr als unausgewogen, das wäre sogar ein ziemlicher Fail. Imo kann man von ausgewogen sprechen, wenn eine Erhöhung des Chiptaktes etwas mehr bringt als eine Erhöhung des Speichertaktes, weil der Großteil der GPU-Transistoren eben mit Chiptakt schaltet und man dort den größten Aufwand reinsteckt.
Bei einem ausgewogenen Design erwarte ich bei einer Takterhöhung um 20% ca. 8% mehr Performance, wenn nur der Speichertakt erhöht wird, und ca. 11% mehr Performance, wenn nur der Chiptakt erhöht wird.

GK104 finde ich schon ziemlich ausgewogen.
Mein Tipp für die GTX 770 ist, dass sie im Schnitt knapp 5% schneller sein wird als die GTX 680, aber auf eine Erhöhung des Chiptaktes dankbar reagieren wird. Eine übertaktete GTX 770 wird mit dem 7-Gbps-Speicher schon ein paar Prozent oberhalb einer übertakteten GTX 680 liegen. Aber es wird imo nichts Dramatisches passieren, was einen GTX-680-Besitzer ins Grübeln bringen müsste.

robbitop
2013-05-29, 16:44:48
Der denkbare Vollausbau mit 15 SMX @ 1 GHz wäre aber schon außergewöhnlich potent im Vergleich zur Konkurrenz und im Vergleich zum Vorgänger im letzten Fertigungsprozess (GTX 580). In der Vergangenheit war der Vorsprung von Nvidia mit dem Vollausbau meist im Bereich von 15-20% gegenüber der schnellsten Radeon.
Ja natürlich. AMD ist mit ihren vergleichsweise schwachen High End GPUs Schuld daran, dass NV Mainstreamchips zu Highendpreisen verkaufen kann und High End Chips zu doppelten High End Preisen.
Hätte es eine Radeon mit 4xx sqmm gegeben, wäre es wohl anders gelaufen. Wo keine Konkurrenz, da wird der Markt zum Verkäufermarkt.

Match-Maker
2013-05-29, 16:59:33
Ja natürlich. AMD ist mit ihren vergleichsweise schwachen High End GPUs Schuld daran, dass NV Mainstreamchips zu Highendpreisen verkaufen kann und High End Chips zu doppelten High End Preisen.
Hätte es eine Radeon mit 4xx sqmm gegeben, wäre es wohl anders gelaufen. Wo keine Konkurrenz, da wird der Markt zum Verkäufermarkt.
Wobei man Tahiti imho noch nicht mal als High End GPU bezeichnen kann (ist ja auch nur 365 mm² groß und das trotz GPGPU-Ballast).

Godmode
2013-05-29, 17:04:51
Wobei man Tahiti Imho noch nicht mal als High End GPU bezeichnen kann (ist ja auch nur 365 mm² groß und das trotz GPGPU-Ballast).

Da sieht man einfach was da noch gehen würde. AMD müsste sich anstrengen und auch so 500mm² Prügel bauen.

AffenJack
2013-05-29, 17:05:19
Naja, 40.000 Yen sind 394 US-Dollar, das werden bei uns wieder 400€. Also da, wo derzeit die "günstigen" GTX 680 liegen. Die Performance der GTX 770 wird bestenfalls 5% über der GTX 680 liegen, ich sehe da keine große Bewegung am Markt.
/EDIT: Aber ich sehe gerade, dass jetzt schon einige GTX-780-Modelle (MSRP 649 US-$) für unter 600€ lieferbar sind. Vielleicht ist die GTX 770 bei einer angenommenen MSRP von 399 US-$ kurz nach Start doch für 360-370€ verfügbar.

Es wird schon seit Jahren bei Computerteilen nicht mehr Euro zu Dollar 1:1 umgerecchnet. Jedesmal kommt in den ganzen Foren sind ja dann genauso viele Euro wie Dollar, aber wie du schon selber schreibst sind die Preise doch eher nen Stück niedriger als sogar der Umrechenkurs. Eigentlich ham wir so ziemlich die geringsten Hardwarepreise weltweit, weil die Margen der Händler hier am geringsten sind dank der Preisvergleiche. Wenn nur die Mehrwertsteuer nicht wäre.
Auf Dauer erwarte ich die Staffelung:
GTX780 550€
GTX770 4gb 450€
GTX770 2gb 350€

robbitop
2013-05-29, 17:13:15
Wobei man Tahiti Imho noch nicht mal als High End GPU bezeichnen kann (ist ja auch nur 365 mm² groß und das trotz GPGPU-Ballast).
Es sind immerhin Ansätze da. 384 bit SI, hohe aritmetische Rechenleistung. Aber das Front-End hällt das Ding in den meisten Benchmarks auf GK104 Level. In richtig Shaderlimitierten Szenen kann Tahiti schonmal 30 % davonziehen. GK110 natürlich noch mehr...

Mit 100 sqmm mehr hätte man eine echte High End Karte gehabt. Mit 365 sqmm war nicht mehr drin. Immerhin tastet AMD sich aber seit Generationen immer näher an die Regionen von High End ASICs heran.
Mit RV670 hat man ja bei 192 sqmm begonnen -> 250 sqmm -> 300 sqmm -> 350 sqmm -> 365 sqmm. Da sind noch gute 100 sqmm Luft. Wenn man sich GK110 anschaut sogar noch mehr...

boxleitnerb
2013-05-29, 17:24:19
VLIW<->SIMD

Äpfel<->Birnen

:rolleyes:

Brauchst nicht mit den Augen rollen, es war nur ein Beispiel. Du siehst ja an Kepler, dass mit dreifacher Rechenleistung zum Vorgänger nur doppelt soviel Leistung bei rumkommt. Solche Vergleiche machen wenig Sinn.

Knuddelbearli
2013-05-29, 17:37:17
Ja natürlich. AMD ist mit ihren vergleichsweise schwachen High End GPUs Schuld daran, dass NV Mainstreamchips zu Highendpreisen verkaufen kann und High End Chips zu doppelten High End Preisen.
Hätte es eine Radeon mit 4xx sqmm gegeben, wäre es wohl anders gelaufen. Wo keine Konkurrenz, da wird der Markt zum Verkäufermarkt.

war das jetzt ironisch gemeint? :confused:

Wenn nicht, du verurteilst wohl auch die Polizei wenn ein Mord passiert immerhin hätte sie es verhindern müssen! Kein wunder das man jemanden umbringt wenn keine Polizei da ist. :freak:

PCGH_Carsten
2013-05-29, 17:51:03
Ein nicht regulierter Markt funktioniert aber nunmal so. Du als Firma versuchst dein Produkt so teuer wie möglich zu verkaufen.

Nach dem verheerenden Preiskrieg in der letzten DX10-Generation hat AMD mit der 5800 das Preisniveau wieder auf rund 400 Euro angezogen. Die Karte war aufgrund der Lieferknappheit der 40nm-Wafer auch lange Zeit sehr preisstabil und Nvidia konterte ein halbes Jahr später mit einer etwas schnelleren Karte - zu einem höheren Preis (knapp 500 Euro).

Dann ging es einige Zeit so hin und her, Nvidia nahm immer 50-100 Euro mehr für ihr schnellstes Produkt als AMD. Zu GT200-, GF100- und GF110-Zeiten stand man dort mit einem >500mm²-Die gegen AMDs max. 384mm² kleine Chips.

Mit Kepler änderte sich das: Nvidia konnte AMDs High-Performance-Modell bereits mit dem GK104 Paroli bieten (+/-5% hin oder her) und kassierte entsprechend. Der High-End-Chip kam später und wurde teurer. Unproportional teurer, ja, aber darunter passt es insgesamt halbwegs. Wenn die Leute keine 400 Euro für eine GTX 680 zahlen würden und Nvidia+Partner darauf sitzen blieben, hätten sie den Preis gesenkt.

Knuddelbearli
2013-05-29, 17:54:35
liegt das Problem dann nicht eher an den Leuten die nur weill Nv draufsteht bereit sind merh zu zahlen? ;-)

Und die Schuld dem in die Schuhe schieben der immer dafür gesorgt hat das die Preise niedrig bleiben ( natürlich aber auch aus marttechnischen Eigeninteresse ) finde ich schon harten Tobak!

Nv erhöht deutlich die Preise ---> AMD ist Schuld
AMD erhöht geringfügig die Preise --> AMD ist Schuld

58x0 AMD kommt mit deutlich besseren P/L als NV, wodurch Verfügbarkeit knapp wird und Händler Gewinn abschöpfen ---> AMD ist Schuld
79x0 AMD kommt mit nur geringfügig bessere P/L alles NV, damit nicht wieder sofort alles ausverkauft ist ---> AMD ist Schuld
AMD bietet ein Spielbundle an worauf NV nachzieht ---> AMD ist Schuld ( da sie lieber die Preise senken sollen statt Spielebundles anzubieten )

Irgendwie zieht sich das wie ein Roter Faden bei 99% der User wie ein roter Faden durch jede Diskussion, egal was AMD macht sie sind Schuld.

Wenn NV abcasht ist doch wohl eher NV Schuld ( eher, nicht nur! ) AMD zwingt sie ja wohl kaum diese hohen Preise zu verlangen.

gnahr
2013-05-29, 17:56:35
was für ein problem?
wenn leute etwas kaufen, gibt es kein problem.
wen interessieren die, die nicht kaufen? danach richtet sich kein markt.

Knuddelbearli
2013-05-29, 18:08:33
Mit Kepler änderte sich das: Nvidia konnte AMDs High-Performance-Modell bereits mit dem GK104 Paroli bieten (+/-5% hin oder her) und kassierte entsprechend. Der High-End-Chip kam später und wurde teurer. Unproportional teurer, ja, aber darunter passt es insgesamt halbwegs. Wenn die Leute keine 400 Euro für eine GTX 680 zahlen würden und Nvidia+Partner darauf sitzen blieben, hätten sie den Preis gesenkt.

naja wirklich ändern tut sich da nichts, die Karten sind gleichgut.

man sieht ja an den kleineren Karten das P/L und P/W gleich ist. Thaiti ist nur größer und hungriger als GK104 aufgrund von GPGPU.
Statt möglichst effiziente Einheiten verbaut halt AMD möglichst viele, kommt aber am Ende aufs selbe raus.
Früher hatte AMD halt weniger GPGPU an Bord als NV und NV aufgrund des Hotclocks ein Verbrauchsproblem.

PCGH_Carsten
2013-05-29, 18:13:15
naja wirklich ändern tut sich da nichts, die Karten sind gleichgut.
Ja - und unter diesem Aspekt ist es doch eindeutig, dass robbitops Aussage nicht ironisch ist:
"AMD ist mit ihren vergleichsweise schwachen High End GPUs Schuld daran, dass NV Mainstreamchips zu Highendpreisen verkaufen kann und High End Chips zu doppelten High End Preisen."

prinz_valium
2013-05-29, 18:21:08
Es wird schon seit Jahren bei Computerteilen nicht mehr Euro zu Dollar 1:1 umgerecchnet. Jedesmal kommt in den ganzen Foren sind ja dann genauso viele Euro wie Dollar, aber wie du schon selber schreibst sind die Preise doch eher nen Stück niedriger als sogar der Umrechenkurs. Eigentlich ham wir so ziemlich die geringsten Hardwarepreise weltweit, weil die Margen der Händler hier am geringsten sind dank der Preisvergleiche. Wenn nur die Mehrwertsteuer nicht wäre.
Auf Dauer erwarte ich die Staffelung:
GTX780 550€
GTX770 4gb 450€
GTX770 2gb 350€

die 780 gibt es ja schon für 550 euro
habe eine bestellt, warte aber noch mit dem bezahlen, bis 770 erscheint

der aufpreis für das 4gb modell finde ich zu krass.
warum dann nicht gleich die viel schnellere gtx 780 kaufen? diese 100 euro mehr

aber die normale 2gb variante könnte schön ein p/l kracher sein. zumindest für full hd und im nvidia maßstab :D. ich denke das ist aber nicht zukunfssicher, nachdem jetzt beide konsolen mit 5gb für spiele daher kommen. (okay da muss man noch auf grafikram und normalen aufteilen, aber trotzdem)



leider geht die 780 mit refrenzkühler nicht ganz so gut was übertakten angeht. da erwarte ich von der 770 mit dem selben refrenzkühler deutlich mehr, da sehr viel kleinerer chip

ShinyMcShine
2013-05-29, 19:18:51
Von der GTX 770 von GigaByte sind jetzt Bilder geleakt. Sowohl bei CB (http://www.computerbase.de/news/2013-05/uebertaktete-gigabyte-geforce-gtx-770-mit-windforce-kuehler/) als auch HIER (http://www.techpowerup.com/forums/showthread.php?t=184639) einzusehen.

Und HIER (http://www.chiploco.com/gigabyte-geforce-gtx-770-windforce-oc-listed-24731/) wird von einer TDP von 195W geredet, wobei die Karte sogar übertaktet ist...

VG
Shiny

AnarchX
2013-06-05, 19:41:06
GTX 760 mit 256-Bit: http://wccftech.com/nvidia-geforce-gtx-760-spotted-computex-2013/

Rampage 2
2013-06-08, 20:19:48
Es bringen natürlich die Erhöhungen von Chip- und Speichertakt etwas, GK104 profitiert von Beidem. Wenn eine Erhöhung des Speichertakts um z.B. 20% tatsächlich in vollen 20% Performancezuwachs resultieren würde, dann wäre der Chip mehr als unausgewogen, das wäre sogar ein ziemlicher Fail. Imo kann man von ausgewogen sprechen, wenn eine Erhöhung des Chiptaktes etwas mehr bringt als eine Erhöhung des Speichertaktes, weil der Großteil der GPU-Transistoren eben mit Chiptakt schaltet und man dort den größten Aufwand reinsteckt.
Bei einem ausgewogenen Design erwarte ich bei einer Takterhöhung um 20% ca. 8% mehr Performance, wenn nur der Speichertakt erhöht wird, und ca. 11% mehr Performance, wenn nur der Chiptakt erhöht wird.

GK104 finde ich schon ziemlich ausgewogen.
Mein Tipp für die GTX 770 ist, dass sie im Schnitt knapp 5% schneller sein wird als die GTX 680, aber auf eine Erhöhung des Chiptaktes dankbar reagieren wird. Eine übertaktete GTX 770 wird mit dem 7-Gbps-Speicher schon ein paar Prozent oberhalb einer übertakteten GTX 680 liegen. Aber es wird imo nichts Dramatisches passieren, was einen GTX-680-Besitzer ins Grübeln bringen müsste.

Dann will ich mal einen Vergleich anstellen:

GTX 670: 224GB/sek. Bandbreite (optimaler Fall), 112 TMUs

-> wieviel Gigatexel/sek. (und dementsprechender Chiptakt) sollte sie (maximal) haben, um vollständig die erhöhte Speicherbandbreite (+17% gegenüber Standard-Takt) zu nutzen?

Jetzt dieselbe Frage zur GTX 770:

GTX 770: 256GB/sek. Bandbreite (optimaler Fall), 128 TMUs

-> wieviel Gigatexel/sek. (maximal) (und dementsprechender Chiptakt) , um vollständig die vorhandene Speicherbandbreite (14% mehr als Standard) auszunutzen?

Und die wichtigste Frage: Wieviel Prozent Mehrleistung würde ein GTX 770 (mit optimalen Taktfrequenzen) gegenüber einer GTX 670 (ebenfalls mit optimalen Taktfrequenzen) bringen (in etwa)?

Die letzte Frage ist dann auch der entscheidende Faktor, ob ich mir eine 770 oder doch nur eine 670 zulege...

fondness
2013-06-08, 20:48:13
Ja - und unter diesem Aspekt ist es doch eindeutig, dass robbitops Aussage nicht ironisch ist:
"AMD ist mit ihren vergleichsweise schwachen High End GPUs Schuld daran, dass NV Mainstreamchips zu Highendpreisen verkaufen kann und High End Chips zu doppelten High End Preisen."

Sehe ich nicht so. Wenn dann müsste man sagen AMD ist am hohen Preis der Titan schuld weil sie keine High-End-Chips mehr bauen. AMDs GPUs sind im Verhältnis zu Features und Die-Größe sicher nicht schwach, sie sind nur nicht mehr überlegen.

AMD baut schon lange keine High-End-Chips mehr. Allerdings hatte sie bis zu Kepler immer die deutlich effizienteren Chips, NV brauchte deutlich mehr Silizium für dieselbe Leistung. Deshalb war das kein großes Problem, jetzt ist es natürlich ein Problem. Dazu kommt noch das man die großen Sea Islands Chips gecancelt hat.

AnarchX
2013-06-17, 09:23:29
GPU-Z Screen der GTX 760: http://wccftech.com/nvidia-geforce-gtx-760-gpuz-screenshot-leaked-features-1152-cores-memory-clocked-7-ghz/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

Die 1152SPs würden zum niedrigen -225 Bin aus der Roadmap passen. Aber 7Gbps und 256-Bit wären schon etwas überraschend.

boxleitnerb
2013-06-17, 09:40:15
Damit dürfte die Karte wohl so schnell wie eine GTX670 werden, evtl. einen Tick schneller.

Nightspider
2013-06-17, 09:45:19
Die hat doch dann 14,3% weniger SPs als die 670.
Die müsste doch klar langsamer sein. :confused:

Und satte 25% weniger als die 680/770.

Hmm, okay. Dann hebt NV die Taktraten deutlich an.

ShinyMcShine
2013-06-17, 09:48:18
Der Rohdatenvergleich würde ja so aussehen:

670: 2.459 GFLOPs
760: 2.469 GFLOPs

670: 102.5 GTexel/s
760: 102.9 GTexel/s

670: 29.3 GPixel/s
760: 34.3 GPixel/s

670: 192 MB/s
760: 224 MB/s

Die 760 wird also schon schneller als die 670!

VG
Shiny

M4xw0lf
2013-06-17, 09:50:26
Die hat doch dann 14,3% weniger SPs als die 670.
Die müsste doch klar langsamer sein. :confused:

Und satte 25% weniger als die 680/770.

Ja. Eventuell gibts dann doch noch eine 760Ti (=670)...
Ah, hab übersehen dass doch ein ziemlich großer Taktunterschied besteht zwischen der GTX670 und der hier gezeigten 760 - das würde dann doch reichen umd die gleiche Leistung zu bekommen.

Raff
2013-06-17, 09:51:14
Fehlende Einheiten gleicht man idR durch Takt aus.

MfG,
Raff

Nightspider
2013-06-17, 09:53:22
Aber der Boost ist doch jetzt nur 5% höher oder?
1058 vs 1111

:ubash:

MadManniMan
2013-06-17, 10:42:21
Höherer Takt bei weniger Einheiten heißt aber zumeist auch mehr Verbrauch, richtig?

M4xw0lf
2013-06-17, 11:08:00
Absolut gesehen nicht unbedingt, aber relativ vermutlich schon -> niedrigere Effizienz also.

gnahr
2013-06-17, 11:39:57
es gibt immer einen sweet-spot für die taktraten den man nicht überschreiten will. wer von beiden nun wirklich drann oder drüber ist...
bei den unterschieden stehen hinten jetzt keine 20% mehrverbrauch oder so und bezüglich der maximal möglichen mittleren taktrate könnt ihr auch nur raten. :P

AnarchX
2013-06-19, 20:34:37
GPU-Z Screen der GTX 760: http://wccftech.com/nvidia-geforce-gtx-760-gpuz-screenshot-leaked-features-1152-cores-memory-clocked-7-ghz/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

Die 1152SPs würden zum niedrigen -225 Bin aus der Roadmap passen. Aber 7Gbps und 256-Bit wären schon etwas überraschend.

Wohl eine OC-Version. Der Standard liegt wohl nur bei 980/1033/1502MHz:
http://videocardz.com/43048/nvidia-geforce-gtx-760-final-specs-unveiled?utm_source=rss&utm_medium=rss&utm_campaign=nvidia-geforce-gtx-760-final-specs-unveiled

Nightspider
2013-07-03, 09:58:10
Nvidia soll ja bis Herbst keine neuen Grafikkarten herausbringen.

Erwartet uns also im Herbst (ab 22.September) ein Vollausbau des GK110?

Erwartet uns eine GTX 780 Ultra mit Vollausbau und schneller getaktetem VRAM?
Oder eine Nvidia GeForce Titan "Plus"?

Irgendwie muss Nividia ja kontern, falls AMD im Oktober eine neue HighEnd Grafikkarte mit Titan-Leistung auf den Markt bringt bzw. ankündigt.

Erwartet ihr einen weiteren Preisverfall? Ich mittelfristig schon, sonst könnte AMD in 20nm Grafikkarten herausbringen die billiger und schneller wären als Nvidias Karten in 28nm.
Denn im Moment dürfte Nvidias Margenaufschlag noch größer sein als der zukünftige Aufpreis bei 20nm.

Ich hoffe das die GTX780 noch 100-150 Euro bis Oktober im Preis sinkt.

AnarchX
2013-07-03, 10:14:58
Die Roadmap deutet ein stabiles Line-up für den Herbst (nicht bis zum Herbst) an: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_760/images/intro2.jpg

Eventuell nur ein paar Preissenkungen oder AMD passt sich mit Hawaii den GK110-Preisen an. :ugly:

Die wohl nun verfügbaren 4Gbit GDDR5 Chips dürften wohl auch ein paar zusätzliche SKUs erlauben. Vielleicht traut sich NV auch an einen Dual-Titan heran.

Nightspider
2013-07-03, 10:16:42
Dual-Titan mit GK110 Vollausbau für 1800 Euro als Schnapper? :ugly:

Skysnake
2013-07-03, 10:21:21
Entweder Titan mit Vollausbau, oder, was ich eher glaube, wenn man sich an die künstliche Beschneidung von Titan vor Augen führt, dann an eine Version die einfach mehr Takt hat.

Godmode
2013-07-03, 11:08:45
Beim Takt lässt sich wirklich sehr leicht was machen. Wenn man bedenkt das meine vier Karten mit ca. 1150 gelaufen sind, dann sollte sich locker eine Titan mit 1050 MHz basteln lassen. Der Kühler müsste halt noch verbessert werden, aber sonst wäre das wohl kein großes Ding.

boxleitnerb
2013-07-03, 11:36:18
Man muss eben das Power- und Temperaturtarget etwas verschieben oder die Lüfterkurve ändern. Nichts, was der Kunde nicht auch selbst kann.
Ich glaube nicht, dass von Nvidia dieses Jahr noch was kommt. Man hatte auch keinen Konter für die 7970 GHz und ist damit nicht übel gefahren.

Thunder99
2013-07-03, 11:41:32
Man muss eben das Power- und Temperaturtarget etwas verschieben oder die Lüfterkurve ändern. Nichts, was der Kunde nicht auch selbst kann.
Ich glaube nicht, dass von Nvidia dieses Jahr noch was kommt. Man hatte auch keinen Konter für die 7970 GHz und ist damit nicht übel gefahren.
Naja, war der Konter der GHz Ed. nicht die Titan gewesen? :D

Evt braucht nvidia gar kein Konter wenn AMD es nur schafft an die GTX Titan ran zu kommen?!

boxleitnerb
2013-07-03, 12:06:27
Ne, die 770 ist Konter für die GHz laut Preis und Folien. Titan spielt in einer anderen Liga, speziell wenn man sie von der Leine lässt. Ich denke wie gesagt nicht, dass Nvidia auf Teufel komm raus immer die schnellste GPU haben muss. Der Verlust des Titels ab Juni 2012 hat den Verkäufen nicht geschadet.

Timbaloo
2013-07-03, 12:58:41
Der Verlust des Titels ab Juni 2012 hat den Verkäufen nicht geschadet.
Das ist der Punkt. AMD muss mit irgendwas kommen, NV wartet ab und kann dann evtl. ihre finalen Specs anpassen wie damals die 680 auf die 7970.

Iruwen
2013-07-03, 13:03:59
Im Zweifelsfall nimmt man jetzt erstmal die dicken Gewinne mit und senkt den Preis der 780 bzw. bringt noch eine 780 mit höherem Referenztakt wenn AMD nachzieht.

Raff
2013-07-03, 13:27:22
Fakt ist nur eines: Der GK104 ist in seiner jetzigen Ausbaustufe an der Kotzgrenze, die Partnerkarten boosten mit bis zu 1,25 GHz bei 1,2 Volt und bis zu 260 Watt Spiele-Leistungsaufnahme. Beim GK110 hingegen hat Nvidia reichlich Spielraum, wobei hochgezüchtete 780-Karten auch schon gut Strom saufen und hoch takten.

MfG,
Raff

Timbaloo
2013-07-03, 13:37:28
Ein weiteres Update des GK104 hat ja auch nicht wirklich jemand erwartet.

Iruwen
2013-07-03, 13:54:32
Ich finds schon beeindruckend dass man sich traut mit den unveränderten 1,21V Karten die bis zu dem Takt boosten zu bringen, das ist beinahe das was meine Karte mit Mod BIOS in BF3 stabil packt (1280MHz).

Gaestle
2013-07-24, 10:16:18
Gab es hier schon die Meldung, das NV nun doch einen vollen Kepler im Quadro-Bereich bringt?

http://www.computerbase.de/news/2013-07/nvidia-kuendigt-flaggschiff-quadro-k6000-an/

2880SP, 900MHz, TDP 225W, 5,2 TFLOPS, 288GB/s

Duplex
2013-07-24, 10:23:42
Ja gestern auf der Startseite von 3DCenter, allerdings steht dort 885 MHz GPU.

Wenn im Desktop keine Dual Karte auf GK110 Basis kommt, dann könnte man den Vollausbau auch als GTX790 vermarkten.

M4xw0lf
2013-07-24, 10:24:41
Gab es hier schon die Meldung, das NV nun doch einen vollen Kepler im Quadro-Bereich bringt?

http://www.computerbase.de/news/2013-07/nvidia-kuendigt-flaggschiff-quadro-k6000-an/

2880SP, 900MHz, TDP 225W, 5,2 TFLOPS, 288GB/s

GK110-Vollausbau: Falsch im Salvage-Thread :tongue:

AnarchX
2013-07-24, 10:29:56
Interessant ist es ob hier eine neue Revision zum Einsatz kommt, aber dazu braucht es ein Bild ohne Kühler.

Eine 2880SPs Desktop-Karte wäre sicherlich ein Prestige-Objekt, aber ebenso wäre auch noch ein paar andere Desktop-SKUs denkbar ("GTX 785": 2688@950MHz + 6GiB@7Gbps @ ~$749 + "GTX 790": 2x2688SPs@850MHz +2x6GiB@6Gbps)


Wenn im Desktop keine Dual Karte auf GK110 Basis kommt, dann könnte man den Vollausbau auch als GTX790 vermarkten.
Eine 375W "Vesuvius" Dual-Hawaii-Lösung könnte aber hier wohl eine komfortablen Vorsprung erreichen.

Duplex
2013-07-24, 11:04:26
Interessant ist es ob hier eine neue Revision zum Einsatz kommt, aber dazu braucht es ein Bild ohne Kühler.
Mehr Shader & geringere Leistungsaufnahme als Titan?
Ein Schritt nochmal wie bei GF100 > GF110 wäre natürlich Super.


Eine 375W "Vesuvius" Dual-Hawaii-Lösung könnte aber hier wohl eine komfortablen Vorsprung erreichen.
Die 7990 hat auch ein Vorsprung aber kaufen tut die niemand.
Entscheidend ist immer das Gesamt Paket und hier hat AMD wegen der Leistungsaufnahme & Kühler gegenüber der GTX690 verschissen.

Duplex
2013-07-24, 11:12:32
Wer glaubt überhaupt daran das der GCN Nachfolger dieses Jahr besser als GK110 wird?
Evtl. wird man nur 15-20% auf die Ghz drauflegen, dann muss man wieder über den Preis konkurrieren, ich denke das Nvidia bereits weiß was AMD abliefern wird, mit der GTX780 müsste man bereits die richtige Einordnung geschaft haben, vielleicht hat AMD nach der GTX780 Vorstellung nochmal überlegt durch neues Binning den Takt etwas anzuheben.
Ein 450mm² DIE (44 CUs) der GK110 wegwischen wird erwarte ich nicht mehr.

V2.0
2013-08-21, 17:39:56
Gk204 is alive

Timbaloo
2013-08-21, 18:13:17
Das glaubst du doch nicht wirklich?

(del676)
2013-08-22, 08:39:52
Wer glaubt überhaupt daran das der GCN Nachfolger dieses Jahr besser als GK110 wird?
Evtl. wird man nur 15-20% auf die Ghz drauflegen, ....

Jajaja. Deshalb bastelt nvidia schon an der Antwort auf die HD9xxx Reihe? :lol:
http://www.computerbase.de/news/2013-08/nvidias-hawaii-antwort-angeblich-noch-dieses-jahr/

Bin mal gspannt wieviel die Titan Ultra dann kosten wird. :rolleyes:

Hugo78
2013-08-22, 12:27:32
Es wird kein GK110 Titan Ultra geben.
Denn Nvidia hat auch mehr Geforces verkauft, als AMDs 7970 GHz schneller als die GTX 680 war.

ShinyMcShine
2013-08-22, 12:38:15
Es wird kein GK110 Titan Ultra geben.
Denn Nvidia hat auch mehr Geforces verkauft, als AMDs 7970 GHz schneller als die GTX 680 war.

Da wär ich mir nicht so sicher. V.a. warum soll NVIDIA eine Ultra nicht bringen, wenn die Chips mittlerweile verfügbar sind? Klar, mit den Quadros macht man mehr Geld, aber ich denke da fallen alleine schon für's Prestige ein paar Chips für 'ne Ultra ab.

Darüber hinaus kann NVIDIA dafür ja verlangen "so viel sie wollen". Die Leute kaufen die Hardware, egal was AMD macht (das zeigt ja die Vergangenheit) und NVIDIA läßt sich das ja auch teilweise gut bezahlen. Würde ich auch so machen. ;)

Und man muss erstmal abwarten, was AMD bringt. Evtl. reicht auch ein voller GK110 mit noch höheren Taktraten gar nicht aus, um AMDs schnellste Karte zu schlagen...

Gk204 is alive

Wo hast Du das her? Gibt's 'ne Quelle dafür?

VG
Shiny

Godmode
2013-08-22, 12:43:56
D
Darüber hinaus kann NVIDIA dafür ja verlangen "so viel sie wollen". Die Leute kaufen die Hardware, egal was AMD macht (das zeigt ja die Vergangenheit) und NVIDIA läßt sich das ja auch teilweise gut bezahlen. Würde ich auch so machen. ;)

VG
Shiny

Ich würde gerne wieder mal eine AMD Karte verbauen, aber mir fehlen da drei für mich sehr wichtige Features:
1. 3D Vision
2. guter Multi GPU Support
3. AA Bits

boxleitnerb
2013-09-18, 14:52:38
Was mag das wohl sein?
http://videocardz.com/45653/mysterious-nvidia-graphics-card-sample-appears-online

AnarchX
2013-09-18, 14:55:35
Ein Validation Board, ähnlich dem vom User Loeschzwerg:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9709683#post9709683

Bei dem kleinen Kühler wird da wohl keine allzustarke GPU drauf sitzen.

boxleitnerb
2013-09-18, 15:01:49
Aber warum sollte das Top Secret sein, wenn man eh nicht ablesen kann, was es ist? Mit der Einladung muss es nicht unbedingt was zu tun haben, die könnte für was anderes sein. Da es allerdings offiziell verschickt wurde, ist es wohl nichts Altes wie z.B. GK208 oder sowas.

AnarchX
2013-09-18, 15:09:33
Die Einladung ist natürlich interessant.

Aber dem Prototyp würde ich keine zu große Bedeutung zumessen, eventuell ein Giveaway für die Vitrine eines NV-Fans.

AnarchX
2013-09-27, 10:33:56
AMD has announced its latest GPUs, the Radeon R9 and R7 series (Volcanic Islands), priced between US$89-299 and the GPUs are expected to bring pressure on Nvidia to offer price cuts in late November and release 1-2 new GPUs to defend the US$149-249 segment, according to sources from graphics card players.
http://www.digitimes.com/news/a20130927PD208.html

AnarchX
2013-09-29, 16:51:02
GTX 780i: 1920SPs@1033/1150MHz + 384-Bit@6Gbps? (http://www.enet.com.cn/article/2013/0929/A20130929317675.shtml)

http://images.enet.com.cn/2013/0929/23/r_4342960.jpg

horn 12
2013-09-29, 16:57:29
Gegenspieler für die R9 290
Wird aber bei weitem nicht reichen
R9 290 wird wohl etwas höher als GTX 780 werden!

PS: ausser Gegenspieler für R9 280X

Duplex
2013-09-29, 16:59:06
Ich würde die Karte "GTX770 TI" nennen.

boxleitnerb
2013-09-29, 17:00:21
Das ergibt irgendwie wenig Sinn. Die Karte wäre bei dem Takt fast genauso flott wie die 780.

AnarchX
2013-09-29, 17:00:39
780i klingt seltsam nach dem alten S.775 Chipsatz. Vielleicht wieder eine Karte ähnlich der Core 448 limitiert für das Weihnachtsgeschäft.

Duplex
2013-09-29, 17:03:35
Ersatz für GK114...
10 CUs mit 384 Bit SI.

Gaestle
2013-09-29, 17:05:17
Wenn es eine Art GK104 aber mit 6GPCs wäre, wäre das DIE möglicherweise kleiner als das einer GTX780. Dann wäre eine Preiskonkurrenz um die 350-400 Euro immer noch hochprofitabel.

boxleitnerb
2013-09-29, 17:07:01
Das ist sicher keine neue GPU. Bei Nvidia doch nicht :freak:
Die sollen lieber mal hinne machen und nen kleinen Maxwell mit 2000 SPs rausbringen als Ersatz für GK104-106.

Duplex
2013-09-29, 17:07:42
Bei 350-370mm² könnte man ein nativen 10 SMX Chip mit 384 Bit erwarten, aber wozu einen neuen Chip basteln, das kostet Geld & Entwickler Ressourcen.
Die aktuelle GTX7xx Serie wird noch als Update den GK110 Vollausbau hinzufügen, evtl. noch eine Dual GK110 Karte im Q1/14.

Kann mir vorstellen das man im Q3/2014 einen Maxwell Chip in 20nm sehen wird!

Gaestle
2013-09-29, 17:11:54
Welche Konstellation würde denn überhaupt zu 384bit, 48ROPs, 160TMUs und 1920SP führen?

Duplex
2013-09-29, 17:13:37
Das ist GK110 Basis, da wurden gegenüber der GTX780 2 SMX deaktiviert.

10SMX 1920 Shader
12SMX 2304 Shader
14SMX 2688 Shader
15SMX 2880 Shader

Gaestle
2013-09-29, 17:16:16
Danke. Haut das dann auch mit den anderen Daten hin? Der Vorteil für NV wäre dann lediglich Resteverwertung. Gibt das genug Marge?
Ist ein breiterer GK104 wirklich ausgeschlossen?

Duplex
2013-09-29, 17:17:33
Danke. Haut das dann auch mit den anderen Daten hin? Der Vorteil für NV wäre dann lediglich Resteverwertung. Gibt das genug Marge?
Wenn der Chip ca. 400 Euro kosten wird sehe ich kein Problem.

AnarchX
2013-09-29, 17:18:33
Charlie hatte mal einen GK114 ins Gespräch gebracht. Aber die Erkennung durch GPU-Z spricht wohl eher für eine bekannte GPU. Oder das ganze ist nur ein Fake.

Wobei ein limitierter GK110-Schrott-Abverkauf um die ~400€ sicherlich auch seine Kunden finden würde.;)

Gaestle
2013-09-29, 17:19:12
Aber die Reste müssen auch taktbar sein.

Duplex
2013-09-29, 17:20:51
Wozu soll man ein neues DIE mit 10 CUs aka GK114 basteln wenn man die SMX Blöcke deaktivieren kann? GF110 war ähnlich groß wie GK110, die kleinen Ableger aka GTX570 wurden auch billig verkauft und man hat trotzdem gute Margen gehabt.
Die Bezeichnung GTX780i ist aber merkwürdig, vielleicht gibt es demnächst eine GTX780 mit 2688 Shader & Titan mit 2880 Shader, mit >20% höheren Boost als Hawaii Antwort.

AnarchX
2013-09-29, 17:22:31
Aber die Reste müssen auch taktbar sein.
Wenn man einen Titan/7970GHz Verbrauch in Kauf nimmt, erreichen das sicherlich die meisten GPUs.

Ailuros
2013-09-29, 17:32:30
Wozu soll man ein neues DIE mit 10 CUs aka GK114 basteln wenn man die SMX Blöcke deaktivieren kann? GF110 war ähnlich groß wie GK110, die kleinen Ableger aka GTX570 wurden auch billig verkauft und man hat trotzdem gute Margen gehabt.
Die Bezeichnung GTX780i ist aber merkwürdig, vielleicht gibt es demnächst eine GTX780 mit 2688 Shader & Titan mit 2880 Shader, mit >20% höheren Boost als Hawaii Antwort.

Kommt drauf an wieviel ein IHV in solch einem Fall verkaufen will; ist man sich sicher dass die Nachfrage generell begrenzt sein wird dann kann man locker an die salvage Option denken.

Hat man aber um einiges groessere Volumen zu bedienen, verpasst Dir der 551mm2 grosse die dann irgendwann schon eine Kosten-Ohrfeige ueberhaupt wenn man um diese Sparte zu bedienen ueber 25% von diesem deaktivieren muss. Damit es in dem Fall ueberhaupt Sinn macht muesste NV unendliche GK110 wafer runs gemacht haben und eine Unmenge an Schrott-chips aufgepeilt haben welches auf total beschissene binning yields deuten wuerde.

Es waere zwar schoen wenn alles nur schwarz oder weiss waere aber das Zeug ist doch am Ende um einiges komplizierter.

Botcruscher
2013-09-29, 17:43:26
GF110 war ähnlich groß wie GK110, die kleinen Ableger aka GTX570 wurden auch billig verkauft und man hat trotzdem gute Margen gehabt. Vom Verwertungsgrad ist die 570 Titan, die 780 gab es schon nicht mehr und noch weniger Einheiten sind eigentlich Müllhalde. Wenn Titan demnächst auf die 500-600 geht ist kein wirklicher Platz mehr.

Skysnake
2013-09-29, 19:47:23
Wenn es eine Art GK104 aber mit 6GPCs wäre, wäre das DIE möglicherweise kleiner als das einer GTX780. Dann wäre eine Preiskonkurrenz um die 350-400 Euro immer noch hochprofitabel.
Ich denke eher, dass das der Anfall vom Abfall vom Abfall von GK110 ist.

Wenn der Chip ca. 400 Euro kosten wird sehe ich kein Problem.
So lange es wirklich Resteverwertung ist, spielt der Preis eigentlich keine Rolle. Ansonsten wäre das ZEug in dem Fall ja eh aufm Müll gelandet.

Kommt drauf an wieviel ein IHV in solch einem Fall verkaufen will; ist man sich sicher dass die Nachfrage generell begrenzt sein wird dann kann man locker an die salvage Option denken.

Hat man aber um einiges groessere Volumen zu bedienen, verpasst Dir der 551mm2 grosse die dann irgendwann schon eine Kosten-Ohrfeige ueberhaupt wenn man um diese Sparte zu bedienen ueber 25% von diesem deaktivieren muss. Damit es in dem Fall ueberhaupt Sinn macht muesste NV unendliche GK110 wafer runs gemacht haben und eine Unmenge an Schrott-chips aufgepeilt haben welches auf total beschissene binning yields deuten wuerde.

Es waere zwar schoen wenn alles nur schwarz oder weiss waere aber das Zeug ist doch am Ende um einiges komplizierter.
Das ist halt die Frage, wie groß die Menge ist, die Sie verkaufen wollen/müssen. Wenn es nur ein begrenztes Angebot sein soll, oder Sie halt schon von ANfang an gesammelt haben, und da auch genug Abfall dabei war, dann sollte da schon einiges zusammen gekommen sein.

Aber das ist halt alles nur reine Spekulation.

Nightspider
2013-09-29, 19:55:53
Gibts bisher eigentlich schon ein neues Stepping vom GK110?

Knuddelbearli
2013-09-29, 20:03:30

Nightspider
2013-09-29, 20:09:52
Ein Vollausbau GK110 würde sicherlich mit einem neuen Stepping kommen, falls es denn was bringen würde.
Dann wären vllt auch durchgehend 1,3Ghz möglich. :naughty:

Ailuros
2013-09-29, 20:45:14
Ein neues stepping wuerde unter normalen Umstaenden die binning yields verbessern und nicht verschlechtern ergo weniger potentielle cores bei denen mal 33% der SMXs abschalten muss theoretisch damit er funktioniert.


Das ist halt die Frage, wie groß die Menge ist, die Sie verkaufen wollen/müssen. Wenn es nur ein begrenztes Angebot sein soll, oder Sie halt schon von ANfang an gesammelt haben, und da auch genug Abfall dabei war, dann sollte da schon einiges zusammen gekommen sein.

Aber das ist halt alles nur reine Spekulation.

Wenn's ueberhaupt so ein Produkt geplant gibt dann wird es IMHO nur ein begrenztes Angebot im Ausverkauf sein. Natuerlich haben sie von Anfang der Produktion solche cores gesammelt aber sie haben eben NIE wirlich sehr grosse Mengen an GK110 wafer hergestellt.

Zusaetzliche wafer in die Produktion zu schicken nur fuer die Dinger klingt mir nach Bloedsinn.

Gaestle
2013-09-29, 21:47:38
Hältst Du denn einen verbreiterten GK104 für plausibler, oder ist Deiner Meinung nach die ganze Geschichte nur Fake?

Skysnake
2013-09-29, 21:57:56
Ein neues stepping wuerde unter normalen Umstaenden die binning yields verbessern und nicht verschlechtern ergo weniger potentielle cores bei denen mal 33% der SMXs abschalten muss theoretisch damit er funktioniert.



Wenn's ueberhaupt so ein Produkt geplant gibt dann wird es IMHO nur ein begrenztes Angebot im Ausverkauf sein. Natuerlich haben sie von Anfang der Produktion solche cores gesammelt aber sie haben eben NIE wirlich sehr grosse Mengen an GK110 wafer hergestellt.

Zusaetzliche wafer in die Produktion zu schicken nur fuer die Dinger klingt mir nach Bloedsinn.
Ja, dem schließe ich mich durchaus an. Nur wegen so krass beschnittenen DIEs nochmal Waferruns zu machen wäre total bescheuert.

Die Frage bleibt also, ob es eventuell eben nicht doch bei einem beschränkten Angebot bleibt, einfach um die Zeit bis Maxwell in den Köpfen der Leute etwas zu überbrücken.

Es reicht ja, wenn die Leute hoffen/denken da kommt ein tolles Angebot. Das verleitet viele zu warten.

Ailuros
2013-09-30, 11:04:50
Hältst Du denn einen verbreiterten GK104 für plausibler, oder ist Deiner Meinung nach die ganze Geschichte nur Fake?

Fanboys erfinden stets bunte Maerchen vor jedem launch des "anderen" IHVs; ausschliessen kann man den Fall auch nicht. Wie dem auch sei wenn es sich hypothetisch um einen begrenzten "Ausverkauf" a la GeForce 560Ti 448SP handeln wuerde dann macht der superkastrierte GK110 voll Sinn. Immer noch besser als wegschmeissen was immer sie bis jetzt angesammelt haben.

Kommt es jetzt zu anstaendig grossen Mengen von einer solchen GPU Loesung dann macht natuerlich ein GK1x4 auf steroids mehr Sinn, aber es bleibt dann auch wirklich dabei ob es wirklich die Rede wert ist die Luecke zwischen den heutigen GTX770 und GTX780 irgendwie zu fuellen.

V2.0
2013-09-30, 11:08:32
Ich würde diesen Chip GK204 nennen. Sinn macht er schon, weil er eine kleinere Diefläche bietet als GK110 und eben auch die Erfahrungen aus den alten Chips einbaut und so kleinere Problem lösen kann. Es ist einfacher einen 420mm² AMD Chip mit einem 400mm² Chip zu bekämpfen als mit einem 550mm².

AnarchX
2013-10-01, 08:46:30
Bilder eines geheimen NV BIOS Tools?
http://www.chiphell.com/thread-868609-1-1.html
Man spekuliert sogar darüber, dass man die dedizierten FP64-ALUs für 3D freischalten kann.
Titan: 2688SPs -> 3584SPs.

Die Infos hat getwinder aber wohl wieder bei der koreanischen Seite abgegriffen, die eine passwortgeschützten Artikel hatte:
"Titan as Workstation card - FP64 uncapped", der mittlerweile nur noch "Project "AAWC"" heißt.

boxleitnerb
2013-10-01, 09:55:11
Das ist ja interessant. Sollte das gehen, wäre das nicht eine Möglichkeit für Nvidia, eine Titan mit 3072 oder mehr SPs bei niedrigerem Takt zu ermöglichen, ohne groß binnen zu müssen?

Ailuros
2013-10-01, 10:24:48
Das ist ja interessant. Sollte das gehen, wäre das nicht eine Möglichkeit für Nvidia, eine Titan mit 3072 oder mehr SPs bei niedrigerem Takt zu ermöglichen, ohne groß binnen zu müssen?

Damit es der Rede wert wird, muessten sie IMHO alle 15 SMXs und alle FP64 SPs theoretisch einschalten.

3840SPs@730MHz = 5606 GFLOPs
2880SPs@850MHz = 4896 GFLOPs

Fuer die These wuerde ich aber auch dann 7.0Gbps GDDR5 vorschlagen und da wo sie total sinnlos wird ist was passiert wenn Hawaii nun doch 1:2 haben sollte.

boxleitnerb
2013-10-01, 10:31:24
Dann haben die, die auf eine billige Tesla spekulieren, halt Pech ;)
Ich kapiere sowieso nicht, warum Nvidia das erlaubt hat mit dem vollen DP.

Aber würde es gehen, dass man die DP-Einheiten zuschalten kann, hätte Nvidia es doch sicher schon gemacht. Schließlich dürfte die Effizienz durch den niedrigen Takt und die niedrige Spannung nochmal steigen. Glaube aber nicht, dass das Frontend soviele Einheiten auslasten kann. Titan skaliert im Gegensatz zur 780 nicht perfekt. Ob es eher an der Speicherbandbreite, der Pixelfüllrate (4 von 5 GPCs aktiv) oder sonstwas liegt, ist aber weiterhin unklar.

Ailuros
2013-10-01, 10:35:40
Dann haben die, die auf eine billige Tesla spekulieren, halt Pech ;)
Ich kapiere sowieso nicht, warum Nvidia das erlaubt hat mit dem vollen DP.

Um den obszoenen MSRP fuer Titan zu gerechtfertigen vielleicht? :P

Aber würde es gehen, dass man die DP-Einheiten zuschalten kann, hätte Nvidia es doch sicher schon gemacht. Schließlich dürfte die Effizienz durch den niedrigen Takt und die niedrige Spannung nochmal steigen.

Um wieviel wird die insgesamte Effizienz steigen bei schaetzungsweise ~15% mehr FLOPs? Das meisste wirst Du dann eher der ~+15% Bandbreite zuschreiben muessen die ich oben draufgeschmissen habe.

boxleitnerb
2013-10-01, 10:41:32
Um den obszoenen MSRP fuer Titan zu gerechtfertigen vielleicht? :P


Die Gamer interessiert diese Rechtfertigung aber nicht :tongue:


Um wieviel wird die insgesamte Effizienz steigen bei schaetzungsweise ~15% mehr FLOPs? Das meisste wirst Du dann eher der ~+15% Bandbreite zuschreiben muessen die ich oben draufgeschmissen habe.

Ich meinte Energieeffizienz. Oder denkst du, die mögliche Energieersparnis durch den niedrigeren GPU-Takt wird 1:1 vom Mehrverbrauch durch die 7 Gbps Speicher aufgefressen?

Ailuros
2013-10-01, 11:00:32
Die Gamer interessiert diese Rechtfertigung aber nicht :tongue:

Es hat sich auch keiner gezwungen den Tausender auf den Ladentisch zu legen.

Ich meinte Energieeffizienz. Oder denkst du, die mögliche Energieersparnis durch den niedrigeren GPU-Takt wird 1:1 vom Mehrverbrauch durch die 7 Gbps Speicher aufgefressen?

Ich bin zu faul die Seite in einen online translator zu schmeissen aber ich bezweifle dass man sooo leicht die FP32 und FP64 ALUs zusammen einschalten kann. Ich lass mich natuerlich eines besseren belehren.

Von dem abgesehen bei einem hypothetischen <750MHz Takt duerfte es insgesamt kein Problem sein selbst mit 7 Gbps GDDR5.

Gipsel
2013-10-01, 11:00:37
Man spekuliert sogar darüber, dass man die dedizierten FP64-ALUs für 3D freischalten kann.
Titan: 2688SPs -> 3584SPs.Das ist höchstwahrscheinlich einfach Schwachsinn. Wenn das so viel bringt, ist das im K20 längst aktiviert. Da läuft man vermutlich schlicht in Limits bezüglich der Registerbandbreite, so daß das sowieso nicht dauerhaft zu halten wäre (und die Issuebandbreite wird bei realem Code außerhalb theoretischer Tests auch knapp, da darf man dann keinen Speicherzugriff und gar nichts anderes mehr machen [was bisher sowohl bei Kepler als auch GCN anders ist]). Mal ganz davon abgesehen, daß die DP-Einheiten völlige Verschwendung sind, wenn man es hinterher sowieso wieder auf Floats runterbricht. Man braucht sogar extra Logik, um die Konversion on-the-fly zu machen, nur existiert die vermutlich gar nicht, es ist also praktisch nicht wirklich nutzbar, selbst wenn sich da irgendwas zusätzlich aktivieren ließe (denn auf Kepler kann man sehr wohl gleichzeitig SP- und DP-Instruktionen absetzen, nur bringt das halt für 3D nicht wirklich was).
=> zu >95% Bullshit

Ailuros
2013-10-01, 11:02:18
Das ist höchstwahrscheinlich einfach Schwachsinn. Wenn das so viel bringt, ist das im K20 längst aktiviert. Da läuft man vermutlich schlicht in Limits bezüglich der Registerbandbreite, so daß das sowieso nicht dauerhaft zu halten wäre (und die Issuebandbreite wird bei realem Code außerhalb theoretischer Tests auch knapp, da darf man dann keinen Speicherzugriff und gar nichts anderes mehr machen [was bisher sowohl bei Kepler als auch GCN anders ist]). Mal ganz davon abgesehen, daß die DP-Einheiten völlige Verschwendung sind, wenn man es hinterher sowieso wieder auf Floats runterbricht. Man braucht sogar extra Logik, um die Konversion on-the-fly zu machen, nur existiert die vermutlich gar nicht, es ist also praktisch nicht wirklich nutzbar, selbst wenn sich das aktivieren ließe.
=> zu >95% Bullshit

Was wohl heisst dass wenn man theoretisch auf einer Tesla FP32 mit FP64 mischt das Ganze wohl nur auf den FP64 SPs ablaeuft?

Gipsel
2013-10-01, 11:04:24
Was wohl heisst dass wenn man theoretisch auf einer Tesla FP32 mit FP64 mischt das Ganze wohl nur auf den FP64 SPs ablaeuft?Nein, wieso? Die SP-Instruktionen machen SP und die DP-Instruktionen machen DP. SP hat halt höheren Durchsatz, auch bei gemischtem Betrieb.

Ailuros
2013-10-01, 11:25:33
Dann hab ich mich einfach bei Deinem vorigen Post verlesen.

Skysnake
2013-10-01, 12:51:18
Nein, wieso? Die SP-Instruktionen machen SP und die DP-Instruktionen machen DP. SP hat halt höheren Durchsatz, auch bei gemischtem Betrieb.
Und genau deswegen halte ich die dedizierten DP-Units noch immer für PR-Bullshit von nVidia. Es macht einfach keinen Sinn...

Ailuros
2013-10-01, 12:58:37
Und genau deswegen halte ich die dedizierten DP-Units noch immer für PR-Bullshit von nVidia. Es macht einfach keinen Sinn...

Ist es eben nicht und schon gar nicht weil es Dir nicht Sinn macht.

Skysnake
2013-10-01, 13:17:24
Dann bring doch mal logisch nachvollziehbare Argumente, wie man den zusätzlichen Verdrahrungsaufwand kompensieren will, und gleichzeitig auch noch den bei dedizierten Einheiten größeren Aufwand, da man ja die Addierer und Multiplizierer aus SP nicht teilweise reusen kann.

Nochmals:

Addiere/Subtrahieren:
-SP:23x23 Add
-DP:52x52 Add

Multiplizieren:
-SP: 23x23 Mul & 8x8 Add
-DP: 52x52 Mul & 11x11 Add

Warum in Gottes Namen sollte man also die SP Addierer und Multiplizierer nicht nutzen, und "einfach" noch die noch benötigten Bits dranhängen?

Also genau das was schon seit Jahr(zehnt)en macht.

dedizierte DP-Einheitne musst du ja komplett neu verdrahten! Sorry, aber bis nVidia nicht das Gegenteil bewiesen hat, also dass Sie die Transistoren der SP-Units GAR NICHT! mitverwenden um DP-Operationen auszuführen, glaub ich denen das einfach nicht.

Für mich schreit das nach normalem PR-FU. Denn natürlich braucht man dedizierte Transistoren, um DP zu implementieren. Das macht aber noch lange keine dedizierten DP-Einheiten aus. PR-Abteilungen sehen das natürlich gern anders.

Ailuros
2013-10-01, 14:59:56
Wir haben das Thema etliche Male wiedergekaut in der Vergangenheit und man spart zwar nicht an die area damit aber an Stromverbrauch schon und das letzte ist der springende Punkt hier. Muessen wir den Quark wirklich nochmal durch den Dreck ziehen nur weil Du es besser wissen willst als die eigentlichen engineers die das Ding entwickelt haben?

Skysnake
2013-10-01, 15:13:02
Wenn die Aussage konkret und ohne "Hintertür" von nem Ingi kommen würde, würde ich mich damit auch zufrieden geben, aber nicht son löchriger PR-FU.

Das Problem ist ja eben, das man durch dedizierte Einheiten die mittlere Leitungslänge erhöhen wird, und auf den Leitungen verbrät man massig Energie. Das Thema hatten wir ja auch schon...

Das sind halt zwei Dinge, die sich gegenseitig Auschließen: kurze mittlere Leitungslänge <-> dedizierte Einheiten

Auf der einen Seite spart man Energie, auf der anderen verbrät man Sie wieder.

Hätten wir ein niedrigtaktendes SFF-Design, würde ich mir das irgendwo noch angehen lassen, zumal die Dinger eben an sich relativ klein sind, aber nicht bei nem Monsterchip ala GK110. Sorry, aber bisher hab ich noch kein stichhaltigen Beweis dafür gesehen, das es wirklich komplett dedizierte DP-Units sind, bei denen man die SP-Transistoren nicht reused.

Wenn es stichhaltige Beweise gibt, oder sich nen Ingi hin stellt, und klar genau! das sagt, dann immer her mit den Quellen. Aber auf den PR-FU geb ich in diesem Punkt rein gar nichts...

AnarchX
2013-10-04, 20:31:35
GTX 780i: 1920SPs@1033/1150MHz + 384-Bit@6Gbps? (http://www.enet.com.cn/article/2013/0929/A20130929317675.shtml)

http://images.enet.com.cn/2013/0929/23/r_4342960.jpg

Möglicherweise Launch am 16/17 Oktober: http://www.sweclockers.com/nyhet/17706-nvidia-forbereder-nytt-geforce-med-gk110

Und dann noch einen "günstigen" 3GiB Titan.

AnarchX
2013-10-05, 12:46:18
GK180?

http://wccftech.com/nvidia-preparing-gk180-based-tesla-k40-atlas-gpu-4-teraflops-compute-performance/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

Der schwirrte in der Gerüchteküche schon ein paar Monate herum:
http://tieba.baidu.com/p/2479051208
http://www.bycare.cn/thread-9100-1-1.html
http://hardforum.com/showthread.php?p=1040215506#post1040215506

Vielleicht ist das auch die Basis der >1GHz GTX 780i - ein optimiertes GK110-Stepping mit mehr Taktpotential? Bei Quadro K6000 wurde auch schon der GK180 vermutet. Bisher gab es leider noch keinen PCB-Shot.

Der Codenamen könnte nahelegen, dass es vielleicht später auch eine GeForce GTX Atlas (2880SPs, 12GiB) gibt.

Zergra
2013-10-05, 13:07:54
Würde soviel Vram die GPU nicht eher behindern ? :D

Hugo78
2013-10-05, 13:09:47
Wäre natürlich spannend, nochmal 20% mehr Speed bei gleicher TDP, dazu nochmal 15-30% OC Potential.
An 12GiB für ne Geforce glaub ich aber nicht, nicht vor 2015.

AnarchX
2013-10-05, 13:11:49
Würde soviel Vram die GPU nicht eher behindern ? :D
Eventuell gäbe es da einen gewissen Verwaltungsoverhead.

Vom Kundenstandpunkt wären wohl 6GiB@7Gbps sinnvoller, damit hätte man mehr Bandbreite (336GB/s) und mehr Speicher als aktuell für die R9 290X (4GiB, 320GB/s) spekuliert wird.

Wäre natürlich spannend, nochmal 20% mehr Speed bei gleicher TDP, dazu nochmal 15-30% OC Potential.

20% sind wohl etwas sehr optimistisch, aus den vorhandenen Daten wären wohl 10% mehr schon ein guter Wert.

boxleitnerb
2013-10-05, 13:13:42
6 GB reichen aus, 12 GB machen die Karte nur unnötig teuer. Dann lieber 7 Gbps Speicher verwenden.

Warst schneller ;)

Zergra
2013-10-05, 13:29:24
Eventuell gäbe es da einen gewissen Verwaltungsoverhead.

Vom Kundenstandpunkt wären wohl 6GiB@7Gbps sinnvoller, damit hätte man mehr Bandbreite (336GB/s) und mehr Speicher als aktuell für die R9 290X (4GiB, 320GB/s) spekuliert wird.

Okay danke

Coda
2013-10-05, 13:35:28
Klingt nach einer neuen Revision von GK110 mit fehlerbereinigtem PCIe 3.0 und paar Tweaks. Falls es kommen sollte.

Für HPC macht vor allem das PCIe Sinn, deshalb könnte das durchaus sein.

Duplex
2013-10-05, 13:41:22
Die neuen Bezeichnugen sind Negativ, GTX780 & Titan Besitzer haben dann wieder alte Karten...

Nightspider
2013-10-05, 13:59:28
Was war nochmal am PCI-Express 3.0 fehlerhaft?

Timbaloo
2013-10-05, 14:02:57
Die neuen Bezeichnugen sind Negativ, GTX780 & Titan Besitzer haben dann wieder alte Karten...
Was soll man denn sonst machen? Keine neuen Karten rausbringen? Zählrichtung ändern? :freak:

ndrs
2013-10-05, 14:10:31
Zählrichtung ändern? :freak:
GTX One :D

boxleitnerb
2013-10-05, 14:17:05
Was ist dieses SXM bei der K40?

Timbaloo
2013-10-05, 14:26:30
Nur ein anderer Formfaktor.

Skysnake
2013-10-05, 16:58:48
Klingt nach einer neuen Revision von GK110 mit fehlerbereinigtem PCIe 3.0 und paar Tweaks. Falls es kommen sollte.

Ich dachte immer PCI-E 3.0 hätte keine Fehler :tongue:;D

Ansonsten, ja, das sieht wirklich wie nen Bugfixing aus. Wobei ich sagen muss, für einen Chip, der so spät erst kam, und man so viel Erfahrung gesammelt hat, ist es doch schon sehr überraschend. Gut PCI-E 3.0 hatte wohl wirklich ne Macke weg, aber sonst?

Ich bin mal gespannt, was da noch kommt.

Für HPC macht vor allem das PCIe Sinn, deshalb könnte das durchaus sein.
Definitiv. Aktuell ist das eigentlich echt ein Nachteil von nVidia, dass die kein PCI-E 3.0 haben. Intel hats ja aber im Moment auch nicht, und AMD hat zwar PCI-e 3.0 geht mit der S10000, die am interessantesten ist, aber auf die 300W zu...

Was ist dieses SXM bei der K40?
SXM ist ein anderer Formfaktor. Quasi so was ähnliches wie man auch in Laptops findet.

Die Stromversorgung erfolgt quasi über den "PCI-E"-Slot und die Karte sind halt höher aber dafür kürzer.

EDIT:
So wie das hier etwa:
http://extreme.pcgameshardware.de/user-news/229348-neue-bilder-von-xeonphi-pcb-denseformfactor-und-pci-e.html

AnarchX
2013-10-05, 17:14:11
Hier wird auch eine Tesla Atlas genannt: http://sctemm.s-vfu.ru/ru2013/wp-content/uploads/2013/07/LuchininNY_HP.pdf

Aber die Codenamen-Wahl bei NV wird immer interessanter. Warum nicht GK200? Oder hat der GK208 dem GK180 noch etwas vorraus?

Hugo78
2013-10-05, 17:35:35
20% sind wohl etwas sehr optimistisch, aus den vorhandenen Daten wären wohl 10% mehr schon ein guter Wert.

7% mehr ALUs und bei den Nvidiatypischen 1006 MHz hat man 20% mehr Basistakt (ggü. 837MHz vom Titan).

fondness
2013-10-05, 17:56:49
7% mehr ALUs und bei den Nvidiatypischen 1006 MHz hat man 20% mehr Basistakt (ggü. 837MHz vom Titan).

Bei der selben TDP und mehr ALUs würde ich maximal vom selben Takt ausgehen. Die TFLOP-Angaben von NV sind auch sehr vorsichtig.

Hugo
2013-10-05, 18:02:10
Hier wird auch eine Tesla Atlas genannt: http://sctemm.s-vfu.ru/ru2013/wp-content/uploads/2013/07/LuchininNY_HP.pdf

Aber die Codenamen-Wahl bei NV wird immer interessanter. Warum nicht GK200? Oder hat der GK208 dem GK180 noch etwas vorraus?

Wenn NV beim alten Schema bleibt, dann müßte er GK210 heißen und nicht GK200 oder? Aber das sind ja nur Namen ;)

wer weiß was am GK208 noch anders ist. Gibts den irgendwo Details zum GK208?
Kommt er irgendwann auf den Markt oder ist der nur im Labor?

boxleitnerb
2013-10-05, 18:05:38
GK110 ist alt. Mit ein bisschen Binning kann man da sicher auch an die 900 MHz reinpacken in 250W. Siehe K6000, da geht es sogar bei 225W.

AnarchX
2013-10-05, 18:13:31
Wenn NV beim alten Schema bleibt, dann müßte er GK210 heißen und nicht GK200 oder? Aber das sind ja nur Namen ;)

wer weiß was am GK208 noch anders ist. Gibts den irgendwo Details zum GK208?
Kommt er irgendwann auf den Markt oder ist der nur im Labor?
Kaufbar: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542452
Bietet neben eine überdurchschnittlichen Pro-Watt-Leistung auch die Möglichkeit mit GK110-Features (CC3.5) zu experimentieren.


GK110 ist alt. Mit ein bisschen Binning kann man da sicher auch an die 900 MHz reinpacken in 250W. Siehe K6000, da geht es sogar bei 225W.
Die K6000 wurde für den Herbst angekündigt. Eventuell ist da auch der GK180 drauf. Wenn auch die Device-ID für eine simple GK110-Revision spricht.

Spasstiger
2013-10-05, 19:15:36
Die Quadro K6000 hat auch PCIe 3.0, spricht also klar für den fehlerbereinigten Chip.

Raff
2013-10-05, 19:29:21
Inwiefern beeinträchtigt das PCIe-3-Problem aktuelle GK110-Karten auf kompatiblen Boards?

MfG,
Raff

Coda
2013-10-05, 19:36:29
Ich dachte immer PCI-E 3.0 hätte keine Fehler :tongue:;D
Selbst wenn sie sich eigentlich an die Specs gehalten haben und es Probleme mit Kooperation mit anderen Chips gibt würde es sich lohnen es zu beheben.

Blaire
2013-10-05, 19:45:25
Inwiefern beeinträchtigt das PCIe-3-Problem aktuelle GK110-Karten auf kompatiblen Boards?


GK110 hat keine Probleme, sonst würde man es wohl kaum im aktuellen Beta-Treiber freischalten (für Ivy-E zumindest). ;)

boxleitnerb
2013-10-05, 19:50:04
GK110 hat keine Probleme, sonst würde man es wohl kaum im aktuellen Beta-Treiber freischalten. ;)

Bei meinen Titanen ist immer noch PCIe 2.0 mit dem 331.40.
Nur aus Interesse: Warum jetzt erst freischalten und nicht schon bei Launch?

Skysnake
2013-10-05, 19:56:15
Inwiefern beeinträchtigt das PCIe-3-Problem aktuelle GK110-Karten auf kompatiblen Boards?

MfG,
Raff
Ganz einfach, es ist ein Glücksspiel ob PCI-E 3.0 mit SB-E zusammen funktioniert. Obs mit IB-E jetzt anders aussieht kann ich dir leider nicht sagen. Aber genau aus dem Grund hat sich nVidia entschieden bei den Teslas auch nur PCI-E 2.0 zu supporten, weil Sie ansonsten nen Arsch voll RMA gehabt hätten...

Der "Hack" für den Desktop-Versionen denk ich limitiert die maximale Packagesize. Müsste man aber mal ausmessen, ohne entsprechende HArdware geht das aber halt schwer ;D

Selbst wenn sie sich eigentlich an die Specs gehalten haben und es Probleme mit Kooperation mit anderen Chips gibt würde es sich lohnen es zu beheben.
Definitiv, mich hats nur gewundert, dass das halt auch mal jemand anderes sagt, dass da was "kaputt" ist. Sonst hab ich dafür ja immer nur "Schläge" bezogen....

GK110 hat keine Probleme, sonst würde man es wohl kaum im aktuellen Beta-Treiber freischalten. ;)
GK110 hat in Zusammenspiel mit SB-E gewaltige Probleme, daher hat nVidia, wie bereits zich mal gesagt, auch nur PCI-E 2.0 bei den Teslas aktiviert.

Blaire
2013-10-05, 20:02:50
Bei meinen Titanen ist immer noch PCIe 2.0 mit dem 331.40.
Nur aus Interesse: Warum jetzt erst freischalten und nicht schon bei Launch?

Für Ivy-E war natürlich gemeint, habs noch ergänzt und diese wurden ja erst vorgestellt, daher erst jetzt nativer Support.

Raff
2013-10-05, 23:18:09
Und wie sieht's bei anderen Chipsets aus, etwa Z77/87 (oder PLX-basiert wie bei meinem Brett :D)? Mein Stand ist, dass da alles ordnungsgemäß läuft.

MfG,
Raff

Sven77
2013-10-05, 23:26:41
Bei mir zeigt GPU Z PCIe 3.0 an, aktueller Beta Treiber, Arschrock Z77

Rente
2013-10-06, 00:30:44
Bei mir läuft meine GTX670 auch schon seit Ewigkeiten mit PCIe3.0 (AsRock Z77 Extreme4), allerdings betraf das Problem wohl auch hauptsächlich die E-Plattform und Serverboards.

Coda
2013-10-06, 01:43:51
Definitiv, mich hats nur gewundert, dass das halt auch mal jemand anderes sagt, dass da was "kaputt" ist. Sonst hab ich dafür ja immer nur "Schläge" bezogen....
Beziehst du auch weiterhin, weil ich nicht unbedingt davon ausgehe, dass etwas auf ihrer Seite kaputt ist. Manchmal muss man halt auch die Fehler der anderen ausbaden.

Ronny145
2013-10-06, 01:59:31
Das betraf nur die Consumer Plattform. SB-EP ist ganz offiziell zu PCIe 3.0 fähig.

Nightspider
2013-10-06, 03:32:06
Gab es innerhalb der letzten 1,5 Jahre eigentlich mal einen Benchmark mit Multi-GPU zwischen PCI-E 2.0 und 3.0 oder noch besser zwischen mainstream Mainboards die bei SLI nur mit PCIe8X angebunden sind?

boxleitnerb
2013-10-06, 08:19:33
Beziehst du auch weiterhin, weil ich nicht unbedingt davon ausgehe, dass etwas auf ihrer Seite kaputt ist. Manchmal muss man halt auch die Fehler der anderen ausbaden.

Interessant, darfst du dazu mehr sagen? Klingt so, als hätte Intel es verbockt. Wobei dann die Frage wäre, warum AMDs Karten 3.0 zertifiziert sind. Kann es theoretisch mit denen bei SB-E auch diese Probleme geben, nur hat sich keiner drum gekümmert und es ist bisher nie oder extrem selten aufgetreten, weshalb man davon nichts gelesen hat?

Skysnake
2013-10-06, 10:25:42
Beziehst du auch weiterhin, weil ich nicht unbedingt davon ausgehe, dass etwas auf ihrer Seite kaputt ist. Manchmal muss man halt auch die Fehler der anderen ausbaden.
Ich hab nie gesagt, das nVidia allein Schuld sei. ;) Ganz im Gegenteil. Sowohl Intel als auch nVidia haben sich ja scheinbar an die Specs gehalten, nur "anders interpretiert", was dann halt im Zusammenspiel zu Problemen führt. Wies auch sei. Da haben sich beide nicht mit ruhm bekleckert.

Interessant, darfst du dazu mehr sagen? Klingt so, als hätte Intel es verbockt. Wobei dann die Frage wäre, warum AMDs Karten 3.0 zertifiziert sind. Kann es theoretisch mit denen bei SB-E auch diese Probleme geben, nur hat sich keiner drum gekümmert und es ist bisher nie oder extrem selten aufgetreten, weshalb man davon nichts gelesen hat?
Naja, die Desktop SB-E liefen eh nur mit PCI-E 2.0 ;)

Das "lustige" ist, das kommt direkt von nem großen Systemseller, das SB-E Xeons! mit K20(x) durchaus unter PCI-E 3.0 liefen. Es ist halt nur reines Glücksspiel.

Hat man eine Kombination aus GPU, MB und CPU, die auf 3.0 läuft und tauscht eins der Teile, kanns passieren, das es nicht mehr mit 3.0 läuft... Gerade die MBs haben schon allein Probleme gemacht. Zwei absolut identsiche MBs, und eins geht und das andere nicht... Kannst also wüfeln, wenn du wissen willst ob etwas geht.

Das hat dann dazu geführt, das nVidia auf 2.0 runter ist, weil es ansonsten den übelsten Shitstorm gegeben hätte. Wer am Ende "Schuld" ist, ist schwer zu sagen. nVidia wird ihren Teil dazu beigetragen haben, aber auch Intel. Da befürchte ich, dass die Vorgaben an die MBs nicht 100% koschwer waren. Der Systemseller selbst meinte, das eventuell die Specs an sich nicht 100% Wasserdicht sind, bzw. dahingehend auslegbar, das es im Extremum halt nicht mehr sicher funktioniert.

Was es war ist am Ende auch egal. Auf den SB-E Xeons läuft PCI-E 3.0 wie es scheint ansonsten ohne Probleme und nVidia ist halt auf 2.0 runter gegangen, um dem Problem aus dem Weg zu gehen. Von daher eigentlich keine Probleme.

EDIT:
Und bzgl AMD:
Nein, da gibt es die Probleme nicht.
Es gibt also zwei Möglichkeiten.
1. Intel ist ganz allein Schuld und AMD hat einfach genug Puffer um das aus zu gleichen
2. Intel und nVidia haben beide ein bischen Schuld und im Zusammenspiel gibts dann halt Probleme

Ich war und bleib bei Variante zwei. Das ist für mich die wahrscheinlichste, da die Leute bei Intel und nVidia wissen was Sie machen und keiner einfach so einen derartig dicken Bock schießen würde.

Blaire
2013-10-06, 10:34:03
Und wie sieht's bei anderen Chipsets aus, etwa Z77/87 (oder PLX-basiert wie bei meinem Brett :D)? Mein Stand ist, dass da alles ordnungsgemäß läuft.


Für z77/87 auf jeden Fall auch, 990FX keine Ahnung.

Skysnake
2013-10-06, 11:13:22
Haste auch mal die Bandbreiten gemessen? ;)

PCI-E 3.0 ist nicht gleich PCI-E 3.0 Die Packagesize ist auch entscheidend. Ist die nämlich zu klein, biste selbst mit PCI-E 3.0 im Zweifel nicht schneller als mit PCI-E 2.0

Coda
2013-10-06, 11:20:50
Interessant, darfst du dazu mehr sagen? Klingt so, als hätte Intel es verbockt. Wobei dann die Frage wäre, warum AMDs Karten 3.0 zertifiziert sind. Kann es theoretisch mit denen bei SB-E auch diese Probleme geben, nur hat sich keiner drum gekümmert und es ist bisher nie oder extrem selten aufgetreten, weshalb man davon nichts gelesen hat?
Ich weiß auch nicht mehr als du.

fondness
2013-10-06, 11:35:43
Beziehst du auch weiterhin, weil ich nicht unbedingt davon ausgehe, dass etwas auf ihrer Seite kaputt ist. Manchmal muss man halt auch die Fehler der anderen ausbaden.

Faktum ist erstmal, dass es auf allen AMD-Karten auf allen Plattformen problemlos läuft. Warum sollte man davon ausgehen, dass das Problem wo anders wie bei NV liegt? Es ist auf jeden Fall die wahrscheinlichste Variante. Wenn Intel Mist gebaut hat bleibt noch immer die Frage warum AMD keine Probleme hat, die hatten auch nicht mehr Zeit zu reagieren als NV, ganz im Gegenteil, Tahiti war der erste PCIe3.0-Chip, GK110 kam fast ein Jahr später.

boxleitnerb
2013-10-06, 12:25:26
Wäre das Problem nur bei NV, warum ist es dann bei Ivy-E freigeschaltet? Das ergibt keinen Sinn.

fondness
2013-10-06, 13:15:13
Wäre das Problem nur bei NV, warum ist es dann bei Ivy-E freigeschaltet? Das ergibt keinen Sinn.

Im professionellen Bereich ist die Karte nur für PCIe2.0 freigegeben, mehr gibt es dazu nicht zu sagen. Bei den Privatleute kann man viel "freischalten". Ob das dann wirklich in allen Fälle mit vollen Speed läuft wird niemand kontrollieren. Ivy-E erlaubt womöglich sauberere Signalflanken, wodurch man die Probleme zum teil kaschieren kann - aber für eine Freigabe im professionellen Bereich reicht es auch hier nicht.

Intel bringt auch keine neue Chipsatz-/ CPU-revision oder dergleichen heraus. Gäbe es dort einen Fehler wurde man das zumindest dokumentieren und die Chips im professionellen Bereich nicht für PCIe3.0 freigeben, aber angesichts dessen, das die Probleme nur bei Nvidia auftreten gibt es wenig Gründe zur Annahme, dass der Fehler wo anders liegt. Auch wenn das manche nicht wahr haben wollen.

mironicus
2013-10-06, 13:24:04
Faktum ist erstmal, dass es auf allen AMD-Karten auf allen Plattformen problemlos läuft. Warum sollte man davon ausgehen, dass das Problem wo anders wie bei NV liegt? Es ist auf jeden Fall die wahrscheinlichste Variante. Wenn Intel Mist gebaut hat bleibt noch immer die Frage warum AMD keine Probleme hat, die hatten auch nicht mehr Zeit zu reagieren als NV, ganz im Gegenteil, Tahiti war der erste PCIe3.0-Chip, GK110 kam fast ein Jahr später.

Jeder baut halt mal Mist, aber so richtig wichtig ist dieser Fehler bisher nicht. Es gibt ja praktisch keinen Unterschied in der Geschwindigkeit.

Egal ob ich eine 7970 auf einen P67 oder einen Z77-Board stecke, schneller werden die Spiele dadurch nicht.

gnahr
2013-10-06, 13:27:24
es ist ja nichtmal klar ob überhaupt irgendwo mist gebaut wurde... fond geht davon aus (inklusive einer einseitigen beschuldigung), bleibt aber den beweiss schuldig. wer weiß welche leichen amd im keller hat, mit den specs der slots hatten sie ja schon mal ärger.

fondness
2013-10-06, 13:30:26
Jeder baut halt mal Mist, aber so richtig wichtig ist dieser Fehler bisher nicht. Es gibt ja praktisch keinen Unterschied in der Geschwindigkeit.

Egal ob ich eine 7970 auf einen P67 oder einen Z77-Board stecke, schneller werden die Spiele dadurch nicht.

Ich habe ja auch nicht behauptet dass das irgendwo limitiert.

boxleitnerb
2013-10-06, 13:31:00
Im professionellen Bereich ist die Karte nur für PCIe2.0 freigegeben, mehr gibt es dazu nicht zu sagen. Bei den Privatleute kann man viel "freischalten". Ob das dann wirklich in allen Fälle mit vollen Speed läuft wird niemand kontrollieren. Ivy-E erlaubt womöglich sauberere Signalflanken, wodurch man die Probleme zum teil kaschieren kann - aber für eine Freigabe im professionellen Bereich reicht es auch hier nicht.

Intel bringt auch keine neue Chipsatz-/ CPU-revision oder dergleichen heraus. Gäbe es dort einen Fehler wurde man das zumindest dokumentieren und die Chips im professionellen Bereich nicht für PCIe3.0 freigeben, aber angesichts dessen, das die Probleme nur bei Nvidia auftreten gibt es wenig Gründe zur Annahme, dass der Fehler wo anders liegt. Auch wenn das manche nicht wahr haben wollen.

Warte doch erstmal ab, ob die alten Teslas nicht auch bei Ivy-E auf 3.0 freigeschaltet werden. Ob die AMDs mit vollem PCIe 3.0 Speed laufen oder da auch an der Paketgröße bei SB-E was verändert wird, ist ebenfalls nicht bekannt. Die einseitigen Beschuldigungen ohne Hintergrundinfos sind jedenfalls fehl am Platz. Auch wenn du Nvidia immer gerne an allem allein die Schuld geben willst.

fondness
2013-10-06, 13:42:15
Warte doch erstmal ab, ob die alten Teslas nicht auch bei Ivy-E auf 3.0 freigeschaltet werden. Ob die AMDs mit vollem PCIe 3.0 Speed laufen oder da auch an der Paketgröße bei SB-E was verändert wird, ist ebenfalls nicht bekannt. Die einseitigen Beschuldigungen ohne Hintergrundinfos sind jedenfalls fehl am Platz. Auch wenn du Nvidia immer gerne an allem allein die Schuld geben willst.

Es ist eher umgekehrt, für dich sind immer die anderen Schuld, nur nicht NV. Ich bewerte nur die Fakten. AMD, Intel (Xeon Phi) Karten sind durchgehend für PCIe3.0 freigegeben - auf allen Plattformen. NV hat hier Probleme und braucht fast ein Jahr um manche Karten für manche Plattformen angeblich für PCIe3.0 "freizuschalten" und Schuld sind angeblich die anderen? Bitte wenn du das glauben willst. Für mich ist hier EOD, bringt eh nichts. Ich finde es nur seltsam was hier für Theorien heraus gekramt werden.

boxleitnerb
2013-10-06, 13:46:46
Es ist eher umgekehrt, für dich sind immer die anderen Schuld, nur nicht NV. Ich bewerte nur die Fakten. AMD, Intel (Xeon Phi) Karten sind durchgehend für PCIe3.0 freigegeben - auf allen Plattformen. NV hat hier Probleme und braucht fast ein Jahr um manche Karten für manche Plattformen angeblich für PCIe3.0 "freizuschalten" und Schuld sind angeblich die anderen? Bitte wenn du das glauben willst. Für mich ist hier EOD, bringt eh nichts. Ich finde es nur seltsam was hier für Verschwörungstheorien heraus gekramt werden.

Falsch. Ich habe mich nie festgelegt, wer (alleinige) Schuld trägt. Ich schieße mich lediglich nicht auf eine Partei ein, ohne alle Infos zu haben. Und die "Fakten" sind recht oberflächlich für uns Laien. Wir kennen die Hintergründe nicht und wissen auch nicht, was diese Zertifizierung letztendlich wert ist und ob nicht dieselben Probleme auch bei anderen IHVs auftreten könnten. Mit Verschwörungstheorie hat das auch nichts zu tun, sondern mit Urteilen ohne umfangreiche Kenntnis der gesamten Sachlage zu haben wie du es tust.

mironicus
2013-10-06, 14:11:10
NVidia hat halt seine eigene Auffassung von Standards. Ausbaden müssen es dann die Mainboardhersteller mit angepassten Bios-Versionen. :D

Man kann Probleme immer leicht von sich selbst auf andere schieben in der Hardwareindustrie. :D

boxleitnerb
2013-10-06, 14:24:31
S.o. Ohne detaillierte Infos kann man behaupten, was man will - es muss nicht zwangsläufig stimmen.

ndrs
2013-10-06, 14:25:01
Es gibt ja praktisch keinen Unterschied in der Geschwindigkeit.
[...] schneller werden die Spiele dadurch nicht.
Allerdings ist GK110 nicht aussschließlich für Spiele gedacht :) Bei gewissen HPC-Workloads kann die Schnittstelle durchaus limitieren.

mironicus
2013-10-06, 14:32:51
Der Ursprung des Problems liegt bei NVidia. Sie haben die Karten entwickelt und auf den Markt gebracht. Es gibt ein Gegenbeispiel (AMD) wo es funktioniert und das schon deutlich länger.

Das spricht dann logischerweise nicht für NVidia. Der Grund ist (für mich) dann egal, da ist halt was schief gelaufen.

boxleitnerb
2013-10-06, 14:48:31
Der Ursprung des Problems liegt bei NVidia. Sie haben die Karten entwickelt und auf den Markt gebracht. Es gibt ein Gegenbeispiel (AMD) wo es funktioniert und das schon deutlich länger.

Das spricht dann logischerweise nicht für NVidia. Der Grund ist (für mich) dann egal, da ist halt was schief gelaufen.

Aber bei dem Gegenbeispiel ist eben nicht klar, ob das auch immer problemlos läuft (mit vollem Speed), Zertifizierung hin oder her. Und ebenfalls ist nicht klar, ob - wie schon vermutet wurde - die Spezifikationen wasserdicht sind oder nicht und hier evtl. Interpretationsspielraum bestanden hat. Von daher kann man das Problem nicht automatisch Nvidia zuschieben.

Skysnake
2013-10-06, 15:03:25
Im professionellen Bereich ist die Karte nur für PCIe2.0 freigegeben, mehr gibt es dazu nicht zu sagen. Bei den Privatleute kann man viel "freischalten". Ob das dann wirklich in allen Fälle mit vollen Speed läuft wird niemand kontrollieren. Ivy-E erlaubt womöglich sauberere Signalflanken, wodurch man die Probleme zum teil kaschieren kann - aber für eine Freigabe im professionellen Bereich reicht es auch hier nicht.

Wollte ich schon lange mal testen. Ohne Hardware ist das halt nur schwer möglich. Ich hab ja in meinem kleinen Benchtool nen PCI-E Bandwidth-Test mit drin für unterschiedliche Buffergrößen. Da sollte man sehr schön sehen können, wie groß die Packetgrößen sind, sofern man das nicht anderweitig, z.B. über BIOS, in erfahrung bringen kann.

Ich hatte ja vor Monaten dazu mal ne Anfrage an die Leute mit SB-E (mit/ohne Xeons) und GK110 bzw Tahiti gestellt. Da kam aber nie was.


Intel bringt auch keine neue Chipsatz-/ CPU-revision oder dergleichen heraus. Gäbe es dort einen Fehler wurde man das zumindest dokumentieren und die Chips im professionellen Bereich nicht für PCIe3.0 freigeben, aber angesichts dessen, das die Probleme nur bei Nvidia auftreten gibt es wenig Gründe zur Annahme, dass der Fehler wo anders liegt. Auch wenn das manche nicht wahr haben wollen.
Intel kann sich im Zweifel aber auch hinstellen und sagen: Leuts wir halten uns an die Specs aus unserer Sicht, und wenn ihr damit ein Problem habt, dann ist das EUER Problem!

Das Problem ist ja, das sich da wohl ziemlich lange drüber gestritten wurde, wer denn nun dran schuld sei. Am Ende ist, so vermute ich mal, nVidia einfach eingeknickt und hat klein beigegeben.

Jeder baut halt mal Mist, aber so richtig wichtig ist dieser Fehler bisher nicht. Es gibt ja praktisch keinen Unterschied in der Geschwindigkeit.

Egal ob ich eine 7970 auf einen P67 oder einen Z77-Board stecke, schneller werden die Spiele dadurch nicht.
Tellerrand und so...

Es gibt durchaus genug Bereiche, wo man sich über die zusätzliche Bandbreite freuen würde...

Es ist eher umgekehrt, für dich sind immer die anderen Schuld, nur nicht NV. Ich bewerte nur die Fakten. AMD, Intel (Xeon Phi) Karten sind durchgehend für PCIe3.0 freigegeben - auf allen Plattformen.
XeonPhi (KNF/KNC/MIC) haben KEIN! PCI-E 3.0... Das sind nur PCI-E 2.0 Karten. Das ist ja das lächerliche. Intel hat im Profibereich PCI-E 3.0 Platform, aber keine Devices die das nutzen können, und AMD hat Devices aber keine Platform und nVidia hat gar kein PCI-E 3.0 im Profibereich.


NV hat hier Probleme und braucht fast ein Jahr um manche Karten für manche Plattformen angeblich für PCIe3.0 "freizuschalten" und Schuld sind angeblich die anderen? Bitte wenn du das glauben willst. Für mich ist hier EOD, bringt eh nichts. Ich finde es nur seltsam was hier für Theorien heraus gekramt werden.
Wie gesagt, es ist nicht klar, ob nVidia schuld ist oder nicht. Deswegen hat sich das auch so ewig hingezogen. Am Wahrscheinlichsten ist, das irgend ein CornerCase in den Specs nicht abgedeckt ist und es daher zu Problemen gekommen ist.

Der Ursprung des Problems liegt bei NVidia. Sie haben die Karten entwickelt und auf den Markt gebracht. Es gibt ein Gegenbeispiel (AMD) wo es funktioniert und das schon deutlich länger.

Ja, AMD ist aber im Allgemeinen recht konservativ. Das sieht man ja immer wieder, dass Sie Potenzial ungenutzt lassen. nVidia baut da eher Sachen auf Naht. Da ist die Gefahr, das es zu so einem Problem im Zusammenspiel aus CPU, MB und GPU zu Problemen kommt halt größer.


Das spricht dann logischerweise nicht für NVidia. Der Grund ist (für mich) dann egal, da ist halt was schief gelaufen.
Natürlich nicht, das Intel PCI-E auf dem Desktop aber nicht aktiviert hat auch nicht gerade...

Aber bei dem Gegenbeispiel ist eben nicht klar, ob das auch immer problemlos läuft (mit vollem Speed), Zertifizierung hin oder her. Und ebenfalls ist nicht klar, ob - wie schon vermutet wurde - die Spezifikationen wasserdicht sind oder nicht und hier evtl. Interpretationsspielraum bestanden hat. Von daher kann man das Problem nicht automatisch Nvidia zuschieben.
Also eins kann ich sagen. Bzgl AMD scheint es wirklich zu 100% zu funktionieren. Zumindest wurde mirgegenüber auf eine entsprechende Nachfrage bei einem Dritten klar abgewiegelt, das es ähnliche Probleme geben würde.

Was aber der eigentlich wirklich interessante Punkt ist, wie soll es denn nach PCI-E 3.0 weiter gehen, wenn PCI-E 3.0 schon solche Probleme macht ;) Denkt mal drüber nach.

Loeschzwerg
2013-10-07, 07:27:21
Was aber der eigentlich wirklich interessante Punkt ist, wie soll es denn nach PCI-E 3.0 weiter gehen, wenn PCI-E 3.0 schon solche Probleme macht ;) Denkt mal drüber nach.

Puhh man könnte endlich mal x24 bzw. x32 Slots einsetzen, würde die Problematik etwas entschärfen ^^
Vorgesehen sind diese Varianten zumindest in den Specs und genügend Lanes haben sämtliche modernen Systeme auch.

V2.0
2013-10-07, 08:04:41
Hier wird auch eine Tesla Atlas genannt: http://sctemm.s-vfu.ru/ru2013/wp-content/uploads/2013/07/LuchininNY_HP.pdf

Aber die Codenamen-Wahl bei NV wird immer interessanter. Warum nicht GK200? Oder hat der GK208 dem GK180 noch etwas vorraus?

Es sind noch mehr Kepplers im Rennen als viele glauben. GK180 ist ein Bugfix, GK208 ein neuer Chip. (wenn auch relativ ähnlich zum GK107 aber eben - 50% der ROPs und des Speicherinterfaces)

Hugo
2013-10-07, 08:19:53
Kaufbar: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542452
Bietet neben eine überdurchschnittlichen Pro-Watt-Leistung auch die Möglichkeit mit GK110-Features (CC3.5) zu experimentieren.


thx @AnarchX
GK208 is ganz an mir vorbei gegangen ;)
Woher kommt die bessere Pro-Watt-Leistung?
Hat NV nur den GK208 gebastelt oder gibts auch Gerüchte über GK204/206?
Ich weiß ist nur ein Codename aber, warum eigentlich GK208 und nicht GK118?

Skysnake
2013-10-07, 10:46:55
Puhh man könnte endlich mal x24 bzw. x32 Slots einsetzen, würde die Problematik etwas entschärfen ^^
Vorgesehen sind diese Varianten zumindest in den Specs und genügend Lanes haben sämtliche modernen Systeme auch.
Nein danke, da verzichte ich doch im Allgemeinen. :tongue:

Das wäre einfach zu fett. Vielleicht mit PCI-E 4.0, wenn Sie einfach nichts halbwegsbezahlbares für PCI-E 5.0 hinbekommen, aber ansonsten seh ich da eher keine Chancen für. Dafür ist das einfach ZU! weit weg vom Mainstream.

Loeschzwerg
2013-10-07, 11:14:38
Einfach wird es mit der Version 4.0 sicherlich nicht, man will ja den Datendurchsatz verdoppeln zu 3.0 und dabei die Kosten möglichst gering halten.
Sprich rauf mit dem Takt und evtl. noch ein wenig Optimierung beim Protokoll. Möglicherweise wird es dann aber Einschränkungen beim PCB Design geben.

Die Slotlänge bei x32 geht eigentlich noch, zumindest für ATX/µATX:
http://www.electronicproducts.com/images2/incd14_dec2009.gif

Aber ok, genug OT :D

Mal schauen ob wir den GK180 im Mainstream Markt sehen werden. Als Prestige Objekt kann ich mir das Teil schon vorstellen.

Skysnake
2013-10-07, 11:23:45
PCI-E 4.0 wird kürzere Leitungen haben. Das ist bereits jetzt klar. Darum hat man sich ja bei 3.0 mit biegen und brechen gedrückt! Der Umstieg von 8/10 Bit Coding auf 128/130 Bit Coding wurde ja genau deswegen eingeführt. Man kann dadurch die Taktraten niedriger halten und kommt ohne aktive Repeater und teurere PCBs aus.

Für PCI-E 4.0 ist man da aber weit weg von. Es sollen ja nur noch die ersten 1 bis maximal 4 Slots direkt ansprechbar werden und alles andere dann über aktive Repeater laufen.

Das wird dem ATX-Format einen ziemlich heftigen Schlag versetzen. Ich denke es werden dann noch viel mehr Leute auf Mini-/µ-ATX umsteigen.

Loeschzwerg
2013-10-07, 11:33:36
Ja, ATX wird durch die nötigen Repeater dann natürlich teuerer. Wobei man theoretisch auch mit Fallback auf Gen 3.0 arbeiten könnten, also die unteren Slots nur mit 3.0 anfährt.

Für mich ist dieses Format aber eh schon fast gelaufen, zumindest im Hinblick auf den Mainstream Markt.

Ailuros
2013-10-07, 15:25:33
thx @AnarchX
GK208 is ganz an mir vorbei gegangen ;)
Woher kommt die bessere Pro-Watt-Leistung?
Hat NV nur den GK208 gebastelt oder gibts auch Gerüchte über GK204/206?
Ich weiß ist nur ein Codename aber, warum eigentlich GK208 und nicht GK118?

Wenn ich mich nicht irre hat der GK208 nur 2 quad TMUs anstatt 4 bei allem GK1xx.

Leonidas
2013-10-12, 08:34:48
Wäre schön, wenn man endlich mal bestätigen könnte.

AnarchX
2013-10-12, 09:39:03
[General] as saying last night Montenegro giant giant made ​​a GTX 780i's GPU-Z screenshot

Before they have a message about the GTX 780i/770 Ti, may be used GK110 or GK114, 1920 Nuclear (imitating domestic mobile phone manufacturers say 233,333) Here is before eNet (or other sites have, who cares) to get, should also be the same Model

http://img819.imageshack.us/img819/1303/acjj.jpg (http://imageshack.us/photo/my-images/819/acjj.jpg/)

Last night Montenegro giant giant also made such a figure, the name recognition is a GTX 780i, the frequency is also improved a lot, is estimated to deal with the flagship, right next door

It is said that there will be a GTX 860 Ti's name?
http://bbs.expreview.com/thread-57519-1-1.html

fondness
2013-10-12, 09:43:37
Also die Yieldraten bei GK110 scheinen wirklich schrottig zu sein wenn so ein Ding kommt. Dürfte wohl auch kein Zufall sein, dass man für einen vollen Chip wie schon bei Fermi wieder ein neues Die (GK180) benötigt. Auch ist mir nicht ganz klar gegen was die Karte antreten soll, eine große Lücke ist Leistungsmäßig zwischen GTX770 und GTX780 auch nicht vorhanden.

Knuddelbearli
2013-10-12, 14:10:00
naja frage ist halt was ist günstiger für 20 Mio und 6 Monate Vorlaufzeit ein neuer Chip oder ein verkrüppelter GK110 bei dem man pro Karte statt 250$ 150$ Gewinn macht und der nur 1-2 Monate dauert

Durch die wenigen Shadern bei zugleich hohen Takt gibt es auch keine kannabilsierung durch OC

Spasstiger
2013-10-12, 14:24:11
Mit 1200 MHz Boost-Takt spielt auch diese kastrierte Variante auf dem Niveau einer Titan @ default mit und könnte somit der Kontrahent der Radeon R290X sein.

Leonidas
2013-10-12, 14:51:03
Also die Yieldraten bei GK110 scheinen wirklich schrottig zu sein wenn so ein Ding kommt. Dürfte wohl auch kein Zufall sein, dass man für einen vollen Chip wie schon bei Fermi wieder ein neues Die (GK180) benötigt. Auch ist mir nicht ganz klar gegen was die Karte antreten soll, eine große Lücke ist Leistungsmäßig zwischen GTX770 und GTX780 auch nicht vorhanden.


Das wird sehr gern falsch verstanden. Die 780i hat mehr Rohleistung als die 780, ist also gleiches Leistungsniveau bzw. minimal besser. Sprich: Höchstwahrscheinlich keine neue Karte irgendwo zwischen 770 und 780, sondern höchstwahrscheinlich ein glatter Ersatz der 780.

LSSJBroly
2013-10-12, 15:22:48
Das wird sehr gern falsch verstanden. Die 780i hat mehr Rohleistung als die 780, ist also gleiches Leistungsniveau bzw. minimal besser. Sprich: Höchstwahrscheinlich keine neue Karte irgendwo zwischen 770 und 780, sondern höchstwahrscheinlich ein glatter Ersatz der 780.

Wobei das Ding von der Rohleistung eher der GTX Titan gleicht (GTX 780i @1150MHz - 4.416GFLOP/s vs 4.500GFLOP/s der Titan @837MHz) - dann eben mit nur 3GiB, daher nochmal bei gleicher Rechenleistung im schnitt knapp +2% schneller (da weniger verwaltungsaufwand) und somit +/- genau auf GTX Titan niveau.

Sicherlich wird das Ding aber alles andere als effizient.

Nightspider
2013-10-12, 15:25:49
Hoffentlich setzt NV trotzdem noch eine Titan Ultra an die Spitze, damit die Preise insgesamt noch ein Stückchen gedrückt werden.

dildo4u
2013-10-12, 15:34:48
Titan Ultra drück gar nix die ersetzt einfach Titan und ist oben alleine,genau wie Intels 6 Cores.

Knuddelbearli
2013-10-12, 15:47:40
Titan wird dann günstiger! Dann bekomme ich endlich für 450e meine titan ^^

gibt sicher genug Deppen Verrückte die von Titan auf Titan Ultra aufrüsten

dildo4u
2013-10-12, 15:49:10
Titan wird dann günstiger! Dann bekomme ich endlich für 450e meine titan ^^

gibt sicher genug Deppen Verrückte die von Titan auf Titan Ultra aufrüsten
Titan läuft zu 100% aus,ich glaube kaum das es von den Karten so viel Lagerware gibt,das die Preise massiv sinken.

Knuddelbearli
2013-10-12, 15:51:49
meinen 2ten Satz überlesen?
meine natürlich gebraucht!

Ailuros
2013-10-12, 16:50:11
Titan wird dann günstiger! Dann bekomme ich endlich für 450e meine titan ^^

gibt sicher genug Deppen Verrückte die von Titan auf Titan Ultra aufrüsten

Nur wird es nichts geben dass Ultra heisst :biggrin::P

Nightspider
2013-10-12, 17:01:05
Irgendwie müsste Nvidia zumindest ein Vollausbau namentlich abgrenzen, falls denn einer kommt.

Ailuros
2013-10-12, 17:21:23
Titan with Cheese (tm) :biggrin:

do you want fries with it?

Timbaloo
2013-10-12, 17:30:37
"Oliver Kahn Edition" :P

Nightspider
2013-10-12, 17:42:04
Dann eher Titan 4K Edition, dann hoffentlich mit HDMI 2.0^^

mac_skull
2013-10-12, 17:45:57
Wäre es nicht irgendwie sinnvoller sich eine normale GTX 780 zuzulegen als diese i Version?
Wenn diese mit solch hohen Taktraten kommt, dürfte das OC Potential doch gegen Null gehen, oder? Zumindest dürfte es aber doch deutlich schwächer sein als das einer 780, womit diese rein theoretisch die bessere Karte darstellen dürfte, zumindest in der Form etlicher Customdesigns, die ja bereits übertacktet sind und dank guter Kühlung darüber hinaus noch Reserven haben.
Habe ich also einen Denkfehler, oder ist die normalem 780 der neuen i Karte wirklich vorzuziehen?

MfG

boxleitnerb
2013-10-12, 17:50:53
Hast schon Recht, da wird nicht mehr viel gehen. Eine normale GTX 780 wäre sinnvoller.

Nightspider
2013-10-12, 18:19:55
Man kann nur hoffen das Nvidia diesen 3fach beschnittenen GK110 Chip für höchstens 500 Euro auf den Markt bringt.
Imo brauch Nividia eh noch eine sinnvolle Karte im ~430-480 Euro Bereich.

Ist eigentlich bald mit einer HDMI 2.0 Integration zu rechnen? Oder müsste direkt der GPU Chip dafür kompatibel sein?
Falls man dafür nur einen anderen Chip auf der Platine auflöten müsste könnte es ja bald die ersten HDMI 2.0 Karten geben.

Leonidas
2013-10-13, 18:29:33
Wobei das Ding von der Rohleistung eher der GTX Titan gleicht (GTX 780i @1150MHz - 4.416GFLOP/s vs 4.500GFLOP/s der Titan @837MHz) - dann eben mit nur 3GiB, daher nochmal bei gleicher Rechenleistung im schnitt knapp +2% schneller (da weniger verwaltungsaufwand) und somit +/- genau auf GTX Titan niveau.


Kommt auf die Taktraten an. Zu 1033 MHz (erste Meldung) ist es Niveau 780, zu 1150 MHz natürlich viel schneller. Wobei ich mir 1150 MHz als default-Taktrate kaum vorstellen kann. Ist eher eine Übertaktung oder ab-Werk-Übertaktung.

LSSJBroly
2013-10-13, 18:48:33
Kommt auf die Taktraten an. Zu 1033 MHz (erste Meldung) ist es Niveau 780, zu 1150 MHz natürlich viel schneller. Wobei ich mir 1150 MHz als default-Taktrate kaum vorstellen kann. Ist eher eine Übertaktung oder ab-Werk-Übertaktung.

Ich hab mich ja nur auf den zweiten GPU-z screen bezogen. Mit 1.033MHz basistakt hat man ja +/- genau die selbe Grund-Rechenleistung wie die 780, wie du schon geschrieben hast:)


Ich sehe halt immer noch keinen Sinn darin, einen GK110 mit weniger Einheiten stock so schnell oder schneller als eine normale GTX 780 werden zu lassen - das geht doch mit mehr Shader + weniger Takt deutlich effizienter. Und so schlecht sind ist die Ausbeute des GK110 doch sicherlich nicht, dass man nun keine (kaum noch) 12SMX Chips mehr hat :fresse:

Logisch wäre es eigentlich nur, den 10SMX-Chip mit z.B. ~915MHz Basistakt takten zu lassen und den dann genau zwischen die GTX 770 und 780 zu plazieren - genug Platz ist ja da noch vorhanden.

Leonidas
2013-10-14, 12:28:58
Bei solchen Vorab-GPU-Z-Screenies muß man einfach mit manuell oder ab Werk übertakteten Karten rechen. War bei der 280X nicht anders.

Gaestle
2013-10-15, 13:44:02
Irgendwie müsste Nvidia zumindest ein Vollausbau namentlich abgrenzen, falls denn einer kommt.

Der Name ATLAS war mal irgendwo in der Gerüchteküche.

AnarchX
2013-10-15, 17:55:15
Treiber für K40:

NVIDIA_DEV.1024 = "NVIDIA Tesla K40c"

NVIDIA_DEV.1024.0983.103C = "NVIDIA Tesla K40c "

http://forums.laptopvideo2go.com/topic/30502-nvidia-quadrotesla-driver-33147/

Der Name ATLAS war mal irgendwo in der Gerüchteküche.
Ist wohl ein offizieller Codenamen den NV mit seinen Partner kommuniziert. Und der Name eines bekannten Titans und einer der ersten Super-Computer.

Ailuros
2013-10-15, 18:31:00
Der Name ATLAS war mal irgendwo in der Gerüchteküche.

Wann kommt ZEUS an die Reihe? :P

aufkrawall
2013-10-15, 18:32:17
Wann kommt ZEUS an die Reihe? :P
BigM für olympische 2000 Tacken. :D

Ailuros
2013-10-15, 18:44:03
Blah zum mythologischen Duenschiss und daemlichen Goetter-Namen.

M4xw0lf
2013-10-15, 19:18:24
Blah zum mythologischen Duenschiss und daemlichen Goetter-Namen.
Und das von dir, als Griechen? Ich bin entsetzt :biggrin:

AnarchX
2013-10-15, 22:48:20
PC Perspective
Upcoming Events

10/21 @ 11:00am PDT / 2:00pm EDT
Super Secret NVIDIA Live Stream

http://www.pcper.com/

Hugo78
2013-10-15, 23:04:31
Also 20 Uhr Abends bei uns.

dildo4u
2013-10-15, 23:06:51
Hoffentlich endlich der Shadowplay Launch. *g*

horn 12
2013-10-15, 23:10:02
NV launcht noch vor AMD:
Da wäre die Schande nicht mehr wegzudenken.