PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GTX-700-Karten/Titanen - GK180/GK110-B1 - GTX 790?


Seiten : 1 2 3 4 5 6 [7]

Tesseract
2013-11-07, 16:36:00
Das ist mir schon bewusst. Nur ist die Frage was da genau im Hintergrund passiert.
ja, das wär interessant zu wissen, ändert aber nichts daran, dass es einen riesigen unterschied macht.

fondness
2013-11-07, 16:37:17
ja, das wär interessant zu wissen, ändert aber nichts daran, dass es einen riesigen unterschied macht.

Womöglich wird damit nur der erhöhten Input-Lag des Frame-Pacings abgestellt indem man das Frame-Pacing ausschaltet und/oder verzichtet auf etwaiige andere Treiberspielchen zugunsten besserer Latenz. Jedenfalls gehört das dringend mal untersucht, zaubern kann niemand. Wenn man damit nur Vorteile hätte warum wird es dann nicht beworben / standardmäßig aktiviert?

Tesseract
2013-11-07, 16:42:03
Womöglich wird damit nur der erhöhten Input-Lag des Frame-Pacings abgestellt indem man das Frame-Pacing ausschaltet und/oder verzichtet auf etwaiige andere Treiberspielchen zugunsten besserer Latenz. Jedenfalls gehört das dringend mal untersucht, zaubern kann niemand. Wenn man damit nur Vorteile hätte warum wird es dann nicht beworben / standardmäßig aktiviert?

der inputlag ist damit gefühlt geringer als mit single-GPU. standardmäßig wird es wohl inaktiv sein weil es ein paar prozente leistung kostet. nvidia wird im hintergrund wahrscheinlich irgendwas mit der framequeue anstellen bzw. diese komplett deaktivieren/umgehen oder sowas.
vielleicht darf es standardmäßig nichtmal aktiv sein weil es die directx-spezifikationen umgeht.

wär mal interessant das genauer zu analysieren.

Blediator16
2013-11-07, 16:58:39
so lange AMD nix vergleichbares zu smooth AFR behavior hat ist crossfire generell leider ziemlich unbrauchbar.

hardocp hat 290x cf das bessere erlebnis zugesprochen und die hatten vorher kein gutes wort über cf übrig gehabt.

Tesseract
2013-11-07, 17:03:42
hardocp hat 290x cf das bessere erlebnis zugesprochen und die hatten vorher kein gutes wort über cf übrig gehabt.
und wie äußert sich das? wenn der inputlag nicht mithalten kann bringen gleichmäßigere frametimes auch nicht viel, vor allem nicht mit vsync.
in dem artikel habe ich kein einziges mal das wort inputlag gelesen.

yamo
2013-11-07, 17:12:43
und wie äußert sich das? wenn der inputlag nicht mithalten kann bringen gleichmäßigere frametimes auch nicht viel, vor allem nicht mit vsync.
in dem artikel habe ich kein einziges mal das wort inputlag gelesen.

Hardcop hat das nun mal gebechnt. Lies es durch. Inputlag Kam nicht vor, aber fühlbares Erlebnis. Oder was heisst flüssiger als 780/Titan @sli?

Blaire
2013-11-07, 17:14:31
Dazu kann Blaire vielleicht mal was sagen, wenn er es liest.
Ist ja wie Downsampling kein offizielles Feature.

Es ist offiziell und auch im Treiber-Panel anwählbar. Aber zu der Funktionsweise ist nichts dokumentiert, es wird wohl eine Manipulation der Frame-Queue und nicht benötigte Frames werden schneller fallen gelassen.
Das bekam ich damals als Info:
"When rendering is slower than refresh rate we need option to remove 1-2-1-2 flip patters as well as 2-3-2-3, etc. We want an even 2-2-2-2 or 3-3-3-3, etc. This option will reduce FPS in favor of smoothness. FPS should divide into Refresh Rate evenly. (ex: @ 60Hz, 45fps-> 30fps)

We should be able to achieve this by making it so SLI does not force triple buffer like behavior."

Tesseract
2013-11-07, 17:18:55
Hardcop hat das nun mal gebechnt. Lies es durch. Inputlag Kam nicht vor, aber fühlbares Erlebnis. Oder was heisst flüssiger als 780/Titan @sli?
ich habe es durchgelesen. die benchen in einem multimonitor-setup ohne vsync wo meist alle drei systeme irgendwo unter 60fps rumkrebsen. dass in dem fall die schnellste kombination vorteile hat ist klar. dass ich unter solchen bedingungen nie irgendwas spielen würde ebenfalls.

yamo
2013-11-07, 17:19:01
So i´d buy neither.

€:Ich nehme das zurück

Blediator16
2013-11-07, 17:24:49
ich habe es durchgelesen. die benchen in einem multimonitor-setup ohne vsync wo meist alle drei systeme irgendwo unter 60fps rumkrebsen. dass in dem fall die schnellste kombination vorteile hat ist klar. dass ich unter solchen bedingungen nie irgendwas spielen würde ebenfalls.

amd müsste hardocp schon gut bezahlt haben, wenn sie so unheimlich positiv über das neue cf von amd sprechen.

yamo
2013-11-07, 17:26:09
das denke ich auch. komm mal runter schaffe

Tesseract
2013-11-07, 17:28:26
amd müsste hardocp schon gut bezahlt haben, wenn sie so unheimlich positiv über das neue cf von amd sprechen.
nein, hardopc ist einfach zu unfähig sinnvolle settings und relevante aspekte zu testen - oder zumindest welche die für mich relevant sind.
ist aber eh nix neues.

yamo
2013-11-07, 17:37:36
Dann teste mal 2x oder 1,5DS einem guten Monitor. DAS ist das Goal für monitore 4k.
Unter realen Bedindungen testen wir SLI/CF mit Downsampling.

fondness
2013-11-07, 17:39:16
der inputlag ist damit gefühlt geringer als mit single-GPU.

Das glaubst du doch selbst nicht. :smile:
Du kannst den AFR-Lag technisch bedingt nicht umgehen, da die Bilder parallel berechnet werden. Aber das habe ich schon gesagt.
Und selbst wenn es so wäre gäbe es keinen Grund besser als bei Single-GPU abzuschneiden. Es kommt dir höchstens besser vor weil du mit SLI natürlich deutlich höhere fps hast.
So oder so es bedarf dringend ausführlicher Tests und Vergleiche mit AMD.

yamo
2013-11-07, 17:43:45
Dann teste mal 2x oder 1,5DS einem guten Monitor. DAS ist das Goal für monitore 4k.
Unter realen Bedindungen testen wir SLI/CF mit Downsampling.beat/&//

Tesseract
2013-11-07, 17:48:51
Dann teste mal 2x oder 1,5DS einem guten Monitor. DAS ist das Goal für monitore 4k.
Unter realen Bedindungen testen wir SLI/CF mit Downsampling.
was hat das alles mit dem inputlag zu tun?

Und selbst wenn es so wäre gäbe es keinen Grund besser als bei Single-GPU abzuschneiden.
doch: smooth ARF behavior funktioniert mit einer karte nicht. was auch immer nvidia da macht ist mit einer karte nicht aktiv, auch wenn das theoretisch wahrscheinlich mäglich wäre.

fondness
2013-11-07, 17:50:28
doch: smooth ARF behavior funktioniert mit einer karte nicht. was auch immer nvidia da macht ist mit einer karte nicht aktiv.

Würde auch keinen Sinn ergeben etwas das den AFR-Lag mildert mit einer Karte zu verwenden. :smile:

Tesseract
2013-11-07, 17:52:58
Würde auch keinen Sinn ergeben etwas das den AFR-Lag mildert mit einer Karte zu verwenden. :smile:

ihr versteht es einfach nicht: diese option soll das framepacing verbessern, reduziert aber als nebeneffekt den inputlag. dieser nebeneffekt ist das entscheidende. wenn man auf konstanten 60 fps klebt hat man ohne die option eine gummiband-steuerung und mit nicht.

boxleitnerb
2013-11-07, 17:53:11
Smooth AFR-VSync ist extrem direkt, um Welten besser als VSync. Im Vergleich zu SingleGPU ohne VSync ist es schwierig, Unterschiede zu quantifizieren, aber schlechter ist es für mich jedoch nicht, zumindest gleichwertig.

Tesseract
2013-11-07, 17:57:37
Im Vergleich zu SingleGPU ohne VSync ist es schwierig
ich habe natürlich gemeint im vergleich zu single-GPU mit vsync on, also auf beiden konstellationen aktiviert.

StefanV
2013-11-07, 17:59:09
nein, hardopc ist einfach zu unfähig sinnvolle settings und relevante aspekte zu testen - oder zumindest welche die für mich relevant sind.
ist aber eh nix neues.
Du, da gibts dann nur eins: Selbst ist der Mann!

Tesseract
2013-11-07, 18:00:52
Du, da gibts dann nur eins: Selbst ist der Mann!
sag nvidia und amd sie sollen mir karten schicken, dann mache ich das. :wink:

boxleitnerb
2013-11-07, 18:02:16
ich habe natürlich gemeint im vergleich zu single-GPU mit vsync on, also auf beiden konstellationen aktiviert.

Da gewinnt das AFR-VSync-Smooth haushoch, das ist nichtmal ein Vergleich. Nachteil ist halt leider, dass es
a) Performance kostet
b) bei 2-way SLI nur 30 oder 60 fps zulässt, sprich das klassische VSync-Verhalten ohne Triplebuffer hat (Single GPU, bei SLI ist das ja kein Thema). Soweit ich weiß, ist es ab 3-way SLI durch einen Bug (?) kein Problem, da sind alle Frameraten möglich. Ob sich das aber negativ auf den Lag auswirkt, kann ich mangels eines solchen Setups nicht beurteilen.

aufkrawall
2013-11-07, 18:24:26
Ich würd etwas wie BF3/4 nicht mehr ohne AFR smooth + adaptiv online zocken wollen.
AFR erfährt damit eine ungeheure Aufwertung.

Loeschzwerg
2013-11-07, 18:26:04
Gibt es Hinweise wann die Special Editions der 780 Ti kommen?

boxleitnerb
2013-11-07, 18:27:39
Wobei man fairerweise sagen muss, mit einem Limiter fahre ich genauso gut. Und wenn die fps doch mal vom eingestellten Limit (das auch bei 80 oder 100 liegen kann und nicht auf 30/60/120 beschränkt ist) auf niedrigere Werte fällt, die Framerate sich nicht gleich halbiert.

Da spielt man schön mit 60 fps und ohne erkennbaren lag und dann bamm geht es auf 30 runter. Mich würde das massiv stören, deshalb benutze ich es nie. Vielleicht nächste Generation, wenn ich 3 Karten haben sollte.

fondness
2013-11-07, 18:29:28
Also wird hier ernsthaft wegen einem Limiter kombiniert mit Vsync ein solches Fass aufgemacht? Naja.

Tesseract
2013-11-07, 18:37:28
Also wird hier ernsthaft wegen einem Limiter kombiniert mit Vsync ein solches Fass aufgemacht? Naja.
nein.

yamo
2013-11-07, 18:49:53
nein.
jain. aber nnur manchmal. :freak:

Tesseract
2013-11-07, 18:52:08
jain. aber nnur manchmal. :freak:
was meinst du mit manchmal? ein framelimiter synchronisiert nix, der unterdrückt höchstens starke schwankungen und was man mit einem framelimiter in kombination mit vsync will ist mir auch ein rätsel.

aufkrawall
2013-11-07, 18:52:33
jain. aber nnur manchmal. :freak:
Adaptives Smooth Vsync mit 144Hz geben klar das bisher beste Spielgefühl.
Bei dynamischen fps von 1-144.

boxleitnerb
2013-11-07, 18:54:59
was meinst du mit manchmal? ein framelimiter synchronisiert nix, der unterdrückt höchstens starke schwankungen und was man mit einem framelimiter in kombination mit vsync will ist mir auch ein rätsel.

VSync gegen Tearing und Limiter gegen Lag. Es ist doch allgemein bekannt, dass der Limiter den Lag deutlich reduzieren kann, das merkt man meistens schon im Spielmenü am Mauszeiger. Dazu kann der Limiter oft auch gegen (Mikro)Ruckeln helfen. Neuestes Beispiel ist Batman Arkham Origins mit VSync an. Damit stottert es bei mir übel. Mit Limiter läuft es butterweich.

Tesseract
2013-11-07, 18:57:12
VSync gegen Tearing und Limiter gegen Lag. Es ist doch allgemein bekannt, dass der Limiter den Lag deutlich reduzieren kann, das merkt man meistens schon im Spielmenü am Mauszeiger. Dazu kann der Limiter oft auch gegen (Mikro)Ruckeln helfen. Neuestes Beispiel ist Batman Arkham Origins mit VSync an. Damit stottert es bei mir übel. Mit Limiter läuft es butterweich.

in welchen kombinationen? wenn der limiter höher als vsync ist bringt er soweit ich weiß garnix und darunter macht er den sync kaputt und erzeugt tearing oder doppelframes.

boxleitnerb
2013-11-07, 19:01:40
Was genau meinst du?

Tesseract
2013-11-07, 19:06:26
mit z.B. 60 Hz und und einem limiter von 58 fps fahren dir mit adaptiven vsync langsam die tearings durchs bild und ohne gibts alle paar frames einen doppelframe/stotterer.

boxleitnerb
2013-11-07, 19:09:49
mit z.B. 60 Hz und und einem limiter von 58 fps fahren dir mit adaptiven vsync langsam die tearings durchs bild und ohne gibts alle paar frames einen doppelframe/stotterer.

Das ist mir beides ehrlich gesagt noch nie aufgefallen, obwohl aufkrawall diesen Judder, wie er es nennt glaube ich, ja öfters erwähnt. In dieser Hinsicht bin ich eigentlich auch sehr empfindlich, ich weiß nicht warum das hier kein Problem ist.

Player18
2013-11-07, 20:12:21
Aber lohnt sich eine 780TI überhaupt ? Da Anfang 2014 jaa schon Maxwell kommen soll. Aber NV will ja anscheinend bei 28NM bleiben. Da frag ich mich wie die 800serie besser machen wollen ? Die Karte muss ja dann über 3000Shader haben und ca 1100MHZ schnell sein und 512bit haben das die sie besser ist als eine 780TI. Oder Verschiebt Nv jetzt Maxwell ?

Hugo78
2013-11-07, 20:24:27
Maxwell wird man wahrscheinlich zuerst in 28nm HPM sehen.
HPM liegt in etwa in der Mitte zwischen 28HP und 20SoC und es ist schon ein quasi "half node".

OC_Burner
2013-11-07, 20:30:48
HighEnd-Maxwell und damit ca. doppelte Performance als jetzige HighEndSingle-GPUs vorraussichtlich 2016 oder Ende 2015. Die erste Maxwell Generation wird wohl nicht in die Gefilde der Enthusiasten fallen. Zumindest sagt mir das mein Bauchgefühl.

aufkrawall
2013-11-07, 20:32:39
Mein Bauchgefühl sagt mir, dass sie trotzdem schweineteuer wird. :(

boxleitnerb
2013-11-07, 20:37:48
Einen Maxwell@28HPM würde ich realistisch bei GTX 770 + 20% einordnen, vielleicht +25%. Damit läge man ca. in der Mitte zwischen GTX 770 und GTX 780 Ti (Standardsettings). Nvidia wird mit dieser Karte kaum die recht neue 780 Ti schon wieder obsolet machen wollen.

Okay, es besteht natürlich auch die Möglichkeit, dass die 780 Ti keine lange Lebenszeit haben soll und nur gelauncht wurde, um in der Holidayseason gegen die 290X nochmal aufzutrumpfen. Aber dass der kleine Maxwell gleich GTX 770 + 40% sein soll (und da müsste er hin, um der 780 Ti gefährlich zu werden), erscheint mir unrealistisch.

Player18
2013-11-07, 21:33:45
Naja ich glaub auch das die Karte 700-800 Euro kosten wird ca 10% schneller ist.

780TI fällt auf 580 Euro.

@Boxleitnerb deine Theorie ist nicht schlecht aber da Frag ich mich wer Kauft die dann ? Außer Extrem Zocker-Geld eh zu Locker die dann auch Sofort die Karte verkaufen wenn die Maxwell draußen ist aber jeder andere wird warten

Aber 10% das wärs mir ehrlich gesagt nicht Wert. Selbst eine 780ti würde locker bis 2015 reichen

aufkrawall
2013-11-07, 21:35:51
Wirklich?
Immerhin war die 680 auch ~30% schneller als die 580.
War zwar größerer Prozesssprung, aber dafür auch größerer Die-Shrink.
Das Die von GM104 könnte auch größer sein als von GK104, oder nicht?
~15-20% durch Prozess + 20-30% durch Architekturänderung/Packdichte/Die-Vergrößerung erscheinen mir nicht so unrealistisch.

Player18
2013-11-07, 22:11:52
Wirklich?
Immerhin war die 680 auch ~30% schneller als die 580.
War zwar größerer Prozesssprung, aber dafür auch größerer Die-Shrink.
Das Die von GM104 könnte auch größer sein als von GK104, oder nicht?
~15-20% durch Prozess + 20-30% durch Architekturänderung/Packdichte/Die-Vergrößerung erscheinen mir nicht so unrealistisch.

Ich hab Davor noch auf Konsole Gezockt :D mir war klar das ich nur das aller neuste in den Rechner einbaue :) 680 hatte auch noch andere vorteile GPU-Boost das gabs bei 580GTX noch nicht.

Botcruscher
2013-11-07, 22:15:48
Die Drossel ist kein Vorteil.

boxleitnerb
2013-11-07, 22:51:18
Wirklich?
Immerhin war die 680 auch ~30% schneller als die 580.
War zwar größerer Prozesssprung, aber dafür auch größerer Die-Shrink.
Das Die von GM104 könnte auch größer sein als von GK104, oder nicht?
~15-20% durch Prozess + 20-30% durch Architekturänderung/Packdichte/Die-Vergrößerung erscheinen mir nicht so unrealistisch.

Zu optimistisch imo. Vor allem: Wenn Nvidia alles Pulver verschießt, was bringen sie dann Ende 2014 bei einem wohl mauen und teuren 20nm Prozess? Man bringt immer nur soviel, wie nötig und verkauft es so teuer wie möglich -> Gewinnmaximierung.

aufkrawall
2013-11-07, 22:56:10
Ein natürlich nicht ganz unwichtiger Faktor, AMD hat ja schon bald zwei Jahre für nen Refresh im wahrscheinlich gleichen Prozess gebraucht. :(
Hoffentlich sind sie nächstes Mal etwas fixer.

Andererseits wird man sehen müssen, ob das Sperrfeuer von Mantle und Konsolen NV nicht doch noch zum Altruismus veranlässt.

Player18
2013-11-07, 23:34:50
Also bei mir kommt weder PS4 noch Xbox one ins Haus! Ich Hoff darauf das FIFA 15 mit der selben Engine rauskommt als wie in PS4 xbox one. EA müsst einfach mal das Hirn einschalten!

Skysnake
2013-11-08, 11:35:50
Wirklich?
Immerhin war die 680 auch ~30% schneller als die 580.
War zwar größerer Prozesssprung, aber dafür auch größerer Die-Shrink.
Das Die von GM104 könnte auch größer sein als von GK104, oder nicht?
~15-20% durch Prozess + 20-30% durch Architekturänderung/Packdichte/Die-Vergrößerung erscheinen mir nicht so unrealistisch.
Sonst noch Wünsche?

In welcher Traumwelt lebst du bitte?

GM104 wird sehr sehr sicher in 28nm weiterhin gefertigt. Ansonsten kommt das Ding erst gegen Ende 2014.

Mit GM104 muss man sich im Desktop ja mit GK110 messen und nicht mit GK104. Die Sache wird man aber nicht gewinnen können ohne Shrink. Dafür ist GK110 einfach zu groß. GF110 vs GK104 waren ja auch 3,04 vs 3,54 Mrd Transistoren, also 16,4% Mehr Transistoren, bei gleichzeitig reduzierter Computeleistung... Und das bei einem Sprung von 40 auf 28nm!

Gut GK104 ist auf nem noch nicht ausgereiften Prozess gekommen, aber bei GK110 sieht es komplett anders aus.

Wenn nVidia allein durch die Architektur 10-20% rausholt und mit nem ~400mm² DIE auf die gleiche Leistung wie GK110 bei gleichem Verbrauch kommt, können wir zufrieden sein.

Ich gehe aber davon aus, das man 28nm HPM nimmt, und das Ding mehr oder weniger rein für den Mobilebereich bringt. Da muss nVidia nämlich nachlegen. Für den Desktop wird das aber wohl relativ unspannend, zumindest für die Leute, die schon nen GK110 haben.

Player18
2013-11-08, 11:51:22
Eine 680GTX hat 195W benötigt. Ich Dachte das wird in Zukunft besser also man kann den Stromverbrauch noch weiter runterfahren aber scheinbar nicht.

Gipsel
2013-11-08, 11:59:18
Sonst noch Wünsche?

In welcher Traumwelt lebst du bitte?

GM104 wird sehr sehr sicher in 28nm weiterhin gefertigt. Ansonsten kommt das Ding erst gegen Ende 2014.Was ist daran jetzt so unrealistisch? GM104 könnte z.B. 400mm² groß sein (in 28HPM?). So könnte nV zusammen mit Architekturverbesserungen locker +30% Performance gegenüber GK104 erreichen bei nur wenig gestiegener Verlustleistung (je nachdem, wie weit man das Design prügelt oder auch nicht). Wenn man mal über dieses pastebin Ding nachdenkt (ich sage nicht, daß es stimmt), würde es aus einer gewissen Sichtweise her sogar Sinn machen, GM104 als TopDog unter 28nm aufzulegen (also 500+mm² und das Weglassen von ein paar HPC-Features und die Architekturverbesserungen rein in mehr Performance zu stecken), insbesondere, wenn 20nm noch etwas auf sich warten lassen. GM114 kommt dann als Shrink zusammen mit GM100/110 oder wie auch inmmer man das nennen will. Aber kein Ahnung.

Ist dann aber sowieso nicht mehr die GTX700er-Serie, gehört also wohl eher in den Maxwell-Spekuthread.

robbitop
2013-11-08, 14:07:18
GM104 ergibt in langsamerer Form als GK110 keinen Sinn. Da fehlen die Kaufanreize. Außerdem waren die 104 immer schneller als ihre Highendvorgänger. Wenn ein GM104 noch in 28 nm kommt, wird er groß und schnell werden müssen...

M4xw0lf
2013-11-08, 14:39:33
GM104 ergibt in langsamerer Form als GK110 keinen Sinn. Da fehlen die Kaufanreize. Außerdem waren die 104 immer schneller als ihre Highendvorgänger. Wenn ein GM104 noch in 28 nm kommt, wird er groß und schnell werden müssen...
Nur (signifikant) größer als GK110 geht ja nach allgemeiner Ansicht nicht. Um deutlich mehr Leistung aus einem 28nm GM104 rauszukriegen müsste entsprechend die Energieeffizienz gesteigert werden. GM104 > GK110 ist unter 28nm mMn utopisch.

boxleitnerb
2013-11-08, 14:55:45
Warum muss der Chip überhaupt GK110 angreifen können? Wäre es nicht viel sinnvoller, die Chips kleiner und effizienter zu machen und in dem Segment zu platzieren, wo sie am meisten Sinn machen? Nämlich bei GTX 860-870 für 200-300 Euro. Jeder gesparte Quadratmillimeter dort zahlt sich mehr aus als bei ein paar Highend-GPUs, weil die Absatzzahlen viel größer sind. Von Mobile gar nicht zu reden, da wird man sich gegen Kaveri und Broadwell warm anziehen müssen, wenn man nicht weiter Anteile an die iGPUs verlieren will.

Knuddelbearli
2013-11-08, 14:56:28
kleiner ist nunmal ungleich effizienter

große Chips sind an und für sich immer effizienter

und vor Kaveri muss NV doch wirklich keine Angst haben der verhungert entweder an der CPU oder am Ram

robbitop
2013-11-08, 15:50:13
Nur (signifikant) größer als GK110 geht ja nach allgemeiner Ansicht nicht. Um deutlich mehr Leistung aus einem 28nm GM104 rauszukriegen müsste entsprechend die Energieeffizienz gesteigert werden. GM104 > GK110 ist unter 28nm mMn utopisch.
An GK110 darfst du dich nicht orientieren. Der hat soviel Compute Ballast drin. Wenn du den rausschmeist, kommst du bei gleicher Leistung mit schätzungsweise 100...150 sqmm weniger Fläche klar.
Bei 450-500 sqmm könnte ein Gaming-Maxwell schon deutlich schneller sein als ein Compute-Kepler.
Analog GK104 und GK110. Auch Hawaii braucht deutlich weniger Fläche (und hat auch einigen Compute "Ballast" an Board).

boxleitnerb
2013-11-08, 16:07:49
kleiner ist nunmal ungleich effizienter

große Chips sind an und für sich immer effizienter

und vor Kaveri muss NV doch wirklich keine Angst haben der verhungert entweder an der CPU oder am Ram

Ich meinte auf den Takt bezogen. Nvidia kann Takt x anpeilen oder x+10/15/20%.

M4xw0lf
2013-11-08, 16:33:49
An GK110 darfst du dich nicht orientieren. Der hat soviel Compute Ballast drin. Wenn du den rausschmeist, kommst du bei gleicher Leistung mit schätzungsweise 100...150 sqmm weniger Fläche klar.
Bei 450-500 sqmm könnte ein Gaming-Maxwell schon deutlich schneller sein als ein Compute-Kepler.
Analog GK104 und GK110. Auch Hawaii braucht deutlich weniger Fläche (und hat auch einigen Compute "Ballast" an Board).
Da fällt mir die Pastebin-Sache wieder ein. Wenn auf dem GK110-Die neben 2880 SP-Einheiten noch 960 DP-Einheiten schlummern (3:1), dann könnte ein Gaming-Maxwell eventuell stattdessen 3840 SP+DP-Einheiten haben - wäre aber halt trotzdem kaum kleiner als GK110.

Gaestle
2013-11-08, 17:17:13
wenn es zutrifft, was spekuliert wurde, nämlich das 28hpm ein ähnliches potential haben könnte wie ein hypothetischer zwichenprozess zwischen 28nm und 20nm, kann man auch vom "kleinen" maxwell gm104 sicher einiges erwarten. Wie wäre es mit etwa 1,8-2-facher gk104-gameleistung für gm104? Wo wäre das in relation zu gk110-425-b1?

Gipsel
2013-11-08, 17:26:03
An GK110 darfst du dich nicht orientieren. Der hat soviel Compute Ballast drin. Wenn du den rausschmeist, kommst du bei gleicher Leistung mit schätzungsweise 100...150 sqmm weniger Fläche klar.Ich glaube, Du überschätzt das. Das ist nie und nimmer so viel (<50mm²).

Duplex
2013-11-08, 17:29:25
So oder so hat sich Nvidia mit den neuen Karten bis mitte 2014 abgesichert, die können sich genug Zeit lassen, auf Maxwell ist niemand heiß, am ende ist GM104 nur um die 20-25% schneller als GK110 B1, uninteressant.
Wer bereits GK110 hat, für den macht ein Umstieg erst bei 16nm sinn, diese kleinen Leistungssteigerungen sind keine Diskussion mehr wert...Alles unter +100% ist uninteressant!

M4xw0lf
2013-11-08, 17:57:31
:freak: right. Mit einem Chip und darauf brasierend drei Karten, die ca. für 5% der Käufer im preislich interessanten Rahmen liegen, wozu sollte man da was neues bringen? Besonders wenn die Konkurrenz auch noch billigere Karten mit deutlich kleineren Chips aber ähnlicher Leistung hat. Im Preiskampf werden die 550 oder 560 mm² eines GK110 ein Nachteil.

Konami
2013-11-08, 18:33:38
wenn es zutrifft, was spekuliert wurde, nämlich das 28hpm ein ähnliches potential haben könnte wie ein hypothetischer zwichenprozess zwischen 28nm und 20nm, kann man auch vom "kleinen" maxwell gm104 sicher einiges erwarten. Wie wäre es mit etwa 1,8-2-facher gk104-gameleistung für gm104? Wo wäre das in relation zu gk110-425-b1?
Öhm, 1,8-fache Leistung ist ne Hausnummer. So viel kriegt man üblicherweise im Rahmen einer ganzen Generation (inkl. Fullnode-Shrink) im Abstand von 2 Jahren... Wenn 28 HPM im Vergleich zum frühen 28 HP ca. einen Halfnode darstellt, dann wäre das ca. ein Faktor sqrt(1,8) = 1,34. GK104 * 1,34 = Titan. Mal ganz trocken betrachtet. :ugly:

Skysnake
2013-11-08, 19:45:57
GM104 ergibt in langsamerer Form als GK110 keinen Sinn. Da fehlen die Kaufanreize. Außerdem waren die 104 immer schneller als ihre Highendvorgänger. Wenn ein GM104 noch in 28 nm kommt, wird er groß und schnell werden müssen...
Wie gesagt, nVidia kann nicht zaubern, und Sie haben da jetzt auch nich DEN Druck.

Schau dir aber mal Mobile an. Wie sieht es denn da aus?

Richtig. Man hat immer noch GK104 und das wars als TopDog.

Den GK110 wirste da auch nicht bringen. Es ist also eigentlich längst etwas überfällig für den Bereich, und der ist eigentlich sogar wichtiger als der normale Desktop und vor allem wichtiger als das Desktop-High-End.

Beim THG Event gestern kam ja auch raus, das Hawaii auf 28nm HP setzt. Es hier HPM sei nur für Mobile. Ist wohl doch nicht gut genug geignet für so große Chips im Desktop mit entsprechender Taktung und Leistung. Für nen echten MobileChip könnte es aber ausgehen.

Halte ich inzwischen auf jeden Fall viel wahrscheinlicher als alles andere

Warum muss der Chip überhaupt GK110 angreifen können? Wäre es nicht viel sinnvoller, die Chips kleiner und effizienter zu machen und in dem Segment zu platzieren, wo sie am meisten Sinn machen? Nämlich bei GTX 860-870 für 200-300 Euro. Jeder gesparte Quadratmillimeter dort zahlt sich mehr aus als bei ein paar Highend-GPUs, weil die Absatzzahlen viel größer sind. Von Mobile gar nicht zu reden, da wird man sich gegen Kaveri und Broadwell warm anziehen müssen, wenn man nicht weiter Anteile an die iGPUs verlieren will.
SEh ich auch so. Im Mobile-Bereich hat nVidia Druck und muss was tun.

aths
2013-11-08, 20:02:11
(edit)

Hübie
2013-11-08, 20:56:50
(edit)

Wie meinen?
@ skysnake: Was bitte willst du mit GK110 im Notebook? Sowas macht man über Grid bzw. diesem Konzept. Lokale Berechnungen im Mobilsektor sind imo eher kontraproduktiv. Da gibt's deutlich sinnvollere Lösungen. Vor allem ist hier das input-lag bis zum gewissen Grad scheiß egal.
An welches Szenario dachtes du denn im konkreten Fall? Mir fällt nix ein.

Edit: Ich meinte sowas wie remote FX. Nicht das wir aneinander vorbei reden ;)

Skysnake
2013-11-08, 21:20:15
Die GTX 680M usw sind so ziemlich die einzigen Dinger, die sich wirklich noch im Schlepptop lohnen. nVidia muss da den Abstand zu den iGPUs halten.

Streaming kannste @home schon knicken. Streamin unterwegs ist ja mal voll ab jedweder Realität :ugly:

Die Verbindungen sind noch beschissener, und dann auch noch die Volumenlimits :ugly: Da ist ja jeder iGPU überlegen.

Hübie
2013-11-08, 21:51:30
Na das Breitbandverbindung eine Voraussetzung ist sollte klar sein.
Aber noch mal nachgefragt: geb mir mal ein reelles Szenario. In Präsentationen klappt das nämlich einwandfrei.

Sunrise
2013-11-08, 21:55:39
Seh ich auch so. Im Mobile-Bereich hat nVidia Druck und muss was tun.
Etwa 30% Mehrleistung bei ungefähr gleicher Die-size würde ja sowohl Mobile als auch Desktop gut bedienen. Muss sich ja nicht widersprechen.

Nach genauer Überlegung sieht das aktuell bei mir etwa so aus:

GK104 -> GM104 +30%

GM104 ersetzt die Ableger im Mobile, im Desktop bis etwa GTX 780. Die GTX 780 wird nämlich erstens immer günstiger und auch gegen AMD weiter ankämpfen müssen. Bei einem Preiskampf sollte NV wieder einen kleineren Die (wie damals bei GK104) haben, um hier Spielraum zu haben.

Obenrum bin ich einfach unschlüssig, was NV macht. Einerseits will man die Leistungskrone nicht nur für den Desktop (wichtiger werden Tesla, Quadro, GRID, Compute, etc.) nicht verlieren und stetig ausbauen. Andererseits wurde jetzt erst Atlas (GK180) vorgestellt. Das dauert einfach mal noch locker bis Ende nächsten Jahres, bis da was kommt. Alles andere würde mich stark überraschen.

Ailuros
2013-11-08, 22:56:21
Etwa 30% Mehrleistung bei ungefähr gleicher Die-size würde ja sowohl Mobile als auch Desktop gut bedienen. Muss sich ja nicht widersprechen.

Nach genauer Überlegung sieht das aktuell bei mir etwa so aus:

GK104 -> GM104 +30%

Ich bin zwar kein engineer aber wenn ich schon durch Laengen gehen wuerde fuer mehr Bandbreite (etwas dass ich wohl nicht umgehen kann) warum sollte ich dann genau mich nur auf +30% maessigen und nicht da moeglich ein hoeheres Ziel setzen? Bei 30% braeuchte man nichtmal unbedingt eine neue Architektur.


Obenrum bin ich einfach unschlüssig, was NV macht. Einerseits will man die Leistungskrone nicht nur für den Desktop (wichtiger werden Tesla, Quadro, GRID, Compute, etc.) nicht verlieren und stetig ausbauen. Andererseits wurde jetzt erst Atlas (GK180) vorgestellt. Das dauert einfach mal noch locker bis Ende nächsten Jahres, bis da was kommt. Alles andere würde mich stark überraschen.

Die Kosten fuer Logan haben so manche Balance bei ihren Ausgaben geaendert; wenn's diesmal nichts wirklich ernsthaftes mit Tegra wird, stecken sie dann wirklich ziemlich tief in der Pampe.

Sonst IMHO Kleinkram Maxwells bis zu GM1x4 bis Mitte 2014 unter 28nm-wasauchimmer, ein paar Monate spaeter GM110 oder wie immer das Ding heissen wird zur Massenproduktion fuer Teslas unter 20nm und wenn sich die yields und Kapazitaeten fuer 20nm endlich normalisieren den top dog fuer desktop.

Parallel im ersten Halbjahr ein eigenes Shield2 Dingsbums in der Hoffnung dass es mit Logan endlich losgeht.

robbitop
2013-11-09, 08:14:22
Ich glaube, Du überschätzt das. Das ist nie und nimmer so viel (<50mm²).
Du hast Recht. Ich habe mal von GK104 (milchmädchenmäßig) hochskaliert - der hätte ca. 510 sqmm. Eventuell 500 sqmm, weil sich ja ein paar Dinge nicht verdoppeln (u.A. auch das SI nicht). Also deine 50 sqmm kommen gut hin! :up:
Und warum braucht NV so viel Fläche für die gleiche Rohleistung wie Hawaii? Ist GCN eine transistoreffizientere Architektur?

fondness
2013-11-09, 09:12:37
Und warum braucht NV so viel Fläche für die gleiche Rohleistung wie Hawaii? Ist GCN eine transistoreffizientere Architektur?

Ist das nicht offensichtlich? Sie sind zumindest deutlich flächeneffizienzter bei einem Apple vs. Apple-Vergleich. Das war aber auch schon bei Pitcain, Bonaire und Cap Verde so. Nur Tahiti hatte durch das 384-bit SI, die zusätzliche DP-Leistung und das unter-dimensionierte Front-End das nachsehen.

Nightspider
2013-11-09, 10:05:36
Vergesst nicht das Nvidia auch die Packdichte erhöhen kann.

Alleine durch das Weglassen des Compute Ballast könnte Nvidia 10% rausholen.
Durch eine komplett neue Architektur mit besserer Effizienz könnte Nvidia auch 20-30% rausholen. Beim Sprung von Fermi auf Kepler war der Effizienzsprung glaube sogar noch größer oder? Hat da jemand genaue Zahlen?

Das macht unterm Strich schon 30-40%, konservativ geschätzt, imo.
Wenn Nvidia die Packdichte erhöht, mehr in Richtung Tahiti, könnten auch 40-50% drin sein bei einem ~560mm² GM104 meiner Schätzung nach.

So oder so hat sich Nvidia mit den neuen Karten bis mitte 2014 abgesichert, die können sich genug Zeit lassen, auf Maxwell ist niemand heiß, am ende ist GM104 nur um die 20-25% schneller als GK110 B1, uninteressant.
Wer bereits GK110 hat, für den macht ein Umstieg erst bei 16nm sinn, diese kleinen Leistungssteigerungen sind keine Diskussion mehr wert...Alles unter +100% ist uninteressant!

GK104 war doch schon teils nur 30% schneller als GF110. Für einen GM104, der 30 oder gar 40% vor der 780ti liegt und dazu noch 4GB VRAM bietet, würden viele Geld ausgeben. Das wären dann immerhin schon rund 50-60% schneller als ein abgespeckter GK110 alias GTX 780.

Knuddelbearli
2013-11-09, 10:12:55
NV wird die packdichtre nicht umsonst so gewählt haben wie sie aktuell ist ...

Nightspider
2013-11-09, 10:13:58
Schon klar aber neue Architektur = neue Möglichkeiten.

StefanV
2013-11-09, 10:22:06
NV wird die packdichtre nicht umsonst so gewählt haben wie sie aktuell ist ...
Naja, kann ja auch sein, dass sie es so gemacht haben, weil sie es nicht besser können.

Godmode
2013-11-09, 11:29:16
Weiß man eigentlich ob jetzt noch diese Special Edition der 780 Ti kommt? Auf Videocardz (http://videocardz.com/47530/nvidia-geforce-gtx-780-ti-also-special-edition) haben sie diese ja in der Tabelle mit 1 GHz und 6 GB RAM.

Hugo78
2013-11-09, 11:31:22
Naja, kann ja auch sein, dass sie es so gemacht haben, weil sie es nicht besser können.

Das wäre dann Glück im Unglück. :biggrin:

Gaestle
2013-11-09, 12:19:52
So oder so hat sich Nvidia mit den neuen Karten bis mitte 2014 abgesichert, die können sich genug Zeit lassen, auf Maxwell ist niemand heiß, am ende ist GM104 nur um die 20-25% schneller als GK110 B1, uninteressant.
Wer bereits GK110 hat, für den macht ein Umstieg erst bei 16nm sinn, diese kleinen Leistungssteigerungen sind keine Diskussion mehr wert...Alles unter +100% ist uninteressant!

nur ist gm104 der nachfolger von gk104 und eben nich von gk110. Der gk110-nachfolger heißt gm110. Die steigerungs-prozente muss man eben in relation zum vorgänger sehen und nicht in irgendwas anderem. gm110 wird deinen wunsch (in relation zu gk110) sicher erfüllen, aber er wird dann trotzdem nur 30% über gm104 liegen.

BTW: es soll auch maktteilnehmer geben, die bewusst keinen gk110 gekauft haben...

Player18
2013-11-09, 13:34:21
Weiß man eigentlich ob jetzt noch diese Special Edition der 780 Ti kommt? Auf Videocardz (http://videocardz.com/47530/nvidia-geforce-gtx-780-ti-also-special-edition) haben sie diese ja in der Tabelle mit 1 GHz und 6 GB RAM.

Karte wird bestimmt dann 800 Euro kosten...:mad:

dann kann man gleich bis Maxwell warten.

Duplex
2013-11-09, 15:16:27
GK104 war doch schon teils nur 30% schneller als GF110. Für einen GM104, der 30 oder gar 40% vor der 780ti liegt und dazu noch 4GB VRAM bietet, würden viele Geld ausgeben. Das wären dann immerhin schon rund 50-60% schneller als ein abgespeckter GK110 alias GTX 780.
30-40% vor der 780Ti, träum weiter...GK104 wurde im gegensatz zu GF110 in einem neuen Prozess gefertigt, bei gleichem Prozess sollte man nicht viel erwarten, scheiss egal ob small oder big Maxwell.

nur ist gm104 der nachfolger von gk104 und eben nich von gk110. Der gk110-nachfolger heißt gm110. Die steigerungs-prozente muss man eben in relation zum vorgänger sehen und nicht in irgendwas anderem. gm110 wird deinen wunsch (in relation zu gk110) sicher erfüllen, aber er wird dann trotzdem nur 30% über gm104 liegen.
Scheiss egal wie der Nachfolger heißt, sollte GM104 schneller als GK110 sein, dann wird Nvidia auch den neuen Chip wieder teuer verkaufen wollen, da gibt es nichts preiswerteres, deshalb wird GM104 gegenüber GK110 total uninteressant, paar neue Features, 512 Bit SI, 4GB & 5-15% mehr Performance als GK110. Große Performance Steigerungen wird man erst in 20nm & 16nm (20FF) sehen.

Hübie
2013-11-09, 17:26:12
Wer hoch fliegt kann tief fallen. Wer eine Karte statt für 499$ für 999$ verkloppt kann nur noch schmalere Margen einfahren. Und das gilt in allen Segmenten. GK104 ist eine 349$-GPU in der realen Welt. Dennoch zahlen wir den nVidia-Aufpreis. Warum wurde schon oft genug diskutiert.

Sunrise
2013-11-09, 17:28:21
Wer hoch fliegt kann tief fallen. Wer eine Karte statt für 499$ für 999$ verkloppt kann nur noch schmalere Margen einfahren. Und das gilt in allen Segmenten. GK104 ist eine 349$-GPU in der realen Welt. Dennoch zahlen wir den nVidia-Aufpreis. Warum wurde schon oft genug diskutiert.
Also ich zahle diese Preise defintiv nicht. Die normale 780 custom B1 ist IMHO aktuell aber gut gepreist, etwa um das Niveau von der GTX 580. Und da dürfte so einiges rauszuholen sein, wenn die Dinger mal breiter verfügbar sind.

Hübie
2013-11-09, 17:38:30
Ja, nur kommen die gut ein Jahr zu spät. Und mit wir meinte ich die nVidianer :freak: Bin zwar kein pfänboi aber entschied mich dennoch für nV. Also muss ich auch mit deren dämlicher Preispolitik klar kommen. Ehrlich gesagt ärgere ich mich 800 Euro für zwei 770 (4GB) ausgegeben zu haben. Aber das ist doch immer so. War beim TV so. War beim 5.1-Set so, war beim Auto so und und und... :freak:

Was soll eigentlich immer wieder dieses maxwell-geplapper? Gehört das nicht wo anders rein? ;)

Player18
2013-11-09, 17:51:48
Maxwell wird IMHO im unteren Bereich in 28nm kommen und dort die Chips <= GK104 ersetzen.
Im High End hat Nvidia derzeit keinen Handlungsbedarf. Da wird alles beim alten bleiben. Das einzige was ich mir vorstellen könnte ist, dass sie zu gegebener Zeit die GTX690 ersetzen. Entweder durch deaktivierte und heruntergetaktete GK110 GPUs mit dem B1 Stepping oder durch Maxwell Nachfolger vom GK104.

790ti oder 890GTX wäre ein Traum!

Würde Sofort zuschlagen!

am besten eine 890GTX mit 512bit+6GBvram! Preis 700 Euro :D davon kann man wohl träumen eher 900 euro :(

Dann noch Baugleich wie 690GTX das ja der Twin Kühler von Artic auf die Karte passt und dann hat man viel Spaß :)

ShinyMcShine
2013-11-09, 17:58:50
512bit+6GBvram!

Die Kombi wird's wohl kaum geben... ;)

Hübie
2013-11-09, 18:20:15
Wieso? Clamshell ftw :freak:

Gipsel
2013-11-09, 19:37:02
Wieso? Clamshell ftw :freak:
Dafür brauchste kein Clamshell (für 16GB ja, aber nicht für 6GB) sondern eine asymmetrische Bestückung (4GB fullspeed, die nächsten 2 GB nur noch mit halber Bandbreite angebunden). Geht mit einem Mix aus acht 4GBit- und acht 2GBit-Modulen zu je 32 Bit.

Hübie
2013-11-09, 19:51:25
Hm. Ja stimmt.

Ailuros
2013-11-11, 08:03:32
Hier geht es weiter mit der Maxwell Debatte: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=535975&page=40

Hübie
2013-11-11, 08:16:48
Wenn eine 780Ti mit custom cooler und 6 GB VRAM kommt werde ich wohl mein SLi wieder auflösen. Die Leistung ist ja nun doch nicht so berauschend um die üblichen mGPU-Probleme zu rechtfertigen. So wie ich das sehe ist eine Ti @1100 MHz etwa so stark wie eine 690 und somit fast so gut wie zwei 770er.

Player18
2013-11-12, 18:08:33
http://images.gamestar.de/images/idgwpgsgp/bdb/2452039/944x531.jpg

Die Colorful iGame Geforce GTX 780 Ti wurde laut Videocardz vom Hersteller im Vergleich zum Referenzmodell der Nvidia Geforce GTX 780 Ti deutlich überarbeitet. Auf der Platine der Grafikkarte wird nun eine 12+2-Phasen-Stromversorgung statt den 6+2 Phasen des Standardmodells. Der Anschluss an das Netzteil erfolgt mit zwei 8-Pin-Steckern.

Der Grafikchip, der normalerweise mit 876 MHz und 928 MHz im Boost-Modus läuft, wird von Colorful auf 1.006 MHz und 1.076 MHz beschleunigt. Beim Speicher bleibt es bei effektiven 7.008 MHz. Der neue Kühler der Grafikkarte mit drei 90-Millimeter-Lüfter sorgt dafür, dass gleich drei Slots im Rechner belegt werden.

Außerdem hat Colorful die Grafikkarte mit einer kühlenden Backplate auf der Rückseite der Platine versehen. Die Colorful iGame Geforce GTX 780 Ti dürfte wie andere die Modelle anderer Nvidia-Partner im Dezember veröffentlicht werden. Zum Preis gibt es noch keine Informationen.


Also kann man da den 6+2 stecker nicht verwenden ? Ich hab gar nicht 2 8Pin stecker mehr Übrig :/

Raff
2013-11-12, 18:10:26
Hehe, geil, einfach das eigene Wasserzeichen über dem der Kinehsen. :ugly:

MfG,
Raff

Angiesan
2013-11-12, 18:16:10
[URL]

Also kann man da den 6+2 stecker nicht verwenden ? Ich hab gar nicht 2 8Pin stecker mehr Übrig :/

Häää was ergibt 6+2???......richtig 8 Pin :D

Nicht zu verwechseln mit der Stromversorgung der GPU auf dem PCB da ist es so das auch die TI 6 Phasen für die GPU hat und 2 für den Speicher.

Grüße

Player18
2013-11-12, 18:31:46
Häää was ergibt 6+2???......richtig 8 Pin :D

Nicht zu verwechseln mit der Stromversorgung der GPU auf dem PCB da ist es so das auch die TI 6 Phasen für die GPU hat und 2 für den Speicher.

Grüße

Joa jetzt :) der Text ist etwas dumm geschrieben. bin ja mal gespannt obs die Inno 3D dann schlägt

Hübie
2013-11-15, 09:46:36
Ist denn schon eine leise, leistungsstarke und nur zwei slot hohe Kühlung in Aussicht? Ist gerade ruhig um die Ankündigungen, oder hab ich was verpasst? MSI's TwinFrozr müsste ja etwas aufgemotzt werden um den Titanen zu kühlen. Die zwei-winkligen Propeller scheinen ja echt was zu bewirken. Leise bis in hohe Druck- bzw. Durchsatzregionen.

Hugo78
2013-11-15, 09:53:56
Ist denn schon eine leise, leistungsstarke und nur zwei slot hohe Kühlung in Aussicht?
Die Gigabyte 780Ti OC wurde schon getestet.
- http://www.computerbase.de/artikel/grafikkarten/2013/geforce-gtx-780-ti-von-gigabyte-und-inno3d-im-test/

44 statt 51 dbA.

Wenn gleich die Backplate fehlt, die Gigabyte bei ihrer neuen 780 GHz Ed. verbaut.
- http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9998368#post9998368

Hübie
2013-11-15, 10:02:56
Klebt aber schon am Temp-Limit. Meine Erfahrungen mit Gigabyte waren in der Vergangenheit auch nicht rosig. Aber ich speicher die mal ;) Danke.

Player18
2013-11-15, 10:54:05
Ich würd wie gesagt auf eine Inno warten ;) aber wahrscheinlich wird die 3 Slots belegen ;)

StefanV
2013-11-15, 12:00:15
Klebt aber schon am Temp-Limit. Meine Erfahrungen mit Gigabyte waren in der Vergangenheit auch nicht rosig. Aber ich speicher die mal ;) Danke.
Same here mit der 7970 GHz von denen...

Wobei der 680/770 Kühler von denen wohl 'nen Stückerl besser ist als der haufen den sie auf die 7970 getackert haben...

Hugo78
2013-11-15, 12:13:55
@Hübie
Wenns nur max. 2 Slots sein sollen, dann wird es unter Luft höchstens noch mit dem ACX Kühler von EVGA eine kleine Idee besser. Aber für viel besser als die Gigabyte, muss man in mehr Platz investieren.

Wobei es mMn. schon völlig ausreicht, nur die drei kleinen 80/90mm Lüfterchen gegen zwei 120mm Lüfter zu ersetzen oder zumindest zu unterstützen.

Alpenföhn hat dafür ein PCI-Slot Montagesystem im Angebot, was in meinem Rechner zusammen mit zwei billigen 120mm, die kleinen orginal Lüfter meiner Graka merklich unterstützt.
http://geizhals.de/eu/alpenfoehn-pci-slot-montagesystem-fuer-luefter-84000000064-a820025.html

So muss ich nicht an meiner Graka rumfingern, meine Garantie bleibt erhalten und ich hab bessere Temperaturen, weniger Lautstärke.
Beleg so aber auch 5 Slots für eine 170W Graka. :biggrin:

Hübie
2013-11-15, 16:33:38
Is der ACX nicht wieder unverhältnismäßig laut? Ich hatte mal im Heft von PCGH die 770er mit ACX im Test gesehen und fand die recht laut für <200 Watt. Darum hatte ich mich auch für MSI entschieden.
EVGA hat natürlich einen sahnemäßigen Support und auch nette Programme wie stepup. Ich schau mal ob ich Tests finde.

Hugo78
2013-11-15, 16:40:40
Auf der 780 geht der ACX richtig gut. Ok der idle Wert ist nicht so doll, aber unter Last.

- http://www.techpowerup.com/reviews/EVGA/GTX_780_Ti_SC_ACX_Cooler/25.html
- http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/26446-test-3x-geforce-gtx-780-von-evga-gigabyte-und-inno3d.html?start=5

Hübie
2013-11-15, 17:40:02
Okay Hardwareluxx kann man ja was Tests angeht echt in der Pfeife rauchen :facepalm: Wie testen die eigentlich? Finde da gerade auf die Schnelle nix.
Aber tpu bestätigt ja, dass die EVGA schon zu den lauteren Kandidaten gehört. Aber es ist noch Luft mit den Temps. MSI scheint diesbezüglich nicht zu toppen. Ich warte mal noch ;) ASUS kommt ja sicher auch mit der DC-Kühlung angewackelt.

geezer
2013-11-18, 14:18:09
@Hübie
Wenns nur max. 2 Slots sein sollen, dann wird es unter Luft höchstens noch mit dem ACX Kühler von EVGA eine kleine Idee besser. Aber für viel besser als die Gigabyte, muss man in mehr Platz investieren.

Wobei es mMn. schon völlig ausreicht, nur die drei kleinen 80/90mm Lüfterchen gegen zwei 120mm Lüfter zu ersetzen oder zumindest zu unterstützen.

Alpenföhn hat dafür ein PCI-Slot Montagesystem im Angebot, was in meinem Rechner zusammen mit zwei billigen 120mm, die kleinen orginal Lüfter meiner Graka merklich unterstützt.
http://geizhals.de/eu/alpenfoehn-pci-slot-montagesystem-fuer-luefter-84000000064-a820025.html

So muss ich nicht an meiner Graka rumfingern, meine Garantie bleibt erhalten und ich hab bessere Temperaturen, weniger Lautstärke.
Beleg so aber auch 5 Slots für eine 170W Graka. :biggrin:

Hättest du von dem eingebauten Teil vielleicht Bilder parat? Vernünftige Fotos sind davon kaum aufzutreiben. Besten Dank vorab!

Hugo78
2013-11-18, 16:20:50
Na klar, kein Problem.

Hübie
2013-11-18, 16:46:51
Sieht fast wie mein Peter im Zweitrechner aus ;D
Was ist eigentlich aus GK180 geworden? Kommt doch sicher auch für consumer-Karten...

Hugo78
2013-11-18, 17:32:53
Der GK180 wird jetzt wohl auch von Nvidia als GK110B bezeichnet.
http://www.computerbase.de/news/2013-11/tesla-k40-nvidias-neues-hpc-flaggschiff-mit-boost/

geezer
2013-11-19, 14:07:16
Na klar, kein Problem.

Danke und sorry für OT!

Edgecrusher86
2013-11-25, 22:05:03
GTX TITAN Black Edition

Dann kann man mindestens den TITAN-Preis erwarten, vermutlich sogar mehr, zumindest bei absolut kranken 12GB VRAM wie bei TESLA K40 bzw. Quadro K6000.
Würde mich auch nicht wundern, wenn man die 1k-UVP-Marke knackt. :D

http://abload.de/img/nvidia-geforce-gtx-tiqmcqk.jpghttp://abload.de/img/nvidia-geforce-gtx-tic2iu0.jpg

http://videocardz.com/48149/nvidia-geforce-gtx-titan-black-edition-pictured

Nun ja, nett, aber kommt für mich zu spät, als das ein Upgrade lohnen würde. ;)

Knuddelbearli
2013-11-25, 23:09:39
was will man mit 12GB abseits von quad sli was es offiziel gar nicht gibt?

6GB kann man öfters mal ausnutzen aber 12GB sogut wie nie dafür bremst der Overhead sicher ganz schön

Godmode
2013-11-25, 23:40:33
was will man mit 12GB abseits von quad sli was es offiziel gar nicht gibt?

6GB kann man öfters mal ausnutzen aber 12GB sogut wie nie dafür bremst der Overhead sicher ganz schön

Sehe ich auch so. Da wären 6 GB und deutlich mehr Takt viel sinnvoller. Von mir aus auch 375W und ein Wakü vormontiert.

Iruwen
2013-11-26, 00:41:11
X-Plane "spielen". Mehr fällt mir dann auch schon nicht mehr ein :D

Knuddelbearli
2013-11-26, 04:12:42
naja im quad sli

4k + SSAA mit MSAA Anteil in Skyrim mit Grafikmods, dürfte auch gut reinhauen ^^

Edgecrusher86
2013-11-26, 05:05:58
Oder 4K Surround + SSAA und div. Mods. ;D
Abseits solcher doch derzeit seltenen Display-Konstellationen machen 6GB für Gamer derzeit in der Tat mehr Sinn, auch wenn es wieder ein gutes Argument für NV wäre, den Preis massiv anzuziehen. ;)

Nightspider
2013-11-26, 07:15:21
Najso solche Karten sind auch für Leute, die nicht über das Geld nachdenken müssen und wenn Nvidia damit zusätzliche Einnahmen generieren kann habe ich nichts dagegen.

Was das Budget mancher Leute betrifft, gibt es eh keine Grenzen nach oben. Für diese ist es auch nicht schlecht, wenn es dann Ultra Deluxe-Varianten gibt.

Schlimmer finde ich es wenn wir mit den überzogenen Preisen im 200-300 Euro Leistungsfeld die Tegra Sparte querfinanzieren sollen. Das selbst am Ende der 28nm Generation eine Karte mit kleinem 280mm² noch ~280-340 Euro kostet ist nicht mehr feierlich.

Interessant wäre natürlich, was man wirklich aus einer Black Edition-Variante herausholen könnte. Nehmen wir mal an Nvidia selektiert sogar die besseren Chips für die Black Edition und das Teil schafft man guter Kühlung 1,4 Ghz wäre es schon wahnsinn, was da an Leistung herauskommt. Gut kühlen ließen sich so etwas eh nur mit Wasser oder gleich Waterchiller. Nvidia wird, falls es stimmt, nicht umsonst zwei 8-Pin Stecker drauflöten, damit Übertakter bis zu 375W verballern können.

Gut möglich das selbst der erste Maxwell Ableger (GM104) langsamer sein wird, als so ein stark übertaktetes Schlachtschiff.

Wenn überhaupt wird die Speicherbandbreite wieder zu erst limitieren. Man sieht ja selbst bei AMDs 290 Karten, das man trotz 512Bit SI noch von deutlich höheren VRAM-Taktraten profitiert.
Der 780ti / Black Edition würden ~400GB/s auch gut stehen aber das werden wir dann wohl erst im Frühjahr mit Maxwell bekommen.

Interessant ist ja auch, wie oft es dann innerhalb von 2 Jahren neue Topmodelle bei Nvidia gab. GTX680, GTX 690, GTX Titan, GTX 780ti, GTX Titan Black Edition und ein halbes Jahr später wohl schon den GM104, falls die Gerüchte stimmen.
Aber wie ich schon sagte, wenn Nvidia durch die reiche Oberschicht noch mehr Geld generieren kann, solllen sie das ruhig tun mit "Deluxe" Editionen. Davon profitieren wir schließlich auch, wenn mehr Geld in die Entwicklung gesteckt werden kann, was Hard-und Software betrifft.

Knuddelbearli
2013-11-26, 07:27:00
Da schon doppelter Speicher bisher 3-5% weniger Leistung bedeutete, wäre 4 facher 6-10% da würde ( solange der Speicher raucht ) auch 1400MHz nichts helfen

Nightspider
2013-11-26, 07:33:06
Bieten die Speicher-Hersteller eigentlich schon schnelleren VRAM an als 1750er?

Rente
2013-11-26, 07:33:20
Da schon doppelter Speicher bisher 3-5% weniger Leistung bedeutete, wäre 4 facher 6-10% da würde ( solange der Speicher raucht ) auch 1400MHz nichts helfenWo hast du den Quark denn her? Teilweise sind die Speichertimings in der Vergangenheit etwas gemächlicher gewesen, aber schon Titan zeigt, dass das bei GK110 nicht der Fall ist (Taktbereinigt ist die Ti quasi nur etwa um den Prozent-Wert an Einheiten schneller).
€: Selbst wenn der Verwaltungsaufwand höher ist, macht das bei identischer Frequenz und Timings wohl kaum mehr als 1-2% aus.


Davon mal abgesehen hängt GK110 nicht so extrem stark an der Bandbreite wie Hawaii.
Bieten die Speicher-Hersteller eigentlich schon schnelleren VRAM an als 1750er?
Von Hynix und Samsung jedenfalls offiziell nicht, bei 7GB/s ist Schluss.

gnahr
2013-11-26, 07:42:46
was will man mit 12GB abseits von quad sli was es offiziel gar nicht gibt?
legst du schon wieder sachen fest die du gern festlegen willst?
quad-sli ist so alt wie die gtx7900x2 (ja, älter als die 7950x2) und mehr als gut dokumentiert:
http://www.nvidia.com/object/slizone_quadsli.html
gemeint war hier eher 4way sli:
http://de.wikipedia.org/wiki/Scalable_Link_Interface#4-way_SLI
und auch dazu bekommt man im nvidia-forum tipps wenn man wissen will ob titan maximal 3way unterstüzt:
https://forums.geforce.com/default/topic/531844/gtx-titan-support-4way-sli-/

so ein modifiziertes gehäuse ist nett, aber kein wirklicher kaufgrund. hauptsache titan war insgesamt ein großer erfolg und es gibt ende nächsten jahres in der nächsten gen wieder so ein sahnestück. dann kann man für moderates geld alle 3 jahre was extravagantes erwerben das auch in der spieleanwendung sinn macht.

Dural
2013-11-26, 09:04:42
Das ist ja nur eine normale Titan die von einem umlackiert wurde. :)

Hugo
2014-01-06, 12:29:56
doch eine GTX790?
http://www.hartware.de/news_59630.html

Duplex
2014-01-10, 14:02:26
GTX780 @ 6 GB

http://wccftech.com/nvidia-preparing-gtx-780-ti-6gb-edition/

Dann fehlt nur noch die GTX790 @ 10GB für 1000 €

Sunrise
2014-01-10, 14:07:34
Überrascht eigentlich niemanden mehr. Das wird wohl das Line-Up 2014 sein.

Duplex
2014-01-10, 14:20:46
Maxwell als Performance Chip kann man sich 2014 komplett sparen, wofür?
Wäre besser wenn man 2015 gleich 2 neue Maxwell Chips ins rennen schickt, ein GK110 & GK104 Nachfolger, am besten alles in 20nm.

Marty98
2014-01-10, 15:15:37
GTX780 @ 6 GB

http://wccftech.com/nvidia-preparing-gtx-780-ti-6gb-edition/

Dann fehlt nur noch die GTX790 @ 10GB für 1000 €

Wie sollen 10GB gehen statt 12?

Rente
2014-01-10, 15:16:29
320-Bit-Interface statt 384.

Palpatin
2014-01-10, 16:43:29
Um Platz für die 795 zu lassen :freak:.

boxleitnerb
2014-01-10, 18:23:15
Eher Kosten/TDP. War bei der 590 auch nicht anders.

Hübie
2014-01-10, 19:27:51
Die 590 war mit zwei voll aktivierten GF110 bestückt. Lediglich Taktraten wurden gesenkt.

boxleitnerb
2014-01-10, 19:28:53
Ja ich hatte nicht mehr genau im Hinterkopf was der Grund war, eben eines von beiden, also TDP ;)

Hübie
2014-01-10, 19:30:14
Ach so. Das liest sich wie Kosten pro TDP (was eh kaum Sinn ergibt ;D).

fondness
2014-01-20, 20:06:46
NVIDIA to launch GeForce GTX TITAN Black Edition and GeForce GTX 790
http://videocardz.com/48533/nvidia-launch-geforce-gtx-titan-black-edition-geforce-gtx-790

Duplex
2014-01-20, 20:26:24
300W TDP bei der Dual Karte ist Super.

Die Titan Black Edition wird keiner kaufen, wenn man bereits so viel Geld für eine Karte ausgibt, dann gleich eine GTX790.

Nightspider
2014-01-20, 20:27:44
Für die ist auf jeden Fall kaum Bedarf.^^

Marktpreise sind schon alle abgedeckt und Maxwell wird viel interessanter.

Duplex
2014-01-20, 20:30:20
Im High End lohnt sich Maxwell nur in 20nm, GK110b +60-80%.

boxleitnerb
2014-01-20, 20:46:39
Im High End lohnt sich Maxwell nur in 20nm, GK110b +60-80%.

Sehe ich nicht so. Wenn man mit GTX 770 + 25% = ca. GTX Titan Performance das auf 350 mm2 statt 550 mm2 hinkriegt, könnte man mehr Gewinn einfahren. Allerdings würde man sich dann den Absatzmarkt für kaputte GK110-Chips zerstören und keine 780 OC mehr verkaufen. Da hätten die Partner sicher was dagegen. Ist halt eine Abwägung zwischen technischer Sicht und ökonomischer Sicht, vor allem im AIB-Umfeld.

Duplex
2014-01-20, 20:50:56
Sicher wären durch Architektur Verbesserungen in 28nm locker 20-25% mehr Performance möglich, z.b. GM104 +25% auf GK104, aber wie du schon bemerkt hast, damit macht man sich die GK110 Salvage Parts kaputt...

Maxwell in 20nm (GM100, GM110) wäre ein ganz anderes Ziel, aus meiner Sicht der Nachfolger von GK110 für Anfang 2015, damit man auch im Profi Bereich weiterhin Nr.1 sein kann, AMD wird bestimmt zwischen Herbst & Winter ein 4096 Shader Chip in 20nm präsentieren, AMD muss nur die Hawaii Basis verwenden mit 64 statt 44 CUs, deshalb muss Nvidia als Konter spät. Q1/2015 GM100/GM110 in 20nm bringen.

boxleitnerb
2014-01-20, 21:16:42
Ich denke erst wird man GM104@20nm sehen wie auch jetzt schon. Von klein nach groß halt wieder. GM107, GM106, GM104 und am Schluss GM100/110.

Duplex
2014-01-20, 21:38:06
Sehe ich nicht so. Wenn man mit GTX 770 + 25% = ca. GTX Titan Performance das auf 350 mm2 statt 550 mm2 hinkriegt, könnte man mehr Gewinn einfahren.
Wenn du dich auf GM104 in 20nm beziehst wäre das sehr schwach, warum nur 25% auf die GTX770 und nicht auf die GTX780 ? GK104...Ist das jetzt dein ernst? Wieviel hat GK104 auf GF104 draufgelegt -.-

GK104 war doch auch 30% schneller als GF110 (GTX580).
Also müsste GM104 in 20nm auch soviel auf GK110 (GTX780) drauflegen.

Und GM100/110 so 60-80% auf GK110 (780 Ti).

Sonst wäre das alles ziemlich beschissen langweilig und man könnte sagen warten wir auf Volta in 16nm.

Ailuros
2014-01-20, 23:15:54
Je kleiner die Sprünge von Prozess zu Prozess desto kleiner die Schritte von Generation zu Generation. Eigentlich ist es wohl doch ein Segen dass wir auf DX11 stecken geblieben sind. Hätten sie jetzt noch ein DX12 zu bewältigen würde es schlecht aussehen.

Maxwell wird schon mit der Zeit liefern, aber man muss warten bis sich die Herstellung in kleineren Prozessen lohnt. Zwischen 40 & 28nm fehlt das stornierte 32nm dass wohl leicht vergessen wird.

horn 12
2014-01-20, 23:17:39
Wann sehen wir somit die Ablöser von GTX 780 TI und R9 290X
Ende Jahr 2014 von AMD bis Frühling 2015 bei NV ?

Skysnake
2014-01-21, 07:05:48
Sicher wären durch Architektur Verbesserungen in 28nm locker 20-25% mehr Performance möglich, z.b. GM104 +25% auf GK104, aber wie du schon bemerkt hast, damit macht man sich die GK110 Salvage Parts kaputt...

Ja klar, die Leute bei nVidia die an Kepler gearbeitet haben sind ja auch die totalen Vollpfosten und haben massenweise Effizienz auf der Straße liegen lassen, weil Sie gut genug waren, und den Kollegen die Arbeit einfacher machen wollten :rolleyes:

Wenn du dich auf GM104 in 20nm beziehst wäre das sehr schwach, warum nur 25% auf die GTX770 und nicht auf die GTX780 ? GK104...Ist das jetzt dein ernst? Wieviel hat GK104 auf GF104 draufgelegt -.-

Du vergisst da einiges.

1. Bei GF->GK wurde der 32nm Node übersprungen
2. Der 20nm Prozess sol weniger bringen als neue Nodes bisher

Da von der gleichen Leistungssteigerung aus zu gehen ist ziemlich dünn.


GK104 war doch auch 30% schneller als GF110 (GTX580).
Also müsste GM104 in 20nm auch soviel auf GK110 (GTX780) drauflegen.

Und GM100/110 so 60-80% auf GK110 (780 Ti).

Wird man nicht sehen. Siehe oben. Das sind nur feuchte Träumereien von dir sorry. Es gibt absolut keinen Grund das zu erwarten außer:

Sonst wäre das alles ziemlich beschissen langweilig und man könnte sagen warten wir auf Volta in 16nm.
Und WEN um Himmels willen interessiert das, was du langweillig findest? -.-

Loeschzwerg
2014-01-21, 07:46:26
Also meine GTX 670 krebst langsam ordentlich herum d.h. da muss was neues her. Die Frage ist nur kann ich auf GM104 warten oder stecke ich noch Geld in einen GK110 / Hawaii?

Hübie
2014-01-21, 08:04:10
Ist ja ne Frage deiner Ansprüche und des Geldes. Also musst du, wenn du eine objektive Meinung von uns brauchst, auch mehr Infos raus rücken ;D
Warte mal noch den Februar ab, denn da wird nVidia ja noch mal eins, zwei Katzen aus dem Sack lassen ;)

Dawn on Titan
2014-01-21, 08:11:33
Also meine GTX 670 krebst langsam ordentlich herum d.h. da muss was neues her. Die Frage ist nur kann ich auf GM104 warten oder stecke ich noch Geld in einen GK110 / Hawaii?

Die Frage stelle ich mir auch gerade, aber 250W und 650 Euro sprechen doch für Warten auf GM104.

Loeschzwerg
2014-01-21, 08:26:08
Anspruch ist ganz klar, mein neuer PC soll so lange wie möglich durchalten und die Graka nicht gerade 800€ kosten ^^
Ein Intel 6 Kerner ist fest eingeplant, Multi GPU ein no-go.

Naja, schauen wir mal was der Februar bringt.

Edit: Mehr als 3GB Grafikspeicher dürfen es zudem auch sein.

Dawn on Titan
2014-01-21, 08:33:08
6 Kerner ist jetzt doof, weil die jetzigen Sockel 2011 ein Dead-End sind. 3GB+ meint entweder AMD oder Titan, dabei ist zumindest Titan preislich verboten teuer. Ich würde 4770k + 290X machen. Viel billiger und ebenso flott.

Loeschzwerg
2014-01-21, 08:43:50
Innerhalb eines Sockels habe ich bis jetzt nur ein CPU Upgrade (E6700 auf QX6850) gemacht, sonst nie. Meine Plattformen werden also immer komplett getauscht d.h. außer Graka wird da so schnell nix mehr getauscht.

Duplex
2014-01-21, 11:42:25
Je kleiner die Sprünge von Prozess zu Prozess desto kleiner die Schritte von Generation zu Generation.
Und wer sagt dir das der Sprung auf 20 SOC HKMG klein ausfallen soll?
Ich bin mir sicher das AMD in 20 SOC ein 64 CU Chip mit 4096 Shader noch dieses Jahr vorstellen wird (sind ja nur 20 CUs mehr als Hawaii), die Transistoren sollten gegenüber Tahiti doppelt so hoch ausfallen, das ist doch kein kleiner Schritt, 20FF aka 16nm ist übrigens der gleiche Prozess, nur das man zuätzlich 3D Transistoren hat, wäre für höhere Taktraten oder bessere Effizienz sicher ein Vorteil sein kann. Wenn 20SOC für High End unfähig ist, dann sollte man von FF auch nicht viel mehr erwaren, am ende werden sich beide Prozesse nur zwischen 10-20% unterscheiden. AMD hat selbst bestätigt das Sie erstmal auf 20SOC setzen werden, danach irgendwann auf 16nm, sollte bei Nvidia nicht anders sein.

boxleitnerb
2014-01-21, 17:32:32
Wenn du dich auf GM104 in 20nm beziehst wäre das sehr schwach, warum nur 25% auf die GTX770 und nicht auf die GTX780 ? GK104...Ist das jetzt dein ernst? Wieviel hat GK104 auf GF104 draufgelegt -.-

GK104 war doch auch 30% schneller als GF110 (GTX580).
Also müsste GM104 in 20nm auch soviel auf GK110 (GTX780) drauflegen.

Und GM100/110 so 60-80% auf GK110 (780 Ti).

Sonst wäre das alles ziemlich beschissen langweilig und man könnte sagen warten wir auf Volta in 16nm.

Natürlich meine ich 28 nm.

Ailuros
2014-01-22, 09:15:15
Und wer sagt dir das der Sprung auf 20 SOC HKMG klein ausfallen soll?

Der Sprung von 28HP auf 20SoC ist definitiv kleiner als 40G auf 28HP, aber Du darfst mich gerne ueber das Gegenteil ueberzeugen. Wenn Du schon dabei bist rechne mal das stornierte 32nm zwischen den letzten beiden noch mit.

Ich bin mir sicher das AMD in 20 SOC ein 64 CU Chip mit 4096 Shader noch dieses Jahr vorstellen wird (sind ja nur 20 CUs mehr als Hawaii), die Transistoren sollten gegenüber Tahiti doppelt so hoch ausfallen, das ist doch kein kleiner Schritt, 20FF aka 16nm ist übrigens der gleiche Prozess, nur das man zuätzlich 3D Transistoren hat, wäre für höhere Taktraten oder bessere Effizienz sicher ein Vorteil sein kann.

Woher kommt denn genau die "Sicherheit"? Sonst ist es mir sehr wohl bewusst wofuer 16FF steht, es aendert aber KEINEN Millimeter an meiner vorigen Aussage.


Wenn 20SOC für High End unfähig ist, dann sollte man von FF auch nicht viel mehr erwaren, am ende werden sich beide Prozesse nur zwischen 10-20% unterscheiden. AMD hat selbst bestätigt das Sie erstmal auf 20SOC setzen werden, danach irgendwann auf 16nm, sollte bei Nvidia nicht anders sein.

Was haben die von den IHVs gebuchten Kapazitaeten fuer jeweiligen Prozess bzw. die jeweiligen IHV roadmaps mit dem Satz zu tun? Du hast heute einen gesunden Unterschied von =/>2x Mal Leistung bei einem GK104 gegen einen GF114. Solch einen Unterschied wirst Du eben schwer zwischen 28HP und 20SoC sehen.

"Deine" angeblichen 20 CUs (nicht dass ich die These mir nichts dir nichts akzeptiere, aber es hilft als Beispiel) mehr gegen die 44 von Hawaii sind lediglich 45% mehr welches aber so steril gesehen nicht wirklich einer Leistungs-steigerung von wahren 45% entspricht. Ergo minus was da entfallen koennte, plus ein klitzekleines bisschen an extra Frequenz und natuerlich plus zusaetzliche Effizienz durch Architektur-bedingte Aenderungen. Mir klingt der Weg zu einer theoretischen 100% Steigerung aber noch verdammt lange mit solchen Variablen. :rolleyes:

Hübie
2014-01-22, 12:46:34
Hawaii soll angeblich 48 CU-Blöcke haben. Hab aber nicht weiter geprüft was an dem "Gerücht" dran ist.
Finde es aber immer lustig wie salopp hier eine höchst komplizierte Umstellung in den Raum geworfen wird. Allein die immer länger werdenden Zyklen deuten ja auf massive Probleme hin *hust*

Ailuros
2014-01-22, 13:13:18
Hawaii soll angeblich 48 CU-Blöcke haben. Hab aber nicht weiter geprüft was an dem "Gerücht" dran ist.

Wenn Dave Baumann oeffentlich bei B3D sagt dass die 290X ein voller chip ist dann gibt es gar NICHTS daran zu bezweifeln.

Finde es aber immer lustig wie salopp hier eine höchst komplizierte Umstellung in den Raum geworfen wird. Allein die immer länger werdenden Zyklen deuten ja auf massive Probleme hin *hust*

Dein Instinkt liegt nicht auf dem falschen Pfad und schon das alleine reicht.

Dawn on Titan
2014-01-22, 13:30:25
Verspricht nicht sogar TSMC nur ~30% mehr Transistoren bei gleicher Leistungsaufnahme mit 20SOC gegenüber 28HP?

Hübie
2014-01-22, 13:53:31
Wenn Dave Baumann oeffentlich bei B3D sagt dass die 290X ein voller chip ist dann gibt es gar NICHTS daran zu bezweifeln.
Dein Instinkt liegt nicht auf dem falschen Pfad und schon das alleine reicht.

Wo hat er das gesagt? Wie gesagt hab ich das auch nicht weiter verfolgt. Die Packdichte wäre meiner bescheidenen Meinung nach nur halt absurd. Aber ich weiß gar nicht obs unmöglich wäre 48 CUs in
438 mm2 zu packen...

ps: weiß jemand wie man am smartphone Potenzen eingeben kann? :confused:

Ailuros
2014-01-22, 14:10:43
Wo hat er das gesagt? Wie gesagt hab ich das auch nicht weiter verfolgt. Die Packdichte wäre meiner bescheidenen Meinung nach nur halt absurd. Aber ich weiß gar nicht obs unmöglich wäre 48 CUs in
438 mm2 zu packen...

ps: weiß jemand wie man am smartphone Potenzen eingeben kann? :confused:

http://forum.beyond3d.com/showpost.php?p=1817984&postcount=2269

case closed ;)

Hübie
2014-01-22, 14:37:51
Haha. Der Mann hat offenbar wenig Zeit. Danke jedenfalls. Dann hat Hassan vielleicht getrollt oder is einem falschen dieshot aufgelaufen :|

Wie auch immer - case closed.

Jetzt kommen ja von nVidia erst mal nur noch rebrands und marketing-trächtige Sprüche um 1100 Euro für eine Karte zu rechtfertigen. Also irgendwie merkt mans halt auch ohne viel Ahnung von der Materie haben zu müssen dass es alles nicht mehr so einfach ist wie früher. Wird ja auch sein Grund haben weshalb nV Maxwell nur als Gurken auf den Markt wirft. Irgendwie ätzend, aber irgendwie auch gut dass ich nichts verpasse.

Ailuros
2014-01-22, 16:29:04
Die shot = fake.

Knuddelbearli
2014-01-22, 19:30:07
Naja so wie ich Baumanns ausage ine rinenrung habe sagte er nur das 290X ein voller chip ist

das kann auch nur bedeuten das kein weiterer Chip mit mehr ALUs kommen wird :biggrin:

Ailuros
2014-01-22, 19:33:40
Naja so wie ich Baumanns ausage ine rinenrung habe sagte er nur das 290X ein voller chip ist

das kann auch nur bedeuten das kein weiterer Chip mit mehr ALUs kommen wird :biggrin:
In dem Fall haette er gar nichts gesagt.

Hübie
2014-01-24, 02:49:05
Au,äf CB wird gemeldet dass es von der MSI Lightning nur 12 Stück gibt weil angeblich zu wenig Chips vorrätig sind. Ich so: HÄ?? :|
GK110(B) läuft doch wie geschnitten Brot von TSMC's Fließbändern... Hab ich was verpasst? :confused:

M4xw0lf
2014-01-24, 07:17:56
Nachdem was ich gelesen hab, hat sich MSI wohl einfach dagegen entschieden die Karte in Serie zu produzieren.

Thunder99
2014-01-24, 11:04:02
Evt nicht genug selektierte Chips auf Lager? :confused:

Air Force One
2014-01-24, 11:27:18
ja so steht das zumindest bei CB

Rente
2014-01-24, 11:28:13
Die werden ein ähnliches Problem wie EVGA mit den Classifieds bzw. der KingPin haben, sie bekommen einfach schon von nVidia nicht soviele gute Chips und das selektieren ist natürlich aufwändig + sie müssen deswegen ja auch mehr "schlechte" Chips verkaufen.

Sunrise
2014-01-24, 21:19:27
Ich hatte da vor ein paar Monaten schonmal etwas darüber gepostet (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9999645#post9999645).

Normalerweise werden die besten bins (das sind aktuell die 425er-bins, es gibt ja auch noch die 300er) für Dual-Karten benutzt. Und je höher die Zahl, desto seltener sind die Dinger. Die 425er laufen wohl größtenteils schon mit sehr hohen Taktraten bei sehr niedrigen Spannungen. Und genau die niedrigen Spannungen sind wichtig, weil NV da ein TDP-Budget hat, in welches die Dual-Karte unbedingt passen muss. Senkt man den Takt also weiter, wird es noch sparsamer, bis man irgendwann an den Threshold kommt, wo es nichtmehr weiter runter geht. Und dafür braucht NV eine Anzahl x an Chips für die Vorstellung und den Verkauf.

Es könnte also sein, dass NV die für die Dual-GK110-B1 zurückhält, bzw. die Chips aus dem Bestand sogar noch weiter selektiert. NV musste anfangs aber die Masse bedienen und wird das jetzt wohl auf die bins weiter einschränken.

Da wird natürlich die Luft eng für die AIBs, da noch extremer zu selektieren. Vor allem kommt ja auch noch eine 6GB Black Edition.

Davon ab, die MSI Lightning ist sowieso ein ziemlich halbgares Teil, weil auch wieder nur 3GB und für den Preis ist das IMHO ein Unding, das kaufen wahrscheinlich nichmal die wenigen Prozent, die normalerweise auf jedes Bisschen Leistung schauen und dafür auch bereit sind, Geld auszugeben.

fondness
2014-01-26, 10:29:32
Die GTX790 Dual-Chip kommt wohl nur mit 3GB VRAM pro Chip
http://videocardz.com/49465/asus-geforce-gtx-titan-black-6gb-memory-gets-listed-974-eur


GeForce GTX TITAN BLACK Edition 6GB, GK110, 2880 CUDAs
GeForce GTX 790 6GB, 2xGK110, 2x 2496/2880 CUDAs
GeForce GTX 750 Ti 2GB, GK106 (GM106), 960 CUDAs
GeForce GTX 750 1GB, GK107 (GM107), 384 CUDAs


Ob es sich bei der GTX750-Serie tatsächlich um Maxwell handelt scheint auch alles andere als sicher.

Schaffe89
2014-01-26, 15:49:55
Nur 3GB V-ram? Nvidia geht so wie auch bei den letzten Generationen den "Krüppelweg".

Angefangen bei der GTX 295 mit 896mb V-ram, bei der GTX 590 mit 1,28GB V-ram, bei der GTX 690 mit 2GB und jetzt bei der 790 nur 3GB.

Raff
2014-01-26, 15:52:34
Bei so einer Karte ist das tatsächlich Unsinn. Die 5 GiB der ersten Gerüchte klangen schräg, wären aber im SLI durchaus sinnvoll.

MfG,
Raff

Thunder99
2014-01-27, 11:04:53
Wird aber sofern sich der Online Shop nicht irrt bestätigt:

http://www.computerbase.de/news/2014-01/geforce-gtx-titan-black-und-gtx-790-gelistet/

Hübie
2014-01-27, 11:15:15
Nur 3GB V-ram? Nvidia geht so wie auch bei den letzten Generationen den "Krüppelweg".

Angefangen bei der GTX 295 mit 896mb V-ram, bei der GTX 590 mit 1,28GB V-ram, bei der GTX 690 mit 2GB und jetzt bei der 790 nur 3GB.

Ack. Ich sehe bei mir oft 2,5 GB Auslastung und komme auch schnell mal auf über 3. Das wird in Zukunft ja nicht weniger!
Na ja. Die Hoffnung stirbt zuletzt :freak: Andererseits is diese Karte preislich für mich out of range.

Dural
2014-01-27, 16:07:03
War ja klar, oder nicht? ;)

zudem 12GB Speicher auf einer Dual GPU Karte noch recht interessant aussehen würde. Das sind mal eben 48 Speicher Chips :freak:

AnarchX
2014-01-27, 16:08:09
zudem 12GB Speicher auf einer Dual GPU Karte noch recht interessant aussehen würde. Das sind mal eben 48 Speicher Chips :freak:
24 * 4Gbit reichen.

Dural
2014-01-27, 16:15:56
OK, ich dachte Titan hat schon 24 drauf?

AnarchX
2014-01-27, 16:30:07
Der ist ja auch bald ein Jahr alt. Mittlerweile gibt es aber entsprechende Speicherchips mit doppelter Kapazität (siehe K6000 oder PS4).

fondness
2014-02-11, 19:38:46
NVIDIA GeForce GTX TITAN Black is not black :D
http://videocardz.com/49559/nvidia-geforce-gtx-titan-black-black

Godmode
2014-02-11, 20:17:28
NVIDIA GeForce GTX TITAN Black is not black :D
http://videocardz.com/49559/nvidia-geforce-gtx-titan-black-black

Für die paar Karten würde das umlackieren des Kühlers wohl mehr kosten, als diese Karten überhaupt an Gewinn erzeugen. ^^

fondness
2014-02-12, 15:36:38
Angeblich offizielle Werbung, die den Namen und auch das Erscheinungsbild mit schwarzen Titan Aufdruck aber sonst in silber bestätigt:

http://imagizer.imageshack.us/v2/xq90/541/axwf.png (https://imageshack.com/i/f1axwfp)

Und hier Bilder der Karte:

http://imagizer.imageshack.us/v2/xq90/545/gdlq.jpg (https://imageshack.com/i/f5gdlqj)
http://imagizer.imageshack.us/v2/xq90/716/u8jf.jpg (https://imageshack.com/i/jwu8jfj)

http://videocardz.com/49585/nvidia-geforce-gtx-titan-black-officially-confirmed

mironicus
2014-02-12, 17:56:22
Das wäre dann also der Vollausbau mit kompletter DP-Leistung und den 6 GB RAM.

Praktisch die Karte die eigentlich jeder gerne haben wollte - das Beste kommt immer am Schluß.

Und es gibt bestimmten NIEMANDEN, absolut NIEMANDEN, der sich über das Erscheinen dieser Karte nicht freut! Alle Titan, GTX 780, GTX 780 Ti Besitzer freuen sich grenzenlos, das diese Karte jetzt erschienen ist... :D

Raff
2014-02-16, 12:51:35
Angeblich 890 MHz Basis- und 980 MHz Typical-Boost-Takt: http://videocardz.com/49630/nvidia-geforce-gtx-titan-black-final-specifiactions

Meh. 1 GHz Basistakt wäre möglich gewesen und angesichts des kolportierten Preispunkts auch wünschenswert.

MfG,
Raff

Sunrise
2014-02-16, 13:29:22
Angeblich 890 MHz Basis- und 980 MHz Typical-Boost-Takt: http://videocardz.com/49630/nvidia-geforce-gtx-titan-black-final-specifiactions

Meh. 1 GHz Basistakt wäre möglich gewesen und angesichts des kolportierten Preispunkts auch wünschenswert.

MfG,
Raff
Nicht, dass ich deine Tests mit dem Teil in Frage stellen würde, aber bist du sicher, dass 1GHz (das sind immerhin nochmal 164MHz über der alten Titan inkl. Vollausbau) nicht ein wenig zu hoch gegriffen sind? Das Teil muss ja wirklich überall rock stable sein (auch DP) und dann noch in die TDP passen. Ich denke mal, da will man einfach auf Nummer sicher gehen. 1GHz sähen natürlich beim Marketing besser aus.

Ist aber ohnehin unspannend, wenn man schon Titan-Besitzer ist, da kann Huang soviel rumposaunen, wie er möchte.

AnarchX
2014-02-16, 13:35:33
Laut dem Artikel wird wohl bei DP wieder heruntergetaktet (DP = ~ 1/4 SP).

Und 2880SPs GK110 mit 1GHz Base kann man schon kaufen: http://geizhals.at/de/?cat=gra16_512&csrf=4B1BF476-9702-11E3-BF27-1884FD251430&xf=1439_GTX+780+Ti~140_1000&sort=p

Insgesamt schon ziemlich dreist, dass man den Herstellern die 6GiB 780 (Ti) Versionen verwehrt.

Sunrise
2014-02-16, 13:44:56
Laut dem Artikel wird wohl bei DP wieder heruntergetaktet (DP = ~ 1/4 SP).

Und 2880SPs GK110 mit 1GHz Base kann man schon kaufen: http://geizhals.at/de/?cat=gra16_512&csrf=4B1BF476-9702-11E3-BF27-1884FD251430&xf=1439_GTX+780+Ti~140_1000&sort=p

Insgesamt schon ziemlich dreist, dass man den Herstellern die 6GiB 780 (Ti) Versionen verwehrt.
Ja, das ist der eigentliche Aufreißer. Geht im Endeffekt eh nur darum, die $1000 weiter solange zu halten, bis Maxwell kommt.

Raff
2014-02-16, 14:07:46
Nicht, dass ich deine Tests mit dem Teil in Frage stellen würde, aber bist du sicher, dass 1GHz (das sind immerhin nochmal 164MHz über der alten Titan inkl. Vollausbau) nicht ein wenig zu hoch gegriffen sind? Das Teil muss ja wirklich überall rock stable sein (auch DP) und dann noch in die TDP passen. Ich denke mal, da will man einfach auf Nummer sicher gehen. 1GHz sähen natürlich beim Marketing besser aus.

Das ist natürlich Spekulatius. Für 999 Euro/Dollar könnte man strenge Selektion betreiben (bzw. als Kunde erwarten) und die Kerne mit 1.000 MHz bei geringer Spannung spezifizieren. Der Boost muss davon ausgehend ja nicht gigantisch ausfallen, der nützt sowieso niemandem wirklich – im Gegensatz zu einem garantierten Mindesttakt (den z. B. Hawaii nicht besitzt).

MfG,
Raff

Gaestle
2014-04-01, 20:34:57
Was bedeutet ein GK110-301-B1 ?

Quelle: http://www.computerbase.de/2014-04/zotacs-geforce-gtx-780-6-gb-512-mb-drams/
Original: http://www.expreview.com/32458.html

PS: Der Aprilscherz steckt in einem anderen Artikel.

Loeschzwerg
2014-04-01, 20:39:31
...
Auf den 6GiB GTX 780 ist wohl auch ein neuer GK110-301 Chip. Eventuell können die Chip-Hersteller nun auch den Speicherausbau hard-locken.
...

Das wäre evtl. eine ganz plausible Erklärung.

Mr.Ice
2014-04-27, 11:05:28
Update: Die neue Geforce GTX Titan Z wird laut Videocardz ab dem 29. April im Handel erhältlich sein. Außerdem soll Nvidia weiterhin an einer zusätzlichen Dual-GPU-Grafikkarte arbeiten, die schon zuvor in Gerüchten genannt wurde. Es handelt sich um die Geforce GTX 790. Dieses Modell soll dann mit etwas abgespeckten technischen Daten antreten und dementsprechend deutlich günstiger sein.

quelle : http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-titan-z/news-artikel/nvidia_geforce_gtx_titan_z,794,3034102.html

AnarchX
2014-04-27, 11:08:24
Bei der GTX 790 käme vielleicht auch GK210 in Frage: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10181093#post10181093

DavChrFen
2014-05-03, 12:58:30
Irgendwo habe ich aufgeschnappt, dass die 780 demnächst mit doppelt so viel Speicher erhältlich sein soll. Ist das nur ein Gerücht oder was ist da dran? Oder liege ich völlig daneben?

dildo4u
2014-05-03, 13:01:02
Irgendwo habe ich aufgeschnappt, dass die 780 demnächst mit doppelt so viel Speicher erhältlich sein soll. Ist das nur ein Gerücht oder was ist da dran? Oder liege ich völlig daneben?

Sind schon auf Lager.
http://geizhals.de/?cat=gra16_512&xf=132_6144~1439_GTX+780#xf_top