PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33

maximus_hertus
2014-09-19, 10:43:29
Moin zusammen. Erstmal sorry, falls ich mit den (Vorab) Preisen für etwas "Verwirrung" gesorgt habe. Auch bei uns wurden vor ca 1 Std die Preise angepasst:
http://1drv.ms/1mjQJ4l

Auch die anderen Karten haben jetzt ca. UVP Preise (350-370 bzw 550 Euro).

Godmode
2014-09-19, 10:46:15
GK110 war nicht problematisch fuer seine Zeit; glaubst Du dass GM200 trotz 28nm mit der Packdichte die ich fuer das Ding erwarte bessere binning yields haben wird?



Und wieso nicht den gesamten ersten Schub wenn moeglich in Profi-Maerkten verkaufen? Bekommen sie dann mehr oder weniger pro SKU?

Ich dachte immer sie konnten nicht so viele GK110 produzieren um Profi und Consumermarkt gleichzeitig zu bedienen? Ich denke schon das die Yields besser werden als noch bei GK110. Man kennt den Prozess und die erhöhte Packdichte wird sicher berücksichtigt worden sein.

Also warum produziert man nicht einfach gleich genug Wafer für Profi- und Consumer Märkte?

Moin zusammen. Erstmal sorry, falls ich mit den (Vorab) Preisen für etwas "Verwirrung" gesorgt habe. Auch bei uns wurden vor ca 1 Std die Preise angepasst:
https://wdvpqa.dm2302.livefilestore.com/y2pFo1eSPBW2hPdqxzNuK6iDyKmdNLcLIhv_W3RB1knB_rCGsPWlPl86IjfbdGIaVp64ZRuffdgK9UQe gp9JNp_8kR5WenyE_DRA9u5rAws1Gg/gtx970-neu.jpg

Auch die anderen Karten haben jetzt ca. UVP Preise (350-370 bzw 550 Euro).


Das gehört jetzt eigentlich in den Review Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=556956).

Ailuros
2014-09-19, 10:53:22
Ich dachte immer sie konnten nicht so viele GK110 produzieren um Profi und Consumermarkt zu bedienen?

Sie hatten ziemlich grosse HPC Vertraege die sie fuettern mussten im September damals so viel stimmt; wer sagt dass sie diesmal keine haben? Wer wuerde nicht gerne =/>2.5TFLOPs DP bei =/>225W TDP haben?

Ich denke schon das die yields besser werden als noch bei GK110. Man kennt den Prozess und die erhöhte Packdichte wird sicher berücksichtigt worden sein.

Wenn der GM204 tapeout stimmt (Anfang April) dann konnte wohl NV mit der pin Kompatibilitaet tricksen und schneller als 6 Monate zur Massenproduktion gehen. 204 ist aber auch bei ~13Mio/mm2.

Wenn sich jetzt der gleiche Trend mit GM200 wiederholen wuerde, dann muessten schon die ersten GPUs davon im November 2014 erhaeltlich sein. Warum dann erst ab Q1 15' egal welcher Markt?

Also warum produziert man nicht einfach gleich genug Wafer für Profi- und Consumer Märkte?

Weil Profi Maerkte high margin/low volume sind und Desktop low margin/high volume?

TurricanM3
2014-09-19, 10:58:59
Die besten Modelle und auch die GTX-980-Referenzkarte lassen sich mit beeindruckenden 1.500 MHz Kern- und 4.001 MHz Speichertakt nutzen - absolut gamestable auch in Ultra HD. Die Leistung steigt durch die erhöhten Frequenzen beinahe linear an.


Schreibt die PCGH. :smile:

Godmode
2014-09-19, 11:07:13
Sie hatten ziemlich grosse HPC Vertraege die sie fuettern mussten im September damals so viel stimmt; wer sagt dass sie diesmal keine haben? Wer wuerde nicht gerne =/>2.5TFLOPs DP bei =/>225W TDP haben?



Wenn der GM204 tapeout stimmt (Anfang April) dann konnte wohl NV mit der pin Kompatibilitaet tricksen und schneller als 6 Monate zur Massenproduktion gehen. 204 ist aber auch bei ~13Mio/mm2.

Wenn sich jetzt der gleiche Trend mit GM200 wiederholen wuerde, dann muessten schon die ersten GPUs davon im November 2014 erhaeltlich sein. Warum dann erst ab Q1 15' egal welcher Markt?



Weil Profi Maerkte high margin/low volume sind und Desktop low margin/high volume?

Kann natürlich gut sein, die lechzen ja nach Performance/Watt.

Das ist natürlich eine gute Frage und wird wohl leider niemand so schnell beantworten können. Naja was solls, ruhig bleiben und abwarten, auch wenn es langweilig ist.

robbitop
2014-09-19, 11:19:02
Etwas wie MFAA hatte ATI schon mal in Entwicklung.
Total (eis-)kalter Kaffe. Hieß T-AA (Temporal Antialiasing) und war Stand der Technik Anno 2004/05. Also ca. vor 10 Jahren.
Funktioniert sehr gut, wenn man hohe FPS hat und wenig Bewegung im Spiel ist. Aber der praktische Nutzen war IMO sehr beschränkt. Sobald Bewegung in's Spiel kam, sah man, dass nur noch 2 statt 4 Kontraststufen zu sehen waren, die auch noch "flimmerten".

NV soll lieber vernünftige Downsamplingfilter anbieten.


Beide Dinge sind anscheinend Maxwell exklusiv und für DSR braucht man mindestens eine 970.

Soll für Kepler noch nachkommen. Ist wohl keine spezielle HW dafür nötig (was klar sein sollte). Ist wohl noch nicht für Kepler zertifiziert. (laut CB)

Locuza
2014-09-19, 12:32:26
Soll für Kepler noch nachkommen. Ist wohl keine spezielle HW dafür nötig (was klar sein sollte). Ist wohl noch nicht für Kepler zertifiziert. (laut CB)
Hoffentlich für die alten Kunden.
TXAA war technisch sicherlich auch nicht an Kepler gebunden, ohne mussten Fermi Nutzer dennoch leben.

robbitop
2014-09-19, 13:20:44
Naja aber diesmal wurde es ja so kommuniziert, dáss die nachkommen. Bei TXAA hieß es ja von Anfang an, dass es erst ab Kepler geht.

del_4901
2014-09-19, 13:24:55
http://international.download.nvidia.com/geforce-com/international/pdfs/GeForce_GTX_980_Whitepaper_FINAL.PDF

deekey777
2014-09-19, 13:26:22
Total (eis-)kalter Kaffe. Hieß T-AA (Temporal Antialiasing) und war Stand der Technik Anno 2004/05. Also ca. vor 10 Jahren.
... (laut CB)
Für mich klang das eher nach T-Buffer. ;(

Akkarin
2014-09-19, 15:20:08
Persoenlich fuehlt sich fuer mich der launch wie fast jeder launch an; leaks gibt es immer.

----------------------------------------------------------------------

Generell wundert es mich nicht dass die AMD fans staendig etwas suchen um zu meckern

War ein wenig angepisst dass ich bis fast 5 uhr wach geblieben bin und dann keine neuen Infos bekommen hab, sorry. Bin dann natürlich ins bett genau bevor die reviews raus kamen (DX11.3 hab ich auch nicht mehr mit bekommen).


Aber die Karte ist wirklich der größte wurf seit mindestens G80, ich hab keine ahnung wie nVidia das hinbekommen hat.

Die 980 hat das selbe perf/W, aber ein höheres perf/mm^2 als GM107 wenn ich mich nicht verrechnet habe, oder ?

Ailuros
2014-09-19, 15:49:44
DX status ist noch unbekannt da Microsoft noch nicht alles was zu DX12 gehoert angekuendigt hat.

Sonst mit dem Verbrauch mach Dir das Leben nicht zu schwer; eine 970 leistet ca. 2.5x Mal das einer 560Ti und verbraucht in etwa gleich so viel Strom in Echtzeit. Den Aufpreis fuer eine 980 kann ich persoenlich nicht gerechtfertigen; fuer NV macht es zwar Sinn aber ich wuerde als Verbraucher nie eine 980 anstatt einer 970 kaufen.

Hübie
2014-09-19, 16:41:54
http://international.download.nvidia.com/geforce-com/international/pdfs/GeForce_GTX_980_Whitepaper_FINAL.PDF

Das nennen die n whitepaper X-D Ich nenne das Infobroschüre.

Timbaloo
2014-09-19, 16:48:37
Hübie, hat sich deine INSIDERINFORMATION denn nun eigentlich bestätigt? ;D

Godmode
2014-09-19, 18:05:02
Das nennen die n whitepaper X-D Ich nenne das Infobroschüre.

Mehr ist das wirklich nicht. So wie ich Nvidia kenne, müssen das die Reviewseiten wieder selber zusammensuchen und erfragen.

Hübie
2014-09-19, 18:39:00
Hübie, hat sich deine INSIDERINFORMATION denn nun eigentlich bestätigt? ;D

Nein, zum Glück nicht. Mir wurde gesagt, dass man die Lastverteilung, Operantensammler nun per Software vornehmen müsse und man noch mehr auf compiler setze. Das war eine Ente :up: Das hätte bedeutet dass man für eigentlich jede Engine Anpassungen vornehmen müsste. Für mich war es eh nicht logisch, aber man weiß ja nie! Programmieren und was da dran hängt is einfach nicht mein (Fach-) Gebiet :redface: Aber ich taste mich da langsam ran.

Alles in Allem ist Maxwell gut gelungen. Negativ ist für mich lediglich der Ausschluß von MFAA, obwohl man es selbst (oder gerade besonders) älteren Generationen zugänglich machen könnte. Aber das kenne ich ja noch als Fermi-Besitzer (TXAA:rolleyes:).

aufkrawall
2014-09-19, 18:48:55
MFAA soll doch an Hardware-Features gebunden sein?

Bin gespannt, wie viel besser Lightworks auf Maxwell als auf Kepler laufen wird.
Super, dass NV Raytracing so pusht.

kunibätt
2014-09-19, 19:00:49
Was für Raytracing?

Hübie
2014-09-19, 19:09:23
MFAA soll doch an Hardware-Features gebunden sein?

Und was bitte?

Kann es sein dass Maxwell nur noch Vec32-ALUs hat? Keine Vec16 mehr? :confused:

Ailuros
2014-09-19, 19:47:33
Und was bitte?

Kann es sein dass Maxwell nur noch Vec32-ALUs hat? Keine Vec16 mehr? :confused:

Du meinst wohl eher SIMD32 bzw. SIMD16

Hübie
2014-09-19, 19:55:34
Wo liegt der Unterschied? :D

Locuza
2014-09-19, 19:59:02
Und was bitte?



http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/6
Unlike DSR, Multi-Frame Sampled Anti-Aliasing is implemented on and requires new Maxwell 2 hardware, which is NVIDIA’s new programmable MSAA sampling pattern ability in their ROPs. This feature allows NVIIDA to dynamically alter their MSAA sample patterns, which is a key feature of Multi-Frame Sampled Anti-Aliasing, and therefore cannot easily be backported to existing hardware.

AnarchX
2014-09-19, 20:00:26
Die Tesla M40 sollte auf GM204 basieren und paar 13C-Devices sind auch noch offen:
NVIDIA_DEV.13C0 = "NVIDIA GeForce GTX 980"
NVIDIA_DEV.13C2 = "NVIDIA GeForce GTX 970"

NVIDIA_DEV.13D7 = "NVIDIA GeForce GTX 980M"
NVIDIA_DEV.13D8 = "NVIDIA GeForce GTX 970M"

NVIDIA_DEV.13BD = "NVIDIA Tesla M40"

NVIDIA_DEV.13C1 = "NVIDIA Graphics Device "
NVIDIA_DEV.13C3 = "NVIDIA Graphics Device "

http://forums.laptopvideo2go.com/topic/31126-inf-v5014/
http://forums.laptopvideo2go.com/topic/31117-inf-v5013/
http://forums.laptopvideo2go.com/topic/31065-inf-v5011/

Ailuros
2014-09-19, 20:05:47
Wo liegt der Unterschied? :D

Βei etwas Vec32? Pure Compiler-Hoelle vielleicht? :freak:

Hübie
2014-09-19, 20:08:32
http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/6

Also gehts um den Wechsel des Musters an sich, nicht um die Anordnung, oder? Okay das hab ich nicht bedacht. Da muss ja so eine Art flip-bit sitzen. Ähm. Also dass halt immer hin und her geschaltet wird.

Danke dir jedenfalls :up:

Skysnake
2014-09-19, 23:13:01
Jau, Hammer! VR SLI ist auch sehr interessant. Mir tun die leid die sich jetzt für VR noch ne 780Ti oder ne 290 geholt haben, dass ältere Karten das Feature bekommen, davon kann man wohl nicht ausgehen, und ob AMD zeitgerecht mit ähnlichen Features kontern kann?.. hoffentlich.
Klingt wirklich gut, wobei ich mich gerade wirklich frage, was Sie denn da jetzt überhaupt machen :confused:

An sich muss man ja normal einfach durch den Software Stack durch, und kann keine Abkürzungen nehmen, das ist halt einfach die API, die man verwendet.

Klingt das nur für mich gerade wie ne eigene API-Erweiterung, die man aktiv nutzen muss? Habe ansonsten keine Idee, was die da machen.

Eventuell rechnet dann eine Karte das linke Bild und die andere das rechte. Wäre jedenfalls wieder ein Grund für SLI. Schade das SFR so suckt, sonst könnte man 4 Karten kombinieren.
Und wie soll das bei Occulus Rift funktionieren? Da hat man ja nur ein Display, und man muss ja auch immer für beide Seiten des Displays das gleiche Bild haben, sonst hat man ja eine zeitliche Abweichung zwischen den Bildern.

Wenn müssten die also synchron arbeiten, was aber auf jeden Fall Leistung kosten sollte. Zumindest im Normalfall läuft auf der Main-GPU noch so mancher Mist hinten dran.

Hatte das mal verfizieren können mit GPU-Direct und gleichzeitiger Ausgabe eines Bildes. Die Verwendung einer 0815 GPU für das Rendering hat extrem viel bei den Latenzen, und vor allem bei der Stabilität der Latenzen/Performance vom Compute geholfen, aber nicht nur das, auch die Ergebnisse an sich wurden besser.

Vor allem soll doch der Algorithmus an sich doch ziemlich effizient sein dachte ich, der dafür sorgt, das man das versetzte Bild bekommt.

@allgemein:
GM204 überrascht positiv, wenn ich mir den CB Test anschaue. Besser als erwartet, aber ganz schön happiger Preis. Ich frage mich allerdings ernsthaft, woher die die ganze Effizienzsteigerung bei den Shadern bekommen. Sind das wirklich "nur" die Caches? Kann ich mir kaum vorstellen, dass das wirklich so gut funktioniert. Warum hat man das dann nicht schon früher gemacht?

Ich glaub, das Sheduling trägt da auch entscheidend mit bei. Das Design mit 256 ALUs sieht schon sehr viel schöner aus als die 192 von Kepler. Im "Whitepaper" (den Namen verträgt das Ding an sich wirklich nicht...) Wird ja auch kurz erwähnt, dass der Datapath optimiert wurde, und durch das 256er Design auch die Auslastung viel einfacher wurde.

@SMM:
Ich hab mir die Diagramme der Shadercluster nochmal angeschaut. Das Registerfile ist zwar insgesamt gleich groß, aber man hat es geviertelt. Weiß jemand, ob sich dadurch die maximale Anzahl an verfügbaren REgistern für einen Thread reduziert hat? Die gestiegene Zahl der verfügbaren Register hatte man ja als eine der großen Errungenschaften von Kepler verkauft.

Hat zwar meines Wissens nur in recht exotischem Code etwas gebracht, aber dennoch wäre ein Rückschritt hier unschön. Man gibt ja ungern wieder etwas aus der Hand ;) Habe dazu aber jetzt leider nichts gefunden. Hat jemand dazu Infos?

Der getrennte Shared/L1 finde ich immer noch durchaus als positiv. man verliert zwar die Auswahlmöglichkeit, aber gut, wird wohl das Design deutlich einfacher machen für nVidia.

wie sieht es eigentlich mit dem L1 aus, wie groß ist der jetzt, und ist alles von allem zugreifbar? Der ist ja geteilt eingezeichnet. :confused:

Btw. wenn wir es schon vom L1 haben. Wie ist eigentlich die assoziativität von dem bei Kepler und Maxwell? ich könnte mich jetzt nicht erinnern, das man dazu an sich was weiß.

EDIT:
Also ums nochmal kurz zusammenzufassen:

Nice done nVidia. sehr schöne Architekturverbesserungen, und vor allem echt was rausgerissen bei der Effizienz. Der Mobile-Markt sollte damit aktuell klar an nVidia gehen. AMD hat da nicht wirklich etwas entgegen zu setzen, was die Effizienz anbelangt. GAmer-Notebooks werden zwar nicht in den Massen abgesetzt, aber man hat wohl definitiv eine Existenzberechtigung neben den Intel-iGPUs, und das nicht nur für heuer.

Terrarist
2014-09-20, 00:02:08
Klingt wirklich gut, wobei ich mich gerade wirklich frage, was Sie denn da jetzt überhaupt machen :confused:

An sich muss man ja normal einfach durch den Software Stack durch, und kann keine Abkürzungen nehmen, das ist halt einfach die API, die man verwendet.

Klingt das nur für mich gerade wie ne eigene API-Erweiterung, die man aktiv nutzen muss? Habe ansonsten keine Idee, was die da machen.

Ich vermute dass es (VR SLI) nichts mit dem Oculus SDK bzw. einer spezifischen ingame Implementierung zu tun hat. Das Bild besteht in VR (Side By Side Stereo 3D) ja sowieso aus 2 unterschiedlichen Bildern die aus der leicht unterschiedlichen Perspektive des Auges resultieren, und das Rift agiert quasi als Doppeldisplay obwohl es ein physisches Display ist. Dass du es als EIN Bild wahrnimmst liegt an deinem Gehirn, welches die Bilder zusammenfügt.

Nvidia lässt so halt eine GPU für jedes Auge Rechnen und gibt jedes Bild dann an das "Doppeldisplay" der Rift weiter, so als wären es 2 verschiedene Monitore pro Auge. Der prozess das Bild wieder zusammenzufügen entfällt ja, da es wie gesagt dein Gehirn erledigt. Im Grunde macht multi GPU dadurch das erste mal wirklich Sinn für flüssiges Gaming.

Nochmal der Schritt vereinfacht:

1. 3D Umgebung wird durch die Engine und Rift SDK in 2 perspektivisch leicht verschiedene Bilder pro Auge aufgeteilt.

2. Diese beiden Bilder werden jeweils an die GPU geschickt und unabhängig voneinander synchron berechnet.

3. Die Bilder werden auf dem Rift Display, welches logisch aus 2 Displays besteht jeweils für das linke und rechte Auge ausgegeben.

4. Dein Gehirn setzt die beiden Bilder wieder zu einem Bild zusammen.


Nutzt du nur eine Graka dann passiert im Grunde dasselbe, nur dass die Ressourcen der Graka halt für die beiden Bilder geteilt werden. Es ensteht durch VR SLI also kein zusätzlicher Schritt zu Framedrops führen könnte.

-/\-CruNcher-/\-
2014-09-20, 06:28:41
Sie hatten ziemlich grosse HPC Vertraege die sie fuettern mussten im September damals so viel stimmt; wer sagt dass sie diesmal keine haben? Wer wuerde nicht gerne =/>2.5TFLOPs DP bei =/>225W TDP haben?



Wenn der GM204 tapeout stimmt (Anfang April) dann konnte wohl NV mit der pin Kompatibilitaet tricksen und schneller als 6 Monate zur Massenproduktion gehen. 204 ist aber auch bei ~13Mio/mm2.

Wenn sich jetzt der gleiche Trend mit GM200 wiederholen wuerde, dann muessten schon die ersten GPUs davon im November 2014 erhaeltlich sein. Warum dann erst ab Q1 15' egal welcher Markt?



Weil Profi Maerkte high margin/low volume sind und Desktop low margin/high volume?

The Witcher 3 ;)

Far Cry 4, AC5 und Arkham Knight load sollten gut mit der 970/980 (GM204) machbar sein bei Ryse wirds interessant, glaube nicht das Witcher 3 nochmal auf VXGI umgestellt wird dafür war die Zeit zu knapp aber der Load sollte auch so schon ordentlich sein vor allem wenn man DSR hinzurechnet dagegen stellt sich ja MFAA was wiederum den load runterdrücken wird vor allem ab 2K wird das den schwächeren GTX helfen auszugleichen.

Total (eis-)kalter Kaffe. Hieß T-AA (Temporal Antialiasing) und war Stand der Technik Anno 2004/05. Also ca. vor 10 Jahren.
Funktioniert sehr gut, wenn man hohe FPS hat und wenig Bewegung im Spiel ist. Aber der praktische Nutzen war IMO sehr beschränkt. Sobald Bewegung in's Spiel kam, sah man, dass nur noch 2 statt 4 Kontraststufen zu sehen waren, die auch noch "flimmerten".

NV soll lieber vernünftige Downsamplingfilter anbieten.


Soll für Kepler noch nachkommen. Ist wohl keine spezielle HW dafür nötig (was klar sein sollte). Ist wohl noch nicht für Kepler zertifiziert. (laut CB)

Hat Nvidia schon öfter gemacht viele ihre Shader implementation werden für die Hardware bestimmt aktiviert wenn sie keinen Sinn sehen zwecks performance auf der älteren Hardware lassen sie es disabled.

Wobei das bei MFAA im ersten moment absolut unverständlich scheint noch mehr als wie bei TXAA und DSR

aths
2014-09-20, 09:07:08
Das nennen die n whitepaper X-D Ich nenne das Infobroschüre.
Das White Paper (hüstel) für die GTX 680 habe ich so ähnlich in Erinnerung. Anstatt objektiv zu beschreiben, was los ist, klingen die Formulierungen so als wäre das "Paper" von der Marketing-Abteilung verfasst :( ohne dabei besonders tief in die Technik einzudringen.

Mich nervt sowas unheimlich. Sollen die doch einerseits Info-Broschüren herausbringen und andererseits White Papers.

fondness
2014-09-20, 09:08:14
Bitte löschen.

aths
2014-09-20, 09:25:05
DX status ist noch unbekannt da Microsoft noch nicht alles was zu DX12 gehoert angekuendigt hat.

Sonst mit dem Verbrauch mach Dir das Leben nicht zu schwer; eine 970 leistet ca. 2.5x Mal das einer 560Ti und verbraucht in etwa gleich so viel Strom in Echtzeit. Den Aufpreis fuer eine 980 kann ich persoenlich nicht gerechtfertigen; fuer NV macht es zwar Sinn aber ich wuerde als Verbraucher nie eine 980 anstatt einer 970 kaufen.
Schlauer Zug von Nvidia: Auf dem Papier ist die 980 bis zu 30% schneller. Da die meisten 970-er höher takten als die Referenz vorgibt und die Karte nicht rein shaderlimitiert ist, ist der Unterschied in der Praxis geringer.

Für real 10-15% mehr Leistung latzt man bei der 980-er locker 200 Öcken mehr.

aufkrawall
2014-09-20, 09:26:40
Für den Enthusiasten mit maximalem Takt & Stromverbrauch muss das aber nicht gelten.

Godmode
2014-09-20, 10:06:17
Schlauer Zug von Nvidia: Auf dem Papier ist die 980 bis zu 30% schneller. Da die meisten 970-er höher takten als die Referenz vorgibt und die Karte nicht rein shaderlimitiert ist, ist der Unterschied in der Praxis geringer.

Für real 10-15% mehr Leistung latzt man bei der 980-er locker 200 Öcken mehr.

Die 980 kann ich aber auch übertakten und was man so hört, schaffen die auch 1,4-1,5 GHz. 13 vs 16 SMM ist doch ein großer Unterschied. Und ja, ich würde mir sicher eine 980 kaufen auch wenn sie deutlich teurer ist.

aufkrawall
2014-09-20, 10:11:05
Das gute Gefühl, die beste Performance ohne mGPU-Spackereien zu haben, ist schon wertvoll.

Botcruscher
2014-09-20, 11:23:57
Gefühl ist nicht rational. Der große Chip steht ja auch noch an.

aufkrawall
2014-09-20, 11:27:56
Aber nur zum Titan-Preis, wenn Fiji nicht nicht mindestens gleich gut sein wird (wovon ich nicht ausgehe).

dargo
2014-09-20, 11:34:21
Die 980 kann ich aber auch übertakten und was man so hört, schaffen die auch 1,4-1,5 GHz.
Klar kannst du das. Effektiv wirst du aber weniger fps bekommen als bei der GTX970. Stichwort... Bandbreite. Die GTX980 hat knapp 32% mehr Rohleistung als die GTX970. Die Games skalieren afaik aber nur bis max. 20% mit. Ganz ehrlich... die 980 ist völlig überteuert und zudem kann sie ihre volle Leistung auch noch nicht mal komplett entfalten.

aufkrawall
2014-09-20, 11:41:49
Die 970 hat wahrscheinlich weniger effektive Bandbreite als die 980:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358050&postcount=2

dildo4u
2014-09-20, 11:42:21
Klar kannst du das. Effektiv wirst du aber weniger fps bekommen als bei der GTX970. Stichwort... Bandbreite. Die GTX980 hat knapp 32% mehr Rohleistung als die GTX970. Die Games skalieren afaik aber nur bis max. 20% mit. Ganz ehrlich... die 980 ist völlig überteuert und zudem kann sie ihre volle Leistung auch noch nicht mal komplett entfalten.
Wurde schon öfter widerlegt sie ist nicht besonders Bandbreiten limitiert.

One would presume that the memory overclock is the more important given the narrow memory bus, but as it turns out that is not necessarily the case.

With a handful of exceptions our 11% memory overclock is netting us less than a 6% increase in performance. Meanwhile our 22% core overclock is netting us a 12% increase or more

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/22

Den Core takt kann sie nicht komplett in Leistung umsetzen weil TDP limitiert.

This despite the fact that when it comes to core overclocking, the GTX 980 is TDP limited; in many of these games it could clock higher if the TDP budget was large enough to accommodate higher sustained clockspeeds.

aufkrawall
2014-09-20, 11:44:42
Übrigens skaliert GK110 irgendwann auch nicht mehr 1:1 mit dem Takt, auch wenn die Bandbreite so gut wie gar nicht limitiert.

dargo
2014-09-20, 11:45:51
Die 970 hat wahrscheinlich weniger effektive Bandbreite als die 980:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358050&postcount=2
Hmm... dann wird die ganze Sache noch komplizierter (aber dennoch scheint die effektive Bandbreite der 980 nicht zu reichen).

Gibt es irgendwo Tests wie die GTX970 mit höheren Coretaktraten skaliert ohne die Bandbreite zu erhöhen?

aufkrawall
2014-09-20, 11:47:10
Wie weit kann man eigentlich das Powertarget erhöhen?
Nicht, dass diese Tests dadurch völlig verzerrt sind...

dildo4u
2014-09-20, 11:49:10
Wie weit kann man eigentlich das Powertarget erhöhen?
Nicht, dass diese Tests dadurch völlig verzerrt sind...
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/5/

dargo
2014-09-20, 11:50:12
Wurde schon öfter widerlegt sie ist nicht besonders Bandbreiten limitiert.

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/22

Das sehe ich anders. Zudem sehe ich in dem Test nicht ob in allen Spielen MSAA verwendet wurde. Sofern man kein MSAA verwendet spielt eine zu knapp bemessene Bandbreite kaum eine Rolle. Das hatte ich dir schon mal gesagt.


Den Core takt kann sie nicht komplett in Leistung umsetzen weil TDP limitiert.
Ich rede von Standard GTX970 vs. Standard GTX980. Ich glaube kaum, dass die TDP der 980 @Default Taktraten schon limitiert.

aufkrawall
2014-09-20, 11:52:48
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/5/
Nett, aber das reicht natürlich für 1,5Ghz nicht aus, um Drosselung weitestgehend zu vermeiden.
Ergo Skalierungstests ohne Bios-Mod für die Tonne.

dildo4u
2014-09-20, 11:55:34
Es scheint zu reichen.

1.5Ghz
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10357875&postcount=359

1.4Ghz

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358068&postcount=325

dargo
2014-09-20, 11:59:30
Es scheint zu reichen.

1.5Ghz
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10357875&postcount=359

1.4Ghz

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10358068&postcount=325
Was sollen uns diese Links jetzt genau sagen? :confused:

dildo4u
2014-09-20, 12:03:17
Das der Takt durchschlägt und man mit 1.5Ghz noch nicht im TDP Limit ist.

aufkrawall
2014-09-20, 12:07:45
Das der Takt durchschlagt und man mit 1.5 noch nicht im TDP Limit ist.
Das muss das überhaupt nicht heißen. Wenn beide durchs Powertarget limitiert sind, wird die GPU mit eingestellten 1,5Ghz trotzdem höher takten.

MartinRiggs
2014-09-20, 12:17:31
Die dauerhaften 1,4 bis 1,5 Ghz glaube ich erst wenn ich es live sehe.

Das wird irgendwie mit jeder Generation behauptet das der neue OC-King geboren ist, bloss schafft es dann daheim längst nicht jeder dauerhaft und mit niedrigem Verbrauch ist es dann auch Essig.

dargo
2014-09-20, 12:27:43
Das der Takt durchschlägt und man mit 1.5Ghz noch nicht im TDP Limit ist.
Hä?

1500Mhz vs. 1400Mhz sind 7%. Die Leistung schlägt nur mit lächerlichen 2% durch (6611 vs. 6476). Zudem wurde der Speicher bei den 1500Mhz Coretakt auch noch zusätzlich auf 1824Mhz leicht angehoben. Und zu guter letzt... verwendet der Extremetest überhaupt MSAA?

dildo4u
2014-09-20, 12:31:20
Ja stimmt vermutlich doch TDP limitiert damit die 980 nicht zu dicht an den großen Maxwell kommt.

AnarchX
2014-09-20, 12:34:31
Ja stimmt vermutlich doch TDP limitiert damit die 980 nicht zu dicht an den großen Maxwell kommt.

Es gibt doch Karten mit 2x8-Pin (z.B. Zotac Extreme (http://www.zotac.com/products/graphics-cards/geforce-900-series/product/geforce-900-series/detail/geforce-gtx-980-2/sort/starttime/order/DESC/amount/10/section/gallery.html)), die werden wohl kaum nur 220W TDP-Spielraum haben?

dildo4u
2014-09-20, 12:37:10
Hat NV beim 680/770 Chip erlaubt das TDP Limit bei Custom Karten weiter zu erhöhen?

aufkrawall
2014-09-20, 12:37:43
Und zu guter letzt... verwendet der Extremetest überhaupt MSAA?
Nein. Aber ob man mit MFAA und steigender Pixeldichte überhaupt jemals mehr als 2x nutzen will, sei mal dahin gestellt.
4x bringt bei der zerfilterten 3DMark-Optik auch kaum etwas.

Edit:@dildo: Mit Sicherheit, so hoch wie die boosten.

dargo
2014-09-20, 13:13:15
Nein. Aber ob man mit MFAA und steigender Pixeldichte überhaupt jemals mehr als 2x nutzen will, sei mal dahin gestellt.
4x bringt bei der zerfilterten 3DMark-Optik auch kaum etwas.

Mir wären Skalierungstests in Games mit 2-4xMSAA eh 1000x lieber als irgendein 3DFurz.

dildo4u
2014-09-20, 13:25:17
MSAA scheint ja fast überall raus zufliegen Ryse hats nicht mehr,Metro Redux und UE 4.0 etc.

aufkrawall
2014-09-20, 13:36:05
Sicher, dass Ryse es nicht mehr hat?

UE4 temporales SSAA + DS mit guter Qualität ist bestimmt sehr nett. :)

mironicus
2014-09-20, 13:46:07
Mir fiel auch auf, dass die MSI GTX 970 mit den 1500 MHz auch nicht besser abschnitt als die Asus Strix die nicht so stark übertaktet war (3D Mark), wahrscheinlich limitiert da etwas. Die Karten schaffen es nämlich nicht an einer GTX 980 vorbeizuziehen, was bei der hohen Übertaktung eigentlich möglich sein sollte.

Nakai
2014-09-20, 13:55:05
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Stromverbrauch von Maxwell etwas besser beleuchtet.
Interessantes Detail:
Maxwells Verbrauch unter Compute schießt ziemlich in die Höhe.
GTX 980 verbraucht unter Gaming ~180W, unter Compute ~280W. Der Unterschied ist dramatisch, was für die stärkere Effizienz unter Compute spricht.

Man erreicht sogar teilweise oder sogar mehr als R9 290X in Compute Anwendungen. Mit höherer DP-Leistung stößt GM200/210 Hawaii in vielen Bereich sicherlich vom Thron.

Dennoch ich kenne keine Karte die einen solchen Unterschied zwischen Gaming und Compute hinlegt. Das sind mehr als 50% Verbrauchsunterschied zwischen zwei verschiedenen Anwendungsbereichen.

Knuddelbearli
2014-09-20, 13:58:26
Ich vermute dass es (VR SLI) nichts mit dem Oculus SDK bzw. einer spezifischen ingame Implementierung zu tun hat. Das Bild besteht in VR (Side By Side Stereo 3D) ja sowieso aus 2 unterschiedlichen Bildern die aus der leicht unterschiedlichen Perspektive des Auges resultieren, und das Rift agiert quasi als Doppeldisplay obwohl es ein physisches Display ist. Dass du es als EIN Bild wahrnimmst liegt an deinem Gehirn, welches die Bilder zusammenfügt.

Nvidia lässt so halt eine GPU für jedes Auge Rechnen und gibt jedes Bild dann an das "Doppeldisplay" der Rift weiter, so als wären es 2 verschiedene Monitore pro Auge. Der prozess das Bild wieder zusammenzufügen entfällt ja, da es wie gesagt dein Gehirn erledigt. Im Grunde macht multi GPU dadurch das erste mal wirklich Sinn für flüssiges Gaming.

Nochmal der Schritt vereinfacht:

1. 3D Umgebung wird durch die Engine und Rift SDK in 2 perspektivisch leicht verschiedene Bilder pro Auge aufgeteilt.

2. Diese beiden Bilder werden jeweils an die GPU geschickt und unabhängig voneinander synchron berechnet.

3. Die Bilder werden auf dem Rift Display, welches logisch aus 2 Displays besteht jeweils für das linke und rechte Auge ausgegeben.

4. Dein Gehirn setzt die beiden Bilder wieder zu einem Bild zusammen.


Nutzt du nur eine Graka dann passiert im Grunde dasselbe, nur dass die Ressourcen der Graka halt für die beiden Bilder geteilt werden. Es ensteht durch VR SLI also kein zusätzlicher Schritt zu Framedrops führen könnte.

Nur wird das so nicht funktionieren, MR werden hier noch massiv stärker wargenommen als bei normalen SLI da bei minimaler abweichung das Gehirn das sofort erkennt und auch der 3d Effekt darunter leidet

horn 12
2014-09-20, 13:59:21
Somit eine Reine Gamer Karte mit excellentem Verbrauch!

dildo4u
2014-09-20, 14:00:21
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Stromverbrauch von Maxwell etwas besser beleuchtet.
Interessantes Detail:
Maxwells Verbrauch unter Compute schießt ziemlich in die Höhe.
GTX 980 verbraucht unter Gaming ~180W, unter Compute ~280W. Der Unterschied ist dramatisch, was für die stärkere Effizienz unter Compute spricht.

Man erreicht sogar teilweise oder sogar mehr als R9 290X in Compute Anwendungen. Mit höherer DP-Leistung stößt GM200/210 Hawaii in vielen Bereich sicherlich vom Thron.

Dennoch ich kenne keine Karte die einen solchen Unterschied zwischen Gaming und Compute hinlegt. Das sind mehr als 50% Verbrauchsunterschied zwischen zwei verschiedenen Anwendungsbereichen.

Wie soll das Gehen wenn die Karte bei 220Watt limitiert ist?

AnarchX
2014-09-20, 14:00:51
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Stromverbrauch von Maxwell etwas besser beleuchtet.
Interessantes Detail:
Maxwells Verbrauch unter Compute schießt ziemlich in die Höhe.

Hardware.fr hat soetwas auch unter Spielen gemessen:
http://www.hardware.fr/articles/928-7/consommation-efficacite-energetique.html
In BF4 gleicher Verbrauch, im rechenlastigen Anno legt die G1 deutlich zu.

aufkrawall
2014-09-20, 14:02:18
Was ist denn da verkehrt?
Bei CB ist der Anno 2070-Verbrauch TDP-typisch:
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/12/

Nakai
2014-09-20, 14:09:07
Wie soll das Gehen wenn die Karte bei 220Watt limitiert ist?

Wen interessieren Limits? Limits können immer umgangen werden. Man muss auch sehen, dass diese Limitierungen tatsächlich die Performance schmälern. Werden diese umgangen, legt die KArte trotzdem zu. Möglicherweise nicht so stark, aber dennoch.

Hardware.fr hat soetwas auch unter Spielen gemessen:
http://www.hardware.fr/articles/928-7/consommation-efficacite-energetique.html
In BF4 gleicher Verbrauch, im rechenlastigen Anno legt die G1 deutlich zu.

Interessant. Ich vermute, Maxwell hat eine sehr fortschrittliche Clock-Gating-Methode mit einer guten Granularität und weitere Verbesserungen am Scheduling, welche die Effizienz steigern. Unter bestimmten Tasks wird der Rahmen jedoch gesprengt und jegliches Limit übersprungen. Sieht für mich stark nach Verbesserungen im Ultra-Mobile-Bereich(Tegra) aus, welche sich auf dem Desktop genauso umsetzen lassen.

Knuddelbearli
2014-09-20, 14:09:35
Die dauerhaften 1,4 bis 1,5 Ghz glaube ich erst wenn ich es live sehe.

Das wird irgendwie mit jeder Generation behauptet das der neue OC-King geboren ist, bloss schafft es dann daheim längst nicht jeder dauerhaft und mit niedrigem Verbrauch ist es dann auch Essig.

Gegenüber GK110 B1 ist der GM204 eh ein OC Krüppel

dildo4u
2014-09-20, 14:19:59
Gegenüber GK110 B1 ist der GM204 eh ein OC Krüppel
Ohne ne Karte die über 250 Watt zulässt kann man das noch nicht sagen.

AffenJack
2014-09-20, 15:12:08
Was ist denn da verkehrt?
Bei CB ist der Anno 2070-Verbrauch TDP-typisch:
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/12/

Nix ist falsch, guck doch den Vergleich Partner zu Referenzkarten. Während die Referenzkarte einfach nen tiefes TDP-Limit hat, haben die Partnerkarten anscheinend ein teilweise viel höheres.

Wenn ich mir den THG-Test angucke glaube ich auch, dass manche mit Standardpowerlimit messen und andere drehen das hoch um zu sehen wieviel die Karte max verbrauchen kann.

aufkrawall
2014-09-20, 15:22:42
Wieso verbrät dann die 980 Referenz bei tomshardware dermaßen viel?
Kann selbst mit +25% PT nicht hinkommen.

AffenJack
2014-09-20, 15:35:11
Ja da hast recht, da habe ich kein Plan. Worum handelt es sich eigentlich beim Test von THG? Es wäre nett die Anwendungen zu kennen.

Nakai
2014-09-20, 15:46:30
Ahja im THG-Artikel steht es auch, was ich angenommen habe:

If the load is held constant, then the lower power consumption measurements vanish immediately. There’s nothing for GPU Boost to adjust, since the highest possible voltage is needed continuously. Nvidia's stated TDP becomes a distant dream. In fact, if you compare the GeForce GTX 980’s power consumption to an overclocked GeForce GTX Titan Black, there really aren’t any differences between them. This is further evidence supporting our assertion that the new graphics card’s increased efficiency is largely attributable to better load adjustment and matching.

Maxwells höhere Effizienz kommt einfach davon, dass Spiele die Karten nur schwer auslasten. Dementsprechend geht der dynamische Boost hoch und runter. Dass die Powertarget bei Compute nicht so greift, sollte klar sein. Wahrscheinlich wird bei Spielen irgendwelche Treiberprofile angewendet, welche bei Compute nicht so funktionieren.

AnarchX
2014-09-20, 16:01:42
Sofern die Werte stimmen, muss da wohl ein zukünftiger Treiber abregeln. FurMark wird ja unter Base-Takt gedrosselt.
Aber seltsamerweise bleibt bei GM107 der Verbrauch konstant.

TPU nennt im BIOS-Auszug der GTX 980 aber auch keine TDP-Werte:
http://www.techpowerup.com/vgabios/162033/nvidia-gtx980-4096-140826.html
http://www.techpowerup.com/vgabios/153568/asus-gtx750ti-2048-140113.html
Vielleicht regelt GM2xx dass in der GPU?

Unicous
2014-09-20, 16:19:52
Es ist auf jeden Fall interessantes Voodoo. Ich hatte den THG Test bewusst nicht verlinkt, weil dann hier wieder Zeter und Mordio losgegangen wäre.

Dass THG den/die Benchmark/s nicht listet ist aber großer Bullshit. Ich habe keinen Indikator gefunden, was sie konkret nutzen. Es könnte aber ein Bitminer oder Luxmark sein.

http://www.tomshardware.com/charts/2013-vga-gpgpu/benchmarks,135.html

Stellt sich für mich die Frage, was passiert wenn bei zukünftigen Titeln die Gesamtlast steigt?

AffenJack
2014-09-20, 16:28:47
Vielleicht könnte ja wer HT4U anschreiben, damit die sich den verbrauch in Luxmark auch angucken. Sie benchen es ja sowieso, da könnten sie da auch mal den Verbrauch messen.

Nakai
2014-09-20, 17:18:44
Vielleicht regelt GM2xx dass in der GPU?

Bios, Treiber oder Hardware...

Ich denke Hardware. Man hat wohl sehr viel von Tegra bzw. für Tegra-Support bereits integriert. Immerhin soll Maxwell in der nächsten Tegra-Iteration verwendet werden.

Ich denke GM107 hat hier einfach feste Limits, welche niemals unter irgendwelchen Umständen übersprungen werden dürfen. Ist auch sinnvoll, als Budgetkarte.

@Unicous:
Es ist auf jeden Fall interessantes Voodoo. Ich hatte den THG Test bewusst nicht verlinkt, weil dann hier wieder Zeter und Mordio losgegangen wäre.

Dass THG den/die Benchmark/s nicht listet ist aber großer Bullshit. Ich habe keinen Indikator gefunden, was sie konkret nutzen. Es könnte aber ein Bitminer oder Luxmark sein.

Sehr wohl möglich. Aber im Ernst es ist trotzdem beeindruckend, wie man Energie sparen kann, wenn man viele Sachen unabhängig taktet und mit Spannung versorgt, um die Energieversorgung an die Auslastung anzupassen. Ich vertraue THG einfach mal...natürlich können die auch Mist bauen.

Stellt sich für mich die Frage, was passiert wenn bei zukünftigen Titeln die Gesamtlast steigt?

Siehe Anno 2070. Es wird definitiv irgendwann Spiele geben, die die Karten dementsprechend auslasten.

-/\-CruNcher-/\-
2014-09-20, 17:35:49
Das ist ja schon fast als analysieren sie denn kommenden load und verteilen ihn dann eine art shader efficiency prediction wobei ich sowas oder ähnliches erst mit denver onboard erwartet hätte ?

Denke auch mal vieles was wir plötzlich sehen ist wieder auf Low Energy optimiert siehe MFAA das geht sicherlich wieder auf das haben müssen für Tegra Maxwell zurück was uns als ein kleiner gewinn auf dem Desktop vorkommt ist ein Riesengewinn für die Tegra Platform es ist gut das Tegra die Effizienz auf dem Desktop pushed so wie bei AMD Mullins und Co anfangen das gleiche zu tun :)

Nightspider
2014-09-20, 17:46:47
Klar kannst du das. Effektiv wirst du aber weniger fps bekommen als bei der GTX970. Stichwort... Bandbreite. Die GTX980 hat knapp 32% mehr Rohleistung als die GTX970. Die Games skalieren afaik aber nur bis max. 20% mit. Ganz ehrlich... die 980 ist völlig überteuert und zudem kann sie ihre volle Leistung auch noch nicht mal komplett entfalten.

Da hat wohl jemand Probleme zwischen "effektiv" und "verhältnismäßig" auseinander zu halten. ;)

Die GTX980 ist effektiv schneller und würde die GTX970 weniger Bandbreitenlimitiert sein (was wohl nicht der Fall ist), wäre sie verhältnismäßig schneller. (Im Verhältnis zu den Anzahl der Recheneinheiten)


GTX 980 verbraucht unter Gaming ~180W, unter Compute ~280W. Der Unterschied ist dramatisch, was für die stärkere Effizienz unter Compute spricht.

Von welcher Effizienz sprichst du? Energieeffizienz?

Wieso spricht ein höherer Verbrauch von 100W für eine höhere Effizienz?

Nakai
2014-09-20, 17:52:46
Von welcher Effizienz sprichst du? Energieeffizienz?

Wieso spricht ein höherer Verbrauch von 100W für eine höhere Effizienz?

Ich meinte im Vergleich zu Kepler und auch GCN.
Mehr Verbrauch -> Es wird mehr gearbeitet -> höhere Leistung
Umsonst steigt der Verbrauch ja nicht an.
Maxwell scheint da endlich mehr in Compute zu bringen.

fondness
2014-09-20, 17:54:16
Sieht eher so aus als würde man das TDP-Limit aufheben um mehr Compute-Leistung zu erreichen.
Die Compute-Leistung ist je nach Test mal mehr, mal weniger konkurrenzfähig zu GCN, aber mehr auch nicht. Und wenn die 280W stimmen auch nicht bei weniger Verbrauch.

Auch was AnandTech bei der Gaming Power Consumption misst liegt bsp. über eine GTX680 mit 195W TDP und nur knapp unter einer 7970:
http://www.anandtech.com/show/8549/short-bytes-nvidia-geforce-gtx-980-in-1000-words

-/\-CruNcher-/\-
2014-09-20, 17:56:16
das nehme ich auch an besser ist es mehr Compute lastige Spiele zu testen und deren verbrauch zur analyse heranzuziehen ;)

AffenJack
2014-09-20, 17:57:53
Siehe Anno 2070. Es wird definitiv irgendwann Spiele geben, die die Karten dementsprechend auslasten.

Das macht Anno zwar, aber trotzdem ist der Taktratenunterschied im Vergleich zu anspruchsloseren Spielen minimal, wenn man mal bei CB guckt. Der Verbrauch ist auch immer noch unten.

Das ist ja schon fast als analysieren sie denn kommenden load und verteilen ihn dann eine art shader efficiency prediction wobei ich sowas oder ähnliches erst mit denver onboard erwartet hätte ?


Maxwell benutzt wohl eher äußerst aggressives Powergating denke ich. Da hilft dann die Unterteilung der Shader, da man sofort, wenn die Shaderlast runtergeht zb. nen Viertel der SMM abschaltet. Bei absoluter Vollast auf diesen bringt das dann nix mehr.

Knuddelbearli
2014-09-20, 19:02:00
Denke auch mal vieles was wir plötzlich sehen ist wieder auf Low Energy optimiert siehe MFAA das geht sicherlich wieder auf das haben müssen für Tegra Maxwell zurück was uns als ein kleiner gewinn auf dem Desktop vorkommt ist ein Riesengewinn für die Tegra Platform es ist gut das Tegra die Effizienz auf dem Desktop pushed so wie bei AMD Mullins und Co anfangen das gleiche zu tun :)


Bezweifle ich da MFAA nur bei hohen FSP brauchbar wirkt

Effe
2014-09-20, 19:05:30
Maxwell benutzt wohl eher äußerst aggressives Powergating denke ich. Da hilft dann die Unterteilung der Shader, da man sofort, wenn die Shaderlast runtergeht zb. nen Viertel der SMM abschaltet. Bei absoluter Vollast auf diesen bringt das dann nix mehr.
So ähnlich haben die das bei THG auch interpretiert. Erstaunlich finde ich wieviel Spieleleistung aus den vergleichsweise wenig Shadern herauskommt. Dazu noch dieses Gaminglastverhalten, well done Nvidia!

=Floi=
2014-09-20, 20:09:16
kann das komische MFAA auch 8xMFAA und 16xMFAA?

Unicous
2014-09-20, 20:12:59
Wenn ich mich nicht irre ist das auf 4X beschränkt.

Coda
2014-09-20, 20:20:45
Bezweifle ich da MFAA nur bei hohen FSP brauchbar wirkt
Das kommt darauf an wie es implementiert ist.

Knuddelbearli
2014-09-20, 20:27:30
und aktuell ist es so implementiert das es nur bei hohen FPS sind macht, NV sagt das ja selbst. Wenn es anders ginge damit es dann auch bei Tegra was bringt hätte NV das so gemacht

Kartenlehrling
2014-09-20, 20:44:34
was ist hoch?
Und was ist wenn man MFAA bei 30fps einsetzt, ...kantenflimmern?

-/\-CruNcher-/\-
2014-09-20, 20:50:51
Ghosting Avoidance hauptsächlich aber das ist machbar

=Floi=
2014-09-20, 21:04:29
nv hat es auf über 40fps beschränkt. darunter wird es deaktiviert.
das sagt eigentlich schon alles. denke 60fps+ sollten ok sein.

del_4901
2014-09-20, 22:06:36
Das kommt darauf an wie es implementiert ist.Frei waehlbare MSAA Samplepositionen wird man Nvidia doch schon zumuten duerfen? ;)

Knuddelbearli
2014-09-20, 22:13:01
was ist hoch?
Und was ist wenn man MFAA bei 30fps einsetzt, ...kantenflimmern?
unter 40 deaktiviert es der Treiber von selbst sollte also absolut minimum 60 fps sein

Rampage 2
2014-09-21, 21:18:20
Ist eigentlich mittlerweile einigermaßen sicher, wieviel Hardware-Einheiten der GM200 im Vollausbau haben wird? Ich gehe von 64ROPs, 192TMUs, 3072 SPs und 384Bit SI aus.

Wie wahrscheinlich ist die Möglichkeit, dass noch 8Gbps-GDDR5-Speicherchips auf den Markt gebracht werden? GM200 mit 384Bit SI @4GHz (= 384GB/s. Speicherbandbreite) würde sicherlich neue Leistungsdimensionen erreichen;D

R2

Duplex
2014-09-21, 21:25:28
Naja, bei 50% mehr Einheiten, 50% größeres SI & 100% meh ROPs als GM204 sollten locker 40% mehr Performance als GM204 möglich sein.

Rampage 2
2014-09-21, 21:31:02
100% mehr ROPs als GM204

???

!? :freak:

Du glaubst doch sicher nicht ernsthaft, dass der Vollausbau mit 128ROPs kommt,oder;)

R2

Rente
2014-09-21, 21:37:07
???

!? :freak:

Du glaubst doch sicher nicht ernsthaft, dass der Vollausbau mit 128ROPs kommt,oder;)

R2
Es hat auch kaum einer 64 ROPs bei GM204 erwartet, unwahrscheinlich ist es aber schon.

Duplex
2014-09-21, 21:48:27
Du glaubst doch sicher nicht ernsthaft, dass der Vollausbau mit 128ROPs kommt,oder;)
Nein, ich hab was anderes im Kopf gehabt, dachte GM204 hätte wie GK104 nur 32 ROPs, sry ;)

Aber 30-40% mehr Performance gegenüber GM204 sollten trotzdem im machbaren liegen :smile:

Das ganze im alten 28nm Prozess ist ganz gute Arbeit.

Nakai
2014-09-21, 22:04:53
GM200 hat wohl 96 ROPs und 3(6)MB L2-Cache.

AffenJack
2014-09-21, 22:06:49
Ist eigentlich mittlerweile einigermaßen sicher, wieviel Hardware-Einheiten der GM200 im Vollausbau haben wird? Ich gehe von 64ROPs, 192TMUs, 3072 SPs und 384Bit SI aus.

Wie wahrscheinlich ist die Möglichkeit, dass noch 8Gbps-GDDR5-Speicherchips auf den Markt gebracht werden? GM200 mit 384Bit SI @4GHz (= 384GB/s. Speicherbandbreite) würde sicherlich neue Leistungsdimensionen erreichen;D

R2

Nun, 64ROPs und 384Bit wird schon zum Problem. Eigentlich sind die ROPS immer mit dem SI mitskaliert, man müsste also bei 96 ROPs enden. Alles um 50% erhöhen ist aber unmöglich.
Es wurde glaube schon gepostet, dass Gm200 ähnlich groß ist wie GK110. Ailuros schreibt von einer Packdichtenerhöhung im Vergleich zu GM204. Wenn man da auf 14Mio/mm² geht landet man bei 560mm² bei 7,8Mio Transistoren, 50% mehr als GM204. Problem ist, dass da noch die DP Units rein müssen.

Also falls man nicht doch nen Weg hat die ROps nicht zu skalieren sehe ich max. 2816 Shader (22SMM), wahrscheinlicher nur 2560 Shader in Gm200.

Duplex
2014-09-21, 22:11:01
GM200 hat wohl 96 ROPs und 3(6)MB L2-Cache.
Und woher stammen diese Infos? Gibt es bereits Karten für den Profi Markt ?

Vielleicht hat GM200 diesmal einen 512-Bit SI, warum soll man immer auf 384 Bit setzen.

Nakai
2014-09-21, 22:16:26
Und woher stammen diese Infos? Gibt es bereits Karten für den Profi Markt ?

Vielleicht hat GM200 diesmal einen 512-Bit SI, warum soll man immer auf 384 Bit setzen.

Weil GM200 laut Zauba-Einträge wohl Package-kompatibel zu GK110 wird. Oder hat das GK110-Package aufeinmal Pins für ein 512Bit SI? Bzw. die Package-Größe für GM200 ist wohl die gleiche, wie bei GK110.

Duplex
2014-09-21, 22:22:54
384 Bit SI sollten auch vollkommen ausreichend sein, hauptsache man hat im selben Prozess 30-40% mehr Performance, da braucht man sich keine Sorgen mehr machen. :smile:

Ailuros
2014-09-21, 22:28:01
Nun, 64ROPs und 384Bit wird schon zum Problem. Eigentlich sind die ROPS immer mit dem SI mitskaliert, man müsste also bei 96 ROPs enden. Alles um 50% erhöhen ist aber unmöglich.
Es wurde glaube schon gepostet, dass Gm200 ähnlich groß ist wie GK110. Ailuros schreibt von einer Packdichtenerhöhung im Vergleich zu GM204. Wenn man da auf 14Mio/mm² geht landet man bei 560mm² bei 7,8Mio Transistoren, 50% mehr als GM204. Problem ist, dass da noch die DP Units rein müssen.

Also falls man nicht doch nen Weg hat die ROps nicht zu skalieren sehe ich max. 2816 Shader (22SMM), wahrscheinlicher nur 2560 Shader in Gm200.

Etwas mehr Transistoren ;)

Nakai
2014-09-21, 22:33:00
GM200 wird leicht über 14MioTransen/mm² haben. Beliebig kann man die Packdichte nicht erhöhen, aber manche Bereiche des Chips erlauben eine höhere Packdichte. Ich vermute bei GM200 6MB-L2-Cache, was die höhere Packdichte ermöglichen sollte.

Es sollte für GM200 schon etwas über 3000SPs möglich sein.

Rampage 2
2014-09-21, 22:35:19
3072SPs wären also technisch machbar? =)

R2

Duplex
2014-09-21, 22:40:22
GT200 war bereits bei 576mm².

Hübie
2014-09-21, 22:41:22
Etwas mehr Transistoren ;)

7,983 Mrd. Bei den SPs tippe ich auch eher auf 2560, da GM20X ja offensichtlich sehr gut ausgelastet werden kann. Wenn ich mir überlege was man aus nur 128 mehr SPs (GTX 770 <-> GTX 970) heraus holt. Andererseits stellt sich mir die Frage der GPC und natürlich dem Leistungszuwachs ggü. GK110. ;)
Edit: Hypothese: GPC = 3 SMM mal 6 Cluster ergeben 2688 SPs. Klingt das plausibel?

n00b
2014-09-21, 22:54:50
OK, dann frage ich halt nochmal schnell hier im Spekulatiusthread :D

Können die neuen Maxwells eigentlich auch VP9 in Hardware beschleunigen, weiss das jemand von euch?

Godmode
2014-09-21, 22:57:15
7,983 Mrd. Bei den SPs tippe ich auch eher auf 2560, da GM20X ja offensichtlich sehr gut ausgelastet werden kann. Wenn ich mir überlege was man aus nur 128 mehr SPs (GTX 770 <-> GTX 970) heraus holt. Andererseits stellt sich mir die Frage der GPC und natürlich dem Leistungszuwachs ggü. GK110. ;)
Edit: Hypothese: GPC = 3 SMM mal 6 Cluster ergeben 2688 SPs. Klingt das plausibel?

Warum nicht einfach 4 SMM/GPC und 5-6 GPCs? Das wären dann 2560-3072 ALUs. Beim Cache gehe ich nicht von 6 MB aus, maximal 3 MB. Das sollte in 8 Mrd. Transistoren doch machbar sein?

HOT
2014-09-21, 22:57:54
384 Bit SI sollten auch vollkommen ausreichend sein, hauptsache man hat im selben Prozess 30-40% mehr Performance, da braucht man sich keine Sorgen mehr machen. :smile:
Wie ich schon im anderen Thread schrieb, Max-Power wird dann zum Problem für NV. Wenn du das und am besten noch mehr DP-Leistung drauflegst, hat die Karte unter Computing >400W.

memoal
2014-09-21, 23:06:21
Wie ich schon im anderen Thread schrieb, Max-Power wird dann zum Problem für NV. Wenn du das und am besten noch mehr DP-Leistung drauflegst, hat die Karte unter Computing >400W.
Denke ich nicht, da nV den Takt absenkt und damit die Leistungsaufnahme beeinflusst.

Dural
2014-09-21, 23:07:14
3000sp 1:2dp
384bit 3mb
96rops
600mm2

memoal
2014-09-21, 23:09:26
3000sp 1:2dp
384bit 3mb
96rops
600mm2
560-570mm², stand doch schon so gut wie fest?

Godmode
2014-09-21, 23:12:15
3000sp 1:2dp
384bit 3mb
96rops
600mm2

600mm2 hat er laut Ail schon mal nicht, sondern nur 560. Vielleicht könnte man ja die doppelte DP Rate von K40 ansetzen, also 2,8 TFLOPS DP. Davon ausgehend könnte man rückwärts rechnen, was das Ding haben muss um diese Rate zu erreichen.

Dural
2014-09-21, 23:12:23
Sagt wer?

Godmode
2014-09-21, 23:19:10
Sagt wer? Der meinte vor ein par wochen noch 300mm2 für gm204...

Wo meinte er das? Link please!

memoal
2014-09-21, 23:20:25
Sagt wer?
Lass das! Editiere den Beitrag bitte!

600mm2 hat er laut Ail schon mal nicht, sondern nur 560. Vielleicht könnte man ja die doppelte DP Rate von K40 ansetzen, also 2,8 TFLOPS DP. Davon ausgehend könnte man rückwärts rechnen, was das Ding haben muss um diese Rate zu erreichen.

Nein, @Ailuros hat es weitergegeben; http://forum.beyond3d.com/showpost.php?p=1871396&postcount=1931, bitte achtet darauf was ihr postet! Seit froh das ihr hier Leute habt die euch mit dem Notwendigen versorgen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10351416&postcount=5019

Unicous
2014-09-21, 23:20:59
Er möchte sich gerne eine Auszeit einfangen. Lasst ihn doch.

Ich hole auch gerne für Dural nochmals seinen 300-350mm² hervor.

Hübie
2014-09-21, 23:21:10
Warum nicht einfach 4 SMM/GPC und 5-6 GPCs? Das wären dann 2560-3072 ALUs. Beim Cache gehe ich nicht von 6 MB aus, maximal 3 MB. Das sollte in 8 Mrd. Transistoren doch machbar sein?

Das beantwortest du dir im Prinzip selber. Mal eben eine Differenz von 512 SPs bedeutet du kannst nicht skalieren. 2560 ist imo ein zu kleiner Abstand zu den 2048 im GM204 (denk mal an Takt & Leistungsaufnahme), während 3072 schon wieder zuviel des guten wäre um das in die 562 mm² hineinzuquetschen. Edit: gerade noch mal gegrübelt: Der Durchsatz pro Quad im SMM ist ja noch mal ordentlich gestiegen. Dann klingen die 2560 wieder gar nicht so übel wenn man an GK110 denkt ;D Hmmm.. jetzt verwirre ich mich selber :freak:

Denke ich nicht, da nV den Takt absenkt und damit die Leistungsaufnahme beeinflusst.

Dann stellst du dir aber wieder ein Bein bei Perf/W. Du musst ja dein Klientel auch überzeugen, warum du jetzt einen GM200 "brauchst" (damit meine ich nicht den gamer ;)).

Sagt wer? Der meinte vor ein par wochen noch 300mm2 für gm204...

:mad: Erzähle nicht so einen Mist! Suche mir bitte heraus wo Ail sagte der Chip habe 300mm²!

Godmode
2014-09-21, 23:26:21
Das beantwortest du dir im Prinzip selber. Mal eben eine Differenz von 512 SPs bedeutet du kannst nicht skalieren. 2560 ist imo ein zu kleiner Abstand zu den 2048 im GM204 (denk mal an Takt & Leistungsaufnahme), während 3072 schon wieder zuviel des guten wäre um das in die 562 mm² hineinzuquetschen. Edit: gerade noch mal gegrübelt: Der Durchsatz pro Quad im SMM ist ja noch mal ordentlich gestiegen. Dann klingen die 2560 wieder gar nicht so übel wenn man an GK110 denkt ;D Hmmm.. jetzt verwirre ich mich selber :freak:


Also GK1110 hatte ja 2880. 3072 für GM200 klingen dann nicht arg übertrieben, IMHO. Bei gleichem Takt und dem 40% mehr Leistung/ALU wäre das Faktor 1,5 auf GK110, was die Shaderleistung betrifft.

memoal
2014-09-21, 23:28:01
Dann stellst du dir aber wieder ein Bein bei Perf/W. Du musst ja dein Klientel auch überzeugen, warum du jetzt einen GM200 "brauchst" (damit meine ich nicht den gamer ;)).!
Definitiv, aber man kann mit einem entsprechenden (Power) Target jeder GPU das "sparen beibringen". Den Spieler interessiert das doch sowieso nicht.

Dural
2014-09-21, 23:28:42
Als die ersten gm204 fotos kamen meinte er näher an 300mm2 als 400mm2, aber auch egal.

zudem ist das eine einfach rechnung, nv hat 12giga dp pro watt versprochen:
3000sp mit 900mhz bei 225w ergibt genau 12giga / watt ;)

memoal
2014-09-21, 23:32:27
Als die ersten gm204 fotos kamen meinte er näher an 300mm2 als 400mm2, aber auch egal.
Unbelehrbar? Na denn...:freak:

zudem ist das eine einfach rechnung, nv hat 12giga dp pro watt versprochen: 3000sp mit 900mhz bei 225w ergibt genau 12giga / watt ;)
In 20nm?

Unicous
2014-09-21, 23:33:37
Als die ersten gm204 fotos kamen meinte er näher an 300mm2 als 400mm2, aber auch egal.


Nein, es ist nicht egal. Wegen übler Nachrede kann eine Freiheitsstrafe bis zu einem Jahr verhängt werden.


edit: In deinem Fall sogar bis zu zwei Jahre. ;)

http://dejure.org/gesetze/StGB/186.html

Godmode
2014-09-21, 23:37:38
Unbelehrbar? Na denn...:freak:


In 20nm?

Ich gehe davon aus, dass GM200 1/2 SP/DP hat. Dadurch würden die 900 Mhz für bei DP Berechnungen und 3072 ALUs rund 2,7x TFLOPS DP ergeben, was rund 2x GK110 wäre.

Hübie
2014-09-21, 23:38:51
Also GK1110 hatte ja 2880. 3072 für GM200 klingen dann nicht arg übertrieben, IMHO. Bei gleichem Takt und dem 40% mehr Leistung/ALU wäre das Faktor 1,5 auf GK110, was die Shaderleistung betrifft.

Hm. Nehmen wir mal GM204<->GK104. 104 mm² Differenz für 512 mehr SPs, breiterem Setup, 1536 KB Cache und weiteren 32 ROPs. Wenn GM200 nur 10-15 mm² größer wird als GK110 dann frage ich mich ob Cache anwächst, das Frontend wächst usw. ;) Also ich schätze: weniger SPs als GK110, aber dennoch mehr Leistung.

Godmode
2014-09-21, 23:40:16
Hm. Nehmen wir mal GM204<->GK104. 104 mm² Differenz für 512 mehr SPs, breiterem Setup, 1536 KB Cache und weiteren 32 ROPs. Wenn GM200 nur 10-15 mm² größer wird als GK110 dann frage ich mich ob Cache anwächst, das Frontend wächst usw. ;) Also ich schätze: weniger SPs als GK110, aber dennoch mehr Leistung.

Ja kann natürlich auch gut sein. Im Endeffekt ist das ganze raten sowieso Bullshit, siehe GM204 ^^

memoal
2014-09-21, 23:41:10
edit: In deinem Fall sogar bis zu zwei Jahre. ;)
Naja, vorher greifen eher die Boardregeln sinnvoller. Das braucht man dann nicht. Es fehlt eher die Absicht bzw. ist diese schwer nachweisbar. :) Wenn ja, wären es 5 Jahre (oder eben Geldstrafe). (Verleumdung in der Öffentlichkeit als Qualifikation). Aber OT. Maxwell...?

Hübie
2014-09-21, 23:49:38
Ja kann natürlich auch gut sein. Im Endeffekt ist das ganze raten sowieso Bullshit, siehe GM204 ^^

Also Loeschzwerg und einige andere hatten eine Punktlandung. Ich lag mit 380 mm² und 1920 SPs daneben, aber hey. Speku halt. Ab und an bekomme ich auch ein paar Schnipsel von angeblichen Insidern (der eine zuverlässiger, der andere weniger;D) aus denen man sich dann was bastelt.

TSMC sagt selber: Grenze sind 650 mm². Das gilt aber nicht für die extremen Packdichten wie in GPUs. Glaube Xilinx, IBM oder so hat ein 650mm² Monster.
Der Stromdichte (also Amperé pro Quadratdezimeter) und den Materialien sind Grenzen gesetzt - neben der Belichtung. Irgendwo hab ich aufgeschnappt dass nur eines von einer Million Silizium-Molekülen verunreinigt sein darf :eek:

Edit: Man möge mich korrigieren wenn ich mal wieder Quark erzähle ;D

memoal
2014-09-21, 23:50:55
Ich gehe davon aus, dass GM200 1/2 SP/DP hat. Dadurch würden die 900 Mhz für bei DP Berechnungen und 3072 ALUs rund 2,7x TFLOPS DP ergeben, was rund 2x GK110 wäre.
Nicht unnöglich, Tesla K40-GK110 mit 2880 läuft ja bei 745 (810/875), waren es bei dem 225w TDP? Ich glaube.

Nakai
2014-09-21, 23:54:20
Also ich glaube kaum, dass GM200 weniger SPs als GK110 haben wird.
Deswegen 3000SPs+-

4GPCs - 6 SMMs pro GPC -> 3072SPs
5GPCs - 5 SMMs pro GPC -> 3200SPs

Irgendwas darum.

Hübie
2014-09-22, 00:02:16
Und warum glaubst du das nicht? ;) Ich weiß zwar nicht was Register so an Fläche verbraten, aber du musst die ja entsprechend zur Verfügung stellen. Dann noch TMUs, Rasterizer usw...

memoal
2014-09-22, 00:03:59
Die Frage ist doch auch was nV erreichen möchte (z.B. SP TFlop/sec) daher redet man hier und da auch von 940Mhz Baseclock. Aber sicher ist eben nichts.

Hübie
2014-09-22, 00:10:04
Ich meine mich an ein slide zu erinnern wo ~15 GFlops pro Watt angepeilt waren. Da liegen wir glaub ich auch (bin zu faul zum nachsehen :tongue:).

memoal
2014-09-22, 00:50:25
Man könnte ja spekulativ annehmen, man bekommt es bald schwarz auf weiss zu sehen, noch dieses Jahr, dass ist ja nicht mehr so lange. Und testen kann man bestimmt auch wenn man für'n Vollausbau 1000 Euro über hat.

Hübie
2014-09-22, 00:53:59
Na ob wir dieses Jahr noch etwas schwarz auf weiß sehen, bezweifel ich - jedenfalls von offizieller Stelle ;)
Leaks gibt's immer. Auch wenn AMD erstaunlich wenig im Vorfeld zu enlocken war. Bei nVidia tropft es ja aus allen Rohren. :D

Dural
2014-09-22, 01:03:05
Wegen übler Nachrede kann eine Freiheitsstrafe bis zu einem Jahr verhängt werden.

http://dejure.org/gesetze/StGB/186.html

du musst es ja wissen, den du machst es bei mir ständig ;D

Den ich war mit meiner einschätzung genau richtig:
Die die habe ich auf 400mm2 geschätz und meinte das man für eine 15smx version ca. 300--350mm2 benötigen würde, was anbetracht des 400mm2 grossen gm204 mit 16smx und 64 rops + dx11.2/3 nicht mal so schlecht war. Selbst bei der tdp war ich plus minus um 5watt richtig :P

ich nehme die aussage aber zurück, eventuell habe ich mich einfach verlesen



Wie auch immer, der gm200 muss grösser als die 550mm2 sein, sonst passen die 3000sp nicht rein.

Unicous
2014-09-22, 01:11:45
LOL, du tust so als wäre simple Algebra Raketenwissenschaft.;D

Du bist uns übrigens immer noch das Ailuros'sche Zitat schuldig. Dürfte ja nicht so schwer sein, es zu finden.

Hübie
2014-09-22, 01:11:46
du musst es ja wissen, den du machst es bei mir ständig ;D

Den ich war mit meiner einschätzung genau richtig:
Die die habe ich auf 400mm2 geschätz und meinte das man für eine 15smx version ca. 300--350mm2 benötigen würde, was anbetracht des 400mm2 grossen gm204 mit 16smx und 64 rops + dx11.2/3 nicht mal so schlecht war. Selbst bei der tdp war ich plus minus um 5watt richtig :P


Wie auch immer, der gm200 muss grösser als die 550mm2 sein, sonst passen die 3000sp nicht reinl

Nicht schlecht geschätzt? Das ist als würde einer in Essen Fragen in welche Richtung Berlin liegt und ich nach Hamburg deute :freak:
Ich lese hier seit der ersten Seite mit und nirgends kann ich mich daran erinnern hat Ailuros 300mm² gesagt. Also ohne Beleg ist das einfach nur Geschwätz womit du dich selber unglaubwürdig machst. Bitte unterlasse das. Damit machst du nur negativ auf dich aufmerksam. Alternativ kannst du seinen Beitrag heraussuchen und uns alle dann bloß stellen.

Dural
2014-09-22, 01:14:39
Ich habe editiert.

Unicous
2014-09-22, 01:25:49
Du kannst eine Aussage nicht "zurücknehmen" die du zig Mal in diesem Thread (und anderen?) geäußert hast?

Im Englischen sagt man put up or shut up, die deutsche Übersetzung (ich präferiere Ubersetzung Nr.1) findest du hier:
http://www.dict.cc/?s=Put+up+or+shut+up

Dural
2014-09-22, 01:32:00
Zurück zum thema?

Wenn die 550mm2 stimmen können es fast nur 2500sp sein, um die 12gigaflops pro watt zu erreichen müssten die tesla karten mit 1050mhz bei 225watt takten.

Nakai
2014-09-22, 01:38:56
Ich meine mich an ein slide zu erinnern wo ~15 GFlops pro Watt angepeilt waren. Da liegen wir glaub ich auch (bin zu faul zum nachsehen :tongue:).

Es sind 12DP GFLOPs/Watt.

Bei 250W sind das 3000 GFLOPs an DP-Performance.

Bei 1GHz Takt wären das genau 3000SPs. Taktet GM204 mit höherem Takt, dann wären es weniger. Bei 2560SPs wären schon 1,2 GHz nötig.

Ich denke man hat eine höhere Einheitenanzahl und senkt dafür den Takt, vor allem, da GM204 unter Compute wohl ziemlich viel frisst.

Coda
2014-09-22, 03:09:25
Frei waehlbare MSAA Samplepositionen wird man Nvidia doch schon zumuten duerfen? ;)
Haben sie wohl erst seit Maxwell. Zumindest hab ich davor nie was gesehen.

Aber ich bezog mich eher darauf wie sie die letzten Frames verrechnen.

Nightspider
2014-09-22, 05:15:03
Ich pushe mal folgende Frage, weil es mich auch interessiert:


Können die neuen Maxwells eigentlich auch VP9 in Hardware beschleunigen, weiss das jemand von euch?

AffenJack
2014-09-22, 08:00:13
Na ob wir dieses Jahr noch etwas schwarz auf weiß sehen, bezweifel ich - jedenfalls von offizieller Stelle ;)
Leaks gibt's immer. Auch wenn AMD erstaunlich wenig im Vorfeld zu enlocken war. Bei nVidia tropft es ja aus allen Rohren. :D

Fürn prof. Bereich wurde der Chip eigentlich immer nen gutes Stück vorm richtigen Launch präsentiert. Meist auf irgendeiner Messe, wenn ich mich nicht irre. Im November ist die Supercomputing 2014. Ich denke da sehen wir GM200.

M4xw0lf
2014-09-22, 10:49:06
War das schon hier, dass Maxwell angeblich bereits DP 1.2a und damit Adaptive Sync / Freesync unterstützen soll? http://www.sweclockers.com/nyhet/19346-nvidia-utlovar-stod-for-g-sync-konkurrenten-adaptive-sync

fondness
2014-09-22, 10:50:07
Ahh jetzt haben sie es mit Maxwell 2 wohl endlich auch in Hardware und müssen nicht mehr so tun als hätte G-Sync eine langfristige Perspektive. ;)

Hübie
2014-09-22, 11:15:28
Fürn prof. Bereich wurde der Chip eigentlich immer nen gutes Stück vorm richtigen Launch präsentiert. Meist auf irgendeiner Messe, wenn ich mich nicht irre. Im November ist die Supercomputing 2014. Ich denke da sehen wir GM200.

Denke ich auch. Zumindest einen Ausblick und einen "Die-shot" - wenn man den denn so nennen kann. Bin gespannt ob da nun ein Prozessor für I/O drin werkelt oder nicht (afaik nicht) :naughty:

@fondness: Die Frage ist ja eh ob man G-Sync sinnvoll fortführen kann und wird. Tom Peterson sagte es gäbe Unterschiede in der Art der Realisierung beider Technologien, aber ging nicht auf technische Details ein.

fondness
2014-09-22, 11:17:55
Natürlich gibt es Unterschiede, bei G-Sync ist die ganze Logik im Monitor, da NV wohl kurzfristig was brauchte, bei FreeSync ist die Logik in der GPU. Ansonsten hätte G-Sync technische Vorteile wäre sich NV wohl nicht zu schade gewesen das auch zu erwähnen, ganz im Gegenteil FreeSync hat Vorteile.

del_4901
2014-09-22, 11:26:54
Haben sie wohl erst seit Maxwell. Zumindest hab ich davor nie was gesehen.

Aber ich bezog mich eher darauf wie sie die letzten Frames verrechnen.
Programmable MSAA Resolve ist auch kein Hexenwerk. Notfalls machts man halt manuell. Ich frage mich ernsthaft was man da noch in Hardware backen kann. Warscheinlich hatte ein Marketingdude einfach nur wieder Schaum vorm Mund als er irgendwo MFAA aufgeschnappt hat.

memoal
2014-09-22, 12:29:46
Natürlich gibt es Unterschiede, bei G-Sync ist die ganze Logik im Monitor, da NV wohl kurzfristig was brauchte, bei FreeSync ist die Logik in der GPU.
Ähm wie geht das? Das Modul weiss dann also wann die GPU etwas fertiggerendert hat? Die Logik, ist die Logik, der Logik?

Ein Glück das alle AMD-GPUs das von Haus aus können oder irre ich mich da? http://www.3dcenter.org/news/amds-freesync-funktioniert-nur-mit-neueren-amd-grafikchips Viel Bla bla bla, wir können alles, verpufft mittlerweile so langsam. Nimm doch mal bitte die rote Brille ab.

Freesync hat Vorteile weil es ein freier Standard ist. Und dann hat es sich auch schon gegessen. Alles was da so überschwenglich präsentiert wurde, von wegen alles für alle und völlig kostenlos, reines PR.

Vielleicht ist Nvidia erstmal andere Wege gegangen. Und im Notebook oder Mobilebereich, sind die Techniken auch in deren GPUs implentiert wenn sie bestimmte Energiesparrichtlinien erfüllen wollen.

Ich habe editiert.
Was ich auch angemessen finde. ;)

HOT
2014-09-22, 12:47:24
Also sowas konnte ich da nicht entdecken. AMD konterte ja von Anfang an mit einem freien Standard...
Und da es Teil von DP1.3 wird, ist es Verkaufsargument für die Displayhersteller, nicht für AMD. Zudem wurde nie ein Hehl daraus gemacht, dass das bisher nur Bonaire, Tonga und Hawaii können (und die GCN-APUs). Ich kann mich nicht erinnern, dass AMD irgendwas damit beworben hat. Es gab nur den Konter auf GSync. Da würd ich die Kirche echt mal im Dorf lassen.
Der Punkt ist doch: In dem Moment, als die Displayhersteller einen freien Standard wollen und das Thema vor die VESA gezerrt haben, war klar, dass GSync eine Totgebuhrt ist. Das hatte mit AMD gar nicht soviel zu tun. Man kann sich steiten was von beidem jetzt besser ist, aber das ist rein akademisch. Die Displayhersteller entscheiden, was sie bauen und anbieten, Ende der Geschichte.

Hübie
2014-09-22, 14:41:58
Programmable MSAA Resolve ist auch kein Hexenwerk. Notfalls machts man halt manuell. Ich frage mich ernsthaft was man da noch in Hardware backen kann. Warscheinlich hatte ein Marketingdude einfach nur wieder Schaum vorm Mund als er irgendwo MFAA aufgeschnappt hat.

X-D Der war gut. Angeblich sollen das nur die Maxwell-ROPs können :rolleyes: Warum glaub ich das nicht so wirklich? :confused:

memoal
2014-09-22, 16:55:23
Also sowas konnte ich da nicht entdecken. AMD konterte ja von Anfang an mit einem freien Standard...
Und da es Teil von DP1.3 wird, ist es Verkaufsargument für die Displayhersteller, nicht für AMD. Zudem wurde nie ein Hehl daraus gemacht, dass das bisher nur Bonaire, Tonga und Hawaii können (und die GCN-APUs). Ich kann mich nicht erinnern, dass AMD irgendwas damit beworben hat. Es gab nur den Konter auf GSync. Da würd ich die Kirche echt mal im Dorf lassen.
Der Punkt ist doch: In dem Moment, als die Displayhersteller einen freien Standard wollen und das Thema vor die VESA gezerrt haben, war klar, dass GSync eine Totgebuhrt ist. Das hatte mit AMD gar nicht soviel zu tun. Man kann sich steiten was von beidem jetzt besser ist, aber das ist rein akademisch. Die Displayhersteller entscheiden, was sie bauen und anbieten, Ende der Geschichte.
Richtig. Den Rest kann man dann wirklich den Monitorherstellern überlassen. Bei DP1.3 gehe ich nicht ganz mit, da es schon optional in 1.2a implentiert wurde und dies unter 1.3 so bleibt. Da man aber sehr wenig über die tatsächlichen Funktionsweisen der einzelnen Ansätze im Kern weiss, lässt man die Kirche im Dorf, stimmt.

Mich nervt dieses, man könne alles so viel besser. Freie Standards sind zwar für alle, manchmal ist es aber so, dass gerade in Hardwaregebundene Standards mehr investiert wird, als in offene, die darben teilweise Jahre vor sich hin, eben wie Adaptive Sync. Der Hersteller/Entwickler des proprietären Ansatzes verspricht sich einen Vorteil, will etwas abseits der Masse oder dem Standard bieten. Man muss das letztendlich auch dem Anwender überlassen, was er dann nun will. Freie Standards, kostenlos, für alle etc....ist gut und sinnvoll, was ist aber wenn man sich auch selbst (als Anwender) vom Einheitsbrei abheben will. Will man das verbieten?

Der Rest, dieses euphorische Gesäusel könnte einfach auch in Frustration umschlagen, weil man es von hier mitnimmt, und es dann im Endeffekt garnicht so ist wie hier dargestellt, funktioniert oder so viel besser ist.

Noch keiner hat die wirkliche Funktionsweise, im Detail mit Technischem hinterlegt, bewundern dürfen. Wenns nicht funktioniert wie erwartet, wäre es wie schon beschreiben sehr ärgerlich. Wenn beides verfügbar flächendeckend auf dem Markt angekommen ist, man unabhängig (von Meinungen und Urteilen) getestet und verglichen hat, kann man Vor- und Nachteile diskutieren und dann für sich analysieren was einem besser liegt, oder man wirklich braucht oder lieber haben will. Ich kann doch allein entscheiden! Oder muss ich mich einen Trend oder irgendeiner Meinung (sei sie im Ansatz noch so sinnvoll) unterwerfen.

nV wäre ja blöd würden sie einen freien Standard der auch Strom spart nicht unterstützen, dass hat dann noch nicht mal was mit GSync ansich zu tun.

Ich bin damit sicherlich voll und ganz auf deiner Seite. ;)

Gespame und Gebashe um das Thema insgesamt, helfen aber garnicht weiter. Die Entscheidung liegt letztendlich beim Anwender selbst und wenn nV meint sie müssen zu einem freien Standard für ihre Anwender noch etwas anbieten, dann sollen sie es tun. Ich habe damit kein Problem.

AMD scheint für sich das PR Instrument "wir machen alles umsonst und ihr bekommt es kostenlos" entdeckt zu haben. Letztendlich ist es aber garnicht so. Wenn du es nicht an AMDs zahlst, zahlst du es an den Monitorhersteller oder irgendjemand anders. Wo ist da ein grundlegender Unterschied, es kostet mehr. Zu glauben das gäbe es umsonst ist naiv.

Derzeit wäre es bei mir so, dass ich eine neue GPU bräuchte und einen neuen Monitor, wo ist das gleich Null Kosten? Verkaufsargument trifft es schon besser. Damit reines PR Geblödel.

PS: Wenn jemand weiss wie die "Logik" wo und wie funktioniert, können wir das doch gerne hier diskutieren, oder eben auch informieren. Das macht mehr Sinn, als (phrasenhaft) drauf zu haun. Bei mir (persönlich) kommt das nicht mehr an.

aufkrawall
2014-09-22, 16:59:36
X-D Der war gut. Angeblich sollen das nur die Maxwell-ROPs können :rolleyes: Warum glaub ich das nicht so wirklich? :confused:
Sollte man denn Spiele-Devs, deren Engines brutal schlechtes MSAA haben, dahingehend glauben? ;)

HOT
2014-09-23, 13:10:25
Richtig. Den Rest kann man dann wirklich den Monitorherstellern überlassen. Bei DP1.3 gehe ich nicht ganz mit, da es schon optional in 1.2a implentiert wurde und dies unter 1.3 so bleibt. Da man aber sehr wenig über die tatsächlichen Funktionsweisen der einzelnen Ansätze im Kern weiss, lässt man die Kirche im Dorf, stimmt.

Mich nervt dieses, man könne alles so viel besser. Freie Standards sind zwar für alle, manchmal ist es aber so, dass gerade in Hardwaregebundene Standards mehr investiert wird, als in offene, die darben teilweise Jahre vor sich hin, eben wie Adaptive Sync. Der Hersteller/Entwickler des proprietären Ansatzes verspricht sich einen Vorteil, will etwas abseits der Masse oder dem Standard bieten. Man muss das letztendlich auch dem Anwender überlassen, was er dann nun will. Freie Standards, kostenlos, für alle etc....ist gut und sinnvoll, was ist aber wenn man sich auch selbst (als Anwender) vom Einheitsbrei abheben will. Will man das verbieten?

Der Rest, dieses euphorische Gesäusel könnte einfach auch in Frustration umschlagen, weil man es von hier mitnimmt, und es dann im Endeffekt garnicht so ist wie hier dargestellt, funktioniert oder so viel besser ist.

Noch keiner hat die wirkliche Funktionsweise, im Detail mit Technischem hinterlegt, bewundern dürfen. Wenns nicht funktioniert wie erwartet, wäre es wie schon beschreiben sehr ärgerlich. Wenn beides verfügbar flächendeckend auf dem Markt angekommen ist, man unabhängig (von Meinungen und Urteilen) getestet und verglichen hat, kann man Vor- und Nachteile diskutieren und dann für sich analysieren was einem besser liegt, oder man wirklich braucht oder lieber haben will. Ich kann doch allein entscheiden! Oder muss ich mich einen Trend oder irgendeiner Meinung (sei sie im Ansatz noch so sinnvoll) unterwerfen.

nV wäre ja blöd würden sie einen freien Standard der auch Strom spart nicht unterstützen, dass hat dann noch nicht mal was mit GSync ansich zu tun.

Ich bin damit sicherlich voll und ganz auf deiner Seite. ;)

Gespame und Gebashe um das Thema insgesamt, helfen aber garnicht weiter. Die Entscheidung liegt letztendlich beim Anwender selbst und wenn nV meint sie müssen zu einem freien Standard für ihre Anwender noch etwas anbieten, dann sollen sie es tun. Ich habe damit kein Problem.

AMD scheint für sich das PR Instrument "wir machen alles umsonst und ihr bekommt es kostenlos" entdeckt zu haben. Letztendlich ist es aber garnicht so. Wenn du es nicht an AMDs zahlst, zahlst du es an den Monitorhersteller oder irgendjemand anders. Wo ist da ein grundlegender Unterschied, es kostet mehr. Zu glauben das gäbe es umsonst ist naiv.

Derzeit wäre es bei mir so, dass ich eine neue GPU bräuchte und einen neuen Monitor, wo ist das gleich Null Kosten? Verkaufsargument trifft es schon besser. Damit reines PR Geblödel.

PS: Wenn jemand weiss wie die "Logik" wo und wie funktioniert, können wir das doch gerne hier diskutieren, oder eben auch informieren. Das macht mehr Sinn, als (phrasenhaft) drauf zu haun. Bei mir (persönlich) kommt das nicht mehr an.
Ähnliches zieht NV mit OpenCL doch auch ab. Man unterstützt es einfach nicht, aber auch das wird zum Bumarang, da Intel jetzt OpenCL massiv fördert. Intel wird auch DP1.3 massiv fördern und evtl. sogar auf den Mantel-Zug aufspringen. Ich find die Taktik, die NV da einschlägt ist einfach dumm, da sie die anfängliche Verbreitung der offenen Standards behindern mit ihrem proprietären Krempel. Man mag ja kurzfrlistig davon profitieren, aber wenn NV nicht langsam anfangen OpenCL zu bringen, wird NV ausgebootet, so einfach ist das. Mit DP1.3 ist es dasselbe. Die Displayhersteller werden Active-Sync für ihre Spieledisplays bringen (ist ja ein gutes Verkaufsargument und die "Marke" Gaming ist ja so ziemlich das einzige was im Desktop-Hardwarebereich momentan läuft) und G-Sync für einige wenige Luxusdisplays vorbehalten (wenn überhaupt).
NV wird aber weder DP1.3-Sync noch OpenCL noch Mantle unterstützen, da müsste schon allergrößte Not herrschen. Meiner Ansicht nach herrscht da eine gewisse Arroganz seit geraumer Zeit.

fondness
2014-09-23, 13:24:16
NV hat ja nichts zu verlieren, wenn der Druck zu groß wird unterstützt man es einfach. Für den User ist das allerdings mal wieder zum Nachteil und trotzdem wird es noch verteidigt.

Locuza
2014-09-23, 13:27:36
Ich find die Taktik, die NV da einschlägt ist einfach dumm, da sie die anfängliche Verbreitung der offenen Standards behindern mit ihrem proprietären Krempel.
Und noch Mantle erwähnen, als würde es nicht dazu gehören.

HOT
2014-09-23, 13:28:26
NV hat ja nichts zu verlieren, wenn der Druck zu groß wird unterstützt man es einfach. Für den User ist das allerdings mal wieder zum Nachteil und trotzdem wird es noch verteidigt.
Konsumenten unterstützen nicht sinnvolle Technik, sinnvolle Preise, sie unterstützen Mode und Marken, das ist auch der Grund, warum eine GTX770 trotz weniger RAM die ganze Zeit über teurer war als eine 280X.
Und noch Mantle erwähnen, als würde es nicht dazu gehören.
Das ist absehbar, dass es so nicht bleibt, insbesondere wenn Intel tatsächlich einsteigt. Zudem hat Mantle ja ähnlich positive Effekte zur Folge wie Glide damals und es wurde ja nicht von AMD selber forciert. Das sind wichtige Punkte, die man dabei nicht unerwähnt lassen darf. Es dient einfach nicht dazu den Markt zu monopolisieren, dazu taugt es nicht.

Locuza
2014-09-23, 13:32:16
Andrew hat mir nicht den Eindruck gemacht, als ob Intel sich da ernsthafte Gedanken macht mit einzusteigen, sondern darum gemeinsame Argumente zu finden, um vermutlich beim DX und OGL Konsortium ein höheres Gewicht zu haben.
G-Sync hat auch positive Effekte, sollte man nicht unerwähnt lassen.

Timbaloo
2014-09-23, 13:52:22
Das ist absehbar, dass es so nicht bleibt,
Ist das deine Definition von nicht proprietär? Ein Hersteller entwickelt etwas so hin dass es exakt zu seiner Hardware passt und dann wenn man Fakten mit einem bis dahin geschlossenen System geschaffen hat, wirft man es den Konkurrenten vor die Füsse und tut so als wäre es ein offener Standard? Ich finde Mantle ja auch eine interessante Idee, aber so wie es von einigen verklärt wird, als offen dargestellt, das ist so unsagbar naiv, es schmerzt.

Nakai
2014-09-23, 19:34:34
THIS!

Da schaut man hier rein um zu sehen obs was neues gibt, aber nööö. Da suchen ein paar rote Socken das Haar in der Suppe. Maxwell kann Teile der GPU unabhängiger und schneller vom Netz "trennen" und wieder reaktiviert. Granulares Powergating halt. Maxwell hat mehr PLLs und wahrscheinlich auch höher getaktete VRMs haben. Dazu paart sich noch die Möglichkeit der besseren Auslastung und fertig ist das "Effizienzwunder". Wichtig ist doch das Maxwell mich weniger auf der Stromrechnung kostet und leichter zu kühlen ist als alles andere auf dem Markt. Warum muss man da jetzt ein Fass aufmachen?

Einige hier würden gute Ingenieursarbeit nicht mal erkennen wenn die sie am Kopf trifft:rolleyes:
Könnten wir jetzt bitte zum Thema zurück kehren?

Und im Maxwell-Thread:
Laut THG verbrät bei GPGPU auch die Referenze GTX 980 mehr als das TDP-Limit hergibt. Beim Gaming ist man natürlich innerhalb des TDP-Limits.

Mal gucken, wie GM200 reagiert.

aufkrawall
2014-09-23, 19:38:26
NV hat ja nichts zu verlieren, wenn der Druck zu groß wird unterstützt man es einfach. Für den User ist das allerdings mal wieder zum Nachteil und trotzdem wird es noch verteidigt.
Wie toll der AMD OpenCL-Treiber ist, sieht man bei madVR NNEDI3.
Auf AMD komplett unbrauchbar, auf NV läuft es gut...

Hübie
2014-09-23, 19:43:34
Und im Maxwell-Thread:
Laut THG verbrät bei GPGPU auch die Referenze GTX 980 mehr als das TDP-Limit hergibt. Beim Gaming ist man natürlich innerhalb des TDP-Limits.

Mal gucken, wie GM200 reagiert.

Das mag ja sein, aber da kommt auch entsprechend was an, oder? Habe ehrlich gesagt nur ein paar oberflächliche Benchmarks gesehen, jedoch kann man bekanntlich in der Pfeife rauchen :freak:
Hast du da mal eins, zwei links?

Nakai
2014-09-23, 19:53:43
Das mag ja sein, aber da kommt auch entsprechend was an, oder? Habe ehrlich gesagt nur ein paar oberflächliche Benchmarks gesehen, jedoch kann man bekanntlich in der Pfeife rauchen :freak:
Hast du da mal eins, zwei links?

Das habe ich bereits gesagt, dass Maxwell unter Compute effizienter ist, als Kepler. Kurz GM204 verbraucht unter Compute teilweise mehr als GK110, wobei man auch von der Leistung in ähnlichen Regionen liegt. Das ist nicht schlecht, spricht für eine deutlich höhere Compute-Effizienz.

http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/9/

http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/20

Leider, und ich könnte wirklich kotzen, wieso nahezu alle Review-Seiten den Verbrauch nicht unter Compute messen, sind die meistens Reviews dahingehend für die Katz.

€:
Wie toll der AMD OpenCL-Treiber ist, sieht man bei madVR NNEDI3.
Auf AMD komplett unbrauchbar, auf NV läuft es gut...

Schonmal was in OpenCL gemacht?

Hübie
2014-09-23, 19:55:20
Ja das meinte ich ja. Finde zwar Benchmarks für compute aber keine Angaben was man da so verbrät. Die Taktraten sind jedenfalls unauffällig.

Nakai
2014-09-23, 19:59:30
Ja das meinte ich ja. Finde zwar Benchmarks für compute aber keine Angaben was man da so verbrät. Die Taktraten sind jedenfalls unauffällig.

Deswegen warte ich auf das HT4U-Review. Ein Review ist mir zu wenig, um ein durchschlagendes Argument zu haben, vor allem bei gewissen Widerstand.

Und ich sage es nochmal: Selbst unter Gaming hat die Referenz-GTX980 Peaks bis zu ~300W.

Woklbokl
2014-09-23, 20:00:56
Deswegen warte ich auf das HT4U-Review. Ein Review ist mir zu wenig, um ein durchschlagendes Argument zu haben, vor allem bei gewissen Widerstand.

Und ich sage es nochmal: Selbst unter Gaming hat die Referenz-GTX980 Peaks bis zu ~300W.

Dort liegt ja auch ihr Powertarget.
Ein ungezügelter GK110 verbraucht auch weit mehr als die 250 Watt TDP vom Ref-Design.

Hübie
2014-09-23, 20:17:35
Deswegen warte ich auf das HT4U-Review. Ein Reuview ist mir zu wenig, um ein durchschlagendes Argument zu haben, vor allem bei gewissen Widerstand.

Und ich sage es nochmal: Selbst unter Gaming hat die Referenz-GTX980 Peaks bis zu ~300W.

Ja gut. Das haben aber alle Chips in diesen Segment. Kenne jedenfalls keinen der da nicht ranreicht. Wenn ich mich recht erinnere sogar Tonga Pro. Also nichts unerwartetes. Wobei natürlich zwischen 165 und 300 deutlich mehr Spanne liegt als zwischen 225 und 300. Das ist natürlich schon außergewöhnlich. Dennoch weiß ich nicht worauf diese Diskussion hinauslaufen soll... :confused:

aufkrawall
2014-09-23, 20:23:42
Schonmal was in OpenCL gemacht?
Nein.
Das ändert aber nichts daran, dass AMD bestimmte Bugs einfach nicht fixen will, sofern nicht irgendwelche wichtigen Unternehmen meckern.
Man sollte sie da nicht als Heilige hinstellen, geht gerne gut was kaputt mit neuen Treibern.

del_4901
2014-09-23, 20:25:44
Nein.
Das ändert aber nichts daran, dass AMD bestimmte Bugs einfach nicht fixen will, sofern nicht irgendwelche wichtigen Unternehmen meckern.
Man sollte sie da nicht als Heilige hinstellen, geht gerne gut was kaputt mit neuen Treibern.
Die die am lautesten schreien haben die Bugs meisst in Ihrem eigenen Code. Nvidia ist nur so nett und biegt den Standart, und handled simple Fehler gerne Intern.

StefanV
2014-09-23, 20:27:20
Wie toll der AMD OpenCL-Treiber ist, sieht man bei madVR NNEDI3.
Auf AMD komplett unbrauchbar, auf NV läuft es gut...
Du meinst also das, was laut MadVR Thread (http://forum.doom9.org/showthread.php?t=146228) generell besser auf AMD Karten denn nV Karten läuft?

Also so in dem Bereich in dem die Leute sagen, dass man mit 'ner 290er alles voll rein knallen kann, während man mit 'ner 780er einiges runter stellen müsste...

Locuza
2014-09-23, 20:33:30
Ich glaube THG hat erst jetzt die Zahlen aktualisiert:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Jetzt sieht das ganze auch schlüssig aus zu den Äußerungen aus dem CB-Forum.

Grafikkarte insgesamt:

Gigabyte 980: 279,68 W
Referenz 980: 177.36 W
Gigabyte 970: 242,97 W

Unicous
2014-09-23, 20:34:16
Nach dem Motto: "If you can't get rid of it, put an LED in it" kann man jetzt beleuchte SLI-Brücken von Nvidia kaufen.:freak:

http://techreport.com/r.x/2014_9_23_Nvidia_wants_to_sell_you_LEDinfused_SLI_bridges/nv-led-bridge.jpg
http://techreport.com/r.x/2014_9_23_Nvidia_wants_to_sell_you_LEDinfused_SLI_bridges/sli-bridges-2.jpg
http://techreport.com/news/27097/nvidia-wants-to-sell-you-led-infused-sli-bridges

2-way kostet günstige 30 Dollar, 3-way kostet nur 40 Dollar.;D

aufkrawall
2014-09-23, 20:39:39
Die die am lautesten schreien haben die Bugs meisst in Ihrem eigenen Code. Nvidia ist nur so nett und biegt den Standart, und handled simple Fehler gerne Intern.
Besagtes Problem tritt erst mit Treibern nach 13.12 auf, vorher ging es (so halbwegs).
Ich hoffe auch mal, ich bilde mir diesen Vorwurf zwischen den Zeilen an madshi nur ein. Wäre sehr daneben.

Du meinst also das, was laut MadVR Thread (http://forum.doom9.org/showthread.php?t=146228) generell besser auf AMD Karten denn nV Karten läuft?

Also so in dem Bereich in dem die Leute sagen, dass man mit 'ner 290er alles voll rein knallen kann, während man mit 'ner 780er einiges runter stellen müsste...
madVR nutzt nur ein Feature per OpenCL (davon sprach ich, falls es dir schon zu lange her ist), und da kommt AMd nicht gut bei weg.
Wie billig ist das denn, einfach nen ganzen Thread zu verlinken...
Du hast den doch gar nicht gelesen.
http://forum.doom9.org/showthread.php?p=1693755#post1693755
:rolleyes:
Was ein unglaublich peinliches Gebaren...

Godmode
2014-09-23, 20:40:23
Ich glaube THG hat erst jetzt die Zahlen aktualisiert:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Jetzt sieht das ganze auch schlüssig aus zu den Äußerungen aus dem CB-Forum.

Grafikkarte insgesamt:

Gigabyte 980: 279,68 W
Referenz 980: 177.36 W
Gigabyte 970: 242,97 W

Das ist ja interessant. Ich denke mal das ist dem hohen Boost Takt geschuldet, was meint ihr? Es wird interessant wie GM200 da abschneiden wird. Zumindest ist jetzt geklärt das es bei der Referenzkarte bei den 177 Watt bleibt.

-/\-CruNcher-/\-
2014-09-23, 20:46:25
Die die am lautesten schreien haben die Bugs meisst in Ihrem eigenen Code. Nvidia ist nur so nett und biegt den Standart, und handled simple Fehler gerne Intern.

Jo fehler wie Tressfx z.b (einfach mal kernel austauschen) fixed ;)

Bin mal gespannt wie viele Kernel noch für Maxwell ausgetauscht bzw nachgepatcht werden bei der GTX 750 hats ja schon angefangen

Nakai
2014-09-23, 20:49:12
Ich glaube THG hat erst jetzt die Zahlen aktualisiert:
http://www.tomshardware.de/geforce-gtx-980-gtx-970-maxwell-gpu,testberichte-241646-12.html

Jetzt sieht das ganze auch schlüssig aus zu den Äußerungen aus dem CB-Forum.

Grafikkarte insgesamt:

Gigabyte 980: 279,68 W
Referenz 980: 177.36 W
Gigabyte 970: 242,97 W

Oke, vorhin waren die Diagramme noch "anders". Anscheinend war das ein Fehler im THG-Artikel. Ich nehme es zurück. NV setzt ein TDP-Limit, welches unter gar keinen Umständen überschritten wird.

@Hübie:
Dennoch weiß ich nicht worauf diese Diskussion hinauslaufen soll...

Es ging mir darum, wie es bei GM200 aussehen sollte, wenn GM204 unter Compute bereits abartig hochgeht vom Verbrauch. Das ist aber jetzt hinfällig.

-/\-CruNcher-/\-
2014-09-23, 20:53:35
Bei MSI scheint das Board auf 300W ausgelegt eigentlich irgendwo schon überdimensioniert, es sei den das takten wird immer ineffizienter und brauch immer mehr saft pro zusätzlichen FPS und da will man ja der King sein, effizienz was ist das hauptsache xx$ mehr von den usern für 2 fps kassieren deren Stromrechnung ist uns doch scheissegal, was können wir für deren geilheit auf das wort OC wenn die es mitmachen ist doch gut für uns ;)

das ist doch veraltet was der hier z.b plappert absolute ketzerei

If you care more about benchmark results than your power bill, consider calling it a day around 4.2 GHz. Yes 4.5 GHz and higher is possible, but at a certain point you're going to spend too much on a beefy motherboard and high-end cooler, negating the value of overclocking outright.

Eine besser Beschreibung als wie das gibt es dafür nicht danke an MSI dafür ;)

eZd90fkrrXA

Locuza
2014-09-23, 20:54:44
Oke, vorhin waren die Diagramme noch "anders". Anscheinend war das ein Fehler im THG-Artikel. Ich nehme es zurück. NV setzt ein TDP-Limit, welches unter gar keinen Umständen überschritten wird.

Bei tomshardware.com sind immer noch die alten Zahlen enthalten.
Ich schaue mir gerade Tonga an und die Zahlen ergeben für mich ebenso wenig Sinn (Im Sinne von tolerierbar).
Beim Gaming 290W Peak für die 285 und bei GPGPU "nur" 250W?
Das ist das Design von Sapphire.
HT4U hat dagegen mit den letzten 2 Tests sehr gute Resultate für Tonga präsentieren können.

Also wenn Custom-Karten so übel das Energiemanagement aushebeln, sollte man vielleicht vorsichtig sein.

Godmode
2014-09-23, 21:03:55
GM204 Die Shot von WCF Tech (http://wccftech.com/nvidia-unleashes-maxwell-gm204-geforce-gtx-980-gtx-970-graphics-cards/):

Man sieht hier auf jeden Fall, dass keine weitere ALUs mehr versteckt sind, unter der Bedingung, dass das Ding echt ist und kein Photoshop Mockup.

Achtung groß:
http://cdn3.wccftech.com/wp-content/uploads/2014/09/NVIDIA-GeForce-Maxwell-GM204-Die-Shot.jpg (http://wccftech.com/nvidia-unleashes-maxwell-gm204-geforce-gtx-980-gtx-970-graphics-cards/)

Locuza
2014-09-23, 21:12:41
Sieht wie ein mix aus, alle sauberen und leuchtenden Strukturen aus dem Bildbearbeitungsprogramm und das Zeug dahinter könnte vom echtem Chip sein, welches man leider schlecht sieht, wenn Fake Elemente darüber eingebaut sind.

Coda
2014-09-23, 22:21:08
Das ist ein Bullshot.

Nakai
2014-09-23, 23:21:55
Das ist ein Bullshot.

;D;D;D

Das zweite Mal schon.

Ich glaub, da ist so ziemlich alles an dem Ding falsch, was falsch sein kann.

joe kongo
2014-09-23, 23:25:55
Die TDP Vorgaben von NV könnte man so aushebeln (Kupferfolie über die Strommessshunts löten):
http://666kb.com/i/cs2kqy97lvvhhjjls.jpg
:D

Hübie
2014-09-23, 23:57:02
;D;D;D

Das zweite Mal schon.

Ich glaub, da ist so ziemlich alles an dem Ding falsch, was falsch sein kann.

Zum Glück. Ich zweifelte schon an meinen (ohne hin recht bescheidenen) Fähigkeiten. Vor allem beim Speicherinterface dachte ich nur wtf? Und von drinnen reden wir mal gar nicht. Und dass da nix "versteckt" is kann man glaub ich auch ohne Bullshot sagen.

Da frage ich mich warum sich ein Mensch diese Arbeit macht? Ich mein, dass is doch Zeitverschwendung pur!

@joe kongo: Und das bringt genau was? :confused:

Unicous
2014-09-24, 00:01:38
@joe kongo: Und das bringt genau was? :confused:

A TDP OVER 90000!!!!!

:freak:

Coda
2014-09-24, 00:26:38
Zum Glück. Ich zweifelte schon an meinen (ohne hin recht bescheidenen) Fähigkeiten. Vor allem beim Speicherinterface dachte ich nur wtf? Und von drinnen reden wir mal gar nicht. Und dass da nix "versteckt" is kann man glaub ich auch ohne Bullshot sagen.

Da frage ich mich warum sich ein Mensch diese Arbeit macht? Ich mein, dass is doch Zeitverschwendung pur!
Marketing. NVIDIA versucht schon länger es Apple nachzumachen.

joe kongo
2014-09-24, 00:40:18
@joe kongo: Und das bringt genau was? :confused:

Bei der GTX580 nichts, nur das sich das Netzteil unter Furmark abschaltet.
Aber bei einem nicht so stromfressenden Maxwell könnte ich mir
da einiges an OC vorstellen, bevor die Temperatur limitiert.

p.s. wird bei der GTX 970/980 die Temperatur der Spawas überwacht ?

-/\-CruNcher-/\-
2014-09-24, 02:07:30
Bei der GTX580 nichts, nur das sich das Netzteil unter Furmark abschaltet.
Aber bei einem nicht so stromfressenden Maxwell könnte ich mir
da einiges an OC vorstellen, bevor die Temperatur limitiert.

p.s. wird bei der GTX 970/980 die Temperatur der Spawas überwacht ?

Das wären doch extra kosten, solche spielerein kannst du vieleicht in den Custom Designs ala MSI OC hyper geil Lighting erwarten für 50€ aufpreis bei 2€ prod kosten (du kannst MSI doch nicht pleite machen wollen) per unit aber doch nicht generel für lau ;)
Und auch noch von Nvidia die dir damals das GPU auslesen der Temperatur als extra feature verkauft haben ne ne ;)

Ach ne moment mal so ein feature würde ja jetzt in das Segment Overcklocking fallen Lighting ist ja was anderes und Gaming sorry manchmal komm ich da durcheinander die tabellen passen nicht mehr ganz auf den bildschirm ;)

Beantrag das Feature doch mal bei Nvidia bin sicher die machen das dann mit den AIBs klar die bauen dir dann gerne eine Ultra Sensor Edition (Game edition mit Integer readout und Overclocking sogar float) for just 200€ Aufpreis ;)

Es wird aber keine anderen Modele geben weil 970/980 sind dann doch etwas zu low cost das lohnt nicht da gehen MSI und Co sonst pleite das müssen dann schon 250€ Aufpreis ab 980 Ti oder 990 werden (träumt nicht auf den normalen preis nicht vom jetzigen).

Nichts zu danken Hübie ;)

mczak
2014-09-24, 03:25:27
Oke, vorhin waren die Diagramme noch "anders". Anscheinend war das ein Fehler im THG-Artikel. Ich nehme es zurück. NV setzt ein TDP-Limit, welches unter gar keinen Umständen überschritten wird.

Sehe ich auch so der Chip macht also offenbar alles richtig. Wäre jetzt noch interessant zu wissen wie stark denn da der Takt und die Performance runterging bei dem Test bei der Referenz - in den Spielen sah man da ja kaum was, aber bei 100W Unterschied erwarte ich schon eine gewisse Differenz...

Skysnake
2014-09-24, 08:41:36
Wäre zumindest wünschenswert, da eine Differenz zu sehen :ugly:

Ailuros
2014-09-24, 08:49:22
Das ist ja interessant. Ich denke mal das ist dem hohen Boost Takt geschuldet, was meint ihr? Es wird interessant wie GM200 da abschneiden wird. Zumindest ist jetzt geklärt das es bei der Referenzkarte bei den 177 Watt bleibt.

http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

We originally posted Power Consumption Torture (GPGPU) results that showed a simulated GeForce GTX 970 reference card pulling over 240 Watts. That data point was simulated with a Gigabyte GTX 970 card (with a 250 Watt power target), underclocked to the reference specification.

We have since pulled that data at Nvidia's request because the company does not feel it represents a reference GeForce GTX 970 card, and we have obliged it. On the other hand, as far as we know there are no actual GeForce GTX 970 reference card designs for sale as each manufacturer must put their own spin on this model. In addition, none of the manufacturers we have talked to have released a GeForce GTX 970 card with a 150 Watt power target as of this time, opting instead to give this product more performance headroom.

This is an issue we are keeping a close eye on, and we will follow up with a detailed investigation in the near future. We are curious to see if a reference-spec GeForce GTX 970 will perform in the same league as the cards we have tested with higher power targets, but it would certainly make more sense in an HTPC or for use in smaller form factors. In the meantime, we have removed the 'simulated' GeForce GTX 970 data point from the following chart.

Hübie
2014-09-24, 10:05:56
Das wird einfach nur ein Schachzug seitens nVidia sein, um auf dem Papier beste Effizienz zu suggerieren, aber am anderen Ende Leistung sprechen zu lassen. Ist das legitim? Ich sage: solange es klar deklariert ist, schon.

fondness
2014-09-24, 10:10:57
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html

Wie üblich bei Nvidia. Getestet werden die besten Chips mit sehr niedriger tdp um als besonders effizient dazustehen und verkauft wird dann ganz was anderes. Zwischen den 165 Watt der Referenz gtx 980 und den bis zu 300 Watt mancher Verkaufs Modelle liegen Welten. Und die Leute freuen sich das sie verarscht worden sind und eine so effiziente Karte haben.

ndrs
2014-09-24, 10:15:24
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-13.html
Tja, das hätte AMD vielleicht bei Tonga auch mal so machen sollen :)

fondness
2014-09-24, 10:21:31
Das wird einfach nur ein Schachzug seitens nVidia sein, um auf dem Papier beste Effizienz zu suggerieren, aber am anderen Ende Leistung sprechen zu lassen. Ist das legitim? Ich sage: solange es klar deklariert ist, schon.

Was ist denn daran für dich klar deklariert? Es werden Karten getestet die nicht verkauft werden (können).

Dawn on Titan
2014-09-24, 10:22:00
Ist das schon Betrug? Doppelt zur Referenz-TDP finde ich schon extrem.

AffenJack
2014-09-24, 10:24:14
Wie üblich bei Nvidia. Getestet werden die besten Chips mit sehr niedriger tdp um als besonders effizient dazustehen und verkauft wird dann ganz was anderes. Zwischen den 165 Watt der Referenz gtx 980 und den bis zu 300 Watt mancher Verkaufs Modelle liegen Welten. Und die Leute freuen sich das sie verarscht worden sind und eine so effiziente Karte haben.

Nur liegen selbst dann noch Welten zwischen den Nv Modellen und Amds Karten, wie man am neuen THG Test sieht:

http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648.html

Der Synthetische Test war wohl Sisoft Sandra MonteCarlo. Da frisst die 970 richtig und ist performancemäßig auch nicht so der Bringer. Interessant wäre es noch immer wie schnell die GTX980 da so ist, wo sie doch auf 177W eingebremst wird.

Was ist denn daran für dich klar deklariert? Es werden Karten getestet die nicht verkauft werden (können).

Verkauft werden sie schon, allerdings nur von Palit und Gainward. Generell gibts die Unterscheidung Referenztaktraten = geringes TDP-Limit, zb die Stryx. OC-Karten höheres Limit. Aber selbst da ist die Oc Stryx 970 bei 179W. Gigabyte hat das dann einfach mehr oder weniger völlig ausgehebelt. Wenn du dir aber OC-Partnerkarten von früheren Karten ansiehst sind die öfters in anderen TDP-Klassen. Da werden einfach andere Maßstäbe angelegt.

Lightning
2014-09-24, 10:32:10
Wie üblich bei Nvidia. Getestet werden die besten Chips mit sehr niedriger tdp um als besonders effizient dazustehen und verkauft wird dann ganz was anderes. Zwischen den 165 Watt der Referenz gtx 980 und den bis zu 300 Watt mancher Verkaufs Modelle liegen Welten. Und die Leute freuen sich das sie verarscht worden sind und eine so effiziente Karte haben.

So wie ich das sehe, trifft das auf Spiele nicht zu (im Gegenteil). GPGPU ist ein anderes Blatt, aber da dürfte dann auch die Performance der Referenz GTX 980 deutlich leiden. Dass THG dazu keine Benchmarks hat, ist ein Versäumnis.

Ailuros
2014-09-24, 10:36:16
Wie üblich bei Nvidia. Getestet werden die besten Chips mit sehr niedriger tdp um als besonders effizient dazustehen und verkauft wird dann ganz was anderes. Zwischen den 165 Watt der Referenz gtx 980 und den bis zu 300 Watt mancher Verkaufs Modelle liegen Welten. Und die Leute freuen sich das sie verarscht worden sind und eine so effiziente Karte haben.

Ich wuerde sogar wetten dass es sich um einen trend handelt den GPU IHVs so oder so angewaendet haetten. Es zwingt KEINER den Verbraucher eine >165W Variante zu kaufen und diejenigen die es tun sollten schon wissen was sie genau gekauft haben, denn N mehr Leistung kommt nirgends umsonst.

Sonst fuer alles AMD gilt nach wie vor put up or shut up.

So wie ich das sehe, trifft das auf Spiele nicht zu (im Gegenteil). GPGPU ist ein anderes Blatt, aber da dürfte dann auch die Performance der Referenz GTX 980 deutlich leiden. Dass THG dazu keine Benchmarks hat, ist ein Versäumnis.

Erstens ist der compute test bei Toms afaik eine Art "power virus" und zweitens entschuldigt sich quasi Toms fuer den Ausrutscher. Es ist eben nicht das ueberzeugende Material dass ploetzlich alle AMD fanboys uebers Netz als Lutschbonbon in fora benutzen dass NV mal wieder bescheisst.

Sonst wie gesagt wird auch AMD in absehbarer Zeit dem trend folgen.

Coda
2014-09-24, 10:43:50
Wie üblich bei Nvidia. Getestet werden die besten Chips mit sehr niedriger tdp um als besonders effizient dazustehen und verkauft wird dann ganz was anderes. Zwischen den 165 Watt der Referenz gtx 980 und den bis zu 300 Watt mancher Verkaufs Modelle liegen Welten. Und die Leute freuen sich das sie verarscht worden sind und eine so effiziente Karte haben.
Ja klar, 145W Unterschied. Haben sie aus Versehen wohl auf der Rückseite noch nen zweiten Chip drangelötet.

fondness
2014-09-24, 10:59:15
Ja klar, 145W Unterschied. Haben sie aus Versehen wohl auf der Rückseite noch nen zweiten Chip drangelötet.

Gigabyte gibt ihrer GTX980 bsw. 300W TDP und die werden auch mal benötigt wie der Test von THG zeigt. Ob es überhaupt Karten am Markt gibt die ein 165W PowerTarget haben ist nicht bekannt. Siehe:

In addition, none of the manufacturers we have talked to have released a GeForce GTX 970 card with a 150 Watt power target as of this time, opting instead to give this product more performance headroom.

Schaffe89
2014-09-24, 11:06:21
Findest du nicht, dass du etwas übertreibst?
Das ist wohl wirklich der letzte Strohhalm.

Hätte AMD bei den 285ger Karten auch machen sollen, haben sie nicht.
Pech.

fondness
2014-09-24, 11:10:43
Du kannst mir ja gerne konkrete Beispiele nennen wo ich übertreibe. Ansonsten ist das nichts als eine Plattitüde.

Verkauft werden sie schon, allerdings nur von Palit und Gainward. Generell gibts die Unterscheidung Referenztaktraten = geringes TDP-Limit, zb die Stryx. OC-Karten höheres Limit. Aber selbst da ist die Oc Stryx 970 bei 179W. Gigabyte hat das dann einfach mehr oder weniger völlig ausgehebelt. Wenn du dir aber OC-Partnerkarten von früheren Karten ansiehst sind die öfters in anderen TDP-Klassen. Da werden einfach andere Maßstäbe angelegt.

Ist die Frage ob diese Karten dann auch die 165W TDP haben, oder ob einfach nur der Referenzkühler verbaut ist.

Locuza
2014-09-24, 11:12:22
Gigabyte gibt ihrer GTX980 bsw. 300W TDP und die werden auch mal benötigt wie der Test von THG zeigt. Ob es überhaupt Karten am Markt gibt die ein 165W PowerTarget haben ist nicht bekannt. Siehe:
Also das gleiche Problem, wie bei Tonga?
Oder frisst der hier nur aus Spaß 290W?
http://www.tomshardware.com/reviews/amd-radeon-r9-285-tonga,3925-11.html

Schaffe89
2014-09-24, 11:13:14
Okay - revidiere ich hiermit.

http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-5.html

Sedlbst die Custom 970 ist nicht effizienter wie eine Custom GTX 780 Ti.

fondness
2014-09-24, 11:21:10
Also das gleiche Problem, wie bei Tonga?
Oder frisst der hier nur aus Spaß 290W?
http://www.tomshardware.com/reviews/amd-radeon-r9-285-tonga,3925-11.html

Habe ich irgendwo Tonga erwähnt oder willst du nur trollen? Die gemessenen 280W bei der Gigabyte GTX980 stellen keine Lastspitze dar, sondern den durchschnittsverbauch unter der GPGPU-Anwendung. Auch hat AMD eben keine selektierten Referenzdesigns testen lassen sondern Custom-Design wie sie auch verkauft werden.

Ailuros
2014-09-24, 11:25:33
Okay - revidiere ich hiermit.

http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-5.html

Sedlbst die Custom 970 ist nicht effizienter wie eine Custom GTX 780 Ti.

Uebertaktete gegen uebertaktete Varianten und Du hasst mir von allen Faellen nur die Aussnahme ausgesucht. Besser geht es wohl bei Euch nicht mehr oder? :rolleyes:

Ailuros
2014-09-24, 11:26:26
Habe ich irgendwo Tonga erwähnt oder willst du nur trollen? Die gemessenen 280W bei der Gigabyte GTX980 stellen keine Lastspitze dar, sondern den durchschnittsverbauch unter der GPGPU-Anwendung. Auch hat AMD eben keine selektierten Referenzdesigns testen lassen sondern Custom-Design wie sie auch verkauft werden.

Wer hier eigentlich trollt ist mehr als offensichtlich.

fondness
2014-09-24, 11:28:26
Wer hier eigentlich trollt ist mehr als offensichtlich.

Wie wäre es mit Inhalt statt einer Beleidigung?

Ailuros
2014-09-24, 11:31:04
Wie wäre es mit Inhalt statt einer Beleidigung?

Der Inhalt hier ist dass Du Ihn als erster indirekt angegriffen hast. Sonst kuemmer Du Dich um Deiner inhaltslosen Beitraege und halt Dich gefaelligst an die Regeln und ja auch EOD fuer's OT.

Godmode
2014-09-24, 11:31:35
Ich verstehe echt nicht was euer Problem ist.

Zitat von THG (http://www.tomshardware.de/maxwell-gtx-970-effizienz-benchmarks-power-target,testberichte-241648-8.html) im Fazit:

Variante 1: Die Sparsamen

Lässt man das Power Target genau dort, wo Nvidia es bei der Referenz gesetzt hat, dann sind die Karten mit Sicherheit immer noch recht flott, begügen sich aber bei der Leistungsaufnahme mit bisher einmalig niedrigen Werten fürs tatsächlich Gebotene.

Variante 2: Die Übertaktungskracher

Durch die Aufstockung des Power Targets auf fast das Doppelte lassen sich recht einfach Karten konzipieren, deren angehobener Werkstakt allein schon ausreicht, um an der nächsthöheren Leistungsklasse zu kratzen. Gleichzeitig bieten sie auch ohne Spannungserhöhung noch sehr viel Freiraum und Potenzial für eine manuelle Übertaktung. Je nach Großzügigkeit des Herstellers beim Power Target kann dann auch der Boost-Takt unter Last länger gehalten werden.

Ailuros
2014-09-24, 11:34:40
Es war schon im SPEKULATIONS-STADIUM klipp und klar hier im thread dass jegliche GM204 eben NICHT schneller sein wird als GK110. Es wurde ebenso schon damals klar gemacht dass es tatsaechlich leicht schnellere aber vendor-OCed SKUs mit GM204 SKUs geben wird.

Was jetzt einige nicht verstehen "wollen" ist ein Kapitel fuer sich, aber mehr Leistung ueber der Referenz kostet auch um einiges mehr Strom und das ist nichtmal einzigartig fuer GeForces.

Locuza
2014-09-24, 11:37:33
Habe ich irgendwo Tonga erwähnt oder willst du nur trollen? Die gemessenen 280W bei der Gigabyte GTX980 stellen keine Lastspitze dar, sondern den durchschnittsverbauch unter der GPGPU-Anwendung. Auch hat AMD eben keine selektierten Referenzdesigns testen lassen sondern Custom-Design wie sie auch verkauft werden.
Du meintest Nvidia gewinnt durch gute Effizienzwerte, obwohl im Handel dann primär Custom-Designs mit höherem Powertarget verfügbar sind.

Ich meine das gleiche Problem hat Tonga ebenso.
Du siehst die enttäuschenden Verbrauchsmessungen und dann siehst du die letzten zwei HT4U Messungen, wo Tonga viel besser abschneidet.
Wenn die Partner Referenzwerte nehmen, schneidet der Verbrauch bei beiden Hersteller im Schnitt deutlich besser ab.

Nvidia hat hier das Glück eben eine Referenzkarte präsentiert zu haben.
Will ich eine effiziente 970 oder R9 285 muss ich Tests anschauen oder hoffen das der Boardpartner seine Einstellungen transparent auflistet.

HOT
2014-09-24, 12:15:04
Es war schon im SPEKULATIONS-STADIUM klipp und klar hier im thread dass jegliche GM204 eben NICHT schneller sein wird als GK110. Es wurde ebenso schon damals klar gemacht dass es tatsaechlich leicht schnellere aber vendor-OCed SKUs mit GM204 SKUs geben wird.

Was jetzt einige nicht verstehen "wollen" ist ein Kapitel fuer sich, aber mehr Leistung ueber der Referenz kostet auch um einiges mehr Strom und das ist nichtmal einzigartig fuer GeForces.
Na ja, würden Custom-Karten 165W verbrauchen gäbe es auch kein Problem ;). Aber es stinkt einfach: 165W TDP anzugeben und sämtliche kaufbare Varianten verbraten durch die Bank mehr...
Ich beschwer mich da nicht, AMD und Intel haben sowas auch schon gebracht. Aber die Größenordnung ist schon ziemlich krass ausgefallen diesmal.

Ailuros
2014-09-24, 12:23:43
Na ja, würden Custom-Karten 165W verbrauchen gäbe es auch kein Problem ;). Aber es stinkt einfach: 165W TDP anzugeben und sämtliche kaufbare Varianten verbraten durch die Bank mehr...
Ich beschwer mich da nicht, AMD und Intel haben sowas auch schon gebracht. Aber die Größenordnung ist schon ziemlich krass ausgefallen diesmal.

Wenn SKUs nicht auf Referenz-Frequenzen laufen wird es wohl einen Grund geben wieso man diese "custom" nennt.

Hübie
2014-09-24, 12:30:12
Was ist denn daran für dich klar deklariert? Es werden Karten getestet die nicht verkauft werden (können).

Ich sage nicht dass dem so ist. Interpretiere nichts sondern lese und verstehe.
Zum Kotzen finde ich eher, dass z.B. Gigabyte (http://www.gigabyte.com/products/product-page.aspx?pid=5209#sp) auf seiner Produkthomepage gar keine TDP angibt! Reviewer weisen ja darauf hin und ich finde ein Hersteller muss das klar deklarieren. Das wäre nur fair dem Verbraucher ggü.

MSI gibt ganz klar 148 Watt für die Gaming (http://de.msi.com/product/mb/GTX-970-GAMING-4G.html#hero-specification) an.

ASUS gibt bis zu 225 Watt für die Strix (http://www.asus.com/de/Graphics_Cards/STRIXGTX970DC2OC4GD5/specifications/) an. Das ist durchaus fair. Da kann man sich entscheiden.

Also wie immer: schwarze Schafe hast du immer mal wieder. nVidia könnte intervenieren, aber das strapaziert immer Geschäftsbeziehungen und dafür gibt's Regulierungsbehörden.

ps: Wir alle wissen ja wo fondness seine Brötcher verdient *hust* :redface:

Edit: Ach ja was mir auffiel: Bei THG werden im Intro die Gigabyte-Karten, eine EVGA (970 Superclocked) und eine 980 Referenz vorgestellt. Bei den Energieverbrauchsmessungen taucht dann aber plötzlich eine 970 Referenz auf (aber die dann wiederum nicht bei GPGPU - aufgeheizt:confused:). Für die gibt's wiederum keine Angabe von TDP auf der homepage (http://de.evga.com/products/moreinfo.asp?pn=04G-P4-0974-KR&pwindow=specs&family=GeForce%20900%20Series%20Family&sw=).

Blediator16
2014-09-24, 12:38:09
Es gibt eine ganz einfache Lösung dafür. Bei AMD haben es sich gewisse Seiten den "Spaß" gemacht Hawaii Retailkarten zu testen und das sollte gefälligst bei den Nvidia Karten fairerweise auch passieren.

Hübie
2014-09-24, 12:41:43
Mir fiel eben auf dass der Teil mit den Energieverbauchsmessungen editiert wurde. Die angebliche "Referenzkarte" ist peinlicherweise eine Gigabyte mit 250 Watt TDP X-D

T-H-G :facepalm:

fondness
2014-09-24, 12:43:50
Es gibt eine ganz einfache Lösung dafür. Bei AMD haben es sich gewisse Seiten den "Spaß" gemacht Hawaii Retailkarten zu testen und das sollte gefälligst bei den Nvidia Karten fairerweise auch passieren.

Sehe ich auch so, aktuell werden mittels der Referenzkarten tolle Verbrauchswerte suggeriert die vermutlich in Massenproduktion nicht mal erreicht werden könnten. Den Vogel schießen dann natürlich manche Seiten wie PCGH ab, die dann bei späteren Spieletests mit Custom-Modellen testen, freilich ohne den wesentlich höheren Verbrauch auch nur zu erwähnen.

Mir fiel eben auf dass der Teil mit den Energieverbauchsmessungen editiert wurde. Die angebliche "Referenzkarte" ist peinlicherweise eine Gigabyte mit 250 Watt TDP X-D

T-H-G :facepalm:

Es wurde Takt und Spannung auf Referenzniveau gesenkt, es war also das Gigabyte Design ohne OCing.

Timbaloo
2014-09-24, 12:44:20
Das ist doch auch massenweise passiert? Ich verstehe das Problem nicht.

Ailuros
2014-09-24, 12:44:22
Es gibt eine ganz einfache Lösung dafür. Bei AMD haben es sich gewisse Seiten den "Spaß" gemacht Hawaii Retailkarten zu testen und das sollte gefälligst bei den Nvidia Karten fairerweise auch passieren.

Es hat einige Zeit gedaeuert nach dem 290 launch dass es custom SKUs auf Hawaii basierend gab. Es war wohl eher so dass nach den reviews der Referenz 290X reviews sehr viele nach custom SKUs schriehen damit sie an eine bessere Kuehlungsloesung vom Hersteller kommen.

Im gegebenen Fall ist es fast umgekehrt; es werden hauptsaechlich custom SKUs veroeffentlicht weil die Hersteller wissen dass das Publikum auch zu diesen greifen wird, sonst haetten sie auch nirgends so extravagante Kuehlungsloesungen angeboten. Und damit es Dir auch etwas mehr "Spass" macht selbst die uebertakteten GM204 basierende SKUs sind nicht so laut wie im obrigen Fall.

Sehe ich auch so, aktuell werden mittels der Referenzkarten tolle Verbrauchswerte suggeriert die vermutlich in Massenproduktion nicht mal erreicht werden könnten. Den Vogel schießen dann natürlich manche Seiten wie PCGH ab, die dann bei späteren Spieletests mit Custom-Modellen testen, freilich ohne den wesentlich höheren Verbrauch auch nur zu erwähnen.

Es wuerde mich wundern wenn Du gerade es nicht so sehen wuerdest. Und natuerlich ist jegliche Webseite dort draussen Anteil einer weltweiten Konspiration gegen AMD. Vielleicht sollte AMD und ihre Anhaenger zur Abwechslung mal erwachsener werden und einsehen wo sie bis jetzt Fehler gemacht haben und wieso sie ein so grosses image Problem haben gegen die Konkurrenz trotz niedrigerer Preise?

Es wurde Takt und Spannung auf Referenzniveau gesenkt, es war also das Gigabyte Design ohne OCing.

Schon die Tatsache dass es nur emuliert wurde, genuegt mir persoenlich es als eine einfache Indizie aber nicht als Fakt anzunehmen. THG hat ziemlich viel Mist gebaut mit dem eher peinlichen Ausrutscher und die AMD fans versuchen am daemlichen Lutschbonbon weiterzulutschen, was sie aber im gegebenen Fall alles andere als ehrt.

Dawn on Titan
2014-09-24, 12:55:49
Es gibt eine ganz einfache Lösung dafür. Bei AMD haben es sich gewisse Seiten den "Spaß" gemacht Hawaii Retailkarten zu testen und das sollte gefälligst bei den Nvidia Karten fairerweise auch passieren.

Exakt, Leistungsaufnahme, erzielter Boost und insgesamte Leistung muss unabhängig überprüft werden. Momentan steht hinter den GM204 ein dickes Fragezeichen und man kann vor dem Kauf nur warnen.

Hübie
2014-09-24, 13:01:57
Es wurde Takt und Spannung auf Referenzniveau gesenkt, es war also das Gigabyte Design ohne OCing.

Aber die TDP nicht. Schau dir mal an wieviel z.B. die Referenzkarte der 780 Ti durch Anhebung der TDP auf die 106% bringt :wink:
Und Spannung kann man afaik nicht absenken. :P

Habe eben mit EVGA und MSI geschnackt. Bei MSI wird es wohl ein Typo sein, da die "kleinere" Armor 170 Watt hat und die Gaming 148.
EVGA sagt dass die Superclocked aus dem THG-Test bis 225 Watt geht (Powertarget).

hasebaer
2014-09-24, 13:05:16
Exakt, Leistungsaufnahme, erzielter Boost und insgesamte Leistung muss unabhängig überprüft werden. Momentan steht hinter den GM204 ein dickes Fragezeichen und man kann vor dem Kauf nur warnen.

Naja ich hab meine Bestellung von der EVGA 970 SC grad auf eine G1 Gaming abgeändert, weil ich gespannt bin was so geht mit dem kleinen Monster.
Wenn ich es sparsam brauch kann ich ja immernoch das Powertarget anpassen auf 70% oder so, dann wäre ich wieder bei den sparsamen 170W.

Hübie
2014-09-24, 13:13:56
Du kannst einen Regler bewegen? :eek:
Manche hier sind dazu nicht in der Lage... oder wollen nicht in der Lage sein *hust*

fondness
2014-09-24, 13:21:25
Die Frage ist wieviel Leistung bei diesen Modellen dann noch übrig bleibt.

differenzdiskriminator
2014-09-24, 13:21:39
Jetzt habe ich echt lange mitgelesen und die Füße still gehalten, aber irgendwann muss man echt mal was sagen....

Momentan steht hinter den GM204 ein dickes Fragezeichen und man kann vor dem Kauf nur warnen.
Mal ehrlich, was soll so ein Müll? Da gibt es die sachlich gesehen schlicht beste Karte im Bereich ~300€ und du postest so einen Müll? Weil es CustomDesigns gibt, die mehr Leistung aufnehmen als die Referenz? Newsflash: Ist bei AMD-Karten genauso!

Da geht einem echt die Hutschnur hoch bei solchen Sendungen aus dem roten Kanal. Da wird die Stirn rot vor lauter :facepalm:

fondness
2014-09-24, 13:23:47
Und Spannung kann man afaik nicht absenken. :P

Wenn man den Takt senkt wird die Spannung automatisch angepasst.


Habe eben mit EVGA und MSI geschnackt. Bei MSI wird es wohl ein Typo sein, da die "kleinere" Armor 170 Watt hat und die Gaming 148.
EVGA sagt dass die Superclocked aus dem THG-Test bis 225 Watt geht (Powertarget).

War klar das die 148W nicht stimmen, zum Spaß verbaut man nicht 6+8Pin Stromanschlüsse.

Es bleibt also dabei das keine Karte auch nur annähernd die TDP erreicht die NV mit ihren selektierten Samples testen ließ.

Hübie
2014-09-24, 13:24:57
Die Frage ist wieviel Leistung bei diesen Modellen dann noch übrig bleibt.

Ich habe Don von THG eine Nachricht geschrieben. Mal sehen ob er Eier hat :D
Würde mich auch interessieren wieviel die dann noch kann. Auch wenns auf dem Markt irrelevant wäre. Einfach nur aus Neugier.

Edit: Die haben aber nur die Frequenz gesenkt und da passt sich die Spannung eben nicht an. Du musst das PT drücken.

Schnoesel
2014-09-24, 13:27:59
Nun Ja jeder kann da ja seine eigenen Schlüsse daraus ziehen vom Test bei THG. Zumindest sind es die Einzigen die klar gemacht haben, dass die hervorragende Effizienz von Maxwell zum großen Teil nicht auf Hardware-Architektur Verbesserungen beruht was nichts anders heißt als das Nvidia auch nicht zaubern kann. Bei allen anderen Seiten hätte man hingegen vermuten können Nvidia hätte mit der Maxwell Architektur den heiligen Gral gefunden. Hier stellt sich für mich die Frage ob Kepler durch eine Optimierung der Auslastung nicht ebenso in der Lage wäre wesentlich weniger zu verbrauchen.

Ansonsten ist die 970 eine Karte zu einem für Nvidia untypisch schon fast fairen Preis das muss man schon sagen.

hasebaer
2014-09-24, 13:29:48
Du kannst einen Regler bewegen? :eek:
Manche hier sind dazu nicht in der Lage... oder wollen nicht in der Lage sein *hust*

hihi :biggrin:

Die Frage ist wieviel Leistung bei diesen Modellen dann noch übrig bleibt.

Gut es ist die Frage auf welchem Level die anliegende Spannung verbleibt, wenn man das PT absenkt, oder ob man dort manuell nochmal weiter abregeln muss.

Aber ich mach mir da keine Sorgen das ich letzten Endes nicht mindestens auf Referenzlevel lande.
Ausser die Chips sind Abfall, aber wenn sie das wären, dann würde die 970 G1 Gaming ja nicht auch 1,5GHz + X mitmachen, sondern die höhere Spannung nur deshalb brauchen um überhaupt den Normaltakt mitzumachen.

differenzdiskriminator
2014-09-24, 13:34:30
dass die hervorragende Effizienz von Maxwell zum großen Teil nicht auf Hardware-Architektur Verbesserungen beruht was nichts anders heißt als das Nvidia auch nicht zaubern kann.
Natürlich sind auch diese Änderungen Optimierungen an der Hardware-Architektur. Wenn ich meine Einheiten schneller an-/abschalten kann um sie bei Nicht-Auslastung weniger Leistung aufnehmen zu lassen und so die Leistungsaufnahme massiv senke ist das auch eine Optimierung der Architektur - zumindest in meinen Augen.

Statt die Leistungsaufnahme zu senken hätte NVIDIA auch den Takt bis auf 225W hochprügeln können.

Ailuros
2014-09-24, 13:46:14
Nun Ja jeder kann da ja seine eigenen Schlüsse daraus ziehen vom Test bei THG.

Jeder kommt zu seinen eigenen Schlussfolgerungen; meine ist dass der spezifische reviewer etwas verantwortungsvoller mit seiner Arbeit sein sollte.

Zumindest sind es die Einzigen die klar gemacht haben, dass die hervorragende Effizienz von Maxwell zum großen Teil nicht auf Hardware-Architektur Verbesserungen beruht was nichts anders heißt als das Nvidia auch nicht zaubern kann.

Zaubern kann tatsaechlich keiner, was aber auch nicht heisst dass Maxwell nicht um einiges effizienter ist als Architektur. Ganz im Gegenteil ist der Unterschied fuer perf/W stets mit Referenz-Werten zwischen GK104 und GM204 ziemlich sehenswert. Ja THG ist die einzige Seite die sich bis jetzt so blamiert hat, sonst waere auch kein so schneller edit notwendig gewesen und die ausfuehrliche Erklaerung.

Bei allen anderen Seiten hätte man hingegen vermuten können Nvidia hätte mit der Maxwell Architektur den heiligen Gral gefunden. Hier stellt sich für mich die Frage ob Kepler durch eine Optimierung der Auslastung nicht ebenso in der Lage wäre wesentlich weniger zu verbrauchen.

Mag sein dass fuer Dich und andere die Aussnahme ploetzlich zur Regel wird, aber nochmal es ist THG dass sich hier blamiert hat und nicht der Rest der Seiten.

Ansonsten ist die 970 eine Karte zu einem für Nvidia untypisch schon fast fairen Preis das muss man schon sagen.

Und wie sieht perf/W genau im Vergleich zu einer GTX680/670 genau aus?

Schnoesel
2014-09-24, 13:52:08
Natürlich sind auch diese Änderungen Optimierungen an der Hardware-Architektur.

Deswegen habe ich die Frage gestellt ob nicht schon Kepler dazu in der Lage gewesen wäre.

Nicht falsch verstehen, ich kritisiere Nvidia nicht dafür. Im Endeffekt kommt es drauf an was hinten raus kommt. Ich interessiere mich eher dafür ob dieser "Trick" nicht ebensoleicht von der Konkurrenz übernommen werden könnte, denn auch GCN scheint in der Lage zu sein im Millisekundenbereich zu steuern.

@ Alirus. Ich beziehe mich auf den Preis und du kommst mit Perf/W?

Was willst du eigentlich? Zudem versucht THG wenigstens nicht nur auf die Balken zu schauen. Wenn du es besser machen kannst empfehle ich eine eigene Hardwarerview Seite zu eröffnen: Man Man was schon wieder für ein Ton hier. Danke brauch ich nicht.

differenzdiskriminator
2014-09-24, 13:55:32
Deswegen habe ich die Frage gestellt ob nicht schon Kepler dazu in der Lage gewesen wäre.
Ähm ... ja also irgendwie ist es doch immer so, dass die Vorgängergeneration genauso in der Lage gewesen wäre die Vorteile/Features der Nachfolger zu haben, wenn diese bereits damals eingebaut worden wären, oder? ;D

Ich denke du machst es dir da etwas zu einfach und unterschätzt massiv das Engineering dahinter. NVIDIA kommt hier ihre Erfahrungen (und Prügel) aus der Tegra-Geschichte zugute. Da haben sie offensichtlich in den 2-3 Generationen richtig viel Know-How bekommen.

Ailuros
2014-09-24, 13:59:46
Deswegen habe ich die Frage gestellt ob nicht schon Kepler dazu in der Lage gewesen wäre.

Nicht wirklich; NV behauptet zwar wie jede Firma einen Haufen Marketing-mist aber alle Maxwell Erweiterungen zusammen koennen schon locker eine um 40-50% hoehere Effizienz allen von der Architektur im Vergleich zum Kepler bringen.

Nicht falsch verstehen, ich kritisiere Nvidia nicht dafür. Im Endeffekt kommt es drauf an was hinten raus kommt. Ich interessiere mich eher dafür ob dieser "Trick" nicht ebensoleicht von der Konkurrenz übernommen werden könnte, denn auch GCN scheint in der Lage zu sein im Millisekundenbereich zu steuern.

Natuerlich wird der "trick" auch von AMD uebernommen nicht weil NV irgend etwas erfunden hat ploetzlich, aber wohl eher weil man es als eine normale Entwicklung der Dinge sehen kann.

Mal einfacher umgedreht: angenommen die ganze Sache waere quasi vorgegaukelt und eine normale GTX970 verbratet stellenweise um einiges mehr Strom. Ich schnalle eine solche an ein gutes 500W PSU und wenn es irgend ein fauler Marketing-gag waere wuerde es nicht allzu lange dauern bis es irgendwann aus der Kiste qualmt.

Mandalore
2014-09-24, 14:23:34
Hat jemand das hier schon gepostet?


http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/30978-geforce-gtx-990-a-nejspis-i-titan-x-na-ceste


Laut dem User bei HWLUXX soll die Titan X 40-50% schneller sein als die Titan Black/GTX780Ti und vor Weihnachten 2014 erscheinen.

Godmode
2014-09-24, 14:25:54
Hat jemand das hier schon gepostet?


http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/30978-geforce-gtx-990-a-nejspis-i-titan-x-na-ceste


Laut dem User bei HWLUXX soll die Titan X 40-50% schneller sein als die Titan Black/GTX780Ti und vor Weihnachten 2014 erscheinen.

Habs gestern schon gelesen, aber absichtlich nicht verlinkt, weil es ja nur eine Spekulation ist.

Unicous
2014-09-24, 14:26:53
Ach der Herr OBermaieR muss immer noch Geld verdienen? Ich dachte er hätte es sich in Berlin mit teueren Uhren und Co. gemütlich gemacht?


Die Daten sind ja voll der Hunz? 20-22 SMM? 384Bit oder 512bit? Ich sehe schon, er hat richtig gute Quellen.:rolleyes:

Ailuros
2014-09-24, 14:30:51
Habs gestern schon gelesen, aber absichtlich nicht verlinkt, weil es ja nur eine Spekulation ist.

OBR bullshitiesku; děkuji :P

Hübie
2014-09-24, 14:37:12
Hat jemand das hier schon gepostet?


http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/30978-geforce-gtx-990-a-nejspis-i-titan-x-na-ceste


Laut dem User bei HWLUXX soll die Titan X 40-50% schneller sein als die Titan Black/GTX780Ti und vor Weihnachten 2014 erscheinen.

Na wenn ein HWL-User UND OBR sowas sagen muss es doch stimmen, nicht wahr? X-D
Ich spekuliere mal: irgendwo bei 2800 CudaCores (+-200), irgendwo bei 550 sqmm (+-50) und entweder 384 oder 512 Bit MC-Interface. Meine Quelle sitzt im Ferrari und trinkt long drinks on ice :cool:

Ailuros
2014-09-24, 14:43:19
@ Alirus. Ich beziehe mich auf den Preis und du kommst mit Perf/W?

Perf/W ist heutzutage eines der wichtigsten ratios fuer jegliches Stueck hw und fuer praktisch jeglichen Markt. THG hat in den besprochenen reviews sicher nicht versucht zu analysieren ob die getesten GPUs zu seiner Handtasche passen.

Was willst du eigentlich? Zudem versucht THG wenigstens nicht nur auf die Balken zu schauen. Wenn du es besser machen kannst empfehle ich eine eigene Hardwarerview Seite zu eröffnen: Man Man was schon wieder für ein Ton hier. Danke brauch ich nicht.

Wenn ich Zeit haette haette ich schon vor langem eine hw Seite geoeffnet und erhalten. Und es tut mir auch aufrichtig leid wenn ich einen versagten Review sehe. Es ist nicht der Ton der Dich offensichtlich stoert sondern die Kritik gegen THG und mit der musst Du leben muessen.

Dein Glas ist halbvoll, meins halbleer. Das eklige an der Demokratie ist eben dass beides erlaubt ist.

Mandalore
2014-09-24, 14:46:16
Na wenn ein HWL-User UND OBR sowas sagen muss es doch stimmen, nicht wahr? X-D
Ich spekuliere mal: irgendwo bei 2800 CudaCores (+-200), irgendwo bei 550 sqmm (+-50) und entweder 384 oder 512 Bit MC-Interface. Meine Quelle sitzt im Ferrari und trinkt long drinks on ice :cool:


Deine Arroganz scheint keine Grenzen zu kennen:facepalm:Komm wieder runter...Es ist ein Spekulations-Thread, also wo liegt das Problem:P?

Ailuros
2014-09-24, 15:19:03
Deine Arroganz scheint keine Grenzen zu kennen:facepalm:Komm wieder runter...Es ist ein Spekulations-Thread, also wo liegt das Problem:P?

Dass es wohl eher tragische Ironie ist jemand arrogant zu nennen wenn es um OBR geht :biggrin:

kruemelmonster
2014-09-24, 15:35:50
Die Frage ist wieviel Leistung bei diesen Modellen dann noch übrig bleibt.

Prozentual gesehen wahrscheinlich immer noch mehr als bei dir; im theoretischen Fall dass du deine billige Propaganda, die so durchschaubar wie Plexiglas ist (http://www.youtube.com/watch?v=tcV7VN3l3bY&feature=player_detailpage#t=78), mal stecken lassen würdest.

250w Custom Platinen verbrauchen mehr als 165w Ref PCBs, das ist keine Raketentechnik. Wem das nach seiner Kaufentscheidung doch nicht passt kann wie hasebaer anmerkte den Powerregler nach links ziehen. Und der damit zusammenhängende Boost ist imho ein Vorteil für den IHV, die AIBs und den Endkunden:

NV kann nicht einfach den Baseclock erhöhen, ein Vorteil des verbrauchs- und temperaturgesteuerten Boosts ist ein und den gleichen Chip sowohl auf eine billige Platine als auch auf ein dickes 3rd Party PCB mit fettem Kühler zu schrauben und den Boardpartnern somit die einfache Möglichkeit zu geben unterschiedliche SKUs rauszubringen.
Wird der Baseclock zu sehr erhöht passt der Chip irgendwann nicht mehr auf Sparplatinen wie die GTX 670 Referenzkarten.

Vor dem Boost waren Werks OC Karten imo weitgehend überflüssig, mittlerweile kann ich als Kunde entscheiden ob mir eine günstige sparsame Karten mit Referenzleistung reicht, oder mir als Übertakter eine Version mit fetterer Platine und Kühlung hole.
Theoretisch ist diese Betrachtung sogar vom IHV unabhängig, praktisch wirbt NV mit dem Baseclock wobei der Boost (grob 25% mehr) von den eben beschriebenen Faktoren abhängt, während AMD mit dem Boost wirbt und der Baseclock (grob 30% weniger) von den eben beschriebenen Faktoren abhängt.

Nakai
2014-09-24, 15:43:09
Die Specs von OBR sind für die Katz. 20 SMMs wäre möglich, der nächste Schritt wäre 24 und dann noch 25.

384Bit SI wäre sicher, wegen Kompatibilität zu GK110.