PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33

Dural
2014-09-18, 11:33:49
Okay war zugegebenermaßen überspitzt ausgedrückt. Jedenfalls bleibt das ursprüngliche Review des Referenzmodells hängen, bei den typischen Leistungstests neuer Spiele wird dann mit den schnelleren Custom-Modellen getestet und der Stromverbrauch nicht mehr aufgeführt.

Da ist AMD aber noch schlimmer, da gab es schon spezielle testkarten die höher getaktet haben als die retail karten usw.

So was habe ich bei NV karten noch nie gesehen.

Mr.Ice
2014-09-18, 11:36:44
Des Einzige vorteil in der 980GTX wird der 1GB vRam mehr sein und die 165Watt der rest ist gleich zur 780ti. oder überseh ich da was ?

Dural
2014-09-18, 11:39:11
in etwa ja, eventuell gibt es noch eine kleine überraschung.

Ailuros
2014-09-18, 11:44:06
Des Einzige vorteil in der 980GTX wird der 1GB vRam mehr sein und die 165Watt der rest ist gleich zur 780ti. oder überseh ich da was ?


Jein. GM204 ist kein GK110 Ersatz.

ShinyMcShine
2014-09-18, 11:44:57
in etwa ja, eventuell gibt es noch eine kleine überraschung.

Auf diese Überraschung bin ich fast mehr gespannt, wie auf die eigentlichen Karten. ;)
Aber die 9xx-er Serie werde ich wohl 'eh überspringen, da das Rift wahrscheinlich erst in einem Jahr herauskommt. Vorher sehe ich für mich keinen Bedarf.

VG
Shiny

Mr.Ice
2014-09-18, 11:47:59
in etwa ja, eventuell gibt es noch eine kleine überraschung.

Gut dann wart ich GTA 5 ab wegem Mantle. Die Karte jetzt zu Kaufen halt ich für wenig sinn wenn man eine 680GTX besitzt.
und wenn GTA auf Mantle optimiert wird kauf ich mir ne R9 295X2 :D

dargo
2014-09-18, 11:58:10
Ich würde sagen dann hast du den Ursprungs-Titel bei PCGH, woher auch die Abbildung stammt nicht restlos mitverfolgt. Skyrim mag zwar auf altes DX9 setzen, aber welche überschwenglichen Neuerungen bringen denn höhere DX Featurelevel mit, die dann auch noch Anwendung finden?

Deutlich effizientere Engines + APIs.


Wenn es nicht dein Genre ist o.k., aber dafür steigerst du dich zuviel rein, und wenn du nur noch DX11 und Mantle spielen willst, na dann gute Nacht, da sind richtige Gurken dabei die nicht mit 12GB Speicher zu befriedigen sind.

Schwachsinn³.

Es wird sicherlich immer den einen oder anderen Entwickler geben der es beim Streaming nicht drauf hat. Wie Coda schon sagte... man muss den Krempel nicht die ganze Zeit im Vram halten. Selbst ein poliertes Ryse für PC soll mit 2GB Vram in Full-HD auskommen.

Loeschzwerg
2014-09-18, 12:01:56
Polnischer Shop listet eine GTX 980 von Gigabyte:
http://geizhals.at/eu/gigabyte-geforce-gtx-980-gv-n980d5-4gd-b-a1167341.html (umgerechnet 624€)

Mr.Magic
2014-09-18, 12:04:53
Des Einzige vorteil in der 980GTX wird der 1GB vRam mehr sein und die 165Watt der rest ist gleich zur 780ti. oder überseh ich da was ?

Die Referenz GTX 980 dürfte schneller gegenüber der Referenz GTX 780Ti sein als viele erwarten.
Wenn ich mich nicht total verschossen habe sind es bei gleicher Takt/Kernzahl rechnerisch durchschnittlich 50% Unterschied*. Die GTX 980 hat ~30% weniger Kerne bei ~30% mehr Takt...

*Oberflächliche Betrachtung aufgrund von 860M Benchmarks.
http://forums.overclockers.co.uk/showthread.php?p=26167897

memoal
2014-09-18, 12:07:24
Polnischer Shop listet eine GTX 980 von Gigabyte:(umgerechnet 624€)
MwSt ist in Polen höher, zudem kommen die täglichen Kurse Dollar-PLN dazu.

@Dargo
Weil alle Spiele auf eine Engine setzen. Soll das hier jetzt eine Art "Getrolle" am Thema vorbei werden?:freak:

Lies mal @Ailuros Hinweis, Themenwechsel?:cool:

memoal
2014-09-18, 12:14:07
Zugegebenermaßen muss ich ergänzend sagen dass eigentlich alle die ich kenne welche photoshoppen dies unter OSX machen. Wie da die VRAM-Belegung und Beschneidung von treiberseitiger Software ist weiß ich nicht ;)
Hat nicht so große Auswirkungen in PS, eher unter AfterEffects etc.. Den größten Sprung hat PS mit einem Update von 8 zu 16GB Ram hingelegt, 4GB VRAM düften daher voll reichen.

Loeschzwerg
2014-09-18, 12:14:26
MwSt ist in Polen höher, zudem kommen die täglichen Kurse Dollar-PLN dazu.


Genaus deswegen habe ich den Link gepostet, quasi als Bestätigung neben dem Bora Shop für die 500-550€ der GTX 980.

Unicous
2014-09-18, 12:18:04
MwSt ist in Polen höher, zudem kommen die täglichen Kurse Dollar-PLN dazu.


Na und. Dafür ist der Preis (oft) insgesamt geringer. Könnte man noch 10-20 Euro drauftun und man ist bei "deutschen Preisen. Je nachdem was für ein Shop das ist natürlich (wenn er Alternate ähnlich ist, eher 100 Euro weniger:freak:).

Aber ein Glück dreht es sich nur noch um die Preise, die je nach Chip, so ungefähr zwischen 300-700 Euro liegen.;D

memoal
2014-09-18, 12:18:17
@Löschzwerg/@unicous
599?

Reichlich Verwirrung gibt es im übrigen immer noch zur Preislage der beiden neuen nVidia-Karten GeForce GTX 970 & 980: Während einige Vorab-Listungen von ~450 Euro für die GeForce GTX 970 und ~680 Euro für die GeForce GTX 980 sprechen, sind andernorts auch schon wieder Preise von ~350 Euro für die GeForce GTX 970 und ~520 Euro für die GeForce GTX 980 im Gespräch. Beides passt nicht wirklich zusammen, so daß sich am kommenden Launchtag eine von beiden Varianten bestätigen wird – und inzwischen kann man dann auch wirklich abwarten, welche dies ist.

Wollen wirs so machen wie @Leonidas schreibt? Wenn man ein Problem ständig füttert, wird's nie gelöst. Launch ist in ein paar Stunden, dann wissen wir es. Das schaffen wir auch noch...;).

Unicous
2014-09-18, 12:20:37
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10353571#post10353571

memoal
2014-09-18, 12:25:24
Kenn ich doch! :biggrin:. Wundert mich das dich der langweilige Mist überhaupt intressiert.

Lasst uns doch bei den 8GB Vram weitermachen, was hat der nun für Vorteile? Zum Bsp. unter welchen "professionellen" Anwendungen Sinn machen würde.

kunibätt
2014-09-18, 12:28:14
Jeder Renderengine.

Doomi
2014-09-18, 12:32:38
Kenn ich doch! :biggrin:. Wundert mich das dich der langweilige Mist überhaupt intressiert.

Lasst uns doch bei den 8GB Vram weitermachen, was hat der nun für Vorteile? Zum Bsp. unter welchen "professionellen" Anwendungen Sinn machen würde.

hab ich doch geschrieben: zB 3DSMax und IRay .. Beispiel: ich habe eine Szene mit 3,5 GB Größe. Diese kann mittels 4 GB Grafikkarte gerendert werden. Jetzt füge ich weitere Elemente dieser Szene hinzu, die Größe steigt auf 4,8 GB. Diese kann nur noch von einer Karte mit mehr VRam berechnet werden. 8 GB Karten haben hier nun einen unglaublichen Vorteil.

Unicous
2014-09-18, 12:34:47
Mich interessiert nur, dass es so viele unterschiedliche angebliche Preislistungen gibt. Das ist in der Tat interessant und könnte darauf hinweisen, dass Nvidia vllt. kurzfristig auf AMDs verändertes Presigefüge reagiert. Es könnte aber auch totaler Quatsch sein und die "wahren Preise" wurden immer noch nicht genannt.


Eine andere Sache. Es geht das Gerücht um, dass die 900er Serie nicht vollständig aus Maxwell bestehen wird. Bei B3D habe ich es gelesen und irgendwo anders habe ich es auch gelesen finde es aber zum Verrecken nicht mehr.
Könnte es sein, dass die GM206 gar nicht existiert und sie einfach GK206 fortführen? Oder gab es schon Hinweise auf die Existenz von GM206, also eine konkrete Nennung?

Bitte nicht allzu ernst nehmen soll kein FUD sein: Was wäre wenn Nvidia die 970er mit GK110(/GK210?) mischt, oder die 960er mit GK204? Also Kraut und Rüben wie bei AMD?

memoal
2014-09-18, 12:35:12
@Doomi

Dich hab ich ja auch nicht gemeint ;).

Frage: Z.B. V.ray ist ja zu 3Ds MAX, Maya, Cinema 4D, SketchUp, Rhino, Blender, Lightwave und SoftImage XSI kombatibel. Du hast also die Erfahrung gemacht das 4GB und 8GB VRam ein Unterschied bedeuten würde und Geschwindigkeitsvorteile bei der Berechnung mathematischer Algorithmen mitbringt.

Hübie
2014-09-18, 12:36:43
Polnischer Shop listet eine GTX 980 von Gigabyte:
http://geizhals.at/eu/gigabyte-geforce-gtx-980-gv-n980d5-4gd-b-a1167341.html (umgerechnet 624€)

Ich glaube nicht dass die in Polen 19% Mehrgerdsteuer haben ;)

Um dass noch mal ergänzend zu sagen: Skyrim nutzt partiell den D3D10 Renderpfad. Und für so eine alte Engine sieht die mit Mods doch sehr lecker aus. Performt nur beschissen.
Ich bin vor allem auf die tech-specs gespannt. Cache-Anbindung, Scheduler, "operand collector", wieviel Vec16/32 und sowas halt. :naughty: Ich werde Maxwell jedoch auslassen. :biggrin:

memoal
2014-09-18, 12:39:12
Um dass noch mal ergänzend zu sagen: Skyrim nutzt partiell den D3D10 Renderpfad.
Danke.

Ganz offensichtlich nutzt The Elder Scrolls 5 Skyrim am PC nämlich "nur" DirectX 9, zumindest sagt dies das On-Screen-Display (OSD) des Evga Precision und auch im Grafikmenü gibt es keinen Schalter für die API. Dabei gab Bethesdas Pete Hines uns gegenüber auf der Gamescom 2011 zu Protokoll, dass Skyrim auf DirectX 11 setzt - in Form von Compute Shadern für mehr Performance, jedoch keine speziellen Optikaufwertungen (etwa tessellierte Objekte). Die DX11-Aussage tätigte auch Todd Howard gegenüber den Kollegen von Gamersglobal, zudem befindet sich im Skyrim-Verzeichnis ein "DirectX10"-Ordner mitsamt CAB-Dateien für DX9, DX10 und DX11.

Das bereits erwähnte Grafikmenü bietet dafür vier Voreinstellungen sowie Multisampling-Antialiasing, Nvidias Shader-basiertes FXAA (diese beiden Kantenglättungsmodi hatte Pete Hines ebenfalls benannt) und anisotrope Filterung. Die erweiterten Optionen für Texturen, Schatten oder auch die Distanzdarstellung erinnern stark an Fallout 3 und sind vor dem eigentlichen Spielstart einzustellen.
@PCGH

Ich glaube nicht dass die in Polen 19% Mehrgerdsteuer haben ;)
23%+6% Einfuhrsteuer vom Warenwert. Zudem wird der Kurs von $=>PLN=>Euro umgerechnet.

mironicus
2014-09-18, 12:42:10
Lustig finde ich momentan wie Mindfactory und Alternate versuchen alte Bestände der GTX 770 mit 4 GB (für 280 Euro) loszuwerden und keiner kauft sie. :D

Hübie
2014-09-18, 12:48:14
Man ihr schreibt ja heute in Rekordtempo. ;D Die Berechnung einzelner Algorithmen wird mit mehr Caches bzw. kürzeren Latenzen beschleunigt nicht zwangsläufig durch mehr VRAM. Den VRAM sollte man eher wie ein Pool sehen wo ich alles reinpacken und rausholen kann. Wenn also große Datenmengen zum rendern darin vorgehalten werden kann man diese schneller abrufen da kein swapping statt findet. Man kann also auch große Szenen welche die VRAM-Menge übersteigt bearbeiten nur will man dass nicht. Das ruckelt ganz ekelig. Mit PCIe 3.0 ist womöglich schon besser geworden. Konkret rede ich von Teilen eines Airbus unter Catia (glaube v5) auf irgendeiner FirePro Anno 2012. Durfte mir die (Dia-)Show mit ansehen.

N0Thing
2014-09-18, 12:50:57
Die aufgewärmt und beschnittene 285X sieht keine Sonne gegen die GTX970.
Für diese Erkenntnis brauche ich noch nicht einmal ein review abwarten. ;)


Da die 285X die Sonne noch nicht gesehen hat, ist das auch kein Wunder. ;)


Eine andere Sache. Es geht das Gerücht um, dass die 900er Serie nicht vollständig aus Maxwell bestehen wird. Bei B3D habe ich es gelesen und irgendwo anders habe ich es auch gelesen finde es aber zum Verrecken nicht mehr.
Könnte es sein, dass die GM206 gar nicht existiert und sie einfach GK206 fortführen? Oder gab es schon Hinweise auf die Existenz von GM206, also eine konkrete Nennung?

Bitte nicht allzu ernst nehmen soll kein FUD sein: Was wäre wenn Nvidia die 970er mit GK110(/GK210?) mischt, oder die 960er mit GK204? Also Kraut und Rüben wie bei AMD?

Gab doch Tapeout-Meldungen und Frachtbriefe eines GM206. Es ist nur sehr still um diesen Chip geworden, was aber nicht heißen muß, daß er nicht mehr existiert.

Doomi
2014-09-18, 12:57:34
@Doomi

Dich hab ich ja auch nicht gemeint ;).

Frage: Z.B. V.ray ist ja zu 3Ds MAX, Maya, Cinema 4D, SketchUp, Rhino, Blender, Lightwave und SoftImage XSI kombatibel. Du hast also die Erfahrung gemacht das 4GB und 8GB VRam ein Unterschied bedeuten würde und Geschwindigkeitsvorteile bei der Berechnung mathematischer Algorithmen mitbringt.

:)

nein, einen Geschwindigkeitsvorteil bringt die reine Vergrößerung des VRams nicht mit sich sondern einfach nur den Vorteil das man überhaupt so große Szenen auf einer Grafikkarte Rendern kann. Bei sehr großen Szenen gibt hier leider nur die Möglichkeit zwischen auf Grafikkarte rendern oder nicht auf der Grafikkarte rendern und dies der CPU zu überlassen was dann allerdings ein Geschwindigkeitsverlusst darstellen würde. :) Das betrifft wie gesagt aber nur das reine Raytracing über die Grafikkarte. Rendern über die CPU ist nicht betroffen.

maximus_hertus
2014-09-18, 13:01:15
Zu den von mir geposteten Preisen gibts ein kleines Update: Die sind teils deutlich über dem UVP Preis (zumindest für die Launch-Lieferungen).

349/599 sind wohl die UVPs (je Referenzkarten).

yamo
2014-09-18, 13:02:35
Gibt´s neue Benchmark Leaks zur 980? Die 970 kratzte ja an der Titan und um 4k auszuleben, bedarf es immer noch SLI. Da kann man ja nur auf AMD und einen Monsterchip hoffen, sonst wird NV Pascal weiter hinauszögern...

dildo4u
2014-09-18, 13:04:23
Gibt´s neue Benchmark Leaks zur 980? Die 970 kratzte ja an der Titan und um 4k auszuleben, bedarf es immer noch SLI. Da kann man ja nur auf AMD und einen Monsterchip hoffen, sonst wird NV Pascal weiter hinauszögern...
Pascal ist der 2016 Chip mit Stacked Ram,Big Maxwell kommt 2015.NV hat keine whal Pascal früher zu bringen weil das ein 16nm Chip ist.

Unicous
2014-09-18, 13:05:07
Gab doch Tapeout-Meldungen und Frachtbriefe eines GM206. Es ist nur sehr still um diesen Chip geworden, was aber nicht heißen muß, daß er nicht mehr existiert.

Naja, die einzige "Tapeout-Meldung" kam iirc von Ailuros. Ich möchte ihm nicht zu nahe treten, aber eine unabhängige zweite Quelle hätte ich da doch schon nochmal gerne (ich hoffe er versteht das:tongue:). "Die Frachtbriefe" wie du sie nennst waren Zolleinträge die man nicht eindeutig zuordnen konnte und daher vermutet wurde dass es sich um GM206 handeln könnte.

Also ein relativ starkes Indiz (Ailuros) und ein sehr schwaches Indiz mit ganz viel Konjunktiv(zauba.com Einträge).

Wie gesagt ich möchte hier kein FUD verbreiten, es ging mir nur um das Gerücht und was es bedeuten könnte. Vllt. ist ja auch nur 900"M" gemeint.

N0Thing
2014-09-18, 13:08:55
Ah, okay. Dann hatte ich das mit den Zauba-Daten falsch in Erinnerung.

fondness
2014-09-18, 13:09:00
Pascal ist der 2016 Chip mit Stacked Ram,Big Maxwell kommt 2015.NV hat keine whal Pascal früher zu bringen weil das ein 16nm Chip ist.

Pascal ist eher 2016+, denn er steht auf der Roadmap etwas weiter rechts als das Jahr 2016, zumal man kaum 1 Jahr nach GM200 schon den nächsten Brocken bringen wird, da kommt wenn dann erstmal ein kleiner Chip.

memoal
2014-09-18, 13:09:29
Mittlerweile hat videocardz.com einige neue Bilder zusammengefasst, welche allerdings nicht von der Webseite selbst stammen (zu sehen an den fehlenden Wasserzeichen). Gezeigt werden verschiedene Custom-Designs der GTX 970 und GTX 980, wobei Letztere erst später auf den Markt gelangen sollen. Vermutungen, dass Nvidia diesen vorerst einen Riegel "vorschiebt", verdichten sich also.
@PCGH http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/GTX-980-GTX-970-Refenzdesign-Custom-Modelle-Bilder-1136221/

ChaosTM
2014-09-18, 13:10:29
Okay war zugegebenermaßen überspitzt ausgedrückt. Jedenfalls bleibt das ursprüngliche Review des Referenzmodells hängen, bei den typischen Leistungstests neuer Spiele wird dann mit den schnelleren Custom-Modellen getestet und der Stromverbrauch nicht mehr aufgeführt.

PCGH macht das wirklich, allerdings auch mit Nvidia Karten!

Ich will endlich UHD Benchmarks!!

Godmode
2014-09-18, 13:12:22
Was mir gerade so auffällt: Auf den Schachteln steht gar nichts von Direct X drauf. Normal haben sie immer mit DX11 geworben.

dildo4u
2014-09-18, 13:14:01
Was mir gerade so auffällt: Auf den Schachteln steht gar nichts von Direct X drauf. Normal haben sie immer mit DX11 geworben.
Doch recht unten auf der 980 Gigabyte.

fondness
2014-09-18, 13:15:07
Mich wundert eher das nicht DX12 drauf steht wie bei der TITAN Z^^

Monsta
2014-09-18, 13:15:45
Jein. GM204 ist kein GK110 Ersatz.

Ja klar ist die ein Ersatz. Vermutlich gleich schnell bei selben Preis. Stromverbrauch sinkt. Ist ein Update wie von Ps3 auf die Ps3 slim.
Das was mit 780ti ruckelt wird mit der neuen kaum besser gehen.
Muss ich leider noch etwas warten um meinen 4k schirm vernünftig zu befeuern.

dildo4u
2014-09-18, 13:17:07
Mich wundert eher das nicht DX12 drauf steht wie bei der TITAN Z^^
http://abload.de/img/gtx-980-gigabyte-box-c2s0y.jpg

Knuddelbearli
2014-09-18, 13:17:36
Nein ist kein Ersatz da die ganzen Profi Sachen fehlen

memoal
2014-09-18, 13:18:55
PCGH macht das wirklich, allerdings auch mit Nvidia Karten!
Bullshit.:P

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/AMD-Radeon-R9-285-Test-1134146/3/

http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Gigabyte-GTX-780-Ti-GHz-Test-1098977/

Wir gehen unter Volllast indes von einer Leistungsaufnahme Richtung 300 Watt aus.

Unicous
2014-09-18, 13:19:04
@PCGH http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/News/GTX-980-GTX-970-Refenzdesign-Custom-Modelle-Bilder-1136221/


Ähm, was? Letztere? Welche Letztere? Deutsche Sprache, schwere Sprache.:rolleyes:

Ich schätze mal dass die Custom Designs gemeint sind im Vergleich zum Referenzdesign. Der Semantik des Satzes zu urteilen meint der Autor aber die GTX 980.:freak:

ChaosTM
2014-09-18, 13:20:28
Nein ist kein Ersatz da die ganzen Profi Sachen fehlen

Der perfekte Ersatz für Spieler, die den "Computing Part" der Karte nicht wirklich brauchen.
.. und das sind > 90% der user..

memoal
2014-09-18, 13:20:50
Ich schätze mal dass die Custom Designs gemeint sind
Musst du mit der Redaktion diskutieren, Weitergabe der Info ohne Kommentar und verlinkt.;)

Godmode
2014-09-18, 13:26:01
Ja klar ist die ein Ersatz. Vermutlich gleich schnell bei selben Preis. Stromverbrauch sinkt. Ist ein Update wie von Ps3 auf die Ps3 slim.
Das was mit 780ti ruckelt wird mit der neuen kaum besser gehen.
Muss ich leider noch etwas warten um meinen 4k schirm vernünftig zu befeuern.

Es ist kein Ersatz. GM200 wird der Ersatz. Es ist nicht sinnvoll eine Grafikkarte mit einer gleich schnellen zu ersetzen, nur weil die neue etwas weniger Strom verbraucht.

Edit: Das ist bezogen auf den Kunden, für NV macht es natürlich Sinn, siehe dildo4u.

dildo4u
2014-09-18, 13:30:41
Für NV macht es natürlich Sinn Big Kepler mit dem kleinen Maxwell zu ersetzen.
Der Chip ist kleiner,die Stromsversorgung kann verkleinert werden und die Karte kann zum selben Preis verkauft werden.

Unicous
2014-09-18, 13:31:35
Musst du mit der Redaktion diskutieren, Weitergabe der Info ohne Kommentar und verlinkt.;)

War ja nicht an dich gerichtet. Mich regt bloß immer auf, was da sehr oft bei deutschen IT-Seiten verbrochen wird. Amerikanische Seiten legen da deutlich mehr Wert auf kohärentes Schreiben. Flüchtigkeitsfehler sind völlig in Ordnung, aber wenn man keinen ordentlichen Satz bilden kann und sich auf Dinge bezieht, die vllt. für einen selber und den eigenen Sprachgebrauch Sinn machen, dann muss ich immer:rolleyes:.

mironicus
2014-09-18, 13:32:37
Für NV macht es natürlich Sinn Big Kepler mit dem kleinen Maxwell zu ersetzen.
Der Chip ist kleiner die Spannungsversorgung ist kleiner und die Karte kann zum selben Preis verkauft werden.

Nur Vorteile für NVidia, keine für den Kunden. ^^

dildo4u
2014-09-18, 13:36:11
Nur Vorteile für NVidia, keine für den Kunden. ^^
Stromverbrauch ergo Hitze ist reduziert,könnte also sein das die Standard Karten schon relativ leise sind.Viellicht braucht man keine Gehäuse Kühlung mehr was das ganze System leiser macht und natürlich spart man die Kosten für zusätzliche Gehäuse Lüfter.

ChaosTM
2014-09-18, 13:36:40
Nur Vorteile für NVidia, keine für den Kunden. ^^


Weniger Verbrauch und wahrsch. bessere Übertaktbarkeit?

fondness
2014-09-18, 13:39:44
Weniger Verbrauch und wahrsch. bessere Übertaktbarkeit?

Die relative Übertaktbarkeit dürfte wohl schlechter sein wie bei einer 780Ti. Immerhin läuft das Ding schon default mit 1,2Ghz. Beim Speichertakt dürfte auch nicht mehr viel Luft sein.

dildo4u
2014-09-18, 13:45:00
Die relative Übertaktbarkeit dürfte wohl sogar schlechter sein wie bei einer 780Ti.
Abwarten dann würde die 980 iGame kein Sinn machen wenn man die Abartige Stromversorgung sieht.

http://abload.de/img/colorful-igame-geforc6uc9f.jpg

Das braucht die sicher nicht für 1.3Ghz,ich vermute sie geht bis 1.5.

Hübie
2014-09-18, 13:48:52
Ich will Raff&Co nicht beleidigen, aber wer als Redakteur (interne, von Agenturen vergebene) Pressemitteilungen kennt und vergleicht sieht dass PCGH diese oft eins zu eins kopiert. Die müssen da unter enormen Zeitdruck stehen :freak:
Edit: Und damit übernimmt man auch oft Fehler. Ich fasse mir manchmal an den Kopf was sich alles "Werbeagentur" nennen darf :rolleyes:

@knuddelbaerli: Welche "Profi-Features" fehlen denn? Meines Wissens nach kommen sogar welche dazu. Lediglich die Berechnungen mit doppelter Genauigkeit ist langsamer.

fondness
2014-09-18, 13:50:23
Abwarten dann würde die 980 iGame kein Sinn machen wenn man die Abartige Stromversorgung sieht.

http://abload.de/img/colorful-igame-geforc6uc9f.jpg

Das braucht die sicher nicht für 1.3Ghz,ich vermute sie geht bis 1.5.

Als ob es noch nie solchen sinnlos Design gab, ich sage nur MSI Lighting mit 15 Phasen. Das was dort verbaut ist bräuchte man nicht mal für 2Ghz^^

gnomi
2014-09-18, 13:51:12
Ja, mal abwarten.
Ich denke, die gehen eher recht gut.
780 & 780TI sind für mich aber jetzt sowieso uninteressant, da ich dann doch lieber den Aufpreis zahle, um was technisch aktuelleres zu bekommen. (Verbrauch, Speicher, ROP Leistung)

Hübie
2014-09-18, 13:52:27
Übrigens kann nVidia nichts direkt verbieten, allerdings kann ein IHV natürlich nV nicht mehr in Regress ziehen (auch die haben RMA-Quoten) und zweitens "strapaziert" es Geschäftsbeziehungen ;D

aths
2014-09-18, 13:52:33
Lustig finde ich momentan wie Mindfactory und Alternate versuchen alte Bestände der GTX 770 mit 4 GB (für 280 Euro) loszuwerden und keiner kauft sie. :D
Lustig für uns, natürlich eher traurig für Händler und Boardpartner.

Mit der neuen Serie ist die alte Serie moralisch verschlissen. Nvidia hat denen rechtzeitig das Zeug aufs Auge gedrückt und jetzt ist das teuer eingekaufte Zeug nur Alteiesen.

Thunder99
2014-09-18, 13:52:51
Siehe meine 680er Lightning..., war aber relativ günstig aus 1.Hand

memoal
2014-09-18, 13:55:45
Edit: Und damit übernimmt man auch oft Fehler. Ich fasse mir manchmal an den Kopf was sich alles "Werbeagentur" nennen darf :rolleyes:
Ja, kann sein, Inhalte sind aber manchmal geschützt. Ist dann so. Wer würde auf einen Picasso bezogen sagen, "ähm der Strich gefällt mir jetzt aber nicht und gehört nicht da hin".

RS ist wieder eine andere Sache das sollte passen, aber dort arbeiten auch nur Menschen und die machen nunmal bewiesener maßen Fehler.

Warum machen wir eigentlich keinen Preis-Maxwell-Thread auf. Sind ja noch 26h...:) und Monate (Weihnachten vielleicht) bis man sich das ggf. leisten kann?

Ailuros
2014-09-18, 13:58:01
Ja klar ist die ein Ersatz. Vermutlich gleich schnell bei selben Preis. Stromverbrauch sinkt. Ist ein Update wie von Ps3 auf die Ps3 slim.
Das was mit 780ti ruckelt wird mit der neuen kaum besser gehen.
Muss ich leider noch etwas warten um meinen 4k schirm vernünftig zu befeuern.

Es ist eine neue Architektur und kein refresh. Eine high end Kepler GPU mit einer performance Maxwell GPU zu vergleichen ist genauso ungluecklich wie der refresh der PS3 Konsole. Es ist KEIN Ersatz und auch kein einfacher refresh.

In einem technisch orientierten Forum wie diesem sollte es nicht schwer sein so einfache Sachen auseinander halten zu koennen.

mironicus
2014-09-18, 13:58:49
Lustig für uns, natürlich eher traurig für Händler und Boardpartner.

Wenn sie von Anfang an humane Preise verlangt hätten, gäbe es sicherlich nicht so viel zum abverkaufen. Sieht man ja wunderschön bei der Asus 780 TI Matrix, wenn der Preis stimmt, verkaufen sie in 3-4 Tagen soviel wie in einem Jahr.

yamo
2014-09-18, 14:04:00
Pascal ist eher 2016+, denn er steht auf der Roadmap etwas weiter rechts als das Jahr 2016, zumal man kaum 1 Jahr nach GM200 schon den nächsten Brocken bringen wird, da kommt wenn dann erstmal ein kleiner Chip.

Das dürfte (aus NV´s Sicht) nur logisch sein. Wie Ailuros irgendwo schon mal sagte, wird man die akt. Gen. solange wie möglich auf dem Markt halten.
Enthusiasten mit Sinn fürs Budget werden mal wieder mit der Marktlage hadern:freak: 4k ohne SLI wird bis Pascal ein Traum bleiben.
Stellt sich die Frage, ob´s mit 2x970 (OC) ~600€ reicht oder ob´s ne 980 OC alleine packt. Letzeres schließe ich eigentlich aus. Im Hinblick auf Pascal werde ich das erste mal vernünftig aufrüsten. Also ich versuchs:biggrin:
Auf GM200 zu warten macht keinen Sinn, wird viel zu teuer und im nächsten Jahr kommt der Mittelfinger.

Nightspider
2014-09-18, 14:19:44
Im sollte sich jeder SLI Benutzer die 8GB Variante holen, falls die nicht astronomisch teurer wird.

In naher Zukunft kommen diverse NextGen Games die unter 4K sicherlich VRAM fressen werden.

Ravenhearth
2014-09-18, 14:20:22
Wenn die UVPs wirklich bei 349/599 liegen, ist die 980 imho mindestens 100€ zu teuer. 449 oder 499 wären angemessener.

memoal
2014-09-18, 14:20:31
Es ist eine neue Architektur und kein refresh. Es ist KEIN Ersatz und auch kein einfacher refresh.
Mittlerweile spricht man ja auch vom Maxwell 2.0. Ist dort Architekturtechnisch was dran, oder eher etwas das aussagemäßig angewandt wird um zu verdeutlichen was gemeint ist. So wie bei GCN eher für das bessere Verständnis, anstatt das wirkliche Featureset? DX12 soll ja mit dabei sein.

dildo4u
2014-09-18, 14:22:58
Wenn die UVPs wirklich bei 349/599 liegen, ist die 980 imho mindestens 100€ zu teuer. 449 oder 499 wären angemessener.
Bora Computer hatte die 980 für 539€ gelistet.

Ex3cut3r
2014-09-18, 14:23:08
Ich will endlich komplette Leaks, und nicht so ein Nerd Treffen mit Nvidia morgen ;D

Unicous
2014-09-18, 14:27:49
Ich will endlich komplette Leaks, und nicht so ein Nerd Treffen mit Nvidia morgen ;D

Flieg doch schnell in die USA, da kannst du es "heute" schon erfahren:ulol3:

memoal
2014-09-18, 14:31:57
Mensch was spamt ihr nur. ;)

http://www.techpowerup.com/gpudb/2620/geforce-gtx-970.html
http://www.techpowerup.com/gpudb/2621/geforce-gtx-980.html
http://www.techpowerup.com/205245/nvidia-geforce-gtx-980-reference-board-pictured.html

Das ist doch schon was. Den Rest kann man wohl zwischen den Zeilen lesen, Preise sagt dir keiner. Logisch.

aths
2014-09-18, 14:42:40
Wenn sie von Anfang an humane Preise verlangt hätten, gäbe es sicherlich nicht so viel zum abverkaufen. Sieht man ja wunderschön bei der Asus 780 TI Matrix, wenn der Preis stimmt, verkaufen sie in 3-4 Tagen soviel wie in einem Jahr.
Die 770 war doch extra dazu gemacht, den Preis hochzuhalten. Eine alte Graka nehmen (GTX 680), etwas den GPU-Takt erhöhen und schnelleren Speicher genommen, fertig ist die "neue" Generation.

Die 780 Ti war auch nicht für einen Kampfpreis gemacht. Warum sollte ein Hersteller den Kunden erlauben, sich preiswert mit leistungsstarker Hardware einzudecken? Das würde wahrscheinlich ATI (AMD) etwas nerven, NV würde sich aber auch ins eigene Fleisch schneiden.

Ex3cut3r
2014-09-18, 15:30:55
Flieg doch schnell in die USA, da kannst du es "heute" schon erfahren:ulol3:

;D

Hübie
2014-09-18, 15:39:39
Ja, kann sein, Inhalte sind aber manchmal geschützt. Ist dann so. Wer würde auf einen Picasso bezogen sagen, "ähm der Strich gefällt mir jetzt aber nicht und gehört nicht da hin".

RS ist wieder eine andere Sache das sollte passen, aber dort arbeiten auch nur Menschen und die machen nunmal bewiesener maßen Fehler.

Warum machen wir eigentlich keinen Preis-Maxwell-Thread auf. Sind ja noch 26h...:) und Monate (Weihnachten vielleicht) bis man sich das ggf. leisten kann?

Ne da ist nix geschützt (ausser halt vertrauliche Daten wie email der Ansprechpartner etc). Schau mal auf www.pressebox.de vorbei. Da kannst du viele auch öffentlich einsehen.
Die schlechtesten PMs waren immer die selbst gestalteten (Powercolor, Caseking, Thermaltake usw). Wenns noch stimmt dann macht Gebhardt Böhles Public Relations die PM für nVidia in Deutschland. Das ist relativ professionelles Niveau auch wenn man manchmal das Gefühl hat der Schreiber weiß gar nicht worüber er berichtet :freak:

Was kann denn nVidia jetzt noch groß verkünden, wo hier doch (fast) alles bekannt ist :freak: S-E-C-R-E-T-S-A-U-C-E :P

fondness
2014-09-18, 15:46:52
Also manche Designs sind wirklich krank:

http://videocardz.com/52495/even-more-geforce-gtx-980-and-gtx-970-cards-pictured

http://s18.postimg.org/5espi8ezd/Inno3d_i_Chill_980_2.jpg (http://postimage.org/)


Aber selbst diese Karte boostet "nur" bis 1329 MHz, das sind auch nur 9% mehr als default, scheint also nicht mehr so viel Luft zu sein.

robbitop
2014-09-18, 15:51:31
Naja das ist "Serien OC". Die Dinger müssen rock stable laufen und die wollen auch noch einen brauchbaren Yield. Und da ist dann immer noch Sicherheitsreserve drauf.

memoal
2014-09-18, 15:53:57
Man will hier wohl die Spannungversorgung (VRM) extra/einzeln kühlen, ob der kleine Lüfter auf Dauer auch leise bleibt, mal sehen. Der Takt ist Serien OC der garantiert wird, daher dürfte mehr gehen.

Ex3cut3r
2014-09-18, 15:54:29
Die iChill ist mal wieder krank, aber diesmal hässlich, finde meine iChill der 7er Serie hübscher.

yamo
2014-09-18, 15:56:09
will WaKü SEHEN.... lechz. dat airflow sieht aus wie ausn´n 90gern...

Hübie
2014-09-18, 15:57:18
Vor allem: Was soll der ganze Mist der den Luftstrom verwirbelt :facepalm: Und dann auch noch so ein kleiner Fön an der Seite. Die erinnern mich schon beim hinsehen an *fiiiiiiiieeeep* :freak:

yamo
2014-09-18, 15:58:18
blink blink for early adopters?

yamo
2014-09-18, 15:59:50
Is das jetzt echt "in"??? sah immer scheiße aus und so wirds auch bleiben...

memoal
2014-09-18, 16:01:15
Die erinnern mich schon beim hinsehen an *fiiiiiiiieeeep* :freak:
Man darf jetzt nicht annehmen das alle Karten für den europäischen Markt bestimmt sind. Wenns silent sein soll kanns Abwandlungen geben. In China und Japan kanns gerne wie ein "UFO" aussehen.

Was die Taktraten angeht, mache ich mir eher Sorgen das nV irgendwie oben raus lockt und dann zu macht, und 1,4 oder mehr ausschließt.

yamo
2014-09-18, 16:10:48
Kann ich mir jetzt gar nicht vorstellen.

Dural
2014-09-18, 16:17:04
schon seit Kepler werden alle GPUs künstlich eingebremst, wie so nicht beim GM204?

GM107 / GTX750Ti lässt nicht mal ein Watt mehr zu :rolleyes: ohne Mod Bios wird wohl kaum was gehen.
Es gab schon einige Tests mit 1,4GHz, da kann man mit Wakü und Spannung schon die 1,5GHz+ erwarten, und überhaupt so viel ist das im vergleich zum GK110b
auch wieder nicht, ich hatte selber eine GTX780ti Referenz schon auf 1380MHz (klar nicht stabil) sind aber letztendlich auch nur 120MHz weniger, aber 2 Milliarden und einige Watt mehr ;)

memoal
2014-09-18, 16:26:44
Kann ich mir jetzt gar nicht vorstellen.
Ja blöde ausgedrückt, meinte eher die Hersteller. Waren diese alle bei uns in Europa erhältlich? Größtenteils wohl ja: http://www.itc-web.jp/product/category/list/inno3d

mczak
2014-09-18, 16:28:23
Also der Quer-Lüfter bringt's wohl nicht so. Lüfter in der Grösse erzeugen entweder einen vernachlässigbaren Luftstrom, oder sind irre laut. Alternativ auch beides gleichzeitig.
Ich denke der dient eher dem Look, das _soll_ möglichst krank aussehen.

yamo
2014-09-18, 16:35:23
Ja blöde ausgedrückt, meinte eher die Hersteller. Waren diese alle bei uns in Europa erhältlich? Größtenteils wohl ja: http://www.itc-web.jp/product/category/list/inno3d

Das ist nicht schlimm ;) Für mich zählen WaKü:freak:

Godmode
2014-09-18, 16:40:06
Das ist nicht schlimm ;) Für mich zählen WaKü:freak:

OT:
Hätte ich eine Wakü, hätte ich wohl noch meine Titans, weil ich zum zerlegen zu faul gewesen wäre. ^^

Hat eigentlich jemand eine Ahnung was das neue AA Feature sein könnte? Gibt es einen technischen Hintergrund, wie man das AA Problem der Deferred Rendering Engines mit spezieller Hardware lösen könnte?

yamo
2014-09-18, 16:50:35
OT:
Hätte ich eine Wakü, hätte ich wohl noch meine Titans, weil ich zum zerlegen zu faul gewesen wäre. ^^

Hat eigentlich jemand eine Ahnung was das neue AA Feature sein könnte? Gibt es einen technischen Hintergrund, wie man das AA Problem der Deferred Rendering Engines mit spezieller Hardware lösen könnte?


Godmode, ich liebe deine Post. Doch dann...
zu floppy die Titanen umzubauen.
OHH MAN. Das ist so, als ob man die Barry White Collection hören möchte, aber sich nicht traut, die CD ein zu legen.
JEDER kann auf WakÜ umbauen.:wink: Sogar ich:D

Arcanoxer
2014-09-18, 16:51:02
Sollte die TDP der GTX970/980 stimmen, ist eine Wakü doch totaler overkill.
Und die 08/15 Mainstream Waküs sind auch nicht wirklich besser als eine gescheite Lukü.

Knuddelbearli
2014-09-18, 16:58:04
kA was du unter wakü verstehst aber eine normale wakü weiss man selbst unter Vollast nicht ob der pc überhaupt läuft. Selbst bei OC CPU und 300W+ GPU

yamo
2014-09-18, 16:58:22
Sollte die TDP der GTX970/980 stimmen, ist eine Wakü doch totaler overkill.
Und die 08/15 Mainstream Waküs sind auch nicht wirklich besser als eine gescheite Lukü.

Sure. Mal eine WaKü erlebt? Icjh hör hier nix ausser dem NT bei 1200w Belastung. Im Idle oder geringe Belastung hört man nix.

Godmode
2014-09-18, 17:00:43
Godmode, ich liebe deine Post. Doch dann...
zu floppy die Titanen umzubauen.
OHH MAN. Das ist so, als ob man die Barry White Collection hören möchte, aber sich nicht traut, die CD ein zu legen.
JEDER kann auf WakÜ umbauen.:wink: Sogar ich:D

Also es geht mir da wirklich nicht ums trauen, sonder einfach um die Faulheit. :) Ich will das Zeug reinstecken und fertig. Naja vielleicht überkommts mich ja beim GM200. Die Airplex Wunschliste liegt ja noch irgendwo ^^

Um OT zu kommen:
Hat eigentlich jemand eine Ahnung was das neue AA Feature sein könnte? Gibt es einen technischen Hintergrund, wie man das AA Problem der Deferred Rendering Engines mit spezieller Hardware lösen könnte?

aths
2014-09-18, 17:03:03
Sollte die TDP der GTX970/980 stimmen, ist eine Wakü doch totaler overkill.
Und die 08/15 Mainstream Waküs sind auch nicht wirklich besser als eine gescheite Lukü.
Bei Grafikkarten geht es nicht immer um rationale Handlung.

(Eine gute Wakü könnte leiser sein als eine Lukü, da die Radiatoren sehr groß sein können und sich zur Not außerhalb des PCs befinden.)

yamo
2014-09-18, 17:17:54
Also es geht mir da wirklich nicht ums trauen, sonder einfach um die Faulheit. :) Ich will das Zeug reinstecken und fertig. Naja vielleicht überkommts mich ja beim GM200. Die Airplex Wunschliste liegt ja noch irgendwo ^^

Um OT zu kommen:
Hat eigentlich jemand eine Ahnung was das neue AA Feature sein könnte? Gibt es einen technischen Hintergrund, wie man das AA Problem der Deferred Rendering Engines mit spezieller Hardware lösen könnte?

Und ich bastel gern bei meinen fast 50 Jahren ;). Aber irgendwie könnt es einfacher werden. Ach hätt ich die Kohle für 4x204m.
Aber es ist ein großer spaß, hier dabei zu sein!

ilibilly
2014-09-18, 17:35:01
Hmm bin echt auf die OC Tests gespannt,wenn die 970er Richtung 1400-1500 gehn,dann dürfte man auf 780ti Leistung liegen,und dann sli für 640€ dürfte für ne Zeit ruhe im Karton sein :)
Ich glaub ich würd dann ins grüne Lager wechseln.....

mironicus
2014-09-18, 17:39:29
Aber es ist ein großer spaß, hier dabei zu sein!

Die Diskussionen vor Release einer neuen GPU erzeugen mehr Glückseligkeit als die Karte zu besitzen. :freak:

Timbaloo
2014-09-18, 17:43:08
Sollte die TDP der GTX970/980 stimmen, ist eine Wakü doch totaler overkill.
Und die 08/15 Mainstream Waküs sind auch nicht wirklich besser als eine gescheite Lukü.
Geräusch ist sehr subjektiv. Mir waren die (egal ob Referenz oder Custom) Kühllösungen immer zu laut, zumindest unter Last. Auch der sehr gut bewertete DCII (Asus) meiner 560ti war mir zu laut. Jetzt hab ich einen Shaman rauf, unter Last geht aber auch da der 140mm-Lüfter auf 1200-1300U/min was zwar nicht wirklich störend ist, aber halt auch nicht silent. Besser geht immer.

Arcanoxer
2014-09-18, 17:48:55
kA was du unter wakü verstehst aber eine normale wakü weiss man selbst unter Vollast nicht ob der pc überhaupt läuft. Selbst bei OC CPU und 300W+ GPU
kA was du unter wakü verstehst, aber der Radiator muss bei 300W+ auch aktive gekühlt werden.
Und denn ist da noch die Pumpe.

Bei Grafikkarten geht es nicht immer um rationale Handlung.

(Eine gute Wakü könnte leiser sein als eine Lukü, da die Radiatoren sehr groß sein können und sich zur Not außerhalb des PCs befinden.)
Sicher, aber der Zielgruppe ist es imho recht egal ob die Grafikkarte nun out-of-the-box mit Wakü kommt oder nicht.

Mr.Ice
2014-09-18, 17:50:20
Bei Grafikkarten geht es nicht immer um rationale Handlung.

(Eine gute Wakü könnte leiser sein als eine Lukü, da die Radiatoren sehr groß sein können und sich zur Not außerhalb des PCs befinden.)

Es gibt mittlerweile PC-Gehäuse da kriegst du ein Dicken 560MM und ein 480MM ins Gehäuse. Allerdings macht Wakü erst ab SLI sinn meiner meinung nach. Mit einem Guten belüftetem Pc gehäuse und mi einem Guten Grafikkarten kühler z.b Chill HerculeZ X3 Ultra kriegst du ein Luftgekühlten Gaming-Computer auf selbe werte aber natürlich nur mit Single-GPU OC jetzt mal weg gelassen.

Allerdings ist der Aufwand sehr kostspielig allein das Gehäuse kostet schon 500€.Grafikkarten wo schon ein wasserkühler drauf ist ab Werk ist meistens schwerer zu verkaufen und auch Teurer im Ankauf. Einen Luftgekühlten zu Kaufen und den dann umbauen kommt man preislich meistens auf das Selbe.
Von daher sollte man es vll doch erstmal mit Luftkühlung versuchen.

aths
2014-09-18, 17:54:33
Hmm bin echt auf die OC Tests gespannt,wenn die 970er Richtung 1400-1500 gehn,dann dürfte man auf 780ti Leistung liegen,und dann sli für 640€ dürfte für ne Zeit ruhe im Karton sein :)
Ich glaub ich würd dann ins grüne Lager wechseln.....
Mir ginge es hier gar nicht um das Overclocking, sondern um möglichst wenig Krach unter Last. Das wäre im Moment mein eigentliche Anlass, die Graka zu wechseln. Das 680-Referenzdesign ist nicht gerade leise, wenn die GPU zu tun hat.

ChaosTM
2014-09-18, 17:55:33
Hmm bin echt auf die OC Tests gespannt,wenn die 970er Richtung 1400-1500 gehn,dann dürfte man auf 780ti Leistung liegen,und dann sli für 640€ dürfte für ne Zeit ruhe im Karton sein :)
Ich glaub ich würd dann ins grüne Lager wechseln.....

Wenn die unter 2160p halbwegs gut gehn, wäre das sicher eine interessante alternative.
Oder gleich 2 auf eine Karte packen..

aths
2014-09-18, 17:59:12
Allerdings ist der Aufwand sehr kostspielig allein das Gehäuse kostet schon 500€.Grafikkarten wo schon ein wasserkühler drauf ist ab Werk ist meistens schwerer zu verkaufen und auch Teurer im Ankauf. Einen Luftgekühlten zu Kaufen und den dann umbauen kommt man preislich meistens auf das Selbe.
Ja. Bei EVGA (als ich da war, wie es jetzt ist weiß ich nicht) und bei TGT war es so, dass wir die Karten vor dem Umbau mit einem ausführlichen Test selektiert hatten und nach dem Umbau noch mal getestet haben, logischerweise dann mit Wasser. Das kostet mehr Zeit als man denkt: Schläuche ran, testen ob die sitzen (bei TGT hatten wir mal ein Mainboard geflutet ...) und nach dem Test wieder das Wasser so weit es geht rauslassen.

Nicht nur mal kurz anschalten, sondern richtig die Benchmarks, Unigine Heaven und auch Furmark reinhauen. Da musste also einer noch ständig die Anwendung wechseln. Das kostet. Wie andere Firmen das machen, weiß ich natürlich nicht, bei uns waren Wakü-Karten noch mit Liebe getestet :ugly:

memoal
2014-09-18, 17:59:48
Gibt es einen technischen Hintergrund, wie man das AA Problem der Deferred Rendering Engines mit spezieller Hardware lösen könnte?
SRAA oder sowas?

horn 12
2014-09-18, 18:02:18
Wenn diese geleakten Benchmarks stimmen dann meine Hochachtung vor Nvidia !!
Somit würde man mit der GTX 970 schon die R9 290X im Keim ersticken und AMD hätte echt ein Gewaltiges Problem. :-(
Dann könnte gar meine Wenigkeit, sprich ich als AMD - ATI Jünger in Versuchung geraten ³

Hübie
2014-09-18, 18:06:29
Resolution scaling wie man es beispielsweise aus BF4 kennt könnte man hardwareseitig lösen damits immer verfügbar ist. Quasi downsampling ohne Einschränkung bei der refreshrate.

aufkrawall
2014-09-18, 18:10:33
Das muss man nicht hardwareseitig lösen. Wenn der Treiber einfach in höherer Auflösung rendert als angefordert und runter skaliert, kann die App gar nichts machen bzw. bekommt sie das nicht einmal mit.

ChaosTM
2014-09-18, 18:12:02
Das muss man nicht hardwareseitig lösen. Wenn der Treiber einfach in höherer Auflösung rendert als angefordert und runter skaliert, kann die App gar nichts machen bzw. bekommt sie das nicht einmal mit.

Oder man verwendet gleich eine höhere Auflösung.. ;)

Hübie
2014-09-18, 18:12:45
Ich rede vom downfilter. Müsste die ROPs betreffen oder?

horn 12
2014-09-18, 18:13:48
http://wccftech.com/nvidia-maxwell-geforce-gtx-980-geforce-gtx-970-performance-numbers-leaked-gtx-980-15-faster-r9-290x-gtx-970-10-faster-r9-290/

Nun muss AMD heute die Hosen runterlassen und Paroli dagegen bieten, sonst wird das nix mehr !!

Adam D.
2014-09-18, 18:19:14
http://wccftech.com/nvidia-maxwell-geforce-gtx-980-geforce-gtx-970-performance-numbers-leaked-gtx-980-15-faster-r9-290x-gtx-970-10-faster-r9-290/

Nun muss AMD heute die Hosen runterlassen und Paroli dagegen bieten, sonst wird das nix mehr !!
Die Performance interessiert glaube ich wirklich nicht sonderlich, insgesamt tut sich da wenig. Aber die Effizienz (sollte es sich bewahrheiten mit den 148W TDP) - Hammer :eek:

memoal
2014-09-18, 18:19:59
Nun muss AMD heute die Hosen runterlassen und Paroli dagegen bieten, sonst wird das nix mehr !!
980 eher so schnell wie die 780ti, im OC könnte die vllt. Paroli bieten. Sieh dir mal die Taktraten der ti an. Bei 1,1 dürfte sie dran sein oder vorbei.

Hübie
2014-09-18, 18:20:58
Diese so genannten Benchmarks kann man dahin schieben wo keine Sonne scheint. :rolleyes:

memoal
2014-09-18, 18:21:59
Diese so genannten Benchmarks kann man dahin schieben wo keine Sonne scheint. :rolleyes:
Klar, wollte nur die Euphorie dämpfen. Die 329$ für die 970 wären da schon interessanter.:D

Tesseract
2014-09-18, 18:34:22
die effizienz hört sich fast zu gut an um wahr zu sein. was haben die älteren architekturen bitte so dermaßen viel schlechter gemacht? :eek:

wenn nvidia nur nicht immer so rumwuchern würde... die situation wird genau so lächerlich (oder noch schlimmer) werden wie damals bei der 680. :(

Effe
2014-09-18, 18:45:13
AMD reagiert, Leak von Gigabyte:

http://www.overclock3d.net/articles/gpu_displays/major_leak_from_amd_and_gigabyte/1


:freak::freak::freak::freak:

Godmode
2014-09-18, 18:49:21
http://wccftech.com/nvidia-maxwell-geforce-gtx-980-geforce-gtx-970-performance-numbers-leaked-gtx-980-15-faster-r9-290x-gtx-970-10-faster-r9-290/

Nun muss AMD heute die Hosen runterlassen und Paroli dagegen bieten, sonst wird das nix mehr !!

Nette Werte, wie eigentlich schon erwartet. 10% über einer 780 Ti bei deutlich weniger Stromverbrauch. Gesehen, nächster bitte.

AMD reagiert, Leak von Gigabyte:

http://www.overclock3d.net/articles/gpu_displays/major_leak_from_amd_and_gigabyte/1


:freak::freak::freak::freak:

Nicht lustig. :rolleyes:

aufkrawall
2014-09-18, 18:50:04
Ich rede vom downfilter. Müsste die ROPs betreffen oder?
Kannst per TMUs quasi for free runterskalieren.

Hübie
2014-09-18, 19:04:50
Ah okay. Also könnte man da ansetzen (bspw Lanczos-Filter). Wird aber eher wie TXAA mehr softwareabhängig sein und nach belieben hier und da nicht "gestattet" :freak:

Blaire
2014-09-18, 19:19:14
Nette Werte, wie eigentlich schon erwartet. 10% über einer 780 Ti bei deutlich weniger Stromverbrauch. Gesehen, nächster bitte.

Das ist ja auch der Replace der GTX 770 , nicht der 780Ti. Nicht das die Erwartungen wieder zu hoch steigen. Vieleicht wird es ja eine Punktlandung hier und da schneller oder auch mal langsamer, warten wir mal die Tests ab. :smile:

Ah okay. Also könnte man da ansetzen (bspw Lanczos-Filter). Wird aber eher wie TXAA mehr softwareabhängig sein und nach belieben hier und da nicht "gestattet" :freak:

Warum so kompliziert, man wird eher bewährtes verfeinert haben. ;)

Godmode
2014-09-18, 19:19:45
Eine schöne Dual GPU Karte werden sie mit GM204 wieder bauen können. Da können sie dann auch den selben Kühler wie bei der 690 verwenden. Für SFF PCs könnte so eine Karte mit 780 Ti SLI Leistung ganz praktisch sein.

aufkrawall
2014-09-18, 19:21:57
Ah okay. Also könnte man da ansetzen (bspw Lanczos-Filter). Wird aber eher wie TXAA mehr softwareabhängig sein und nach belieben hier und da nicht "gestattet" :freak:
Ich weiß nicht, ob Lanczos ginge.
Ist aber auch egal, selbst per Shader ist das nur marginal teurer (in fps).
Wie gesagt kann der Treiber der Anwendung viel erzählen und einfach höher rendern...

basix
2014-09-18, 19:24:39
...eine Karte mit 780 Ti SLI Leistung...

Wäre sicher ein schönes Stück Hardware....für 3000 Euro :biggrin:

ChaosTM
2014-09-18, 19:26:28
Ich weiß nicht, ob Lanczos ginge.
Ist aber auch egal, selbst per Shader ist das nur marginal teurer (in fps).
Wie gesagt kann der Treiber der Anwendung viel erzählen und einfach höher rendern...

Ja

2160p

Godmode
2014-09-18, 19:26:38
Wäre sicher ein schönes Stück Hardware....für 3000 Euro :biggrin:

Mehr als 1000 Euro kann man für sowas nicht verlangen.

Das ist ja auch der Replace der GTX 770 , nicht der 780Ti. Nicht das die Erwartungen wieder zu hoch steigen. Vieleicht wird es ja eine Punktlandung hier und da schneller oder auch mal langsamer, warten wir mal die Tests ab. :smile:


Das weiß ich auch, ich wollte nur sagen dass mich die Karte nicht interessiert, weil es nicht der Enthusiast Chip ist.

memoal
2014-09-18, 19:33:20
Das weiß ich auch, ich wollte nur sagen dass mich die Karte nicht interessiert, weil es nicht der Enthusiast Chip ist.
Ja, das liegt dann wohl auch an der Konkurrenz, wenn die nichts haben könnte die 980 wohl wieder etwas länger bleiben, siehe Launch des GK200, nagut die damaligen Probleme hat nV derzeit wahrscheinlich nicht, aber wieder immens Zeit zum optimieren.

Hoffen wir mal AMD kommt bald.

Wie ist das jetzt eigentlich, hatte nicht das Deferred Rendering (Shading) und AA nicht ziemlich viel Speicherplatz benötigt, sie BF3 und die Frostbyteengine2 oder könnte man sowas garnicht rein in Hardware lösen?

Godmode
2014-09-18, 19:41:38
Ja, das liegt dann wohl auch an der Konkurrenz, wenn die nichts haben könnte die 980 wohl wieder etwas länger bleiben, siehe Launch des GK200, nagut die damaligen Probleme hat nV derzeit wahrscheinlich nicht, aber wieder immens Zeit zum optimieren.



Wenn Pascal Anfang 2016 erscheint, dann muss GM200 fasst noch in Q1 oder spätestens in Q2 2015 erscheinen, sonst macht der Chip nicht mehr viel Sinn. Ich wünsche mir GM200 ja noch vor Weihnachten, aber glaube eher an Jänner, bzw. Februar.

AnarchX
2014-09-18, 19:59:49
Neues Benchmark-Rating: http://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1132416&pid=25598878

memoal
2014-09-18, 20:03:56
1,449GHz, wie verrückt ist das denn wenn es stimmt? Die ROG wehrt sich, habe ich auch erwartet ;).

dildo4u
2014-09-18, 20:04:35
Referenz schon bei 1.45 Ghz also werden wird wohl 1.5Ghz sehen mit Custom Karten.
Jetzt steht auch da welcher Treiber genutzt wurde.

Botcruscher
2014-09-18, 20:06:41
Abgesehen von den Gerüchten um den Verbrauch gibt es von mir ein Schulterzucken. GM 200 legt dann 30% auf die TI und gut ist.

memoal
2014-09-18, 20:06:51
Scheint keinerlei Sperren zu geben, dass gibt es doch garnicht, die OC-Hure, die ich eigentlich von AMD erwarten würden.

@Botcruscher
Ja, GK110 Besitzer sollen dann wohl auch nicht angesprochen werden, oder man will auf Tripple oder Quad SLI.

AnarchX
2014-09-18, 20:07:51
http://videocardz.com/52495/even-more-geforce-gtx-980-and-gtx-970-cards-pictured
... da kommt die sparsamste 80er Karte seit langem und da werden solche Kühler aufgefahren. :freak:

Nightspider
2014-09-18, 20:08:13
Wenn GM200 dann auch auf fast 1,5 geht wäre das nett.

Nur wird GM200 im Vergleich zum GK110 nicht auch 30% größer werden wie der GM204 im Vergleich zum GK104.

Insofern sehe ich beim GM200 eigentlich nur ein Plus von ~25% -30% vor der GTX 980.

Botcruscher
2014-09-18, 20:08:57
http://videocardz.com/52495/even-more-geforce-gtx-980-and-gtx-970-cards-pictured
... da kommt die sparsamste 80er Karte seit langem und da werden solche Kühler aufgefahren. :freak:
Bling Bling für die Zielgruppe. Wie Ramkühler halt.
Referenz schon bei 1.45 Ghz also werden wird wohl 1.5Ghz sehen mit Custom Karten.
Erst mal abwarten was da schon an Spannungserhöhung bei war.

Unicous
2014-09-18, 20:09:17
"Jen-Hsun Huang And The Return Of The Hot Clock™"

ChaosTM
2014-09-18, 20:10:15
Neues Benchmark-Rating: http://www.chiphell.com/forum.php?mod=redirect&goto=findpost&ptid=1132416&pid=25598878

Wieder nur 1440p aber man sieht schon die ungefähre Richtung

memoal
2014-09-18, 20:11:57
@AnarchX
Hatten wir heute schon von @fondness, paar Seiten vorher! http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10355738&postcount=5573

Nightspider
2014-09-18, 20:13:24
Man ich stehe ja auf Hardware die sich super overclocken lässt aber ich brauch Mantle für BF4. ^^

memoal
2014-09-18, 20:15:22
Die 290x in Uber dürfte doch reichen.

dildo4u
2014-09-18, 20:16:49
Jup ne 290X bekommt man jetzt eh nicht mehr für gutes Geld los.

AnarchX
2014-09-18, 20:18:45
Bilder vom PCPop.CN Review: http://www.pcpop.com/doc/pic/003263100.html
Slides inklusive!

96KiB shared Memory in den SMM (GK210... ;)) statt 64KiB bei GM107.
"9.6Gbps" effektive Bandbreite.

hasebaer
2014-09-18, 20:19:28
Man ich stehe ja auf Hardware die sich super overclocken lässt aber ich brauch Mantle für BF4. ^^

BF4 läuft per DX11 auf Nvidia Karten doch genauso flink mittlerweile oder hat sich das wieder geändert?

Bilder vom PCPop.CN Review: http://www.pcpop.com/doc/pic/003263100.html
Slides inklusive!

=)

Knuddelbearli
2014-09-18, 20:21:09
kA was du unter wakü verstehst, aber der Radiator muss bei 300W+ auch aktive gekühlt werden.
Und denn ist da noch die Pumpe.


Gute Lüfter mit unter6-800RPM hört man nicht aus einem gedämmten Gehäuse und Pumpen gibt es auch genug absolut leise - lautlose Lösungen

Botcruscher
2014-09-18, 20:24:49
Bilder vom PCPop.CN Review: http://www.pcpop.com/doc/pic/003263100.html
Slides inklusive!

Mach doch gleich mal den (P)Review-Thread auf. Ist doch eh alles drin.

memoal
2014-09-18, 20:25:44
In Firestrike fällt sie in Referenz auf Baseclock zurück, da dürfte noch was gegen mit einem von den urrigen Kühlern ;).

dildo4u
2014-09-18, 20:26:01
http://abload.de/img/003263067w3pp6.jpg

http://abload.de/img/003263068kyftw.jpg

Akkarin
2014-09-18, 20:26:18
Was ist MFAA ?

qu3x^
2014-09-18, 20:27:54
Was ist MFAA ?
MindFuckingAntialiasing

AnarchX
2014-09-18, 20:28:32
Mach doch gleich mal den (P)Review-Thread auf. Ist doch eh alles drin.
Hier entlang:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10356137#post10356137

Akkarin
2014-09-18, 20:28:34
http://img5.pcpop.com/ArticleImages/0X0/3/3263/003263072.jpg

uweskw
2014-09-18, 20:33:13
Bei gleicher Taktfrequenz liegt die R290 (63,2) knapp vor der GTX 980 (62,3) wobei die NV ca. 200Mhz mehr Speichertakt braucht.
http://www.chiphell.com/forum.php?mod=viewthread&tid=1132416&page=1#pid25598878

Haben die neuen NV nun auch neue Hardwaerefeatures in Sachen DX11.2 oder DX12? Oder alles "nur" in Software?
Wenn die 780ti vom Preis her gut nachgibt, werde ich wohl meine 290er raushauen solange sie noch 250€ bringt.... Vermisse DS schon sehr!

Greetz
U.S.

Akkarin
2014-09-18, 20:34:54
Zotac hat jetzt ähnliche lüfter wie Powercolor.

Mr.Ice
2014-09-18, 20:37:05
Eine schöne Dual GPU Karte werden sie mit GM204 wieder bauen können. Da können sie dann auch den selben Kühler wie bei der 690 verwenden. Für SFF PCs könnte so eine Karte mit 780 Ti SLI Leistung ganz praktisch sein.

gibts doch schon : http://www.alternate.de/EVGA/GeForce-GTX-TITAN-Z-Grafikkarte/html/product/1138825?

Des ist jetzt mal ne blöde frage aber sich berechtigt.
In Ps4 und Xbox one in beiden konsolen steckt AMD Technik drin.
Warum sollten da die Spiele-Entwickler überhaupt noch PC-Spiele für Nvidia optimieren ? Des wäre doch eine Mega Aufwand die ganzen Games nochmal umzuschreiben von daher macht man gleich Mantle.

165W sind zwar schön aber seit wann interresiert mich als Gamer der Stromvebrauch als Gamer will ich Leistung deswegen versteh ich es überhaupt nicht warum man wieder auf 256bit zurück geht das geht wiederum auf die Kantenglättung.

Konami
2014-09-18, 20:37:46
Bilder vom PCPop.CN Review: http://www.pcpop.com/doc/pic/003263100.html
Slides inklusive!

96KiB shared Memory in den SMM (GK210... ;)) statt 64KiB bei GM107.
"9.6Gbps" effektive Bandbreite.
Ööööhhhmmm...

http://abload.de/img/003262975_n7k0j.jpg
:uconf:

Akkarin
2014-09-18, 20:43:00
Ernsthaft: Wtf ist MFAA und wie soll conservative raster funktionieren ohne (unendlich) mehr samples ?

ChaosTM
2014-09-18, 20:45:09
Bei gleicher Taktfrequenz liegt die R290 (63,2) knapp vor der GTX 980 (62,3) wobei die NV ca. 200Mhz mehr Speichertakt braucht.
http://www.chiphell.com/forum.php?mod=viewthread&tid=1132416&page=1#pid25598878

Haben die neuen NV nun auch neue Hardwaerefeatures in Sachen DX11.2 oder DX12? Oder alles "nur" in Software?
Wenn die 780ti vom Preis her gut nachgibt, werde ich wohl meine 290er raushauen solange sie noch 250€ bringt.... Vermisse DS schon sehr!

Greetz
U.S.

Gibts da schon 4k Benchmarks?
Vergiss DS und kauf dir einen gscheiten monitor. ;)

dildo4u
2014-09-18, 20:49:59
Gibts da schon 4k Benchmarks?
Vergiss DS und kauf dir einen gscheiten monitor. ;)
Das sind 1600p Benches eh schon mehr als die Karte flüssig stemmt siehe Metro, Crysis 3 etc.

ChaosTM
2014-09-18, 20:54:20
Bei 2160p ist kein oder nur mehr minimales AA nötig..

AnarchX
2014-09-18, 20:55:26
...

Godmode
2014-09-18, 20:56:03
165W sind zwar schön aber seit wann interresiert mich als Gamer der Stromvebrauch als Gamer will ich Leistung deswegen versteh ich es überhaupt nicht warum man wieder auf 256bit zurück geht das geht wiederum auf die Kantenglättung.

Was heißt sie gehn auf 256 Bit zurück, der GK104 hatte auch 256 Bit und genau diesen ersetzt GM204.

Bei 2160p ist kein oder nur mehr minimales AA nötig..

:facepalm: mehr braucht man dazu gar nicht sagen.

Godmode
2014-09-18, 20:59:17
...

Ziemlich cool, die Frage ist ob das nicht flimmert.

Effe
2014-09-18, 20:59:23
Vermisse DS schon sehr!.
Schonmal GeDoSaTo (http://www.pcgameshardware.de/Downsampling-Hardware-255526/Specials/Downsampling-mit-GeDoSaTo-1135217/) ausprobiert?

ChaosTM
2014-09-18, 21:03:58
Was heißt sie gehn auf 256 Bit zurück, der GK104 hatte auch 256 Bit und genau diesen ersetzt GM204.



:facepalm: mehr braucht man dazu gar nicht sagen.

Möglicherweise bin ich blind, aber ich seh ab 40cm Abstand keine Pixel und kein Kantenflimmern mehr.
Zur Not beseitigt 2x FXAA die letzten Artefakte.

4x AA ist imho overkill bei dieser Auflösung.

kunibätt
2014-09-18, 21:05:21
Geh zum Arzt.

Godmode
2014-09-18, 21:05:26
Möglicherweise bin ich blind, aber ich seh ab 40cm Abstand keine Pixel und kein Kantenflimmern mehr.
Zur Not beseitigt 2x FXAA die letzten Artefakte.

4x AA ist imho overkill bei dieser Auflösung.

Dann hast du echtes Glück wenn du das nicht siehst und kannst viel Geld für teure Hardware sparen. :wink:

ChaosTM
2014-09-18, 21:08:26
Dann hast du echtes Glück wenn du das nicht siehst und kannst viel Geld für teure Hardware sparen. :wink:

Hast du einen 4k Monitor um das bewerten zu können? scnr ..

Upscaling is besser als downscaling.. :D

-> NFS 14 Rivals @ Ultra/FXAA > 30fps

Akkarin
2014-09-18, 21:10:02
Ok, inzwischen sind genug slides draußen als dass man erraten kann was MFAA ist. Anscheinend werden immer verschiedene Positionen gesamplet und dann mit dem letzten bild verrechnet.

Hört sich nach schlieren an, oder nicht ?

Konami
2014-09-18, 21:13:26
Ok, inzwischen sind genug slides draußen als dass man erraten kann was MFAA ist. Anscheinend werden immer verschiedene Positionen gesamplet und dann mit dem letzten bild verrechnet.

Hört sich nach schlieren an, oder nicht ?
Hört sich für mich nach "Temporal Supersampling" à la CryEngine-SMAA/UE4 an?

Also MFAA = Multi-Frame AA

Edit: DAS! hier sind die allerinteressantesten Folien:

http://abload.de/img/00326308122jrl.jpg

http://abload.de/img/003263082kgkso.jpg

Auto Asynchronous Warp für die Rift. Bedeutet die gleiche Technologie wie im Samsung Gear VR, nur (anscheinend) seitens der Grafikkarte selbst berechnet. HAMMER!

Mr.Ice
2014-09-18, 21:36:23
Was heißt sie gehn auf 256 Bit zurück, der GK104 hatte auch 256 Bit und genau diesen ersetzt GM204.


Joa speicherbandbreite einer 770GTX.
Das Problem ist die geringe Speicherbandbreite, das schränkt die Nutzbarkeit von Kantenglättung und hohen Auflösungen extrem ein.

Ich will aber mehr Power!

580GTX 384bit
680GTX 256bit
780GTX 384bit
980GTX 256bit

da meint man fast da steckt ein system dahinter.

aufkrawall
2014-09-18, 21:39:57
Wart es erstmal ab und plapper nicht irgendeinen Stammtisch nach.
Btw. Bandbreite != effektive Bandbreite

AnarchX
2014-09-18, 21:44:17
Mit der Delta Compression und dem MFAA spart man wohl durchaus einiges an Bandbreite ein. Und zu guter letzt kann man wohl wegen der 256-Bit auch eben eine GTX 970 für $329 anbieten.

Mr.Ice
2014-09-18, 21:44:53
Wart es erstmal ab und plapper nicht irgendeinen Stammtisch nach.
Btw. Bandbreite != effektive Bandbreite
ich denke, sie machen es genau so wie amd jetzt mit der r285. sie beschneiden die karte so, dass sie für max full hd genug resourcen bringt, um souverän auftreten zu können, aber bei allem darüber einfach die reserven fehlen.

Tesseract
2014-09-18, 21:45:46
Hört sich nach schlieren an, oder nicht ?

ja, allerdings würde es sich dabei um eine form von echtem motionblur handeln, nicht nur einen temporalen matschfilter. eventuell steigt auch der inputlag wenn man sowohl frames davor als auch danach in den filterkern einbezieht.

aufkrawall
2014-09-18, 21:46:15
ich denke, sie machen es genau so wie amd jetzt mit der r285. sie beschneiden die karte so, dass sie für max full hd genug resourcen bringt, um souverän auftreten zu können, aber bei allem darüber einfach die reserven fehlen.
Nein, bei Firestrike Extreme setzt sie sich deutlich stärker von der 780 Ti ab.
1080p vs 1440p.

dildo4u
2014-09-18, 21:46:50
ich denke, sie machen es genau so wie amd jetzt mit der r285. sie beschneiden die karte so, dass sie für max full hd genug resourcen bringt, um souverän auftreten zu können, aber bei allem darüber einfach die reserven fehlen.
Genau deshalb ist die 980 auch in 2560*1600 schneller als ne 780TI mit 330 GB/Sec. :rolleyes:

http://abload.de/img/003262968lcseq.jpg

ChaosTM
2014-09-18, 21:49:30
any 4k reviews ?

dildo4u
2014-09-18, 21:50:49
any 4k reviews ?
Nein es gibt nur die eine Review Rest kommt Morgen.

Schaffe89
2014-09-18, 21:50:53
Das OC Potenzial ist ja echt mies, aber gut das war bei 1200mhz Takt eigentlich klar.
Endlich weiß ich dass die Karte nicht viel flotter wie meine 290 ist, dann kann ich beruhigt morgen den Test lesen, wann kommt der eigentlich?

kunibätt
2014-09-18, 21:52:36
Morgen.

Timbaloo
2014-09-18, 21:52:49
ja, allerdings würde es sich dabei um eine form von echtem motionblur handeln, nicht nur einen temporalen matschfilter. eventuell steigt auch der inputlag wenn man sowohl frames davor als auch danach in den filterkern einbezieht.
Also wenn ich das richtig interpretiert habe wird nur ein alter Frame herangezogen.

Inputlag ist das ja auch nicht wirklich, du hast halt im aktuellen Frame zusätzlich Informationen aus dem alten Frame, aber der aktuelle kommt deswegen ja nicht später.

Wird man aber erst anspielen müssen denke ich, das empfindet eh jeder anders.

Treiber-DS finde ich da auch viel leckerer. Wenn es denn immer funzt... :rolleyes:

Nightspider
2014-09-18, 21:52:58
:facepalm: mehr braucht man dazu gar nicht sagen.


Er hat insofern recht das ich auch eher 4K einschalten würde und nur noch AA wenn Leistung übrig ist. 4k lindert schon extrem.

Das es komplett unnötig ist hat er ja nicht gemeint.

Also wenn die Leistung gerade so für 4K ausreicht würde ich in 4K spielen anstatt MSAA zu aktivieren. Notfalls halt eine kleine Stufe FXAA drüber. Das wirkt in 4K zum Glück eh nicht mehr so sehr vermatschend.

Mr.Ice
2014-09-18, 21:54:02
Genau deshalb ist die 980 auch in 2560*1600 schneller als ne 780TI mit 330 GB/Sec. :rolleyes:

http://abload.de/img/003262968lcseq.jpg

Die 3FPS ?:freak:

Wenn NV keine 990GTX Dual GPU anbietet sind die bei mir raus.
Ich hoffe das NV Kritik einstecken kann ;)

Coda
2014-09-18, 21:54:44
MFAA ist wahrscheinlich stinknormales temporales reprojection AA. Ich weiß nich, warum man da wieder so ein Drama draus machen muss.

Timbaloo
2014-09-18, 21:55:45
Eine Dual-GM204-Karte ist so sicher wie das Amen in der Kirche...

Ex3cut3r
2014-09-18, 21:56:39
Wartet einfach morgen Benches von der PCGH und CB ab, was solche Reismänner da zusammen benchen ohne min.FPS ist sowieso fragwürdig :freak:

kunibätt
2014-09-18, 21:57:25
Racist!!!111

Godmode
2014-09-18, 21:58:52
Er hat insofern recht das ich auch eher 4K einschalten würde und nur noch AA wenn Leistung übrig ist. 4k lindert schon extrem.

Das es komplett unnötig ist hat er ja nicht gemeint.

Also wenn die Leistung gerade so für 4K ausreicht würde ich in 4K spielen anstatt MSAA zu aktivieren. Notfalls halt eine kleine Stufe FXAA drüber. Das wirkt in 4K zum Glück eh nicht mehr so sehr vermatschend.

Ich kenne es halt vom 15" 2880 x 1800 Display und dort ist es ohne AA immer noch nervig. AA ist mit ner 750 GT und 2880x1800 einfach nicht drinnen. Spiele Rechner habe ich momentan nicht.

Godmode
2014-09-18, 21:59:59
Die 3FPS ?:freak:

Wenn NV keine 990GTX Dual GPU anbietet sind die bei mir raus.
Ich hoffe das NV Kritik einstecken kann ;)

Warum wartest du nicht einfach noch ein paar Monate und nimmst nen GM200. Dort bekommst du dann dein 384 Bit Speicherinteface und nochmal mehr Leistung als mit GM204.

aufkrawall
2014-09-18, 22:01:03
Racist!!!111
Nicht wirklich, deren Mentalität kannst du bei so etwas komplett vergessen.

Mr.Ice
2014-09-18, 22:01:53
Eine Dual-GM204-Karte ist so sicher wie das Amen in der Kirche...

Dann müssen sie immer noch eine R9 295X2 übertrumpfen.

Der Stromverbrauch würde schon mal an NV gehen aber das ist nicht alles.

Ex3cut3r
2014-09-18, 22:03:25
Racist!!!111

;D War nicht wirklich ernst gemeint

Warum wartest du nicht einfach noch ein paar Monate und nimmst nen GM200. Dort bekommst du dann dein 384 Bit Speicherinteface und nochmal mehr Leistung als mit GM204.

Sehe ich genau so, die Titan 2 wird wieder ein Monster werden, wär bereit ist dafür zu blechen, macht imo nichts falsch.

Ailuros
2014-09-18, 22:05:25
Nicht wirklich, deren Mentalität kannst du bei so etwas komplett vergessen.

Kein weiterer Kommentar mehr dazu.

ChaosTM
2014-09-18, 22:06:57
Er hat insofern recht das ich auch eher 4K einschalten würde und nur noch AA wenn Leistung übrig ist. 4k lindert schon extrem.

Das es komplett unnötig ist hat er ja nicht gemeint.

Also wenn die Leistung gerade so für 4K ausreicht würde ich in 4K spielen anstatt MSAA zu aktivieren. Notfalls halt eine kleine Stufe FXAA drüber. Das wirkt in 4K zum Glück eh nicht mehr so sehr vermatschend.

Danke, einer hat es zumindest verstanden.

Mr.Ice
2014-09-18, 22:10:01
Warum wartest du nicht einfach noch ein paar Monate und nimmst nen GM200. Dort bekommst du dann dein 384 Bit Speicherinteface und nochmal mehr Leistung als mit GM204.

weil ich nicht mehr warten will und die Konkurenz schon so leistung starke Karten hat und dazu ein Fairer Preis anbietet ?

kunibätt
2014-09-18, 22:11:23
Es gibt GM200-Leistung bei AMD zu einem fairen Preis?

Nightspider
2014-09-18, 22:12:37
Joa speicherbandbreite einer 770GTX.
Das Problem ist die geringe Speicherbandbreite, das schränkt die Nutzbarkeit von Kantenglättung und hohen Auflösungen extrem ein.

Ich will aber mehr Power!

580GTX 384bit
680GTX 256bit
780GTX 384bit
980GTX 256bit

da meint man fast da steckt ein system dahinter.

omg, schon mal etwas von technischem Fortschritt gehört? Technischer Fortschritt ist nicht bei einem 3XXmm² Chip mit jeder Generation ein breites SI zu verbauen sondern im idealfall das SI klein zu halten und durch eine gute Architektur die Nachteile eines kleinen SIs komplett zu kompensieren.

Und da die GTX980 von der Rohleistung eh nur etwa auf GTX780ti Niveau liegt braucht man dank der Maxwell-Architektur kein 384Bit SI. Das war doch schon seit Ewigkeiten bekannt. (Seit dem GTX 750 Release)
Dieses gejammere ist wirklich dämlich. Ein 50% breiteres SI würde die Karte merklich teurer machen.
Wenn du noch mehr Leistung willst warte bis zum GM200 aber schreib nicht so einen Stuss.

Die R9 285 wird auch nicht durch das SI ausgebremst und ist von dem Speichertakt sogar noch weniger abhängig als dir R9 280X. Da leistet die Architektur auch volle Arbeit. Bei der 285 bringt es kaum etwas den Speicher zu übertakten, sie hängt nur an der Rohleistung.

dildo4u
2014-09-18, 22:14:16
Computerbase testet immer ob sich Speicher OC auswirkt einfach bis Morgen warten.

Ex3cut3r
2014-09-18, 22:14:59
Computerbase testet immer ob sich Speicher OC auswirkt einfach bis Morgen warten.

Amen :up:

Terrarist
2014-09-18, 22:19:49
Hört sich für mich nach "Temporal Supersampling" à la CryEngine-SMAA/UE4 an?

Also MFAA = Multi-Frame AA

Edit: DAS! hier sind die allerinteressantesten Folien:

http://abload.de/img/00326308122jrl.jpg

http://abload.de/img/003263082kgkso.jpg

Auto Asynchronous Warp für die Rift. Bedeutet die gleiche Technologie wie im Samsung Gear VR, nur (anscheinend) seitens der Grafikkarte selbst berechnet. HAMMER!

Jau, Hammer! VR SLI ist auch sehr interessant. Mir tun die leid die sich jetzt für VR noch ne 780Ti oder ne 290 geholt haben, dass ältere Karten das Feature bekommen, davon kann man wohl nicht ausgehen, und ob AMD zeitgerecht mit ähnlichen Features kontern kann?.. hoffentlich.

Mancko
2014-09-18, 22:21:58
Dann müssen sie immer noch eine R9 295X2 übertrumpfen.

Der Stromverbrauch würde schon mal an NV gehen aber das ist nicht alles.

Das hätten sie schon mit GK110 machen können wenn sie wollten. Ich glaube aber, dass Nvidia nicht so sehr den Bedarf hat mit solchen Kühllösungen in den Markt zu gehen. Auf das dementsprechend anhängige Image in Sachen Energieverbrauch und Abwärme haben die mit Sicherheit keine Lust mehr.

Ailuros
2014-09-18, 22:22:20
omg, schon mal etwas von technischem Fortschritt gehört? Technischer Fortschritt ist nicht bei einem 3XXmm² Chip mit jeder Generation ein bereites SI zu verbauen sondern im idealfall das SI klein zu halten und durch eine gute Architektur die Nachteile einen kleinen SIs komplett zu kompensieren.

Und da die GTX980 von der Rohleistung eh nur etwa auf GTX780ti Niveau liegt braucht man dank der Maxwell-Architektur kein 384Bit SI. Das war doch schon seit Ewigkeiten bekannt. (Seit dem GTX 750 Release)
Dieses gejammere ist wirklich dämlich. Ein 50% breiteres SI würde die Karte merklich teurer machen.
Wenn du noch mehr Leistung willst warte bis zum GM200 aber schreib nicht so einen Stuss.

Die R9 285 wird auch nicht durch das SI ausgebremst und ist von dem Speichertakt sogar noch weniger abhängig als dir R9 280X. Da leistet die Architektur auch volle Arbeit. Bei der 285 bringt es kaum etwas den Speicher zu übertakten, sie hängt nur an der Rohleistung.

Es haengt einfach daran dass sehr viele einfach immer noch nicht verstehen KOENNEN oder WOLLEN dass GM204 ein performance chip ist.

Godmode
2014-09-18, 22:23:49
Jau, Hammer! VR SLI ist auch sehr interessant. Mir tun die leid die sich jetzt für VR noch ne 780Ti oder ne 290 geholt haben, dass ältere Karten das Feature bekommen, davon kann man wohl nicht ausgehen, und ob AMD zeitgerecht mit ähnlichen Features kontern kann?.. hoffentlich.

Eventuell rechnet dann eine Karte das linke Bild und die andere das rechte. Wäre jedenfalls wieder ein Grund für SLI. Schade das SFR so suckt, sonst könnte man 4 Karten kombinieren.

samm
2014-09-18, 22:24:22
Mmh, nett, das mit den VR-Features :) Und die Effizienz natürlich. Nun noch ernsthafte Tests abwarten etc., aber wie's derzeit aussieht, hat ein Maxwell-Abkömmling gute Chancen, meine nächste Karte zu werden, auch wenn ich eigentlich auf 20nm warten wollte... :)

Eventuell rechnet dann eine Karte das linke Bild und die andere das rechte. Wäre jedenfalls wieder ein Grund für SLIVor allem, wenn sie es statt mit AFR so lösen können, dass die beiden für die identische Gametime mit Infos von der CPU versorgt werden, und dadurch kein extra-lag verursachen (ok, durch erhöhte CPU-Last weniger fps, aber "asynchrone" Versorgung der Augen wäre definitiv keine gute Sache)

Godmode
2014-09-18, 22:25:45
Es haengt einfach daran dass sehr viele einfach immer noch nicht verstehen KOENNEN oder WOLLEN dass GM204 ein performance chip ist.

Danke, wobei der tolle neue Name 980 FTW dann noch das übrige tut.

ChaosTM
2014-09-18, 22:32:23
..Nils Raettig: Der optische Unterschied zwischen Full HD und 4K ist beeindruckend. Das gilt schon für die extrem scharfen und gut lesbaren Schriften unter Windows (wenn sie denn richtig mitskalieren) und noch mehr für Spiele in Bewegung

Hübie
2014-09-18, 22:33:03
Es haengt einfach daran dass sehr viele einfach immer noch nicht verstehen KOENNEN oder WOLLEN dass GM204 ein performance chip ist.

This!
@Coda: Weil man in vielen Regionen dieser Welt Kohle verdient wenn man schöne buzzwords schnell spricht und dann slides mit *bäm-Effekt* präsentiert. Dafür gibt es einen Namen: Marketing ;)
Wobei die von dir genannte Lösung doch, genau wie TXAA nicht grundsätzlich angewandt werden kann, oder? :|

Ailuros
2014-09-18, 22:43:09
..Nils Raettig: Der optische Unterschied zwischen Full HD und 4K ist beeindruckend. Das gilt schon für die extrem scharfen und gut lesbaren Schriften unter Windows (wenn sie denn richtig mitskalieren) und noch mehr für Spiele in Bewegung

TU mir den Gefallen und spar Dir den OT spam.

ChaosTM
2014-09-18, 22:49:23
TU mir den Gefallen und spar Dir den OT spam.

Ich versuchs.. -> 4k Display(`s) FTW!

Godmode
2014-09-18, 22:59:11
Ich hab irgendwo in einer Folie gesehn das die GM20x ALUs um 40% mehr Leistung liefern als die GK1xx ALUs. Bei GM107 waren das nur 35%. Somit wäre GM2xx nochmal ein Stück effizienter als GM107.

Ailuros
2014-09-18, 23:03:20
Wäre interessant herauszufinden woher die extra 5% kommen.

basix
2014-09-18, 23:04:04
Ich glaube die 40% wurden einfach grosszügig aufgerundet (Marketing). Siehe dazu die Folie mit Performance Vergleich 680 / 780 / 980 --> 1 / 1.5 / 2

AnarchX
2014-09-18, 23:07:49
Wäre interessant herauszufinden woher die extra 5% kommen.
Der Shared Cache ist doch auf 96KiB gewachsen (64KiB @GM1xx): http://www.pcpop.com/doc/pic/003263043.html

Godmode
2014-09-18, 23:14:58
Ich glaube die 40% wurden einfach grosszügig aufgerundet (Marketing). Siehe dazu die Folie mit Performance Vergleich 680 / 780 / 980 --> 1 / 1.5 / 2

Durchaus möglich. Wir werden das morgen in den Perf/Watt Messungen hoffentlich sehen. Ich gehe davon aus das GM204 hier noch stärker ist als GM107, aufgrund von Skalierungseffekten.

memoal
2014-09-18, 23:20:56
Das OC Potenzial ist ja echt mies, aber gut das war bei 1200mhz Takt eigentlich klar.
Endlich weiß ich dass die Karte nicht viel flotter wie meine 290 ist, dann kann ich beruhigt morgen den Test lesen, wann kommt der eigentlich?
Ach, nun bekommt eine Performancekarte die auf Leistungsniveau der derzeitigen Highendgeneration agiert, diese teilweise einholen und überholen kann, mit bis zu 1,4Ghz OC Takt und dann wird auch noch festgestellt sie hätte zu wenig OC Potential.

Ich meine, der Basistakt scheint wohl bei 1126Mhz zu liegen und ich habe schon einen inoffiziellen OC Boostclock von 1449Mhz gesehen, dass sind ganze 323Mhz! Die Frage wird eher sein, wie das erkauft wird, aber das diese Karte mies zu OC sein wird, echt? Kommt von euch wirklich mal was sinnvolles oder logisches! Der Takt liegt dabei in Referenz schon mal 299Mhz höher als bei der alten Generation, also dann sind es insgesamt mit irgendeinem OC 622Mhz, dass gab es noch nicht.

Nvidia muss man wohl vorwerfen, dass der Name nicht unbedingt super gewählt ist und das die 980 anfänglich viel kostet, weil sie eben auch schnell zu sein scheint und man sich das bezahlen lässt, AMD im Übrigen seit Monaten, ob angemessen oder nicht muss man definitiv abwarten.

Der Rest ist doch wirklich nicht nach zu vollziehen! Das macht doch keinen Sinn, wer die Karten nicht will, einfach mal ignorieren, man braucht sich aber nicht selbst lächerlich zu machen.

Der GM204 ist wohl als Ersatz gedacht, für die, die schon länger auf was Neues warten, sicher nicht für 290, 290x, 780, 780ti oder Titanbesitzer. Das war doch schon vorher klar.

Lasst doch bitte mal die Leute hier in Ruhe gegen lesen die sich dafür interessieren. Ist das sowas wie eine Hassliebe? Mensch ihr seit doch eine Community mit gleichgelagerten Interessen und wahrscheinlich zum Teil auch noch eine Spielegemeinde, in der man sich respektieren sollte! Die Vorlieben z.B. bei Auswahl eines Herstellers zählen denke ich auch dazu.

Hübie
2014-09-18, 23:22:20
Der Shared Cache ist doch auf 96KiB gewachsen (64KiB @GM1xx): http://www.pcpop.com/doc/pic/003263043.html

Ich bin mir gar nicht sicher ob das plus an Cache schon allein was ausmacht, denn das bedeutet im Umkehrschluss dass man zuvor stets limitiert war/ist. Da dies aber alles theoretische Angaben sind sag ich mal: schiet drup :smile: Die Leistung einer VecALU kann man nur mit GP Granularität präzise messen. Da funken aber zwangsläufig noch die Vorstufen mit rein. Am Scheduler wurde ja auf jedenfall was verändert. Spannend wirds eh erst mit den whitepapern. Damit meine ich nicht die marketing-whitepaper.

kunibätt
2014-09-18, 23:25:59
Als Besitzer von 2x 670 4GB bin ich mir auch unschlüssig, ob es ein Upgrade oder Sidegrade wäre. In den Fällen wo SLi versagt, ist es natürlich eindeutig.

Godmode
2014-09-18, 23:29:51
Als Besitzer von 2x 670 4GB bin ich mir auch unschlüssig, ob es ein Upgrade oder Sidegrade wäre. In den Fällen wo SLi versagt, ist es natürlich eindeutig.

Single GPU ist fast immer ein Upgrade, auch wenn man das als SLI-Nutzer nicht so gerne hört. Wenn du ein Upgrade machst, würde ich aber gleich wieder zwei nehmen.

kunibätt
2014-09-18, 23:35:32
Hab das SLI eigentlich nur zum Rendern - da bräuchte ich allerdings 8GB um das Upgrade zu nennen. In Games habe ich ehrlich gesagt nicht wirklich was Positives gemerkt,sprich: Framecounter relativ hoch, gefühlt ist es zäh wie meine letzte Mahlzeit.

memoal
2014-09-18, 23:38:33
Also wenn der Preis sich bewahrheitet, würde ich mich schon für so ein SLI der 970 interessieren. Das würde für mich selbst mit den zwei 7950 Sinn machen. Bei unter 300 pro Karte würde ich definitiv zuschlagen.

Terrarist
2014-09-18, 23:50:29
Eventuell rechnet dann eine Karte das linke Bild und die andere das rechte. Wäre jedenfalls wieder ein Grund für SLI.

Bestimmt, würde ja auch Sinn machen da jedes Auge das Bild ja aus einer leicht verschiedenen Perspektive sieht und es letztendlich eh im gehirn des Nutzers bei SBS Stereo zusammengesetzt wird. Könnte ein Schlüssel für relativ sorgenfreie 90FPS @ 1440p Stereo 3D auf Windows sein.

Bin mal auf den NV Event später gespannt, gut möglich dass Carmack dort wieder einen Auftritt hat, bzw. erläutert was es genau mit den Features auf sich hat. Kann mir sogar vorstellen dass dieses Timewarp Feature nur SteamOS exklusiv ist da Windows dort wo der Treiber andockt ein vergleichbares Fifo Realtime feature des Linux Kernels von dem er letztens sprach nicht besitzt, also man sich reibungsloses VR in Windows mit einer zusärtzlichen Graka erkaufen muss ;)

Locuza
2014-09-19, 00:12:51
Hier gibt es ganz schön viel Stuff:
http://www.pcpop.com/doc/1/1040/1040206_3.shtml

MFAA, DSR (Dynamic Super Resolution).
Beide Dinge sind anscheinend Maxwell exklusiv und für DSR braucht man mindestens eine 970.

http://img5.pcpop.com/ArticleImages/0X0/3/3261/003261328.jpg
Also wie vermutet, temporales AA, wo Nvidia noch behauptet es soll bis zu 30% schneller laufen als MSAA.

Nakai
2014-09-19, 00:16:54
MFAA steht für Multi-Frame Sampled Anti-Aliasing. Seh ich das richtig? Man nimmt die Samples von zwei verschiedenen Bildern? Sollte das nicht zu einer Art Ghosting führen, vor allem, wenn die Frames ziemlich niedrig sind? Standbilder sind eine tolle Vergleichbasis...ich will das mal in Aktion sehen.

€:
Also wie vermutet, temporales AA, wo Nvidia noch behauptet es soll bis zu 30% schneller laufen als MSAA.

Ja, genau! Für pixelkleine Änderungen ist temporales Antialiasing nicht schlecht, aber die Umsetzung eines ähnlichen Verfahrens für Kanten-AA will ich erstmal sehen.

aths
2014-09-19, 00:18:58
Etwas wie MFAA hatte ATI schon mal in Entwicklung. Imo für viele Spiele keine sinnvolle Methode. Solange es weiterhin MSAA gibt, und (meinetwegen nur inoffiziell) auch SGSSAA, können die von mir aus auch noch andere Modi anbieten. Je mehr Auswahl, desto besser.

Allerdings macht mir das "30% schneller" Sorgen. Das heißt, dass 2x MSAA gegenüber 4x MSAA 30% schneller ist, also im Umkehrschluss, dass 4x MSAA gegenüber 2x nach wie vor krass reinhaut. Was ich brauche, ist eine Karte die sorglos 4x AA mitmacht.

Hier gibt es ganz schön viel Stuff:
http://www.pcpop.com/doc/1/1040/1040206_3.shtmlLustig dass die SC2-Screenshots haben. Bei dem Treiber den ich draufhabe, ist Treiber-AA für SC2 nicht anschaltbar, man muss mit einem Tool wie dem Nvidia Inspector arbeiten.

-/\-CruNcher-/\-
2014-09-19, 00:19:30
Wenn man die Benches sieht muss man sich fragen wofür überhaupt die GTX 980 der minimale verlust der GTX 970 ist doch ein witz ?
Wenn man das in Relation zum Preisunterschied und Verbrauch nimmt ergibt das keinen Sinn ich war schon immer kein Fan von sollchen Zwischenkarten vor allen wenn die Preise so ausseinander sind und es absolut dagegen spricht die teurere zu bevorzugen das Silicon hätte man sich sparen können und die Segmentation etwas herunterfahren können.

Hübie
2014-09-19, 00:33:50
Ich kanns mir nicht verkneifen, aber heißt es nicht "Segmentierung"? :|

aths
2014-09-19, 00:35:18
Wenn man die Benches sieht muss man sich fragen wofür überhaupt die GTX 980 der minimale verlust der GTX 970 ist doch ein witz ?
Wenn man das in Relation zum Preisunterschied und Verbrauch nimmt ergibt das keinen Sinn ich war schon immer kein Fan von sollchen Zwischenkarten vor allen wenn die Preise so ausseinander sind und es absolut dagegen spricht die teurere zu bevorzugen das Silicon hätte man sich sparen können und die Segmentation etwas herunterfahren können.
Das ist gängige Produkt- und Preispolitik. Ob die hochgetaktete Version nun sofort kommt (wie bei der Geforce 4, die 4600 und die 4400) oder später nachgeschoben wird (8800 Ultra nach der 8800 GTX) es wird Leute geben die bereit sind, für das Beste auch einen Aufschlag zu zahlen.

Zudem stützen sich die Produkte gegenseitig. Die GTX 970 macht weniger Gewinn als die GTX 980, insofern subventioniert die 980 die 970. Die 970 wird dafür aber deutlich mehr verkauft so dass die 970 die 980 subenvtioniert. Und man hat etwas, gegen das man die 970 setzen kann ("fast so schnell wie die Große.") Bei der 970 wiederum werden Entwicklungskosten gespart, da man einen fertigen Chip nimmt und schnell drei SMM abschaltet. Die 980 wiederum hat den Bonus "alles rausgeholt, was drin ist."

Eine Entwicklung, zwei Produkte. Es wäre unklug, eines der beiden einzusparen, weil man entweder mit einem schmaleren Portfolio dastünde, oder sich die Kosten zur Fertigung von zwei unterschiedlichen Chips aufhalsen müsste.

Hübie
2014-09-19, 00:41:05
Ich glaub er bezog sich rein auf das nicht proportionale Verhalten zwischen Mehrleistung und Kosten.

aths
2014-09-19, 00:46:40
Ich glaub er bezog sich rein auf das nicht proportionale Verhalten zwischen Mehrleistung und Kosten.
Das ergibt sich doch aus meinem Posting: Eine Karte zum breiten Verkauf, eine Karte für das Image. Die helfen sich gegenseitig.

-/\-CruNcher-/\-
2014-09-19, 00:50:54
ja aber so gesehen macht für mich die GTX 970 mehr Sinn als wie die kommende GTX 960 auch wenn man den Preis unterschied einkalkuliert


GTX 960 = 250€ vs GTX 970 = 320€ + 70€ (zu release weniger)

GTX 970 = 320€ vs GTX 980 = 520€ + 200€ (fast das 3x)

das eine ist verkraftbar und gerechtfertig das andere ist irsinn

memoal
2014-09-19, 00:55:41
Wer es sich leisten kann wird ja immer die größere Variante nehmen,wobei groß oder größer hier eher die Frage ist. Wenn man die 970 genausogut OC kann, kommt wahrscheinlich an die Leistung der 980 ran. Mal sehen wie das dann mit den Qualitätsmodi aussieht und ob die 980 eher auch für die Profis gedacht ist.

-/\-CruNcher-/\-
2014-09-19, 01:03:35
Ich bin mir sicher das wird die GTX 970 schaffen das war mir schon nach den ersten benchmark leaks klar es geht ja eher nur darum wo die vorteile der mehr anteile von ROPs liegen zwischen den beiden und ob diese den Aufpreis rechtfertigen ?

Die Pixelfüllrate ist doch schon effizienter durch die Compression und der Shaderverlust wird halt durch den Takt ausgeglichen.

Allerdings glaube ich das wir vor allen bei MSAA und DSR die Performance unterschiede beider karten sehen werden.

Wenn man die GTX 760 vs GTX 970 vergleicht da explodiert der unterschied mit dem 2x an Performance und das ist absolut sichtbar und das bei fast dem selben verbrauch einfach krass :)

und hier kommt dann wieder die Radeon 285 ins visier und stellt sich gegen die GTX 970 (und versagt grandios)

GTX 760 = 200€ vs GTX 970 = 320€ + 120€ (allerdings für das 2 fache an performance bei selben verbrauch und +2 GB)

Radeon 285 wären -3 fps bei 230€ und - 2GB

GTX 760 = 12 FPS = 200€
AMD 285 = 15 FPS = 230€ + 3 Fps
GTX 970 = 24 FPS = 320€ + 9/12 Fps
GTX 980 = 28 FPS = 520€ + 16 Fps

+ 3 fps = ~30€
+ 12 fps = ~120€
+ 9 fps = 90€
+ 4 fps = ~200€

Das muss man sich einfach mal wirklich genau anschauen und hirn einschalten ;)

memoal
2014-09-19, 01:42:12
Diesmal ist es eher schwer mit anderen Karten zu vergleichen. Eigentlich wurde die GTX680 ja von der 770 abgelöst, war aber sogesehen auch nur eine optimierte 680 mit höherem Takt. Dazwischen fehlt dann eine komplette Generation. Vielleicht sollte man daher eher 680 vs. 970 und 770 vs. 980 vergleichen. Mir gefällt die Namensgebung nicht so richtig, wenn GM200 noch kommt/käme hätte nV GM204 (ala 970) lieber als GTX960ti vermarkten sollen und die 980 als 970, so dass man dann mit GM200 (lightly) wieder in den 980 Bereich eingestiegen wäre und dann 980ti sowie Titan hätte launchen können. Kommen dann wohl bloss 2 Ableger von GM200? Sagen wir mal GTX980ti und Titan?

Genausogut hätte man GM204 als 970 und 970ti launchen können. Leider hätte man dann erstmal keinen Dopdog ala 980 was preislich sicherlich keine 550$/Euro rechtfertigen würde.

Anderherum macht man es sich einfach und vergleicht einfach 770 vs 970 und 780 vs 980, dann fällt der Zuwachs aber nicht ganz so hoch aus, ist vllt. so gewollt, weil GM200 dann ja auch noch kommt. (kollidiert nur mit @Ailuros Aussage der meint "kein GK110 Ersatz")

Eine 760 müsste ja sogesehen bald an die 670 rankommen bzw. ersetzt diese? Wird dann durch GM206 ala 960 und 960ti ersetzt.

Tonga würde ich hier garnicht in Vergleiche mit einbeziehen, entweder ist der für ein anderes Segment bestimmt, oder da ist irgendwie etwas schief gegangen. Denke eher das erstere trifft zu. Warum nur das große Die bei Tonga?, passt im unterem Segment dann nicht.

-/\-CruNcher-/\-
2014-09-19, 02:47:33
MFAA steht für Multi-Frame Sampled Anti-Aliasing. Seh ich das richtig? Man nimmt die Samples von zwei verschiedenen Bildern? Sollte das nicht zu einer Art Ghosting führen, vor allem, wenn die Frames ziemlich niedrig sind? Standbilder sind eine tolle Vergleichbasis...ich will das mal in Aktion sehen.

€:


Ja, genau! Für pixelkleine Änderungen ist temporales Antialiasing nicht schlecht, aber die Umsetzung eines ähnlichen Verfahrens für Kanten-AA will ich erstmal sehen.

Jep es ist im Prinzip nix anderes wie ein Temporales AA so wie SMAA TX ich wundere mich ob Nvidia hier mit Ubisoft zusammengearbeitet hat ihr Temp AA in den Treiber zu integrieren oder ob es ihre eigene Implementation ist ausserdem wundere ich mich wie das so problemlos in jeder Engine funktionieren soll da bin ich echt gespannt aber durch den Treiber können sie ja exzelent den Framebuffer manipulieren wie sie lustig sind, das haben sie ja extreme oft gezeigt seit NT 6 (WDDM) ;)
Ubisofts TAA liefert in Watch_Dogs schon geile Ergebnisse Perf/Quality mal gespannt auf Farcry 4 :)

Die ganze Präsentation ist Ultra Ubisoft lastig (oh wunder oh wunder) ;)

Akkarin
2014-09-19, 03:41:34
Wann fällt das NDA ?

-/\-CruNcher-/\-
2014-09-19, 04:17:49
Da jensen gerade seine präsentation durchführt sollte es jetzt gefallen sein ;)

http://www.twitch.tv/tglivecam_10

VR direct von 36ms auf 25ms nicht schlecht

ich hatte recht Maxwell ist der Start für GI-Works VXGI :)

Bin mal gespannt wann die Demos Released werden immerhin ist es ne neue Architektur :)

Akkarin
2014-09-19, 04:24:11
Meinte wann reviews raus kommen.

memoal
2014-09-19, 04:34:23
Meinte wann reviews raus kommen.
15:00 Uhr heute...

memoal
2014-09-19, 04:39:15
Hier ist ein Test von der PCGH, taufrisch ;): http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Tests/Test-Geforce-GTX-980-970-GM204-Maxwell-1136157/4/#a2

Akkarin
2014-09-19, 04:41:59
Der Launch ist enttuschend, wurde anfangs zu viel geleakt und jetzt gibts nichts ehr neues interessantes :(

memoal
2014-09-19, 04:45:16
Was? DX FL 11.3 ala 12.0 ist nicht interessant?

Ailuros
2014-09-19, 07:55:53
Was? DX FL 11.3 ala 12.0 ist nicht interessant?

Er meint dass zu viel rausgesickert ist und man beim launch keine grossen Ueberraschungen mehr haben wird.

Persoenlich fuehlt sich fuer mich der launch wie fast jeder launch an; leaks gibt es immer.

----------------------------------------------------------------------

Generell wundert es mich nicht dass die AMD fans staendig etwas suchen um zu meckern, wobei noch nicht mal die eigentlichen zuverlaessigen reviews oeffentlich sind um jegliche Schwachpunkte erstmal zu entdecken. Unter den Umstaenden dass 28nm begrenzt, GM20x auch noch hoechstwahrscheinlich eine neue API Version unterstuetzt und das was NV liefert bleibt abzusehen wann und was AMD genau nachliefern wird. Der Pegel ist alles andere als niedrig und AMD hat genau die gleichen 28nm Begrenzungen wie auch NV, ergo sind Wunder wohl ziemlich schwer zu erwarten. Und es gibt diesmal auch kein "aetschibaetsch Ihr habt kein DX11.2 bullshit" ;)

Ailuros
2014-09-19, 09:27:48
Zurueck zum Thema: verstehe ich Damien Triolet's maschinell uebersetztes Kauderwelsch falsch oder hat auch GM204 nur 4 FP64SPs/SMM?

mczak
2014-09-19, 09:39:44
Zurueck zum Thema: verstehe ich Damien Triolet's maschinell uebersetztes Kauderwelsch falsch oder hat auch GM204 nur 4 FP64SPs/SMM?
Das ist richtig, sieht man ja auch auf den SMM Diagrammen. Warum, hat doch eh jeder erwartet?

Ailuros
2014-09-19, 09:42:43
Das ist richtig, sieht man ja auch auf den SMM Diagrammen. Warum, hat doch eh jeder erwartet?

Schon nur hatten die Sisoft Sandra "Angaben" von 16SPs/SMM ziemlich irre gefuehrt. Fuer 64SPs insgesamt auf GM204 leistet das Ding in FP64 ausgezeichnet.

Godmode
2014-09-19, 09:54:42
Btw. kannst du uns schon sagen wann GM200 nun kommt? Könnte das vielleicht noch was vor Weihnachten werden, falls sie keinen Respin brauchen? Die Zauba Lieferungen von GM204 und GM200 sind ja nur ein 2-3 Monate auseinander, wenn ich mich nicht täusche.

Ailuros
2014-09-19, 10:04:44
Btw. kannst du uns schon sagen wann GM200 nun kommt? Könnte das vielleicht noch was vor Weihnachten werden, falls sie keinen Respin brauchen? Die Zauba Lieferungen von GM204 und GM200 sind ja nur ein 2-3 Monate auseinander, wenn ich mich nicht täusche.

Nach dem Bauchgefuehl die die Zauba Daten geben wuerde ich raten dass 200 keinen spin braucht. Wieso sollte es NV aber mit diesem genau fuer DESKTOP eilig haben?

Loeschzwerg
2014-09-19, 10:05:00
Das würde mich auch interessieren, denn vor November wird es mit meinem Haswell-E System eh nix und falls dann der GM200 schon in Sichtweite ist könnte ich warten.

Edit: Eilig gewiss nicht, dafür müsste AMD erst einmal nachlegen. Also GM200 erst irgendwann ab Mitte 2015?

Ailuros
2014-09-19, 10:12:41
Erinyes prophezeite schon Q1 15' aber nicht fuer welche Maerkte.

Godmode
2014-09-19, 10:36:36
Nach dem Bauchgefuehl die die Zauba Daten geben wuerde ich raten dass 200 keinen spin braucht. Wieso sollte es NV aber mit diesem genau fuer DESKTOP eilig haben?

Weil man den Chip massenhaft produzieren kann? GM200 sollte weit nicht so problematisch sein, wie GK110 zu Anfang. Man könnte das Portfolio nach oben mit 700 - 1000 Euro Karten abrunden. Wenn man vor Weihnachten am Markt wäre, könnte man die Weihnachtskäufe noch mitnehmen, die ja nicht so unerheblich sind.

Ailuros
2014-09-19, 10:40:21
Weil man den Chip massenhaft produzieren kann? GM200 sollte weit nicht so problematisch sein, wie GK110 zu Anfang.

GK110 war nicht problematisch fuer seine Zeit; glaubst Du dass GM200 trotz 28nm mit der Packdichte die ich fuer das Ding erwarte bessere binning yields haben wird?

Man könnte das Portfolio nach oben mit 700 - 1000 Euro Karten abrunden. Wenn man vor Weihnachten am Markt wäre, könnte man die Weihnachtskäufe noch mitnehmen, die ja nicht so unerheblich sind.

Und wieso nicht den gesamten ersten Schub wenn moeglich in Profi-Maerkten verkaufen? Bekommen sie dann mehr oder weniger pro SKU?