PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17

Loeschzwerg
2016-05-17, 17:53:07
:P So ein Blödsinn.^^

Triple Slot, ich bin dabei :uup:

Zum Glück kann ich mir mit meiner Nano alles genüsslich abwarten.

An die 2,5 GHz glaube ich auch nicht mehr. 2,2-2,3 könnten mit Mod-BIOS und anderer Platine wohl möglich sein.

Andere Platine muss es ja nicht sein, einfach die Ref. voll bestücken :) Die Partner haben es da eigentlich recht einfach.

illidan
2016-05-17, 17:55:30
von daher ist halt die Frage, ob ein Modbios, ggf. Wakü und ein wenig Glück wirklich deutlich helfen würden?

Unter Luft wirds wahrscheinlich wesentlich lauter und kaum oder gar nicht spürbar schneller.

Raff
2016-05-17, 17:58:59
Es gibt einige angenehm leise 250-Watt-Grafikkarten (980 Ti), da geht was.

MfG,
Raff

maximus_hertus
2016-05-17, 18:01:13
Unter Luft wirds wahrscheinlich wesentlich lauter und kaum oder gar nicht spürbar schneller.

Und unter Wasser? Wenn der VRAM limitiert, bringt das doch fps-technisch nichts. Lediglich die Lautstärke kann "optimiert" werden, aber sonst?

Ich gehe mal davon aus, dass in der nächsten PCGH eine ausführliche OC Analyse finden werde, die wahrscheinlich dann genau das bestätigt - 10-15% (=> rund 2 GHz GPU Clock) skaliert gut mit ca. 5,5 GHz GDDR5X-Clock. Alles darüber ist mehr oder weniger vergebene Müh und es passiert nur noch wenig in Sachen fps.

Mit etwas Glück landet die dann am übernächsten WE im Briefkasten und ich habe genug Lesestoff ;)

Troyan
2016-05-17, 18:03:59
Kann ein Reviewer den Vulkan-Test ausführen und uploaden: http://vulkan.gpuinfo.org/download.php ?

Und kann ein Reviewer per GPUView einfach mal den AMD-nBody-Test ausführen und überprüfen, ob die Compute-Queue nun gleichzeitig verwendet wird?

Das wäre fantastisch.

Godmode
2016-05-17, 18:06:07
BIOS auslesen wäre auch nett, falls das noch geht.

Woklbokl
2016-05-17, 18:08:40
Über ein Bios würde ich mich auch freuen *hust*
@ Raff schiel

gnomi
2016-05-17, 18:09:37
Die Karte sowie Performance und Features sind soweit prima. =) (+67,5% ggb. 980, 50% ggb. 980 OC in spielbaren 1440P Einstellungen bei hardware.fr) Einzig der Preis ist arg hoch. :O
500 Euro wären Gut, 600 vielleicht noch halbwegs okay. :wink:
Da wurden wohl zu viel Titan und TI Karten gekauft. :down: Sehr schade. :(
Weiß jetzt nicht so recht. (Performance in Quantum Break, Doom und Hitman ohne OC sowie die 8GB Vram sind schon cool muss man sagen)

Kriegsgeier
2016-05-17, 18:11:58
Ab morgen werden die Gebrauchtpreise von GTX980ti ansteigen

MiamiNice
2016-05-17, 18:20:02
Meh, also die Karte ist wirklich weder Fisch und Fleisch. Irgendwie ist alles geil, aber es könnte halt noch viel geiler sein. Eigentlich könnte die Karte ein richtiger Geil-O-Mat sein wenn das PT höher wäre und die NV Kühlung die 100 bucks mehr auch wert wäre.

Also entweder FE kaufen und die alternative Kühlung gleich mit bestellen und auf ein Modbios warten oder auf die Customs oder GP102 warten. Da ich weder warten kann noch will, wird es Option 1 :confused:

Raff
2016-05-17, 18:21:20
Über ein Bios würde ich mich auch freuen *hust*
@ Raff schiel

Das Auslesen/Speichern ist weder mit der aktuellen GPU-Z- noch mit NVflash möglich. Ich probiere es gerne wieder, wenn die Tools kompatibel werden.

MfG,
Raff

dildo4u
2016-05-17, 18:23:14
Schätze mal 1080 Teaser von Gigabyte.


https://mobile.twitter.com/GIGABYTE_USA/status/732317984467734528

scully1234
2016-05-17, 18:25:06
Leider nein, ich suche auch noch.

.

Hier ist ein VR Szenario

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1080-8GB-Founders-Edition-Review-GP104-Brings-Pascal-Gamers/VR-Te


In this translation of the data, we can see that for the evaluated scene, the 980 had just over 30% headroom, meaning that it could theoretically render a scene 30% more complex before its scene render rate drops to 45 FPS. The Fury X sat a little closer to the 980 Ti, which had 64% headroom. The 1080 takes a huge jump over all other cards and could maintain 90 FPS renders with a scene more than twice as complex. More importantly to note here is that the 1080 turned in those numbers *without* Simultaneous Multi-Projection (it is not implemented in SteamVR at the time of this testing).

Ex3cut3r
2016-05-17, 18:32:28
Schätze mal 1080 Teaser von Gigabyte.


https://mobile.twitter.com/GIGABYTE_USA/status/732317984467734528

Schaut ganz ordentlich aus, mal die PCGH Roundup Review im Heft abwarten, auch wenn das noch 2 Monate dauert. ;D

Godmode
2016-05-17, 18:34:53
Schätze mal 1080 Teaser von Gigabyte.


https://mobile.twitter.com/GIGABYTE_USA/status/732317984467734528

Das sind wohl die selben Rotzlüfer die auch auf meinen R9 390 Mining Karten verbaut sind. Bei 2 von 6 Karten klappern die Lüfter.

Mcdave
2016-05-17, 18:40:28
Ich habe nun etliche Reviews durchgelesen (dickes Dankeschön an PCGH, Computerbase, Hardwareluxx, Anandtech und Guru3D) und bin eigentlich ein bisschen enttäuscht. Zugegeben, auch ich war einigermassen gehypt, nachdem von leicht erreichbaren 2.4GHz die Rede war, aber davon ist der Chip (zumindest in der momentanen Form) weit weg.

Der Preis stimmt auch nicht, aber das war angesichts der momentanen Konkurrenzlosigkeit zu erwarten. Gegenüber meiner OC-GTX980 ist der Vorsprung für mich nicht gross genug, weswegen ich auf die grossen Brummer alias Vega und GP102 warte. Da dürfte der Geschwindigkeitszuwachs beträchtlich sein und der Markt dürfte -Konkurrenzdruck sei dank- ebenfalls besser mitspielen.
Ferner möchte ich auch sehen, wie die neuen Architekturen in kommenden Spielen (vor allem BF1 und Mass Effect 4) abschneiden. Daher bleibt mein Portemonnaie vorerst noch zu.

Bringhimup
2016-05-17, 18:41:24
Es gibt einige angenehm leise 250-Watt-Grafikkarten (980 Ti), da geht was.

MfG,
Raff

Spielt hier keine Rolle, dass dann jetzt die Fläche nur noch halb so groß ist?

(del)
2016-05-17, 18:41:29
Das sind die wohl selben Rotzlüfer die auch auf meinen R9 390 Mining Karten verbaut sind. Bei 2 von 6 Karten klappern die Lüfter.

Viele der Boardpartner kaufen den Lüfterkack ja beim gleichen OEM. So gesehen ist es Lotto, denn bis auf die Form der Rotorblätter ist es der gleiche Rotz :)

ChaosTM
2016-05-17, 18:41:58
Es gibt einige angenehm leise 250-Watt-Grafikkarten (980 Ti), da geht was.

MfG,
Raff

Ja, meine Palit (980ti) ist mit ~1200upm kaum aus dem Gehäuse heraus-zuhören bei momentan 1.4ghz. Die Temperatur erreicht dabei keine 70 Grad.

Das Warten auf Vega/GP102 kann beginnen.

Cubitus
2016-05-17, 18:47:56
Also eine Stark Oc TI schafft es gerade mit ach und Krach ein wenig schneller zu sein wie eine Standard 1080 im Ref Design..
D.h auf die Alternativen Designs warten, welche natürlich ein besseres Lüfterkonzept+ mehr Reserven hinten raus haben.

Die Karte bietet doch genau das was zu erwarten war..

Für 980TI user lohnt es sich kaum.. Ist eher ein Sidgrade..
Für 980 GTX User bzw. 970er User lohnt es sich definitiv..

-/\-CruNcher-/\-
2016-05-17, 18:49:27
Gibt es reviews die Speziel auf die GameWorks Performance Steigerungen eingehen ?

Vor allem bei VXGI,Hairworks und Volumetrics ?

VXGI (partly) = ROTR
Volumetrics = Farcry 4/Fallout 4
Hairworks = Witcher 3

MadManniMan
2016-05-17, 18:51:27
Der Preis stimmt auch nicht, aber das war angesichts der momentanen Konkurrenzlosigkeit zu erwarten.

Jap und jap.

Eigentlich krass, dass der ~300-mm²-Chip eine Preisregion zwischen XXX Ti und Titan bewohnt :freak:

Klar haben wir nicht mehr 2011, aber irgendwie wünsche ich mir die Zeiten zurück, in denen der Performancechip in einer neuen Fertigung schneller als die alte Speerspitze und halb so teuer ist ...

VooDoo7mx
2016-05-17, 18:58:00
Ja, meine Palit (980ti) ist mit ~1200upm kaum aus dem Gehäuse heraus-zuhören bei momentan 1.4ghz. Die Temperatur erreicht dabei keine 70 Grad.

Das Warten auf Vega/GP102 kann beginnen.

Meine Palit 980 Ti ist bei 1,4GHz in 4K und 300W verbrauch auf jeden Fall hörbar aus dem Gehäuse. ;) Hab aber auch alles auf silent getrimmt. DIe Karte ist aber selbst dann imemr noch viel leiser als so ein DHE Referenz-Fön-Heisluftgebläse.

@Raff

Ich hab das OC Video bei PCGH gesehen. Danke dafür. Ich frage mich aber warum du die SPannung für die OC Versuche nicht auf Standard gelassen hast. Dann krachst du auch nicht sos chnell ins Powerlimit. Meine Tests haben gezeigt,d ass SPannunsgerhöhung eigentlich nur minimal mehr Takt bringt,d afür aber den Verbrauch/Lautstärke geradzu explodieren lässt.

Woklbokl
2016-05-17, 18:59:15
Boost regelt durch das PT eh runter, von daher ist es egal ob er die Spannung erhöht oder nicht.

Troyan
2016-05-17, 18:59:15
BTW: In The Witcher 3 sieht man sehr schön die neue Delta-Kompression:
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/w3_2560_2.png
http://pclab.pl/art69068-25.html

Deckt sich mit Project Cars:
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/pcars_4k.png
http://pclab.pl/art69068-20.html

scully1234
2016-05-17, 19:01:35
Das sind gute Nachrichten Pcars ist zudem noch ein VR Titel, dann steht DSR unter dem HMD nichts mehr im Wege

-/\-CruNcher-/\-
2016-05-17, 19:04:39
Bei den Wichter 3 Texturen teils auch kein Wunder das da noch gut Komprimiert werden kann ;)

dildo4u
2016-05-17, 19:04:53
PCPer Live! GeForce GTX 1080 Live Stream with Tom Petersen


https://youtu.be/K3DNnEa4cyE


Still employed ;D

Godmode
2016-05-17, 19:08:44
BTW: In The Witcher 3 sieht man sehr schön die neue Delta-Kompression:
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/w3_2560_2.png
http://pclab.pl/art69068-25.html

Deckt sich mit Project Cars:
http://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/pcars_4k.png
http://pclab.pl/art69068-20.html

Warum meinst du liegt das an der DC? Ich hätte gerade bei TW3 an die gesteigerte Tesselationsleistung gedacht.

Skysnake
2016-05-17, 19:08:47
Wie keiner von den "BOAH ALTOORR DAS DING WIRD UNTER LUFTE SOWAS VON AUF 2.5GHz GEHEN MIT STOCK KÜHLERO BOAH EHH"-Leuten jetzt noch was dazu sagt, dass die Karte bei Computerbase selbst mit gelösten Limits eher bei 1,6-1,7 GHz rumeiert, und nicht bei irgendwas auch nur in der Nähe von 2.0+GHz.
:rolleyes:

Man nutzt die zur Verfügung stehende TDP/Leistung halt konsequenter aus. Bezüglich der Effizienz tut sich damit weniger als man denken könnte auf den ersten Blick.

Vor allem der Witz ist ja mal wieder, dass die Leistung dann rüber kommt, wenn man Sie eh nicht braucht, sobald die GPU aber wirklich gut ausgelastet wird, sinkt die Frequenz und damit die Leistung :freak:

So kann man noch geiler die Balken pimpen als mit dem bisheringen Boost.

TurricanM3
2016-05-17, 19:08:53
Hui, das Perf.+ ist schon deutlich in W3 und PCars.

Wie gut oder schlecht die Karten mit Spannung skalieren weiß man wohl auch erst wenn das PT geöffnet wird. Maxwell juckt die Spannung wenig.

Stock sind ~1.06v? Wie weit hoch kann man mit der Spannung denn?

scully1234
2016-05-17, 19:09:49
Tom wieder auf Sendung was wohl heute schief geht:biggrin:

pest
2016-05-17, 19:09:51
BTW: In The Witcher 3 sieht man sehr schön die neue Delta-Kompression:


wäre nur ein noch deutlicherer Hinweis, dass es da an Bandbreite fehlt, die die Kompression, wenn es past, kompensieren kann

Troyan
2016-05-17, 19:10:40
Warum meinst du liegt das an der DC? Ich hätte gerade bei TW3 an die gesteigerte Tesselationsleistung gedacht.

Project Cars wird von nVidia als "Musterbeispiel" für die Verbesserung herangeführt.

-/\-CruNcher-/\-
2016-05-17, 19:10:58
Warum meinst du liegt das an der DC? Ich hätte gerade bei TW3 an die gesteigerte Tesselationsleistung gedacht.

Das Spielt natürlich auch mit rein aber extreme wenige schauen sich eben den Kern an die Reviews langweilen teils alle und bei vielen sind die Setup angaben so wage da kann man nur raten ;)

wäre nur ein noch deutlicherer Hinweis, dass es da an Bandbreite fehlt, die die Kompression, wenn es past, kompensieren kann

Häh man versucht so Kosten der Hardware zu sparen nix anderes immerhin hat man das Research so oder so In House :D

Godmode
2016-05-17, 19:11:15
Ok dass muss ich wohl übersehen haben.

Troyan
2016-05-17, 19:12:29
Ok dass muss ich wohl übersehen haben.

Hier als Gif:
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-1080-REVIEWS/GTX-1080-REVIEWS-7.gif
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72619-nvidia-geforce-gtx-1080-review-5.html

MorPheuZ
2016-05-17, 19:13:06
Kompression hin oder her, wenn die Power auf die Strasse kommt, ist sie da wo sie hin muss!

Godmode
2016-05-17, 19:14:26
Wie keiner von den "BOAH ALTOORR DAS DING WIRD UNTER LUFTE SOWAS VON AUF 2.5GHz GEHEN MIT STOCK KÜHLERO BOAH EHH"-Leuten jetzt noch was dazu sagt, dass die Karte bei Computerbase selbst mit gelösten Limits eher bei 1,6-1,7 GHz rumeiert, und nicht bei irgendwas auch nur in der Nähe von 2.0+GHz.
:rolleyes:

Raff hat ja schon 2 GHz erreicht, aber natürlich mit besserem Kühler. Mit Customkarten und Mods sehe ich schon Potential für 2,2-2,3 GHz. Die 2,5 GHz und noch mehr sind aber wohl eher ein feuchter Traum. :wink:

pest
2016-05-17, 19:17:07
Kompression hin oder her, wenn die Power auf die Strasse kommt, ist sie da wo sie hin muss!

der Einfluss der Kompression auf die Bandbreite ist allerdings ein variabler Faktor der vom Spiel abhängt.

illidan
2016-05-17, 19:17:09
Der hohe Takt wirkt gar nicht mehr so special, mangels anderer signifikanter Verbesserungen (mehr Tess-Leistung, wayne?).
Witcher 3 möcht ich auch erstmal sehen, wie sich die fps im dichten Druidenhain verhalten, Stichwort min-fps.

-/\-CruNcher-/\-
2016-05-17, 19:20:47
der Einfluss der Kompression auf die Bandbreite ist allerdings ein variabler Faktor der vom Spiel abhängt.

Jo und in diesem Bezug hat Nvidia Dice in ihrer Marketing Folie quasi einen Award verliehen mit ihrer BC7 Effizienz ;)

JuergenH
2016-05-17, 19:22:15
Da nicht nur bei GPU-Computing (ich spiele nur selten) offenbar die Memorybandbreite der limiterende Faktor ist, muss ich wohl auf die nächste "Auflage" mit HBM1/2 warten. Auch die niedrigere Leistungsaufnahme hilft da nicht weiter, obwohl im 24/7 Betrieb bei Distributed Computing der Mehrpreis nur kurzfristig eine Rolle spielt.

@Format_C: Auf Seite 3 unter dem Bild "Preemption In VR" " im nächsten Absatz bitte Sekunden in Millisekunden ändern. Ansonsten Klasse Test!

Und noch einen schönen Abend in die Runde - mein erster Beitrag.

Rente
2016-05-17, 19:25:33
Also gleiches Spiel wie bei der GTX980 - mehr Speicher, mit OC schneller als die letzte High-End-Karte, aber der Unterschied ist wieder eher marginal im Schnitt.

Mal schauen was die Custom-Karten bringen, die aktuelle Variante (selbst mit OC) lässt mich aber eher kalt. Da braucht es wohl 2,1 GHz+ und schnelleren RAM...
Ich überspring wohl mal wieder den Perfomance-Chip, wann kommt noch mal GP102? X-D

@Raff
Danke für den Test mit der zusätzlichen 1,5 GHz Titan X, da kann ich direkt vergleichen. ;)

illidan
2016-05-17, 19:26:20
Hoffentlich nach Vega? :freak:

tdon
2016-05-17, 19:31:56
Project Cars wird von nVidia als "Musterbeispiel" für die Verbesserung herangeführt.


Project Cars steht auch auf Bandbreite, da bringt auch schneller DDR4 RAM viel wenn die CPU mehr limitiert. Bei der GPU wird es ähnlich sein, weswegen die Kompression viel bringt.

sulak
2016-05-17, 19:34:59
Hmm warum wird die Karte mit höherem Speichertakt langsamer?
Bisher gab es doch nur Bildfehler oder einen abgesoffenen Treiber, wenn man etwas zuviel Dampf drauf gab.

Hoffe der schnellere GDDR5x kann zeitnah verbaut werden und die Karte wird NICHT nochmal neu aufgelegt. So ne lasche Nummer wie GTX680 auf GTX770 hat man sich die letzten 2 Jahre zum Glück gespart.

Bin auf die Custom Karten und deren TDP gespannt, mit dem 8Pol Anschluss sind nur 250Watt möglich.

BigBang
2016-05-17, 19:36:13
Also gleiches Spiel wie bei der GTX980 - mehr Speicher, mit OC schneller als die letzte High-End-Karte, aber der Unterschied ist wieder eher marginal im Schnitt.

Mal schauen was die Custom-Karten bringen, die aktuelle Variante (selbst mit OC) lässt mich aber eher kalt. Da braucht es wohl 2,1 GHz+ und schnelleren RAM...
Ich überspring wohl mal wieder den Perfomance-Chip, wann kommt noch mal GP102? X-D

@Raff
Danke für den Test mit der zusätzlichen 1,5 GHz Titan X, da kann ich direkt vergleichen. ;)

Irgendwie bin ich auch sehr enttäuscht. Ich habe ne 980ti AMP Extreme die auch auf 1520 läuft und damit gleich schnell ist wie eine 1080 Standard. Effizienz interessiert mich erstmal gar nicht. Das Einzige was mich jetzt noch überzeugen könnte wäre die VR Leistung. Aber selbst dann werde ich wohl auf den Nachfolger warten.
Aber der CB Test ist sehr aufschlussreich

maximus_hertus
2016-05-17, 19:42:27
Hmm warum wird die Karte mit höherem Speichertakt langsamer?
Bisher gab es doch nur Bildfehler oder einen abgesoffenen Treiber, wenn man etwas zuviel Dampf drauf gab.


Vielleicht gibt es ab einem bestimmten Takt einfach schlechtere Timings.

Botcruscher
2016-05-17, 19:44:12
Hoffe der schnellere GDDR5x kann zeitnah verbaut werden und die Karte wird NICHT nochmal neu aufgelegt. So ne lasche Nummer wie GTX680 auf GTX770 hat man sich die letzten 2 Jahre zum Glück gespart.
Nach dem Stunt beim Referenzdesign echt noch solche Träume? Zwischen 1080 und 1090 ist noch so viel Platz. Oder ein 1080TI...
Der Chiptakt der Custom Karten ist dank der Bandbreitenlimitierung doch eh total egal. Bei einem GP102 sieht die Welt mit HBM dann ganz anders aus.

Ex3cut3r
2016-05-17, 19:55:47
Mich erstaunt, eher das hier so viele plötzlich eine 980Ti haben, nicht das sich dahinter in Wahrheit AMD Fanboys verstecken. :naughty:

Merkor
2016-05-17, 20:04:25
Ich bin von den Ergebnissen einigermaßen enttäuscht. Nicht, weil die 1080 langsam wäre, sondern eher, weil die für mich interessantere 1070 in Anbetracht der Ergebnisse offenbar ein zu kleiner Sprung von meiner 970 @ 1500/4001 wäre. Das wäre für 450 Euro ein zu teures Sidegrade, wenn ich mal von dem Speicher absehe, den ich zugegeben für 3440x1440 gut gebrauchen könnte.

Wo bleibt denn die Mittelklasse für ca. 300, wenn die 970 schon nicht mehr produziert wird? Der Sprung zur 960 ist doch viel zu groß. Es sieht ja so aus, als diktiere NVIDIA nach Belieben den Preis angesichts mangelnder Konkurrenz. Wenn NVIDIA also nicht bald eine 1060 für 350 Euro nachschiebt mit 970er-Speed, kann ich mir vorstellen, dass sich die 1070 in diese Preisrregion bewegt.

Klar könnte ich mir eine 1080 leisten, aber irgendwo springt Kollege Ratio dann doch vor den Bestellbutton. Ich bin einfach nicht bereit, 700-800 Euro für eine Grafikkarte zu bezahlen.

Schrumpelratte
2016-05-17, 20:04:57
meine 980ti ist schon verkauft. hätte mir auch ein bisserl mehr bums erhofft. andererseits ist sie halt ziemlich dort gelandet wo ich es vermutet habe. ich hoffe die ersten custom modelle schlagen schnell auf!

Birdman
2016-05-17, 20:04:58
Tolle Karte, die mich in allen technischen Punkten mehr als nur überzeugt.

Nur wenn Nv meint dass sie mir mit so einem unverschämten Preis kommen können und dies dann auch noch mittels des billigen Marketingtricks mit den angeblich günstigeren Partner-Karten rechtfertigen, dann haben sie sich aber geschnitten.
Ich gehe davon aus, dass 75% aller Herstellerkarten preislich noch oberhalb der FounderEdition angesiedelt sein werden (mit natürlich höherem Takt und Co.) und alles andere wird maximal ein paar Dollar darunter sein.

Dumm wird nur sein dass AMD dies sicher geil findet und mit Polaris nun einen vermutlich ähnlichen Stunt abziehen wird - mehr Marge nimmt ja jeder gerne.

sulak
2016-05-17, 20:06:54
Nach dem Stunt beim Referenzdesign echt noch solche Träume? Zwischen 1080 und 1090 ist noch so viel Platz. Oder ein 1080TI...
Der Chiptakt der Custom Karten ist dank der Bandbreitenlimitierung doch eh total egal. Bei einem GP102 sieht die Welt mit HBM dann ganz anders aus.

Der kommt aber erst nächstes Jahr, und kostet sicher noch mehr ;D
Wobei die 980 auch im Preis viel als die Ti raus kam.

Kann mich auch nicht erinnern, wann eine Custom Karte mit schnellerem Speicher als das Refdesign rauskam. Also ohne OC, sondern vom RAM Hersteller schneller spezifizierter Speicher.

Wer im Marketing auf den Titel Founders Edition gekommen ist, gehört geschlagen. Bei MMOs war das bisher die Abzock Variante mit "sieht gut aus, bringt nix" Goodies oder P2W.

Ex3cut3r
2016-05-17, 20:08:38
Wartet doch erstmal die Geizhals Preise ab und bis die eingependelt haben, bei Maxwell war auch die Rede, das die viel teuer werden.

(del)
2016-05-17, 20:11:03
@Format_C: Auf Seite 3 unter dem Bild "Preemption In VR" " im nächsten Absatz bitte Sekunden in Millisekunden ändern. Ansonsten Klasse Test!

Danke, 11 Sekunden wären ja sinnlos :D

dildo4u
2016-05-17, 20:11:52
Wartet doch erstmal die Geizhals Preise ab und bis die eingependelt haben, bei Maxwell war auch die Rede, das die viel teuer werden.

Maxwell war 28nm keiner weiß wie die Yields mit 16nm aussehen.Die zusätzlichen 100$ für die NV Version deutet auf wenige Chips hin.

Korvaun
2016-05-17, 20:13:07
Alles in allem ordentliche Karte, aber ein eher kleiner Schritt mit starker Gewichtung auf dem neuen Fertigungsprozeß inkl. hoher Taktraten.

Mäßiger Ref-Kühler für 789€ ist komplett gaga... wenn ordentliche Custom-Karten für 699€ kommen dann wird die Sache schon interessanter (für alle die keine übertaktete 980ti haben).

Sieht aus als ob NV mal wieder nur das nötigste getan hat, AMD könnte das ausnutzen (sie werdens aber verkacken, wie immer ;) )

MadManniMan
2016-05-17, 20:18:43
Also gleiches Spiel wie bei der GTX980 - mehr Speicher, mit OC schneller als die letzte High-End-Karte, aber der Unterschied ist wieder eher marginal im Schnitt.

Die 980 war dabei aber nicht so scheißteuer ;(

Ex3cut3r
2016-05-17, 20:19:19
Maxwell war 28nm keiner weiß wie die Yields mit 16nm aussehen.Die zusätzlichen 100$ für die NV Version deutet auf wenige Chips hin.

Das weißt du vorher? Die 100$ mehr, sind doch nur zustande gekommen weil Nvidia immer gieriger/abgebrühter wird, dazu tragen auch die ganzen 980Ti und Titan X käufer bei, ja vielen Dank Leute! ;)

Michalito
2016-05-17, 20:19:31
Also, zu dem Preispunkt, über 600€ .. aber jeder wie er mag. Generell, haut mich die Karte jetzt nicht vom Hocker, aber, angesichts der Tatsache das der Chip nur 314mm² groß ist... Respekt, und Freude bei mir. 16FF+ hat richtig Potential. Da kommen noch ein paar feine Sachen. Aber, die 1080 ist im nächsten Frühjahr bei 450+ €... Und mal schauen was der Mitbewerber so auf die Beine stellt, vorher zücke ich sowieso nicht die Börse.

G3cko
2016-05-17, 20:27:21
Find ich lustig. Nvidia ist doch ganz offensichtlich vorgeprescht. Mit der Founders Edition und dem höhren Preis löst man das Problem simple aber effiktiv im Zweifel zu wenig liefern zu können.

AMDs Schachzug ist cleverer und wird auch aufgehen. Nachdem sich alle über die zu hohen Preise aufgeregt haben wird eine 300€ Karte gekauft weil es bei nvidia keine Alternative gibt.

Sobald Nvidia mit einem kleineren Chip kontert, kontert AMD auch schon mit Vega gegen GP104 und das Bild vervollständigt sich. Und gegen den vorgezogenen Start von Vega hat Nvidia nichts in der Hand weshalb man auch so zügig mit dem GP104 auf den Markt wollte.

Nvidia kann mit 800€ Karten sicherlich eher an den Start gehen als AMD mit 300€ Karten. Ein Paperlaunch macht für eine Karte die für den Massenmarkt bestimmt ist wenig Sinn. Bei Nvidia schon, da man mit 800€ nicht den Massenmarkt bedient und dies selbst mit schlechterer Ausbeute durchziehen kann.

TheGood
2016-05-17, 20:28:30
Am Ende geht's doch nur darum sich nicht Abzocken zu lassen. Nichts anders macht Nvidia mit dieser Karte. Sie haben von Apple gut gelernt. Am Ende ist es auch Ihr Gutes Recht und der Erfolg spricht Bände. Am Ende können nur wir Kunden es ggf. wieder ändern oder hoffen dass AMD ein gutes Konkurrenzprodukt bringt, verschenken werden die aber auch nichts.

Nichsdestotrotz hat Nvidia da eine sehr gute Karte präsentiert, dafür kann man Sie nur loben!!!

Bösewicht
2016-05-17, 20:32:51
So wie ich das sehe hat nvidia sein preis am Performance Sprung gekoppelt also geht der in ein paar Wochen eingependelter preis in Ordnung. Ich nehme aber die 1070:redface:

Troyan
2016-05-17, 20:36:45
Also mit Boost 3.0 kann man sich dann Wochen beschäftigen, um die richtigen Frequenzen zu finden:

Currently there are 80 voltage levels, for each of one you can set an individual OC frequency, which would make manual OC extremely time-intensive. That's why NVIDIA is recommending to partners to implement some sort of OC Stability scanning which will create that profile for you.
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/29.html

iuno
2016-05-17, 20:37:37
Tom Petersen hat gesagt, sie erwarten, dass Pascal noch fuer DP1.4 zertifiziert wird, sobald die Infrastruktur da ist. Demnach gibt es offenbar noch kein Zertifizierungsverfahren, Pascal sollte aber nach dieser Aussage schon alle Features unterstuetzen.

pest
2016-05-17, 21:13:02
Eigentlich ein cleverer Schachzug von NV. Der Chip is arg beschnitten, krankt an der Bandbreite und kann trotz allem als Highend verkauft werden. Die Leistung, die sich z.B. jetzt schon in ProjectCars zeigt wird man jetzt Stück für Stück an den Mann bringen :cool:

tdon
2016-05-17, 21:16:05
Ich sage jetzt mal 43% schneller :biggrin:


Keine Ahnung was du von mir willst oder rechnest.

Troyan
2016-05-17, 21:16:39
Boost 3.0 sind toll aus. Endlich sind die Zeiten vorbei, dass der Offset den Treiber crasht, weil die Karte bei geringer Auslastung sich runtertaktet und der Takt mit der Spannung nicht mehr stabil ist.

illidan
2016-05-17, 21:20:33
Als ob das ein nennenswertes Phänomen gewesen ist.

phoenix887
2016-05-17, 21:29:35
Ich kann dir nur meine Meinung sagen: Wenn man eine selektierte 1080 finden würde, die zb. 2500 MHz schafft, dann wäre ein Umstieg interessant. Ansonsten wartet man bis zum großen Chip. Damit hätte man ca. 40% mehr Rechenleistung auf eine Titan X mit 1,5 GHz. Wohl etwas weniger, da der Speicher limitieren wird.



Danke, hab den Link in Post 1 eingefügt.


Auch mein Fazit. Werde mal mal schauen, was eine Ti Version auf die Beine bringt. Oder sogar bis zur nächste Generation. Mir ist das einfach zu wenig, für einen Wechsel meiner Ti@1,53ghz.

War mir aber sowieso klar, bei dem ganzen gehype^^

Ravenhearth
2016-05-17, 21:35:38
Ich sage jetzt mal 43% schneller :biggrin:

Die Gamestar hat dich als Vorbild genommen ;D

tdon
2016-05-17, 21:40:32
http://fs5.directupload.net/images/160517/nqiqekem.png
http://nl.hardware.info/reviews/6740/21/nvidia-geforce-gtx-1080-review-de-nieuwe-koning-benchmarks-project-cars


Das nenne ich mal einen satten Vorsprung. Variiert je nach setting, aber das ist klar.

phoenix887
2016-05-17, 21:42:05
Ohne jetzt alles gelesen zu haben. Warum ist das bei Pcars so extrem? Irgendwelche spezielle Optimierungen ?

uweskw
2016-05-17, 21:42:20
http://www.pcgameshardware.de/Nvidia...deo-1195464/2/ (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/)

Sehe ich das richtig? 1080@Standard zu 1080@MaxOC mit Accelero macht gerade mal 12-13 % mehr FPS aus? Na, ein OC-Meister ist das ja nicht gerade.
Aber für ca.100€ mehr als eine gute Custom 980Ti bekomme ich ca.20% mehr Leistung. Kein großer Wurf, aber auch nicht wirklich schlecht. Hatte mir von dem neuen Vertigungsverfahren jedoch ne ganze Ecke mehr erwartet.

greetz
US

Höhnangst
2016-05-17, 21:42:40
Für 599 wär die Karte top.
Für 699 ist sie nur noch OK.
Aber 799 (789) ist schon recht mau.

Mal sehen, was der Juni und der Juli mit anderen Designs bringen. Sowas wie die Palit GeForce GTX 980 Ti Super Jetstream oder die Inno3D GTX 980 Ti iChill X3 AirBoss würde mir lautstärketechnisch schon super in den Kram passen. Und das ganze für 649 als Kompromiss ... damit könnte ich leben.

Troyan
2016-05-17, 21:44:03
Laut dem PCPer Stream wird eVGA eine Karte für $599 anbieten. Also einfach warten.

illidan
2016-05-17, 21:44:24
http://fs5.directupload.net/images/160517/nqiqekem.png
http://nl.hardware.info/reviews/6740/21/nvidia-geforce-gtx-1080-review-de-nieuwe-koning-benchmarks-project-cars


Das nenne ich mal einen satten Vorsprung. Variiert je nach setting, aber das ist klar.
Haben die der 1080 ne fettere CPU spendiert, oder wie lässt sich die fast nicht vorhandene Skalierung zwischen 980 und Ti erklären?
Ansonsten ist das Spiel einfach seltsam.

Es gibt auch Gegenbeispiele wie Doom:
http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_1080_review,16.html

tdon
2016-05-17, 21:44:49
Ohne jetzt alles gelesen zu haben. Warum ist das bei Pcars so extrem? Irgendwelche spezielle Optimierungen ?


Musterbeispiel für die Delta Kompression: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=11035741#post11035741


Ob es noch andere Gründe gibt keine Ahnung.

illidan
2016-05-17, 21:49:49
Warum sollte es von Delta-Kompression profitieren, nicht aber von einem 50% größeren Interface?

Alfa
2016-05-17, 22:25:36
Also das muss man nvidia schon lassen. Die GTX1080 ist die mit abstand beste Full HD (1080p ) GraKa die es gibt. Aber mal ehrlich war das das Entwicklungsziel ??? 200+ FPS statt 130 FPS unter Full HD? Euer ernst? Und das am besten noch unter DX11.

Ich hätte da lieber 1440P @ max unter DX12 gesehen, ja in 2k16 sollte man auf DX12 benchen und nicht mit ner API die schon die letzten 2 Generationen her halten musste.

Laut CB schafft sie in den wichtigen DX12 Test ( AotS + Hitman ) sich bei 1440P 3-8% vor eine Fury X zu setzen und hier flippen alle aus?

Und ja für 4k langt auch die 1080 noch nicht!

Bin ja mal auf die FullHD leistung von Polaris10 gespannt und die kommentare der 800€ NV Kunden :o)

Gruß Alfa

Dural
2016-05-17, 22:35:13
Sie ist auch unter 4k die beste karte... laut cb 30% schneller als eine stock 980ti oder fury x mit je 600mm2 chips.
Die leistung ist super und deutlich mehr als ich erwartet hätte.

TurricanM3
2016-05-17, 22:37:15
Also mit Boost 3.0 kann man sich dann Wochen beschäftigen, um die richtigen Frequenzen zu finden:

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/29.html


Wichtig sind doch nur die der höchsten Stufe(n), darunter die per offset halt ebenso anpassen. Muss doch nicht alle ausloten. Ich habe die veränderten ~40 wegen der verschobenen Boost Table meiner Ti auch einfach angepasst, quasi die halbe Voltage Table. Läuft 1a.
Ich hoffe man wird das Bios relativ zeitnah bearbeiten können. =)

Thunderburne
2016-05-17, 22:37:49
Ich hätte da lieber 1440P @ max unter DX12 gesehen, ja in 2k16 sollte man auf DX12 benchen und nicht mit ner API die schon die letzten 2 Generationen her halten musste.

Laut CB schafft sie in den wichtigen DX12 Test ( AotS + Hitman ) sich bei 1440P 3-8% vor eine Fury X zu setzen und hier flippen alle aus?

Und ja für 4k langt auch die 1080 noch nicht!

Bin ja mal auf die FullHD leistung von Polaris10 gespannt und die kommentare der 800€ NV Kunden :o)

Gruß Alfa
Only DX12
http://abload.de/img/dx1269u2u.jpg (http://abload.de/image.php?img=dx1269u2u.jpg)http://abload.de/img/unbenanntnwapv.jpg (http://abload.de/image.php?img=unbenanntnwapv.jpg)

http://abload.de/img/unbenannt7puhz.jpg (http://abload.de/image.php?img=unbenannt7puhz.jpg)


OC Session mit Acelero im Video.
PT geht bis 120 =216W 2000MHZ rennt ins PT der Witz bei 1,08V wie süsss.

Geforce GTX 1080 im Test: Der erste 16-nm-König mit 2 GHz im OC-Betrieb (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/)

Ich denke dieses mal wird es das erstmal eine Coustom.

igg
2016-05-17, 22:41:13
.Ich hätte da lieber 1440P @ max unter DX12 gesehen, ja in 2k16 sollte man auf DX12 benchen und nicht mit ner API die schon die letzten 2 Generationen her halten musste.
Egal ob du nun AMD Fanboy oder 980 Ti Besitzer bist: Wenn du ernstgenommen werden willst kannst du evtl. Lautstärke oder Preis kritisieren aber ganz sicher nicht die Leistung!

Alfa
2016-05-17, 22:47:03
@ Thunderburne

jo. Das ist einfach nur schlecht was die da abliefert. Alles unter Standard Monitor refresh ( 60 Hz = FPS ) macht keinen Sinn. Daher ist nach wie vor keine 4K GraKa am Markt.

Und die Tombrider Engine ist ja nur auf DX12 hochgepatcht und das net gescheit. Sieht ja jeder wenn er de Furys mit der 290er vergleicht...

Und diese 90% DX11 Test für ein knapp 800€ Geschoss in 2k16 kann man sich schenken. Da lieber ne 970er im Abverkauf, da stören in FHD auch die 3,5+0,5 GB Speicher net.

Alfa
2016-05-17, 22:50:16
Egal ob du nun AMD Fanboy oder 980 Ti Besitzer bist: Wenn du ernstgenommen werden willst kannst du evtl. Lautstärke oder Preis kritisieren aber ganz sicher nicht die Leistung!

Ich wechsel zwischen den Lagern wie es die Produkte hergeben.
Aktuell is ne Fury verbaut die für 430€ neu gekauft wurde. Davor war es 2x NV.

wenn 3-8% Steigerung kein Anlass zur Kritik sind weis ich auch nicht mehr...

MorPheuZ
2016-05-17, 22:53:08
Ich bin zufrieden mit der gebotenen Leistung. Über den Preis lässt sich wirklich diskutieren. Allerdings kennen wir alle nv und ihre Marktstellung bestens. Das hat nicht nur Vorteile. Ich bin dann für 2017 gespannt wo sich eine 1080ti einordnen soll. Entweder kostet sie dann 900 oder wird bereits als Pascal 2.0 vermarktet. Wie auch immer... für 970er Besitzer ist die 1080 ein fettes Performance Update.

Thunderburne
2016-05-17, 22:54:17
@ Thunderburne

jo. Das ist einfach nur schlecht was die da abliefert. Alles unter Standard Monitor refresh ( 60 Hz = FPS ) macht keinen Sinn. Daher ist nach wie vor keine 4K GraKa am Markt.

Und die Tombrider Engine ist ja nur auf DX12 hochgepatcht und das net gescheit. Sieht ja jeder wenn er de Furys mit der 290er vergleicht...

Und diese 90% DX11 Test für ein knapp 800€ Geschoss in 2k16 kann man sich schenken. Da lieber ne 970er im Abverkauf, da stören in FHD auch die 3,5+0,5 GB Speicher net.
What:freak:
Die GPU ist der Hammer :biggrin:

Das einzige was mir nicht gefällt ist die PT Geschichte und das knapp bemessene Layout zum Aufgerufenem Preis.
Auch wenn ich das später Per Bios Mod aushebeln könnte und von 1,08V in richtung 1,25V gehen will bekomme ich jetzt schon weiche Knie da es Garantiert auf die 300W zu geht.

Ich will nicht wissen wie geil die Coustoms mit höherem PT gehen ;D

Ex3cut3r
2016-05-17, 22:54:36
Muss Igor auf Toms Hardware loben, die Benchmarks und dazu Frametimes sind klasse, außerdem kommt die GTX 1080 bei ihm verdammt gut weg in den Benches. :uponder:

Troyan
2016-05-17, 22:54:44
2000MHz bei 1,08V ist ziemlich beeindruckend. Meine GTX980TI rennt mit 1460MHz und 1,16V...

Thunderburne
2016-05-17, 22:58:12
2000MHz bei 1,08V ist ziemlich beeindruckend. Meine GTX980TI rennt mit 1460MHz und 1,16V...
Meine 980Ti lief mit 1506/1,274V als Ref.@Wakü spitze in der PT waren 385W:biggrin:Mora macht das schon.

kruemelmonster
2016-05-17, 23:06:26
Suche gebrauchte GTX 980 für 200€ oder 980 Ti für 300€ :D

Klingt zur Zeit vllt übertrieben, aber da die alte GTX 670 noch läuft hab ich auch noch paar Monate Zeit.

Dural
2016-05-17, 23:27:07
Nur weil die flaschen bei amd nichts mehr hinbekommen haben wir ja die hohen preise bei nv und intel.

Und ich ahne mit polaris ja nichts gutes... Ich bin immer wider überrascht wie nv mit so wenig änderungen so schnelle chips bauen kann. Das ding ist 30% schneller bei halber Die grösse und 800millionen weniger transistoren als gm200 und erst noch mit 256bit si.

Bösewicht
2016-05-17, 23:35:07
Muss Igor auf Toms Hardware loben, die Benchmarks und dazu Frametimes sind klasse, außerdem kommt die GTX 1080 bei ihm verdammt gut weg in den Benches. :uponder:
bei pcgh auch und die beiden gefielen mir am besten.
der pcgh hätte bisschen mehr Lesestoff haben können der ging zu schnell zu ende.

uweskw
2016-05-17, 23:35:23
Sie ist auch unter 4k die beste karte... laut cb 30% schneller als eine stock 980ti oder fury x mit je 600mm2 chips.
Die leistung ist super und deutlich mehr als ich erwartet hätte.

Nachdem wir so lange auf den Techologie-Sprung gewartet haben, finde ich es bescheiden wenn nur 20% Performance Zuwachs bei rum kommen. Laut, heiß und auch noch 100€ teurer.
Die wollen es mit der 16/14nm Architektur offensichtlich gaaaanz langsam angehen lassen. Nur nicht zu viel auf einmal. Die soll ja laaaange ausgequetscht werden:freak:

greetz
US

Menace
2016-05-17, 23:39:15
Nur weil die flaschen bei amd nichts mehr hinbekommen haben wir ja die hohen preise bei nv und intel.

Und ich ahne mit polaris ja nichts gutes... Ich bin immer wider überrascht wie nv mit so wenig änderungen so schnelle chips bauen kann. Das ding ist 30% schneller bei halber Die grösse und 800millionen weniger transistoren als gm200 und erst noch mit 256bit si.

Erstaunlich, wie man (obwohl AMD den Preis nicht vorgibt) es trotzdem schafft, AMD die Schuld für den hohen Preis für nvidias Grafikkarten zu geben. Dabei ist die Rechnung eigentlich viel einfacher: Angebot bestimmt die Nachfrage. € Nachfrage bestimmt den Preis. Wenn niemand die 1080 für den Preis kauft, wäre nvidia gezwungen den Preis zu senken. Aber für so "komplexe" Zusammenhänge fehlt wohl die Brise "Schuld ist immer der andere". :freak:

Ex3cut3r
2016-05-17, 23:45:43
bei pcgh auch und die beiden gefielen mir am besten.
der pcgh hätte bisschen mehr Lesestoff haben können der ging zu schnell zu ende.

Ja, PCGH war auch gut, nur da hat der Vergleich mit OC Karten der alten Generation gegen neue 1080 ohne OC gestört, war imo nicht ganz fair. Aber sonst guter Test. (Ja und ich weiß das weiter unten ein paar (2 Games) 1080 OC benches dabei waren)

MFG

Ätznatron
2016-05-17, 23:50:22
Ja, PCGH war auch gut, nur da hat der Vergleich mit OC Karten der alten Generation gegen neue 1080 ohne OC gestört, war imo nicht ganz fair. Aber sonst guter Test. (Ja und ich weiß das weiter unten ein paar (2 Games) 1080 OC benches dabei waren)

MFG

Und gerade diese beiden OC-Benches lassen Schlimmes erahnen.

bnoob
2016-05-17, 23:54:19
Ja, PCGH war auch gut, nur da hat der Vergleich mit OC Karten der alten Generation gegen neue 1080 ohne OC gestört, war imo nicht ganz fair. Aber sonst guter Test. (Ja und ich weiß das weiter unten ein paar (2 Games) 1080 OC benches dabei waren)

MFG
Schauen wir erstmal was in der Print-Ausgabe alles steht.

dildo4u
2016-05-17, 23:54:51
Partner Karten sollen direkt zum Launch kommen.

http://www.hardocp.com/news/2016/05/17/nvidia_gtx_1080_founders_edition_early_adopter_tax_goes_away#.VzuSiExkiUk

ChaosTM
2016-05-18, 00:07:38
Partner Karten sollen direkt zum Launch kommen.

http://www.hardocp.com/news/2016/05/17/nvidia_gtx_1080_founders_edition_early_adopter_tax_goes_away#.VzuSiExkiUk

Scheinbar gibt es doch genug Karten Chips. Dadurch könnten die Preise früher als erwartet sinken.

BlacKi
2016-05-18, 00:22:00
die meisten stört nur der preis und das lässt sich ziemlich einfach erklären.

1. ist das die Xtra teuro FE!
2. ist der euro nix mehr wert!
3. die karte ist noch nichtmal erschienen und es gibt keine konkurenz die für kampfpreise sorgen könnte.

also lasst doch bitte die diskussionen sein das 790€ für die karte zu teuer sind... einfach lächerlich.

ich erwarte die customs für 650-700€ ende juni, wenn man bedenkt das der euro nicht mehr wert wird, ist das ein preis der im vergleich zum vorgänger I.O. geht. NV hat schließlich nicht mehr als 9% den preis aufgeschlagen, für den man ja schließlich auch den brandneuen gddr5x speicher erhält.

eigentlich darf doch aber niemand von der leistung enttäuscht sein, es sei denn er hatte abstruse vorstellungen die die karte unmöglich einhalten konnte. die karte trifft 100% das was ich erwartet habe, wenn man den sprung der 980 von der 780ti mit dem sprung von der 980ti auf die 1080 vergleicht dürfte man sogar positiv überrascht sein, denn der sprung der 1080 ist etwas größer.

OC takt: prozentual eigentlich genau so hoch wie bei der 980.
Max takt hat die 980 prozentual ca 33% draufgepackt, wenn man 1500mhz als max takt annimmt. umgerechnet wären das 2,3ghz bei der 1080. kann mir jemand sagen welche 980 mit referenzdesign 1500 gepackt hat ohne bios mod? garkeine! so werden wir später wohl ebenfalls die 2,3ghz auf der 1080 sehen, bestimmt auch ein paar ausreisser mit 2,4 oder gar 2,5ghz.

wenn ich jetzt die karte im juni/juli kaufen würde, dann hätte ich sicherlich eine weile ruhe. kommend von einer 970 ist die 1080 schon ein riesensprung. reicht mir die 1080? eigentlich wollte ich diesmal den großen chip kaufen. aber wenn ich es recht betrachte kommt die ti nicht anfang 2017, eher mitte 2017. eigentlich will ich ungern mit meiner lahmen 970 die rift und auch bald einen neuen 21/9 monitor füttern. die titan version von pascal wird bestimmt fett, aber geht sicherlich auch fett in den geldbeutel. endgültig habe ich derzeit noch keinen plan was ich mache, aber eine 1070 (falls sie auf meinen 970 wakü block passt) könnte man bis mitte 2017 vorrübergehend ebenfalls in betracht ziehen.

was meint ihr?

Ex3cut3r
2016-05-18, 00:30:12
was meint ihr?

Warten kann man immer, aber dann wartet man ewig, ich wechsele von der GTX 770 auf die 1080, das wird ein Sprung! :biggrin:

Ätznatron
2016-05-18, 00:35:19
was meint ihr?

Alles, was jemanden von einer unsäglichen GTX 970 wegbringt, ist zu begrüßen. Aber mehr als € 550,- wäre es mir nicht wert.

Übrigens: Der Euro steht mittlerweile wieder immer besser gegenüber dem Dollar!

BlacKi
2016-05-18, 00:39:07
noch krasser finde ich den vram sprung. aber das dauert auch bei der 1080 nicht lange, dann stehen wir mitte nächstes jahres dort wo die 980 jetzt mit ihren 4gb steht. aber bei 3,5gb zu bleiben ist halt auch keine alternative. hast du sicher mit der 770/2gb auch gemerkt.

Alles, was jemanden von einer unsäglichen GTX 970 wegbringt, ist zu begrüßen. Aber mehr als € 550,- wäre es mir nicht wert.

Übrigens: Der Euro steht mittlerweile wieder immer besser gegenüber dem Dollar!
sehe ich nicht so. wir krebsen seit einem jahr bei +- 1,1 als die 980 rauskam standen wir bei 1,3. hätten wir 2014er wechselkurse könnte man die FE unter 650€ haben!

mit meiner 970 hab ich soweit keine probleme, eine 1070 mit 7/8gb würde ich wenn günstig wiederkaufen. fernab der 3,5gb fand ich ja die 12,5% geringere bandbreite viel schlimmer!

Mr.Magic
2016-05-18, 00:50:33
eigentlich darf doch aber niemand von der leistung enttäuscht sein, es sei denn er hatte abstruse vorstellungen die die karte unmöglich einhalten konnte.

4K@60FPS finde ich nicht überzogen. Dafür finde ich verdächtig, dass meistens ~33% Leistung fehlen, damit man dafür SLI benötigt.

BlacKi
2016-05-18, 00:54:19
4K@60FPS finde ich nicht überzogen. Dafür finde ich verdächtig, dass meistens ~33% Leistung fehlen, damit man dafür SLI benötigt.
kannst ja mal bei amd fragen;D

das ist der kleine (314mm²) chip, ich halte, unter den bekannten daten die vorher bekannt wurden, 4k/60hz schon etwas technikfremd.

Ex3cut3r
2016-05-18, 01:11:52
noch krasser finde ich den vram sprung. aber das dauert auch bei der 1080 nicht lange, dann stehen wir mitte nächstes jahres dort wo die 980 jetzt mit ihren 4gb steht. aber bei 3,5gb zu bleiben ist halt auch keine alternative. hast du sicher mit der 770/2gb auch gemerkt.


Die 2GB waren wirklich der über Fail, hätte ich bloß damals (Sommer 2013) zur 4GB gegriffen, aber die 50€ aufpreis waren mir zu viel :facepalm: Naja nochmal mache ich nicht diesen Fehler nicht. :biggrin:

Aber finde die 8GB diesmal wirklich einigermaßen großzügig von Nvidia, hatte schon schlimmeres befürchtet z.B das die 1080 nur mit 6GB (ging wohl nicht wegen 256 Bit Si) kommt, die 8GB sollten schon diesmal ausreichend lange halten.

MFG

BlacKi
2016-05-18, 01:17:47
Aber finde die 8GB diesmal wirklich einigermaßen großzügig von Nvidia, hatte schon schlimmeres befürchtet z.B das die 1080 nur mit 6GB (ging wohl nicht wegen 256 Bit Si) kommt, die 8GB sollten schon diesmal ausreichend lange halten.


sehe ich anders, als die 980 kam, konnte man keine 4gb voll machen, 8gb kann man jetzt schon ̶f̶̶a̶̶s̶̶t̶ voll machen.

BlacKi
2016-05-18, 01:28:57
Echt, in welchem Spiel? OT

Sry Godmode. ^^


naja, an den haaren herbeigezogene black ops 3, ohne negative auswirkungen.

und hier fast.

https://youtu.be/qThAh-ArezQ?t=585

https://youtu.be/I0Bz0ebSdHI?t=161

Ex3cut3r
2016-05-18, 01:41:38
Ok Black Ops 3 stimmt, zocke aber seit Modern Warfare 1 kein Cod mehr.

GTA 5 verbraucht da schon viel, aber von 8GB ist man doch weit entfernt.

Und Mordor hat überhaupt kein Texture Streaming, das wurde auch 16GB VRAM vollknallen. ^^
Dazu passt der hohe VRAM Verbrauch sowieso nicht zur Optik, da höchstens durchschnitt.

Cubitus
2016-05-18, 02:13:26
Nochmal das ist ein Chip in 16nm gefertigt..
Dieser Sprung von 28nm weg, bei dieser Packdichte ist gewaltig
Glaube das ist Einigen hier noch nicht so ganz klar..

Chips mit kleinen Halbleiterstrukturen haben zuerst immer den Nachteil, das sie schwer und nur mit viel Aufwand herzustellen sind.
Die dazu notwendigen Fabriken erfordern mehrjährige Planung und Aufbau bzw. Umrüstung.

Zudem, bei dieser krassen Dichte musste Nvidia/TSMC erstmals die Leckströme in den Griff bekommen und einen Sweetspot beim Takt finden,
dafür ist natürlich das PCB verbessert worden. Ja diesmal nicht aus Marketingzwecken, damit es sich geschmeidiger liest, nein es war wirklich nötig ;(
Also ihr könnt euch sicher sein, das die Entwicklung von Pascal einen extra Haufen Kohle kostete..
Das Problem der Leckströme ist eigl ein sehr alter Hut, nur ist es heute so aktuell wie nie..

Klar könnte Nvidia sicherlich noch ein paar Euros weniger verlangen, aber das brauchen Sie nicht, weil es der Markt nicht erfordert.
ATM ist die 1080 einfach die schnellste Karte..

Bzgl Vram:
TomRaider z.b liebt den VRAM in hohen Auflösungen und mit Ultra Texturen..
Es wird sicherlich zukünftig irgendein AAA kommen welche auch für die 8GB eine Verwendung hat... Ob das effizient ist, steht auf einem anderen Blatt..

Virtual
2016-05-18, 02:31:01
Nicht schnell genug für 4K, mehr als schnell genug für HD, also nicht Fisch und auch nicht Fleisch. Ebenso der aufgerufene Preis, viel zu viel für eine nur Highend-Karte, die das eine nicht richtig, das andere zu gut kann. Naja, verlangen kann man ja viel, aber wer hier nicht auf das volle Portfolio von NV und AMD wartet, der ist entweder hörig, emotional vollständig ohne Kontrolle oder hat es einfach zu dick in der Brieftasche. Mir auch egal, jedoch für solches 16nm Mittelmaß gebe ich kein Geld aus.

Cubitus
2016-05-18, 02:46:46
Nicht schnell genug für 4K, mehr als schnell genug für HD, also nicht Fisch und auch nicht Fleisch. Ebenso der aufgerufene Preis, viel zu viel für eine nur Highend-Karte, die das eine nicht richtig, das andere zu gut kann. Naja, verlangen kann man ja viel, aber wer hier nicht auf das volle Portfolio von NV und AMD wartet, der ist entweder hörig, emotional vollständig ohne Kontrolle oder hat es einfach zu dick in der Brieftasche. Mir auch egal, jedoch für solches 16nm Mittelmaß gebe ich kein Geld aus.

Nochmal es wird nie wieder wirklich billiger gewöhnt euch dran... Je mehr Transistoren, je kleiner die Strukturbreite, je mehr Takt,
desto teurer wird es.. Besonders zu Anfangs, 16nm ist ein Novum im GPU Bereich..

Klar, dazu kommt jetzt natürlich der Founders Aufpreis.. Bzw. early Birds sind eh immer die Deppen, war schon immer so..
Nvidia kann zusätzlich noch was extra verlangen weil es aktuell die schnellste Serien GPU der Welt ist.. Von AMD kam ja noch nichts..

Ich prophezeie schon einmal 999 Dollar für das Dickschiff ;) Und damit meine ich jetzt nicht die Titan ^^

Kartenlehrling
2016-05-18, 03:14:39
Nvidia kann zusätzlich noch was extra verlangen weil es aktuell die schnellste Serien GPU der Welt ist.. Von AMD kam ja noch nichts..

Laut PCGH.de ist aber die RadeonPro die Schnellste Grafikkarte mai.2016, wenigsten in 6 von 8 Benchmarks in der Auflösung von 1440p schlägt sie die Ten80.

Ravenhearth
2016-05-18, 03:23:31
AFR zum doppelten Preis und nur 4GB pro GPU. Das ist doch keine ernsthafte Alternative.

Cubitus
2016-05-18, 03:28:17
Serien GPU, keine GPUs und schon gar keine Dual Karte.:rolleyes:

Und bei den zwei anderen Benches hat Crossfire gar nicht funktioniert.. ;D
Deswegen gab es da auch keinen Rekord ^^

Mr.Smith
2016-05-18, 04:33:13
Solang nVidia seine Preispolitik und Geschäfsgebaren nicht ändert, werd ich bei Grafikkarten bei AMD bleiben..
Ich bin kein Fanboy, aber zuviel proprietär und schlechtmachen von anderen sowie kundenverarsche ...

Mr. Lolman
2016-05-18, 06:11:18
außerdem kommt die GTX 1080 bei ihm verdammt gut weg in den Benches. :uponder:

Ja, das ist natürlich schon lobenswert. :confused:

(del)
2016-05-18, 06:23:21
Ja, das ist natürlich schon lobenswert. :confused:Unterstellst Du uns da was?

Man muss schon mal selbst querlesen und ALLE Benchmarks anschauen. In manchen sieht es nämlich gar nicht so rosig aus. Allerdings haben wir versucht, nicht irgendeine Standard-Suite durchzupeitschen, um den Benchmarkaufwand zu sparen, sondern die Spiele bewusst paritätisch ausgewählt und alles komplett neu durchlaufen lassen. Dass sich das dann von einigen anderen Ergebnissen im Internet unterscheidet, so what?

Tobe1701
2016-05-18, 06:31:53
Warten kann man immer, aber dann wartet man ewig, ich wechsele von der GTX 770 auf die 1080, das wird ein Sprung! :biggrin:
Ich wechsle von einer GTX 670 :freak: Bin mir aber auch noch unsicher, erstmal noch gepflegt abwarten was die Customs leisten/kosten und wie sich die 1070 am Ende positioniert. So lange gewartet und bei den Preisen, da stören ein paar (Sonnen)Tage mehr auch nicht. Doom wird ja nicht weglaufen. Außerdem stört mich das sich bei den G-Sync Monitoren so wenig tut, möchte ja auf 1440p wechseln. Am Ende wird es doch noch AMD :rolleyes:

(del)
2016-05-18, 06:38:16
Doom wird ja nicht weglaufen.Mit Sicherheit nicht. Und bis dahin ist es dann hoffentlich auch gepatcht. Mich kickt es in der Gießerei an einer Stelle immer auf den Desktop :(

Gimmick
2016-05-18, 06:39:26
Die Referenzkarte verhält sich ja, abgesehen von ein paar Ausreißern nach oben und unten, so wie man das im Wesentlichen erwartet hat.

Wie ist das denn mit den neuen Decoder Features, funktioniert das automatisch mit dem aktuellen Treiber?

Mr. Lolman
2016-05-18, 06:43:57
Unterstellst Du uns da was?


Nein:

Muss Igor auf Toms Hardware loben, die Benchmarks und dazu Frametimes sind klasse, außerdem kommt die GTX 1080 bei ihm verdammt gut weg in den Benches. :uponder:


EDIT: Hast du die Karte vorgewärmt, oder die Benchmarks direkt laufen lassen? Nachdem man in Metro nach 12min nur mehr ~1650MHz hat, schauts da fps-technisch idF wahrscheinlich auch ganz anders aus, als mit einer kühlen Karte.

(del)
2016-05-18, 06:52:24
Nein:Die Verwendung von bestimmten Smileys impliziert dies aber. Also die Summe von Text UND Bild :P

EDIT: Hast du die Karte vorgewärmt, oder die Benchmarks direkt laufen lassen? Nachdem man in Metro nach 12min nur mehr ~1650MHz hat, schauts da fps-technisch idF wahrscheinlich auch ganz anders aus, als mit einer kühlen Karte.
Hättest Du den Artikel wenigstens mal gelesen.... Du bekommst sogar noch den Temperaturverlauf samt fallender Taktraten auf dem Silbertablett serviert. Die Karten werden bei uns NUR aufgewärmt genutzt und der erste Run aus einem Loop entfällt bei der Bewertung sowieso. Außerdem ist der Takt z.B. in Metro schon nach drei Minuten unten, nicht erst nach zwölf.

http://media.bestofmicro.com/W/3/581763/gallery/01-Clock-Rate_w_600.png

http://media.bestofmicro.com/W/2/581762/gallery/03-Temperatures_w_600.png

Ich reiße mir ja auch noch den Arsch auf, um einigermaßen gleichbleibende Umgebungstemperaturen hinzubekommen :)
Metro lief in 4 Loops, wobei der erste immer rausfiel. Bei anderen Spielen ist es ähnlich.

Nightspider
2016-05-18, 06:56:53
Hier ist ein VR Szenario

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1080-8GB-Founders-Edition-Review-GP104-Brings-Pascal-Gamers/VR-Te

Wow, das sieht doch mal sehr gut aus! Danke! :)


82 fps in pcars in 4k @Ultra ist nicht übel. Immerhin 78% vor einer default 980.
http://fs5.directupload.net/images/160517/2q7gwlkf.png
Ich sage jetzt mal 43% schneller :biggrin:
Keine Ahnung was du von mir willst oder rechnest.
Die Gamestar hat dich als Vorbild genommen ;D
;D
Wartet ich erklärs euch: Hübie rechnet die Prozentuale Leistung der 980 im Vergleich zur GTX1080 (als Basis) aus (=56,6%) und zieht diese Prozentzahl dann von den 100% der GTX1080 ab. Das ist Hübie'sche Prozentrechnung. ;D

Was er eigentlich sagen sollte wollte: Die GTX980 ist 43% langsamer als eine GTX1080. Dann hätte er auch Recht.

2000MHz bei 1,08V ist ziemlich beeindruckend. Meine GTX980TI rennt mit 1460MHz und 1,16V...
Oh wow, ein neuer Fertigungsprozess benötigt weniger Spannung, wie beeindruckend. :freak: ;)
War ja auch voll klein der Sprung von 28nm auf 16FF. :D
die meisten stört nur der preis und das lässt sich ziemlich einfach erklären.

1. ist das die Xtra teuro FE!
2. ist der euro nix mehr wert!
3. die karte ist noch nichtmal erschienen und es gibt keine konkurenz die für kampfpreise sorgen könnte.

also lasst doch bitte die diskussionen sein das 790€ für die karte zu teuer sind... einfach lächerlich.

Ja da bin ich absolut deiner Meinung. Einige hier können scheinbar nicht weiter als bis zum Tellerrand schauen.

Nicht schnell genug für 4K, mehr als schnell genug für HD, also nicht Fisch und auch nicht Fleisch.

Ja genau die schnellste derzeit erhältliche Karte ist nicht schnell genug für 4K. :facepalm:

Mr. Lolman
2016-05-18, 06:57:15
Das ist einfach nur der confused Smiley - da die Argumentation für mich ziemlich unschlüssig wirkte. Und nun trink mal eine warme Milch und beruhig dich wieder. :biggrin:

(del)
2016-05-18, 06:58:42
Und nun trink mal eine warme Milch und beruhig dich wieder. :biggrin:Ich H.A.S.S.E Milch!!!!!!!!!!!!!!!!!! Espresso FTW.
Dann trinke ich lieber Wasser, ist teurer :D

Mr. Lolman
2016-05-18, 07:03:49
Die Verwendung von bestimmten Smileys impliziert dies aber. Also die Summe von Text UND Bild :P


Hättest Du den Artikel wenigstens mal gelesen.... Du bekommst sogar noch den Temperaturverlauf samt fallender Taktraten auf dem Silbertablett serviert. Die Karten werden bei uns NUR aufgewärmt genutzt und der erste Run aus einem Loop entfällt bei der Bewertung sowieso. Außerdem ist der Takt z.B. in Metro schon nach drei Minuten unten, nicht erst nach zwölf.

http://media.bestofmicro.com/W/3/581763/gallery/01-Clock-Rate_w_600.png

Nach 3min ist er bei ~1700MHz und nach knapp 15 bei ~1600MHz. Die Stelle im Text, wo du schreibst wie lang du vorgeheizt hast und mit welcher GPU-Temperatur die Karte an den Start geschickt wurde, hab ich leider übersehen.

Ich H.A.S.S.E Milch!!!!!!!!!!!!!!!!!! Espresso FTW.
Dann trinke ich lieber Wasser, ist teurer :D

Pfff, du Bobo. Ok, ich mags ausserhalb vom Kaffee eigtl auch nicht. Aber gegen einen gut gereiften Käse hab ich nix einzuwenden.

(del)
2016-05-18, 07:08:41
Nach 3min ist er bei ~1700MHz und nach knapp 15 bei ~1600MHz. Die Stelle im Text, wo du schreibst wie lang du vorgeheizt hast und mit welcher GPU-Temperatur die Karte an den Start geschickt wurde, hab ich keider übersehen.Warum muss man das überhaupt jedes Mal explizit reinschreiben, wenn es eigenlich seit Jahren zum logischen Standard gehört? Die Seite mit dem Setup kam diesmal von den Amis, die interessieren solche Dinge leider nicht im Detail, weil sie per se vorraussetzen, dass der Reviewer weiß, was er macht. ich verweise bei den Tests normalerweise immer auf unsere zugehörigen Grundlagenartikel, wo transparent drinsteht, wie wir messen und warum das so ist. Diese Links mag der nordamerikanische Verbraucher aber nicht, weil ihm das alles zu kompliziert ist. Da wird immer alles geflattet. :)

Käse <> Milch. Das ist proceeded food und lecker. Der Begriff ist hilfreich, auch in Taipeh am Zoll. Letztes Jahr hatte ich 3 Kilo Käse und 5 große Salamis im Gepäck. Bestechungsobjekte für meine asiatischen Freunde. Die haben dort nämlich Hunde, die nicht nur auf Drogen getrimmt sind. Ergo diesmal Flug gebucht, der gegen 04:00 morgens ankommt. Da schlafen alle :D

Übrigens zu Metro LL und einigen anderen Spielen:
Manche sollten mal ihren Unterbau überprüfen, weil diese Karte leider nur oft genug von der CPU limitiert wird. Deshalb auch keine 1080p-Benchmarks, weil das alles schon reichlich verzerrt. Ich habe mit einem Core i7 *piep*950X @4.*piep* GHz noch mal ordentliche FPS-Sprünge rausholen können. Ist aber nicht massenkompatibel :D

Korvaun
2016-05-18, 07:27:53
Laut HardOCP kommt ja jetzt die Founders Ed. und die Custom-Karten beide am 27.5.:

http://www.hardocp.com/news/2016/05/17/nvidia_gtx_1080_founders_edition_early_adopter_tax_goes_away#.Vzv8QTUyo_W

Ist da schon irgend etwas bekannt in Richtung Preise? Was wird wohl z.b. ne Palit 1080 Super Jetstream kosten? Die 980 Super Jetstream war bisher die absolut leiseste und problemloseste Karte die ich je hatte...

Mr. Lolman
2016-05-18, 07:36:10
@Format_C: Najo, für so Leute wie mich, die nur mehr Zeit haben den Markt am Rande beobachten zu können und bloß bei der Krönung eines neuen Königs sich wieder ihrer Wurzeln bewusst werden, ist so ein Hinweis schon praktisch. ;)

Zolltechnisch sind da manche Länder schon heikel. Mein letztes Zollerlebnis hatte ich in Deutschland. Da hats ein Freund von mir tatsächlich geschafft unverschweißten kubanischen Rum in Tetrapaks (0.2l) durch die Kontrolle zu bringen indem er sein ganzes Technikequipment mit unzähligen Kabeln übers illegale Objekt drapiert hat und auf die Frage ob er Computerzeug oder Flüssigkeiten bei sich hat, einfach auf die Kiste gedeutet hat und gemeint hat: "Alles da drin." :smile:

Bezüglich CPU-Limit*: Der Verzicht auf 1080p wird eh niemanden stören, schätz ich mal. Wär auch das falsche Anwendungsszenario für die 1080 (Hihi, AMD sollte ihre nächste Karte 2160 nennen).

*In dem Zusammenhang find ichs ziemlich schad, dass DX12 nicht mehr in die Gänge kommt. Manche Spiele (und AMD sowieso) hätten das bitter nötig.

Nightspider
2016-05-18, 07:40:33
Hier haben doch so viele wegen einem Bandbreiten-Problem rumgejammert, HardwareLuxx schreibt das es keines gibt:

Auch wenn unsere GeForce GTX 1080 bereits ohne manuelles Zutun einen Boost-Takt von 1.825 MHz in der Praxis erreicht, so waren wir dennoch gespannt, ob sie auch die 2-GHz-Grenze wird knacken können, die uns von NVIDIA selbst vor die Nase gehalten wurde. Und tatsächlich, ohne große Probleme konnten wir die Karte mit mehr als 2.000 MHz GPU-Takt arbeiten lassen. Dazu bemühten wir natürlich das EVGA Precision Tool und setzten einmal mehr das Powertarget auf das Maximum, um ausreichend Spielraum bei der Spannungsversorgung zu haben. Danach tasteten wir uns im Manual Mode an den höchsten Takt für die maximale Spannung von 1,162 V heran. Dieser lag bei 2.114 MHz für die GPU und damit noch einmal fast 16 Prozent über den bisherigen Boost-Maximum ohne Overclocking.

Erstmals konnten wir auch etwas mit dem GDDR5X-Speicher herumspielen, stellten aber schnell fest, dass selbst bei einem GPU-Takt von 2.114 MHz hier kaum eine Limitierung durch den Speicher vorliegt. Wir haben den Takt um 250 MHz auf 1.500 MHz erhöht und es dabei belassen.

Raff
2016-05-18, 07:49:28
Das kommt natürlich auf die Anwendung an, so pauschal kann man das gar nicht sagen. Mit fast 11 SP-TFLOPS (!) limitiert der RAM-Durchsatz aber gewiss an einigen Stellen. ;)

MfG,
Raff

Nightspider
2016-05-18, 07:52:28
Sicherlich aber einige tun die Bandbreite hier zu einem riesigen Problem aufschaukeln.

Ist jetzt eigentlich schon durchgesickert wie teuer die neue SLI Bridge sein wird?

(del)
2016-05-18, 07:53:54
Das kommt natürlich auf die Anwendung an, so pauschal kann man das gar nicht sagen. Mit fast 11 SP-TFLOPS (!) limitiert der RAM-Durchsatz aber gewiss an einigen Stellen. ;)
Sehe ich auch so. Um so etwas pauschal aussagen zu können, muss man schon verschiedene Apps in verschiedenen Settings laufen lassen (und dann auch mal die Werte öffentlich machen). Ich bin aus eigener Erfahrung komplett anderer Meinung. Ein großer Workload in Creo 3.0 und der Speicher klebt am Fußboden fest :D

Loeschzwerg
2016-05-18, 07:55:07
Die Bridge soll ja 40USD kosten... also ~50€?

(del)
2016-05-18, 07:58:03
Netter Preis :(

scully1234
2016-05-18, 07:58:09
Laut ChipHell sind PCBs im Umlauf die Engineering Samples GDDR5X von Micron verbaut haben

https://www.chiphell.com/thread-1587788-1-1.html

(del)
2016-05-18, 08:05:20
Laut ChipHell sind PCBs im Umlauf die Engineering Samples GDDR5X von Micron verbaut haben
https://www.chiphell.com/thread-1587788-1-1.html

So etwas ähnliches hatte ich auch im Text ;)
...Beim Speicher gibt es ebenfalls einschneidende Veränderungen: Beim 6HA77 (bei einigen vorab geleakten Bildern war es noch 6GA77) handelt es sich um GDDR5X-Speicher von Micron...

Loeschzwerg
2016-05-18, 08:05:34
Netter Preis :(

Indeed :(

Ich finde jetzt das Video nicht mehr wo das gesagt wurde... Aus diesem stammt zumindest folgendes Bild:
http://cdn.videocardz.com/1/2016/05/NVIDIA-Pascal-SLI-HB.jpg

scully1234
2016-05-18, 08:07:56
So wie ich das verstehe wenn ich diese hochverstaendliche lustige Gockel Uebersetzung richtig deute;D soll das sogar noch jetzige Platinen betreffen die in den Handel gelangen

bushMills
2016-05-18, 08:12:21
Danke an 3dcenter für die schöne Übersicht der Reviews. Aber was ich so sehe, ist die Karte geht ans Temperaturlimit, Bandbreite fehlt und der Preisaufschlag zur 980 ist echt heftig. Vermutlich will man die 980TI übervollen Restbestände nicht unter 600€ bringen, deshalb der Weg 100€ (aua) aufs Refernzdesign draufzuschlagen um die Partner zu stützen und sich selbst auch etwas Gutes zu tun und man gewinnt Zeit für den Abverkauf der 980TI.

Die 1070 wird noch mehr einbrechen, eigentlich kann man fragen ob man die wirklich noch braucht. Aber wir kennen das ja von Apple, es werden Produkte zur Stützung der Preisaufschläge hergestellt, die man eigentlich mit gesunden Menschenverstand meiden sollte. :)

Bei 800€ schau ich genauer hin Nvidia. :)

(del)
2016-05-18, 08:25:10
So wie ich das verstehe wenn ich diese hochverstaendliche lustige Gockel Uebersetzung richtig deute;D soll das sogar noch jetzige Platinen betreffen die in den Handel gelangen
Das ist mal wieder alles chinesischer Müll. Micron hat offiziell die MP erst vor Kurzem wirklich sauber gestartet, die Referenzplatinen sind aber deutlich älter. Nur heißt das nicht, dass es andere Chips sind, die sind seit Wochen schon final. Da hat nur so eine kleine, asiatische Ameise zwischendurch mal den Labeldrucker umgestellt, weil der Chef angerufen hat, man hätte es nun auch offiziell. So eine Produktion kann man gar nicht anhalten, die läuft, wenn sie angelaufen ist, bis den Rotz keiner mehr braucht... :D

Ätznatron
2016-05-18, 08:25:23
sehe ich anders, als die 980 kam, konnte man keine 4gb voll machen, 8gb kann man jetzt schon ̶f̶̶a̶̶s̶̶t̶ voll machen.

Ja, 8 GB - so verschwenderisch sich die auch im Moment anhören - sind wieder auf Kante genäht.

Wenn es bereits jetzt vereinzelt (Mainstream-) Spiele gibt, die den 8GB Speicher locker füllen, was erwartet uns dann erst im Lauf des Jahres?

Dass plötzlich ressourcenschonender programmiert wird, glaube ich eher nicht.

Loeschzwerg
2016-05-18, 08:28:45
Füllen =! benötigen :rolleyes: Sollte doch langsam bei jedem angekommen sein.

Ätznatron
2016-05-18, 08:36:53
Füllen =! benötigen :rolleyes: Sollte doch langsam bei jedem angekommen sein.

Und?

Es soll Spiele geben, die tatsächlich den Speicher benötigen.

Und 800 Öcken ausgegeben zu haben, nur um einer Ruckelorgie zugucken zu können, ist dann doch ein bisschen happig.

Ich habe immer den schönen Vergleich zwischen einer 2 und einer 4 GB GTX 680 und einem voll aufgebretzeltem (nicht gemoddeten) Skyrim im Hinterkopf. (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235-test-palit-geforce-gtx-680-4-gb-jetstream.html?start=16)

(del)
2016-05-18, 08:40:26
Ich habe eine Quadro M6000 mit 24 GB hier, die ist langsamer als die mit 12 GB. :D

Loeschzwerg
2016-05-18, 08:46:25
Und?

Es soll Spiele geben, die tatsächlich den Speicher benötigen.

Und 800 Öcken ausgegeben zu haben, nur um einer Ruckelorgie zugucken zu können, ist dann doch ein bisschen happig.

Ich habe immer den schönen Vergleich zwischen einer 2 und einer 4 GB GTX 680 und einem voll aufgebretzeltem (nicht gemoddeten) Skyrim im Hinterkopf. (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235-test-palit-geforce-gtx-680-4-gb-jetstream.html?start=16)

Dann nenne mal die unzähligen Spiele ;) Die ganzen GTX 980 Ti Nutzer hier müssen ja am laufenden band am kotzen sein :freak: Und was sagen erst die Fiji Nutzer :eek:

Ätznatron
2016-05-18, 08:49:40
Ich habe eine Quadro M6000 mit 24 GB hier, die ist langsamer als die mit 12 GB. :D

Dann würde ich sie nicht zum Zocken nehmen. ;)

Damals vor 4 Jahren, als der Test mit der GTX 680 erschienen ist, stellte Skyrim einen der wenigen Speicherbedarfs-Ausreisser dar.

Und schon damals war klar zu erkennen, dass 2 GB nicht reichen werden. Die 2GB-Karten waren kurz danach beinahe völlig obsolet.

Heute ist die Situation halt ähnlich, wenn auch mit vergleichsweise üppigen 8GB.

@Loeschzwerg

Es geht nicht um unzählige Spiele, sondern es geht im Zweifel um genau das eine Spiel, das ich eventuell wegen Speichermangels nicht ordentlich zocken kann.

edit: bei einer 500,- Karte könnte ich mich damit vielleicht arrangieren, aber nicht bei einer Karte mit dem üppigen Preispunkt.

Nightspider
2016-05-18, 08:55:14
Damals vor 4 Jahren, als der Test mit der GTX 680 erschienen ist, stellte Skyrim einen der wenigen Speicherbedarfs-Ausreisser dar.

Und schon damals war klar zu erkennen, dass 2 GB nicht reichen werden. Die 2GB-Karten waren kurz danach beinahe völlig obsolet.

Heute ist die Situation halt ähnlich, wenn auch mit vergleichsweise üppigen 8GB.
:rolleyes:

Ist in den letzten 4 Jahren zufällig etwa eine neue Konsolengeneration erschienen?

Und erwartest du innerhalb der nächsten 2 Jahre schon wieder eine neue Generation? :freak:

Wenn du die Situation von vor 4 Jahren mit jetzt gleichsetzt kann man nur den Kopf schütteln.

Loeschzwerg
2016-05-18, 08:56:16
Und das wäre? Wir haben aktuell nicht mal ansatzweise die Situation wie zur GTX 680, da waren die 2GB wirklich recht überschaubar.

@Nightspider: Sign.

KHJ
2016-05-18, 08:59:37
Naja bleibt noch die 1070 und zu schauen wie nahe diese an die 980Ti rankommt.
Von Titan X Leistung gehe ich bei 1920 shader nicht aus da müsste die ja massiv getaktet werden.
Dürfen eigentlich die Grakahersteller die das Referenzdesign von Nv üebrnehmen inkl. DHE Kühler das Bios anpassen, also PT erhöhen oder Stromanschlüsse hinzufügen oder ist das von NV fix vorgegeben und nur die Custom Designs dürfen modifiziert werden?

Schade 320bit interface und 10GB vram wären wohl perfekt gewesen für die Bandbreite und auch 2GB mehr beim vram wären nicht verkehrt.
Die 1070 hätte man dann ja mit gddr5 bei der Bandbreite beschneiden können.Oder nur mit 256bit und 8gb vram etwas von der 1080 abgrenzen dafür halt auch gddr5 x Speicher.
Da würde der Preis dann auch eher passen.

Ätznatron
2016-05-18, 09:03:27
Aus dem Stegreif heraus und aus eigenem Erleben füllt bei mir X-Plane mit entsprechenden Texturen locker 8 GB aus (das sind ZL17-Texturen, also nichtmal das Ende der Fahnenstange). Und benötigt den Speicher auch. Denn sobald meiner 6GB-Karte der Speicher ausgeht, trifft eine ohnehin starke CPU-Limitierung zusätzlich auf starken Speichermangel, und das Ergebnis ist entsprechend katastrophal.

aths
2016-05-18, 09:16:05
Die 980 war dabei aber nicht so scheißteuer ;(
Als ich die 550 Öcken latzte für die 980, kam mir das scheißteuer vor. Die 1080 setzt dem noch mal eins oben drauf, das ist schon krass, imo aber auch Psycho-Marketing: Die Enthusiasten kaufen jetzt gleich, wenn der Preis bald etwas nachlässt, haben andere Interessenten das Gefühl, so-und-so-viel Euro zu sparen. Dafür haben Erstkäufer mit der Founder-Edition das Gefühl, Gründer einer neuen Gaming-Ära zu sein.

Dural
2016-05-18, 09:17:45
Hier haben doch so viele wegen einem Bandbreiten-Problem rumgejammert, HardwareLuxx schreibt das es keines gibt:

Der Speicher wird ab 5500MHz langsamer, hat CB doch schon raus gefunden. HL hat mit 6000MHz getestet.

Godmode
2016-05-18, 09:19:45
Als ich die 550 Öcken latzte für die 980, kam mir das scheißteuer vor. Die 1080 setzt dem noch mal eins oben drauf, das ist schon krass, imo aber auch Psycho-Marketing: Die Enthusiasten kaufen jetzt gleich, wenn der Preis bald etwas nachlässt, haben andere Interessenten das Gefühl, so-und-so-viel Euro zu sparen. Dafür haben Erstkäufer mit der Founder-Edition das Gefühl, Gründer einer neuen Gaming-Ära zu sein.

Wenn es jetzt sofort Herstellerkarten, mit 2 GHz+ und 250-300W TDP gäbe, dann würde ich eventuell sogar 800€ ausgeben. Aber für ein Referenzdesign, dass dann auch noch ziemlich stark eingeschränkt ist und wir noch nicht mal wissen, ob man das BIOS modden kann? Nicht mit mir.

scully1234
2016-05-18, 09:21:10
Ich habe eine Quadro M6000 mit 24 GB hier, die ist langsamer als die mit 12 GB. :D

Selbst schuld wenn man soviel Speicher adressieren muß =)

Armaq
2016-05-18, 09:22:57
Der Preis für die Karte ist sehr hoch. Auch wenn der Verbrauch und die Leistung gut sind.

Nvidia nutzt die Monate einfach geschickt, nach unten geht ja immer. Polaris wird hier an der Produktstrategie nichts ändern, außer die Karte wird der absolute Überflieger.

Wobei ich einen anderen Gesichtspunkt interessanter finde. Aufgrund der länger werdenden Zyklen für einen Fertigungsshrink, hat nvidia hier gelernt und schon in der Planung die 2te 16nm Generation dabei. Die RAM Bestückung sagt genau das aus, denn die TitanX hatte die 12 GB nicht umsonst.

scully1234
2016-05-18, 09:23:11
Wenn es jetzt sofort Herstellerkarten, mit 2 GHz+ und 250-300W TDP gäbe, dann würde ich eventuell sogar 800€ ausgeben..

Da waere ich auch dabei aber am besten mit Referenz PCB

Die Gigabunt wurde ja schon getaesert mal sehen was unterm Luefterkleidchen steckt

Godmode
2016-05-18, 09:26:59
Nvidia nutzt die Monate einfach geschickt, nach unten geht ja immer. Polaris wird hier an der Produktstrategie nichts ändern, außer die Karte wird der absolute Überflieger.


Eventuell wollen sie mit dem hohen Preis einfach Lieferengpässe vermeiden, bis die GDDR5X Produktion genug Module liefern kann? Dann könnten sie in ein paar Wochen eine Preissenkung durchführen und alle freuen sich und kaufen dann doch.

Da waere ich auch dabei aber am besten mit Referenz PCB

250W würde ich dem Board zumindest zutrauen.

kruemelmonster
2016-05-18, 09:33:18
Aus dem Stegreif heraus und aus eigenem Erleben füllt bei mir X-Plane mit entsprechenden Texturen locker 8 GB aus (das sind ZL17-Texturen, also nichtmal das Ende der Fahnenstange).

Du erkennst aber schon dass dein Anwendungsszenario eher einen Sonderfall darstellt, und die 8 GB für "reguläre" Spiele nicht auf Kante genäht sind?!

Die 2 GB eines GK104 damals kannst du nicht mit den 8 GB des GP104 gleichsetzen, gefühlt entsprechen die neuen Karten mehr einer GTX 680 4 GB was Performance im Verhältnis zur VRAM Größe angeht.

Vllt wär die Quadro M6000 (http://geizhals.de/pny-quadro-m6000-vcqm6000-24gb-pb-a1414723.html) ja was für dich, kostet auch nur fast soviel wie sie heißt. ;D

Dr.Doom
2016-05-18, 09:33:38
Eventuell wollen sie mit dem hohen Preis einfach Lieferengpässe vermeiden.Ich tendiere eher dahin, dass nV weiss, dass ihnen der Krempel ohnehin aus den Händen gerissen wird -- egal, wie der Preis ist. :freak:

IceKillFX57
2016-05-18, 09:35:20
Wieviel Watt die 1080 wohl verbraucht wenn man die Performance auf 980TI senkt?

igg
2016-05-18, 09:37:44
Eventuell wollen sie mit dem hohen Preis einfach Lieferengpässe vermeiden, bis die GDDR5X Produktion genug Module liefern kann?
Das und zudem können sie schauen wie sich AMD mit P10 positioniert. Wenn sie zu nah an die GTX1070 kommt wird die Founder Edition als Erfolg für Early Adopters erklärt und die deutlich günstigeren Karten kommen.

Unyu
2016-05-18, 09:38:36
Ich habe immer den schönen Vergleich zwischen einer 2 und einer 4 GB GTX 680 und einem voll aufgebretzeltem (nicht gemoddeten) Skyrim im Hinterkopf. (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235-test-palit-geforce-gtx-680-4-gb-jetstream.html?start=16)Ein ungemodetes Skyrim mit 8xMSAA. Wie Praxisnah. ;D

Gut mir ist klar, das der doppelte Speicherausbau im Vergleich zur Konkurrenz nicht genügt: Das Marketing der Titan X zeigt seine Spuren. Nicht nur bei der Akzeptanz verrückter Preise, sondern auch bei der blinden Gier nach mehr Speicher.

Die 2 GB eines GK104 damals kannst du nicht mit den 8 GB des GP104 gleichsetzen, gefühlt entsprechen die neuen Karten mehr einer GTX 680 4 GB was Performance im Verhältnis zur VRAM Größe angeht.
Doch in gewisser Weise kann mans gleichsetzen. Die 680 hat im selben Verhältnis mehr Speicher zur 580, wie die 1080 zur 980 Ti.

scully1234
2016-05-18, 09:41:31
Wennn das nicht eh schon so geplant war ,um den Boardpartnern genugend Luft zum Atmen zu geben.

Nvidia krallt sich die fruehen Voegel, und die Boardpartner haben im Anschluss keinen Druck vom Chiplieferanten , weil ihre Designs dann entsprechend atraktiv wirken.

Das einzige was sich geanedert haette ist, das nicht mehr die Haendler den Early Adopter Aufschlag kassieren, sondern der umgehend an Nvidia geht.

PHuV
2016-05-18, 10:02:11
Ich tendiere eher dahin, dass nV weiss, dass ihnen der Krempel ohnehin aus den Händen gerissen wird -- egal, wie der Preis ist. :freak:
So eine Aussage finde ich absolut unnötig und ärgerlich. :mad: Der "Krempel" hat mehrere Milliarden Entwicklungsgelder gekostet. Der Chip wird zur Markteinführung das schnellste sein, was es zu kaufen gibt. Was soll daran "Krempel" sein. :crazy2: Ich bin echt fassungslos wie respektlos manche hier unterwegs sind. Und AMD hat es seit Jahren nicht geschafft, besseren "Krempel" herzustellen.

Ätznatron
2016-05-18, 10:10:01
Du erkennst aber schon dass dein Anwendungsszenario eher einen Sonderfall darstellt, und die 8 GB für "reguläre" Spiele nicht auf Kante genäht sind?!


Sicher ist das ein Sonderfall, und um gegen alle Eventualitäten gerüstet zu sein, bin ich auch bereit, einen Sonderpreis deswegen zu zahlen, aber dann bitteschön muss das Produkt auch entsprechend ausgestattet sein.

Skyrim war damals auch ein Sonderfall.

Aber hier wird ein überaus üppiger Preis verlangt für ein überaus mittelklassiges Produkt, das mich ausstattungsmäßig halt nicht überzeugt.

Ich hätte damals eine TX kaufen sollen. Aber stattdessen habe ich gewartet, was ein Fehler war.

Cubitus
2016-05-18, 10:11:59
So eine Aussage finde ich absolut unnötig und ärgerlich. :mad: Der "Krempel" hat mehrere Milliarden Entwicklungsgelder gekostet. Der Chip wird zur Markteinführung das schnellste sein, was es zu kaufen gibt. Was soll daran "Krempel" sein. :crazy2: Ich bin echt fassungslos wie respektlos manche hier unterwegs sind. Und AMD hat es seit Jahren nicht geschafft, besseren "Krempel" herzustellen.

;D

Ich auch, aber das wird hier zum Teil leider nicht verstanden..

In gewisser weise ist es natürlich schon schade das AMD atm nichts vergleichbares bringt.
Konkurrenz belebt das Geschäft.. Nvidia hat natürlich noch Luft nach oben, entweder durch Hardware bzw. über die Preisschraube nach unten..
Jetzt heißt es erstmals warten bis auf übernächste Woche

-/\-CruNcher-/\-
2016-05-18, 10:15:46
Wieviel Watt die 1080 wohl verbraucht wenn man die Performance auf 980TI senkt?

ca 150

Leider hat Igor das nicht getestet schade weil es ja auch sehr Workload abhängig ist vor allem mit GameWorks, aber es müsste so pi mal daumen hinkommen der verlust der 1070 werden so meistens -10 FPS werden in leichteren Workloads zur 1080 in härteren Workloads die es zum Teil noch nicht gibt kann es aber auch deutlich mehr werden ;)

Dykstra
2016-05-18, 10:31:52
So eine Aussage finde ich absolut unnötig und ärgerlich. :mad: Der "Krempel" hat mehrere Milliarden Entwicklungsgelder gekostet. Der Chip wird zur Markteinführung das schnellste sein, was es zu kaufen gibt. Was soll daran "Krempel" sein. :crazy2: Ich bin echt fassungslos wie respektlos manche hier unterwegs sind. Und AMD hat es seit Jahren nicht geschafft, besseren "Krempel" herzustellen.

Trotzdem ist der Krempel massiv zu teuer. Die GTX 980 hatte zur Markteinführung auch eine Alleinstellungsposition was die Geschwindigkeit anging und wurde trotzdem für unter 600 EUR angeboten.

Wenn man den Kunden mit dieser Frechheit an Preisgestaltung den virtuellen Stinkefinger zeigt, braucht man sich nicht wundern, wenn diese auf gleichem Niveau zurück keilen.

iuno
2016-05-18, 10:36:04
Die Konkurrenzsituation ist aber anders als beim Release der 980. Die war hauptsaechlich effizienter, natuerlich auch schneller und mit OC Potenzial aber nicht so konkurrenzlos wie es GP104 jetzt ist. GM204 ist nicht soo weit weg von Hawaii. Jetzt ist Fiji schon irgendwo abgeschlagen und mit dem Handicap der 4 GiB, Vega kommt erst mindestens ein halbes Jahr spaeter.
Das ist imho ein netter Vorgeschmack darauf, was passiert, wenn AMD nicht mehr da ist ;)

Godmode
2016-05-18, 10:43:42
So eine Aussage finde ich absolut unnötig und ärgerlich. :mad: Der "Krempel" hat mehrere Milliarden Entwicklungsgelder gekostet. Der Chip wird zur Markteinführung das schnellste sein, was es zu kaufen gibt. Was soll daran "Krempel" sein. :crazy2: Ich bin echt fassungslos wie respektlos manche hier unterwegs sind. Und AMD hat es seit Jahren nicht geschafft, besseren "Krempel" herzustellen.

Den Leuten geht es hauptsächlich um den sehr hohen Preis. Früher gab es die kleineren Chips eben deutlich günstiger zu kaufen und heute bezahlt man für den kleinen Chip so viel und teilweise mehr als für den den großen. Wenn sie die 1080 für 500-600 Euro verkauft hätten, wäre wohl jeder zufrieden gewesen, so fühlt man sich doch etwas veräppelt. Eine GTX 980 gabs schließlich noch für ~600-650 €, IIRC. Natürlich ist der Euro im Wert gesunken und 16FF+ ist nicht billig und GDDR5X wohl auch nicht.

Ich würde allen empfehlen, erstmal abzuwarten, bis die Karten wirklich bei den Händlern sind, weil erst dann kann man über Preise reden.

PHuV
2016-05-18, 10:46:44
Trotzdem ist der Krempel massiv zu teuer.
Bitte, dann stell doch einfach selbst was besseres her, anstatt diese immense Leistung grundlos herabzuwürdigen und zu degradieren. Du mußt es ja nicht kaufen, ganz einfach. Trotzdem ist es in meinen Augen idiotisch, hier von "Krempel" zu sprechen. Es sind Unternehmen, keine Sozialämter. Die müssen Geld verdienen, wirtschaftlich bleiben, oder wo soll das Geld sonst herkommen? Heute muß viel mehr Geld in die Entwicklung gesteckt werden als früher.

Intel und AMD liefert seit Jahren viel weniger Leistung pro Takt, und will trotzdem auch eine Menge Geld haben, da schimpft keiner. :rolleyes:

Wenn mal all die Jahre aufmerksam verfolgt hat, weiß doch schon längst, daß die goldenen Zeiten von doppelter Performance vorbei sind. :rolleyes: Mit zunehmender Dichte steigen die Probleme, und es wird bald eh Schluß mit lustig hier sein.

http://www.giga.de/extra/ratgeber/specials/mooresches-gesetz-defintion-und-ende-von-moore-s-law-einfach-erklaert/

Das Ende des Mooreschen Gesetzes

Mittlerweile stockt die CPU-Entwicklung nach dem Mooreschen Gesetz, weil die Entwickler an physikalische Grenzen gestoßen sind. So meldete Intel im Sommer 2015, dass der Zyklus wohl eher 30 statt 18 Monate dauert. CPUs werden seit Längerem auch nicht mehr an ihrer Taktrate gemessen. Mittlerweile ist eher die Anzahl der verbauten CPU-Kerne maßgebend für die Geschwindigkeit.

bushMills
2016-05-18, 10:47:10
Bei zwei verbliebenen GPU-Herstellern ist es aber anzunehmen, das beide das Maximum unseres Geldes haben wollen. AMD hätte nicht anders gehandelt, wenn sie das derzeit schnellere Produkt hätten.

8gb finde ich auch knapp kalkuliert, aber wir sollen ja in 2 Jahren wieder etwas Geld - dann ca.950€ für Mittelklasse - ausgeben. :)

-/\-CruNcher-/\-
2016-05-18, 10:50:22
Bitte, dann stell doch einfach selbst was besseres her, anstatt diese immense Leistung grundlos herabzuwürdigen und zu degradieren. Du mußt es ja nicht kaufen, ganz einfach. Trotzdem ist es in meinen Augen idiotisch, hier von "Krempel" zu sprechen. Es sind Unternehmen, keine Sozialämter. Die müssen Geld verdienen, wirtschaftlich bleiben, oder wo soll das Geld sonst herkommen? Heute muß viel mehr Geld in die Entwicklung gesteckt werden als früher.

Intel und AMD liefert seit Jahren viel weniger Leistung pro Takt, und will trotzdem auch eine Menge Geld haben, da schimpft keiner. :rolleyes:

Wenn mal all die Jahre aufmerksam verfolgt hat, weiß doch schon längst, daß die goldenen Zeiten von doppelter Performance vorbei sind. :rolleyes: Mit zunehmender Dichte steigen die Probleme, und es wird bald eh Schluß mit lustig hier sein.

Das Geld kommt aber von uns und wenn unsere Löhne und Gehälter immer weiter sinken im Vergleich zur Inflation und den Anforderungen der Wirtschaft dann haben wir irgendwann ein riesen Problem ;)

Und Effizienz haut das irgendwann dann auch nicht mehr Raus weil die Stromkosten eh weiter steigen ;)

PHuV
2016-05-18, 10:50:28
Den Leuten geht es hauptsächlich um den sehr hohen Preis. Früher gab es die kleineren Chips eben deutlich günstiger zu kaufen und heute bezahlt man für den kleinen Chip so viel und teilweise mehr als für den den großen.
Wie gesagt, diese Leute vergessen eben auch, daß die Entwicklungskosten hier deutlich angestiegen sind. Das ist doch klar, daß jede Firma das wieder reinholen muß.

Godmode
2016-05-18, 10:50:51
Das schöne ist, wenn einem die Leistungssteigerung zu gering für den Aufpreis erscheint, muss man die Dinger nicht kaufen. Die paar die immer sofort was neues Kaufen, machen noch keinen Markt. Ich werde das bei den CPUs so handhaben, weil die Aufrüsterei der letzten Jahre war einfach für die Katz. Bei den GPUs hingegen, habe ich immer eine schöne Steigerung der Leistung gesehen. Als ich gebe dann das Geld doch lieber AMD/NV für ihre GPUs als für neue CPUs, die mir bei Spielen genau 0 bringen. Das ein alter übertakteter 2500k Prozessor immer noch ausreicht, spricht ja Bände.

Nakai
2016-05-18, 10:53:42
So eine Aussage finde ich absolut unnötig und ärgerlich. :mad: Der "Krempel" hat mehrere Milliarden Entwicklungsgelder gekostet. Der Chip wird zur Markteinführung das schnellste sein, was es zu kaufen gibt. Was soll daran "Krempel" sein. :crazy2: Ich bin echt fassungslos wie respektlos manche hier unterwegs sind. Und AMD hat es seit Jahren nicht geschafft, besseren "Krempel" herzustellen.

Bitte, dann stell doch einfach selbst was besseres her, anstatt diese immense Leistung grundlos herabzuwürdigen und zu degradieren. Du mußt es ja nicht kaufen, ganz einfach. Trotzdem ist es in meinen Augen idiotisch, hier von "Krempel" zu sprechen. Es sind Unternehmen, keine Sozialämter. Die müssen Geld verdienen, wirtschaftlich bleiben, oder wo soll das Geld sonst herkommen? Heute muß viel mehr Geld in die Entwicklung gesteckt werden als früher.


Ich schiele auf deinen Avatar und muss lachen.;D

*Mimimi*

Wie kann man sich nur über das Wort "Krempel" aufregen.


8gb finde ich auch knapp kalkuliert, aber wir sollen ja in 2 Jahren wieder etwas Geld - dann ca.950€ für Mittelklasse - ausgeben. :)

Ja, aber bitte als Ultra-Elite-Founders-Edition. Es muss ja noch offensichtlicher werden, dass man nur unser Bestes möchte.

Wie gesagt, diese Leute vergessen eben auch, daß die Entwicklungskosten hier deutlich angestiegen sind. Das ist doch klar, daß jede Firma das wieder reinholen muß.

Warten wir doch ab, wie teuer AMD seine Krempel bringt.

robbitop
2016-05-18, 10:57:39
Füllen =! benötigen :rolleyes: Sollte doch langsam bei jedem angekommen sein.
Eine Gegenfrage: Das Auffüllen passiert doch sicher nicht zum Selbstzweck?
Für den Fall, dass der Anteil, der zum Zeitpunkt X nicht benötigt wird, aber mit gewisser Wahrscheinlichkeit zum Zeitpunkt X+1, muss der Anteil nicht über PCIe geschaufelt werden und man vermeidet unschöne Frametimes / Ruckler.

Zumindest impliziert das Befüllen, dass es sich um Caching handelt.

PHuV
2016-05-18, 10:58:15
Das Geld kommt aber von uns und wenn unsere Loöhne und Gehälter immer weiter sinken im Vergleich zur Inflation dann haben wir irgendwann ein riesen Problem ;)
Ach, und Du weißt auch, wie unsere Inflationsrate ist? :facepalm:
http://de.statista.com/statistik/daten/studie/1045/umfrage/inflationsrate-in-deutschland-veraenderung-des-verbraucherpreisindexes-zum-vorjahresmonat/
Nur Latrinenparolen, mehr nicht!

Sunrise
2016-05-18, 11:00:17
Wie gesagt, diese Leute vergessen eben auch, daß die Entwicklungskosten hier deutlich angestiegen sind. Das ist doch klar, daß jede Firma das wieder reinholen muß.
Die Spanne von NV zwischen $379 US (1070) und $699 US (1080) ist dieses Mal aber auch abnormal groß. GP104 kostet soviel wie eine 980 Ti Referenz. Das Ding bekommt man auch für $499 extrem gut verkauft und es gäbe praktisch nur Bestnoten in allen Kategorien.

Dass die Entwicklungskosten gestiegen sind stimmt (R&D laut NV für Pascal war um die 2 Milliarden Dollar, wenn ich das richtig im Kopf habe und der Waferpreis ist min. doppelt so hoch wie noch bei 28nm), keine Frage, aber diese Übertreibung bei der 1080 funktioniert eben nur, weil NV aktuell keine Konkurrenz hat.

GP104 ist verdammt gut, aber leider nicht so richtig ausfahrbar (Bandbreite begrenzt zu stark) und sie will eine "Große" sein, ist sie aber nicht. Der Preis deutet eben auch an, dass GP104 gerne der High-End Chip ist, was er aber nicht ist, denn das ist GP100 und evtl. der kommende GP102.

PHuV
2016-05-18, 11:00:41
Wie kann man sich nur über das Wort "Krempel" aufregen.
Was Pearl, Hama und Co auf dem Ramschtisch verkauft, daß ist "Krempel"! Und für einen Chip, der mehr als 20% liefert als zum Vorgänger, ist das doch sehr diffamierend für all die Neider und verwöhnten Blagen, die denken, das Leistungssteigerungen immer für eine Nullnummer zu haben sind. :rolleyes:

Schnoesel
2016-05-18, 11:01:23
Wo ist dein Problem. Kauf dir die Karte wenns die so geil ist und lass die anderen darüber reden, dass ihnen die Karte zu teuer ist fürs gebotene. Und wenn man sich Nvidias Zahlen ansieht haben sie den aufgerufene Preis ziemlich nötig, so wie sie gerade dastehen.

Muss ja nicht jeder gleich die grüne Flagge hissen.

PS: Meine Fiji war auch zu teuer fürs gebotene, auch wenn AMD wahrscheinlich sogar Verlust damit gemacht hat.

PHuV
2016-05-18, 11:05:48
Die Spanne von NV zwischen $379 US (1070) und $699 US (1080) ist dieses Mal aber auch abnormal groß. GP104 kostet soviel wie eine 980 Ti Referenz. Das Ding bekommt man auch für $499 extrem gut verkauft und es gäbe praktisch nur Bestnoten in allen Kategorien.
Frage, warum verkauften die Leute ihre OR CV1 für teilweise unverschämten doppelten Preis? Da hast Du Deine Antwort. ;) Und warum darf ein Unternehmen nicht die Chancen nutzen, wenn es ein Alleinstellungsmerkmal gegenüber Mitbewerber hat? Leute, Ihr vergeßt alle, daß der Markt draußen knallhart ist. Ein-zwei Fehler, und Du bist weg vom Fenster. Die müssen das Geld doch irgendwie reinholen.

Dass die Entwicklungskosten gestiegen sind stimmt (R&D laut NV für Pascal war um die 2 Milliarden Dollar, wenn ich das richtig im Kopf habe und der Waferpreis ist min. doppelt so hoch wie noch bei 28nm), keine Frage, aber diese Übertreibung bei der 1080 funktioniert eben nur, weil NV aktuell keine Konkurrenz hat.
Siehe meine Frage oben! Wenn schon Leute privat so raffgierig sind, und Bedarf ausgenutzt wird, warum soll dann eine Firma hier unberechtigt kleinbei geben?

PHuV
2016-05-18, 11:07:34
Wo ist dein Problem. Kauf dir die Karte wenns die so geil ist und lass die anderen darüber reden, dass ihnen die Karte zu teuer ist fürs gebotene.
Dagegen sage ich doch nichts. Nur dieses gezielte Diffamieren und Schlechtreden geht mir so was auf den Sack. :| Die Leute haben heute alle so überzogene Erwartungshaltungen und wollen alles für lau haben.

Leute, wir haben seit über 200 Jahren Kapitalismus. Teure Investitonen müssen schnell wieder reingeholt werden, sonst lohnt sich die Sache nicht.

Und es muß sich keiner die Karten für 699 $ und mehr kaufen, es kann jeder auf die 599 $ Karten waren.

Henroldus
2016-05-18, 11:10:59
.... und der Waferpreis ist min. doppelt so hoch wie noch bei 28nm),.
nun, da der chip mit den gut 300m^2 auch nur halb so groß ist relativiert sich das wieder :wink:

Armaq
2016-05-18, 11:11:31
Warum verteidigst du nvidia so krass? Die Karte kostet viel Geld für 30% mehr an Performance, wobei einige Engpässe sehr absehbar sind. 699 für 1 Jahr ist schon eine ordentliche Größe.

Loeschzwerg
2016-05-18, 11:13:15
Eine Gegenfrage: Das Auffüllen passiert doch sicher nicht zum Selbstzweck?
Für den Fall, dass der Anteil, der zum Zeitpunkt X nicht benötigt wird, aber mit gewisser Wahrscheinlichkeit zum Zeitpunkt X+1, muss der Anteil nicht über PCIe geschaufelt werden und man vermeidet unschöne Frametimes / Ruckler.

Zumindest impliziert das Befüllen, dass es sich um Caching handelt.

Natürlich nicht, aber je nachdem wie der Treiber / die Engine es handhabt kann es auch sein dass der Speicher schlichtweg nicht geleert wird, weil noch genügend Kapazität vorhanden ist.

Da gab es doch Beispiele wo z.B. an die 6 GB gefüllt wurden, aber das Spiel auch mit 4 GB völlig flüssig lief, oder täusche ich mich da? (Mordors Schatten? Keine Ahnung ^^)

Warum verteidigst du nvidia so krass? Die Karte kostet viel Geld für 30% mehr an Performance, wobei einige Engpässe sehr absehbar sind. 699 für 1 Jahr ist schon eine ordentliche Größe.

Der Aufpreis entspricht in etwa der Mehrleistung (GTX 980 Ti vs 1080).

PHuV
2016-05-18, 11:21:17
Warum verteidigst du nvidia so krass? Die Karte kostet viel Geld für 30% mehr an Performance, wobei einige Engpässe sehr absehbar sind. 699 für 1 Jahr ist schon eine ordentliche Größe.
Ich verteidige nur dumme Diffamierung gegen alles, auch gegen AMD. Mich verwundert diese Blauäuigkeit mancher hier, daß alles für lau zu haben sei.

Und es wird doch keiner gezwungen, sich die FE zu kaufen, man kann abwarten und sich die Karten für 599 kaufen, das ist doch überall mehr als deutlich angekündigt. :rolleyes:

Armaq
2016-05-18, 11:21:45
Natürlich nicht, aber je nachdem wie der Treiber / die Engine es handhabt kann es auch sein dass der Speicher schlichtweg nicht geleert wird, weil noch genügend Kapazität vorhanden ist.

Da gab es doch Beispiele wo z.B. an die 6 GB gefüllt wurden, aber das Spiel auch mit 4 GB völlig flüssig lief, oder täusche ich mich da? (Mordors Schatten? Keine Ahnung ^^)



Der Aufpreis entspricht in etwa der Mehrleistung (GTX 980 Ti vs 1080).
Nur wenn ich 2x neu kaufe. ;)

Ich finde die Karte gar nicht uninteressant, FuryX habe ich aus ähnlichen Gründen gekauft, wieso eine 1080 in Frage käme. Aber wie gesagt, es gibt vorhersehbare Engpässe und für 1 Jahr ist das dann doch heftig.

Michalito
2016-05-18, 11:23:13
Dagegen sage ich doch nichts. Nur dieses gezielte Diffamieren und Schlechtreden geht mir so was auf den Sack. :|

Wobei sich dann die Frage stellt, den nicht " Jublern" das ausdrücken ihrer Meinung verbieten zu wollen nicht auch eine Diffamierung darstellt.


Die Leute haben heute alle so überzogene Erwartungshaltungen und wollen alles für lau haben.

Von Lau kann keine Rede sein. Aber, wenn ich mir NV Geschäftsberichte anschaue, weiß ich das die Marge zu hoch ist, und Käufer wohl für den 80% Marktanteil einen Extrazuschlag bezahlen.



Leute, wir haben seit über 200 Jahren Kapitalismus. Teure Investitonen müssen schnell wieder reingeholt werden, sonst lohnt sich die Sache nicht.

Was ist lohnen? 5% Rendite auf das eingesetzte Kapital, 12% ?




Und es muß sich keiner die Karten für 699 $ und mehr kaufen, es kann jeder auf die 599 $ Karten waren.

Lol, ich warte auf die 300€ Karte. Lustig finde ich auch das eineige hier im Thread gerade den Leistungssprung von einer 970 auf eine 1080 so erwähnen.
Das ist den Teufel mit dem Beezelbub austreiben. Erst von NV verarscht mit den Specs, und die Lehre aus der Geschichte: Leg halt doppelt soviel Kohle auf den Tisch, dann kriegst du endlich Specs die stimmen. ;D
zur Erinnerung: Der Chip hat 314 mm²

PHuV
2016-05-18, 11:23:21
Aber wie gesagt, es gibt vorhersehbare Engpässe und für 1 Jahr ist das dann doch heftig.
Was soll ich da als Titan X-User erst sagen? Gut, ich habe 12 GB VRam, was doch einige Spiele intensiver nutzten als ich dachte.

Nakai
2016-05-18, 11:24:06
Also im Ernst, ich könnte mir bessere Geldausgaben vorstellen, als eine Grafikkarte die 20% schneller ist. Lieber stelle ich meine Auflösung etwas runter oder spiele nicht in 4K. Vor allem sind 700€ nicht wirklich viel Geld.
Für ein Premium-Produkt kann man deutlich mehr ausgeben. Da ist sogar ein IPhone ein Kinderspielzeug.

Warum man hierfür ein Fass aufmacht, erschließt sich mir nicht.

Michalito
2016-05-18, 11:42:33
Ich kann ja nichts dafür, wenn Ihr nicht der deutschen Sprache mächtig seid. So, und nun erkläre mir, wo das aktuelle Topprodukt GTX 1080p nach den oben gezeigten Definitionen reinpassen soll? Da es das nicht tut, ist es Diffamierung, ganz einfach.

Jaja, die übliche Neiddebatte der Besitzlosen, wie so immer hier im 3DCenter der "Experten"!


Das aktuelle Topprodukt ist nicht für Gamer verfügbar, zeigt aber was unter 16FF+ schon geht. :wink:

Menace
2016-05-18, 11:44:01
Jaja, die übliche Neiddebatte der Besitzlosen, wie so immer hier im 3DCenter der "Experten"!

Aber das ist doch ok. Hänge gedanklich einfach ein "für mich" an die Aussagen ran und dann stimmen sie. Gelassenheit geht in beide Richtungen.

Wieso gibt es solche kindische Diskussionen eigentlich nicht bei Musikinstrumenten, wo der Preis einer guten Gitarre mal 5000 € über einer ähnlichen guten Gitarre liegt? Da freut man sich eher für den, der sich solches Instrument gekauft hat, weint leise eine Träne und schreddert dann weiter. :D

Godmode
2016-05-18, 11:44:41
Ihr könnt das ja per PN klären, aber sicher nicht hier im Thread. Für die nächsten Stänkereien gibt es rote Karten.

Reaping_Ant
2016-05-18, 12:03:22
Von den technischen Daten her ist die GTX 1080 extrem lecker. Viel Leistung, ausreichend Speicher, interessante Features und dabei ziemlich effizient. Mit gutem Custom-Kuehler koennte die Karte fast lautlos sein und das bei ausreichend Leistung fuer 1440p mit Details am Anschlag, in vielen Faellen sogar 4K. Von meiner sterbenden GTX 970 ausgehend glatt die doppelte Leistung. Allerdings ist der Preis (zumindest fuer die FE) schon etwas sehr happig. Mal sehen, wie sehr sich die Custom-Karten der unteren MRSP Marke von $599 (dann wohl ca. 650 Euro) naehern.

Ein wirklicher Mangel ist in meinen Augen nur das Fehlen von Freesync. Waere absehbar, dass von NV in dieser Richtung noch was kommt, dann koennte bei der GTX 1080 echt schwach werden. Mein Ziel sind stabile 60 FPS (ohne VRR) bzw. 40 FPS (mit VRR) in 4K. Die GTX 1070 ist ohne VRR (GSync kommt mir nicht ins Haus) vermutlich wieder zu langsam. Bleibt mir nur noch zu hoffen, dass Polaris zumindest in Reichweite der 1070 landet.

Troyan
2016-05-18, 12:06:05
Die Spanne von NV zwischen $379 US (1070) und $699 US (1080) ist dieses Mal aber auch abnormal groß. GP104 kostet soviel wie eine 980 Ti Referenz. Das Ding bekommt man auch für $499 extrem gut verkauft und es gäbe praktisch nur Bestnoten in allen Kategorien.

Die Spanne ist entweder $379 und $599 oder $449 und $699.


GP104 ist verdammt gut, aber leider nicht so richtig ausfahrbar (Bandbreite begrenzt zu stark) und sie will eine "Große" sein, ist sie aber nicht. Der Preis deutet eben auch an, dass GP104 gerne der High-End Chip ist, was er aber nicht ist, denn das ist GP100 und evtl. der kommende GP102.

Naja, GP104 ist 317mm^2, hat 7,2 Milliarden Transistoren und benötigt mehr Bandbreite - das bei einer Leistung, die vor 14 Tagen noch als geringer eingestuft wurde.
Zeigt eben das Problem, dass die Bandbreitenentwicklung nicht mehr Schritt halten kann und Entwickler von ineffizienten Techniken weggehen müssen.

iuno
2016-05-18, 12:22:03
Die Spanne ist entweder $379 und $599 oder $449 und $699.

Genau. Und demnach ist die Spanne absolut auch genau gleich gross wie noch zwischen der 980 und der 970 (549 vs 329 USD). Der MSRP ist einfach erneut um 50 USD gestiegen (wie schon von der 680 zur 980) relativ gesehen ist die Spanne demnach sogar kleiner geworden. Die FE kommt aber eben noch oben drauf, wobei hier diese Spanne natuerlich nochmal waechst.
Auf die Preise der Partnerdesigns bei guter Verfuegbarkeit bin ich aber gespannt.

Troyan
2016-05-18, 12:25:10
Naja, der MSRP ist jedoch für die GTX1070 gegenüber GTX670 um $30 gesunken. Die GTX970 war eher eine Ausnahme aufgrund des absurd gut laufenden 28nm Prozesses.

gogetta5
2016-05-18, 13:16:18
Eine gute Vorstellung. Ausreichend schnell und das ist ja auch noch nicht das Ende der Fahnenstange. Die Enthusiastenlösungen kommen ja erst noch.
Zum Preis wurde sich ja schon zur genüge geäußert - für mich ist das nichts und seid der 970 Geschichte bin ich eh von Nvidia abgeneigt.
Hoffe jetzt auf Polaris um die 7950 zu ersetzen.

Etwas OT: wieso werden vermehrt nur 8 Pin Stecker verbaut, statt 2x6 Pin?

Ätznatron
2016-05-18, 13:41:13
Zur Bewertung eines Produkts gehört nun mal auch die Bewertung des Preises.

Und wenn es ein großes Missverhältnis zwischen gebotener Leistung und aufgerufenem Preis gibt, werde ich das weiterhin kritisieren.

Das hat nichts mit Schlechtreden der Karte zu tun.

Ätznatron
2016-05-18, 13:47:46
Nur ist sie dann weder Krempeln noch Ramsch.

Sie ist lediglich überteuert, technisch ist sie gegenüber Maxwell ja durchaus eine (wenn auch zu kleine) Verbesserung.

aths
2016-05-18, 13:50:58
Die 1080 mit der Pascal-Architektur kommt mir vor wie eine Maxwell-3.0-Architektur. Paar mehr Shadercluster als 980, verbesserte Speicherbandbreitenkomprimierung, vor allem mehr Takt.

Der Preis oberhalb der 980 Ti, das ist erst mal etwas enttäuschend, zumal es weniger (dafür schneller getaktete) Shader und Datenleitungen gibt als bei der 980 Ti. Über den Takt ist ein Performancegewinn zur 980 Ti zwar da, aber mit 25% recht mager.

Aus Entwicklungssicht ist es wahrscheinlich günstiger, erst mal die weitgehend gleiche Architektur auf einem neuen Fertigungsprozess zu testen als sich gleichzeitig noch krasse Architekturänderungen aufzuhalsen. Ich bin froh, dass Nvidia den Quatsch mit Triple- und Quad-SLI defakto aufgibt und es bei 2x-SLI belässt. Und die 1080 ist solo aus Praxissicht klar besser als 980-2x-SLI und dabei noch günstiger. ("Günstiger".)

Im Solobetrieb 1080 gegen 980 ist die 1080 offenbar etwas lauter. Für mich persönlich wäre die Karte damit schon nicht mehr interessant, die 980 verwöhnt mich noch immer mit annehmbarem Lüftergeräsuch auch unter Last. Allerdings kann ich in Overwatch nur mit 150%-Scaling spielen. Mit 200% Scalingkomme ich nicht auf die gewünschten 60 Frames. Das würde die 1080 packen.

Die größeren Verkäufe dürften dann eher im 1070-Bereich stattfinden. Wer von der 600-er Serie kommt, wäre (sobald die Speicherkonfiguration überprüft wurde) mit der 1070 wohl besser bedient.

iuno
2016-05-18, 14:00:04
Nein, nur vergißt Du, daß der Spitzenwert für Nvidia (letztes Quartal war der Gewinn 134 M) eine Ausnahme ist, und eine kleinere Firma schneller in kritischen Bereichen bei Verlusten rudert als ein Branchenriese wie Intel.
Oh ja, ich vergass, dass es um das blanke Ueberleben von Nvidia geht. Die Firma steht ja schon mit einem Bein im Abgrund.

Die 1080 mit der Pascal-Architektur kommt mir vor wie eine Maxwell-3.0-Architektur. Paar mehr Shadercluster als 980, verbesserte Speicherbandbreitenkomprimierung, vor allem mehr Takt.
Dass man jetzt problemlos auf SM Ebene unabhaengig voneinander von Compute zu Grafik und zurueck schalten kann, finde ich schon eine wichtige Neuerung.
Wenn man Tom Petersen glauben darf, ist auch fuer die Sache mit den Viewports ein neuer HW Block zustaendig, den es vorher nicht gab. Das ist zwar aktuell mehr eine Spielerei fuer wenige Kunden, aber dennoch zweifellos ein brauchbares Feature. Darueber hinaus sind die Fortschritte natuerlich nur inkrementell/evolutionaer, das ist aber auch verstaendlich fuer den relativ spaeten Einschub. Der 20 nm Flop hat auch Nvidia relativ geschadet, wenn man die plaene derart umstricken muss. Man darf aber weiterhin auf Volta gespannt sein ;p

Ansonsten wird einiges was GP100 hat, einfach nicht sinnvoll sein, in GP104 direkt umzusetzen. Die feinere Einteilung/kleinere SMs wird etwa fuer Grafik einfach nicht noetig oder gar hinderlich sein. Mixed Precision wuerde einen massiven Umbau an der Software erforden, um daraus Nutzen ziehen zu koennen. NVLinks braucht es nicht es gibt die tolle neue SLI Bridge :ulol:. Zum letzteren im Ernst: multi GPU soll in dieser Form ruhig sterben, das war doch ohnehin immer nur eine Kruecke.

BK-Morpheus
2016-05-18, 14:08:05
Schon wieder die übliche Preisdiskussion? :confused:


Wie interessant eine Karte ist, hängt immer auch mit dessen Preis zusammen, wieso wundert dich dann, dass man hier auch über den Preis diskutiert?

Man muss vieles nicht kaufen, tut es aber, wenn einem das Produkt das Geld wert ist.
Die GTX 1080 wäre für meine Anforderungen (zocken ja, aber nur FullHD) aktuell etwas Overkill, ich würde Sie dennoch kaufen, wenn die Custom Karten (der Referenzkühler gefällt mir gar nicht) für die von Nvidia genannten 599$ zu haben sind.
Die Mehr-Leistung gegenüber einer 980TI haut mich jetzt nicht vom Hocker (VR ist aktuell für mich auch noch uninteressant, wird aber bestimmt innerhalb der kommenden ~2 Jahre noch ein echter Game-Changer), aber insgesamt ist die Leistung und Effizienz schon durchaus solide.

Bei dem Europreis für die Foolsedition, gehe ich aber davon aus, dass auch die Custom Karten hier eher bei 700€ und mehr liegen werden und darum warte ich mal auf die Reviews und Preise der GTX 1070.
Die Polaris 10 interessiert mich ebenfalls, könnte aber von der Performance schon wieder uninteressant sein, falls die P10 nicht in die Nähe einer 1070 kommt.

-/\-CruNcher-/\-
2016-05-18, 14:14:44
Zur Bewertung eines Produkts gehört nun mal auch die Bewertung des Preises.

Und wenn es ein großes Missverhältnis zwischen gebotener Leistung und aufgerufenem Preis gibt, werde ich das weiterhin kritisieren.

Das hat nichts mit Schlechtreden der Karte zu tun.

Leider machst du nur einen gewaltigen Fehler da du nicht mehr die Performance hauptsächlich bezahlst sondern die Effizienzsteigerung insgesammt die nicht nur von der Performance abhängig ist ;)

Dass man jetzt problemlos auf SM Ebene unabhaengig voneinander von Compute zu Grafik und zurueck schalten kann, finde ich schon eine wichtige Neuerung.

Eins hab ich bei Nvidia über die Jahre gelernt man sollte extrem vorsichtig mit ihren Aussagen sein was nun real existierende Hardwareblöcke sind und was nicht ;)

akuji13
2016-05-18, 14:26:46
Wie interessant eine Karte ist, hängt immer auch mit dessen Preis zusammen, wieso wundert dich dann, dass man hier auch über den Preis diskutiert?

Ich wundere mich nicht über die Diskussion an sich, sondern wie sie geführt wird.
Z. B. das einige vorgeben wollen was andere kaufen sollen/dürfen weil es nicht ihren eigenen Vorstellungen entspricht.

Mir selbst wäre sie für ihre Mehrleistung gegenüber meiner TX zu kostspielig, rein objektiv gesehen zur TX aber ein Schnapper.
Da könnte man auch sagen "wer die X gekauft hat sollte bei der 1080 nicht mit dem Preis kommen".

Dr.Doom
2016-05-18, 14:31:43
Man kann sich auch echt künstlich über etwas aufregen...
ob irgendwas "Krempel" ist oder nicht liegt allein im Auge des Betrachters.Mein Satz wurde ja vom PhuV allein auf den Krempel reduziert.
[Streichelzoo-Mode]
Die Aussage war doch eigentlich, dass nV die Preise so setzen kann wie sie wollen und ihre Produkte werden trotzdem gekauft.
[/Streichelzoo-Mode]

woodsdog
2016-05-18, 14:33:47
Mein Satz wurde ja vom PhuV allein auf den Krempel reduziert.
[Streichelzoo-Mode]Die Aussage war doch eigentlich, dass nV die Preise so setzen kann wie sie wollen und ihre Produkte werden trotzdem gekauft.[/Streichelzoo-Mode] :freak:

i know. Ich stimme dir vollkommen zu. in Beidem.

Ätznatron
2016-05-18, 14:39:33
Leider machst du nur einen gewaltigen Fehler da du nicht mehr die Performance hauptsächlich bezahlst sondern die Effizienzsteigerung insgesammt die nicht nur von der Performance abhängig ist ;)


Die von mir angesprochene "gebotene Leistung" bezieht sich nicht nur auf die Performance in FPS. Die ist nur ein Teilaspekt davon.

Zur gebotenen Leistung zählt alles, u.a. auch die Effizienz.

Godmode
2016-05-18, 14:57:29
Weil hier so wenige Argumente geliefert werden, möchte ich mich mal versuchen:

Was spricht für den hohen Preis?
- 16FF+ Chips sind deutlich teurer. Der Chip alleine dürfte mehr kosten, als der wesentlich größere GM204.
- Der Speicher wurde verdoppelt und es wird auch schnellerer und völlig neuer Speicher verwendet, der wohl nochmal mehr kostet.
- Die Vaporchamber dürfte ebenfalls etwas teurer als der 980 Kühler sein.
- Da AMD seine Karten noch nicht vorgestellt hat, herrscht momentan kein Konkurrenzdruck.
- Die Karte wurde gerade erst vorgestellt und wir kennen die Straßenpreise noch nicht, sondern nur den MSRP von Nvidia.
- Eventuell will Nvidia die Nachfrage nach GDDR5X Karten erstmal niedrig halten, bis dieser besser verfügbar ist?
- Sie lassen sich ein großes Polster für eine Preissenkung offen?
- Der Eurokurs hat sich nicht zu unseren Gunsten entwickelt.
- Man will erstmal noch die Lagerbestände an GM200 an den Mann bringen.

Was spricht gegen den hohen Preis?
- Bisher waren Highendchips (darüber gibts noch Enthusiast) eher im Bereich 400-600 Euro angesiedelt.
- Vor ein paar Jahren sogar noch deutlich günstiger
- Früher hat man für ca. das selbe Geld alle 12-18 Monate 70-100% mehr Leistung bekommen.


Und nicht dass ich hier falsch verstanden werde, ich finde den Preis ebenfalls als zu hoch.

MiamiNice
2016-05-18, 14:59:13
Die von mir angesprochene "gebotene Leistung" bezieht sich nicht nur auf die Performance in FPS. Die ist nur ein Teilaspekt davon.

Zur gebotenen Leistung zählt alles, u.a. auch die Effizienz.

Imo völlig verkehrt. Zur gebotenen Leistung zählt einzig und alleine die Performance in FPS. Vielleicht noch zum Teil Features wie G-Sync oder Simultaneous Multi-Projection. Welcher Käufer eines ü 600€ Pixelschubsers schaut schon auf die Effizienz?

iuno
2016-05-18, 15:01:49
- Der Speicher wurde verdoppelt und es wird auch schnellerer und völlig neuer Speicher verwendet, der wohl nochmal mehr kostet.
Diesbezueglich kann wohl keiner hier eine konkrete Aussage treffen. Ich bin vorhin aber (per Zufall) hierueber gestolpert: https://www.3dcenter.org/abbildungsverzeichnisse/artikel/herstellungspreise-aktueller-grafikkarten
Und konnte fast nicht glauben, wie die Verteilung damals gewesen sein soll.
Warum gibt es dazu keine aktuelleren Daten?

Godmode
2016-05-18, 15:02:43
Imo völlig verkehrt. Zur gebotenen Leistung zählt einzig und alleine die Performance in FPS. Vielleicht noch zum Teil Features wie G-Sync oder Simultaneous Multi-Projection. Welcher Käufer eines ü 600€ Pixelschubsers schaut schon auf die Effizienz?

Wenn Karte A 100% Leistung mit 100 Watt erreicht und Karte B die selbe Leistung bei 200 Watt erreicht, wird wohl jeder Karte A kaufen, da leiser kühlbar und auch weniger Strom verschleudert wird.

Schnoesel
2016-05-18, 15:03:39
Nvidia ist doch auch Mitschuld wenn die Leute für den Preis eher entäuscht sind, haben sie schließlich einen richtigen Hype geschürt auf den nicht wenige reingefallen sind. Ich sage nur die ominösen 61° oder die 2,1GHZ. Die Jacke hat einfach mal zu laut posaunt für den Preis der jetzt aufgerufen wird, dazu noch die "versteckte" Preiserhöhung, der FE Edition die nix anderes als Referenz ist und wie jede Referenz bisher auch dezent überfordert.

Ich erinnere mich da an feuchte Träume wie selektierte Chips und Taktraten jenseits der 2,4GHZ... ;D

woodsdog
2016-05-18, 15:04:54
Wenn Karte A 100% Leistung mit 100 Watt erreicht und Karte B die selbe Leistung bei 200 Watt erreicht, wird wohl jeder Karte A kaufen, da leiser kühlbar und auch weniger Strom verschleudert wird.

Das stimmt, aber realistischer ist doch eher das Szenario

Karte A 100% Leistung, 100W
Karte B 135% Leistung, 200W

Hier greift doch sicher der Großteil der Leute dann zu Karte B.

MiamiNice
2016-05-18, 15:04:55
Wenn Karte A 100% Leistung mit 100 Watt erreicht und Karte B die selbe Leistung bei 200 Watt erreicht, wird wohl jeder Karte A kaufen, da leiser kühlbar und auch weniger Strom verschleudert wird.

Diesen Fall gibt es aber bei Grafikkarten nicht. Entweder man kauft Karte a mit 100 Fps oder Karte B mit 75 Fps. Da ist die Effizienz doch ziemlich latte.

Das stimmt, aber realistischer ist doch aber eher das Szenario

Karte A 100% Leistung, 100W
Karte B 135% Leistung, 200W

Hier greift doch sicher der Großteil der Leute dann zu Karte B.

Eben und natürlich würde die meisten B kaufen weil man Grafikkarten nach Leistung kauft. Zumindest die Karten über die wir hier sprechen.

Godmode
2016-05-18, 15:05:45
Nvidia ist doch auch Mitschuld wenn die Leute für den Preis eher entäuscht sind, haben sie schließlich einen richtigen Hype geschürt auf den nicht wenige reingefallen sind. Ich sage nur die ominösen 61° oder die 2,1GHZ. Die Jacke hat einfach mal zu laut posaunt für den Preis der jetzt aufgerufen wird, dazu noch die "versteckte" Preiserhöhung, der FE Edition das nix anderes als Referenz ist und wie jede Referenz bisher auch dezent überfordert.

Ich erinnere mich da an feuchte Träume wie selektierte Chips und Taktraten jenseits der 2,4GHZ... ;D

Was die Temperatur angeht, gebe ich dir recht, da hat uns der Jensen mal wieder richtig gelumpt.

Was den Takt angeht, sollten wir erstmal die Herstellerkarten abwarten.

Hübie
2016-05-18, 15:05:46
Stimmt schon, das ist aber weniger ein mathematischer als sprachlicher "Fehlgriff".
Die Verwendung des Komparativs ("schneller") impliziert hier relativ eindeutig, dass die 980 als Ausgangspunkt dient. Insofern solltest du das als Basis nehmen und dort auch die 100% ansetzen.
Wenn du es umdrehst und "langsamer" sagst, passt es wieder ;p

wird es so schnell auch nicht geben, auch nicht mit GP100, imho. Das haengt aber davon ab, welchen Kompromiss man eingehen will - wie viele Frames bei welchen Settings und. Die Anforderungen fuer neue Spiele steigen ja mit staerkerer Hardware auch einfach weiter.

Ich habe sogar mit meinem Mathe-Prof darüber diskutiert (Seefahrer, Ingenieur und Politiker:eek:). Er sagte klipp und klar es ist mathematisch absolut korrekt und es macht immer Sinn den höchsten Wert mit 100 gleichzusetzen wenn so viele Bekannte (wie hier) vorhanden sind. Einfach deshalb weil 100 eine greifbare Ausgangsgröße ist. Man schaue sich mal Leo sein Index an wo es schon in die mehrere hundert Prozent-Bereiche geht.

Wenn manche User hier mathematisch nicht hinterher kommen weil die zu sehr auf ein Wort fixiert sind ist es noch lange kein Grund mich dauernd anzumachen. Es nervt einfach nur noch und ist echt nicht dem Niveau des 3DC angemessen.
Entschuldigt noch mal OT!

Zur Karte: Ich bin ehrlich gesagt gar nicht sooo beeindruckt wie viele Redakteure. Zum einen weil ich auch mal AMDs Packung abwarten möchte und man dann Vergleiche innerhalb eines Prozesses ziehen kann und zum anderen weil die aufgerufenen Preise langsam echt absurd werden (okay sagt einer der 740 € ausgegeben hat :D). Aber 740 für big chip sind imo nichtgleichzusetzen mit 740 für mid chip. Auch wenn letzterer vorläufig schneller ist.
@Schnoesel: Das letzte Wort ist nicht gesprochen und ich an deiner Stelle würde mich erst mal nicht so weit aus dem Fenster lehnen. Oder hättest du gedacht dass 601 mm² bei 1,25 Volt ~1600 MHz machen können? Ich jedenfalls nicht und meine Elektronikkenntnisse sind erweitert bzw. basieren auf einigen Erfahrungen.

Godmode
2016-05-18, 15:07:11
Das stimmt, aber realistischer ist doch eher das Szenario

Karte A 100% Leistung, 100W
Karte B 135% Leistung, 200W

Hier greift doch sicher der Großteil der Leute dann zu Karte B.
Diesen Fall gibt es aber bei Grafikkarten nicht. Entweder man kauft Karte a mit 100 Fps oder Karte B mit 75 Fps. Da ist die Effizienz doch ziemlich latte.



Eben und natürlich würde die meisten B kaufen weil man Grafikkarten nach Leistung kauft. Zumindest die Karten über die wir hier sprechen.

Da die Karten aber immer eine gewisse TDP haben, ist die Effizienz eben doch wichtig. Frag mal Ailuros, der kann dir das sicher genauer erklären. :wink:

MiamiNice
2016-05-18, 15:09:09
Da die Karten aber immer eine gewisse TDP haben, ist die Effizienz eben doch wichtig. Frag mal Ailuros, der kann dir das sicher genauer erklären. :wink:

Mir ist klar worauf Du hinaus willst aber das ist letztlich für den Käufer irrelevant weil er es nicht beeinflussen kann. Den Käufer interessiert nur wie viel Leistung auf dem Monitor ankommt. Zumindest Käufer in dieser Leistungsklasse.

woodsdog
2016-05-18, 15:09:15
Ich kapier auch nicht wieso hier ständig die Die-Größe angesprochen wird...
ist doch völlig latte ob das 10, 100, 300 oder 600 mm2 sind. Wichtig ist doch nur

- was kostet
- was leistet
- was verbraucht

... die karte. Danach kann man schauen was man hat und ob sich das für einen lohnt. Done.

v0v

Godmode
2016-05-18, 15:12:01
Ich kapier auch nicht wieso hier ständig die Die-Größe angesprochen wird...
ist doch völlig latte ob das 10, 100, 300 oder 600 mm2 sind. Wichtig ist doch nur

- was kostet
- was leistet
- was verbraucht

... die karte. Danach kann man schauen was man hat und ob sich das für einen lohnt. Done.

v0v

Die Diegröße ist für den Vergleich der Marktsegmente ganz brauchbar. Bisher gab es von einer neuen Serie immer einen kleinen, mittleren und einen großen Chip. Wenn jetzt der mittlere Chip der neuen Generation, den großen Chip der alten Generation schlagen kann, bin ich eigentlich zufrieden. Für Käufer, die jede Generation zwischen Highend und Enthusiast wechseln, ist das ganze natürlich immer etwas mager, mit 20-30% mehr Leistung.

Um mich nochmal zu wiederholen: Warten wir lieber erstmal die Straßenpreise ab, bevor wir uns hier noch verrückt machen.

Ätznatron
2016-05-18, 15:15:08
Den Käufer interessiert nur wie viel Leistung auf dem Monitor ankommt. Zumindest Käufer in dieser Leistungsklasse.

Den Käufer gibt's nicht, auch nicht in der Leistungsklasse.

Deine Vermutung gilt vielleicht eher für die Masse der Käufer.

Schnoesel
2016-05-18, 15:17:22
1. Glaube ich nicht dass es 2,4GHZ Karten geben wird
2. Ist die Frage wie der Takt skaliert, wenn sie teilweise jetzt schon an der Bandbreite verreckt.

Hübie
2016-05-18, 15:18:17
Ich kapier auch nicht wieso hier ständig die Die-Größe angesprochen wird...
ist doch völlig latte ob das 10, 100, 300 oder 600 mm2 sind. Wichtig ist doch nur

- was kostet
- was leistet
- was verbraucht

... die karte. Danach kann man schauen was man hat und ob sich das für einen lohnt. Done.

v0v

Erster Grund: Man sieht dass es kein Highend ist und daraus resultiert ein geringerer ROI wenn man auf langfristige Investition aus ist.
Zweiter Grund: Kopfsache. Manch einer will weder cut down, noch small die. Kaufen ist immer subjektiv, egal was man sich einredet. Mal mehr mal weniger.
Dritter Grund: Deine genannten Punkte sind mehr oder weniger mit der Größe des Chips verbunden. :wink:

@Schoesel: Meinst du jetzt ab Werk oder in freier Wildbahn? Ersteres: OK, da stimme ich zu. Letzteres: Nö. :P
Und wie kommen alle darauf diese Karte würde an der Bandbreite verrecken? Habe mir Reviews noch nicht durchgelesen, aber wo sind klare Indikatoren dafür zu finden? :confused:

Godmode
2016-05-18, 15:18:49
1. Glaube ich nicht dass es 2,4GHZ Karten geben wird
2. Ist die Frage wie der Takt skaliert, wenn sie teilweise jetzt schon an der Bandbreite verreckt.

Ich glaube auch nicht das es Karten mit 2,4 GHz von Haus aus geben wird. 2,0-2,1 GHz mit Werksoverclocking aber schon. Und ein paar ganz besondere werden woh lauf 2,4 GHz packen, aber die werden genau so selten sein, wie GM200 die 1,5 GHz schaffen.

BK-Morpheus
2016-05-18, 15:21:54
Was die Temperatur angeht, gebe ich dir recht, da hat uns der Jensen mal wieder richtig gelumpt.

Was den Takt angeht, sollten wir erstmal die Herstellerkarten abwarten.
Auch im Bezug auf seine Performance-Angaben, war das schon ein wenig geflunkert.

Die Optimierungen im VR Bereich wurden ja am Ende der Präsentation genannt. Die Aussage, die 1080 wäre doppelt so schnell, wie eine TitanX, hat er aber schon viel früher rausgehauen, ohne jeglichen Hinweis, dass das eigentlich nur unter ganz bestimmten Umständen (da, wo die VR Features zum tragen kommen) stimmt und nicht allgemein beim normalen Gaming auf einem Monitor.

Botcruscher
2016-05-18, 15:23:26
Hier haben doch so viele wegen einem Bandbreiten-Problem rumgejammert, HardwareLuxx schreibt das es keines gibt:
Timings?
PS:
Der Speicher wird ab 5500MHz langsamer, hat CB doch schon raus gefunden. HL hat mit 6000MHz getestet.
Timings. Ist ja jetzt echt nicht neu. HWL sollte es besser wissen.

iuno
2016-05-18, 15:27:30
Andere (Laien)frage:
Wie ist eigentlich der Ablauf bei Referenzkarten? Werden die von Nvidia in Auftrag gegeben und dann als Komplettpaket inkl. GPU, Speicher, Board, Kuehler, Retailverpackung an Partner verkauft oder bauen die das Zeug nur nach Nvidias "Plan" nach?

Wenn die nur das Gesamtpaket geliefert bekommen und weiterverkaufen, warum sollten sie dann die Customs deutlich billiger anbieten als die FE und demnach auf ihre eigene Marge verzichten? Da muesste Nvidia ja fuer die FE fast schon horrende Einkaufspreise ggue. den Partnern verlangen, damit die das ueberhaupt anbieten?! Oder werden die dazu verpflichtet? Ich steige bei dieser Situation noch nicht ganz durch :crazy:

Godmode
2016-05-18, 15:29:25
IIRC verkauft NV den Partnern Chip+Speicher für die Herstellerdesigns. Hingegen kleben die Partner nur mehr ihre Sticker auf die fertigen Referenzkarten.

Chris Lux
2016-05-18, 15:30:26
Wenn man der Argumentation "mehr Leistung - höherer Preis" folgt würde alles immer und immer teurer. Aber Hardware wird nunmal (aktuell noch) schneller und schneller. Wenn nun eine Mid-Range Karte eine andere Mid-Range Karte ersetzen soll wäre doch zu erwarten, dass deren Preis sich in dem Rahmen bewegt. NV packt aber deutlich beim Preis drauf und das stößt halt sauer auf.

Hübie
2016-05-18, 15:30:37
Würde mich auch mal interessieren, da man nun vorgibt dass die Referenz teurer "zu sein hat". Damit nimmt man den AIB doch Marge oder irre ich?

@godmode: Wir können das weiter per PN diskutieren.

Dural
2016-05-18, 15:36:32
Ich weis es ja nicht, aber ich tippe mal:

Ich weis das die Karten von den Partner nur verpackt und beschriftet werden, sie bekommen sie also im ganzen über. In der Vergangenheit haben sich die Partner immer beklagt, da sie bei den Ref. Karten kaum was verdienen.

Ich denke genau da hat NV angesetzt, NV erhält genau das was sie wollen, und die Partner bekommen dank dem höheren Preis jetzt auch etwas mehr.

Armaq
2016-05-18, 15:42:59
Ich versteh nicht, warum man hier keine Preisdiskussion führen soll? Werden die Themen jetzt strukturiert vorgegeben?

Troyan
2016-05-18, 15:43:04
Andere (Laien)frage:
Wie ist eigentlich der Ablauf bei Referenzkarten? Werden die von Nvidia in Auftrag gegeben und dann als Komplettpaket inkl. GPU, Speicher, Board, Kuehler, Retailverpackung an Partner verkauft oder bauen die das Zeug nur nach Nvidias "Plan" nach?

Referenzkarten werden von nVidia gebaut und als Komplettpaket weiterverkauft.

Mit der FE sind anscheinend keine übertakteten Karten mehr möglich.


Wenn die nur das Gesamtpaket geliefert bekommen und weiterverkaufen, warum sollten sie dann die Customs deutlich billiger anbieten als die FE und demnach auf ihre eigene Marge verzichten? Da muesste Nvidia ja fuer die FE fast schon horrende Einkaufspreise ggue. den Partnern verlangen, damit die das ueberhaupt anbieten?! Oder werden die dazu verpflichtet? Ich steige bei dieser Situation noch nicht ganz durch :crazy:

Weil der Preis der FE nicht der MSRP von nVidia ist. Die FE ist ein Produkt von nVidia, das zu einem bestimmten Preis verkauft werden soll(muss). Eine GTX1080 dagegen kann auch für weniger in den Markt kommen.

Hübie
2016-05-18, 15:48:38
Wo haben die sich beklagt? Hast du da interna?
Bisher war es doch so: NVIDIA hat Bestellung von sagen wir 100.000 Referenzkarten. Diese werden je nach Auslastung auf Palit, EVGA & Co verteilt. Diese haben eigene Verpackung, PCBs, Bauteile und Chips per Zukauf auf Lager bzw. auf Abruf. Jetzt fangen die an zu produzieren. Alles was fertig ist, ist direkt verkauft, weil NVIDIA wenig overhead einkalkuliert (d.h. Retail-Channel hauen order raus und diese wird ~1:1,05 umgesetzt). NVIDIA erhält den Kaufpreis Minus die Gemeinkosten für Fertigung plus Marge des AIB (Gewinn = Preis - (GK+AIB)). Alles was produziert ist, kauft NV. Für Customs sind die AIBs jedoch selbst verantwortlich. Was nicht verkauft ist - Pech.
So sind meine Infos.

Godmode
2016-05-18, 15:56:01
Ich versteh nicht, warum man hier keine Preisdiskussion führen soll? Werden die Themen jetzt strukturiert vorgegeben?

Man darf natürlich den Preis diskutieren, aber nicht in dem Stil, der vor ein paar Seiten herrschte. Es regt sich niemand auf, wenn man Argumente für oder gegen den ausgesprochenen Preis hat. Wenn hingegen nur mehr Anfeindungen, etc. kommen, dann wird das kommentarlos gelöscht.

Reaping_Ant
2016-05-18, 15:59:59
Ich denke genau da hat NV angesetzt, NV erhält genau das was sie wollen, und die Partner bekommen dank dem höheren Preis jetzt auch etwas mehr.

Ich denke auch, dass das der Hauptgrund fuer die FE ist. So kann NV komplette Karten verkaufen (und bekommt dafuer natuerlich mehr Geld von den Partnern), und die Partner koennen ihre eigenen Designs auf den Markt bringen, ohne mit einem (guenstigen) Refernzdesign, an dem sie selbst wenig verdienen, konkurrieren zu muessen. War es bei NV nicht in der Vergangenheit so, dass die Partner eine bestimmte Menge an Referenzkarten abnehmen mussten? Ich habe da was im Hinterkopf, kann es aber nicht mehr genau zuordnen.

Marketingtechnisch positioniert man die Referenz dann als "Craftsmanship"-Premiummodell. Ist ja auch nicht mal gelogen, fuer ein DHE Design ist die Referenzkarte schon ziemlich gut. Ich kann mir ausserdem vorstellen, dass das Referenzdesign (zumindest der Kuehler) tatsaechlich deutlich teurer in der Herstellung ist als die Custom-Varianten. Dass es mit einem Riesenkuehler mit drei 90mm Axiallueftern kuehler, leiser und billiger geht ist keine Kunst.

Birdman
2016-05-18, 16:00:22
Diesen Fall gibt es aber bei Grafikkarten nicht. Entweder man kauft Karte a mit 100 Fps oder Karte B mit 75 Fps. Da ist die Effizienz doch ziemlich latte.
EVGA Superclocked 980Ti vs GTX1080 FE
Quasi gleiche Perfomance bei 280 vs 180Watt TDP - keine Ahnung wer da einfach nach dem 50:50 und "mir ist egal" Prinzip in die Rappelkiste greift und eine der beiden Karten kauft.....

Als die GTX970 noch 4GB Speicher hatte, haben auch viele alleine wegen den 100Watt weniger zu dieser Karte anstelle der r390 gegriffen, obwohl oder gerade deswegen weil die Performance damals in vielen Bereichen ziemlich gleich auf war.

Troyan
2016-05-18, 16:02:49
Warum sollte heute noch jemand eine GTX980TI kaufen? Selbst wenn man übertaktete Karten mit 1450MHz gegen eine GTX1070 mit ~2000MHz stellt, rechtfertigt der Leistungsunterschied kaum den deutlichen Mehrverbrauch (~330W gegenüber ~215), die schlechtere Architektur und die schlechteren 2D-Fähigkeiten (Displaycontroller, Videoencoder/-decoder etc).

Mal davon abgesehen, dass eine GTX1070 maximal €499 in der FE kosten wird und neue GTX980TIs für deutlich mehr als 500€ verkauft werden.

MiamiNice
2016-05-18, 16:21:41
EVGA Superclocked 980Ti vs GTX1080 FE
Quasi gleiche Perfomance bei 280 vs 180Watt TDP - keine Ahnung wer da einfach nach dem 50:50 und "mir ist egal" Prinzip in die Rappelkiste greift und eine der beiden Karten kauft.....


Ich bin mir nicht sicher ob Du verstanden hast worum es geht :wink:

akuji13
2016-05-18, 16:25:24
Als die GTX970 noch 4GB Speicher hatte, haben auch viele alleine wegen den 100Watt weniger zu dieser Karte anstelle der r390 gegriffen, obwohl oder gerade deswegen weil die Performance damals in vielen Bereichen ziemlich gleich auf war.

Du vergisst das die 970 dadurch deutlich einfacher und damit leiser zu kühlen war.

Fast alle guten R390 Kühlsysteme passen aufgrund ihrer Größe nicht oder nur schlecht in kleine Gehäuse.
Ich selbst habe meine 980Ti bei meinem Wechsel nicht durch eine 390 PCS+ ersetzen können weil diese zu lang ist.

Hübie
2016-05-18, 16:36:30
Na dann will ich es mal versuche rein mathemtisch :tongue:
[...]

Ich würde dir zustimmen - hätten wir hier auch nur irgendeine Unbekannte. ;)

Thema Preis: Es ist mikroökonomisch betrachtet ein extrem subjektives Ergebnis ob man den als zu hoch, niedrig oder angemessen sieht. Da spielen persönliche Präferenzen mit rein, Marktzugang, eigenes Kapital und letztendlich der Erwartungshorizont (der Zeitbezug) eine übergeordnete Rolle.
Darüber kann man also absolut nicht streiten.
Makroökonomisch kann man das nun aus Haushaltssicht oder aus Unternehmenssicht durchkauen, aber hat da jeder Bock drauf? Ich denke nicht. Wer nicht bereit ist den Preis zu zahlen, hat absolut keinen Anlass sich darüber aufzuregen dass andere es tun.
Man muss nun mal akzeptieren dass es Leute gibt, für die Geld einfach keine Rolle spielt weil es da ist. Ebenso wenig wie jeder hier die Butter im Schrank so zu schätzen weiß wie andere Menschen in "armen" Regionen.

Menace
2016-05-18, 16:48:44
OT kognitive Dissonanz.

Mein gelöschter Beitrag bzgl. kognitive Dissonanz (https://de.wikipedia.org/wiki/Kognitive_Dissonanz#Marketing) ist aber keine Anfeindung, sondern normales menschliches Verhalten und der Versuch diese Dissonanz auszugleichen. Das geht jedem so, aber ich erkläre es trotzdem am meinem Beispiel, ich selbst kann mich ja kaum anfeinden.
Ich sehe eine sehr gute Grafikkarte kann sie mir aber nicht leisten. Um nicht meinem zu geringen Konto die Schuld zu geben, suche ich die Schuld beim Hersteller. Für Produkte, die ich zum Leben benötige, wäre die Kritik berechtigt, für Highend-Grafikkarten weniger.

Würde man diese Hypothese mit bei der Argumentation berücksichtigen (zu teuer, Feature XY fehlt, ...) wäre hier manche Diskussion sachlicher bzw. nicht ganz so hysterisch.