PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17

Unyu
2016-05-18, 17:04:06
Als die GTX970 noch 4GB Speicher hatte, haben auch viele alleine wegen den 100Watt weniger zu dieser Karte anstelle der r390 gegriffen, obwohl oder gerade deswegen weil die Performance damals in vielen Bereichen ziemlich gleich auf war.Wohl kaum, schließlich gab es die 390 erst 1 Jahr später. Das Speicherproblem wurde noch ein halbes Jahr vor Start der 390 publik.

Ätznatron
2016-05-18, 17:06:57
Wohl kaum, schließlich gab es die 390 erst 1 Jahr später. Das Speicherproblem wurde noch ein halbes Jahr vor Start der 390 publik.

Ersetze 390 durch 290.

Iruwen
2016-05-18, 17:09:06
Bisher waren Highendchips (darüber gibts noch Enthusiast) eher im Bereich 400-600 Euro angesiedelt.

Kommt über der GTX 1080 denn noch was?

Godmode
2016-05-18, 17:13:01
Kommt über der GTX 1080 denn noch was?

Natürlich kommt noch ein Dickschiff mit 450-600mm2 Die, also der Nachfolger von GM200. Wahrscheinlich aber eher erst im Jahr 2017.

Complicated
2016-05-18, 17:27:06
Ich würde dir zustimmen - hätten wir hier auch nur irgendeine Unbekannte. ;)
Mathematik funktioniert auch wunderbar mit bekannten Zahlen. Wie hier eben. Warum brauchst du eine Unbekannte um ein eindeutiges Ergebnis mathematisch zu verifizieren? Mir entgeht der Zusammenhang des Arguments.
Du kannst mir gerne mathematisch das Gegenteil beweisen - bisher liegst du aber mathematisch bewiesen daneben mit deinen Aussagen zum Prozentrechnen.

ShinyMcShine
2016-05-18, 17:40:49
Mal nur so kurz am Rande: die GPU auf der 1080 ist nicht beschnitten? Also 2560 Shader-Einheiten ist der volle Chip?

VG
Shiny

Godmode
2016-05-18, 18:39:50
Sehr schwierig zu beurteilen. Die Chip hat sicher Redundanzen, aber wie genau das dann intern aufgebaut ist, kann wohl nur Nvidia sagen und die schweigen ja bekanntlich zu solchen Themen. Rein von der Anzahl der Transistoren, deutet nichts auf noch mehr SMMs hin.

N0Thing
2016-05-18, 18:43:59
Im Sinne von, es wird keinen GP104 mir mehr als 2560 Shader-Einheiten geben, ist es der Vollausbau. War ja früher auch nicht anders-

Der GK104 hatte als Beispiel vermutlich auch redundante Schaltungen zur Verbesserung der Ausbeute, trotzdem gelten die Chips mit 1536 Streamprozessoren als Vollausbau.

scully1234
2016-05-18, 18:45:18
Was die Temperatur angeht, gebe ich dir recht, da hat uns der Jensen mal wieder richtig gelumpt.

Was den Takt angeht, sollten wir erstmal die Herstellerkarten abwarten.


http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-1080-REVIEWS/GTX-1080-REVIEWS-16.png

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72619-nvidia-geforce-gtx-1080-review-24.html

Duerfte den selben Werten entsprechen wie das was Jacke da auf der Buehne gezeigt hat, auch von den Temperaturen.Vielleicht ist das wie bei Intels FInFET ,einige Chips sind Brueter mit hohen Leckstroemen ,andere wiederum nicht

(del)
2016-05-18, 18:51:34
Das Bild halte ich für gefakt oder es ist extrem kalt im Raum oder was weiß ich :D
Wie lange lief die Karte denn schon so?

Nach dem Test von zwei Karten und den Messungen von mehreren Kollegen halte ich so einen Ausreißer für unrealistisch.
Wir hatten alle den gleichen Takt und Temperaturen zwischen 65°C und 68°C.

http://media.bestofmicro.com/W/2/581762/gallery/03-Temperatures_w_600.png

Ok, ich kann auch 99-100% Last provozieren und die Karte nicht übermäßig aufheizen. Metro LL auf 4K macht die Karte übrigens heißer, als EVGAs eingebauter Test :D

scully1234
2016-05-18, 18:53:10
Keine Ahnung wie lange die lief auf jedenfall nach GPU Z nicht all zu kurz

Es zeigt zumindestens das Jacke nicht unbedingt schon wieder im Baron Muenchhausen Lager sein muss

Vielleicht ist die Streuung der Chips auch noch sehr hoch am Anfang

Hübie
2016-05-18, 18:54:45
OT kognitive Dissonanz.

Mein gelöschter Beitrag bzgl. kognitive Dissonanz (https://de.wikipedia.org/wiki/Kognitive_Dissonanz#Marketing) ist aber keine Anfeindung, sondern normales menschliches Verhalten und der Versuch diese Dissonanz auszugleichen. Das geht jedem so, aber ich erkläre es trotzdem am meinem Beispiel, ich selbst kann mich ja kaum anfeinden.
Ich sehe eine sehr gute Grafikkarte kann sie mir aber nicht leisten. Um nicht meinem zu geringen Konto die Schuld zu geben, suche ich die Schuld beim Hersteller. Für Produkte, die ich zum Leben benötige, wäre die Kritik berechtigt, für Highend-Grafikkarten weniger.

Würde man diese Hypothese mit bei der Argumentation berücksichtigen (zu teuer, Feature XY fehlt, ...) wäre hier manche Diskussion sachlicher bzw. nicht ganz so hysterisch.

Ich denke damit greifst du wirtschaftspsychologisch zu hoch. Den Effekt gibt es sicher bei den wenigsten Käufern dieser Produkte.

Kommt über der GTX 1080 denn noch was?

Aktuell nix. Nein. Das wird noch ein gutes dreiviertel Jahr dauern.

bisher liegst du aber mathematisch bewiesen daneben mit deinen Aussagen zum Prozentrechnen.

A) Nö und B) gerne per PN. Herrje. :rolleyes:

horn 12
2016-05-18, 19:07:16
@Format C

Was haltest Du persönlich von der GTX 1080 und wieviel schneller ist jene für einen Fury Besitzer
Sind 30-35% in Ultra HD locker drinnen.
Welche Negativ-Punkte gefallen Dir persönlich nicht und werden es die Custom Karten reissen, oder bleibt AMD´s VEGA dann Spitzenreiter ab Oktober 2016

Radeonfreak
2016-05-18, 19:08:53
Ich hab auch mal eine Frage zum Start nächste Woche. Kann man mit dem Nvidiainspector eine GTX 1080 übertakten oder ist man nächste Woche auf eine andere Software angewiesen? :confused:

kruemelmonster
2016-05-18, 19:13:24
Kann man mit dem Nvidiainspector eine GTX 1080 übertakten...

Da davon auszugehen ist dass sich an der NVAPI nichts fundamentales ändert: Ja.

Radeonfreak
2016-05-18, 19:16:38
Fein. Danke. :)

Godmode
2016-05-18, 19:25:18
Fein. Danke. :)

Wo hast du eigentlich deine 1080 bestellt, weil weder auf Nv.com oder .de gibts einen Link.

Complicated
2016-05-18, 19:26:12
A) Nö und B) gerne per PN. Herrje. :rolleyes:Ich warte äußerst gespannt auf die PN.:cool:

Hübie
2016-05-18, 19:27:34
Woher weißt du das sie bestellt hat? :confused: Steht doch da gar nicht.

@complicated: Du solltest mich anschreiben ;)

Radeonfreak
2016-05-18, 19:33:05
Wo hast du eigentlich deine 1080 bestellt, weil weder auf Nv.com oder .de gibts einen Link.

Na nirgendwo. Geht ja noch gar nicht. Ich versuche nur mich vorab so gut wie möglich zu informieren.

Complicated
2016-05-18, 19:33:30
Und was soll ich dir schreiben? Du wolltest per PN antworten um den Thread zu schonen...das gelingt auf diese Weise aber nicht ;( Bin dann mal aus dem OT raus ;)

(del)
2016-05-18, 19:38:46
@Format C
Was haltest Du persönlich von der GTX 1080 und wieviel schneller ist jene für einen Fury Besitzer
Sind 30-35% in Ultra HD locker drinnen.
Welche Negativ-Punkte gefallen Dir persönlich nicht und werden es die Custom Karten reissen, oder bleibt AMD´s VEGA dann Spitzenreiter ab Oktober 2016

Zu AMD kann ich nichts sagen, weil die Glaskugeln gerade vergriffen sind. Wenn ich DAS alles wüsste, wäre ich Marktanalyst und Börsenguru, hätte Warren Buffet seine Äppel-Aktien wieder abgekauft und damit in Sibirien ein Lagefeuer entfacht, um den Permafrostboden für Melonen gängig zu machen ;)

Tja und VEGA... Ich schätze mal, der Karte wird es ergehen wie seinerzeit der Fury X. Damals hatte AMD die Quadro M6000 schon ewig fertig (und schon die ganzen Lötstellen für die TX in petto), da konnte man erst die TX als Köder für die Superreichen und Schönen dieser Welt zum anfixen rausballern und nacher mit den gesammelten Ausschuss-Chips die Ti AMD geradewegs vor den Bug schießen und den Markt fluten. Wer hat schon mal die ganzen 980 Ti Modelle gezählt? Unmengen und es wurden immer mehr. AMDs Marketing ist so schlicht, die springen brav jedes Mal über das Stöckchen, das ihnen NV hinhält. Mein Mitleid hält sich bei so viel Ignoranz arg in Grenzen. Die basteln seit Monaten an einer Karte, die sie längst fertig haben. Warum zur Hölle man nicht erst die Mittelklasse abgegrast und endlich mal wieder Geld verdient hat, weiß kein Mensch. Aber es ist ja nicht ihr Geld und je mehr Schulden einer hat, um so unbekümmerter wird er. :)

Die GTX 1080 ist ein nettes Stück Technik zu einem derzeit recht hohen Preis, wobei ich mich wirklich schon auf die ganzen Custom Designs freue. So lange die Leute jedoch bereit sind, das alles brav zu bezahlen, so lange hat NV alles richtig gemacht. Es wird ja keiner gezwungen zu kaufen und Lederjacken-Jensen in Mutter-Theresa-Gedächtniskluft geht ja nun schon mal gar nicht. NV ist nicht die Heilsarmee und die 1080 bis zur Ti und X das Flaggschiff, danach nur noch obere Mittelklasse. Groundhog day eben, wie immer. Außerdem muss auch NV erst mal zusehen, wie man die hohen Investitionskosten wieder einspielen kann. Da gibt es keine Scheichs, die halt einen Monat mal aufs vergoldete Klopapier verzichten, um den armen Bruder wieder aufzupäppeln. :D

Als Besitzer eine 980 Ti oder TX würde ich mich gelangweilt zur Seite drehen und auf die echte Männer-Karte warten. Falls ich über die Mittel verfüge und auch den Sinn darin sehe, Jensen endlich mal eine gescheite Jacke zu finanzieren :D

yamo
2016-05-18, 19:46:16
Sollte sich der etwas obszöne Preisaufschlag etwas legen und sich die 1080 auf ~650 € einpendeln, würde ich (schweren Herzens) auf den Einkaufswagen klicken. Vorausgesetzt, das Teil läßt sich im PT gut modden (wird eh unter Wasser gesetzt). Allerdings fällt afaik der FPS-Gewinn unter 2,1 GHz recht mager aus, wenn ich PCGH noch richtig erinnere (4fps?).
Die ´80 ist gutes high-end mit sinnvollen Verbesserungen zu einem saftigen Einstiegspreis.
Ich hege keine großen Hoffnungen, daß sich in Sachen SpaWa (8+6) noch 1080 Monster präsentieren werden, sofern AMD mit Vega nicht vorzeitig kontert.
Und wenn mann´s mit dem AA nicht übertreibt, ist die GPU fast durchgängig UHD fähig.

Godmode
2016-05-18, 19:46:57
Woher weißt du das sie bestellt hat? :confused: Steht doch da gar nicht.

@complicated: Du solltest mich anschreiben ;)

Dann hat sie uns im Club nur veräppelt. ^^

Bösewicht
2016-05-18, 20:03:13
beim YouTube stream wo die neuen Funktionen noch mal genau erklärt wurden sagte der linke das bei der Präsentation die Lüfter auf 100% liefen so wie auch schon vermutet wurde, nur noch mal für die die es überlesen oder stream verpasst haben :wink:

(del)
2016-05-18, 20:11:31
Womit meine nachgestellte Szene genau stimmt :D

Ich zitiere mich mal aus meinem Review (http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-11.html) (einschließlich der Textformatierung):
Bei unserem Standard-Setup mit 22°C Raumtemperatur sind es nur noch 68 bis 69°C und in einem Raum bei 20°C sowie der weniger fordernden Full-HD-Auflösung dann exakt die 65°C von der Produktvorstellung. Dass diese Geräuschentwicklung in einem voll gefüllten Saal mit Hintergrundmusik nicht weiter auffällt, war dabei sicher einkalkuliert reiner Zufall.

scully1234
2016-05-18, 20:14:50
Hier ist uebrigens noch ein Review was nach OC nen vergleichbaren Boost von 2,1GHZ erreicht haben will, allerdings auch mit hoeheren Temps und man kennt die Time Skala ueberhaupt nicht

https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/30.html

Er schreibt aber auch

Overclocking results listed in this section are achieved with the default fan and voltage settings

Michalito
2016-05-18, 20:24:15
Womit meine nachgestellte Szene genau stimmt :D

Ich zitiere mich mal aus meinem Review (http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111-11.html) (einschließlich der Textformatierung):
war dabei sicher einkalkuliert reiner Zufall

Ja, das fand ich sehr gut die Stelle :biggrin: Iwi, kommt die auf THG.com auch anders rüber.. :wink: Der gute Chris..

(del)
2016-05-18, 21:15:07
Das Problem bei US ist der Übersetzer zwischendrin, die fehlende Textformatierung dadurch und irgendwie auch Nvidia als quasi Büro-Nachbar nebenan. :P
Chris kann nichts dafür, die Texte werden dort vom Chef geglättet. Und für meine Metaphern gibt es einen eindeutigen Streichbefehl, weil sonst die Übersetzungen zu teuer werden :D

Iruwen
2016-05-18, 21:16:28
Natürlich kommt noch ein Dickschiff mit 450-600mm2 Die, also der Nachfolger von GM200. Wahrscheinlich aber eher erst im Jahr 2017.
Dann ist die GTX 1080 als mit Abstand schnellste Single GPU Karte bis dahin ja im Enthusiastensegment zu verorten und entsprechend bepreist.

PHuV
2016-05-18, 21:21:42
Als Besitzer eine 980 Ti oder TX würde ich mich gelangweilt zur Seite drehen und auf die echte Männer-Karte warten. Falls ich über die Mittel verfüge und auch den Sinn darin sehe, Jensen endlich mal eine gescheite Jacke zu finanzieren :D
Ich bin am Überlegen wegen VR mit der HTC Vive. Jedoch habe ich bisher noch kein Spiel (in VR) gehabt, was bisher irgendwie performancetechnisch die TitanX irgendwie in die Bredouille gebracht hat.

Ätznatron
2016-05-18, 21:22:51
Dann ist die GTX 1080 als mit Abstand schnellste Single GPU Karte bis dahin ja im Enthusiastensegment zu verorten und entsprechend bepreist.

Ja, wer sich ein halbes Jahr gedulden kann, bekommt sie dann zu bestimmt angemessenerem Preis.

Dann gehört die Karte allerdings nicht mehr zum Enthusiastensegment. Aber das kann man ja auch verschmerzen.

yamo
2016-05-18, 21:23:49
Eine Frage zum Thema Fast-Sync an die Experten hier.
Könnte man dieses Feature nicht zum A(free)-Sync mißbrauchen, indem man sich eine Auflösung (z. B. UHD@30Hz) erstellt?

Hübie
2016-05-18, 21:27:04
Da fällt mir ein: Was genau soll das jetzt sein? Ich habs nicht gecheckt :redface: Füür mich sieht es aus wie V-Sync mit geordnetem triplebuffer.

scully1234
2016-05-18, 21:27:44
Und für meine Metaphern gibt es einen eindeutigen Streichbefehl, weil sonst die Übersetzungen zu teuer werden :D

Ob das ueberhaupt wer gebacken bekaeme , das endet dann so ,wie Juergen Klopps Pressekonferenzen;D

yamo
2016-05-18, 21:31:50
Da fällt mir ein: Was genau soll das jetzt sein? Ich habs nicht gecheckt :redface: Füür mich sieht es aus wie V-Sync mit geordnetem triplebuffer.

Könntest Du dazu die prozentualen Leistungsverbesserungen/Defizite angeben:freak:
Nee, im Ernst. Die "Technik" muß doch positiv zu mißbrauchen sein:wink:

Djudge
2016-05-18, 21:34:51
Als Besitzer eine 980 Ti oder TX würde ich mich gelangweilt zur Seite drehen und auf die echte Männer-Karte warten. Falls ich über die Mittel verfüge und auch den Sinn darin sehe, Jensen endlich mal eine gescheite Jacke zu finanzieren :D


Ist wirklich eine Stange Geld, vielleicht lässt er ja eine springen, wenn man ihm DIE1 Jacke vermitteln kann.

Hoffentlich kommt da noch etwas Bewegung ins Spiel, AMD gib Alles!

Godmode
2016-05-18, 21:41:41
Dann ist die GTX 1080 als mit Abstand schnellste Single GPU Karte bis dahin ja im Enthusiastensegment zu verorten und entsprechend bepreist.

Ja rein von der Leistung und Preis her ist das ein reiner Enthusiast Chip. Nur die die Chipgröße sagt, dass es eben erstmal der mittelgroße Chip ist, wie alle x04 Chips bei Nvidia und noch was großes und noch teureres nachkommt.

BitJäger
2016-05-18, 21:45:22
In der Bucht gab es heute ne GTX Titan X - EVGA GeForce GTX Titan X SC 12g-p4-2992-kr - für 516€ inkl..

http://www.ebay.de/itm/252393267122?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

Der Ab.- u. Ausverkauf hat begonnen.

yamo
2016-05-18, 21:49:26
Eine Frage zum Thema Fast-Sync an die Experten hier.
Könnte man dieses Feature nicht zum A(free)-Sync mißbrauchen, indem man sich eine Auflösung (z. B. UHD@30Hz) erstellt?

Ich wiederhole ungerne meine Frage..., welche aber durchaus angebracht ist.

Godmode
2016-05-18, 21:50:05
Scheint so zu sein. Ich könnte mir durchaus vorstellen, dass der Preis nach ner Weile sogar wieder etwas ansteigt. Momentan wird der Markt geflutet, daher kann der Preis nur nach unten gehen.

captain_drink
2016-05-18, 22:05:25
Eine Frage zum Thema Fast-Sync an die Experten hier.
Könnte man dieses Feature nicht zum A(free)-Sync mißbrauchen, indem man sich eine Auflösung (z. B. UHD@30Hz) erstellt?

Kein Experte, aber: Wüsste nicht, wie dadurch die Funktionalität von Async erreicht werden würde.
Mehr als 30 FPS würden am Display nicht dargestellt und falls man die 30 FPS nicht halten kann, fällt man auf den nächsten Teiler (15 FPS).

phoenix887
2016-05-18, 22:12:43
Schreck zum Abend:
Bin gerade am Schreiben, plötzlich wird der Bildschirm dunkel. Reboot, nichts. PC fährt hoch (laut Diagnose), aber nichts zu sehen.

Auschlussverfahren (gut, wenn man eimerweise Technik hat):
- Grafikkarte in anderes System gehängt: Check.
- PCIe-Spannungsversorgung gemessen. Check,
- Kleine Karte ohne Spannungsversorgung in freien Slot gesteckt: Check

Ursache:
Riser-Kabel (Thermaltake Core P5). Die Kiste fliegt zum nächstmöglichen Termin auf den Schrott. Ist eh alles wackelig wie Lämmerschwanz.

*gefrustet*

Naja. Im Office steige ich eh bald um auf 44 Kerne. Mal sehen, was für ein Case ich dann nehme. Jedenfalls nichts mehr an die Wand. Renderbiest - ich warte sehnsüchtig. 88 Threads sind der Hammer :D

Wen es interessiert:
Die 1080 geht bei Win 10 nur mit Threshold 2, alles darunter biegt der Pressetreiber weg. Was sich NV da gedacht hat... Ich habe eine Enterprise und werde die nicht updaten, solange der Rotz nicht stabil ist.

War das der Rechner, den du mal so stylisch zusammenbaut hast, mit der Lightning und an die Wand genagelt hast?:)

(del)
2016-05-18, 22:14:53
Hol dir doch die Lian Li Version, die ist eh hübscher :P
Die steht bei meiner Frau unterm Schreibtisch :D

http://media.bestofmicro.com/5/H/532853/gallery/Stresstest_w_755.jpg

War das der Rechner, den du mal so stylisch zusammenbaut hast, mit der Lightning und an die Wand genagelt hast?:)
Genau der :)

phoenix887
2016-05-18, 22:19:26
Ok den kannst du mir dann verkaufen zum basteln.:D

Wegen dem Rechner deiner Frau, kann die damit würdig umgehen.;) nur mal so gefragt kenn sie ja nicht, sondern nur Frauen, bei denen ich schon froh bin das ich nicht erklären muss, das eine Maus kein Nagetier ist:D

(del)
2016-05-18, 22:26:53
Die kann schrauben, dremeln, PCs zusammen bauen... Und hat deutlich schmalere Hände als ich. Immer praktisch, wenn Asiaten um die Ecke denken und alles total verzwickt eng zusammenstöpseln. :D
Hätte die kein Verständnis für meinen 14-Stunden-Job, hätte ich sie nicht geheiratet. Die ist selbst infiziert, abgebrüht und zockt auch schon mal Splatter-Zeugs. Ok, ist auch 16 Jahre jünger :P

Back2Topic:
Die Vögelchen zwitschern, dass die Boardpartner nächste Woche den Markt fluten :D

Troyan
2016-05-18, 22:29:45
Format_C, Hast du deine GTX1080 noch? Könntest du mit GPUView mal überprüfen, wie nVidia Async Compute unter DX12 unterstützt?

(del)
2016-05-18, 22:34:46
Format_C, Hast du deine GTX1080 noch? Könntest du mit GPUView mal überprüfen, wie nVidia Async Compute unter DX12 unterstützt?Ich habe aber keine Lust, mir jetzt das Testystem mit dem ganzen SDK zu verhunzen. Hast Du einen Einzellink? Vor allem, was soll ich da genau überprüfen? Ich nehme das nie...
In unserem Artikel steht aber eigentlich alles drin. Ist ja nun kein Hexenwerk.

Russische Notlösung:

https://scontent.ftxl1-1.fna.fbcdn.net/v/t1.0-0/s480x480/13254369_1236005093100819_6822306913542571028_n.jpg?oh=c4d01933117c427444e7f400d 57a78b8&oe=57A564F5

scully1234
2016-05-18, 22:40:12
Back2Topic:
Die Vögelchen zwitschern, dass die Boardpartner nächste Woche den Markt fluten :D

Hoffentlich auch mit brauchbaren Material

(del)
2016-05-18, 22:42:04
Ich habe bereits PCBs gesehen, die NICHT der Nvidia-Blaupause entsprechen. :)

scully1234
2016-05-18, 22:42:44
Blaupause ist gut,nur n Bisschen mehr Speck auf die Rippen

Troyan
2016-05-18, 22:43:45
Hast du das Windows Kit für Windows 10 installiert? - https://msdn.microsoft.com/en-us/windows/hardware/dn913721.aspx

Ich kein Problem, wenn du es nicht machen möchtest. Spätesten nach dem Launch sollte sich jemand finden.

Fusion_Power
2016-05-18, 22:43:55
Die kann schrauben, dremeln, PCs zusammen bauen... Und hat deutlich schmalere Hände als ich. Immer praktisch, wenn Asiaten um die Ecke denken und alles total verzwickt eng zusammenstöpseln. :D
Hätte die kein Verständnis für meinen 14-Stunden-Job, hätte ich sie nicht geheiratet. Die ist selbst infiziert, abgebrüht und zockt auch schon mal Splatter-Zeugs. Ok, ist auch 16 Jahre jünger :P

JACKPOT! :wink:
Frauen, die man mit Technik beglücken kann sind wesentlich umgänglicher, finde ich. Zumal ich keine Ahnung von Schmuck, Schuhen, Mode oder Blumen hab, zum Glück hab ich bisher auch so einige coole Mädels kennen gelernt die man auch mit ner neuen Konsole oder nem neuen Game happy machen konnte. :)

Zugegeben, Geschenke wie eine Geforce GTX 1080 gehen dann natürlich auch wieder ins Geld. Zumindest hätten Beide dann auch was davon. ^^

kruemelmonster
2016-05-18, 22:43:56
Wen es interessiert:
Die 1080 geht bei Win 10 nur mit Threshold 2, alles darunter biegt der Pressetreiber weg. Was sich NV da gedacht hat... Ich habe eine Enterprise und werde die nicht updaten, solange der Rotz nicht stabil ist.

Die paar Hansel die eine echte LTSB Lizenz am laufen haben wird der Release einer Grafikkarte für Spieler wohl am Allerwertesten vorbei gehen. Alle anderen haben bereits Threshold2 und werden Ende Juli auf Redstone1 aktualisiert werden.

10240 interessiert keine Sau.

Jetzt da ich nochmal drüber gelesen hab: TH2 ist eben dafür da das "der Rotz" stabil ist, siehe http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11037215&postcount=800

(del)
2016-05-18, 22:45:43
Ich hab mal hochgerechnet. Sollte der Chip so skalieren, wie ich das mir denke, bräuchte man ca. 250 Watt für die 2,5 GHz++. Immer vorausgesetzt, der Chip taugt was. Was aber erschreckend war, ist die nicht so pralle Skalierung, zumal dann immer mehr der Speicher den Spaß ausbremst.

(del)
2016-05-18, 22:47:10
Hast du das Windows Kit für Windows 10 installiert? - https://msdn.microsoft.com/en-us/windows/hardware/dn913721.aspx Ich hab ja gesagt, ich habe keine Lust das ganze Paket aufs Testsystem zu laden. Das ist eine Clean-Install. ;)

Sorry für den Doppelpost, hier hat es die ganzen Antworten überschneiden lassen :)

Die paar Hansel die eine echte LTSB Lizenz am laufen haben wird der Release einer Grafikkarte für Spieler wohl am Allerwertesten vorbei gehenDas Problem ist, dass die Installs noch kein TH2 angeboten bekommen haben. Klar kann ich auch tricksen und eine Pro installieren, um sie dann per Key zur Enterprise zu machen und dann am Server registrieren lassen. Nur will ich das nicht. Ich kann ja auch TH2 händlich draufschmeißen, aber dann sind die Apps weg und ich habe das ganze Lizensierungsgebammel wieder von vorn. Lizenzen zu übertragen geht wohl, macht aber immens Aufwand.

Wenn Du wüsstest, wie viele mich schon nach der Renderleistung gefragt haben... Auch "Enterprise-Hansel"

Emperator
2016-05-18, 22:48:41
In der Bucht gab es heute ne GTX Titan X - EVGA GeForce GTX Titan X SC 12g-p4-2992-kr - für 516€ inkl..

http://www.ebay.de/itm/252393267122?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

Der Ab.- u. Ausverkauf hat begonnen.

Mal das Bewertungsprofil angeschaut?
Positive Bewertungen gesammelt mit billigen Kram <10€
Dann ein Iphone verkauft, was nie beim Käufer ankam.
Jetzt wird wieder ein hochpreisiger Artikel angeboten. Und der Verkäufer bietet weder Abholung oder Paypal an, sondern nur den Liebling der Betrüger "Überweisung".
Und das Artikelbild wurde von einen Instagram User ausgeliehen ...

Die 516€ sind also nur der Preis für die Erkenntnis das man einen Betrüger aufgesessen ist und noch kein Zeichen für einen Abverkauf ;)

iuno
2016-05-18, 22:52:55
Eine Frage zum Thema Fast-Sync an die Experten hier.
Könnte man dieses Feature nicht zum A(free)-Sync mißbrauchen, indem man sich eine Auflösung (z. B. UHD@30Hz) erstellt?
Nein
Da fällt mir ein: Was genau soll das jetzt sein? Ich habs nicht gecheckt :redface: Füür mich sieht es aus wie V-Sync mit geordnetem triplebuffer.
Ist eine Implementierung von triple buffering mit schoenerem Namen. Die Backbuffer werden unendlich geswappt, es wird also auch weitergerechnet, wenn beide buffer voll sind und dann einfach entsprechend Frames verworfen, sodass man max. 1 Frame zusaetzliche Verzoegerung hat.

(del)
2016-05-18, 23:00:41
Die 516€ sind also nur der Preis für die Erkenntnis das man einen Betrüger aufgesessen ist und noch kein Zeichen für einen Abverkauf ;)

Ja, ich lese das so Tolles wie:
Artikel bezahlt,keine Ware,Strafanzeige bei der Polizei
15. Jun. 2015

kruemelmonster
2016-05-18, 23:02:06
Das Problem ist, dass die Installs noch kein TH2 angeboten bekommen haben...

:confused:

Verstehe das Problem nicht, es gibt afair seit dem TH2 Release vor 6 Monaten auch entsprechende Enterprise ISOs.
Und das bei Enterprise ein Upgrade immer Neuinstallation bedeutet ist natürlich unschön, aber wäre das nicht Grund genug für dich um ebenfalls auf Pro umzusteigen und somit die gleiche Build zu nutzen wie der überwältigende Teil deiner Leserschaft?

Btw, Enterprise != LTSB

(del)
2016-05-18, 23:08:33
:confused:
Verstehe das Problem nicht, es gibt afair seit dem TH2 Release vor 6 Monaten auch entsprechende Enterprise ISOs.
Auf dem Gaming-Testsystem ist die Pro, steht ja auch im Artikel. Sonst hätte ich ja gar nicht testen können :)

Ich habe aber auf einigen Systemen die Enterprise laufen, weil dort Workstation-Sachen getestet werden. Ich bekomme diese Systeme samt der Lizenzen gestellt und habe keine Lust, dort groß dran rumzufrickeln. Das betrifft auch meinen Arbeitsplatzrechner, auf dem eher wenig gezockt wird. Ich bin doch nicht nur Redakteur ;)

BTW:
Manche der tollen Programme vermuten ja schon hinter dem CPU-Tausch ein neues System samt Schwarzkopie. Ich habe echt eine Checkliste, um vorher die Lizenzen auch wirklich abzuziehen, damit ich nicht im Eifer des Gefechts so eine Install "zerstöre" :)

wolik
2016-05-18, 23:30:25
Als Besitzer eine 980 Ti oder TX würde ich mich gelangweilt zur Seite drehen und auf die echte Männer-Karte warten. Falls ich über die Mittel verfüge und auch den Sinn darin sehe, Jensen endlich mal eine gescheite Jacke zu finanzieren :D

Gut gesagt. :)
Einzelne 1080 für 4K nicht zu gebrauchen jetzt und besonders in Zukunft. Wer will schon 800 muecken ausgeben und Einstellungen runterschrauben oder mit min. 25 FPS sich zufrieden geben ? Frage nur gibt's es schon SLI Tests mit 1080? Und warum nicht?
Triple und Quad SLI mit 1080 ist ein Lachnummer.
Ich denke (hoffe) man hat 3/4 SLI für NVLINK aufgehoben mit Titan Y.
Bei so viel Leistung was GP104 bietet in SLI wird man schon wollen DSR einschalten und da wird schon mit 8GB eng.
Warte vorerst auf richtige King (seine Vorbote schon nicht schlecht)

phoenix887
2016-05-19, 00:08:55
Gut gesagt. :)
Einzelne 1080 für 4K nicht zu gebrauchen jetzt und besonders in Zukunft. Wer will schon 800 muecken ausgeben und Einstellungen runterschrauben oder mit min. 25 FPS sich zufrieden geben ? Frage nur gibt's es schon SLI Tests mit 1080? Und warum nicht?
Triple und Quad SLI mit 1080 ist ein Lachnummer.
Ich denke (hoffe) man hat 3/4 SLI für NVLINK aufgehoben mit Titan Y.
Bei so viel Leistung was GP104 bietet in SLI wird man schon wollen DSR einschalten und da wird schon mit 8GB eng.
Warte vorerst auf richtige King (seine Vorbote schon nicht schlecht)

Naja etwas mehr als 25fps sind es dann schon. Schaffe mit meiner 980Ti OC in jedem Spiel Maxout über 30fps

kruemelmonster
2016-05-19, 00:10:27
Auf dem Gaming-Testsystem ist die Pro, steht ja auch im Artikel. Sonst hätte ich ja gar nicht testen können :)

Ich habe aber auf einigen Systemen die Enterprise laufen, weil dort Workstation-Sachen getestet werden. Ich bekomme diese Systeme samt der Lizenzen gestellt und habe keine Lust, dort groß dran rumzufrickeln.

Alles klar, das ist verständlich. SRY4OT, BTT.

Hat schon jemand den Pressetreiber FW368.13 geleakt? Über Google konnte ich ihn noch nicht auffinden...

illidan
2016-05-19, 00:14:27
Willst wohl unbedingt Fermi auf FastSync testen? :D

kruemelmonster
2016-05-19, 00:16:49
Für Fermi hab ich nach der Abkündigung für DX12 und Vulkan eh keine Hoffnung mehr, aber für Kepler wärs natürlich interessant.

-/\-CruNcher-/\-
2016-05-19, 00:35:43
Ich hab ja gesagt, ich habe keine Lust das ganze Paket aufs Testsystem zu laden. Das ist eine Clean-Install. ;)

Sorry für den Doppelpost, hier hat es die ganzen Antworten überschneiden lassen :)

Das Problem ist, dass die Installs noch kein TH2 angeboten bekommen haben. Klar kann ich auch tricksen und eine Pro installieren, um sie dann per Key zur Enterprise zu machen und dann am Server registrieren lassen. Nur will ich das nicht. Ich kann ja auch TH2 händlich draufschmeißen, aber dann sind die Apps weg und ich habe das ganze Lizensierungsgebammel wieder von vorn. Lizenzen zu übertragen geht wohl, macht aber immens Aufwand.

Wenn Du wüsstest, wie viele mich schon nach der Renderleistung gefragt haben... Auch "Enterprise-Hansel"

Leider gehst du nur auf Workstation Applikationen ein Raytracing Ergebnisse konnte ich keine entdecken vor allem hier Optix (CUDA) Ergebnisse ?

Auch keine OpenCL Ergebnisse diesmal :(

Immerhin baut VrWorks Audio ja auf Optix auf und ist somit ja auch an die Shader gebunden und vor allem den neuen Context Switch.

Nvidia war wieder fleisig am Software Basteln um ihre Shader auch gleich wieder ordentlich auszulasten für VRler könnte da der Overhead interessant werden der da wiederum anfällt ;)

MorPheuZ
2016-05-19, 01:27:26
...Einzelne 1080 für 4K nicht zu gebrauchen jetzt und besonders in Zukunft. Wer will schon 800 muecken ausgeben und Einstellungen runterschrauben oder mit min. 25 FPS sich zufrieden geben ?

Lesen die Leute eigentlich auch noch? Laut Reviews sollten pessimistische ~40fps bei 4k durchgehend möglich sein. Klar, mit Ausreisser nach unten aber auch nach oben.

Ex3cut3r
2016-05-19, 02:50:27
Gut gesagt. :)
Einzelne 1080 für 4K nicht zu gebrauchen jetzt und besonders in Zukunft. Wer will schon 800 muecken ausgeben und Einstellungen runterschrauben oder mit min. 25 FPS sich zufrieden geben ?

Ich glaub du vergisst, dass das auch bei der Titan X früher oder später passiert, sogar noch früher als der bei 1080. Aber die Titan X kostet sogar 1000€.

wolik
2016-05-19, 09:19:15
Lesen die Leute eigentlich auch noch? Laut Reviews sollten pessimistische ~40fps bei 4k durchgehend möglich sein. Klar, mit Ausreisser nach unten aber auch nach oben.
Es soll konstant 60 FPS sein. Und alles auf max. Und 4k mit DSR x3 oder x4.
Zur Zeit schaffen das nur Quad SLI mit Titans X.
Ich glaub du vergisst, dass das auch bei der Titan X früher oder später passiert, sogar noch früher als der bei 1080. Aber die Titan X kostet sogar 1000€.
Was ist gut bei SLI ? Man kann "einfach" Leistung vergrößern. Bis jetzt bei 12Gb war fast nie Speicher Flaschenhals. PCIe 3.0 x8, vielleicht SLI Bridge, schlechte SLI Unterstützung und weiteres... Mit 8Gb wird man wohl auf etwas verzichten müssen. Die Karten (1080) werden genug Power bereitstellen, aber... (Ich hoffe niemand nimmt ernst in diesem Forum Geschichte von Speicher Addition ?)
Jetzt zurück zum 1080. Hat jemand (Format_C) Speicher Komprimierung untersucht? Bei B4 in 4K mit DSR3 auf max ohne AA. wird 8,5 Gb benutzt. Geht dann 1080 in die Knie oder greift Zauberkomprimierung durch? Das ist doch einfach zu testen.

Godmode
2016-05-19, 09:22:53
Ich hab mal hochgerechnet. Sollte der Chip so skalieren, wie ich das mir denke, bräuchte man ca. 250 Watt für die 2,5 GHz++. Immer vorausgesetzt, der Chip taugt was. Was aber erschreckend war, ist die nicht so pralle Skalierung, zumal dann immer mehr der Speicher den Spaß ausbremst.

Du meinst also, dass 2,5 GHz schon öfter möglich sein werden und nicht die absolute Ausnahme ist?

Dural
2016-05-19, 09:41:47
glaub ich nicht, und an die 250Watt bei 2,5GHz erst recht nicht.

Ich schlisse es nicht aus das man mit der Keule die 2,5GHz erreicht, aber da dürfte man locker bei 300Watt+ ankommen.

robbitop
2016-05-19, 09:43:25
Bei der PCGH gab es ab 2100 MHz im Video Bildfehler. Man wird etwas mehr Spannung benötigen, so dass die Leistungsaufnahme weiter steigt. 2,5 GHz sind vor dem Hintergrund vermutlich schon eher die Ausnahme als die Regel.

Ätznatron
2016-05-19, 09:44:26
Mir stellt sich immer mehr die Frage, ob die GTX 1080 zum jetzigen Zeitpunkt überhaupt bewertbar ist.

Die Unterschiede zur Maxwell-Architektur sind gering (im wesentlichen flexiblere Nutzung der Geometrieeinheit für Virtual Reality, überarbeitete Shaderberechnung, Video-en\decoding).

Async Compute ist offenbar immmer noch ein Sorgenkind, siehe PCGH (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/):

Wie zuvor schon stellen wir auch bei der GTX 1080 einen leichten Performance-Anstieg bei der Deaktivierung von Asynchronous Compute über die settings.ini (AsyncComputeOff=1) fest.

Update 19.05.2016: Offenbar deaktiviert AotS noch immer die Async-Compute-Funktion beim erkennen einer Nvidia-Hersteller-ID. Das erklärt natürlich auch, warum wir keine relevanten Unterschiede messen konnten. Der leichte Anstieg ohne AC könnte innerhalb der Meßschwankung gelegen haben.

Eine von AMD programmierte n-Body Gravitationssimulation zeigte gar einen Performance-Rückgang. Eine Anfrage, ob Asynchronous Compute im Review-Treiber 368.16 eventuell noch gar nicht aktiv ist, läuft noch.

Auch funktioniert die oben genannte Verbesserung bei den Shaderprozessoren offenbar nicht so, wie versprochen (wieder PCGH):

Pascal in Form des GP104 erlaubt nun, dass die SMs zur Laufzeit, also ohne die komplette GPU anzuhalten, ihre Betriebsart wechseln: Von Compute zu Grafik oder umgekehrt. Trotzdem müssen die SMs ihre gerade laufende Aufgabe zu Ende bearbeiten. Die Unterbrechung, also eine Preemption, kann zwar wesentlich feinkörniger als zuvor erfolgen, scheint aber im Treiber noch nicht freigeschaltet zu sein oder zu funktionieren.

Aha, möglicherweise der Treiber mal wieder. Wenn wichtige Features (noch?) nicht funktionieren, kann man die Karte ernsthaft nicht bewerten.

Dann noch der knappe Grafikspeicher (PCGH):

Bemerkenswert: Während die GTX Titan X dank 12 GiByte Speicher Bioshock Infinite in 8K ohne träges Streaming wegsteckt, stockt die GTX 1080 beim Wechsel von 6K auf 8K mehrere Sekunden und lässt Texturdetails vermissen - hier genügen 8 GiByte Grafikspeicher nur haarscharf.

(Warum 8 GB Speicher trotz ruckliger Wiedergabe und fehlender Texturdetails trotzdem haarscharf genügen sollen, erschließt sich mir zwar nicht, aber das ist Sache von PCGH)

Insgesamt passt da so Einiges nicht bei der GTX 1080, obwohl der Brute Force Angriff auf den längsten Benchmarkbalken natürlich gelungen ist.

Menace
2016-05-19, 09:58:06
Ich habe einmal eine Frage. Ich finde bei tomshardware und computerbase keine spezielle Auflistung von DX12 getestete Spiele. Hitman und Ashes dürften ja als DX12 Version getestet worden sein. Aber gibt es nicht eine Seite, die z.B. nur DX12 Spiele innerhalb einer Testreihe aufzeigt? Für die Zukunftsfähigkeit wäre das doch ein wichtiger Hinweis. :confused:

Leonidas
2016-05-19, 10:03:05
Ich habe sogar mit meinem Mathe-Prof darüber diskutiert (Seefahrer, Ingenieur und Politiker:eek:). Er sagte klipp und klar es ist mathematisch absolut korrekt und es macht immer Sinn den höchsten Wert mit 100 gleichzusetzen wenn so viele Bekannte (wie hier) vorhanden sind. Einfach deshalb weil 100 eine greifbare Ausgangsgröße ist. Man schaue sich mal Leo sein Index an wo es schon in die mehrere hundert Prozent-Bereiche geht.



Der Prof wird mit mir aber sicher einer Meinung sein, das für eine Langzeitstatistik die Bezugsgröße nicht immer wieder verändert werden sollte, gerade wenn man ständig mit diesen Werten arbeitet und diese faktisch Nacht um 4 Uhr aus dem Bett fallend aufsagen kann. Dann lohnt es sich eher, den optischen Nachteil der vielen hundert Prozent in Kauf zu nehmen und die Werte eben nicht zu verändern, sondern möglichst lange beizubehalten.

Neben-Vorteil: Damit ist auch immer klar, welcher Prozentwert sich auf den FHD- und welcher auf den 4K-Index bezieht.



Man darf natürlich den Preis diskutieren, aber nicht in dem Stil, der vor ein paar Seiten herrschte. Es regt sich niemand auf, wenn man Argumente für oder gegen den ausgesprochenen Preis hat. Wenn hingegen nur mehr Anfeindungen, etc. kommen, dann wird das kommentarlos gelöscht.


Preisdiskussionen gerne! Aber bitte mit Argumenten. Es ist nicht fein, den Mods ständig die Arbeit aufzubürden, viele Postings löschen zu müssen.

Wixi
2016-05-19, 10:26:52
Gibt es irgendwo Benchmarks der GTX 1080 in 3440x1440?

iuno
2016-05-19, 10:28:07
Async Compute ist offenbar immmer noch ein Sorgenkind, siehe PCGH (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/)
Oha.
Aber warum wird die Aussage mit der Regression nicht mit Werten untermauert? CB hatte doch diesen Test auch verwendet und Pascal hier eine Steigerung bescheinigt. @Raff: :confused:

Scheint aber eher ein Softwareseitiges Problem zu sein. Allein dass einzelne SMs jetzt context switchen koennen sollte schon die groebsten Probleme beseitigen.
Am Ende kommt dabei heraus dass das nur ein Treiberding ist und der versprochene Async Treiber bis Pascal zurueckgehalten wurde ;D

Menace
2016-05-19, 10:33:13
Polaris hier eine Steigerung bescheinigt. @Raff: :confused:


Polaris? :confused:

wccftech: http://cdn.wccftech.com/wp-content/uploads/2016/05/DirectX-12-Async-Compute-Performance-1440p-GTX-1080-Fury-X-GTX-980-Ti.png

http://wccftech.com/nvidia-gtx-1080-async-compute-detailed/

Bleibt immer noch nach der Frage bzgl. DX12 Rating.

cR@b
2016-05-19, 10:37:54
Was interessant wäre, welche ASIC die Karten der Reviews so hatten. CB scheint ja ne Gurke erwischt zu haben und HLuxx ne relativ Gute. Wann wird denn der Kühler immer abgeschraubt... vor den Testdurchläufen oder danach?

Hwluxx hat nun auch eine 980Ti @1500 dagegen getestet http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=35

Also diese 2,1Ghz der GTX 1080 sind schon brachial...

Dural
2016-05-19, 10:42:10
Ich wage es zu bezweifeln das es mit AC bei NV jemals einen deutlichen Vorsprung gibt, die NV Chips sind unter DX11 dermassen effektiv das eine Steigerung bei DX12 / AC gar nicht so hoch ausfallen kann wie bei AMD.

obwohl der Brute Force Angriff auf den längsten Benchmarkbalken natürlich gelungen ist.

Was um alles in der Welt soll bei der 1080 ein "Brut Force Angriff" sein?!?
Die 300mm2 grosse GPU?
Die 256Bit SI?
:rolleyes::rolleyes::rolleyes:

Die Karte verbraucht ca. so viel wie eine Nano ist aber 30% schneller als ein stock max. GM200 / Fiji.

Schnoesel
2016-05-19, 10:42:17
HWLUXX testet OC auch mit Pille Palle Games. Bei PCGH hat man ja gesehene was z.B. ein Anno mit dem Takt anrichtet. Da gings dann auch nur mit Wechselkühler.

cR@b
2016-05-19, 10:44:03
HWLUXX testet OC auch mit Pille Palle Games. Bei PCGH hat man ja gesehene was z.B. ein Anno mit dem Takt anrichtet. Da gings dann auch nur mit Wechselkühler.

Das kann ich jetzt so nicht bestätigen...

Nightspider
2016-05-19, 10:48:01
@Format_C und Raff:

Hat einer von euch Lust mal zu testen wie sich die GTX1080 beim Mining (von zB. Ethereum Coins) schlägt? =)
Die Hashrate wäre sehr interessant.

Jetzt möchte ich von dir die mathematische Regel sehen die es verbietet oder als falsch erachtet die 81,9 fps mit 100% gleichzusetzen und dann die Leistung der 980 (46,4 fps) zu extrapolieren. Auch der Ausdruck die 1080 sei 43% schneller als die 980 möchte ich dabei widerlegt haben.
Wenn du das mathematisch begründen kannst, hast du gewonnen. :up: Ansonsten unterlasse deine öffentlichen Versuche der Diffamierung. Ich melde es immer wieder.

Ich weiß nicht ob es verboten ist aber jeder der ansatzweise technisches Hintergrundwissen hat sollte das richtig machen. Ich kann aber gerne mal meinen Mathematikprofessor ohne Seeerfahrung fragen.

Du beschreibst den Vorpsprung der GTX1080 zur GTX980 als prozentualen Teil der Leistung der GTX1080 selbst.
Wem bitte soll die Info nützen wie viel Teile der Größe B, B an sich, schneller ist als Größe A? Das lernt man doch schon in der 7. Klasse. Zumindest da wo ich herkomme.

Wenn du zwei Äpfel in der Mensa zum Essen bekommst anstatt einen. Bekommst du nach deiner Logik da etwa 50% mehr?
Person A: 1 Apfel = 100%
Hübie : 2 Äpfel = 50% mehr als Person A? == doppelt so viel ist bei dir auch +50%? :freak:

Wenn dir hier 10 Leute sagen das du es falsch machst, dir Links liefern und du danach immer noch "nö" schreibst als Reaktion kann man sich echt nur an den Kopf greifen.

Und was soll ich dir schreiben? Du wolltest per PN antworten um den Thread zu schonen...das gelingt auf diese Weise aber nicht ;( Bin dann mal aus dem OT raus ;)

Sei froh. Bei uns endete es eh nur so das ich mir Beleidigungen von diesem Mathe-Genie anhören musste. :rolleyes:


Ich war schon mehrmals kurz davor ein Thread zur Prozentrechnung aufzumachen....ich hätts tun sollen...ich hoffe das Thema ist nun langsam gegessen. Sonst mache ich wirklich noch nen Thread auf.

Godmode
2016-05-19, 10:52:39
Preisdiskussionen gerne! Aber bitte mit Argumenten. Es ist nicht fein, den Mods ständig die Arbeit aufzubürden, viele Postings löschen zu müssen.

Danke!

@Format_C und Raff:

Hat einer von euch Lust mal zu testen wie sich die GTX1080 beim Mining (von zB. Ethereum Coins) schlägt? =)
Die Hashrate wäre sehr interessant.



Ich weiß nicht ob es verboten ist aber jeder der ansatzweise technisches Hintergrundwissen hat sollte das richtig machen. Ich kann aber gerne mal meinen Mathematikprofessor ohne Seeerfahrung fragen.

Du beschreibst den Vorpsprung der GTX1080 zur GTX980 als prozentualen Teil der Leistung der GTX1080 selbst.
Wem bitte soll die Info nützen wie viel Teile der Größe B, B an sich, schneller ist als Größe A? Das lernt man doch schon in der 7. Klasse. Zumindest da wo ich herkomme.

Wenn du zwei Äpfel in der Mensa zum Essen bekommst anstatt einen. Bekommst du nach deiner Logik da etwa 50% mehr?
Person A: 1 Apfel = 100%
Hübie : 2 Äpfel = 50% mehr als Person A? == doppelt so viel ist bei dir auch +50%? :freak:

Wenn dir hier 10 Leute sagen das du es falsch machst, dir Links liefern und du danach immer noch "nö" schreibst als Reaktion kann man sich echt nur an den Kopf greifen.



Sei froh. Bei uns endete es eh nur so das ich mir Beleidigungen von diesem Mathe-Genie anhören musste. :rolleyes:


Ich war schon mehrmals kurz davor ein Thread zur Prozentrechnung aufzumachen....ich hätts tun sollen...

@Mining: Ja das würde mich auch interessieren. Ich denke aber nicht das die 1080 großartig besser ist, da es hauptsächlich auf die Speicherbandbreite ankommt.

@Prozentrechnung: Kannst gerne machen! Dann kann ich die ganzen Prozentrechnungs-OT Beiträge verschieben.

iuno
2016-05-19, 10:56:06
Polaris? :confused:
Jaja, kleiner Fehler :P

@Format_C und Raff:

Hat einer von euch Lust mal zu testen wie sich die GTX1080 beim Mining (von zB. Ethereum Coins) schlägt? =)
Dafuer!
ethminer bei OpenCL und der fork von Genoil (CUDA miner) waeren interessant: https://github.com/Genoil/cpp-ethereum

Koennen wir das Prozentrechnen 101 jetzt mal aus dem Thread lassen?

scully1234
2016-05-19, 10:59:43
Gibt es irgendwo Benchmarks der GTX 1080 in 3440x1440?


http://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/pcars_4k_2.pnghttp://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/qb_4k.pnghttp://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/tr_4k.pnghttp://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/tr_4k_2.pnghttp://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/civ5_4k.pnghttp://pclab.pl/zdjecia/artykuly/chaostheory/2016/05/gfx_geforce_gtx1080/charts/w3_4k_2.png

http://pclab.pl/art69068-25.html

Edit
Ach du meintest ja gar nicht 4k sorry ,hab nur die 3 am Anfang gesehen

jojo13
2016-05-19, 11:02:01
Kann ich mich ja entspannt zurücklehnen mit meiner X und auf Jensens DP Monster warten ;D

Menace
2016-05-19, 11:08:53
Ich wage es zu bezweifeln das es mit AC bei NV jemals einen deutlichen Vorsprung gibt, die NV Chips sind unter DX11 dermassen effektiv das eine Steigerung bei DX12 / AC gar nicht so hoch ausfallen kann wie bei AMD.


Mich würde auch mehr den Abstand zwischen 1080 und Fiji bei DX12-Spielen interessieren. Dabei ist mir völlig egal, ob mit AC on/off. Was ich bisher gesehen habe WQHD:
Rise of Tomb Rider
FuryX 59 <-> GTX1080 90 [was ist eigentlich da los? Tesselation extrem?]

Hitman
FuryX 69 <-> GTX1080 81

Ashes
FuryX 63 <-> GTX1080 81

Ätznatron
2016-05-19, 11:11:04
Ich wage es zu bezweifeln das es mit AC bei NV jemals einen deutlichen Vorsprung gibt, die NV Chips sind unter DX11 dermassen effektiv das eine Steigerung bei DX12 / AC gar nicht so hoch ausfallen kann wie bei AMD.

Was um alles in der Welt soll bei der 1080 ein "Brut Force Angriff" sein?!?


Der besteht darin, ein Produkt auf den Markt geschmissen zu haben, dessen wichtigere Eigenschaften (und Unterscheidungsmerkmale zum Vorgänger) nicht richtig funktionieren - vielleicht wegen des Treibers, vielleicht aber auch aus "genetischen" Gründen, der großen Nähe zu Maxwell z.B.?

Aber der Takt wurde kräftig nach oben geprügelt -> Benchmarkwinner.

cR@b
2016-05-19, 11:12:08
Was interessant wäre, welche ASIC die Karten der Reviews so hatten. CB scheint ja ne Gurke erwischt zu haben und HLuxx ne relativ Gute. Wann wird denn der Kühler immer abgeschraubt... vor den Testdurchläufen oder danach?

Hwluxx hat nun auch eine 980Ti @1500 dagegen getestet http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=35

Also diese 2,1Ghz der GTX 1080 sind schon brachial...

Ich nehme meine Aussage, dass die GTX 1080 brachial ist gegenüber der 980TI @ 1500 zurück. Don ist in der Tabelle verutscht und deshalb waren da bis zu 30% Unterschied von 980TI OC zu 1080 OC.

Godmode
2016-05-19, 11:23:08
Ich nehme meine Aussage, dass die GTX 1080 brachial ist gegenüber der 980TI @ 1500 zurück. Don ist in der Tabelle verutscht und deshalb waren da bis zu 30% Unterschied von 980TI OC zu 1080 OC.

Ja der Unterschied zwischen GM200@ 1,5 vs 1080@ 2,11 ist wirklich nicht erwähnenswert. Die Titan X macht den Abstand dann nochmal etwas kleiner. Ohne Customkarten mit deutlich mehr Takt, als 2,0 GHz wird man also keinen würdigen Nachfolger für GM200 finden.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=35

Hier liegt die übertaktete 1080 zwischen 9 % und 19 % vor der übertakteten 980 Ti.

scully1234
2016-05-19, 11:48:49
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=35

Hier liegt die übertaktete 1080 zwischen 9 % und 19 % vor der übertakteten 980 Ti.

Vielleicht haengt der Chip mit nur 2k Setups aber auch im CPU Limit?

Intel Core i7-3960X 3,3 @ 3,9 GHz

Das ist die CPU und der angelegte Takt dazu

Nightspider
2016-05-19, 11:54:37
Eigentlich ist es Verbrechen die GTX1080 mit Sandy Bridge zu testen aber immerhin skalieren die getesteten Games teils gut mit vielen Kernen und wurden in 1440p, teilweise mit SSAA getestet. Da sollte die CPU dann schon nicht mehr viel verfälschen können.

Achill
2016-05-19, 12:05:16
Ja der Unterschied zwischen GM200@ 1,5 vs 1080@ 2,11 ist wirklich nicht erwähnenswert. Die Titan X macht den Abstand dann nochmal etwas kleiner. Ohne Customkarten mit deutlich mehr Takt, als 2,0 GHz wird man also keinen würdigen Nachfolger für GM200 finden.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=35

Hier liegt die übertaktete 1080 zwischen 9 % und 19 % vor der übertakteten 980 Ti.

Sei doch froh, wäre die GPU etwas schneller, so wären das Zucken in den Fingern größer. So können TI/X mit guten OC einfach auf dir größere Karte warten... :wink:

bananenmann
2016-05-19, 12:06:10
.....
Am Ende kommt dabei heraus dass das nur ein Treiberding ist und der versprochene Async Treiber bis Pascal zurueckgehalten wurde ;D

Genau das habe ich mir gestern auch gedacht. Nvidia würde ich es glatt zutrauen - einfach um den Preis der neuen Modelle mit vermeintlich besserer Async Compute Leistung zu rechtfertigen.

Wie ist denn das? (Bin nicht auf dem Laufenden.) Bei Nvidia sind ja die Treiber immer für mehrere Modelle gleichzeitig. Hat Pascal einen eigenen Treiber? Also einen der nicht auch für die 980ti usw. gleichzeitig verwendbar ist?

iuno
2016-05-19, 12:08:57
Das war eher als Scherz gemeint und zudem klein gedruckt und du zitierst nur das von mir und hebst es auch noch fett hervor :ulol:

Nein natuerlich ist es der selbe Treiber, man schreibt ja nicht fuer jede Generation alles neu und da wird ja viel abstrahiert und vieles bleibt auch gleich. Die Software enthaelt aber hardwarespezifischen Code der dann je nach benutzter Hardware ausgefuehrt wird.

Cubitus
2016-05-19, 12:34:51
Gibt es irgendwo Benchmarks der GTX 1080 in 3440x1440?

http://techgage.com/article/nvidia-geforce-gtx-1080-review-a-look-at-4k-ultra-wide-gaming/

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Rise-Of-The-Tomb-Raider-3440x1440.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-DOOM-3440x1440.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-The-Witcher-3-Wild-Hunt-3440x1440.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Tom-Clancys-Rainbow-Six-Siege-3440x1440.png

DX12
http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Rise-Of-The-Tomb-Raider-DirectX-12.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Ashes-Of-The-Singularity-DirectX-12.png

Sieht bei 3K, 21:9 doch ganz gut aus :)
Zum Teil sogar deutlich schneller als 2x980 GTX im SLI

robbitop
2016-05-19, 12:45:15
Es ist IMO sinnfrei GP104 mit GM200 zu vergleichen. GP104 ist der Nachfolger von GM204.
GM200 bekommt hoffentlich noch dieses Jahr einen eigenen Nachfolger.

phoenix887
2016-05-19, 12:49:42
Es ist IMO sinnfrei GP104 mit GM200 zu vergleichen. GP104 ist der Nachfolger von GM204.
GM200 bekommt hoffentlich noch dieses Jahr einen eigenen Nachfolger.


Das hoffe ich auch. Dann bin ich gerne dabei. Wenn die Leistung stimmt. Lege ich gerne wieder Geld auf den Tisch. Konnte den ganzen Hyper ist um die 1080 nicht verstehen......

Cubitus
2016-05-19, 12:49:44
Es ist IMO sinnfrei GP104 mit GM200 zu vergleichen. GP104 ist der Nachfolger von GM204.
GM200 bekommt hoffentlich noch dieses Jahr einen eigenen Nachfolger.

Sehe ich nicht so, der GM200 ist ja aktuell sowohl neu als auch gebraucht zu teureren Preisen zu haben :confused: Zu was ist der GM200 eigl nutze außer zum spielen?

ehrlich bevor ich mir für ~800 Euro eine gebrauchte Titan X kaufen würde, würde ich zur 1080 greifen. Nachfolge hin oder her..

Das hoffe ich auch. Dann bin ich gerne dabei. Wenn die Leistung stimmt. Lege ich gerne wieder Geld auf den Tisch. Konnte den ganzen Hyper ist um die 1080 nicht verstehen......

Die Leistung/Effizienz stimmen absolut, nur der Preis nicht.. Aber der wird sich schon noch etwas ein pendeln.

PHuV
2016-05-19, 12:55:46
Ich war schon mehrmals kurz davor ein Thread zur Prozentrechnung aufzumachen....ich hätts tun sollen...ich hoffe das Thema ist nun langsam gegessen. Sonst mache ich wirklich noch nen Thread auf.
Mach wirklich mal einen auf, finde ich gut. :up:

Warum testet eigentlich kaum jemand die VRam-Auslastung?

scully1234
2016-05-19, 13:01:18
Warum testet eigentlich kaum jemand die VRam-Auslastung?

Das macht der Gesell dann, der neulich bei dir war, und dir den Ruecken gekrault hat:biggrin:

robbitop
2016-05-19, 13:09:36
Sehe ich nicht so, der GM200 ist ja aktuell sowohl neu als auch gebraucht zu teureren Preisen zu haben :confused: Zu was ist der GM200 eigl nutze außer zum spielen?

Es ist irrelevant, was wer empfindet. Die Einordnung der GPU ist durch das geplante Lineup, die Chipgröße und den Codenamen klar definiert.

GP104 ist der Nachfolger von GM204. Von dort (oder älteren GPUs jeglicher Art) lohnt die Aufrüstung.
Eine Aufrüstung von GM200 ist zwar möglich und bringt auch einen gewissen Vorsprung an Leistung - aber keinen signifikanten.
Was wer wann wie kaufen sollte, hat nichts mit der Einordnung zu tun. Ja, aktuell ist GP104, wenn man kein GM200 Besitzer ist, eine gute Wahl.

phoenix887
2016-05-19, 13:15:23
Sehe ich nicht so, der GM200 ist ja aktuell sowohl neu als auch gebraucht zu teureren Preisen zu haben :confused: Zu was ist der GM200 eigl nutze außer zum spielen?

ehrlich bevor ich mir für ~800 Euro eine gebrauchte Titan X kaufen würde, würde ich zur 1080 greifen. Nachfolge hin oder her..



Die Leistung/Effizienz stimmen absolut, nur der Preis nicht.. Aber der wird sich schon noch etwas ein pendeln.

Das ist richtig. Aber da ich mich im High-End Bereich bewege, kommt es mir primär auf die Leistung an nur sekundär der Verbrauch.

Habe meinen Rechner nicht 24 Stunden unter Last laufen, vielleicht maximal um die 6-8 Stunden, wenn ich regulär arbeite. Daher ist die Effizienz für mich wirklich nur sekundär.

Aber klar, wenn ich eine gtx 980 oder schwächer hätte, würde ich auch zur GTX 1080. das mit dem Preis wurde ja hier schon besprochen.....für eine mid-Range Karte.

Bin da mal auf nächstes Jahr, auf die Ti Version gespannt. Mehr als 850 Euro, will ich eigentlich nicht ausgeben.

robbitop
2016-05-19, 13:16:19
B2t: Wer jetzt für 450-500 einen GM200 abgreift macht sicher nix falsch, aber mehr würde ich da nicht reinbuttern wollen. Selbst dann würd ichs mir noch überlegen ob ich nicht einfach warte. Wer GM200 hat kann Igor seinen Rat befolgen.
@Cubi: Du geierst doch nur weil du deine rotzige GM204-Speicherkrüppel-Karte loswerden willst :P :biggrin:

Von einer 970/980 rüstet man eben auf eine 1070/1080 auf. (bei normalen Markt(Neu)preisen)
Von einer 980ti/Titan X dann auf eine 1080Ti/Titan *insertfancyletter*

PHuV
2016-05-19, 13:24:50
FTFY. Es sind alle Größen bekannt. Man ist das schwer.:rolleyes: Wenn die 980 57% der 1080 entsprechen, dann liegt die 1080 mit 43% vorne. Ist also 43% schneller.
Nein, so ist es falsch formuliert :facepalm:, aber da wir um Deine mathematische Begabung wissen, lassen wir das lieber.
Von einer 970/980 rüstet man eben auf eine 1070/1080 auf. (bei normalen Markt(Neu)preisen)
Von einer 980ti/Titan X dann auf eine 1080Ti/Titan *insertfancyletter*
Wenn da wenigstens schon was angekündigt wäre. 16GB VRam sind auf alle Fälle interessanter als 8GB.

robbitop
2016-05-19, 13:28:26
Ohne Hübie zu nahe treten zu wollen: ich denke auch, dass die Formulierung nicht passt. Ich bin mir jedoch sicher, dass Hübie als Student Prozentrechnung beherrscht. Besonders dienlich ist diese Diskussion (und die unnötigen Anfeindungen) dem Thema nicht. Jeder kann sich mal verhaspeln.

BTT:
Ich könnte mir vorstellen, dass NV noch einmal vor den 10FF Produkten nochmal eine Art GP200 bringt (analog zu GM200). Mehr Ausführungseinheiten ohne Computeballast.
GP102s Existenz ist derzeit fraglich - und wenn er existiert, ist eher eine GPU mit deutlich weniger Fläche bei ähnlicher Anzahl an Ausführungseinheiten wie GP100 anzunehmen.

Palpatin
2016-05-19, 13:34:32
Von einer 970/980 rüstet man eben auf eine 1070/1080 auf. (bei normalen Markt(Neu)preisen)
Von einer 980ti/Titan X dann auf eine 1080Ti/Titan *insertfancyletter*
Klar, aber wenn die Zeit zwischen 1080 und 1080Ti/Titan länger ist als die zwischen 1080Ti/Titan und 1180 kann man vielleicht mal überlegen in das günstigere Lager zu wechseln ;). Zumal die Preise für GP100/102 sicher nochmal gutes Stück über 1080 liegen. ;) Kommt GP100 noch dieses Jahr sieht es anderes aus. Würde ich aber imo nicht drauf wetten. :rolleyes:

Cubitus
2016-05-19, 13:37:34
@Cubi: Du geierst doch nur weil du deine rotzige GM204-Speicherkrüppel-Karte loswerden willst :P :biggrin:


Jaa ist auch so ;D Weil gerade bei 3440*1440 geht der 970er so langsam die Puste aus..Selbst Kompromisse wie angepasste Details bieten immer weniger Spielraum..



Bin da mal auf nächstes Jahr, auf die Ti Version gespannt. Mehr als 850 Euro, will ich eigentlich nicht ausgeben.

Ich ahne preislich nichts Gutes. Ich vermute, wenn Nvidia relativ konkurrenzlos bleibt, einen Preis von ~900-1000 Euro für eine TI.. bzw dann 1500 Euro für eine mögliche Titan.. Das Einzige was eventuell sein kann, das die 1080 im Preis gesenkt wird, sobald AMD vergleichbares auf den Markt wirft. Aber klar von High End zu High End, verstehe ich schon :)


Eine Aufrüstung von GM200 ist zwar möglich und bringt auch einen gewissen Vorsprung an Leistung - aber keinen signifikanten.
Was wer wann wie kaufen sollte, hat nichts mit der Einordnung zu tun. Ja, aktuell ist GP104, wenn man kein GM200 Besitzer ist, eine gute Wahl.

Von einer 970/980 rüstet man eben auf eine 1070/1080 auf. (bei normalen Markt(Neu)preisen) Von einer 980ti/Titan X dann auf eine 1080Ti/Titan *insertfancyletter*

Stimmt!
Bzw. wenn die Veröffentlichung näher zusammen liegen würden, und man wisse was preislich auf einen zukommt,
so könnte man als GM204 Umsteiger auch noch warten.. Aber Nvidia ist in der Produkt-Vermarktung leider sehr gut.. ;(

Godmode
2016-05-19, 13:41:36
Diskussion über die Prozentrechnung und ihre sprachlichen Kniffe: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=573148

Zettabit
2016-05-19, 13:50:24
Ups they did it again baby?
Kein Asynccompute oder schnellere contextswitches vorhanden offenbar.
Woher willst du das wissen, wenn AotS den entsprechenden Renderpfad hart bei jeder NVIDIA-ID abschaltet (also auch bei der GTX1080)?

Gab es den überhaupt performance Gewinne bei Nvidia? Das lag doch im Bereich der Messungenauigkeit, bei 1-3% IIRC?
Ja, weil im AotS-Code deaktiviert.

Wixi
2016-05-19, 13:51:50
http://techgage.com/article/nvidia-geforce-gtx-1080-review-a-look-at-4k-ultra-wide-gaming/

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Rise-Of-The-Tomb-Raider-3440x1440.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-DOOM-3440x1440.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-The-Witcher-3-Wild-Hunt-3440x1440.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Tom-Clancys-Rainbow-Six-Siege-3440x1440.png

DX12
http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Rise-Of-The-Tomb-Raider-DirectX-12.png

http://techgage.com/wp-content/uploads/2016/05/NVIDIA-GeForce-GTX-1080-Ashes-Of-The-Singularity-DirectX-12.png

Sieht bei 3K, 21:9 doch ganz gut aus :)
Zum Teil sogar deutlich schneller als 2x980 GTX im SLI

Danke! Sieht so aus als ob eine 1080 für UWQHD@60fps reicht :eek:

Cubitus
2016-05-19, 13:56:24
Danke! Sieht so aus als ob eine 1080 für UWQHD@60fps reicht :eek:

Ja, jedenfalls um einiges besser als mit 4K ;)

Wixi
2016-05-19, 14:03:10
Ok wie ich gerade sehe, haben sie die meisten Games nicht mit max. Settings gestestet. Dann doch lieber auf 1080Ti/Vega11 warten...

34" UWQHD+144Hz+HDR+G/Free-Sync Monitor + 1080Ti/Vega 11 wird es wohl werden. Hoffe solche Monitor kommen dieses Jahr noch aus.Jetzt heißt es nur noch warten :freak:

Cubitus
2016-05-19, 14:18:45
Ok wie ich gerade sehe, haben sie die meisten Games nicht mit max. Settings gestestet. Dann doch lieber auf 1080Ti/Vega11 warten...

34" UWQHD+144Hz+HDR+G/Free-Sync Monitor + 1080Ti/Vega 11 wird es wohl werden. Hoffe solche Monitor kommen dieses Jahr noch aus.Jetzt heißt es nur noch warten :freak:

Sieht glaube ich gut aus

http://www.computerbase.de/2016-05/aoc-ag352ucg-ucx-qhd-144-hz-freesync-g-sync/

bananenmann
2016-05-19, 14:29:10
Das war eher als Scherz gemeint und zudem klein gedruckt und du zitierst nur das von mir und hebst es auch noch fett hervor :ulol:

Nein natuerlich ist es der selbe Treiber, man schreibt ja nicht fuer jede Generation alles neu und da wird ja viel abstrahiert und vieles bleibt auch gleich. Die Software enthaelt aber hardwarespezifischen Code der dann je nach benutzter Hardware ausgefuehrt wird.


Mag sein, dass Du es als Scherz meintest - ich aber nicht. Ich könnte mir das durchaus vorstellen. Und Du selbst sagst ja damit, dass man das theretisch in ein und dem selben Treiber für verschiedene Modelle ein- bzw. ausschalten könnte ( - wenn das denn eine Treibersache wäre.)

Wenn wir ehrlich sind hat der 1080er kaum Vorteile gegenüber dem 980ti. Ca. 10% schneller (mal etwas mehr, mal weniger, je nach OC), 2 GB mehr - aber das rechtfertigt nicht DIESEN Aufpreis. Doch wenn man sagen könnte, dass die Async Compute Schwäche einigermaßen ausgemerzt ist, dann wäre es ein wichtiger Punkt, der dazukäme (auch für viele 3D Center-Leser, könnte ich mir vorstellen).

iuno
2016-05-19, 15:06:07
Mag sein, dass Du es als Scherz meintest - ich aber nicht. Ich könnte mir das durchaus vorstellen.
[...]
Doch wenn man sagen könnte, dass die Async Compute Schwäche einigermaßen ausgemerzt ist, dann wäre es ein wichtiger Punkt, der dazukäme (auch für viele 3D Center-Leser, könnte ich mir vorstellen).

Um die Funktionsfaehigkeit, compute und gfx tasks gleichzeitig ausfuehren zu koennen, zu beweisen, koennte jemand mit der 1080 den Test ja mal laufen lassen
Sonst gibt es halt diesen hier:
https://forum.beyond3d.com/posts/1868993/
Weiss nicht was das soll dass man sich da im Forum anmelden muss oder ob es den sonst irgendwo gibt. So einen Test sollte man unter freie Lizenz stellen. Hier gibts dazu jedenfalls noch eine schoene Visualisierung dieser Ergebnisse:
https://nubleh.github.io/async/index.html
Dann koennten die Zweifel ausgemerzt werden.
Falls das nicht zutrifft, bleibt immer noch die Moeglichkeit, dass der context switch wenigstens nicht so lange dauert wie noch mit Maxwell.

Emil_i_Lönneberga
2016-05-19, 15:18:10
Bei GamersNexus wurde die 1080 mit einem Hybrid-Kühler versehen. Zu den Ergebnissen wie dem Taktverhalten über die Zeit, der Kühlleistung und dem Fps-Gewinn von 1733MHz über 2045 MHz zu 2164MHz GPU Clock mit einem Speichertakt von 5600MHz hat Steve den Umbau auch in einem ~1h Video (Part 1-3) festgehalten. 60min Burn-In hat die Karte mit diesen Settings überstanden.

http://www.gamersnexus.net/guides/2441-diy-gtx-1080-hybrid-thermals-100-percent-lower-higher-oc-room

Der Aff
2016-05-19, 15:30:23
Puh, ich weiß auch nicht, meine Titan X @1570/4000 behalten oder doch GTX 1080 kaufen:rolleyes:

Godmode
2016-05-19, 15:41:52
Puh, ich weiß auch nicht, meine Titan X @1570/4000 behalten oder doch GTX 1080 kaufen:rolleyes:

Wenn die 1570 wirklich stabil sind, dann erreichst du ca. 90-95% einer 1080 @ 2 GHz: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/

Schrumpelratte
2016-05-19, 15:45:46
würde die oculus nicht nächsten monat ins haus flattern, hätte ich meine 980ti @1450 auf jedenfall behalten. bei einer titan x @1570 lohnt der wechsel noch viel weniger.

Der Aff
2016-05-19, 15:52:07
Ja die sind stabil :-) Doom habe ich sogar mit 1600Mhz spielen können .

Macht keinen Sinn meine X zu verkaufen die gebraucht Preise sind im Keller :-(

TurricanM3
2016-05-19, 16:04:25
Wartet doch erst mal ab was bei der 1080 mit Mod-Bios rauskommt. Ich bin da schon sehr gespannt.

Ultron
2016-05-19, 16:06:40
Man kauft doch nicht wegen 5-10% mehr Leistung keine neue Grafikkarte. Mehr Vorsprung hat die 1080 zu einer 980Ti / Titan X nicht, wenn man alle Karten am Limit betreibt. Geht mir genauso mit meiner 980 Ti @ 1550/4050. Ich hoffe 2017 kommen endlich mal wieder Grafikkarten mit deutlich mehr Leistung, damit meine ich min 80% mehr :)

Der Aff
2016-05-19, 16:08:18
Ja wenn die die 2,5GHz möglich sind mit Mod-Bios:love:

TurricanM3
2016-05-19, 16:13:01
Ja wenn die die 2,5GHz möglich sind mit Mod-Bios:love:


Das wäre zu schön, aber auch wenn "nur" 2GHz drin sind, ich werde trotzdem direkt umsteigen, langsamer wird sie ja nicht. =)
Hoffe nur Wasserkühler gibts schnell.

Ich wiederhole mich gerne: Das Limit der 1080 kennen wir noch nicht. =)

Dural
2016-05-19, 16:20:23
Also wenn ich eine Titan X hätte die bis zu 1600MHz läuft würde ich die nie und nimmer mehr hergeben. Im Schrank oder in die Vitrine damit ;)

BitJäger
2016-05-19, 16:34:38
PCGH: Geforce GTX 1080 Preis: Erste Founders Edition für 828 Euro

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Preis-Founders-Edition-1195823/

Achill
2016-05-19, 16:42:12
PCGH: Geforce GTX 1080 Preis: Erste Founders Edition für 828 Euro

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Preis-Founders-Edition-1195823/

Nur etwas gestiegen ... ;D

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=55969

Schnoesel
2016-05-19, 16:42:22
Könnte Platzhalter sein oder die Händler denken sich scheiß auf Nvidia wir wollen auch was vom Kuchen.

=Floi=
2016-05-19, 16:50:35
Wartet doch erst mal ab was bei der 1080 mit Mod-Bios rauskommt. Ich bin da schon sehr gespannt.

macht auch keinen sinn. die paar prozent für das sidegrade rentieren sich nicht. spinnt ihr jetzt alle komplett?
jeder der eine 980ti hat, dann getrost warten und braucht nicht umsteigen.

Raff
2016-05-19, 16:57:09
Könnte Platzhalter sein oder die Händler denken sich scheiß auf Nvidia wir wollen auch was vom Kuchen.

Wird sich auch mit 'nem vierstelligen Preisschild verkaufen ...

MfG,
Raff

Schrotti
2016-05-19, 16:58:45
Ich bin aktuell nur mit einer GTX 960 (4GB) unterwegs und das mit einem 4K Bildschirm. Ich habe einfach keine Lust noch zu warten.
Allerdings werde ich auch keine 828€ bezahlen wo die Amis nur 699$ löhnen müssen.

woodsdog
2016-05-19, 17:01:40
auch amis müssen steuern zahlen... die noch nicht in den 699 drin sind.

TurricanM3
2016-05-19, 17:04:19
Die Preise kann man noch ignorieren, das ist ja jedes Mal das gleiche.

macht auch keinen sinn. die paar prozent für das sidegrade rentieren sich nicht. spinnt ihr jetzt alle komplett?
jeder der eine 980ti hat, dann getrost warten und braucht nicht umsteigen.


Ich gehe mal ganz optimistisch davon aus, dass ich nicht selten 20+% Leistungsplus haben werde. Das finde ich nicht gerade wenig. Mir reicht die Leistung @1440p einfach zu oft nicht, ich habe zu viele Spiele bei denen mich die drops nerven.

just4FunTA
2016-05-19, 17:05:20
PCGH: Geforce GTX 1080 Preis: Erste Founders Edition für 828 Euro

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Preis-Founders-Edition-1195823/

https://media.giphy.com/media/so257rLv81g3K/giphy.gif

Ex3cut3r
2016-05-19, 17:30:24
Also mir ist der Preis egal, mein S34E790C wartet schon auf die 1080. :D

https://abload.de/img/20160519_171110neuu6t7pjh.png

Pumpi74
2016-05-19, 17:30:27
Mal angenommen nVidia hätte den GM 200 nicht gebracht und die GTX980 würden heute noch ab 600€ kosten, was ein denkbares Scenario wäre, dann könnte man derzeit tatsächlich eine GTX 1080 für 990€ UvP anbieten. Relativ viele Leute würden kaufen, der Beweis ist die TitanX.

314mm² für 1k€ wird uns sicher noch in dieser Dekade präsentiert. Vielleicht schafft es EVGA auch schon mit der PinKing Variante der 1080.

Geächteter
2016-05-19, 17:43:42
Die Yields in 16 nm scheinen immer noch äußerst beschissen zu sein, anderes lässt sich die ewige Wartezeit auf die Auslieferei einer eh in relativ homöopathischen Dosen verkauften High-End-Karte nicht erklären. Und GF hängt ja mit 14 nm noch viel mehr in der Luft, da erwarte ich überhaupt kein High-End mehr dieses Jahr, da kann man froh sein, wenn ne Zwergentransistorkarte marktreif wird.
Bis zum Ende des Jahres wird es wohl nicht billiger und viel mehr Auswahl an 16 nm geben. Macht aber nix, mein Gefühl sagt mir, mit dem Prozess werden wir sehr, sehr lange auskommen müssen. Da kann auch die Lederjacke nix dran ändern.

Nightspider
2016-05-19, 18:04:17
Die Warterei lässt sich durch deine Ungeduld erklären.
Die homöopathischen Dosen sind spekulativ.
Der Sinn deines Beitrages ist stark begrenzt.

BitJäger
2016-05-19, 18:07:33
Da gibt es auch noch einen Shop in Salzburg. welcher die GTX1080 für nur 1233,77€ anbietet ... zuzügl 6€ Versandkosten.

http://haym.info/produkte/hardware/neu-angelegt/?dsp=details&id=6C30313&start=0&per_page=0&f&o&d&q&ref=overview#

Radeonfreak
2016-05-19, 18:08:23
:ucrazy:

Botcruscher
2016-05-19, 18:11:38
Immerhin nicht erst am 3.6 wie der andere Shop.:freak:

Kriegsgeier
2016-05-19, 18:13:20
Die Warterei lässt sich durch deine Ungeduld erklären.
Die homöopathischen Dosen sind spekulativ.
Der Sinn deines Beitrages ist stark begrenzt.

Der Mann hat Recht. Min. 6 Jahre für 16 nm...

aths
2016-05-19, 18:14:17
Bei der ganzen Preisdiskussion sollten die Fakten schnell klar sein: Ja, verglichen mit der Titan X ist die Karte günstig, aber die Titan X ist ja auch dazu dagewesen, die bereits teure 980 Ti vergleichsweise gut aussehen zu lassen.

Die Zahl der Leute die eine 980 Ti, Titan X oder 1080 wirklich brauchen, dürfte nicht so groß sein wie die Zahl der Leute, die sich das einfach leisten wollen (und können) weil das ihr Hobby ist und sie Hardware besitzen möchten die an die Grenze des technologisch Machbaren geht.

Um es etwas böser zu sagen, kauft man glaube ich auch ein bisschen Sozialneid der anderen mit. Selbst bei der 980 (ohne Ti) erlebte ich, wie Leute über den saftigen Preisaufschlag im Vergleich zur 970 höhnten. Aus psychologischer Sicht verstehe ich es aber nicht. Kein 980 / Ti / Titan / 1080-Käufer wird sich sagen "Jetzt wo er es sagt, sehe ich dass er Recht hat und ich unnötig viel Geld für ein paar Prozent Leistung gelatzt habe, wobei ich die Performance eigentlich nicht brauche." Das Gegenteil dürfte der Fall sein "Hihi, jetzt kann ich es ihm erst recht unter die Nase reiben, dass ich beim Graka-Kauf nicht so auf das Geld achten muss."

Kriegsgeier
2016-05-19, 18:16:57
Also, mein Kauf von GTX680 für 449€ war ein Volltreffer...
Ca. 1 Mon. Nach dem Start...
Das waren mal Preise!

Raff
2016-05-19, 18:19:11
Also, mein Kauf von GTX680 für 449€ war ein Volltreffer...
Ca. 1 Mon. Nach dem Start...
Das waren mal Preise!

Im Gegensatz zur GTX 1080 jetzt war die GTX 680 aber nicht "zukunftssicher". ;)

MfG,
Raff

Kriegsgeier
2016-05-19, 18:20:15
Sollte 1070 nahe 400€ kosten wird das die Karte schlicht hin! In einem halben Jahr dann die zweite dazu und die Titan 1080ti kann einpacken!

MiamiNice
2016-05-19, 18:21:59
Was macht den die 1080 zukunftssicher als eine 680?

Kriegsgeier
2016-05-19, 18:23:13
Das stimmt. Die 2 GB damals wären jetzt mit 4 GB zu vergleichen...

8 GB sollten min. 3 Jahre für 1440p ausreichen.
Die 1440p Auflösung ist m.M.n. Bestes FPS/Qualität Verhältnis

Geächteter
2016-05-19, 18:39:23
Was macht den die 1080 zukunftssicher als eine 680?
Eigentlich erstmal gar nix. War ja schon in 28 nm gefertigt, kann man eigentlich auf die gleiche Stufe wie 1080 stellen, die den Anfang der 16-nm-Generation einläutet.
Nvidia hat noch gut Luft in der TDP, paar Transistoren nachzulegen, zwei Ausbaustufen sind mindestens noch drin. Dann hat die IPC gegenüber Maxwell doch etwas nachgelassen, beim Refresh kann man diese wieder pushen und dann das gleiche Spiel wiederholen. Einzig alleine die Zeiträume könnten noch länger künstlich gestreckt werden, wenn mal in der Annahme geht, dass man mit 16 nm jetzt die nächsten 10 Jahre oder gar länger auskommen muss.
Könnte also im Endeffekt doch zukunftssicherer sein.

just4FunTA
2016-05-19, 18:45:01
Bei der ganzen Preisdiskussion sollten die Fakten schnell klar sein: Ja, verglichen mit der Titan X ist die Karte günstig, aber die Titan X ist ja auch dazu dagewesen, die bereits teure 980 Ti vergleichsweise gut aussehen zu lassen.

Die Zahl der Leute die eine 980 Ti, Titan X oder 1080 wirklich brauchen, dürfte nicht so groß sein wie die Zahl der Leute, die sich das einfach leisten wollen (und können) weil das ihr Hobby ist und sie Hardware besitzen möchten die an die Grenze des technologisch Machbaren geht.

Um es etwas böser zu sagen, kauft man glaube ich auch ein bisschen Sozialneid der anderen mit. Selbst bei der 980 (ohne Ti) erlebte ich, wie Leute über den saftigen Preisaufschlag im Vergleich zur 970 höhnten. Aus psychologischer Sicht verstehe ich es aber nicht. Kein 980 / Ti / Titan / 1080-Käufer wird sich sagen "Jetzt wo er es sagt, sehe ich dass er Recht hat und ich unnötig viel Geld für ein paar Prozent Leistung gelatzt habe, wobei ich die Performance eigentlich nicht brauche." Das Gegenteil dürfte der Fall sein "Hihi, jetzt kann ich es ihm erst recht unter die Nase reiben, dass ich beim Graka-Kauf nicht so auf das Geld achten muss."

Also wenn wir ehrlich sind wird die Leistung sehr wohl gebraucht, ja selbst die neue 1080 übertaktet bis zum geht nicht mehr wird für 4k zu schwach sein und man wird Kompromisse eingehen müssen um seine ~60fps (ach seien wir ehrlich wir wollen doch eher über 100fps haben) zu erreichen.

Im Moment spiele ich BF4 mit ner 970 in 1440p und muß dafür die Effektqualität von Ultra auf Hoch, verzögertes AA auf aus, post aa auf mittel und die Umgebungssicht auf ssao runterstellen um auf nem 60hz tickrateserver spielen zu können. Also wenn ich mit der 1080 in 4k ~100fps mit allem auf ultra spielen könnte wäre das schon eine Interessante Sache und zwar nicht nur um den anderen zu zeigen hey schaut mal ich hab ne 1080..

Wenn der einzige Vorteil der 1080 der ist das ich die paar oben erwähnten Einstellungen auf ultra hochsetzen kann in 1440p sind ~800€ ein no-go.

-/\-CruNcher-/\-
2016-05-19, 18:56:06
Eigentlich erstmal gar nix. War ja schon in 28 nm gefertigt, kann man eigentlich auf die gleiche Stufe wie 1080 stellen, die den Anfang der 16-nm-Generation einläutet.
Nvidia hat noch gut Luft in der TDP, paar Transistoren nachzulegen, zwei Ausbaustufen sind mindestens noch drin. Dann hat die IPC gegenüber Maxwell doch etwas nachgelassen, beim Refresh kann man diese wieder pushen und dann das gleiche Spiel wiederholen. Einzig alleine die Zeiträume könnten noch länger künstlich gestreckt werden, wenn mal in der Annahme geht, dass man mit 16 nm jetzt die nächsten 10 Jahre oder gar länger auskommen muss.
Könnte also im Endeffekt doch zukunftssicherer sein.

Zukunftsicher bezieht sich immer im Endeffekt auf die jeweilige Performance und die kannst du Pro Frame immer weiter nach unten drücken wenn du das möchtest ;)

Glaube Raff sieht es eher in Relation zur Konsolen Multiplatform Entwicklung und in der Baseline hat er recht aber wie gesagt mehr Workloads Pro Frame und auch die 1080 schaft die 30 FPS nichtmal mehr wobei sie 60 bei 1080 so gut wie mit jedem bekannten Workload was es momentan so gibt durchhalten sollte für eine längere Zeit vor allem den Nvidia optimierten ;)

siehe The Division sieh hält die 30 FPS Grenze bei 4K extreme knapp stabil

Die GTX 1070 wird hier exakt die 30 FPS im AVG hitten ;)

robbitop
2016-05-19, 18:58:24
Die 1080 ist nicht zukunftssicherer als die 680. Beide waren relativ zum vorherigen High End Modell ähnlich schnell und waren jeweils das erste Produkt im neuen Fertigungsprozess. Einzig die Speichermenge ist mit 8 GiB (auch bezogen auf die aktuelle Zeit) deutlich großzügiger.

scully1234
2016-05-19, 18:58:43
Bei der ganzen Preisdiskussion sollten die Fakten schnell klar sein: Ja, verglichen mit der Titan X ist die Karte günstig, aber die Titan X ist ja auch dazu dagewesen, die bereits teure 980 Ti vergleichsweise gut aussehen zu lassen.

Die Zahl der Leute die eine 980 Ti, Titan X oder 1080 wirklich brauchen, dürfte nicht so groß sein wie die Zahl der Leute, die sich das einfach leisten wollen (und können) weil das ihr Hobby ist und sie Hardware besitzen möchten die an die Grenze des technologisch Machbaren geht.

Um es etwas böser zu sagen, kauft man glaube ich auch ein bisschen Sozialneid der anderen mit. Selbst bei der 980 (ohne Ti) erlebte ich, wie Leute über den saftigen Preisaufschlag im Vergleich zur 970 höhnten. Aus psychologischer Sicht verstehe ich es aber nicht. Kein 980 / Ti / Titan / 1080-Käufer wird sich sagen "Jetzt wo er es sagt, sehe ich dass er Recht hat und ich unnötig viel Geld für ein paar Prozent Leistung gelatzt habe, wobei ich die Performance eigentlich nicht brauche." Das Gegenteil dürfte der Fall sein "Hihi, jetzt kann ich es ihm erst recht unter die Nase reiben, dass ich beim Graka-Kauf nicht so auf das Geld achten muss."

Kann man diese Ausfuehrung pinnen?!

Dann braucht man sie nicht alle zwei Sekunden wieder zu suchen, wenn die Preisdiskussion wieder los geht ,bei irgend einem Produkt:tongue:

Was macht den die 1080 zukunftssicher als eine 680?

Die nicht existenten next next Gen Konsolen, die es Entwicklern erlauben wuerden die Texturen grosszuegiger auszulegen

Tobe1701
2016-05-19, 19:00:50
Die Zahl der Leute die eine 980 Ti, Titan X oder 1080 wirklich brauchen, dürfte nicht so groß sein wie die Zahl der Leute, die sich das einfach leisten wollen (und können) weil das ihr Hobby ist und sie Hardware besitzen möchten die an die Grenze des technologisch Machbaren geht.

Um es etwas böser zu sagen, kauft man glaube ich auch ein bisschen Sozialneid der anderen mit. Selbst bei der 980 (ohne Ti) erlebte ich, wie Leute über den saftigen Preisaufschlag im Vergleich zur 970 höhnten. Aus psychologischer Sicht verstehe ich es aber nicht. Kein 980 / Ti / Titan / 1080-Käufer wird sich sagen "Jetzt wo er es sagt, sehe ich dass er Recht hat und ich unnötig viel Geld für ein paar Prozent Leistung gelatzt habe, wobei ich die Performance eigentlich nicht brauche." Das Gegenteil dürfte der Fall sein "Hihi, jetzt kann ich es ihm erst recht unter die Nase reiben, dass ich beim Graka-Kauf nicht so auf das Geld achten muss."

Seh ich anders. Zum einen ist der Bedarf doch da, entweder bei Gestalten wie mir die seit der 6xx-Generation aus dem einen oder anderen Grund immer weiter gewartet haben (und das sind denke ich gar nicht mal so wenig) oder aber die ihr WQHD oder gar 4K-Display mit mehr Leistung füttern müssen/wollen.

Zum anderen konnte man sich zwar durchaus eine Zeitlang über den Preisaufschlag 970->980(ti) auslassen, aber seitdem klar ist was NV da real verkauft (3.5 GB) erübrigt sich jede Diskussion. Dann blieb einem, außer einem Wechsel zu AMD, doch nur entweder draufzuzahlen oder weiter zu warten => siehe oben. Von mir aus kann auch jeder den aktuellen Release-Preis-Wahnsinn mitgehen, löst bei mir keinerlei Neid aus. Ich will mir eine Pascal kaufen, aber erst wenn alle Fakten da sind: Custom Designs und deren Straßenpreise PLUS das gleiche für die 1070. Der Preisunterschied wird für mich dann den Ausschlag geben - wenn er die Mehrleistung in 1440p rechtfertigt kann ich auch mit der Vorstellung leben ~700€ abzudrücken, wenn nicht wirds eben die 1070 und dann mal gucken wie weit man so kommt.

Kriegsgeier
2016-05-19, 19:19:12
Der hohe Preis wird sich nur halten können wenn es genug Leute geben wird, die es dafür kaufen.
Wird es nicht der Fall sein - sinkt der Preis...
Z. B. Wenn viele sich in Lauerstellung begeben und auf 649€ warten...

(del)
2016-05-19, 19:37:45
Dass die FE knapp ist, lässt sich doch auch logisch schlussfolgern. Aber wartet mal ab, was passiert, wenn sich demnächst die Schleusen für die Customs öffnen... Dann purzelt so Einiges. Knapp sind die Chips nicht, nur konnten die OEM nix verschiffen, weil NV die Chips bis zuletzt zurückgehalten hat. Schrieb ich ja schon Seiten weiter vorn, als es um Gigafake ging ;)

Die Partner haben alle genug Karten, keine Angst :)

ShinyMcShine
2016-05-19, 19:44:00
Die Partner haben alle genug Karten, keine Angst :)

Der Launch der Customs wird für mich persönlich viel spannender sein als der Launch des GP104 an sich, da hier dann doch schon vieles bekannt war! ;D

(del)
2016-05-19, 19:48:10
Das wird durchaus spannend, ich weiß. Dumm nur, dass ich einigen meiner georderten Testobjekte dann vielleicht in Kürze in der Luft begegne, weil ich etwas eher aufbreche :(

scully1234
2016-05-19, 19:48:16
Aber wartet mal ab, was passiert, wenn sich demnächst die Schleusen für die Customs öffnen... Dann purzelt so Einiges.

Also ist die FE Karte dann wirklich die Feuerschutzedition um die Boardpartner nicht zu aergern in ihrem Preisbereich

akuji13
2016-05-19, 20:07:45
Um es etwas böser zu sagen, kauft man glaube ich auch ein bisschen Sozialneid der anderen mit.

Zumindest in meinem Umfeld funktioniert das 0.
Mit einem anderen Auto könnte ich da einen Effekt erzielen, mit einem Stück hardware nicht.

Es ist eher so das eine solche Karte ungläubiges Kopfschütteln hervorrufen würde.

Selbst die die wissen was das ist könnten sich die Karte locker leisten, wollen aber einfach nicht.

Aus psychologischer Sicht verstehe ich es aber nicht. Kein 980 / Ti / Titan / 1080-Käufer wird sich sagen "Jetzt wo er es sagt, sehe ich dass er Recht hat und ich unnötig viel Geld für ein paar Prozent Leistung gelatzt habe, wobei ich die Performance eigentlich nicht brauche." Das Gegenteil dürfte der Fall sein "Hihi, jetzt kann ich es ihm erst recht unter die Nase reiben, dass ich beim Graka-Kauf nicht so auf das Geld achten muss."

Weder noch.
Das ist viel zu pauschal gedacht.

Ich wusste vorher das die X überteuert ist, genau so wie ich damals schon wusste das ich mit meiner einen satten Verlust einfahren werde beim Verkauf.

"Brauchen" tut niemand die Leistung.
Man will sie.
Ich persönlich um in meiner Wunsch-Auflösung entsprechende fps zu erhalten.

Man könnte ja auch sagen "spiele ich halt in 1080p weiter".
Ich sage ich spare lieber an anderen Stellen im Leben und nicht bei einem meiner Hobbys.

Ich weiß auch jetzt das die 1080 ein für mich finanziell schlechtes Geschäft wäre, welches ich dennoch tätigen würde falls es z. B. einen der auf CB angekündigten neuen AOC 35" bereits geben würde.

horn 12
2016-05-19, 20:16:53
@Format _C

Nun, vielleicht sehen wir 2100 bis 2200 unter Luft, ist toll aber die FE taktet ja bereits mit etwa Boost um 1800+ Mhz
Sprich +20% obendrauf was vielleicht 15% an Performance rausholt und die Bandbreite limitiert dafür nochmals mehr als es derzeit schon passiert!
Dafür bis weit in den Juni, Anfang Juli hinein wohl Preise zwischen etwa 675 bis 800 Euro !

StefanV
2016-05-19, 20:17:17
Weil hier so wenige Argumente geliefert werden, möchte ich mich mal versuchen:

Was spricht für den hohen Preis?
- 16FF+ Chips sind deutlich teurer. Der Chip alleine dürfte mehr kosten, als der wesentlich größere GM204.
- Der Speicher wurde verdoppelt und es wird auch schnellerer und völlig neuer Speicher verwendet, der wohl nochmal mehr kostet.
- Die Vaporchamber dürfte ebenfalls etwas teurer als der 980 Kühler sein.
- Da AMD seine Karten noch nicht vorgestellt hat, herrscht momentan kein Konkurrenzdruck.
- Die Karte wurde gerade erst vorgestellt und wir kennen die Straßenpreise noch nicht, sondern nur den MSRP von Nvidia.
- Eventuell will Nvidia die Nachfrage nach GDDR5X Karten erstmal niedrig halten, bis dieser besser verfügbar ist?
- Sie lassen sich ein großes Polster für eine Preissenkung offen?
- Der Eurokurs hat sich nicht zu unseren Gunsten entwickelt.
- Man will erstmal noch die Lagerbestände an GM200 an den Mann bringen.

Was spricht gegen den hohen Preis?
- Bisher waren Highendchips (darüber gibts noch Enthusiast) eher im Bereich 400-600 Euro angesiedelt.
- Vor ein paar Jahren sogar noch deutlich günstiger
- Früher hat man für ca. das selbe Geld alle 12-18 Monate 70-100% mehr Leistung bekommen.


Und nicht dass ich hier falsch verstanden werde, ich finde den Preis ebenfalls als zu hoch.

Du hast den wichtigsten Punkt vergessen:

Weil sie es können und die Mentalität der potentiellen Kunden es erlaubt, die Preise fast beliebig hoch zu setzen - gekauft wird es trotzdem. Das hat man ja auch gut an den Titanen und anderen Karten gesehen.

Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt...

Schrotti
2016-05-19, 20:30:48
Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt...

Welche Alternative hat man denn wenn man einen 4K Bildschirm mit mehr als 25fps befeuern möchte.

scully1234
2016-05-19, 20:31:04
Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt...

ich glaub nicht das sich 80% des Marktes da bevormunden lassen muss, nicht so rational zu denken wie der Teil den du als vernuenftig betrachtest:wink:

Rente
2016-05-19, 20:32:49
Du hast den wichtigsten Punkt vergessen:

Weil sie es können und die Mentalität der potentiellen Kunden es erlaubt, die Preise fast beliebig hoch zu setzen - gekauft wird es trotzdem. Das hat man ja auch gut an den Titanen und anderen Karten gesehen.

Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt... Die "Schuld" liegt aus meiner Sicht hauptsächlich an den fehlenden gleichwertigen oder mit interessanten Alleinstellungsmerkmalen versehenen Produkten der Mitbewerber (eigentlich des Mitbewerbers...).
AMD muss eben leider massiv mehr Leistung für das gleiche oder weniger Geld bieten um eine Rolle zu spielen und das eben auch über mehrere Jahre - mangels "Kriegskasse" wird das aber wohl eher nicht passieren.

On Topic: Wann wird man denn die ersten Custom-Karten in Tests sehen?

Mancko
2016-05-19, 20:33:36
Du hast den wichtigsten Punkt vergessen:

Weil sie es können und die Mentalität der potentiellen Kunden es erlaubt, die Preise fast beliebig hoch zu setzen - gekauft wird es trotzdem. Das hat man ja auch gut an den Titanen und anderen Karten gesehen.

Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt...

Es gibt aktuell auch keine Alternative von AMD für dieses Produkt. Insofern hast Du oben Recht. Sie können den Preis einfach verlangen. Und zu guter letzte ist es nun mal so, dass ein gleichwertiges Nvidia Produkt teurer ist als ein AMD Produkt. Man kauft die Marke mit. Das ist nun mal so. Da machen GPUs bzw. Grafikkarten keine Ausnahme.

Undertaker
2016-05-19, 20:34:41
@StefanV: Wo wäre das denn der Fall? Die Titan-Modelle (und jetzt die GTX 1080) sind konkurrenzlos, die kleineren Karten unterscheiden sich preislich unterm Strich nicht wirklich vom AMD-Angebot. Und dann gibt es eben auch viele Käufer, die Wert auf Featureset (HDMI 2.0, Decoding-Fähigkeiten), OC-Potential und Perf/Watt legen, was man beim Preisvergleich ebenfalls nicht vergessen sollte. Wenn AMD Interesse an einem Preiskampf hätte, könnten man diesen problemlos einleiten. Wird natürlich nicht passieren, warum auch.

scully1234
2016-05-19, 20:57:29
Umbau auf ne EVGA hybrid Kuehlung stabile 2,165 GHz wie es scheint

w-3fi1ovAP0http://media.gamersnexus.net/images/media/2016/gpu/gtx-1080/gn-hybrid/gtx-1080-ghybrid-oc-stability-v-t.png

Schrotti
2016-05-19, 21:13:11
Sorry aber die Karte mit so einem Mist total verhunzt.

scully1234
2016-05-19, 21:13:59
Naja die wollen halt fummeln kennst das doch:biggrin:

Aber eins zeigt es auch das Powertarget ist am Anschlag

Da macht sich noch wer bereit zum Fummeln

dildo4u
2016-05-19, 21:22:15
Die Partner verbauen nicht umsonst selbst auf GTX 970 2 Lüfter,das NV Design wird immer seine Limits haben.Das ganze ist eher Sinnvoll für SLI und sehr kleine Gehäuse.

BitJäger
2016-05-19, 21:26:15
Die Partner verbauen nicht umsonst selbst auf GTX 970 2 Lüfter,das NV Design wird immer seine Limits haben.Das ganze ist eher Sinnvoll für SLI und sehr kleine Gehäuse.


Zotac verbaut auch drei Lüfter.

http://geizhals.de/?cat=gra16_512&xf=1439_GTX+970~545_Zotac#xf_top

Mcdave
2016-05-19, 21:39:27
Von mir aus dürften auch gerne 3 Slot Designs erscheinen. Das gab es ja bislang nur für Protzkarten wie etwa die Devil 13.

PHuV
2016-05-19, 22:08:09
@StefanV: Wo wäre das denn der Fall? Die Titan-Modelle (und jetzt die GTX 1080) sind konkurrenzlos, die kleineren Karten unterscheiden sich preislich unterm Strich nicht wirklich vom AMD-Angebot. Und dann gibt es eben auch viele Käufer, die Wert auf Featureset (HDMI 2.0, Decoding-Fähigkeiten), OC-Potential und Perf/Watt legen, was man beim Preisvergleich ebenfalls nicht vergessen sollte. Wenn AMD Interesse an einem Preiskampf hätte, könnten man diesen problemlos einleiten. Wird natürlich nicht passieren, warum auch.
Richtig.

Nvidia könnte mitnichten einen höheren Preis verlangen, wenn es genau gleich zu anderen Produkten wäre.
Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt...
Ja Logo. :rolleyes: Das die AMD-Karten immer heißer und lauter sind als Nvidia, daran sind die Fans auch schuld, und daß die AMD-Karten fast ausnahmslos mehr Strom ziehen, daran sind die Fans auch schuld, oder das die Treiber früher deutlich schlechter waren, auch... :facepalm: Warum können die Neider nicht einfach anerkennen, wenn jemand einen besseren Job macht, und dafür auch mehr Geld verlangen? Apple macht das so, Intel macht das so, alle machen es so. Wenn eine Firma mehr investiert, und ein "runderes" oder "besseres" Produkt liefert, dann hat sie auch sehr wohl das Recht, dafür mehr Geld zu verlangen, um diese aufwendigen Investitionen entsprechend schneller reinzuholen.

Nenne mir doch mal eine Alternative von einem anderen Hersteller zu einer Titan X mit 12 GB VRam? Oder eine so gute Karte für VR wie die 1080p?

BitJäger
2016-05-19, 22:27:41
@StefanV: Wo wäre das denn der Fall? Die Titan-Modelle (und jetzt die GTX 1080) sind konkurrenzlos, die kleineren Karten unterscheiden sich preislich unterm Strich nicht wirklich vom AMD-Angebot. Und dann gibt es eben auch viele Käufer, die Wert auf Featureset (HDMI 2.0, Decoding-Fähigkeiten), OC-Potential und Perf/Watt legen, was man beim Preisvergleich ebenfalls nicht vergessen sollte. Wenn AMD Interesse an einem Preiskampf hätte, könnten man diesen problemlos einleiten. Wird natürlich nicht passieren, warum auch.


AMD kann sich keinen Preiskampf leisten weil sie den verlieren würden. Nvidia hat mehr Reserven und mehr Möglichkeiten zu agieren.

iuno
2016-05-19, 22:47:52
Nein, nvidia müsste gar nicht mitmachen.

Könnte die fe nicht auch der Versuch sein, die Referenzkarte völlig abzuschaffen?
Überteuert, nur wenig Karten und bald vielleicht gar keine mehr? Vielleicht haben sie keinen Bock mehr die Referenz zu bauen.
Um die langsame Abschaffung noch zu überbrücken kommt halt das premium gelaber für early adopter... Zukünftig dann nur noch Referenzkarten für reviewer :D

Kartenlehrling
2016-05-19, 22:50:18
Man nennt sowas Ankerpreise, in Marketing war Nvidia schon immer gut.

Troyan
2016-05-19, 22:51:37
Nein, Referenzkarten wird es immer geben.
Die Founders Edition ist nichts anderes, um bei bestimmten Käufergruppen ein bisschen Geld abzuschöpfen - MiniITX Kunden, SLI-Kunden etc.

Effe
2016-05-19, 23:10:58
OEM bekommen doch auch Referenzkarten, oder?

MorPheuZ
2016-05-19, 23:33:30
Du hast den wichtigsten Punkt vergessen:

Weil sie es können und die Mentalität der potentiellen Kunden es erlaubt, die Preise fast beliebig hoch zu setzen - gekauft wird es trotzdem. Das hat man ja auch gut an den Titanen und anderen Karten gesehen.

Und damit ist letzendlich der Kunde bzw die nVidia 'Fans' Schuld, die die überhöhten Preise der nVidia Karten zahlen, weil sie sich gern einreden, dass es gar keine Alternative gibt...

Ich hab es anderswo auch schon geschrieben. Der hohe Preis ist zwar für den Kunden ein Arschkick aber wenigstens hat AMD was davon.

Thomas Gräf
2016-05-19, 23:41:03
Leute bleibt doch mal ganz locker, der neue Prozess scheint zumindest bei TSMC ja nicht ganz verkackt zu sein.
Diese GeForce1080 is für 1080 ne Top Karte, nun muß GF noch nachziehen und die Preise werden in halbwegs normale Regionen fallen.
Wo die 1080 für mich wirklich was drauf hat ist diese TripleScreen Korrektur.
Wiedermal ein Wink mit der Zaunlatte für Software Studios die nur Konsolen Scheiß im Sinn haben.

MiamiNice
2016-05-19, 23:58:52
Diese GeForce1080 is für 1080 ne Top Karte, ...

Willst Du damit aussagen das die GTX1080 eine "Top Karte" für Full HD ist?!?

Cubitus
2016-05-20, 00:30:25
Willst Du damit aussagen das die GTX1080 eine "Top Karte" für Full HD ist?!?

4K ist aber noch nicht der Standard..

Für 2560*1440 (jetzt eigl schon gut verbreitet) bzw. für 3440*1440 ist die Karte bestens geeignet..
4K würde sicherlich auch noch gehen, aber eben nicht bei jedem Spiel mit höchsten Settings.. Wäre halt etwas "Kompromiss" behaftet

BlacKi
2016-05-20, 00:51:14
wow, das ist ja mal nice. ein programm das die voltage auf das persönliche (gut oder schlechtes) stück silizium sucht unabhängig von dem was der hersteller allen karten auf den weg mit gibt. so holt man das maximum raus was der chip bei der festgelegten tdp schaffen kann.

wenn die tdp per bios mod frei ist, findet man zuerst den maximal stabilen takt mit einer festen voltage, danach einfach die voltage mit dem oc scanner heraus finden lassen.

am ende hat man eine leise, effiziente, aber schnelle OC karte.

https://youtu.be/EMy5hneJHXU?t=647

Achill
2016-05-20, 01:32:36
[...]
https://youtu.be/EMy5hneJHXU?t=647

Im Video gibt es auch die interessante Info bzgl. max. Clock bei ~13:05, demnach erreichte die beste GPU ~2.2Ghz ... das kann natürlich über die Zeit der Herstellung besser werden, scheint aber auch gutes Indiz zu sein, was man bei OC aktuell erwarten kann.

Isen
2016-05-20, 01:39:37
lol... neben dem was ja eh bereits jeder weiß, aber wie die das Begründen ist schon erstaunlich zum weg schmeißen :D

https://www.youtube.com/watch?v=bNCfn4y8dBw

Achill
2016-05-20, 02:02:48
lol... neben dem was ja eh bereits jeder weiß, aber wie die das Begründen ist schon erstaunlich zum weg schmeißen :D

https://www.youtube.com/watch?v=bNCfn4y8dBw

*hust* Prei$absprache *hust*

scully1234
2016-05-20, 02:49:02
interessante Info bzgl. max. Clock bei ~13:05, demnach erreichte die beste GPU ~2.2Ghz ... das kann natürlich über die Zeit der Herstellung besser werden,.

Mit dem Budget von 225Watt und den Referenzkuehler ist das wohl auch kein Wunder

Im obigen Video ,hatte ja bereits der Fluessigkeitskuehlungsumbau, 100MHZ mehr raus geholt aus dem Core ,bei gleichen Energiebudget , und das voellig stabil im Boost ueber den ganzen Testzeitraum. Wenn ich da jetzt hypotetisch nur 75 Watt (6Pin) zusaetzlich zur Verfuegung habe,so wie sich das andeutet bei den ersten Customkarten, geht da auch noch ein Bisschen was bei den Taktraten,solange die Temperatur passt.

Bringhimup
2016-05-20, 06:06:33
Mal ne vielleicht etwas blöde Frage bei einer 800 Euro Karte, aber kann man den freien Platz nicht selbst mit einem weiteren 6 oder 8 Pin Stromanschluß bestücken? So wie das aussieht sollte es Löt technisch nicht mal schwer sein. Aber würde der auch benutzt werden?

Natürlich alles unter der Voraussetzung, dass man das Powertarget bald über 120% hinaus erhöhen kann und die kommenden Herstellerdesigns nicht sowieso zeitnah zum 27. Mai Karten bringen, die schon einen zweiten Stromanschluss haben.

Loeschzwerg
2016-05-20, 07:37:47
Du kannst den zusätzlichen Anschluss auflöten und der müsste dem PCB zu urteilen auch genutzt werden, ohne dass du zusätzliche Komponenten verlöten musst.

Letztendlich dürfte das aber für normales OC (inkl. Spannungsplus) völlig unnötig sein.

scully1234
2016-05-20, 08:01:56
Du kannst den zusätzlichen Anschluss auflöten und der müsste dem PCB zu urteilen auch genutzt werden, ohne dass du zusätzliche Komponenten verlöten musst.

Letztendlich dürfte das aber für normales OC (inkl. Spannungsplus) völlig unnötig sein.

Ich glaub ohne die Validierung von Nvidia wird da nix laufen an Boost 3.0 vorbei, auch wenn die Spannungsversorgung technisch dazu in der Lage waere, muessten die Boards erst entsprechend präpariert werden.


Die haben ihren Torwaechter da schon nicht ohne Grund:biggrin:

Loeschzwerg
2016-05-20, 08:57:13
Wäre mir neu dass der Boost 3.0 hier direkt die "Einspeisung" regelt, aber um überhaupt einen Mehrwert erzielen zu können, muss natürlich das Bios (PT) angepasst werden :) Ich sehe hier aber eh nur bei extremem LN2 Sessions ein Anwendungsgebiet, für den Rest reicht auch der eine 8 Pin.

Zur Entlastung würde ich eher zusätzliche Mosfets verlöten, aber da kommen ja so oder so die Customs.

Mayk-Freak
2016-05-20, 08:58:40
Sorry aber die Karte mit so einem Mist total verhunzt.

Der Preis der Karte ist doch auch total verhunzt.

iuno
2016-05-20, 09:22:29
Letztendlich dürfte das aber für normales OC (inkl. Spannungsplus) völlig unnötig sein.
Du meinst, weil das PT sowieso abregelt? Da sollte bios modding ja helfen.
Ansonsten sagen die Tests ja was voellig anderes

tm0975
2016-05-20, 09:26:28
bis jetzt haben wir ja einen erstklassigen paper-launch gesehen. gibt es spekulationen über die start-volumen zum hardware-launch? bisher hat sich nvidia da ja nicht lumpen lassen. allerdings wollten sie wohl diesmal mit gewalt die ersten sein.

iuno
2016-05-20, 09:28:07
bis jetzt haben wir ja einen erstklassigen paper-launch gesehen. gibt es spekulationen über die start-volumen zum hardware-launch? bisher hat sich nvidia da ja nicht lumpen lassen. allerdings wollten sie wohl diesmal mit gewalt die ersten sein.
Format_C hat bekraeftigt, dass es keine Engpaesse gibt:
Dass die FE knapp ist, lässt sich doch auch logisch schlussfolgern. Aber wartet mal ab, was passiert, wenn sich demnächst die Schleusen für die Customs öffnen... Dann purzelt so Einiges. Knapp sind die Chips nicht, nur konnten die OEM nix verschiffen, weil NV die Chips bis zuletzt zurückgehalten hat. Schrieb ich ja schon Seiten weiter vorn, als es um Gigafake ging ;)

Die Partner haben alle genug Karten, keine Angst :)

Zettabit
2016-05-20, 09:38:29
bis jetzt haben wir ja einen erstklassigen paper-launch gesehen.
Der Launch ist am 27. Wie konntest du da bisher etwas sehen, wenn das erst in einer Woche ist?:rolleyes:

Thunderburne
2016-05-20, 09:48:39
Im Video gibt es auch die interessante Info bzgl. max. Clock bei ~13:05, demnach erreichte die beste GPU ~2.2Ghz ... das kann natürlich über die Zeit der Herstellung besser werden, scheint aber auch gutes Indiz zu sein, was man bei OC aktuell erwarten kann.
Ja er spricht von unterschiedlicher Güte der Chips.
Asic könnte möglicherweise ein Indikator werden..
Die 216W 120PT sind einfach zu niedrig um abzuschätzen wo Schluss ist.
Mit Wakü einem Guten Chip freiem PT +V sind 2400 MHZ eventuell machbar .

akuji13
2016-05-20, 09:51:56
Der Launch ist am 27. Wie konntest du da bisher etwas sehen, wenn das erst in einer Woche ist?:rolleyes:

Auch eine Lösung den offiziellen launch einfach nach hinten zu legen. ;)

Ich erwarte zeitgleich mit dem Test die Verfügbarkeit.

Hübie
2016-05-20, 09:56:10
lol... neben dem was ja eh bereits jeder weiß, aber wie die das Begründen ist schon erstaunlich zum weg schmeißen :D

https://www.youtube.com/watch?v=bNCfn4y8dBw

Frech ist vor allem die Bauteile Premiumkomponenten zu nennen, obwohl dies allenfalls gehobener Standard sind (rein auf die Elektronik bezogen). :rolleyes:

BlacKi
2016-05-20, 09:59:56
genau, 2,2ghz werden die besten chips ohne bios mod erreichen. aber es wird ja nicht nur das tdp limit der limitierende faktor sein, sondern auch die voltage. ich glaube nicht daran das die custom karten die voltage erhöhen dürfen. insofern wird selbst bei custom karten ohne bios mod spätestens bei 2,3/2,4 schluss sein. aber ich denke früher oder später wirds bios mod tools geben die alles öffnen. 2,5ghz ahoi!

cR@b
2016-05-20, 10:15:57
wow, das ist ja mal nice. ein programm das die voltage auf das persönliche (gut oder schlechtes) stück silizium sucht unabhängig von dem was der hersteller allen karten auf den weg mit gibt. so holt man das maximum raus was der chip bei der festgelegten tdp schaffen kann.

wenn die tdp per bios mod frei ist, findet man zuerst den maximal stabilen takt mit einer festen voltage, danach einfach die voltage mit dem oc scanner heraus finden lassen.

am ende hat man eine leise, effiziente, aber schnelle OC karte.

https://youtu.be/EMy5hneJHXU?t=647

Möchte nicht wissen wieviele Karten dadurch zurück geschickt werden. War ja bereits bei dem ASIC Wert der Fall :rolleyes:

Cubitus
2016-05-20, 10:18:36
Ich vermute dort wird gar nichts reglementiert.
EVGA wird mit Sicherheit wieder eine Kingpin bringen und KFA eine HOF inklusive 8Pack Support ;D

http://www.overclock3d.net/gfx/articles/2015/05/29101929291l.jpg

Loeschzwerg
2016-05-20, 10:22:24
Du meinst, weil das PT sowieso abregelt? Da sollte bios modding ja helfen.
Ansonsten sagen die Tests ja was voellig anderes

Selbst mit Mod-Bios ist der zweite 8 Pin nicht zwingend nötig, dann laufen halt über den einen Stecker etwas mehr als 200Watt, das tut der Spannungsversorgung jetzt aber keinen Abbruch :) Für "mehr" greift man dann eh lieber zu Custom Modellen mit zusätzlichen Mosfets/Phasen.

Hübie
2016-05-20, 10:26:38
Ich vermute dort wird gar nichts reglementiert.
EVGA wird mit Sicherheit wieder eine Kingpin bringen und KFA eine HOF inklusive 8Pack Support ;D

http://www.overclock3d.net/gfx/articles/2015/05/29101929291l.jpg

OMG! Wenn mich einer so böse anguckt würde ich denken, dass Produkt muss scheiße sein oder macht aggressiv. Was wollten die Marketing-Fuzzies denn damit vermitteln? :rolleyes::D

(del)
2016-05-20, 10:27:25
Schaut Euch das PCB an, eine schönere Parallelschaltung kann man sich ja gar nicht wünschen. PT- + Spannungsanhebung, der Rest ist Spoileroptik :)

BitJäger
2016-05-20, 10:27:38
Bei Hardwarelux: Inno3D zeigt seine Custom-Kühlung für die GeForce GTX 1080

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39229-inno3d-zeigt-seine-custom-kuehlung-fuer-die-geforce-gtx-1080.html

Hübie
2016-05-20, 10:28:44
Welches meinst du jetzt? Das Ref-Design? Ja die Schaltung war eigentlich mit Maxwell schon nicht übel, aber wo bitte sieht man da Premium-Komponenten? :|

Ph0b0ss
2016-05-20, 10:29:11
Im Video gibt es auch die interessante Info bzgl. max. Clock bei ~13:05, demnach erreichte die beste GPU ~2.2Ghz ... das kann natürlich über die Zeit der Herstellung besser werden, scheint aber auch gutes Indiz zu sein, was man bei OC aktuell erwarten kann.

Wie es scheint liegen bei 2,2Ghz etwa 1,08V an. Wenn man jetzt ein Board unterm Chip hätte, das 300W und 1,2V stabil liefern könnte, müssten ~2,4Ghz problemlos machbar sein. Interessant dabei wäre, ob die 1,2V vielleicht auch dem Speichercontroller helfen würden. Falls dieser limitiert, wären dann immerhin so ~1500Mhz statt 1375Mhz möglich. Dem Speicher selbst könnte man ja auch noch ~0,1V extra gönnen falls dieser limitieren sollte.

Ätznatron
2016-05-20, 10:43:01
Dem Speicher selbst könnte man ja auch noch ~0,1V extra gönnen falls dieser limitieren sollte.

Aber ist es nicht so, dass beim Speicher-OC der GTX 1080 schlechtere Latenzen sogar für ein Absinken der Leistung sorgen?

Irgendwo hier im Thread war dazu wohl mal ein Beitrag.

Ph0b0ss
2016-05-20, 10:59:45
Aber ist es nicht so, dass beim Speicher-OC der GTX 1080 schlechtere Latenzen sogar für ein Absinken der Leistung sorgen?

Könnte sein, dass ab bestimmten Frequenzen die Latenzen erhöht werden. Müsste mal jemand in kleinen Schritten testen, ob es da Sprünge gibt. Falls ja dann ist ein BIOS-Mod fällig.

Ätznatron
2016-05-20, 11:04:18
Könnte sein, dass ab bestimmten Frequenzen die Latenzen erhöht werden. Müsste mal jemand in kleinen Schritten testen, ob es da Sprünge gibt. Falls ja dann ist ein BIOS-Mod fällig.

Ist denn sicher, dass das BIOS überhaupt gemoddet werden kann?

Hübie
2016-05-20, 11:06:08
Wird auf die üblichen Mittel hinauslaufen.. :D

Ätznatron
2016-05-20, 11:07:31
Wird auf die üblichen Mittel hinauslaufen.. :D

Kurzum: Man weiss es nicht.

BlacKi
2016-05-20, 11:29:45
Kurzum: Man weiss es nicht.
eher, es ist davon auszugehen.

TurricanM3
2016-05-20, 11:32:38
Wie es scheint liegen bei 2,2Ghz etwa 1,08V an. Wenn man jetzt ein Board unterm Chip hätte, das 300W und 1,2V stabil liefern könnte, müssten ~2,4Ghz problemlos machbar sein.


Wäre ich mir nicht so sicher, schau dir GM200 an, was bringt da die Voltagekeule? 50MHz? Oder noch weniger.

Ist denn sicher, dass das BIOS überhaupt gemoddet werden kann?


Sonst kann man immer noch löten/pinseln. Das war früher vor den Bios-Möglichkeiten normal so z.B. bez. vMods. ^^

BlacKi
2016-05-20, 11:42:25
Sonst kann man immer noch löten/pinseln. Das war früher vor den Bios-Möglichkeiten normal so z.B. bez. vMods. ^^

das ist soooo 2008^^

ne, wegen 200mhz nehm ich die ganzen nachteile + und zusätzlich noch diese hardmod nicht in kauf, ich gehe aber nicht davon aus dass das passieren wird.

PHuV
2016-05-20, 11:51:28
Bei Hardwarelux: Inno3D zeigt seine Custom-Kühlung für die GeForce GTX 1080

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/39229-inno3d-zeigt-seine-custom-kuehlung-fuer-die-geforce-gtx-1080.html
Die Frage ist dann nur, ist dann das von Nvidia versprochene Customdesign für 599 $? Oder wird das Ding im Endeffekt genauso teuer wie die FE?

Schnoesel
2016-05-20, 11:54:54
Nvidia hat gar nix versprochen. Dass die Leute immer das Wort "expected" übersehen. Karten für 599 werden dann so aussehen: http://www.comptoir-hardware.com/images/stories/_cg/pascal/gp104/galax-gtx-1080-box-vdcz.jpg

Ph0b0ss
2016-05-20, 11:55:26
Wäre ich mir nicht so sicher, schau dir GM200 an, was bringt da die Voltagekeule? 50MHz? Oder noch weniger.

So bis 1,2V/1,25V hat GM200 doch einigermaßen skaliert? Kann bei der neuen Karte im neuen Prozess natürlich anders sein, wer weiß?

urpils
2016-05-20, 11:57:33
spielt es denn überhaupt eine rolle wie dieKarten aussehen? ich möchte dass die Dinger mir Grafik am Bildschirm berechnen - und nicht die Karte ansehen.

Schnoesel
2016-05-20, 11:59:12
Das Aussehen ist dabei nicht das entscheidende aber ob die Kühlung Leise und Effizient ist schon. Die Billig DHEs werden keines von beidem sein.

Kartenlehrling
2016-05-20, 11:59:50
Genau,
anstelle vom Magnesium/Aluminum Gehäuse gibt es Plastik und
anstelle von Vaporblock(Titan) gibts den bewerten gtx980 headpipes Kühler, zusätzlich keine Backplatte und schon sind 100$ eingepart.

TurricanM3
2016-05-20, 12:10:44
So bis 1,2V/1,25V hat GM200 doch einigermaßen skaliert? Kann bei der neuen Karte im neuen Prozess natürlich anders sein, wer weiß?


Ich hatte mehrere 980Ti und da hats einfach so gut wie nichts gebracht. Hohe ASIC war am wichtigsten. 1550 packt die jetzige auch um alles zu benchen @1175mv. Selbst mit 1274mv laufen aber nicht mal 30MHz mehr (zuverlässig). Genauso wars auch beim Undervolting. Lief stundenlang bis es dann doch mal abgeschmiert ist.

Achill
2016-05-20, 12:28:40
Man sollte bedenken, dass die deutlich kleiner Prozessstruktur auch andere (niedrigere) max. Spannungen haben kann/wird.

=> Wir kennen das aus der CPU-Welt, dass man die Spannungen der älteren Strukturgroße nicht auf die neuen CPUs einfach übernehmen kann - die werden i.d.R. gegrillt bzw. haben ein deutlich verkürztes Leben.

scully1234
2016-05-20, 12:47:39
Wird auf die üblichen Mittel hinauslaufen.. :D

Bis Nvidia mal so fies wird und den signierten Hash des Bios bei der Treiberinstallation abfragt und wer gefummelt hat....:biggrin:

Deshalb immer schoen das originale sichern falls der Worst Case mal kommen sollte

MiamiNice
2016-05-20, 13:45:25
Umbau auf ne EVGA hybrid Kuehlung stabile 2,165 GHz wie es scheint

http://youtu.be/w-3fi1ovAP0http://media.gamersnexus.net/images/media/2016/gpu/gtx-1080/gn-hybrid/gtx-1080-ghybrid-oc-stability-v-t.png
http://youtu.be/w-3fi1ovAP0

Wat eine geile Karte würde ich mir direkt einbauen. Sieht schön nerdi aus :eek:
So ungefähr sieht meine dann wohl auch aus mit dem Corsair Hydro Kühler.
Find ich rattenscharf ;)

KHJ
2016-05-20, 13:52:01
Ich denke die 250W von Format C könnten hinkommen bei Wakü den man muss bedenken das die jetzigen Karten ja bei 83° oder höher rumgurken wenn man das Temp limit aushebelt, wohingegen eine Wakü wohl bei 60-65° liegen dürfte , die evga kommt ja bei 2100 auf delta 18° was nur an die 40-45° bedeuten würde. Also Temperaturmässig dürfte da absolut massiv Luft sein wenn man das PT aushebeln kann oder anheben.
Und bei den R9 290/390 haben die Sahirre Customs dann den Stromverbauch doch messbar senken können, da diese um einges Kühler waren als die Refrenzmodelle.

Mann muss halt abwarten wie viel mehr an Spannung man für die 2,5 GHZ ansetzen muss, aber vielleicht erreicht man diese eben auch gar nicht weil der chip vorher dicht macht da muss man halt die ersten Testberichte abwarten.
Ich hoffe ja wieder das Igor so ein schönes Diagramm anfertigt wie bei der 970 damals, wo man schön sieht ab welchem Takt der Verbauch unverhältnissmässig ansteigt.

Auf jeden Fall clever von NV, da man so sehr einfach auch einen Refresh zwischendrin bringen kann mit einer 1085/1080 Ultra wenn der Prozess ein wenig besser ist die dieselbe TDP bekommt und bei den Takten um 100MHZ Referenz zulegen kann und dann den 12gb GDDR5X bekommt und somit hier weniger bremst und unterm Strich mehr Leistung liefert und das nur weil die normale 1080 eben küstlich bei der Brandbreite ausgebremst wurde.


Die Zahl der Leute die eine 980 Ti, Titan X oder 1080 wirklich brauchen, dürfte nicht so groß sein wie die Zahl der Leute, die sich das einfach leisten wollen (und können) weil das ihr Hobby ist und sie Hardware besitzen möchten die an die Grenze des technologisch Machbaren geht.

Um es etwas böser zu sagen, kauft man glaube ich auch ein bisschen Sozialneid der anderen mit.

Also in meinem Umfeld kann man absolut niemanden beeindrucken wenn man eine Titan X besitzt da würde eben auch eher wie vorher schon geschrieben ein fetter starker BMW (beliebige Mitteklasse einfügbar) eindruck machen.Ich kaufe die Hardware für mich. Das einzige wenn ich jemanden beeindrucken wollen würde wäre wenn ich die Hardware in meine Sig in den Foren reinschreibe, aber darin sehe ich irgendwie keinen Sinn .
Ich hab mir damals in meiner Jungend auch nen Honda Integra gekauft. Mit so ner "Japanerschüssel" kannst da auch kaum einen beeindrucken, war mir aber egal da ich wusste was ich da gekauft habe und das ist das wichtige.
Wobei die Zeiten, wo ich mal eben 3000€ in den Rechner gebuttert habe auch schon vorbei sind derzeit werkelt nur noch eine 970 in meinen Rechner die wohl auch maximal mit einer 1070 bis 500€ abgelöst wird wenn diese entsprechende Leistung bringt, ansonten wird noch auf Vega gewartet.

Thunderburne
2016-05-20, 13:52:17
Ich hatte mehrere 980Ti und da hats einfach so gut wie nichts gebracht. Hohe ASIC war am wichtigsten. 1550 packt die jetzige auch um alles zu benchen @1175mv. Selbst mit 1274mv laufen aber nicht mal 30MHz mehr (zuverlässig). Genauso wars auch beim Undervolting. Lief stundenlang bis es dann doch mal abgeschmiert ist.
Dabei sollte man die Karte aber auch sehr gut Kühlen.
Bei meiner Ref.65 Asic war bei 1400 Schluss bei 1.193V bei 1.274V 1500 35°C stable ist nicht so prall aber okay.
385W Spitze die wollten natürlich abgeführt werden.

Gerade High asic hab ich gemerkt das die es schön Kalt mögen und empfindlich sind auf zu hohe Spannungen.
Dafür kommen die meist aber höher im Takt mit weniger Spannung .

Cubitus
2016-05-20, 14:44:13
OMG! Wenn mich einer so böse anguckt würde ich denken, dass Produkt muss scheiße sein oder macht aggressiv. Was wollten die Marketing-Fuzzies denn damit vermitteln? :rolleyes::D

Glaube die HOF ist für eine sehr spezielle Zielgruppe :freak:

Also welche die erstmals hard pumpen und abends anstatt ne Alte wegzubügeln, oder an einer Tür stehen, lieber sich hinsetzen und ihren PC bis zum geht nicht mehr übertakten...
Jaaa Muskeln, Schweiß, extremes Oc und Spawas die so zahlreich sind wie 8Paks Oberarmmuskeln... Das ist soo fucking badass ;D

Die Karte ist nur für die richtigen Alfas, wie etwa den Technowikinger (https://www.youtube.com/watch?v=Uwv2dS1r_mA) ;D

Ph0b0ss
2016-05-20, 14:52:04
Man sollte bedenken, dass die deutlich kleiner Prozessstruktur auch andere (niedrigere) max. Spannungen haben kann/wird.

=> Wir kennen das aus der CPU-Welt, dass man die Spannungen der älteren Strukturgroße nicht auf die neuen CPUs einfach übernehmen kann - die werden i.d.R. gegrillt bzw. haben ein deutlich verkürztes Leben.

Da würde ich mir jetzt nicht so große Sorgen machen. Intels Skylake hat ja bei 14nm auch bis ~1,3V Vcore Standardspannung.

BitJäger
2016-05-20, 15:00:21
PCGH: Geforce GTX 1080: Einfache Power-Mod zum besseren Übertakten

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Power-Mod-OC-1195975/

TurricanM3
2016-05-20, 15:27:34
Schade dass es die Karten noch nicht zu kaufen gibt, dann gäbe es endlich mal ein paar mehr User-Berichte bez OC. Noch eine Woche warten, ich bin schon sehr gespannt.

Ph0b0ss
2016-05-20, 15:36:00
PCGH: Geforce GTX 1080: Einfache Power-Mod zum besseren Übertakten

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Power-Mod-OC-1195975/

Mit dieser Krüppelbestückung der Spannungswandler der Founders Edition sollte man vom weiterem Übertakten mit Hilfe eines offenen Powertarget wohl besser die Finger lassen. Selbst bei den normalen 1,08V Vgpu sind die Spawas bei 270W am Ende (bei 1,2V dann 300W). Schon arm, dass die Platine bei dem Preis nicht wenigstens vollbestückt ist.:freak:

Dural
2016-05-20, 15:42:40
wie so lassen die Hersteller auf ihren PCB eigentlich immer wieder welche Bautteile weg?

Die Teile müssten in der Menge doch nur wenige Cent kosten? daher denke ich nicht das es nur am Preis liegt?! Könnte es sein das man dadurch auch etwas Strom spart und somit Effizienter als mit einer dicken Strom Versorgung ist?

dargo
2016-05-20, 16:32:03
Keine Ahnung obs schon verlinkt wurde, geht mit 789€ los.
http://geizhals.de/?cat=gra16_512&xf=1439_GTX+1080#xf_top

Schnäppchen. ;D

Thunderburne
2016-05-20, 16:33:30
wie so lassen die Hersteller auf ihren PCB eigentlich immer wieder welche Bautteile weg?

Die Teile müssten in der Menge doch nur wenige Cent kosten? daher denke ich nicht das es nur am Preis liegt?! Könnte es sein das man dadurch auch etwas Strom spart und somit Effizienter als mit einer dicken Strom Versorgung ist?
Gewinn maximieren.
Dem nörd nicht die möglickeit geben noch mehr Leistung raus zu holen.
Die Partner mit Coustom PCB Luft zu Atmen lassen.
Such es dir aus.;D

Raff
2016-05-20, 16:42:58
Schade dass es die Karten noch nicht zu kaufen gibt, dann gäbe es endlich mal ein paar mehr User-Berichte bez OC. Noch eine Woche warten, ich bin schon sehr gespannt.

Da wird doch eh nur wieder mit Fantasiezahlen geprahlt, die total "stable" sind (37 Sekunden im 3D Mark oder Unigine Schlagmichtot mit 2,1337 GHz, yeaaah). :freak:

MfG,
Raff

Gouvernator
2016-05-20, 17:20:04
Mit dieser Krüppelbestückung der Spannungswandler der Founders Edition sollte man vom weiterem Übertakten mit Hilfe eines offenen Powertarget wohl besser die Finger lassen. Selbst bei den normalen 1,08V Vgpu sind die Spawas bei 270W am Ende (bei 1,2V dann 300W). Schon arm, dass die Platine bei dem Preis nicht wenigstens vollbestückt ist.:freak:
Die GPU ist eh vom Speichertakt limitiert. Deswegen konnte NV sich gedacht haben, es sei dermaßen absurd die GPU höher zu prügeln, das sie einfach die nötigen Teile weglassen.
Stellt einfach vor die GTX1070 hätte vollwertige GPU am DDR5 Speicher. Wäre doch bescheuert noch mehr GPU Leistung rauszupoppeln...

scully1234
2016-05-20, 17:35:52
Da lohnt sich ja mal wieder ein Notebook Kauf




NVIDIA GeForce GTX 1080M faster than GTX TITAN X, arriving in June? (http://videocardz.com/60211/nvidia-geforce-gtx-1080m-faster-than-gtx-titan-x)

BitJäger
2016-05-20, 17:41:16
Heute morgen ging in der Bucht wieder eine Titan X für etwas über 500€ weg.

http://www.ebay.de/itm/301958797941?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

Ravenhearth
2016-05-20, 17:44:01
Da lohnt sich ja mal wieder ein Notebook Kauf

Wenn eine 1070 bei 150W TDP "nur" Titan X-Performance erreicht, wird die 1080M kaum schneller sein. Zum Vergleich: Die 980M war sogar stärker abgespeckt als die 970 (1536 SPs, weniger Takt) und hatte 122W TDP. Für die 1080M dürfte das gleiche gelten. Also schneller als 980 kommt hin, aber mehr auch nicht.

MiamiNice
2016-05-20, 17:48:49
PCGH: Geforce GTX 1080: Einfache Power-Mod zum besseren Übertakten

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Power-Mod-OC-1195975/

Für mich hat sich die FE Edition damit erledigt. Was bringt es mir das Gerät zu modden wenn hinterher die Chips verkohlen.
Keine Ahnung was sich NV bei so einem Mist denkt :confused::mad:

r3ptil3
2016-05-20, 17:49:55
Heute morgen ging in der Bucht wieder eine Titan X für etwas über 500€ weg.

http://www.ebay.de/itm/301958797941?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

Heftig, auf Ricardo.ch ist seit Tagen eine Gainward 980 TI für knapp 400€ drin.

https://www.ricardo.ch/kaufen/computer-und-netzwerk/grafikkarten/pci-express/gainward-geforce-gtx-980-ti-phoenix-gs/v/an828504344/

-=Popeye=-
2016-05-20, 17:53:26
Schnapper

http://www.ebay.de/itm/2x-GIGABYTE-Nvidia-GeForce-GTX-TITAN-X-12GB-Grafikkarte-NEU-OVP/252395808557?_trksid=p2047675.c100011.m1850&_trkparms=aid%3D222007%26algo%3DSIC.MBE%26ao%3D1%26asc%3D36827%26meid%3D00cd2b24 378d4668ac34f4aa2fa47d76%26pid%3D100011%26rk%3D6%26rkt%3D10%26sd%3D301958797941

BitJäger
2016-05-20, 17:54:28
Heftig, auf Ricardo.ch ist seit Tagen eine Gainward 980 TI für knapp 400€ drin.

https://www.ricardo.ch/kaufen/computer-und-netzwerk/grafikkarten/pci-express/gainward-geforce-gtx-980-ti-phoenix-gs/v/an828504344/


Die 980ti´s gehen in der Bucht so für ca. 460€ weg. Davon müssen aber noch 9% Gebühr und die Versandkosten weg.

MiamiNice
2016-05-20, 17:54:58
Schnapper

http://www.ebay.de/itm/2x-GIGABYTE-Nvidia-GeForce-GTX-TITAN-X-12GB-Grafikkarte-NEU-OVP/252395808557?_trksid=p2047675.c100011.m1850&_trkparms=aid%3D222007%26algo%3DSIC.MBE%26ao%3D1%26asc%3D36827%26meid%3D00cd2b24 378d4668ac34f4aa2fa47d76%26pid%3D100011%26rk%3D6%26rkt%3D10%26sd%3D301958797941


Jetzt bin ich echt am überlegen ... mir juckt es ja in den Fingern :biggrin: