PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

Nightspider
2016-05-16, 08:27:33
Raff wann kommt euer Review? :)


Nightspider das war logisch...

Natürlich war es das. Sag das Phoenix der hier laut nach Quellenangaben geschrien hat und mich deswegen als uninformiert bezeichnet hat. :rolleyes:

Mich freut es jedenfalls das Pascal 4K in .265 encoden kann. Es wundert mich nur die Angabe 2x 4K @60Hz. Was genau bedeutet das 2x?

Cubitus
2016-05-16, 08:38:14
Ich lese daraus das es dir alles vorgibt was du darfst und was nicht und im Prinzip nur noch knöpfchen verschiebst der Alogrithmus aber entscheidet ob du das bekommst was du auch willst um die Hardware besser zu schützen und ihren Verbrauch zu Optimieren ;)

Es ist jetzt fast so weit auf dem Level wie Intels Speedstep ;)

Versteh es doch endlich dir wird nur etwas verkauft das den namen OC noch trägt, OC passt überhaupt nicht in ein Effizientes Design mehr ;)



Im Prinzip ist es doch wie bei den Tuning Chips für die Autos.
Du kannst bei meinem Diesel z.b locker noch 80 PS raus holen.
Oder du schonst den Motor, in dem Fall die Karte. Und für ein Referenz Design ist dieser Spielraum doch völlig okay und mehr als ausreichend.

..... Wenn ich eine OC Karte will dann kaufe ich mir eine Kingpin von EVGA mit einem angepassten BIOS und PCB.. Muss dann aber auch bereit sein 100-300 Euro mehr auszugeben.
Strom-Verbrauch ist dabei eher zweitrangig..

Natürlich schielt Jen-Hsun neidisch auf Intels Konzept der K-CPUs.... das würde ihm sicher gefallen K-GPUs welche sich als Einzige fürs OC eignen.

Aber wenn man mal logisch überlegt, die Bordpartner schachten sich dermaßen ein und fürchten durch so ein Konzept zurecht Einbußen..
Intel fertigt und vertreibt seinen Kram selbst und kann nach Gutsherrenart darüber verfügen.. Das ist der feine Unterschied.. ;)

Solange die Partner Bedenken haben, solange wird es keine exklusiven K-Gpus geben, Punkt. Also bleibt mal cool Leute :cool:

-/\-CruNcher-/\-
2016-05-16, 08:38:29
Raff wann kommt euer Review? :)



Natürlich war es das. Sag das Phoenix der hier laut nach Quellenangaben geschrien hat und mich deswegen als uninformiert bezeichnet hat. :rolleyes:

Mich freut es jedenfalls das Pascal 4K in .265 encoden kann. Es wundert mich nur die Angabe 2x 4K @60Hz. Was genau bedeutet das 2x?

2 Streams zur selben Zeit Sprich die Performance Optimierung ihres Low Latency Kerns

Du darfst aber nie aus den Augen lassen Nvidia optimiert für ein ganz spezieles Target eben Low Latency

Nightspider
2016-05-16, 08:45:48
Mir fällt zwar gerade kein Anwendungsbereich dafür ein zwei Streams gleichzeitig zu encodieren aber zu 120Hz @ 4K lassen die sich wohl nicht zusammenschalten oder?
Was spielt low latency beim Videoencoding für eine Rolle?

Ich bin mal gespannt was Pascal und Polaris für Hashrates in Ethereum haben werden. :D

-/\-CruNcher-/\-
2016-05-16, 08:48:31
Nichts anderes sagt es aus die Performance liegt bei 120 FPS für einen 4K Stream 2x bzw 4x Realtime bei welcher Bitrate kann man sich hier zusammenreimen ;)

Low Latency Optimierungen wirken sich auf die Finale Encoding Effizienz aus, für Otto normal heist das Qualitätseinbusen die er wohlmoglich (im besten Fall) aber nicht erkennen tut, damit hast du bei deinen Games z.b immer zu kämpfen ;).

Unyu
2016-05-16, 09:23:44
Solange die Partner Bedenken haben, solange wird es keine exklusiven K-Gpus geben, Punkt. Also bleibt mal cool Leute :cool:Gerade die Partner sollten sich über K GPUs freuen. Denn dann müssen die OC Freudigen teurere Sondereditionen kaufen. Dann ists vorbei einfach die billigste Partnerkarte zu kaufen. Der höhere Gewinn kommt allen zugute.

Keine Sorge, es wird kommen, so wie es bereits den Vorläufer mit begrenztem Powertarget gibt. Ist nur noch eine Frage der Verträge und Preisgestaltung.

Denkbar sind dann solche Editionen:
5Mhz mehr
6,24Mhz mehr
12Mhz mehr
12Mhz mehr + erlaubte Übertaktung

Preislich kann man sich nach der Founders Edition richten 100 bis 200$ Aufpreis fürs Übertakten könnens schon werden.

Die 4gb der Fury reichen locker in manchen Spielen hat sie weniger Framedrops/lags als eine Titan X. Die Technik machts!
Witzig: 2013, ein Jahr nach der 2GiB 680 und 3GiB 7970, galten 3GiB der 780 als katastrophal. Inzwischen haben wir das Jahr 2016 und 4GiB sollen immer noch gut sein? ;D
Wenn sich AMD nicht, wie damals zu Zeiten von X1800 bis 4870, schlafen gelegt hätte, würde man heute über 8GiB lachen. Man kann nur hoffen, das AMD diesmal nicht so viele Generationen braucht.

(del)
2016-05-16, 09:52:01
Nein auch bei NVIDIA. Den jedes BIOS einer Customkarte wird von Nvidia geprüft und dann freigegeben.
Oder sehe ich das falsch Format C?

Alle BIOSe müssen ob Nvidia geprüft und dann freigegeben werden.

Man kann bei Maxwell (und Kepler) das Power-Limit ja hochsetzen wie man will, ab einer bestimmten Grenze wird man den Vorgabewert nicht mehr erreichen können, weil einfach die Spannung limitiert ist ("Nvidia rules"). So war es jedenfalls bisher.

Gäbe man nun bei Pascal die Spannungen mehr oder weniger frei (was sich noch zeigen muss), würde dann wohl das Power-Target der begrenzende Faktor werden. Einem von beiden wird man als Normalanwender also immer begegnen, so oder so. Natürlich verkauft es sich so herum durchaus besser. :)

Und für diejenigen, die hier gerade meinten, mit einfachem Knöpfchendrücken ersetze Nvidia das echte Männer-OC, nur um uns den Spaß zu verderben, die dürfen sich gern an Fiji und die noch viel bescheideneren OC-Features erinnern. Wie war das gleich noch einmal mit dem HBM und den paar MHz mehr GPU-Takt? Ohne zu viel zu verraten: aber das, was Nvidia mit Boost 3.0, dem neuen PWM-Controller und einigen anderen Spannungsversorgungsdetails auf die Beine gestellt hat, ist echt lecker. Da verzichte ich gern auf AMDs linearen Voltage-Slider, der in Bezug auf die Erderwärmung in der Summe wohl mindestens 10.000 pupsenden indischen Kühen entspricht :D

-/\-CruNcher-/\-
2016-05-16, 10:04:10
Naja so voreilig bin ich diesmal nicht wobei mich Fury teils noch entäuscht hat glaube ich jetzt wird es endlich Solide bei AMD hoffe nur nicht wenn ich deine "Kurven" sehe das ich schwach werde :D
Aber eins muss ich sagen Nvidia hält sich noch verdammt gut gegen AMDs zunehmenden Software Layer Optimierungen besser als anders rum, aber die Diskussion führen wir ja schon woanders ;)

(del)
2016-05-16, 10:16:33
hoffe nur nicht wenn ich deine Kurven sehe das ich schwach werdeDas Problem habe ich jedes Mal, wenn ich eine schnucklige Alte sehe :P

Kriton
2016-05-16, 11:58:01
Ich habs ja gesagt:
http://abload.de/img/gtx1080videoaau7y.png

Nur aus Prinzip (erwischt dich gerade zufällig): Könnt ihr mal die Quelle verlinken? ich finde es ja gut, wenn das Ergebnis direkt zu sehen ist (weil man manchmal keine Links öffnen kann/will), aber es wäre schön zu wissen woher diese Dinge stammen. Das gilt für einige im Forum.

DerVengeance
2016-05-16, 12:31:34
Nur aus Prinzip (erwischt dich gerade zufällig): Könnt ihr mal die Quelle verlinken? ich finde es ja gut, wenn das Ergebnis direkt zu sehen ist (weil man manchmal keine Links öffnen kann/will), aber es wäre schön zu wissen woher diese Dinge stammen. Das gilt für einige im Forum.
http://videocardz.com/59962/nvidia-geforce-gtx-1080-final-specifications-and-launch-presentation

Kriegsgeier
2016-05-16, 12:42:23
...Ohne zu viel zu verraten: aber das, was Nvidia mit Boost 3.0, dem neuen PWM-Controller und einigen anderen Spannungsversorgungsdetails auf die Beine gestellt hat, ist echt lecker. ...

Klingt schon mal gut und hoffentlich nimmt jetzt das individuelle Kühlkonzept direkten Einfluss auf das Übertakten der Karte, dass z.B. unter Wasser gekühlte Karte wesentlich bessere Ergebnisse mit sich bringt...

Das heißt wir brauchen min. 2 Variablen, die sich natürlich in gewissen Grenzen bewegen: Powertarget und die Spannung soll Funktion der Temperatur werden!

PowerTarget(T) + U(T)

scully1234
2016-05-16, 13:02:04
: aber das, was Nvidia mit Boost 3.0, dem neuen PWM-Controller und einigen anderen Spannungsversorgungsdetails auf die Beine gestellt hat, ist echt lecker. :D


Ich hatte bei Boost 3.0 auch eher eine Verschlimmbesserung erwartet ,aber das klingt zumindestens auf den ersten Blick beruhigend

Was nicht beruhigend ist ist euer beidiges anfuettern:P=)

Achill
2016-05-16, 13:24:40
Mit Bios Tweaker wird man bestimmt wieder die Spannung und Verbrauch hochjagen, dann sind 300 Watt bestimmt möglich @ 2750 MHZ :cool:

Das geht so nicht mit der bisher bekannten Stromversorgung über PCIe (75W) + 1x 8Pin (150W) - max. wäre also 225W fürs OC.

Ob die Board-Partner dies ändern dürfen muss sich dann noch zeigen, evtl. wird dies auch die neue Limitierung um Karten besser voneinander abgrenzen zu können.

Achill
2016-05-16, 13:27:17
Mir fällt zwar gerade kein Anwendungsbereich dafür ein zwei Streams gleichzeitig zu encodieren aber zu 120Hz @ 4K lassen die sich wohl nicht zusammenschalten oder?
Was spielt low latency beim Videoencoding für eine Rolle?

Ich bin mal gespannt was Pascal und Polaris für Hashrates in Ethereum haben werden. :D

2 Streams könnte man mit der Multi-Projektion auslasten:
- 1. Stream für die Sicht aus der Spieler-Perspektive
- 2. Stream wie eine Übersichtsperspektive oder eine andere Kamera-Position für Beobachter

fondness
2016-05-16, 14:19:23
Kann GP104 eigentlich Mixed-Precision?

maximus_hertus
2016-05-16, 14:23:49
Das geht so nicht mit der bisher bekannten Stromversorgung über PCIe (75W) + 1x 8Pin (150W) - max. wäre also 225W fürs OC.

Ob die Board-Partner dies ändern dürfen muss sich dann noch zeigen, evtl. wird dies auch die neue Limitierung um Karten besser voneinander abgrenzen zu können.

Warum soll es keine Customs mit 2 x 8 Pin geben? Warum ist man auf 150W begrenzt, siehe R9 295X2?

Ex3cut3r
2016-05-16, 14:25:19
Das geht so nicht mit der bisher bekannten Stromversorgung über PCIe (75W) + 1x 8Pin (150W) - max. wäre also 225W fürs OC.

Ob die Board-Partner dies ändern dürfen muss sich dann noch zeigen, evtl. wird dies auch die neue Limitierung um Karten besser voneinander abgrenzen zu können.

Bin auch nix von 1x8 Pin ausgegangen sondern 2x8 Pin Customs.

Wenns die Boardpartner limitiert werden, dann gibts halt keinen kauf. Ich will 300 Watt Desings mit hohen Taktraten! ;) Mit 250 Watt kömnte man sich auch noch arrangieren.

Cubitus
2016-05-16, 15:00:39
Wie gesagt limitiert wird mit Sicherheit nichts..
Die Frage ist, wie weit will man mit mehr Watt+höherer Abwärme+aufwendigem Kühlkonzept gehen..
Wäre es nicht viel toller wenn schon das Ref-Design über die 2 GHz ermöglicht.. Das wäre doch erstmals völlig ausreichend.. Und leise und sparsam wäre es obendrauf. :)
Bzw. Bin mal gespannt wie leise die Ref-Karte wirklich ist. Ich vermute mal fiepen tut da gar nix mehr ;)

Gerade die Partner sollten sich über K GPUs freuen. Denn dann müssen die OC Freudigen teurere Sondereditionen kaufen. Dann ists vorbei einfach die billigste Partnerkarte zu kaufen. Der höhere Gewinn kommt allen zugute.

Keine Sorge, es wird kommen, so wie es bereits den Vorläufer mit begrenztem Powertarget gibt. Ist nur noch eine Frage der Verträge und Preisgestaltung.

Denkbar sind dann solche Editionen:
5Mhz mehr
6,24Mhz mehr
12Mhz mehr
12Mhz mehr + erlaubte Übertaktung

Preislich kann man sich nach der Founders Edition richten 100 bis 200$ Aufpreis fürs Übertakten könnens schon werden.


Glaube so einfach ist es nicht.. Nicht jeder Partner hat die Möglichkeit mehrere Produktlinien zu fahren.. Und falls doch dann werden hohe Ergebnisse erwartet, wird nicht geliefert, geht es der Marke schlecht.

Also müssen obendrein noch PCBs und die Kühlung angepasst werden..
Zudem würden manche Hersteller auch einfach mit einem offenen Bios werben.. Außerdem würde der Markt in eine zwei Klassengesellschaft aufgeteilt werden.. Was die Hersteller sicher nicht möchten..

Bzw. ist es ja zum Teil schon so, für Premium OC wird bereits mehr auf den Tisch gelegt, Beispiel, EVGA Kingpin und Qualitäts-Stufen..

Achill
2016-05-16, 15:11:00
Warum soll es keine Customs mit 2 x 8 Pin geben? Warum ist man auf 150W begrenzt, siehe R9 295X2?

Das habe ich nicht gesagt noch gemeint, die Ref.Karte hat bisher nur einen 8Pin Anschluss - Customs kennen wir noch nicht.

Meine Aussage bezog sich rein auf die Überlegung der Gewinnmaximierung. Wenn NV für einen bestimmten Zeitraum keine Konkurrenz im High-End hat, dann ist man als Unternehmen nicht in Zugzwang (noch muss man aktuell wirklich weiter Martanteile gewinnen).
Es ist dann sogar "kleverer" etwas in der Rückhand zu behalten falls AMD ein potentes Produkt bringt, dann kann man die 1080 OC Modelle bringen und die Titan/TI GPUs, dass ermöglicht dann ein mehrfaches Melken des Konsumenten.

(del)
2016-05-16, 15:14:19
Warum soll es keine Customs mit 2 x 8 Pin geben? Warum ist man auf 150W begrenzt, siehe R9 295X2?

Erstens wird eine Karte NIE die 75 Watt am PEG ziehen, denn die 3,3V-Schiene ist seit langem obsolet. Warum sollte dies Nvidia nicht auch endlich in der Referenz umsetzen? Im Schnitt fließen über den PEG seit Langem nur noch maximal 60 Watt, bei vielen Karten sogar deutlich weniger. Damit ist dieses 75-Watt-Plus-X-Gerechne überflüssig.

Wer sich die geleakten Bilder des PCB mal genauer anschaut, wird schnell erkennen, dass es problemlos von den Boardpartnern anpassbar ist, um mehr Bums zu liefern. Mehr dann zum Launch :)

Ansonsten empfehle ich mal einen Blick auf die Quadro M6000 (http://www.tomshardware.de/quadro-m6000-workstation-grafikkarte-benchmarks,testberichte-241756-8.html). Die hat auch nur einen 8-Pin und kommt locker mit bis zur 250 Watt klar.

dreas
2016-05-16, 15:15:18
wann kommen eigentlich die ersten reviews?

Thunderburne
2016-05-16, 15:16:30
Morgen ca 14-15 Uhr.

dreas
2016-05-16, 15:17:07
thanks

scully1234
2016-05-16, 16:00:39
Wer sich die geleakten Bilder des PCB mal genauer anschaut, wird schnell erkennen, dass es problemlos von den Boardpartnern anpassbar ist, um mehr Bums zu liefern. Mehr dann zum Launch :)
.

Ja bitte bitte noch ne Phase drauf klatschen nen weiteren 6pin und ein paar VRM Zwerge dazu und ein Bisschen mehr Powertarget:biggrin:

Hoffentlich denken die H2O Wakue Hersteller nicht nur von der Tapete bis zur Wand und lassen den entsprechenden Raum ausgespart auf ihren Kupferbloecken

Kriegsgeier
2016-05-16, 18:25:56
Mit einem 8-Pin Stecker kommt auch 2400 MHz 1080ger zurecht. Man braucht wirklich nicht noch einen Stecker...

(del)
2016-05-16, 18:38:40
Die Quadro M6000 hat rückseitig nur den 8-Pin und zieht darüber knapp 200 Watt. Das macht NV sicher nicht mit unüberlegten Riskogelüsten, sondern weil diese Norm einfach nur überhalter Schrott ist. Als das mit den Steckern mal so festgelegt wurde, hatten Netzteile noch spillerige AWG20-Kabel und keinerlei Schutzschaltungen. Wir haben es intern schon geschafft, das pro Anschluss mit 400 Watt zu proofen - geht.

Es gibt wirklich andere Probleme. als angeblich überlastete Buchsen und Stecker. Da machen mir manche Platinenlayouts samt Leiterbahnen schon mehr Sorgen.

illidan
2016-05-16, 18:41:10
Warum zerbrecht ihr euch so viel den Kopf über das Referenzdesign?
Dass es wie ein Sportwagen aussieht, macht den Lüfter nicht besser.

Bösewicht
2016-05-16, 18:59:34
ich glaube denn meisten geht es um Wasserkühlung.
Ich will dieses mal auch Wakü verbauen.

Kriegsgeier
2016-05-16, 19:01:55
Meine zukünftige GTX wird sowieso badengehen. Von daher ist der Luftkühler nicht von Bedeutung...

Zu den Steckern/Leitungen: Stromdichte ist entscheidend. 8-10 A / mm^2 sind noch ok.

(del)
2016-05-16, 19:04:20
Referenzdesign der Platine ungleich Kühllösung. :)

Mir gefällt das Platinendesign, die Bestückung ist da schon sehr, sehr variabel. Da wird sich der eine oder andere Boardpartner dann schon fragen, ob er nicht besser zumindest das Layout komplett übernimmt. Man kann es eigentlich auch kaum besser machen. Das mit den 5(6)+1 Phasen ist ja auch nur die halbe Wahrheit. Abwarten :P

Kriegsgeier
2016-05-16, 19:04:28
Bei einem 8ter Stecker müssen 4 davon Masse sein. Also 8/2=4 Leitungen in sagen wir mal AWG16-12 und die Welt ist in Ordnung

Kriegsgeier
2016-05-16, 19:07:00
Diese höchst dynamische Stromversorgung/Spannungsbereitstellung ist wirklich wahre Ingenieursleistung! Hut ab...

scully1234
2016-05-16, 19:23:12
Das mit den 5(6)+1 Phasen ist ja auch nur die halbe Wahrheit. Abwarten :P

Ist diese andere halbe Wahrheit, etwas was ich vom Platinendesign her ableiten kann, oder stinkt der Fisch von ner anderen Ecke her=)


Edit:
Da hat wohl wer das NDA in Teilen falsch aufgefasst

http://www.overclock.net/content/type/61/id/2781581/width/500/height/1000/flags/LL

(del)
2016-05-16, 20:16:43
Wir haben sogar noch Späßchen drüber gemacht. Auch diese Folie ist NDAed :D

Megamember
2016-05-16, 20:30:07
Lohnt sichs eigendlich heute länger aufzubleiben oder kommen die ganzen Reviews eh erst am nachmittag?

Kriegsgeier
2016-05-16, 20:30:45
Wieso sollte die Präsentation von NVIDIA unter DNA stehen?

Schon vollständig auf Videocardz veröffentlicht!

VooDoo7mx
2016-05-16, 21:01:32
Lohnt sichs eigendlich heute länger aufzubleiben oder kommen die ganzen Reviews eh erst am nachmittag?

Guck eine Seite zurück. 6AM PST also Morgen 15 Uhr gehen die Reviews Online. Kann jeder noch mal in Ruhe schlafen gehen. Morgen auf Arbeit halte ich mir schon mein Popcorn bereit.

scully1234
2016-05-16, 21:28:51
Wer zuviel Geld hat

https://www.ebay-kleinanzeigen.de/s-anzeige/nvidia-gtx-1080-selektierte-karten-nach-asic-wert-gtx-980-ti-old/467654531-225-7984?utm_source=ios&utm_campaign=socialbuttons&utm_medium=social


Bar und Abholung kein Versand mit Rechnung und Voller Garantie;D


Evga mit 699Dollar

http://www.evga.com/Products/Product.aspx?pn=08G-P4-6180-KR

horn 12
2016-05-16, 23:13:09
http://www.evga.com/Products/Product.aspx?pn=08G-P4-6180-KR

Sorry , doppelt!
Dennoch 699 Dollar plus Mwst.

Sollte knappe 770 Euro bei uns ausmachen
Da hat NV wider alles richtig gemacht :-(
Bis in den Juli hinein kassiert NV enorm ab.

-=Popeye=-
2016-05-17, 00:10:20
Kann es sein das die meisten diesen Abschnitt überlesen?

During official presentation Jen-Hsun Huang said that GTX 1080 is faster than GTX 980 SLI. This is true but only when Virtual Reality is considered. In real world gaming scenario performance is almost comparable (this will be confirmed by reviews), but it is definitely not faster, at least not in all games.

Quelle: http://videocardz.com/59962/nvidia-geforce-gtx-1080-final-specifications-and-launch-presentation

Wenn ich das richtig sehe verhält es sich bei dieser Generation ähnlich wie zu 680 SLi vs 780Ti Zeiten, wo eine Single-Karte je nach Situation das SLi-Gespann deklassiert hat.

edit: Ok die 2000MHz+ Chiptakt und Energieeffizienz sind beeindruckend, ein Wechsel von einer Custom Ti oder TX lohnt wahrscheinlich nicht wirklich.

Egal ich warte auf den Großen.

BlacKi
2016-05-17, 07:41:26
Kann es sein das die meisten diesen Abschnitt überlesen?



Quelle: http://videocardz.com/59962/nvidia-geforce-gtx-1080-final-specifications-and-launch-presentation

Wenn ich das richtig sehe verhält es sich bei dieser Generation ähnlich wie zu 680 SLi vs 780Ti Zeiten, wo eine Single-Karte je nach Situation das SLi-Gespann deklassiert hat.

edit: Ok die 2000MHz+ Chiptakt und Energieeffizienz sind beeindruckend, ein Wechsel von einer Custom Ti oder TX lohnt wahrscheinlich nicht wirklich.

Egal ich warte auf den Großen.

ne, in vr ist die 1080 2x schneller als eine TX. 70-80% ist ungefähr das was ein 980sli gespann schafft. wo war denn eine 780ti 70-80% schneller als eine single 680?

770€ wären mir wohl etwas viel, andererseits gibts ja noch keine^^ die preise muss man unbedingt die nächsten 1-2 monate beobachten.

Gouvernator
2016-05-17, 07:52:07
http://www.evga.com/Products/Product.aspx?pn=08G-P4-6180-KR

Sorry , doppelt!
Dennoch 699 Dollar plus Mwst.

Sollte knappe 770 Euro bei uns ausmachen
Da hat NV wider alles richtig gemacht :-(
Bis in den Juli hinein kassiert NV enorm ab.
Wäre die GTX970 nicht so ein Speicher-Krüppel... wäre man mit SLI schon länger billiger und besser bedient.
Ich hoffe doch insgeheim das es allein wegen dem neuen Speicher so ist. In paar Monaten kriegt man das ganze um die 550€.

Godmode
2016-05-17, 08:34:49
39 OT Beiträge gelöscht. Das ist nicht der Brachlandchat, hier gehts um die Geforce GTX 1080 und um nichts anderes.

scully1234
2016-05-17, 09:15:46
Direkt Link geht nicht

Der Kuehler waere bereit fuer 6+1 Phase ,und wie es den Anschein hat ,ist das 1080er PCB darunter ,auch mit 2!!! Stromanschluessen ausgeruestet

Dural
2016-05-17, 09:54:00
War es jemals anders? Es gibt zig Ref. Karten von NV wo eine oder sogar zwei Phasen gefehlt haben und nicht bestückt wurden.

Und wie schon gesagt, der hintere Anschluss ist für Tesla und Quadro Karten. War alles schon mal da ;)

scully1234
2016-05-17, 10:01:32
Der zweite Anschluss ist aber bestueckt und nicht mehr blank,wie du unschwer erkennen kannst, das ist also nicht mehr das Referenzboard so wie es Nvidia abgibt, sondern schon ne modifizierte Version ''der Boardpartner''???=)

Auf dem zweiten Bild kann man glaube ich den 6 Pin Anschluss erkennen am Ende vom Board,wahrscheinlich absichtlich nicht unkenntlich gemacht, um das entscheidende zu praesentieren

Liquaron
2016-05-17, 11:52:37
Möp Möp es geht los:

https://www.vessel.com/videos/T82ea8k4v

Benchmarks im Video ;)

igg
2016-05-17, 11:57:31
https://www.vessel.com/videos/T82ea8k4v

Benchmarks im Video ;)
Super... noch nichtmal Vergleichswerte eingeblendet.

Godmode
2016-05-17, 11:59:22
Die 1080 schafft in Heaven 4.0 @ 4k+ alles Max 36,6 FPS. Zum Vergleich meine TX @ 1,55 GHz - also maximales OCing - nur 28,8 FPS. Die 1080 war wohl @Stock Clocks. Das sind 27% mehr FPS, verglichen mit einer maximal übertaktet Titan X (!). Wenn man also die 1080 auch noch übertaktet, sieht die TX schon etwas ranzig aus. ^^

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10875521&postcount=243

Menace
2016-05-17, 12:02:00
@Stock + Load und 83°C? Ich hatte da etwas mit 64°C in Erinnerung? Aber vielleicht verlesen.

Godmode
2016-05-17, 12:04:23
@Stock + Load und 83°C? Ich hatte da etwas mit 64°C in Erinnerung? Aber vielleicht verlesen.

Bei der Präsentation sah man halt nicht, wie hoch die Last auf der GPU war, daher waren die 64°C nicht viel wert.

(del)
2016-05-17, 12:32:51
Bei der Präsentation sah man halt nicht, wie hoch die Last auf der GPU war, daher waren die 64°C nicht viel wert.
Falsche Antwort. Die Frage ist eher, wie hoch der Lüfter dabei drehte :D
Ich habe es versucht nachzustellen :)

cR@b
2016-05-17, 12:43:41
@ 100%? :O

MiamiNice
2016-05-17, 12:49:38
Falsche Antwort. Die Frage ist eher, wie hoch der Lüfter dabei drehte :D
Ich habe es versucht nachzustellen :)

Ist die Frage nicht auch im welchen Raum der PC stand und wie kühl es dort gewesen ist?

scully1234
2016-05-17, 12:52:16
Gigabunts Extreme Edition 700Dollar

https://xtremevr.pgtb.me/xRN4ZR

Kartenlehrling
2016-05-17, 12:54:27
$700+ value!
also 850€, wenn du die am 27.05 für 700$ bekommst nehmen ich 2x !!

der kurs steht gut 700$ sind 618€, ich gebe dir dann 625€ .... :)

iuno
2016-05-17, 12:56:05
Ist die Frage nicht auch im welchen Raum der PC stand und wie kühl es dort gewesen ist?
Naja das sind nur ein paar Grad hin oder her. In einem Kuehlraum mit -10°C Umgebungstemperatur werden sie das Ding nicht gerade betrieben haben.

(del)
2016-05-17, 13:20:57
Ist die Frage nicht auch im welchen Raum der PC stand und wie kühl es dort gewesen ist?Ich saß im Raum, ca. 15 m Luftlinie vom Podium weg. Es waren um die 19°C. Das alles habe ich bei meinem Test auch berücksichtigt :D

Achill
2016-05-17, 14:07:28
Möp Möp es geht los:

https://www.vessel.com/videos/T82ea8k4v

Benchmarks im Video ;)

Stream ging plötzlich nicht weiter, F5 => Seite entfernt ... xD

Liquaron
2016-05-17, 14:08:26
Stream ging plötzlich nicht weiter, F5 => Seite entfernt ... xD

Hier ein paar Benches:


http://abload.de/img/untitledm2ou2.jpg (http://abload.de/image.php?img=untitledm2ou2.jpg)

http://abload.de/img/untitled1sjq8v.jpg (http://abload.de/image.php?img=untitled1sjq8v.jpg)

http://abload.de/img/untitled2n3ue0.jpg (http://abload.de/image.php?img=untitled2n3ue0.jpg)

(del)
2016-05-17, 14:08:42
Jaja, Nvidias Watchdogs sind überall :)

BTW: die Balken sind albernes Schätzwerk :D

Dural
2016-05-17, 14:15:24
Der zweite Anschluss ist aber bestueckt und nicht mehr blank,wie du unschwer erkennen kannst, das ist also nicht mehr das Referenzboard so wie es Nvidia abgibt, sondern schon ne modifizierte Version ''der Boardpartner''???=)

Auf dem zweiten Bild kann man glaube ich den 6 Pin Anschluss erkennen am Ende vom Board,wahrscheinlich absichtlich nicht unkenntlich gemacht, um das entscheidende zu praesentieren


Ich sehe da keinen zweiten Stecker.

Im Moment dürfte es so wie so nur die Ref. Karten geben.

hellibelli
2016-05-17, 14:22:47
Also die Benchmarks von Tomb Raider und GTA V sind ja ehr enttäuschend von meiner Sichtweise.

Ich habe momentan 2x 980 TI und war am überlegen dieses gegen 1x 1080 oder evtl. 2x 1080 aufzulösen.

Aber die dort 4-8 fps mehr, sind es mir einfach nicht wert.

Ich werde die Kartengeneration wohl auslassen und abwarten was so im nächsten oder übernächsten Jahr kommt.

Oder ich werde wieder schwach und rüste doch komplett auf ein 1080 Sli Gespann um. Ich überrasche mich ja immer gerne selbst :D!!

Godmode
2016-05-17, 14:24:56
Also die Benchmarks von Tomb Raider und GTA V sind ja ehr enttäuschend von meiner Sichtweise.

Ich habe momentan 2x 980 TI und war am überlegen dieses gegen 1x 1080 oder evtl. 2x 1080 aufzulösen.

Aber die dort 4-8 fps mehr, sind es mir einfach nicht wert.

Ich werde die Kartengeneration wohl auslassen und abwarten was so im nächsten oder übernächsten Jahr kommt.

Oder ich werde wieder schwach und rüste doch komplett auf ein 1080 Sli Gespann um. Ich überrasche mich ja immer gerne selbst :D!!

Also eine x04 GPU kann selten ein SLI aus zwei x00 GPUs der alten Generation ersetzen. Da musst du schon auf auf den Nachfolger von GM200 warten, genau wie ich.

hesTeR-
2016-05-17, 14:29:28
da ist dann eine gebrauchte 980ti um 400 euro wohl doch eine echt gute wahl wenn man grade gebraucht kaufen möchte da die 1070 wohl nicht die 980ti erreichen wird da ja die 1080 nur relativ knapp vor der 980ti liegt.

Linmoum
2016-05-17, 14:33:06
http://www.pcpop.com/view/2/2763/2763166_all.shtml?r=17180620#p2

Für die Balken wird's reichen :D

The_Invisible
2016-05-17, 14:33:56
Jaja, Nvidias Watchdogs sind überall :)

BTW: die Balken sind albernes Schätzwerk :D

Foltermeister du :D

Naja, ich würde mal auf die offiziellen Tests dann warten und nicht gleich in Panik ausbrechen. Die Karte hat schon was, wird mein Budget aber (mal) wieder übersteigen.

Sunrise
2016-05-17, 14:46:51
http://www.pcpop.com/view/2/2763/2763166_all.shtml?r=17180620#p2

Für die Balken wird's reichen :D
Schnell mal per Google übersetzt:

"In the test platform GTX 1080 peak power consumption is 285W, compared to 346W with the GTX 980Ti about 60W power consumption advantages."

Diese Leistung bei 60W weniger Verbrauch an der Spitze ist schon beeindruckend.

Für 4K brauchen wir einen GP102, die 1080 ist aber schon ganz nett für alle, die noch <4K spielen. Scheint auch ein lohnenswertes Upgrade zu sein, bei dem Übertaktungspotenzial.

Botcruscher
2016-05-17, 14:47:13
BTW: die Balken sind albernes Schätzwerk :D
Eine dritte Kommastelle wäre noch überzeugender.

Raff
2016-05-17, 14:48:50
Für 4K brauchen wir aber eine doppelte 1080 (5120 ALUs), da wird wohl selbst GP102 nicht ganz rankommen.

Nee, für gut nutzbares UHD braucht's nur eine GTX 1080 @ 2 GHz. :naughty:

MfG,
Raff

Kartenlehrling
2016-05-17, 14:48:56
Wenn man sich die DX12 RotTR Balken vom Asien Link anschaut ist es ein wenig enttäuschend,
aber Nvidia wollt doch ein HDR-FP16 Patch für RotTR bringen, dann sieht es vielleicht wieder anders aus.

Liquaron
2016-05-17, 14:51:50
1. Review da

Embargo on 1080 reviews should end in 10 minutes, but the Chinese guys can't into western times anyway so the first review is out: http://www.pcpop.com/view/2/2763/2763166_all.shtml?r=17180620#p2

Liquaron
2016-05-17, 14:55:11
Und weiter geht's:

http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1080-review,1.html

The GeForce GTX is cool, very cool. Value wise however I do feel you probably should wait and see how the GeForce GTX 1070 is going to perform, it'll get the same GPU with slightly less shader processors active and regular GDDR5 memory. Thing is that Nvidia keeps driving the prices upwards. Typically the high-end class product hovers at the 500 USD marker. Nvidia, when they released it, drove the GTX 980 to 549 USD. The GTX 1080 now starts at 599 USD with the reference Founders Edition at a massive 699 USD. For the Founders Edition, that's pretty bad pricing if you ask me.

Raff
2016-05-17, 15:01:43
PCGH: Geforce GTX 1080 im Test: Der erste 16-nm-König mit 2 GHz im OC-Betrieb (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/)

MfG,
Raff

Nightspider
2016-05-17, 15:01:55
Die GeForce GTX 1080 ist damit die einzige Grafikkarte, mit der jedes aktuell erhältliche Spiel in Ultra HD flüssig läuft, ohne dass die Grafikpracht spürbar eingeschränkt werden muss.

...!

iuno
2016-05-17, 15:02:49
Nur CB war puenktlich? :D
Deren 1080 ging jedenfalls schon mal nicht dauerhaft ueber 2 GHz...
Falls einer von euch mitliest: da ist ein Fehler:
Der GDDR5X-Speicher von Micron ließ ein Plus von 499 MHz und damit eine Frequenz von 4.999 5.499 MHz zu

igg
2016-05-17, 15:06:56
Sehr bedenklich finde ich die schwache Async Compute Steigerung:
http://pics.computerbase.de/7/2/2/3/7/diagramme/118-630.1463231906.svg

Ja es ist besser als die von Maxwell, aber weit von AMD entfernt. Ist die Frage ob das wirklich nur an der geringeren Auslastung liegt.

Godmode
2016-05-17, 15:11:23
PCGH: Geforce GTX 1080 im Test: Der erste 16-nm-König mit 2 GHz im OC-Betrieb (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/)

MfG,
Raff

Nette Karte, aber deutlich zu teuer für die Leistung IMHO. Die wollen wohl die Lagerbestände an 980 Ti nicht völlig wertlos machen. ;D

Schnoesel
2016-05-17, 15:12:49
Kein 2,4 GHZ OC möglich? Wie das ? ;D

pest
2016-05-17, 15:13:18
eine 8800gt :wink:

Godmode
2016-05-17, 15:14:09
Kein 2,4 GHZ OC möglich? Wie das ? ;D

Wir wurden doch noch bei jedem Launch auf den Boden der Realität zurück geholt. Mit den Custom-Karten könnte dann aber doch noch mehr möglich sein. 300 Watt ahoi.

dildo4u
2016-05-17, 15:14:59
Hitman DX12 legt massiv zu gegenüber Maxwell.

http://abload.de/img/hitmanfxqpf7.png

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1080-8GB-Founders-Edition-Review-GP104-Brings-Pascal-Gamers/Hitma

Nightspider
2016-05-17, 15:15:13
Hey Godmode so weit ab vom Thema war die 4K Diskussion ja nun auch nicht. ;)

Schade das Pascal bei GPU Computing keinen großen Fortschritt gemacht hat.
Dürfte sich wohl nach wie vor nicht fürs Mining eignen. :(

E: Schön das die Idle-Leistungsaufnahme noch weiter reduziert wurde.

Sunrise
2016-05-17, 15:15:41
Nette Karte, aber deutlich zu teuer für die Leistung IMHO. Die wollen wohl die Lagerbestände an 980 Ti nicht völlig wertlos machen. ;D
Dem schließ ich mich mal an. Zuwenig Leistung für 4K (für mich). Wer niedrigere Ansprüche hat, der kann wohl zuschlagen.

Der verbesserte VP ist natürlich auch für einige interessant.

MartinRiggs
2016-05-17, 15:16:29
Übersehe ich irgendwas?
Ich finde da keinen Aufrüstungsgrund vom GM200, schon gar nicht bei der frechen Preisgestaltung.:rolleyes:

Raff
2016-05-17, 15:17:28
Nette Karte, aber deutlich zu teuer für die Leistung IMHO. Die wollen wohl die Lagerbestände an 980 Ti nicht völlig wertlos machen. ;D

Extra für dich (okay, und mich) mit Werten einer TX @ 1,5/4,2. :biggrin:

MfG,
Raff

r3ptil3
2016-05-17, 15:19:07
Hut ab vorm Nvidia Marketing.
Ich hatte zu Beginn schon mal richtig angebissen...

dildo4u
2016-05-17, 15:19:23
Übersehe ich irgendwas?
Ich finde da keinen Aufrüstungsgrund vom GM200, schon gar nicht bei der frechen Preisgestaltung.:rolleyes:
DX12 Performance wurde gefixt,laut PCPer ist die 1080 bei Hitman und Gears of War massiv schneller.

http://abload.de/img/hitmanfxqpf7.png

http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1080-8GB-Founders-Edition-Review-GP104-Brings-Pascal-Gamers/Gears

http://abload.de/img/ashes_10800eu40.png

http://abload.de/img/break6lota.png

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72619-nvidia-geforce-gtx-1080-review-19.html

Nightspider
2016-05-17, 15:19:35
Kann man den Spam nicht auch löschen? :rolleyes:

Wer niedrigere Ansprüche hat, der kann wohl zuschlagen.

Es handelt sich ja nur um die derzeit beste Karte auf dem Markt, welche nach wenigen Wochen mind. 100-150 Euro billiger sein wird und damit deutlich attraktiver sein wird als eine GTX980ti.

Godmode
2016-05-17, 15:20:13
Übersehe ich irgendwas?
Ich finde da keinen Aufrüstungsgrund vom GM200, schon gar nicht bei der frechen Preisgestaltung.:rolleyes:

Seit wann rüstet man den von einer 600mm2 GPU auf eine 300m2 GPU auf?

Extra für dich (okay, und mich) mit Werten einer TX @ 1,5/4,2. :biggrin:

MfG,
Raff

Nice, THX!

Leonidas
2016-05-17, 15:20:15
Reviews (de):
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/
http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111.html

Reviews (en):
http://anandtech.com/show/10326/the-nvidia-geforce-gtx-1080-preview
http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-1080-review,1.html
http://hardocp.com/article/2016/05/17/nvidia_geforce_gtx_1080_founders_edition_review
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72619-nvidia-geforce-gtx-1080-review.html
http://hexus.net/tech/reviews/graphics/92846-nvidia-geforce-gtx-1080-founders-edition-16nm-pascal/
http://hothardware.com/reviews/nvidia-geforce-gtx-1080-pascal-gpu-review
http://www.kitguru.net/components/graphic-cards/zardon/nvidia-gtx-1080-graphics-card-review/
http://www.overclockersclub.com/reviews/nvidia_geforcegtx_1080_founders_edition/
http://www.pcper.com/reviews/Graphics-Cards/GeForce-GTX-1080-8GB-Founders-Edition-Review-GP104-Brings-Pascal-Gamers
http://www.pcgamer.com/gtx-1080-review/
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080/
http://www.techspot.com/review/1174-nvidia-geforce-gtx-1080/

Reviews (andere Sprachen):
http://www.purepc.pl/karty_graficzne/test_geforce_gtx_1080_pascal_karta_graficzna_nowej_generacji
http://www.sweclockers.com/test/22087-nvidia-geforce-gtx-1080
http://nl.hardware.info/reviews/6740/nvidia-geforce-gtx-1080-review-de-nieuwe-koning
http://www.pcpop.com/view/2/2763/2763166_all.shtml?r=17180620

Bl@de
2016-05-17, 15:22:53
Schnell ist sie ja ... aber 789€ für das Referenzdesign einer Non-Ti? Wo liegt dann die Referenz 1070? 489€? Also wenn die Partnerkarten nicht billiger werden (419€) bin ich aber sowas von raus. Founders Edition hat ja den Aufschlag (hieß es zumindest). Mal gucken was die Boardpartner draus machen. Würde mich nicht mal wundern wenns bei dem Preis bleibt.

hesTeR-
2016-05-17, 15:23:34
puh krass, da werden sich die leute die ihre 980ti für 400-450 € verkauft haben ja richtig ärgern, in den großen titeln witcher bf und so meist nur um die 10-15% mehrleistung und dann muss man fast das dopplte aufn tisch legen... puh

Sunrise
2016-05-17, 15:24:23
Es handelt sich ja nur um die derzeit beste Karte auf dem Markt, welche nach wenigen Wochen mind. 100-150 Euro billiger sein wird und damit deutlich attraktiver sein wird als eine GTX980ti.
Das Ding ist für einen 300mm² Die teuer genug. Nicht jeder braucht immer das Neueste, das ist reine Konsumwut. Ich würde da auf jedenfall auf den großen Bruder warten.

Blediator16
2016-05-17, 15:25:20
Widerlich wie der Preis einfach mal so runter gespielt wird. Da werden sogar Value Preise verliehen :upicard:

http://images.hardwarecanucks.com/image/akg/Motherboard/GB_X99P-SLI/DGV.gif

fondness
2016-05-17, 15:25:31
OC-Potential also zumindest bei CB nicht berauschend. Leistung einer 980Ti@1,5Ghz. Absolut solide Vorstellung, aber mehr nicht.

Dural
2016-05-17, 15:26:50
Wie erwartet, interessant das die Ref. Karten schon bei 2GHz abrieglen. Bei dem tiefen PT war dies aber klar. Da müssen es die Custom Karten richten.

Die Karte hat deutlich zu wenig Bandbreite, wie auch erwartet. Schade.

Raff
2016-05-17, 15:26:55
Widerlich wie der Preis einfach mal so runter gespielt wird. Da werden sogar Value Preise verliehen :upicard:

http://images.hardwarecanucks.com/image/akg/Motherboard/GB_X99P-SLI/DGV.gif

Im Vergleich zur Titan X ist die 1080 ein geiles Schnäppchen. :ulol:

MfG,
Raff

Sunrise
2016-05-17, 15:27:53
Im Vergleich zur Titan X ist die 1080 ein geiles Schnäppchen. :ulol:

MfG,
Raff
Ja, das hat NV geschickt eingeschädelt. :ulol:

Das Marketing arbeitet eben perfekt bei denen.

VooDoo7mx
2016-05-17, 15:28:18
Also bei Cmputerbase (http://www.computerbase.de/2016-05/geforce-gtx-1080-test/12/#diagramm-gigabyte-gtx-980-ti-gaming-oc-vs-gtx-1080-oc) ist eine max oc 1080 gegen eine max oc 980ti im Durchschnitt 14% schneller. Nicht wirklich berauschend.

Ich bleib bei meiner 980Ti. Wenn aber eine Neuanschaffung anstehen würde, würde ich die 1080 auf jeden Fall der 980Ti vorziehen.
So jetzt mal auf den dicken Pascal warten. Ich hasse warten...

Dural
2016-05-17, 15:30:48
Da freut man sich umso mehr auf GP100, der wird mit dem HBM in 4K richtig gut abgehen ;)

GP104 hätte eigentlich ein 384Bit SI bekommen müssen.

iuno
2016-05-17, 15:30:48
hierzulande 789 € UVP :eek:
Abartig fuer 300mm²

@Raff: nett die TX 1,5 dagegen zu sehen, danke.

Vermisse noch Igors Test :(

Blediator16
2016-05-17, 15:33:11
Erinnert leicht an den 7970 Start. Bin gespannt was AMD uns bietet. Der Preis allerdings ist eine Unverschämtheit.

MadPenguin
2016-05-17, 15:36:12
Die 1080 war zwar nie meine Wunschkarte, aber die Reviews sind für 980Ti Besitzer ein wenig nüchtern?
Trotzdem sehr gute Karte :)

Traxx
2016-05-17, 15:36:20
Hat schon wer gute VR Benches gefunden?

w0mbat
2016-05-17, 15:36:42
Also nach der Ankündigung hatte ich deutlich mehr erwartet als nur 10-15% auf eine 980Ti OC. Etwas enttäuschend, vor allem wenn man den mieserablen Kühler und den extrem hohen Preis (fast 800€!) betrachtet.

Solide Karte, keine Frage. Aber nichts wirklich weltbewegendes. Schade.

Muss es Polaris richten das P/L-Verhältnis auszumischen.

Nakai
2016-05-17, 15:37:07
Ohne OC ist die Karte wirklich nicht viel besser als eine TitanX oder GTX980Ti, vorallem wenn letztere auch übertaktet sind.

HardwareCanucks sind in der Zange des NV-Marketings. Ergo diese Review-Seite einfach ignorieren.

Für GTX970-User oder darunter, eine gute Alternative, aber alles darüber, auch GTX 980 OC, sollte man sich das doppelt überlegen.

€: Eigentlich eine richtig coole Karte, wäre der Preis nicht so unverschämt.

Darkman]I[
2016-05-17, 15:37:22
Ich bin froh das der ebay Verkauf meiner 980 Ti gestern gescheitert ist... da warte ich lieber bis zur 1080 Ti. :cool:

iuno
2016-05-17, 15:38:29
Gibt es eigentlich keine VR Benchmarks oder VR Demo die NV bereitgestellt hat?

(del)
2016-05-17, 15:38:30
Ich könnte kötzen, dieser ganze Übersetzungsscheiß hält sowas von auf. Gleich hammers...


BTW:
Wasserblock drauf und fertig. :)

Lightning
2016-05-17, 15:40:29
Die Performance entspricht ziemlich genau den letzten Erwartungen. Das ist schon ein schöner Sprung.

Die 789€ sind hingegen fast noch schlimmer als befürchtet und imo völlig überzogen. Da werden die Partnerkarten wahrscheinlich auch deutlich über 600€ starten, und die 1070 kaum unter 450€ zu haben sein. Ein herber Preisaufschlag gegenüber der letzten Generation.

Troyan
2016-05-17, 15:40:32
Hat hier jemand genauere Angaben zu DX12 gefunden? PCGH und CB schreiben von Conservative Rasterizing Tier 2. Wie sieht es mit dem Ressource Binding Tier aus?

Also nach der Ankündigung hatte ich deutlich mehr erwartet als nur 10-15% auf eine 980Ti OC. Etwas enttäuschend, vor allem wenn man den mieserablen Kühler und den extrem hohen Preis (fast 800€!) betrachtet.

Naja, was erwartet man bei 7,2 Milliarden Transistoren? :freak:

/edit: Achja, Async Compute: 2% Gewinn. Ganz tolles Feature, wenn man keine grotten Architektur hat. :lol:

Sunrise
2016-05-17, 15:40:50
€: Eigentlich eine richtig coole Karte, wäre der Preis nicht so unverschämt.
Das ist gut getroffen. Wenn das Ding maximal um die $499 kosten würde, wäre die Karte der absolute Hammer. So bleibt einfach nur für Neukäufer ein Anreiz, der Rest muss weiter warten.

Godmode
2016-05-17, 15:40:52
Das Ding kann kein Half-Precision mit doppeltem Durchsatz, wie GP100, laut CB?

Ex3cut3r
2016-05-17, 15:41:17
Die PCGH Benches sind enttäuschend, aber die haben da auch eine 980Ti @ 1,4 GHZ gegen Standard 1080 getestet, wenn man jetzt die 1080 auf über 2100 MHZ bringt, sollte da schon ein guter unterschied sichtbar sein.

Godmode
2016-05-17, 15:41:42
Die PCGH Benches sind enttäuschend, aber die haben da auch eine 980Ti @ 1,4 GHZ gegen Standard 1080 getestet, wenn man jetzt die 1080 auf über 2100 MHZ bringt, sollte da schon ein guter unterschied sichtbar sein.

Scrolle etwas runter :)

Edit: Sie haben alles was man haben will. 980 Ti, Titan X jeweils mit und ohne OCing.
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/#a1

Raff
2016-05-17, 15:42:29
Die PCGH Benches sind enttäuschend, aber die haben da auch eine 980Ti @ 1,4 GHZ gegen Standard 1080 getestet, wenn man jetzt die 1080 auf über 2100 MHZ bringt, sollte da schon ein guter unterschied sichtbar sein.

Es gibt mehrere Benchmark-Blöcke. In allen ist eine Standard-Ti neben der Ti OC drin. Und dann gibt es noch Werte mit Titan X OC und Extremtests mit 1080 OC. :)

MfG,
Raff

Pixelmonk
2016-05-17, 15:42:31
Laut EZB ist das Deflation, da ja die Leistung höher ist als beim Vorgängermodell. Also wenn ihr den Eindruck habt, dass alles immer teurer wird, dem ist nicht so, die Produkte werden einfach immer besser.
Willkommen in der wundersamen Welt der Zentralbanken und Statistikbehörden.

Dural
2016-05-17, 15:44:04
Also am meisten entäuscht mich die Bandbreite, wenn man OC mit der Keule (Wakü, mod Bios) betreibt dürfte der Chip kläglich am den 256bit SI scheitern. :frown:

w0mbat
2016-05-17, 15:44:37
Die PCGH Benches sind enttäuschend, aber die haben da auch eine 980Ti @ 1,4 GHZ gegen Standard 1080 getestet, wenn man jetzt die 1080 auf über 2100 MHZ bringt, sollte da schon ein guter unterschied sichtbar sein.

Wenn... die drosselt laut CB ja schon bei unter 1800 MHz und ob über 2 GHz wirklich drin sind ist die Frage. 1,5 GHz bei ner 980Ti gehen ja häufiger.

illidan
2016-05-17, 15:45:44
Was ein langweiliger Launch im Vergleich zu Maxwell. Irgendwer schrieb hier ja von Maxwell 3.0, das triffts ganz gut.
-> auf Vega warten.

akuji13
2016-05-17, 15:45:47
Wenn ich mir die PCGH OC benchmarks anschaue sehe spontan für mich keinen Grund die X zu tauschen.

Wie erwartet ist die 1080 ~20-30% schneller wenn es gut läuft gegenüber der X, insgesamt dann aber noch immer zu langsam für "richtiges" (=maximiertes) UHD.
Wenn es schlecht läuft wie in Metro/Wolfenstein braucht man ~2Ghz um die OC X einzuholen.

Aber es kommt ja noch größeres. :wink:

Godmode
2016-05-17, 15:47:04
Wenn... die drosselt laut CB ja schon bei unter 1800 MHz und ob über 2 GHz wirklich drin sind ist die Frage. 1,5 GHz bei ner 980Ti gehen ja häufiger.

Mit gutem Kühler sollte da schon mehr möglich sein. Man müsste mal gucken, was zb. bei den 980 Reviews für OCing Werte erreicht wurden und was die Partnerkarten dann in der Praxis geschafft haben.

Ex3cut3r
2016-05-17, 15:47:14
Wenn... die drosselt laut CB ja schon bei unter 1800 MHz und ob über 2 GHz wirklich drin sind ist die Frage. 1,5 GHz bei ner 980Ti gehen ja häufiger.

Ja, das ist klar, deswegen auf gute Customs noch warten? :wink:

Fakt ist, mit nen anständigen Custom Desingn @ 2100 oder sogar noch MHz ist das Ding gekauft!!! :)
MFG

iuno
2016-05-17, 15:47:41
Wenn... die drosselt laut CB ja schon bei unter 1800 MHz und ob über 2 GHz wirklich drin sind ist die Frage. 1,5 GHz bei ner 980Ti gehen ja häufiger.
Laut den Aussagen von einigen hier (z.B. Raff) sind 1,5 die absolute Ausnahme bei GM200.
Mit gutem Kühler sollte da schon mehr möglich sein..
Demgegenueber sollten die hohen Takte bei custom 1080ern kein Problem sein. Laut CB limitiert eher das PT, warm wird sie aber schon auch.
Uebrigens auch der Speicher, es sollte also wirklich noch Varianten mit mind. 11, eher 12 Gbps G5X geben.

Nightspider
2016-05-17, 15:47:49
Also der Polygondurchsatz ist nochmal gut 50% gestiegen und damit rund 3 mal so hoch wie bei der Fury X.
Da muss AMD auch erstmal nachlegen.
Sagt bescheid wenn jemand Star Citizen Benchmarks findet!

Und die Gamestar kann nicht rechnen:
Wenn die 980 um 40% zurück liegt, wie viel schneller ist die 1080 dann? Genau, ~67%.
:facepalm:;D
Das ist doch die Hübie'sche Prozentrechnung™. Das muss so.;D

Hat schon wer gute VR Benches gefunden?

Leider nein, ich suche auch noch.


Die 789€ sind hingegen fast noch schlimmer als befürchtet und imo völlig überzogen. Da werden die Partnerkarten wahrscheinlich auch deutlich über 600€ starten, und die 1070 kaum unter 450€ zu haben sein. Ein herber Preisaufschlag gegenüber der letzten Generation.

Jepp aber ich wette das sich der Preis recht bald bei ~600 Euro einpendeln wird.

dreas
2016-05-17, 15:48:28
fazit:

also unterm strich eine ti gebraucht für 400 steine kaufen und glücklich sein.
2k takt sind mit dem referenzdesign nicht wirklich knackbar und der preis ist unverschämt. noch dazu bei der chipgrösse.

die 1070 braucht niemand.

MechWOLLIer
2016-05-17, 15:48:52
Nur CB war puenktlich? :D
Deren 1080 ging jedenfalls schon mal nicht dauerhaft ueber 2 GHz...
Falls einer von euch mitliest: da ist ein Fehler:
Danke und gefixt :)

MiamiNice
2016-05-17, 15:50:21
fazit:

also unterm strich eine ti gebraucht für 400 steine kaufen und glücklich sein.
2k takt sind mit dem referenzdesign nicht wirklich knackbar und der preis ist unverschämt. noch dazu bei der chipgrösse.

die 1070 braucht niemand.

Das läuft aber nur wenn man nicht vor hat viel VR Gedöns zu zocken. Ansonsten geht kein Weg an Pascal vorbei.

Kartenlehrling
2016-05-17, 15:50:25
Fastsync ist doch Lucids Virtual Vsync.

ChaosTM
2016-05-17, 15:50:59
So wie es ausschaut muss ich meine 980ti doch noch nicht pensionieren.
Außer die Custom Designs können da noch entscheidend was drauf-packen. Abwarten..

illidan
2016-05-17, 15:51:22
fazit:

also unterm strich eine ti gebraucht für 400 steine kaufen und glücklich sein.
2k takt sind mit dem referenzdesign nicht wirklich knackbar und der preis ist unverschämt. noch dazu bei der chipgrösse.

die 1070 braucht niemand.
Mehr oder weniger this.
Für Leute mit GK104 könnte die 1070 schon sehr interessant sein.

Frametimes bei Ashes mit Async Compute wären auch noch interessant. Wenn die immer noch mies sind, ist die bisherige Workaround-Lösung von Nvidia immer noch absoluter Müll, wenn die App nicht auf Preemption optimiert ist.

Achill
2016-05-17, 15:51:34
Vermisse noch Igors Test :(

http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111.html

Ex3cut3r
2016-05-17, 15:52:25
Wann kann mit Customs eigentlich rechnen?

dildo4u
2016-05-17, 15:53:10
fazit:

also unterm strich eine ti gebraucht für 400 steine kaufen und glücklich sein.
2k takt sind mit dem referenzdesign nicht wirklich knackbar und der preis ist unverschämt. noch dazu bei der chipgrösse.

die 1070 braucht niemand.
Maxwell ist Grütze unter DX12 mit Asynchron Compute ich erwarte ab Herbst eine Breite Unterstützung allen voran Battlefield 1 von Dice.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11035315&postcount=341

Kartenlehrling
2016-05-17, 15:54:52
aufjedenfall ist es nicht der gtx980 Kühler sondern der Titan, mit dem Vaporblock.

http://media.bestofmicro.com/A/F/580983/original/GTX-1080-Cooler-Parts.jpg

iuno
2016-05-17, 15:56:07
Danke und gefixt :)
:up:
Habt ihr mangels Material keine VR Tests?
Sind nachtraegliche Tests geplant, wenn entsprechende Titel oder Demos mit VRWorks erscheinen?

Noch eine Frage zu Fast Sync: kann man das im Treiber einstellen oder ist das bei VSync jetzt automatisch immer an? Das ginge ja dann auf Kosten der Effizienz.

MechWOLLIer
2016-05-17, 15:56:07
Leider nein, ich suche auch noch.

Ehrliche Frage: Was erwartet ihr von VR-Benchmarks?

edit: Fast Sync kann man im Treiber einstellen. Do, wo man auch VSync ein -und abschalten kann.

Godmode
2016-05-17, 15:57:08
Ehrliche Frage: Was erwartet ihr von VR-Benchmarks?

Sie haben den Text nicht gelesen und erwarten dass Simultaneous Multi-Projection out of the Box 200% Leistungssteigerung bringt. :)

Blediator16
2016-05-17, 15:57:16
Ehrliche Frage: Was erwartet ihr von VR-Benchmarks?

3xmehr perf bei zweifacher Effizienz :freak:

Ihm
2016-05-17, 15:58:32
Was ein langweiliger Launch im Vergleich zu Maxwell. Irgendwer schrieb hier ja von Maxwell 3.0, das triffts ganz gut.
-> auf Vega warten.

Das ist aber schon seit Anfang 2015 bekannt.
Pascal wurde ja "künstlich" zwischen Maxwell und Volta geschoben.
Damit erklärt sich dann auch die eher evolutionäre statt revolutionäre Entwicklung.
Ich habe es ja schon etwas öfter und auch schon vor ein paar Monaten gesagt:
Größere Entwicklungen und Veränderungen werden im Gaming-Bereich erst dann auf den Markt kommen, wenn VR-HMD eine akzeptable Marktreife erreicht hat.
Warum? Weil alle davon ausgehen, dass dies DIE nächste Revolution im Unterhaltungsbereich wird.

Oder anders ausgedrückt:
Alle bereiten sich auf 2018 vor und keiner macht mehr große Sprünge.

Vega wird auch keine Revolution, sondern eher Navi.

illidan
2016-05-17, 15:59:04
Maxwell ist Grütze unter DX12 mit Asynchron Compute ich erwarte ab Herbst eine Breite Unterstützung allen voran Battlefield 1 von Dice.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11035315&postcount=341
Pascal kann auch kein Async Compute, falls dir das entgangen ist. ^^
Ansonsten siehe meinen Kommentar zu den Frametimes. Der Nvidia-Treiber muss Multi-Queue Grafik + Compute immer noch irgendwie ummodeln.
Bis kein Bild zu den Frametimes am Ende des Ashes-benchmarks gepostet ist, gibts da herzlich wenig zu feiern...

maximus_hertus
2016-05-17, 15:59:11
Im Prinzip keine Überraschung. Der Kühler ist leider doch relativ schlecht, vor allem wenn man den "Aufpreis" sich anschaut. Die 2,5 GHz sind ebenfalls nicht gefallen, selbst 2 GHz sind dauerhaft(!) kaum drin (ohne Kühlerwechsel und dadurch häufigen Garantieverlust).

789 Euro sind fast 100% dort, wo ich den Europreis beim Event angesetzt habe (ich hatte 796 Euro "ausgrechnet").

Für 499 Euro wäre sie Top, ohne Zweifel. 599 Euro - immernoch gut, schnellste KArte, passt noch.

Aber 789 Euro ist hart, vor allem mit dem kommenden GP102 am Horizont. Warten wir auf die Customs und ob sie wirklich deutlich günstiger werden. Strix, MSI Gaming und Co. sehe ich sogar eher über(!) 800 Euro, lediglich Palit und Co. könnten Richtung 700 Euro runter gehen, aber unterhalb von 700 Euro wird es wohl erst einmal nicht gehen.

VooDoo7mx
2016-05-17, 15:59:16
Wann kann mit Customs eigentlich rechnen?
Juni werden zumindest viele angekündigt werden.

Auch interessant auf Computerbase (http://www.computerbase.de/2016-05/geforce-gtx-1080-test/12/)

Das Ergebnis spricht eine klare Sprache: Der um zehn Prozent höherer Speichertakt beschleunigt die GeForce GTX 1080 im Durchschnitt um sechs Prozent; In Far Cry Primal zeigt die Grafikkarte mit plus neun Prozent sogar fast eine perfekte Skalierung, vier weitere Spiele legen um acht Prozent an Geschwindigkeit zu. Es lohnt es sich also mehr, den GDDR5X-Speicher auf dem 3D-Beschleuniger zu übertakten, als das letzte Megahertz aus der GP104-GPU zu holen.

Also verreckt die Karte schon ordentlich an der Bandbreite. Und das schon ohne OC.
Ich hoffe der GP 102 kommt mit schnelleren GDDR5X mit 12-14gbps...

(del)
2016-05-17, 15:59:35
So, jetzt ist Feierabend und ich darf dann mal Pause. Dieser babylonische Sprachwirrwar bei mehrsprachigen Launches ist einfach nur tödlich.

Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test (http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111.html)

Hier ist quasi das Making-Off in Bildern:

https://scontent.ftxl1-1.fna.fbcdn.net/t31.0-8/13244081_1235082213193107_5163262477153320042_o.jpg

iuno
2016-05-17, 16:01:37
Ehrliche Frage: Was erwartet ihr von VR-Benchmarks?

Naja, Jensen hat da das Maul weit aufgerissen, da will man auch Vergleiche sehen :P
Mich wuerde einfach der Anteil der eingesparten Geometrieleistung an der Gesamtzeit pro Frame interessieren. Und der Vergleich zu Loesungen/Ansaetzen die es von Crytek oder Unity schon gibt

Größere Entwicklungen und Veränderungen werden im Gaming-Bereich erst dann auf den Markt kommen, wenn VR-HMD eine akzeptable Marktreife erreicht hat.
Warum? Weil alle davon ausgehen, dass dies DIE nächste Revolution im Unterhaltungsbereich wird.
Nein. Einige sind davon ausgegangen und einige davon wurden wiederum zur Bekanntgabe der Preise der Rift auf den Boden zurueckgeholt. VR ist eine Nische und wird das auch mittelfristig bleiben.

Godmode
2016-05-17, 16:02:47
Naja, Jensen hat da das Maul weit aufgerissen, da will man auch Vergleiche sehen :P
Mich wuerde einfach der Anteil der eingesparten Geometrieleistung an der Gesamtzeit pro Frame interessieren. Und der Vergleich zu Loesungen/Ansaetzen die es von Crytek oder Unity schon gibt

Wie er im Text schreibt, gibt es aktuell noch keine Software, die Simultaneous Multi-Projection unterstützt.

dildo4u
2016-05-17, 16:02:52
Pascal kann auch kein Async Compute, falls dir das entgangen ist. ^^
Ansonsten siehe meinen Kommentar zu den Frametimes. Der Nvidia-Treiber muss Multi-Queue Grafik + Compute immer noch irgendwie ummodeln.
Bis kein Bild zu den Frametimes am Ende des Ashes-benchmarks gepostet ist, gibts da herzlich wenig zu feiern...

Frametimes unter Ashes sehen gut aus.

http://www.guru3d.com/articles_pages/fcat_geforce_gtx_1080_framepacing_review,8.html

MechWOLLIer
2016-05-17, 16:03:27
Naja, Jensen hat da das Maul weit aufgerissen, da will man auch Vergleiche sehen :P
Mich wuerde einfach der Anteil der eingesparten Geometrieleistung an der Gesamtzeit pro Frame interessieren. Und der Vergleich zu Loesungen/Ansaetzen die es von Crytek oder Unity schon gibt
SMP muss jedoch ins Spiel integriert werden. Was laut Nvidia aber noch bei keinem geschehen ist. Da kann man leider noch nichts zeigen - darauf zielte meine Frage ab :)

Tru
2016-05-17, 16:03:40
So, jetzt ist Feierabend und ich darf dann mal Pause. Dieser babylonische Sprachwirrwar bei mehrsprachigen Launches ist einfach nur tödlich.

Nvidia GeForce GTX 1080 Founders Edition: Pascal im Test (http://www.tomshardware.de/nvidia-geforce-gtx-1080-pascal,testberichte-242111.html)

Hier ist quasi das Making-Off in Bildern:

Dat Broadwell-E-Teaser though. :ubash2:

TurricanM3
2016-05-17, 16:05:08
1500MHz bei der Ti sind schon recht hoch (oberes Limit), das der 1080 kennen wir noch nicht. =)
Mit Wakü und Mod-Bios (Daumendrück) sollte die Post abgehen. :biggrin:
Das werden doch locker 25% wenn nicht sogar 30%+ rauskommen. Das finde ich alles andere als wenig.

maximus_hertus
2016-05-17, 16:06:39
1500MHz bei der Ti sind schon recht hoch (oberes Limit), das der 1080 kennen wir noch nicht. =)
Mit Wakü und Mod-Bios (Daumendrück) sollte die Post abgehen. :biggrin:
Das werden doch locker 25% wenn nicht sogar 30%+ rauskommen. Das finde ich alles andere als wenig.


Auch beim VRAM? Die 1080 ist doch schon ohne OC Bandbreitenlimitiert, mit OC wird es doch eher schlimmer als besser, wenn man den VRAM nicht auch ordentlich übertaktet bekommt.

Ex3cut3r
2016-05-17, 16:07:13
1500MHz bei der Ti sind schon recht hoch (oberes Limit), das der 1080 kennen wir noch nicht. =)
Mit Wakü und Mod-Bios (Daumendrück) sollte die Post abgehen. :biggrin:
Das werden doch locker 25% wenn nicht sogar 30%+ rauskommen. Das finde ich alles andere als wenig.

THIS!

Auch beim VRAM? Die 1080 ist doch schon ohne OC Bandbreitenlimitiert, mit OC wird es doch eher schlimmer als besser, wenn man den VRAM nicht auch ordentlich übertaktet bekommt.

Beim VRAM sind doch auch +500MHZ locker drin.

"Der GDDR5X-Speicher von Micron ließ ein Plus von 499 MHz und damit eine Frequenz von 5.499 MHz zu"

Mein Fazit im Referenz Design nutzt die Graka mal wieder niemanden, da sie künstlich zurück gehalten wird. Erst fette Customs mit MOD Bios werden die Graka zum Stier katapultieren :biggrin:

iuno
2016-05-17, 16:07:37
Wie er im Text schreibt, gibt es aktuell noch keine Software, die Simultaneous Multi-Projection unterstützt.
SMP muss jedoch ins Spiel integriert werden. Was laut Nvidia aber noch bei keinem geschehen ist. Da kann man leider noch nichts zeigen - darauf zielte meine Frage ab :)
Ja, das ist klar und hatte ich auch davor schon geschrieben (ist aber auch verstaendlich dass das hier momentan untergehen kann).
Die Antwort auf die Frage war ja eher auf das allgemeine Interesse bezogen, nicht zum jetzigen Zeitpunkt.
Ich hoffe, es kommen dann Tests nach, wenn VRWorks implementiert wird.
Etwas seltsam finde ich es aber schon, dass NV da nicht puenktlich zumindest eine kleine Demo veroeffentlicht hat.

Traxx
2016-05-17, 16:08:25
Sie haben den Text nicht gelesen und erwarten dass Simultaneous Multi-Projection out of the Box 200% Leistungssteigerung bringt. :)

Ja genau. Wir können ja nicht lesen, weil der Text im HMD zu schlecht dargestellt wird. :whistle:

(del)
2016-05-17, 16:11:06
Dat Broadwell-E-Teaser though. :ubash2:118 Kerne in 8 CPUs. Vier fette Broadwell-EP und vier unbekannte Consumer-Bitches :P

Ich habe hier eine handselektierte Gigabyte 980 Ti Waterforce, die läuft stabil die 1.65 GHz. Trotzdem ist der Abstand zur 1080 nicht wegzudiskutieren. Preislich lag sie auch weit drüber. Ob man hätte mehr erwarten können, darf freilich diskutiert werden. :)

Ätznatron
2016-05-17, 16:12:31
Jetzt habe ich die Tests von THG, PCGH, HWL, und CB zwar nur mehr oder weniger überflogen (bis auf einige mir wichtige Aspekte), aber insgesamt scheint die Karte vom Preispunkt her doch viel zu hoch angesetzt zu sein.

Für € 800,- bietet sie einfach zu wenig.

w0mbat
2016-05-17, 16:13:35
Beim VRAM sind doch auch +500MHZ locker drin.

"Locker"? Die nur 500 MHz sind ja das Problem, weil die ja selbst ohne OC voll anschlagen. Mit OC bräuchte man da +1500-2000 MHz. Ist schon witzig, selbst meine HD7870 kommt schon mit einem 256-bit SI, die 1080 ist ein voller Bandbreitenkrüppel geworden.

Ich kann mir gut vorstellen, dass ein GP102 mit 384-bit SI und 12-14 Gbps GDDRX5 kommt.

illidan
2016-05-17, 16:13:43
Frametimes unter Ashes sehen gut aus.

http://www.guru3d.com/articles_pages/fcat_geforce_gtx_1080_framepacing_review,8.html
Ja, stimmt.


Beim VRAM sind doch auch +500MHZ locker drin.

Und bringt schon ohne GPU-OC +6% oder gar +9%. Das heißt, das Ding ist bereits ziemlich bandbreitenlimitiert.

(del)
2016-05-17, 16:14:24
Sie ist ja auch nicht als Aufrüst-Kit für die Besitzer der 980 Ti und Titan X gedacht. Die werden später noch beglückt (und gemolken).

Kriegsgeier
2016-05-17, 16:14:30
So wie es aussieht wird GTX 1080 als Bandbreitenkrüppel in die Geschichtsbücher eingehen:
GDDR5X lässt sich laut Spezifikation um weitere 500 MHz übertakten. Dann ist Schluss. Das Krasse ist, dass die Karte dabei proportional skaliert!!!

Sehr schade an dieser Stelle :-/

400 GB/s wäre perfekt für die Karte :-(

MechWOLLIer
2016-05-17, 16:14:49
er auf das allgemeine Interesse bezogen, nicht zum jetzigen Zeitpunkt.
Ich hoffe, es kommen dann Tests nach, wenn VRWorks implementiert wird.
Etwas seltsam finde ich es aber schon, dass NV da nicht puenktlich zumindest eine kleine Demo veroeffentlicht hat.
Wenn Nvidia bzw. die Hersteller entsprechende Spiele liefern, steht das ganz oben auf der To-Do-Liste :)

dildo4u
2016-05-17, 16:15:03
http://abload.de/img/break6lota.png

http://abload.de/img/rise1yrzj.png

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/72619-nvidia-geforce-gtx-1080-review-19.html

Ex3cut3r
2016-05-17, 16:16:35
Mag sein, das sie Bandbreitenlimitiert ist, ich muss aber trotzdem was neues kaufen, da ich meine 3440x1440 anständig befeuern will. Und bis 2017 werde ich nicht mehr warten, dazu ist meine GTX 770 ist vor ein paar Tagen kaputt gegangen. :(

Achill
2016-05-17, 16:18:56
Schöne Tests und Karte, aber nicht so richtig was für mich ... ;)

Im Prinzip keine Überraschung. Der Kühler ist leider doch relativ schlecht, vor allem wenn man den "Aufpreis" sich anschaut. Die 2,5 GHz sind ebenfalls nicht gefallen, selbst 2 GHz sind dauerhaft(!) kaum drin (ohne Kühlerwechsel und dadurch häufigen Garantieverlust).

789 Euro sind fast 100% dort, wo ich den Europreis beim Event angesetzt habe (ich hatte 796 Euro "ausgrechnet").

Für 499 Euro wäre sie Top, ohne Zweifel. 599 Euro - immernoch gut, schnellste KArte, passt noch.

Aber 789 Euro ist hart, vor allem mit dem kommenden GP102 am Horizont. Warten wir auf die Customs und ob sie wirklich deutlich günstiger werden. Strix, MSI Gaming und Co. sehe ich sogar eher über(!) 800 Euro, lediglich Palit und Co. könnten Richtung 700 Euro runter gehen, aber unterhalb von 700 Euro wird es wohl erst einmal nicht gehen.

Ich glaube nicht solange da keine Konkurrenz am Start ist, denke das wird wie Broadwell-E und sehe langfristig Preise wie diese bei uns:
- 1080: ~699€
- 1080TI: ~999€
- Titan XYZ: ~1499€

PHuV
2016-05-17, 16:19:20
Wenn ich mir die PCGH OC benchmarks anschaue sehe spontan für mich keinen Grund die X zu tauschen.
Geht mir genauso. Dann können wir getrost noch abwarten.

Botcruscher
2016-05-17, 16:19:52
Speicher und Bandbreitenkrüppel haben doch Tradition. Bei der 1070 wird das noch lustiger. Der Kunde will doch Grund zum Aufrüsten haben. Das Ding ist wie gesagt eine nette 400€ Karte.
Die OC Träume haben sich auf jeden Fall erst mal erledigt. Die Schlüppies können wieder trocken gestellt werden.

Godmode
2016-05-17, 16:21:25
Speicher und Bandbreitenkrüppel haben doch Tradition. Bei der 1070 wird das noch lustiger. Der Kunde will doch Grund zum Aufrüsten haben. Das Ding ist wie gesagt eine nette 400€ Karte.
Die OC Träume haben sich auf jeden Fall erst mal erledigt. Die Schlüppies können wieder trocken gestellt werden.

Ich gehe auch nicht davon aus, dass die Hersteller schnelleren Speicher verbauen. Der Speichercontroller wird schließlich für eine bestimmte Frequenz ausgelegt worden sein. Oder gab es in der Vergangenheit schon mal Customs mit schnellerem Speicher?

-/\-CruNcher-/\-
2016-05-17, 16:22:19
Laut EZB ist das Deflation, da ja die Leistung höher ist als beim Vorgängermodell. Also wenn ihr den Eindruck habt, dass alles immer teurer wird, dem ist nicht so, die Produkte werden einfach immer besser.
Willkommen in der wundersamen Welt der Zentralbanken und Statistikbehörden.

Nvidia hat mit Maxwell angefangen sich ihre Effizienz (Tegra Research) vergolden zu lassen, nur wer es übertreibt wird böse auf die Nase fliegen sie holen sich alles wieder zurück was sie bei Tegra verloren haben und das von eben der besten Zielgruppe dafür ;)

Nightspider
2016-05-17, 16:23:14
Sie haben den Text nicht gelesen und erwarten dass Simultaneous Multi-Projection out of the Box 200% Leistungssteigerung bringt. :)

Dreiste Unterstellung! :tongue:

Ich erwarte 30-50% mehr Leistung. Das sollte ein realistischer Wert sein. Damit hätte Pascal bei VR einen enormen Mehrwert.

Natürlich ist das nicht interessant für Leute wie euch, die an VR nicht interessiert sind.
Aber wenn du ab und zu in 3D zockst am Monitor profitierst du auch schon davon.

Von daher sehe ich die GTX1080 als einen echten Gewinn an, unabhängig vom aktuellen Preispunkt und den sonst nur ~15% mehr Leistung zur 980ti.

Übrigens übersehen hier die meisten den VR-Vorteil wenn es um den Preispunkt geht. Da dürfte die GTX1080 unschlagbar sein wenn sie tatsächlich bis zu 50% mehr Leistung in VR und 3D bietet. ;)

PHuV
2016-05-17, 16:24:23
Das einzige Reizvolle für mich ist doch die deutlich bessere Performance für VR-Andwendungen. Jedoch habe ich bisher bei mir noch keine VR-Anwendung gefunden, welche bisher Probleme bzgl. Performance machen (für HTC Vive).

dreas
2016-05-17, 16:25:16
VR ist Nische und für die Masse uninteressant

Sunrise
2016-05-17, 16:25:22
So wie es aussieht wird GTX 1080 als Bandbreitenkrüppel in die Geschichtsbücher eingehen:
GDDR5X lässt sich laut Spezifikation um weitere 500 MHz übertakten. Dann ist Schluss. Das Krasse ist, dass die Karte dabei proportional skaliert!!!

Sehr schade an dieser Stelle :-/

400 GB/s wäre perfekt für die Karte :-(
Man hatte bei NV evtl. mit mehr als 10Gbps Modulen von Micron gehofft. Würde Micron jetzt 12-14Gbps fertigen können, wäre das Problem deutlich entschärft.

Die Frage ist jetzt wirklich, ob bei GP102 384bit GDDR5X ausreichen, oder ob man gleich Nägel mit Köpfen gemacht und das Ding gleich mit HBM gebaut hat. Denn die min. 50% mehr ALUs freuen sich geradezu über mehr Bandbreite.

Botcruscher
2016-05-17, 16:26:20
Ich gehe auch nicht davon aus, dass die Hersteller schnelleren Speicher verbauen. Der Speichercontroller wird schließlich für eine bestimmte Frequenz ausgelegt worden sein. Oder gab es in der Vergangenheit schon mal Customs mit schnellerem Speicher?

Der Speicher ist ja relativ neu und der Takt niedrig. Da könnte schon noch eine Second Edition nachgeschoben werden. Kühe wolle gemolken werden.
Ansonsten bleibt die Frage ob es NV überhaupt erlaubt.

Ihm
2016-05-17, 16:26:23
Nein. Einige sind davon ausgegangen und einige davon wurden wiederum zur Bekanntgabe der Preise der Rift auf den Boden zurueckgeholt. VR ist eine Nische und wird das auch mittelfristig bleiben.

Das ist deine Meinung, aber nicht die Meinung der Industrie.
Und letztere hat das Spielchen von allen Seiten schon längst durchgerechnet und kommt zu anderen Ergebnissen.
Ein VR-HMD mit 4K wird wie der Full-HD Fernseher eine Langzeitinvestition.
2018 wird die Rift1 günstiger und den Low/Lower-Mid-Bereich abdecken, die Rift2 den Upper-Mid/High-End-Bereich.
Damit wird dann der Startschuss fallen und die Contentindustrie kann Gas geben.
Du vergisst bei deiner Einschätzung, dass sowohl Preis, Sättigung, Content und Verfügbarkeit der aktuellen VR-Marktlage dem der Early Adopter-Phase entsprechen.

VR-HMD ist quasi noch nicht gestartet, sondern auf dem Weg zur Startlinie. Und auf diesem Weg können sich einige Interessenten schon einmal ein wenig daran austoben und Feedback geben.
Das wissen alle Beteiligten...versprochen. ;)

Nightspider
2016-05-17, 16:26:48
VR ist Nische und für die Masse uninteressant

Ja und deswegen sind VR Brillen auch überall auf Monate ausverkauft... :facepalm:

Die Preise der VR Brillen müssen nur etwas fallen und schon explodieren die Verkaufszahlen in ungeahnte Höhen.
Bis dahin kommen die eh nicht mit der Produktion hinterher.

Edit: Gut, dein Satz trifft vielleicht zu aber nur sehr temporär weil es aktuell noch nicht viele Leute gibt mit VR Brillen.

Godmode
2016-05-17, 16:27:10
Dreiste Unterstellung! :tongue:

Ich erwarte 30-50% mehr Leistung. Das sollte ein realistischer Wert sein. Damit hätte Pascal bei VR einen enormen Mehrwert.

Natürlich ist das nicht interessant für Leute wie euch, die an VR nicht interessiert sind.
Aber wenn du ab und zu in 3D zockst am Monitor profitierst du auch schon davon.

Von daher sehe ich die GTX1080 als einen echten Gewinn an, unabhängig vom aktuellen Preispunkt und den sonst nur ~15% mehr Leistung zur 980ti.

Übrigens übersehen hier die meisten den VR-Vorteil wenn es um den Preispunkt geht. Da dürfte die GTX1080 unschlagbar sein wenn sie tatsächlich bis zu 50% mehr Leistung in VR und 3D bietet. ;)

Nein, ich schrieb das nur deswegen, weil Wolfang im Text ja schrieb, dass es Arbeit der Softwareentwickler ist, SMP zu implementieren. Ohne SMP wird die Karte auch nicht großartig schneller in VR sein, als die alte Generation.

Ätznatron
2016-05-17, 16:27:12
Ist das überhaupt ein "echter" Pascal?

Nai (der mit dem berühmt-berüchtigten Benchmark) hat da offenbar so seine Zweifel (http://www.computerbase.de/forum/showthread.php?t=1585434&page=12&p=18809293#post18809293):

Mich täte interessieren was dieser Chip für eine Compute Capability (aka CUDA Version) hat. Da es ein Maxwell im Gewandt von Pascal ist würde ich auf eine Compute Capability 5.X tippen, was auch die übrigen Maxwell GPUs besitzen. GP-100 soll ja laut Gerüchten Compute-Capability 6.0 sein, was dann auch auf einen "echten" Pascal hindeutet.

Kann da von den Fachleuten jemand was zu sagen?

PHuV
2016-05-17, 16:27:22
VR ist Nische und für die Masse uninteressant
Deshalb sprach ich doch auch "für mich". :| Was bringst Du da die Masse an? Die Masse kauft sich auch keine 1080p/1070p. :rolleyes:
Ja und deswegen sind VR Brillen auch überall auf Monate ausverkauft... :facepalm:

Die Preise der VR Brillen müssen nur auf Monitor-Niveau fallen und schon explodieren die Verkaufszahlen in ungeahnte Höhen.
Genau so siehts aus.

dildo4u
2016-05-17, 16:27:24
Man hatte bei NV evtl. mit mehr als 10Gbps Modulen von Micron gehofft. Würde Micron jetzt 12-14Gbps fertigen können, wäre das Problem deutlich entschärft.

Die Frage ist jetzt wirklich, ob bei GP102 384bit GDDR5X ausreichen, oder ob man gleich Nägel mit Köpfen gemacht und das Ding gleich mit HBM gebaut hat. Denn die min. 50% mehr ALUs freuen sich geradezu über mehr Bandbreite.
Auf schneller Chips hat NV mit Sicherheit nicht gehofft man will ja ein deutlichen Abstand für eine 1500€ Titan Karte aufbauen.

VooDoo7mx
2016-05-17, 16:27:56
Mag sein, das sie Bandbreitenlimitiert ist, ich muss aber trotzdem was neues kaufen, da ich meine 3440x1440 anständig befeuern will. Und bis 2017 werde ich nicht mehr warten, dazu ist meine GTX 770 ist vor ein paar Tagen kaputt gegangen. :(

Aus deiner Perspektive von der 770 ausgehend, absolut verständlich Jedoch für 980Ti/Titan X User die nach mehr Performance lechzen, eher uninteressant.
Für dich könnte eine eine 1070 sehr interessant sein.

ChaosTM
2016-05-17, 16:28:38
4K Performance Rating (http://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/)

Vielleicht kommen doch noch Custom Karten mit deutlich schnellerem Speicher.

Godmode
2016-05-17, 16:29:35
Ist das überhaupt ein "echter" Pascal?

Nai (der mit dem berühmt-berüchtigten Benchmark) hat da offenbar so seine Zweifel (http://www.computerbase.de/forum/showthread.php?t=1585434&page=12&p=18809293#post18809293):



Kann da von den Fachleuten jemand was zu sagen?

Es gibt bei Pascal 3 verschiedene Architekturen laut Treiber. GP100, GP104 und dann noch eine dritte, die nicht bekannt ist.

Botcruscher
2016-05-17, 16:30:05
Deshalb sprach ich doch auch "für mich". :| Was bringst Du da die Masse an? Die Masse kauft sich auch keine 1080p/1070p. :rolleyes:
Die "Masse" der Käufer wird die Karte an einem typischen 200€ FHD Moni betreiben. VR ist einfach viel zu teuer um überhaupt einen vernünftigen Markt zu erreichen.

Godmode
2016-05-17, 16:30:17
VR ist Nische und für die Masse uninteressant

Sobald VR ausgereift ist, wird die Nische schneller verlassen werden, als du bis 3 zählen kannst.

Ex3cut3r
2016-05-17, 16:30:36
Aus deiner Perspektive von der 770 ausgehend, absolut verständlich Jedoch für 980Ti/Titan X User die nach mehr Performance lechzen, eher uninteressant.
Für dich könnte eine eine 1070 sehr interessant sein.

Ja klar, das verstehe ich ja, hätte ich eine 980Ti oder Titan X wurde ich auch nicht wechseln. Ne wird eine 1080 bei mir, erstens weiß ich nicht ob die 1070 nicht wieder eine 970 2.0 wird und zweitens sollte man 3440x1440 nicht unterschätzen.

MFG

illidan
2016-05-17, 16:31:41
Ist das überhaupt ein "echter" Pascal?

Nai (der mit dem berühmt-berüchtigten Benchmark) hat da offenbar so seine Zweifel (http://www.computerbase.de/forum/showthread.php?t=1585434&page=12&p=18809293#post18809293):

Ich glaube nicht, dass das stimmt.

M4xw0lf
2016-05-17, 16:32:24
Aus deiner Perspektive von der 770 ausgehend, absolut verständlich Jedoch für 980Ti/Titan X User die nach mehr Performance lechzen, eher uninteressant.
Für dich könnte eine eine 1070 sehr interessant sein.
Oder aber Polaris10.

Sunrise
2016-05-17, 16:33:09
Ein VR-HMD mit 4K wird wie der Full-HD Fernseher eine Langzeitinvestition.
2018 wird die Rift1 günstiger und den Low/Lower-Mid-Bereich abdecken, die Rift2 den Upper-Mid/High-End-Bereich.
2018 wird wohl auch das Jahr werden, in welchem 4K-GPUs 60-90fps durchgehend für HMDs liefern werden. Das passt ganz gut zusammen mit den 4K HMDs. Allerdings wird der Einstiegspreis nicht billig und da muss die Content-Industrie (P0rn, Spiele, Filme) noch eine Menge nachlegen, dass man hier nicht eher einen neuen TV kauft, sondern ein HMD und eine teure Grafikkarte.

Pascal ist jedenfalls von gestern, wenn es dazu kommt. Da braucht es schon GPUs wie eine GP100, jedoch voll auf Gaming optimiert (ohne FP64-Support) und mit 600mm² unter 10nm. Ein GP102 wäre allerdings schon ein ziemlich guter Mittelweg bis dahin.

illidan
2016-05-17, 16:33:56
Oder aber Polaris10.
Wenn die Takt-Differenz zwischen Pascal und Polaris nun nicht so groß ist wie ursprünglich mal angenommen, könnte das wirklich ein gar nicht so schlechter Deal werden.
Zumal man das Teil auch recht verlustfrei wieder loswerden sollte, wenn größere Chips aufschlagen.

M4xw0lf
2016-05-17, 16:34:27
Ich glaube nicht, dass das stimmt.
128 SPs pro SM wie bei allen Maxwells statt 64 wie bei GP100... GP104 ein Maxwell-Shrink + kleinere Updates? :uponder:

Sunrise
2016-05-17, 16:36:16
128 SPs pro SM wie bei allen Maxwells statt 64 wie bei GP100... GP104 ein Maxwell-Shrink + kleinere Updates? :uponder:
Das würde einen Teil des Flächenoverheads und höherem Verwaltungsaufwand von GP100 erklären.

Nightspider
2016-05-17, 16:37:25
Übrigens nett das Ansel auch runter bis zur uralten GTX680 funktioniert. :)

Ab wann gibts das Tool zum Download?

Traxx
2016-05-17, 16:38:44
Nein, ich schrieb das nur deswegen, weil Wolfang im Text ja schrieb, dass es Arbeit der Softwareentwickler ist, SMP zu implementieren. Ohne SMP wird die Karte auch nicht großartig schneller in VR sein, als die alte Generation.

Deshalb würden mich eben gerade da Benches interssieren (ohne Simultaneous Multi-Projection). Da könnte sich die 1080 von einer 980Ti @ 1.5Ghz evtl. spürbarer absetzen. Ist der Gedanke abwegig, dass auch bei bestehenden VR-Anwendungen spürbar mehr rauskommt, analog der normalen Benches? Von den 3x Leistung sprech ich ja gar nicht...

Ich erwarte 30-50% mehr Leistung. Das sollte ein realistischer Wert sein. Damit hätte Pascal bei VR einen enormen Mehrwert.


This... would be great... ;)

Blediator16
2016-05-17, 16:38:45
Ob die Karte auch das Stigma einer lauten und heißen Karte für die nächsten Jahre tragen wird?

Troyan
2016-05-17, 16:40:27
Hardware.fr hat ihren Test nun auch online:
http://www.hardware.fr/articles/948-1/nvidia-geforce-gtx-1080-premier-gpu-16nm-test.html

DX12 mäßig hat sich wohl nichts geändert bis auf CR. Effizienz ist in Battlefield 4 und The Witcher 3 (ohne Gameworks) 75% besser. Und dank der hohen Taktrate kann man in einigen Fällen deutlich gewinnen - Verwerfen von Dreiecken oder auch bei den Draw-Calls.

Aber 790€?! Damn.

dildo4u
2016-05-17, 16:41:11
Ob die Karte auch das Stigma einer lauten und heißen Karte für die nächsten Jahre tragen wird?
Laut CB ist sie leiser als die Maxwell Referenz Karten.

captain_drink
2016-05-17, 16:41:30
Ich hoffe auf einen Refresh, sobald Micron schnellere Module anbieten kann.
Im GP104-400 steckt nämlich eigentlich viel mehr Potenzial, als die unterdimensionierte Referenzkühlung und die dünne Bandbreite zu erkennen geben.

NV leidet bei der Vorstellung der 1080 gewissermaßen unter dem AMD-Effekt (der hier allerdings auch noch mit einem obszönen Preispunkt kombiniert wird); m.E. war man etwas zu früh am Markt, wobei ich natürlich auch nicht weiß, wann Micron Module mit 11 oder 12 Gbps projektiert hat.

Fast-Sync geht m.E. übrigens zu Unrecht etwas unter, für Spiele, die von FPS >144 profitieren, ist das durchaus ein "game changer".

Sunrise
2016-05-17, 16:45:37
Ich hoffe auf einen Refresh, sobald Micron schnellere Module anbieten kann.
Im GP104-400 steckt nämlich eigentlich viel mehr Potenzial, als die unterdimensionierte Referenzkühlung und die dünne Bandbreite zu erkennen geben.

NV leidet bei der Vorstellung der 1080 gewissermaßen unter dem AMD-Effekt (der hier allerdings auch noch mit einem obszönen Preispunkt kombiniert wird); m.E. war man etwas zu früh am Markt, wobei ich natürlich auch nicht weiß, wann Micron Module mit 11 oder 12 Gbps projektiert hat.
Richtig. Allerdings wird NV diese Situation wohl evtl. einfach bestehen lassen, bis AMD von oben etwas Druck macht mit Vega 10 (4096 ALUs). Wenn Vega 10 deutlich mehr Leistung bei $599-$699 liefert, hat NV ein Argumentationsproblem. Vorher kann es NV eigentlich egal sein, weil es sowieso nichts Schnelleres gibt.

Danach wird es wohl nur noch GP102 geben und GV104 wird dann die Nachfolge von GP104 antreten, mit deutlich schnelleren GDDR5X-Modulen oder gleich HBM2.

maximus_hertus
2016-05-17, 16:46:11
Hat jemand Infos, ob man bei der 1070 bis zum Verkaufsstart am 10.6. warten muss, um unabhängige Reviews lesen zu können? Oder wird es dort auch Tests einige Tage vor dem 10.6. geben?

Nakai
2016-05-17, 16:47:01
Hardware.fr hat ihren Test nun auch online:
http://www.hardware.fr/articles/948-1/nvidia-geforce-gtx-1080-premier-gpu-16nm-test.html

DX12 mäßig hat sich wohl nichts geändert bis auf CR. Effizienz ist in Battlefield 4 und The Witcher 3 (ohne Gameworks) 75% besser. Und dank der hohen Taktrate kann man in einigen Fällen deutlich gewinnen - Verwerfen von Dreiecken oder auch bei den Draw-Calls.

Aber 790€?! Damn.

Oha, NV hat ordentlich am TriangleCulling geschraubt. Man liegt Welten vor AMD. Wird Zeit, dass AMD auch etwas dahingehend mal tut.

illidan
2016-05-17, 16:47:17
Fast-Sync geht m.E. übrigens zu Unrecht etwas unter, für Spiele, die von FPS >144 profitieren, ist das durchaus ein "game changer".
Für Leute ohne A-Sync Monitor sehr nett. Wenn ich aber eine Highend-Karte anschaffe, ist es naheliegend auch einen modernen Monitor zu nutzen.

Loeschzwerg
2016-05-17, 16:53:51
Mich stört eigentlich nur der Preis, der darf ruhig auf ~650€ runter. Sonst finde ich die Karte eine sehr runde Geschichte.

Achja, den Kühler finde ich super :D Bleibt mir weg mit eurem beschissenem axialen Dreck!

Lowkey
2016-05-17, 16:55:53
Der Preis und die Leistung der Custom Karten wird stimmen, also ich erwarte keine Kaufempfehlung für eine 1080 im Referenzdesign.

hesTeR-
2016-05-17, 16:56:04
Ich muss ganz erhlich sagen, ich finde es eigentlich ganz gut so wie es jetzt gekommen ist. Sehe dadurch gute chancen für AMD im Mid segemt durch gutes P/L wieder schöne grakas zu haben.

captain_drink
2016-05-17, 16:56:32
Für Leute ohne A-Sync Monitor sehr nett. Wenn ich aber eine Highend-Karte anschaffe, ist es naheliegend auch einen modernen Monitor zu nutzen.

Async ist kein Ersatz für Fastsync; beide Techniken ergänzen sich vielmehr.
Mit Fastsync hat man kein Tearing, ist aber trotzdem nicht auf die Refreshrate gelockt, sondern erhält so viele FPS, wie die GPU liefern kann, wobei die Latenz fast so niedrig ist wie ohne Sync.
Im Grunde also wie Triple Buffering (d.h. mit einem zusätzlichen Buffer, also keine verlängerte flip size queue) mit geringerer Latenz.

pest
2016-05-17, 17:01:24
1500MHz bei der Ti sind schon recht hoch (oberes Limit), das der 1080 kennen wir noch nicht. =)
Mit Wakü und Mod-Bios (Daumendrück) sollte die Post abgehen. :biggrin:
Das werden doch locker 25% wenn nicht sogar 30%+ rauskommen. Das finde ich alles andere als wenig.

Um in Benches gut auszusehen bestimmt. Die Karte krankt allerdings an der Bandbreite. Für NV lohnenswert. Günstiger in der Herstellung und hoher MSRP.
Ich sag es nochmal 8800 Ultra <-> 9800GTX :wink:

illidan
2016-05-17, 17:02:45
Async ist kein Ersatz für Fastsync; beide Techniken ergänzen sich vielmehr.
Mit Fastsync hat man kein Tearing, ist aber trotzdem nicht auf die Refreshrate gelockt, sondern erhält so viele FPS, wie die GPU liefern kann, wobei die Latenz fast so niedrig ist wie ohne Sync.
Im Grunde also wie Triple Buffering (d.h. mit einem zusätzlichen Buffer, also keine verlängerte flip size queue) mit geringerer Latenz.
Es ist an der Praxis mit A-Sync einfach egal, weil der Input Lag mit fps-Limit niedrig genug ist.

Raff
2016-05-17, 17:03:45
Achja, den Kühler finde ich super :D Bleibt mir weg mit eurem beschissenem axialen Dreck!

*Hust* Deine Nano hat genau so 'nen "Dreck" (und bleibt leiser als die 1080). *hust* :biggrin:

MfG,
Raff

Unyu
2016-05-17, 17:03:58
Der Preis und die Leistung der Custom Karten wird stimmen, also ich erwarte keine Kaufempfehlung für eine 1080 im Referenzdesign.
Costum wird überhaupt nichts besser machen, wie immer. Eher schlimmer, schließlich passen wieder die Alternativkühler nicht mehr aufs geänderte Layout. Bitte erzähl mir keiner was von wegen Costum Kühler wären der Hammer. Bei dem Preis ist alles andere als eine (Selbstbau) Wakü Unfug.

Mit jeder Generation wird die Mehrleistung 1 zu 1 mit höherem Preis erkauft. Und die Menge kauft jubelnd die "günstige" 1070. Ach waren das noch Zeiten, als eine Generation die Alte abgelöst hat.

-/\-CruNcher-/\-
2016-05-17, 17:04:40
Oder aber Polaris10.

Bin mir sicher das AMD endlich weiss worauf es ankommt Nvidias Strategie auseinanderzunehmen und sie werden genau das tun Frontal die 1070 angreifen und aller vorausicht diesmal auch vernichten, wenn sie sich diese Chance wieder entghen lassen dann weiss ich nicht ;)

Das was Nvidia hier macht ist meiner Meinung nach nichts als geschickte verlust Minimierung vor allem haben sie nochmal schön ihre Polymorph Engine aufgebrezelt ;)

captain_drink
2016-05-17, 17:06:57
Es ist an der Praxis mit A-Sync einfach egal, weil der Input Lag mit fps-Limit niedrig genug ist.

Es gibt aber genügend Engines, bei denen man eben kein FPS-Limit, sondern unlocked frames möchte. Dann ist man auf Fastsync angewiesen.

illidan
2016-05-17, 17:07:55
Costum wird überhaupt nichts besser machen, wie immer. Eher schlimmer, schließlich passen wieder die Alternativkühler nicht mehr aufs geänderte Layout. Bitte erzähl mir keiner was von wegen Costum Kühler wären der Hammer. Bei dem Preis ist alles andere als eine (Selbstbau) Wakü Unfug.

Es wird garantiert wieder ausgewogene Custom Designs geben mit geringer Geräuschemission, niedrigen Temps und vertretbarem Stromverbrauch.

Es gibt aber genügend Engines, bei denen man eben kein FPS-Limit, sondern unlocked frames möchte. Dann ist man auf Fastsync angewiesen.
Wo hat man denn heutzutage noch ungelockte fps im dreistelligen Bereich? Und wenn einem solche Spiele wichtig sind, kommt man eh um keinen 144Hz A-Sync Monitor herum.

dreas
2016-05-17, 17:09:37
Bin mir sicher das AMD endlich weiss worauf es ankommt Nvidias Strategie auseinanderzunehmen und sie werden genau das tun Frontal die 1070 angreifen und aller vorausicht diesmal auch vernichten, wenn sie sich diese Chance wieder entghen lassen dann weiss ich nicht ;)

amd ist die spd unter den grakaherstellern. die lassen keinen fettnapf aus und haben eine unerkennbare strategie bei gleichzeitigem völligem fehlen von vernünftigem marketing. das wäre das erste mal das die ein produkt vernünftig positionieren. :cool:

ShinyMcShine
2016-05-17, 17:11:03
PCGH: Geforce GTX 1080 im Test: Der erste 16-nm-König mit 2 GHz im OC-Betrieb (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/)

MfG,
Raff

Schöner Artikel! Danke Raff!

Schaffe89
2016-05-17, 17:12:29
Der Paukenschlag ist leider ziemlich bandbreitenlimitiert, da könnte man eine Version mit schnellerem GDDR5x wittern die später noch nachkommt, vll eine GTX 1080 Ti auf Basis des gleichen Chips?

Interessant ist vor allem noch der gesenkte Stromverbrauch im Idle, das ist schon ne Hausnummer wie ich finde.

Asnonsten ist der Kühler eine einzige Frechheit bei dem Preis, selbst das mini Ding der Nano bleibt leiser bei ähnlichem Verbrauch.. wie Nvidia die Erstkäufer mal so richtig verarscht.;D

Was hat die Vapor Chamber denn gebracht?

Unyu
2016-05-17, 17:12:51
Es wird garantiert wieder ausgewogene Custom Designs geben mit geringer Geräuschemission, niedrigen Temps und vertretbarem Stromverbrauch.Dafür sehe ich keinen Markt. Unter 300-400€ vllt. aber nicht weit jenseits davon.

captain_drink
2016-05-17, 17:16:52
Wo hat man denn heutzutage noch ungelockte fps im dreistelligen Bereich? Und wenn einem solche Spiele wichtig sind, kommt man eh um keinen 144Hz A-Sync Monitor herum.

CSGO, BF4, CoD usw. Im Prinzip alle MP-FPS.
Wie gesagt, ein 144Hz-Async-Monitor hat nicht dieselbe Funktionalität wie Fastsync.

Loeschzwerg
2016-05-17, 17:18:51
*Hust* Deine Nano hat genau so 'nen "Dreck" (und bleibt leiser als die 1080). *hust* :biggrin:

MfG,
Raff

Notgedrungen eine Hassliebe :D

Die Karte schaufelt immerhin einen Teil nach hinten raus und durch die geringe Länge zieht der Rest brav nach oben weg. Ein Triple-Axial-Design mit riesigem PCB... da braucht man dann wirklich einen großen Tower mit vielen Lüftern. Nicht mein Fall :)

Schöner Test der GTX 1080 btw. :up:

@Igor: Danke für diesen Absatz!!! :) (und für den restlichen Artikel natürlich auch ^^)
Das entstehende, nach oben hin sehr breitbandige Lüftergeräusch ist angenehm, weil es ein fast reines Rauschen ist und man den Motor des Lüfters nie einzeln heraushören kann. Im Gegensatz zu den brummigen und sehr billigen Axiallüftern der ehemaligen AMD-Referenzkarten und dem, was manche Board-Partner verbauen, ist der Geräuschteppich durchaus erträglich und tolerierbar.

Schaffe89
2016-05-17, 17:20:55
CB ist wieder mal zu neuer Höchstform aufgelaufen.

"Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X"
"Die GeForce GTX 1080 ist damit die einzige Grafikkarte, mit der jedes aktuell erhältliche Spiel in Ultra HD flüssig läuft, ohne dass die Grafikpracht spürbar eingeschränkt werden muss. "

WTF? Ist das Nvidia Marketing?

" Für eine Referenzkarte bietet die GeForce GTX 1080 Founders Edition zwar einen durchaus brauchbaren Kühler, mit zuletzt vorgestellten Alternativen der Boardpartner mithalten kann er aber nicht. Wird die Karte übertaktet oder auch nur das freie Power- und Temperature-Target genutzt, wird der Lüfter sogar sehr laut."

Ja was wird man mit der Karten machen, wenn nicht übertakten?
Für 800 Euro ist das Kühler eine Frechheit und ich sehe nirgends Kritik an dem Preis im Verbindung mit dem Ding, das ist schon bisschen verwunderlich, ja gut lohnt sich eh vermutlich nicht wegen dem GDDR5x aber 10% gehen ja trotzdem.

Das erinnert mich an den Overclockers Dream von AMD.

"ein großer aber kein überzogener Aufpreis gegenüber Radeon R9 Fury X oder GeForce GTX 980 Ti "

*kopfkratz*

Schnoesel
2016-05-17, 17:21:38
PCGH: Die GTX 1080 in der Founders Edition lief ja in der Demo konstant mit 65°C - darf man davon ausgehen, dass der VC-Kühler für den normalen Betrieb (auch mit moderatem OC) völlig ausreicht?
Lars Weinand: Ja, die Vapor-Chamber-Kühllösung eignet sich exzellent fürs Übertakten.

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

Da hat er aber ein wenig geflunkert was?

Ex3cut3r
2016-05-17, 17:22:53
Jeder hat andere Hauptpunkte, der eine ist 1733mhz des Referenz Designs vollkommen zufrieden andere wiederum (ich) wollen über 2000Mhz mit 250Watt Verbrauch und einigermaßen Kühl und leise.

http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

Da hat er aber ein wenig geflunkert was?

Ein wenig? :biggrin:

Mich wurde mals Raffs Meinung interessieren? steigt er wieder um? Er ist ja als als FPS Jäger für wahnsinnige DS Auflösungen bekannt.

Loeschzwerg
2016-05-17, 17:26:10
@Schaffe89: Für die OCer war doch eh klar dass da eine Wakü oder dicker axialer Klotz kommen muss und den Rest wird das Modbios richten, wo liegt dein Problem? Schau mal was die ganzen User bei der 980Ti/X gemacht haben... Klar ist der Preis heftig, aber nenne mir eine Alternative auf dem Markt ;) Wo bleibt AMD?!

Godmode
2016-05-17, 17:26:56
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Specials/Founders-Edition-Geforce-GTX-1080-1195206/

Da hat er aber ein wenig geflunkert was?

Was soll den der Marketingmensch sonst sagen? Die Karten kosten jetzt 100 € mehr, aber der Kühler kühlt nicht wirklich besser?

illidan
2016-05-17, 17:27:24
Wie gesagt, ein 144Hz-Async-Monitor hat nicht dieselbe Funktionalität wie Fastsync.
Sondern eine bessere? :freak:

Schaffe89
2016-05-17, 17:28:13
@Schaffe89: Für die OCer war doch eh klar dass da eine Wakü oder dicker axialer Klotz kommen muss und den Rest wird das Modbios richten, wo liegt dein Problem? Schau mal was die ganzen User bei der 980Ti/X gemacht haben... Klar ist der Preis heftig, aber nenne mir eine Alternative auf dem Markt ;) Wo bleibt AMD?!

Naja man hätte für den Preis wenigstens nen gescheiten Kühler verbauen können, eigentlich wollte ich die Karte bestellen, aber bei dem Preis und dem Kühler und bandbreitenlimit, bin ich ehrlichgesagt ziemlich enttäuscht.:(

tdon
2016-05-17, 17:29:44
http://www.hardware.fr/articles/948-32/recapitulatif-performances.html

Hardware.fr nicht vergessen in der Liste.

Godmode
2016-05-17, 17:29:57
Mich wurde mals Raffs Meinung interessieren? steigt er wieder um? Er ist ja als als FPS Jäger für wahnsinnige DS Auflösungen bekannt.

Ich kann dir nur meine Meinung sagen: Wenn man eine selektierte 1080 finden würde, die zb. 2500 MHz schafft, dann wäre ein Umstieg interessant. Ansonsten wartet man bis zum großen Chip. Damit hätte man ca. 40% mehr Rechenleistung auf eine Titan X mit 1,5 GHz. Wohl etwas weniger, da der Speicher limitieren wird.

http://www.hardware.fr/articles/948-32/recapitulatif-performances.html

Hardware.fr nicht vergessen in der Liste.

Danke, hab den Link in Post 1 eingefügt.

Loeschzwerg
2016-05-17, 17:31:11
@Schaffe89: Mit DHE und Vapor Chamber geht leider nicht (viel) mehr. Das Bandbreitenlimit... ja gut, das ist doch nur theoretischer Natur und wird dich in einem Spiel nie spürbar treffen. In deinem Fall würde ich echt warten was bei den Customs kommt. Billiger, kühler, größer, besser (?) :)

Raff
2016-05-17, 17:32:32
Mich wurde mals Raffs Meinung interessieren? steigt er wieder um? Er ist ja als als FPS Jäger für wahnsinnige DS Auflösungen bekannt.

Ich bin auf die ersten Mod-BIOSe für die GTX 1080 mit "offenem" Powertarget gespannt. Die GTX 980 wurde auch erst cool, als man 1,5 GHz erreichen konnte – aber nicht so cool, um meine Titan Classic (ebenfalls "offen") zu entsorgen. Das Spiel wird sich wiederholen, die gekeulte TX ist schnell genug. Selbst eine 1080 @ 2,2 GHz, was in Zukunft bestimmt rockstable möglich ist, wird keinen Umstieg rechtfertigen. Die arschteure TX hat sich noch nicht amortisiert. :freak: Und die niedrigere Stromrechnung ist kein echter Grund. Ich warte auf Vega, in der Hoffnung, dass das eine vernünftige Ablöse nach zwei Nvidia-Generationen in meinem Rechner wird. =)

Ich kann dir nur meine Meinung sagen: Wenn man eine selektierte 1080 finden würde, die zb. 2500 MHz schafft, dann wäre ein Umstieg interessant. Ansonsten wartet man bis zum großen Chip. Damit hätte man ca. 40% mehr Rechenleistung auf eine Titan X mit 1,5 GHz. Wohl etwas weniger, da der Speicher limitieren wird.

Jo!

MfG,
Raff

Troyan
2016-05-17, 17:32:53
Ich verstehe die Aufregung auch nicht. Wem es nicht gefällt, der wartet einfach. Zur Computex wird man eine Menge von Customdesigns sehen.

fondness
2016-05-17, 17:34:13
Ich bin gespannt, wieviel Taktpotential wirklich noch im Chip steckt. CB spricht von Abstürzen ab 1828 Mhz Basistakt. 10% mehr Leistung durch OCing ist jedenfalls eher unterdurchschnittlich und das Gegenteil des von manchen erhofften OC-Wunders. Wird bei NV die Spannung mit mehr Takt automatisch erhöht, oder ist zu erwarten, dass mit mehr Spannung noch deutlich mehr geht?

Godmode
2016-05-17, 17:34:30
Ich verstehe die Aufregung auch nicht. Wem es nicht gefällt, der wartet einfach. Zur Computex wird man eine Menge von Customdesigns sehen.

Warten ist in fast allen Fällen die beste Option. Ich kann mir nicht vorstellen, dass sich der hohe Launchpreis hält.

Iruwen
2016-05-17, 17:34:55
Welche Aufregung? Das ist Gejammer auf höchstem Niveau. Die schnellste Grafikkarte aller Zeiten in neuem Prozess hat einen relativ hohen Launchpreis, breaking News. Da gabs schon ganz andere Kaliber.

illidan
2016-05-17, 17:36:39
Ich bin gespannt, wieviel Taktpotential wirklich noch im Chip steckt. CB spricht von Abstürzen ab 1828 Mhz Basistakt. 10% mehr Leistung durch OCing ist jedenfalls eher unterdurchschnittlich und das Gegenteil der von manchen erhofften OC-Wunders.
PCGH hatte auch schon bei 2,1Ghz sofort offensichtliche Fehler. Ein typischer rockstable Wert bei der Spannung könnte wirklich bei dem von CB liegen.

Raff
2016-05-17, 17:38:03
PCGH hatte auch schon bei 2,1Ghz sofort offensichtliche Fehler. Ein typischer rockstable Wert bei der Spannung könnte wirklich bei dem von CB liegen.

Nah, das PCGH-Sample läuft mit aufgerotzter Accelero-Kühlung mit 2 GHz fehlerfrei. "Stable" ist in diesem Kontext irgendwie das falsche Wort, da das Ding so powerlimitiert ist, dass man je nach Spiel und Auflösung immer ein anderes Offset draufpacken muss, damit der Takt über 2 GHz bleibt (schwankt wie Seuche). :ugly:

MfG,
Raff

Ex3cut3r
2016-05-17, 17:40:56
Ich kann dir nur meine Meinung sagen: Wenn man eine selektierte 1080 finden würde, die zb. 2500 MHz schafft, dann wäre ein Umstieg interessant. Ansonsten wartet man bis zum großen Chip. Damit hätte man ca. 40% mehr Rechenleistung auf eine Titan X mit 1,5 GHz. Wohl etwas weniger, da der Speicher limitieren wird.

Das kann ich nachvollziehen. :)

Ich bin auf die ersten Mod-BIOSe für die GTX 1080 mit "offenem" Powertarget gespannt. Die GTX 980 wurde auch erst cool, als man 1,5 GHz erreichen konnte – aber nicht so cool, um meine Titan Classic (ebenfalls "offen") zu entsorgen. Das Spiel wird sich wiederholen, die gekeulte TX ist schnell genug. Selbst eine 1080 @ 2,2 GHz, was in Zukunft bestimmt rockstable möglich ist, wird keinen Umstieg rechtfertigen. Die arschteure TX hat sich noch nicht amortisiert. :freak: Und die niedrigere Stromrechnung ist kein echter Grund. Ich warte auf Vega, in der Hoffnung, dass das eine vernünftige Ablöse nach zwei Nvidia-Generationen in meinem Rechner wird. =)

Ok, das macht auch Sinn, ich werde mir Zeitnah sobald die Customs kommen eine holen, und meinen 3440x1440 Monitor endlich anständig befeuern (GTX 770 bis jetzt), Doom 2016 wird auch dazu gekauft. *Freu* :cool:

Bin raus, bis dann. :)

Dural
2016-05-17, 17:41:29
Ohne Mod Bios kann man da auch noch nichts dazu sagen.

Gerade wenn man am PT Limit kratz kann die Karte die Spannung so tief runter nehmen das beim OC verständlicherweisse einen absturtz droht.
Aber 2,5GHz kann man sicher vergessen, stabil. Macht mit den 256Bit auch 0,0 Sinn und wäre eine reiner Strom Schleuder.

illidan
2016-05-17, 17:44:13
Nah, das PCGH-Sample läuft mit aufgerotzter Accelero-Kühlung mit 2 GHz fehlerfrei.
Die Temperatur spielt direkt erstmal keine große Rolle für die Stabilität, sofern Takt und Spannung gleich bleiben.
Ich möchte auch bezweifeln, dass ihr mit dem Accelero diverse Spiele zig Stunden gespielt habt, vorher kann man das Prädikat "rockstable" überhaupt nicht vergeben.
Maxwell lief auch gerne mal scheinrockstable, bis BF4 nach 20h dann doch mal crashte...

Schaffe89
2016-05-17, 17:44:35
@Schaffe89: Mit DHE und Vapor Chamber geht leider nicht (viel) mehr

:P So ein Blödsinn.^^

tdon
2016-05-17, 17:44:37
82 fps in pcars in 4k @Ultra ist nicht übel. Immerhin 78% vor einer default 980.

http://fs5.directupload.net/images/160517/2q7gwlkf.png

(del)
2016-05-17, 17:45:02
Nur mal so am Rande:
Spannungen könnt Ihr draufgeben wie ihr wollt. Wenn das Power Target knapp erreicht ist, geht der Takt nun mal runter. Deshalb enden die ganzen Karten auch bei 2,1 GHz.
Die 120% sind nicht ausreichend. ich war am Ende bei 206 Watt und konnte so zwischen 2088 und 2126 stabil halten. Mehr war nicht drin, auch mit der zweiten Karte nicht.
Boost 3.0 und der Arbitrator funktionieren diesmal etwas anders ;)

Dass der Takt bei Vollast stärker schwankt, liegt ebenfalls an Boost und der Power besseren Estimation. Im Gegenzug fehlen die ganzen Spikes in der VR.
Dazu habe ich ja sogar Diagramme für den direkten Vergleich zur 980.

Blediator16
2016-05-17, 17:46:55
Welche Aufregung? Das ist Gejammer auf höchstem Niveau. Die schnellste Grafikkarte aller Zeiten in neuem Prozess hat einen relativ hohen Launchpreis, breaking News. Da gabs schon ganz andere Kaliber.

Also die 680 war schneller sparsamer als die 580 und trotzdem nicht teurer. Super Leistung von nvidia werden sogar verteidigt. Bei AMD wurde eine riesen Welle geschoben wegen dem Preis und hier ist es auf einmal ok?

Schaffe89
2016-05-17, 17:47:45
Ich bin gespannt, wieviel Taktpotential wirklich noch im Chip steckt. CB spricht von Abstürzen ab 1828 Mhz Basistakt. 10% mehr Leistung durch OCing ist jedenfalls eher unterdurchschnittlich und das Gegenteil des von manchen erhofften OC-Wunders. Wird bei NV die Spannung mit mehr Takt automatisch erhöht, oder ist zu erwarten, dass mit mehr Spannung noch deutlich mehr geht?

Schraub nen anderen Kühler drauf und die Karte hat mehr Spielraum aufgrund des niedrigeren Verbrauchs.
Das Powertarget ist aber generell wieder eher ne Spaßbremse, schlimmer als bei der GTX 980 Referenz.
Nen Kühlerwechsel auf ner 800 Euro Karte will ich jetzt auch nicht machen und wenn AMD wie zu HD 4870 Release ne ähnlich schnelle Karte für 400 Öcken bringt, dann wird das für Nvidia ne Bauchlandung.

Ex3cut3r
2016-05-17, 17:47:54
Nur mal so am Rande:
Spannungen könnt Ihr draufgeben wie ihr wollt. Wenn das Power Target knapp erreicht ist, geht der Takt nun mal runter. Deshalb enden die ganzen Karten auch bei 2,1 GHz. Die 120% sind nicht ausreichend. ich war am Ende bei 206 Watt und konnte so zwischen 2088 und 2126 stabil halten. mehr war nicht drin, auch mit der zweiten Karte nicht. Boost 3.0 und der Arbitrator funktionieren diesmal etwas anders ;)

Ok, klar für 206 Watt ist die Leistung aber schon nicht schlecht, nicht das mich das wirklich interessieren wurde, was eine Graka verbraucht, aber mit 206 Watt schneller als eine Titan X @ 1500mhz mit 275? Watt, nicht schlecht.

Godmode
2016-05-17, 17:48:40
Aber 2,5GHz kann man sicher vergessen, stabil. Macht mit den 256Bit auch 0,0 Sinn und wäre eine reiner Strom Schleuder.

An die 2,5 GHz glaube ich auch nicht mehr. 2,2-2,3 könnten mit Mod-BIOS und anderer Platine wohl möglich sein.

maximus_hertus
2016-05-17, 17:49:59
Interessant wäre ja noch folgende OC-Benches:

Stockclock - gibt es ja zu hauf
+10% GPU / Stock VRAM
Stock GPU / +10% VRAM - gibt es ja schon
beides exakt +10%
+20% GPU / +10% VRAM

Es ist halt die Frage, ob die GPU mit über 2 GHz überhaupt skaliert oder dann komplett nur noch an der Speicherbandbreite hängt? Bei der GTX 980 gab es ja kein wirkliches Speicherbandbreitenproblem, von daher ist halt die Frage, ob ein Modbios, ggf. Wakü und ein wenig Glück wirklich deutlich helfen würden?

Angenommen ich schaffe z.B. 2400 MHz bei der GPU, aber bleibe bei 5600 MHz VRAM, was bleibt von dem GPU-OC übrig?

Edit: Sind dann u.U. Powertarget und Co. nicht wurscht, wenn der GDDR5X die Performance limitiert?

dildo4u
2016-05-17, 17:50:27
Durchgänig 2Ghz dürften kein Problem sein mit 250W Board und guter Kühlung,2.1 Ghz oder so braucht man für gute PR eh nich wichtig ist das die 2Ghz fallen,das ist aus psychologischer Sichtweise Gold wert.Wird massig Daus geben die Geld zu verbrennen haben ich erwarte massive Engpässe.

Sven77
2016-05-17, 17:50:38
Bei AMD wurde eine riesen Welle geschoben wegen dem Preis und hier ist es auf einmal ok?
ja