PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 1080: (P)Review-Thread (Zusammenfassung in Post 1)


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17

scully1234
2016-05-20, 18:09:16
Wenn eine 1070 bei 150W TDP "nur" Titan X-Performance erreicht, wird die 1080M kaum schneller sein. .

Kein Fake

http://rog.asus.com/23312016/

Allerdings enorm teuer und mit externer Wasserkuehlung

https://www.asus.com/de/ROG-Republic-Of-Gamers/ROG-GX700VO/

PHuV
2016-05-20, 18:11:07
Heute morgen ging in der Bucht wieder eine Titan X für etwas über 500€ weg.

http://www.ebay.de/itm/301958797941?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT
Das ist ja wirklich bitter. Nö, da behalte ich sie lieber und stecke sie in den Kinder-PC, weil 12 GB wird wohl die nächste Zeit keine andere Karte haben.

Loeschzwerg
2016-05-20, 18:19:06
Für mich hat sich die FE Edition damit erledigt. Was bringt es mir das Gerät zu modden wenn hinterher die Chips verkohlen.
Keine Ahnung was sich NV bei so einem Mist denkt :confused::mad:

Genau, weil NV auch sämtliche Ref.-Hardware für extrem OC auslegen muss... :crazy2:

@Dural: Das ist in erster Linie Kosten/Nutzen Optimierung. Wozu Bauteile verlöten die für den normalen Nutzer absolut unwichtig sind? Zudem würden die zusätzlichen Mosfets vermutlich die Effizienz verschlechtern.
Warum man dann das PCB nicht entsprechend anpasst? Um in der Entwicklung und evtl. im späteren Verlauf zusätzliche Optionen zu haben. Ein weiteres PCB würde schlichtweg unnötige Kosten generieren.

kruemelmonster
2016-05-20, 18:25:49
Suche gebrauchte GTX 980 für 200€ oder 980 Ti für 300€ :D

Klingt zur Zeit vllt übertrieben, aber da die alte GTX 670 noch läuft hab ich auch noch paar Monate Zeit.

Das ging ja doch weit schneller als gedacht, war der Preisverfall bei früheren Generationen auch schon so heftig :confused:
Das Angebot für eine 980 Non-Ti steht übrigens noch, Kumpel will seine 660 Non-Ti loswerden und braucht bang-for-the-buck.

BitJäger
2016-05-20, 19:35:53
Gamestar: Nvidia Geforce GTX 1080 - Übertakten auf 2,0 GHz leicht gemacht?

http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-1080/news-artikel/nvidia_geforce_gtx_1080,987,3272680.html

Mcdave
2016-05-20, 20:03:04
Das ging ja doch weit schneller als gedacht, war der Preisverfall bei früheren Generationen auch schon so heftig :confused:
Das Angebot für eine 980 Non-Ti steht übrigens noch, Kumpel will seine 660 Non-Ti loswerden und braucht bang-for-the-buck.

Das ist kein Angebot, sondern eher eine Unverschämtheit.
Dein Kumpel kann meine GTX 980 haben; ich werde sie zum angebotenen Preis etwa im Januar 2017 versenden. Lege auch noch 2 Tafeln Schweizer Schokolade bei, damit es noch etwas mehr "bangbuckt".

Anhand von 1-2 unglücklich verlaufenen Auktionen lässt sich nichts ableiten (und ob da wirklich etwas geliefert wird, steht auch noch in den Sternen).
Davon abgesehen ist die unglücklichste Karte tatsächlich die Titan. Die Preise, die dafür fällig sind, bewegen sich im Rahmen einer neuen 1080. Da dürften sich die allermeisten Gamer für die neue Technologie entscheiden.

yamo
2016-05-20, 20:11:17
Die 2 Titanen gingen auch über 1k weg. War witzig zu beobachten, wie Gier die Ratio in den letzten Sekunden besiegt.
Da ich noch andere Hobbies und damit Wertvergleiche habe, setze ich meine Prioritäten auch anders.

BitJäger
2016-05-20, 20:11:22
Das Titan X Doppelpaket ging für 1.105,00 weg ... inkl. Versand. Die beiden Titan X waren Neu

http://www.ebay.de/itm/252395808557?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

TurricanM3
2016-05-20, 20:16:51
Da wird doch eh nur wieder mit Fantasiezahlen geprahlt, die total "stable" sind (37 Sekunden im 3D Mark oder Unigine Schlagmichtot mit 2,1337 GHz, yeaaah). :freak:

MfG,
Raff


Ja schon klar. Trotzdem bin ich gespannt was so mit offenem PT möglich sein wird, wenn auch nur benchstable. Aktuell sind wir bei ~2.1XGHz.

Pixelmonk
2016-05-20, 20:30:33
Das Titan X Doppelpaket ging für 1.105,00 weg ... inkl. Versand. Die beiden Titan X waren Neu

http://www.ebay.de/itm/252395808557?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

An der Präsentation sollte der Verkäufer noch arbeiten.

Zwei Grafikkarten im Kofferraum eines Autos zu fotografieren, dass den Kratzern nach aussieht als ob es weniger wert ist als die beiden Karten, wirkt nicht grad seriös. Da möchte man wohl nicht so genau wissen wo die Karten herkommen. Der Verkäufer schreibt zwar dass eine Rechnung mitgeschickt werden kann, trotzdem wär' ich da skeptisch. Ich möchte dem Verkäufer aber nichts unterstellen.

Geächteter
2016-05-20, 20:31:47
wie so lassen die Hersteller auf ihren PCB eigentlich immer wieder welche Bautteile weg?

Die Teile müssten in der Menge doch nur wenige Cent kosten? daher denke ich nicht das es nur am Preis liegt?! Könnte es sein das man dadurch auch etwas Strom spart und somit Effizienter als mit einer dicken Strom Versorgung ist?
Vor allem wer kauft sich die FE, falls es nVidia erlaubt, dass die Customs gleich zu Beginn ne bessere leistungsfähigere Stromversorgung haben dürfen. Der DHE-Kühler kann ja nicht als Argument herhalten, wer SLi benutzen will oder sonst kaum Platz hat, setzt fast immer auf Wasserkühlung. Da bliebe also nur ein wirklich ganz kleiner Kleinstkäuferkreis übrig, der die Hitze nicht anders aus dem Gehäuse bekommt. Schlussendlich soll das noch mit die teuerste Lösung sein, die Customs oft billiger. Das ist alles so strange und ergibt überhaupt keinen Sinn. Und angeblich wäre ja laut nVidia in der Vergangenheit der Wunsch eines käuflichen Referenzdesigns von vielen Jüngern geäußert worden. :freak:
Die Referenzdesigns waren zwar solide, aber das betraf den Verbrauch und das so gut wie nicht vorhandene Spulenfiepen, da gabs ja bei paar Customlösungen den einen oder anderen Rohrkrepierer.

Schrotti
2016-05-20, 21:13:02
Das Titan X Doppelpaket ging für 1.105,00 weg ... inkl. Versand. Die beiden Titan X waren Neu

http://www.ebay.de/itm/252395808557?_trksid=p2060353.m1438.l2649&ssPageName=STRK%3AMEBIDX%3AIT

Ich habe meine beiden 980er noch für 900€ verkaufen können.

Ätznatron
2016-05-20, 21:44:20
Ich habe meine beiden 980er noch für 900€ verkaufen können.

Krass!

kdvd
2016-05-20, 21:55:07
Das ist ja wirklich bitter. Nö, da behalte ich sie lieber und stecke sie in den Kinder-PC

*Punkt*

:wink:

phoenix887
2016-05-20, 21:59:50
An der Präsentation sollte der Verkäufer noch arbeiten.

Zwei Grafikkarten im Kofferraum eines Autos zu fotografieren, dass den Kratzern nach aussieht als ob es weniger wert ist als die beiden Karten, wirkt nicht grad seriös. Da möchte man wohl nicht so genau wissen wo die Karten herkommen. Der Verkäufer schreibt zwar dass eine Rechnung mitgeschickt werden kann, trotzdem wär' ich da skeptisch. Ich möchte dem Verkäufer aber nichts unterstellen.

Ist mir vorhin nicht aufgefallen. Gut analysiert;D

Ätznatron
2016-05-20, 22:28:52
Ist mir vorhin nicht aufgefallen. Gut analysiert;D

Ja, und so völlig unterstellungsfrei.

(del)
2016-05-20, 23:37:10
Meine zwei privaten 980er Wasserfrösche habe ich vor 4 Monaten schon verkauft.
Und komme bitte keiner mit Insidergeschäften... :P

SLI ist tot. :D

scully1234
2016-05-20, 23:46:29
Sag sowas nicht es lebe SFR


Uebrigens

http://eu.evga.com/Products/Product.aspx?pn=08G-P4-6180-KR

und die 1070er im Chinaland


https://www.chiphell.com/thread-1589763-1-1.html

Das waeren 332 Euro fuer die GTX1070 sorry Reminbi als Waerung also 393 Euro

yamo
2016-05-20, 23:51:07
SFR? Schön wärs.

cR@b
2016-05-20, 23:51:59
SLI ist tot. :D

Jo wenn Sli nicht so ein Bullshit wäre, würde ich glatt ne zweite TX rein klatschen statt evtl. zur 1080er zu greifen.

Kartenlehrling
2016-05-20, 23:56:00
Wer verkauft den "seine" Grafikkarten aus dem Kofferraum seines Autos?
StanitzOK ? das heist doch Dörfer auf Russisch.

Kriegsgeier
2016-05-21, 06:42:57
Warum ist SLI tot?

-/\-CruNcher-/\-
2016-05-21, 08:16:51
Weil keiner wirklich diesen Aufwand tragen wird wollen das ganze ist schon komplex genug selbst Nvidia sieht das nun ein und empfiehlt vor allem zwecks VR und den Latenzen nur noch Maximum 2x SLI Kombination.

Sachen zu Parallelisieren auf mehrere GPUs verteilt das ist einfach enormer Aufwand die Latenzen steigen zudem immer weiter ins Bodenlose und so eine witzige Nvidia Brücken idee bringt da nix da müsste eine komplette Architektur wie bei den Konsolen geschafen werden.

Gouvernator
2016-05-21, 09:12:30
Weil keiner wirklich diesen Aufwand tragen wird wollen das ganze ist schon komplex genug selbst Nvidia sieht das nun ein und empfiehlt vor allem zwecks VR und den Latenzen nur noch Maximum 2x SLI Kombination.

Sachen zu Parallelisieren auf mehrere GPUs verteilt das ist einfach enormer Aufwand die Latenzen steigen zudem immer weiter ins Bodenlose und so eine witzige Nvidia Brücken idee bringt da nix da müsste eine komplette Architektur wie bei den Konsolen geschafen werden.
Also mich würde zum Beispiel noch quad SLI aus GTX1070 reizen. Mit 8Gb hat man endlich genug Vram für SLI-32xSSAA. Vorausgesetzt man spielt öfter DX9 Games.

(del)
2016-05-21, 09:15:27
Warum ist SLI tot?Leider läuft fast keines der aktuellen sogenannten AAA-Games wirklich befriedigend, wenn ein Multi-GPU Setup genutzt wird. Die Hälfte der Spiele in meiner Suite läuft nicht mit CF/SLI, bzw. nur so lala. Genau deswegen sind so alberne Karten wie die Radeon Pro Duo aussterbende Dinosaurier, denen man nun wirklich keine Träne nachweinen muss. Zu hungrig, zu heiß, zu viele Kompromísse

Kriegsgeier
2016-05-21, 09:23:29
Leider läuft fast keines der aktuellen sogenannten AAA-Games wirklich befriedigend, wenn ein Multi-GPU Setup genutzt wird. Die Hälfte der Spiele in meiner Suite läuft nicht mit CF/SLI, bzw. nur so lala. Genau deswegen sind so alberne Karten wie die Radeon Pro Duo aussterbende Dinosaurier, denen man nun wirklich keine Träne nachweinen muss. Zu hungrig, zu heiß, zu viele Kompromísse
Ich war aber sehr überrascht als ich die zweite 680 unter WaKü eingebaut habe. Witcher3 und GTA5 liefen plötzlich wirklich besser als mit einer!

grobi
2016-05-21, 09:23:34
Ich denke die GT 1080 wird schnell überholt sein. Da wird noch mit angezogener Handbremse gearbeitet. Es ist eine Performancekarte und mehr nicht. Alleine die Auslegung der Stromversorgung sagt alles.

HarryHirsch
2016-05-21, 09:41:37
Ich denke die GT 1080 wird schnell überholt sein. Da wird noch mit angezogener Handbremse gearbeitet. Es ist eine Performancekarte und mehr nicht. Alleine die Auslegung der Stromversorgung sagt alles.

ich denke auch das da noch mehr geht...

-/\-CruNcher-/\-
2016-05-21, 09:48:05
Leider läuft fast keines der aktuellen sogenannten AAA-Games wirklich befriedigend, wenn ein Multi-GPU Setup genutzt wird. Die Hälfte der Spiele in meiner Suite läuft nicht mit CF/SLI, bzw. nur so lala. Genau deswegen sind so alberne Karten wie die Radeon Pro Duo aussterbende Dinosaurier, denen man nun wirklich keine Träne nachweinen muss. Zu hungrig, zu heiß, zu viele Kompromísse

Sagen wir doch tacheless wie es ist du kannst den leuten High End OC und sonst was andrehen aber so verhunzte Balance auf so einem unoptimalen System wie dem PC, das kriegst du nicht verkauft mich wundert es eh das SLI so lange durchhalten konnte Hut ab an Nvidia so viele Junkies kreiert haben zu können die wirklich in over 2x PC Sli Systeme investiert haben.

Und man muss da Microsoft auch schon dank aussprechen diesen Consumer Wahnsinn endlich zu beenden und langsam ordentlich zu managen.

In manchen berreichen ist Lean Management doch ganz brauchbar, wenn man es nicht übertreibt und ordentlich Balanciert :)

(del)
2016-05-21, 10:18:53
Ich war aber sehr überrascht als ich die zweite 680 unter WaKü eingebaut habe. Witcher3 und GTA5 liefen plötzlich wirklich besser als mit einer!
Dann schau Dir mal die Frametimes an. Lieber spiele ich mit weniger FPS oder niedrigeren Settings, als so ein Hoppelhasen-Kino zu konsumieren. Falls Du gegen Ruckler immun bist, dann schätze Dich glücklich. Die Mehrzahl der Menschen ist es nämlich nicht. :)

HarryHirsch
2016-05-21, 10:21:50
Dann schau Dir mal die Frametimes an. Lieber spiele ich mit weniger FPS oder niedrigeren Settings, als so ein Hoppelhasen-Kino zu konsumieren. Falls Du gegen Ruckler immun bist, dann schätze Dich glücklich. Die Mehrzahl der Menschen ist es nämlich nicht. :)

nicht wenn er es schaft die fps ins vsync zu heben. ich spiele da:o z.b. lieber mit zwei als mit einer karte.

Botcruscher
2016-05-21, 11:11:18
Vsync ist ja auch eine Krankheit. Sync Monitor oder gleich abschalten.

woodsdog
2016-05-21, 11:37:02
so ein quatsch.

60 FPS vsync ist prima.

dargo
2016-05-21, 11:40:10
Klar... mit Inputlag zum Abwürgen.

woodsdog
2016-05-21, 11:51:35
Besser als Tearing ist es allemal. Außerdem kommt es ja wohl auch aufs Game an.
Pauschal als Krankheit abtun ist jedenfalls auch nicht sinnvoll. Pauschal als prima natürlich auch nicht.

hier impliziert ist selbstverständlich das kein *-Sync TFT zur Verfügung steht.

cR@b
2016-05-21, 11:53:22
Die Mehrzahl der Menschen ist es nämlich nicht. :)

Ehrlich gesagt glaube ich, dass es andersrum ist.

Klar... mit Inputlag zum Abwürgen.

Der Inputlag ist teilweise kaum spürbar... Habe jahrelang mit V-Sync gespielt und schlimmer war schon immer tearing für mich. Richtig heftigen Inputlag hatte ich damals nur in Doom³. V-Sync @ 60 fps ist in jedem Fall sehr gut spielbar, wobei ich keine 60Hz mehr spielen möchte :ugly:

Raspo
2016-05-21, 11:55:41
Leider läuft fast keines der aktuellen sogenannten AAA-Games wirklich befriedigend, wenn ein Multi-GPU Setup genutzt wird. Die Hälfte der Spiele in meiner Suite läuft nicht mit CF/SLI, bzw. nur so lala. Genau deswegen sind so alberne Karten wie die Radeon Pro Duo aussterbende Dinosaurier, denen man nun wirklich keine Träne nachweinen muss. Zu hungrig, zu heiß, zu viele Kompromísse

Naja, bei der Radeon Pro Duo ist die Ausrichtung ja eher nicht auf Gamer gerichtet. Von daher würde ich die hier ausnehmen.

dargo
2016-05-21, 12:15:23
Besser als Tearing ist es allemal. Außerdem kommt es ja wohl auch aufs Game an.

Natürlich... den einen stört das eine mehr, den anderen das andere. Ich habe mich zum Glück schon länger von dem Vsync-Mist dank VRR verabschiedet.


Der Inputlag ist teilweise kaum spürbar...
Na klar. :uconf3: Spiel mal BF4 im MP mit 60Hz und Vsync On. :freak:

BlacKi
2016-05-21, 12:33:53
Na klar. :uconf3: Spiel mal BF4 im MP mit 60Hz und Vsync On. :freak:
macht echt keinen spass und ist noch schlimmer wenn man 144fps kennt.

Lurtz
2016-05-21, 12:47:18
Vsync ist ja auch eine Krankheit. Sync Monitor oder gleich abschalten.
Tearing ist schlimmer.

cR@b
2016-05-21, 12:58:39
Na klar. :uconf3: Spiel mal BF4 im MP mit 60Hz und Vsync On. :freak:

Hab ich ne Zeit lang! Hat meiner K/D Rate in keinster Weise geschadet...

macht echt keinen spass und ist noch schlimmer wenn man 144fps kennt.

Der Unterschied von 60 zu 120/144 ist wirklich krass und mittlerweile kann ich keine 60 mehr spielen, weil das Bild einfach im Vergleich dazu zittert.

Lowkey
2016-05-21, 13:00:24
Wenn du vor einem Rechner mit 60hz und HDD sitzt, dann kommt du dir vor wie im Computer-Museum.

cR@b
2016-05-21, 13:10:37
Wenn du vor einem Rechner mit 60hz und HDD sitzt, dann kommt du dir vor wie im Computer-Museum.

Das stimmt allerdings! Dennoch würde mich fast sync interessieren (bekommt aber maxwell ja auch noch) leider nutze ich aber nur noch g-sync und auch das möchte ich nicht mehr missen. Ach die technologischen Fortschritte sind so :love2:

Gimmick
2016-05-21, 13:21:14
Mit wieviel FPS spielt ihr denn auf 144Hz? Drückt ihr die Details soweit runter bis ihr auch die 144fps habt?

TurricanM3
2016-05-21, 13:26:18
Bezogen auf BF4 habe ich einiges heruntergedreht. Ultra hat auch spielerisch große Nachteile, erkennst einfach weniger. Von der mangelnden Performance ganz zu schweigen. Ich brauche in BF4 min. 105fps, sonst fühlt es sich nicht mehr gut an oder ich ziele ungenauer (twitch aim klappt nicht mehr).

Darkman]I[
2016-05-21, 13:27:03
Also ich spiele mittlerweile mit 120 Hz und begrenze die Frames auf 60 im NVIDIA Inspector. Das ergibt bei maximalen Details eine sehr gute, flüssige Optik.

Gimmick
2016-05-21, 13:54:01
I[;11040086']Also ich spiele mittlerweile mit 120 Hz und begrenze die Frames auf 60 im NVIDIA Inspector. Das ergibt bei maximalen Details eine sehr gute, flüssige Optik.

Das dürfte aber kein Unterschied zu 60Hz/60fps sein ;)

Geächteter
2016-05-21, 14:33:06
Das dürfte aber kein Unterschied zu 60Hz/60fps sein ;)
Wenn er Ultra Low Motion Blur verwendet nicht, denn dann werden ja Zwischenbilder eingefügt (schwarz), weiterhin ist der Modus nur bei hohen Hz zu gebrauchen, da sonst zu dunkel. Augenscheinliches Tearing ohne Vsync/G-Sync ist ebenfalls weitaus gering bei hohen Hz. Früher als 75 Hz Standard waren, war Tearing wenig sichtbar mit gängigen Framerates, als dann 60 Hz kamen, zeriss einem regelmäßig das halbe Bild. Bei Doom3 konnte ich das zum ersten Mal feststellen damals.

Radeonfreak
2016-05-21, 14:39:16
Steht es denn jetzt fest das die Customs auch am 27. erscheinen? Wird in den nächsten Tagen vielleicht noch die eine oder andere vorgestellt?

Ich geb`s zu ich will nicht warten sonder am 27. auf den Bestellbutton drücken.

Notfalls halt ne FE. :freak:

BlacKi
2016-05-21, 14:47:59
format c meinte, das es genug customs nach dem release geben wird um den markt zu fluten, ob sie am direkt 27. kaufbar sind ist ungewiss.

horn 12
2016-05-21, 15:15:29
Für den ersten Andrang wird es reichen, aber dann wird wohl eine Durststrecke von einigen Wochen bleiben!
Zudem der Preis von etwa 640 bis gar 800 Euro bis weit in den Juli uns alltäglich begleiten.

Schnäppchenjäger
2016-05-21, 15:30:58
Das dürfte aber kein Unterschied zu 60Hz/60fps sein ;)
Doch, tut es immer. Hohe Hertz sind immer besser, weil das Bild automatisch flüssiger aussieht. Das mit den fps ist halt ideal, wenn die fps Anzahl nicht niedriger ist als der Hz wert, aber keineswegs ein Muss.
Sonst würden ja 144Hz bei Spielen mit krassen Hardwareanforderungen keinen Sinn machen :)

=Floi=
2016-05-21, 15:41:31
Für mich hat sich die FE Edition damit erledigt. Was bringt es mir das Gerät zu modden wenn hinterher die Chips verkohlen.
Keine Ahnung was sich NV bei so einem Mist denkt :confused::mad:


hauptsache wieder haten. hast du wirklich titan x performance für 450€ erwartet?
wacht mal auf.

just4FunTA
2016-05-21, 15:47:05
hauptsache wieder haten. hast du wirklich titan x performance für 450€ erwartet?
wacht mal auf.

450€? Die FE kostet 800€..

MiamiNice
2016-05-21, 15:47:17
Äh? Wie Titan X Performance für 450€ Tacken? Wo steht das? Haten? Ich würde für 800€ schon erwarten das das PCB voll bestückt ist, wenn es den eh vorgesehen ist. Ich meine über wieviel Geld für Baugeile sprechen wir hier? 50 Cent bei einer 800€ Karte?

€: Der Preis ist mir ziemlich Latte. Aber wenn ich schon einen 100i mehr für eine FE bezahle will ich auch nichts abgespecktes kaufen.

tdon
2016-05-21, 15:49:01
Gibt es Informationen über Verbesserungen des Hardware Encoders?

BlacKi
2016-05-21, 15:53:10
Äh? Wie Titan X Performance für 450€ Tacken? Wo steht das? Haten? Ich würde für 800€ schon erwarten das das PCB voll bestückt ist, wenn es den eh vorgesehen ist. Ich meine über wieviel Geld für Baugeile sprechen wir hier? 50 Cent bei einer 800€ Karte?

€: Der Preis ist mir ziemlich Latte. Aber wenn ich schon einen 100i mehr für eine FE bezahle will ich auch nichts abgespecktes kaufen.
es ist eine referenzkarte mit extra preiszuschlag. bleib mal auf dem teppich. es ist gang und gäbe nicht benötigte bauteile wegzulassen, das trifft viele karten, auch amd karten. referenzkarten waren noch nie dafür bekannt die beste stromversorgung für extremes OC bereitzustellen. was du suchst sind die custom modelle.

=Floi=
2016-05-21, 15:54:55
solche chips wurden mal als GTX 460 verkauft!
(dann kam noch die 560Ti)

das ist performance segment zum mondpreis und mit schönem namen.

BitJäger
2016-05-21, 15:59:39
hauptsache wieder haten. hast du wirklich titan x performance für 450€ erwartet?
wacht mal auf.

Z. Zt. kostet das noch 500€+, aber demnächst bekommt man(n) die bestimmt zu dem Preis gebraucht in der Bucht ;););)

Gimmick
2016-05-21, 16:19:24
Sry, wegen Offtopic.

Doch, tut es immer. Hohe Hertz sind immer besser, weil das Bild automatisch flüssiger aussieht. Das mit den fps ist halt ideal, wenn die fps Anzahl nicht niedriger ist als der Hz wert, aber keineswegs ein Muss.
Sonst würden ja 144Hz bei Spielen mit krassen Hardwareanforderungen keinen Sinn machen :)

Warum macht es einen Unterschied ob ich ein Bild 1/60 s anzeige oder 2/120 s?

Dass hohe Frequenzen bei unbeschränkten FPS einen Unterschied machen ist klar, aber in dem von Darkman]I[ genannten Fall sehe ich den Vorteil nicht.

Das von Geächteter erwähnte Ultra Low Motion Blur reduziert ja Motion Blur, so ganz will mir nicht einleuchten warum die Bewegung damit flüssiger erscheinen soll. Immerhin reduziert man ja damit den Informationsgehalt wirklich auf 60Hz.

BlacKi
2016-05-21, 16:27:39
Sry, wegen Offtopic.



Warum macht es einen Unterschied ob ich ein Bild 1/60 s anzeige oder 2/120 s?
tut´s auch nicht, aber dank 144hz kannst du vsync ausmachen ohne gleich krasses tearing zu "erleiden".

dildo4u
2016-05-21, 16:47:10
1440p Doom Gameplay@ 2GHZ


https://youtu.be/UsbJXzqtdb0

HarryHirsch
2016-05-21, 17:07:49
1440p Doom Gameplay@ 2GHZ


https://youtu.be/UsbJXzqtdb0

wie läuft das eigentlich auf amd? :freak:

Cubitus
2016-05-21, 17:13:01
1440p Doom Gameplay@ 2GHZ


https://youtu.be/UsbJXzqtdb0

Sage ich doch, Sweetspot ist bei 2560*1440, bzw. bei 3440*1440..

Ravenhearth
2016-05-21, 17:18:48
wie läuft das eigentlich auf amd? :freak:

Ganz normal: Laut PCGH erreicht in 1440p eine 270X die 670, die 380X erreicht die 780, die 390 erreicht die 970 und die Fury X wohl eine 980 Ti@stock, wenn sie die denn getestet hätten. Bei höheren Auflösungen (3440x1440 und 3840x2160) steht AMD noch etwas besser dar.

Die 1080 kann sich 10% von der getesteten 980 Ti OC absetzen, auch normal.

fondness
2016-05-21, 18:09:11
GeForce GTX 1080: Most Bizarre Secret Paper Launch Ever
http://www.hardocp.com/article/2016/05/18/geforce_gtx_1080_most_bizarre_secret_paper_launch_ever#.V0CH77634uU

Didn't we get promised 2.1GHz on air? Did early adopters just get told to pound sand? Now we have a Paper Launch from NVIDIA that just flew under the radar with hardly a notice? The GTX 1080 has generated more than a little conversation in the last couple weeks. I still have a couple of stories to tell and some editorializing to do.

-/\-CruNcher-/\-
2016-05-21, 18:22:48
Damit könnte er andeuten das sich Polaris schon im NDA Review state befindet und die 2 GHz defintiv nicht packt, oder aber er vermutet das AMD sich bald wundern wird was aber keinen logischen Sinn ergeben würde da er nicht wissen kann wie schnell Polaris ist ;)


Then I thought to myself, there were a bunch of guys and gals in Austin, TX wearing red shirts that just had a "Holy shit!" moment too, but that is another story to be told soon.

Das soon könnte man in seiiner Aussage und Kontext dann auf die küzliche Aussge des XFX Employes beziehen sprich 8 tage von seiner Aussage her noch bis das NDA vieleicht gelüftet wird allerdings wäre es komisch da AMD selbst mehr Details am 1 Juni ankündigen will mehr Details müsste dann eher der Release sein wenn die Reviewer schon testen sollten bzw bald die Hardware erhalten ;)

AnarchX
2016-05-21, 18:23:09
[...]I personally looked at that 2.1GHz 1080 clock and had a "Holy shit!" moment, as did a few others in the audience. Then I thought to myself, there were a bunch of guys and gals in Austin, TX wearing red shirts that just had a "Holy shit!" moment too, but that is another story to be told soon[...]

Kann man wohl sowohl positiv oder negativ auslegen...

Slipknot79
2016-05-21, 18:23:28
huch falscher thread :(

Lurtz
2016-05-21, 18:24:52
GeForce GTX 1080: Most Bizarre Secret Paper Launch Ever
http://www.hardocp.com/article/2016/05/18/geforce_gtx_1080_most_bizarre_secret_paper_launch_ever#.V0CH77634uU
That all said, this backstory on the 2.1GHz 1080 clock is one I wanted to share with you. It was not a rehearsed bullet point that NVIDIA wanted to highlight to you, but rather a bunch of engineers getting excited about what their baby could do. You may choose to cut NVIDIA some slack on this, or berate NVIDIA for shoddy messaging, but I truly feel that no one was trying to intentionally mislead us.
Die Ingenieure wieder ;D

Menace
2016-05-21, 18:26:28
Kann man wohl sowohl positiv oder negativ auslegen...

Ich finde eindeutig negativ für AMD (dabei treten sei ja gar nicht in Konkurrenz zu 1080 (yet).

-/\-CruNcher-/\-
2016-05-21, 18:43:18
Richtig erkannt von daher wäre seine Aussage noch komischer wenn er als "experte" die Karte die er (angenommen) gerade testet mit der 1080 vergleicht vom Maximum takt.

Ätznatron
2016-05-21, 18:45:54
Ich finde eindeutig negativ für AMD (dabei treten sei ja gar nicht in Konkurrenz zu 1080 (yet).

Hm, so eindeutig sehe ich das nicht.

Denn weiter im Text schreibt er:

Once I got past the excitement of it all, I had a flashback sitting there thinking of Intel's promise of 5GHz on air a couple years ago. And while Jen-Hsun did not promise us anything, he certainly fueled our expectations.

Und dann testet er seine Referenzkarte

You can see exactly how our 1080 FE card's clocks responded under real world usage at fully stock settings on this page (http://hardocp.com/article/2016/05/17/nvidia_geforce_gtx_1080_founders_edition_review/5).

und das Resultat ist weit entfernt von den 2.1 GHz.

-/\-CruNcher-/\-
2016-05-21, 18:49:38
Eh das hat doch schon PCGH schön gezeigt was man überhaupt auf ihre Samples draufbauen muss um die 2.1 einigermasen Stabil zu erreichen und auch Igor hats nur irgendwo mit 100% Fan irgendwo in die Richtung gepackt ;)

Auch die ganzen Load Messungen zeigen das die 2.1 Stabil mit der Karte eher ein Traum sind je nach Workload sogar weit unten drunter ;)

Und die getesten Workloads sind doch alle noch dazu pille palle

Ätznatron
2016-05-21, 18:56:22
Du meinst also, er möchte AMD ans Bein pinkeln?

aths
2016-05-21, 19:00:41
Also in meinem Umfeld kann man absolut niemanden beeindrucken wenn man eine Titan X besitzt da würde eben auch eher wie vorher schon geschrieben ein fetter starker BMW (beliebige Mitteklasse einfügbar) eindruck machen.Ich kaufe die Hardware für mich.
In meinem Posting ging es um Foren oder anderweitig am Thema interessierte Leute, nicht um Kollegen oder Bekannte.

-/\-CruNcher-/\-
2016-05-21, 19:01:03
Nö ich frage mich nur ob sich Polaris schon im Review state befindet und die Aussage AMDs sich nicht nur auf Informationen sondern ein Launch Event beziehen und warum sie es nicht so bennenen würden.

aths
2016-05-21, 19:15:10
solche chips wurden mal als GTX 460 verkauft!
(dann kam noch die 560Ti)

das ist performance segment zum mondpreis und mit schönem namen.
Das ist eine Betrachtungsweise. Allerdings hat NV das schon immer so gemacht, anfangs vor allem über Taktraten (TNT, TNT2) später noch mit (oft allerdings eher kleinen) Architekturverbesserungen, bis sich dann (außer bei NV30 und GF100) durchgesetzt hat, eine Version mit schlicht verbreiterter Architektur nachzuschieben.

Keiner hätte bei der GeForce 6800 von einer Performance-Karte gesprochen obwohl klar war, dass eine 7800 kommen wird.

Menace
2016-05-21, 19:22:34
Hm, so eindeutig sehe ich das nicht.

Du meinst also, er möchte AMD ans Bein pinkeln?

Genau das ist meine Ansicht. Wenn die AMD Jungs bei dem Ergebnis von nvidia "Holy Shit" sagen, dann bestimmt nicht deshalb, weil ihr Karte ähnliche Übertaktungsreserven hat, sondern weil sie -wie der Schreiber- ebenso überrascht wurden.

-/\-CruNcher-/\-
2016-05-21, 19:37:39
Das ist wohl Logisch aber das ist es ja gerade wie kann er davon ausgehen wenn er garnichts von Polaris taktraten weiss das die gerade Holy-Shit denken,ergo er könnte irgendwas wissen oder denkt einfach nur er ist der Zampano und denkt zu wissen das AMD das nie erreichen wird ;)

Wenn ich Seriös bin ohne Daten mache ich so eine Aussage einfach nicht es sei den ich weiss wirklich etwas, die Frage stellt sich dann woher könnte er es wissen da bleiben dann nur 2 möglichkeiten NDA (Daten aus einem gerade laufenden NDA Review) oder Verbindungen ;)

Das ist auch interessant wenn es jetzt generel so abläuft ;)

Hell I guess the whole thing is getting confusing even to me. Now we have an "announcement" date, a "review" date, and a "launch" date?

Sprich das anfixen date, das vermarktungs date und das verkaufs date ;)

Innerhalb der Zeit von Anfixen und Vermarktung scheint man sich noch das Feedback anzuschauen das generiert wird von der Cloud um vielleicht noch kurzfristige Entscheidungen Planen und umsetzen zu können an hand der Reaktionen.

TheGood
2016-05-21, 21:00:00
Ich denke die GT 1080 wird schnell überholt sein. Da wird noch mit angezogener Handbremse gearbeitet. Es ist eine Performancekarte und mehr nicht. Alleine die Auslegung der Stromversorgung sagt alles.

Die Graka ist auf "SPeed" und wir wissen ja wie lange so hochgepeitschte Dinge wirken... Schaun wir mal wie gut die Kunden diesesmal gemolken werden. Wobei man ja sagen muss, dass Sie geradezu gemolken werden wollen!

(del)
2016-05-21, 21:18:50
und auch Igor hats nur irgendwo mit 100% Fan irgendwo in die Richtung gepackt ;)
...Und die getesten Workloads sind doch alle noch dazu pille palle

Immerhin 2088 bis 2126 MHz in Metro LL in 4K, das ist durchaus ein gescheiter Workload ;)
Taktschwankung wegen des PT, leider (stand schon auf 120%)

aths
2016-05-21, 21:26:17
Die Graka ist auf "SPeed" und wir wissen ja wie lange so hochgepeitschte Dinge wirken... Schaun wir mal wie gut die Kunden diesesmal gemolken werden. Wobei man ja sagen muss, dass Sie geradezu gemolken werden wollen!
Manchmal ist sie auf Speed, dann wieder arbeitet sie mit angezogener Handbremse ... werdet euch doch mal einig :D

=Floi=
2016-05-21, 21:32:36
Das ist eine Betrachtungsweise. Allerdings hat NV das schon immer so gemacht, anfangs vor allem über Taktraten (TNT, TNT2) später noch mit (oft allerdings eher kleinen) Architekturverbesserungen, bis sich dann (außer bei NV30 und GF100) durchgesetzt hat, eine Version mit schlicht verbreiterter Architektur nachzuschieben.

Keiner hätte bei der GeForce 6800 von einer Performance-Karte gesprochen obwohl klar war, dass eine 7800 kommen wird.

du verstehst mich total falsch! WTF! So ein post ausgerechnet von dir.

früher kam der große chip immer am anfang. Das ist jetzt anders und auch nicht relevant.
Es geht um die ganze baureihe und da war/ist der 104er chip einfach der kleine performance chip, welcher die performance der alten generation erreicht und immer für den mittleren geldbeutel war. früher hies der mal X60 und jeder wusste für welche leute und welches segment der chip war. die freaks haben dann auf den großen chip gewartet.
Mehr ist der 104er chip auch heute nicht! Das ist ein golf (R) und kein 5er bmw.

horn 12
2016-05-21, 21:55:50
Zum Schluss macht AMD am 01. Juni noch einen Hardlaunch und bringt die Polaris Karten somit noch vor Nvidia in den Endkundenmarkt.

Wünschenswert wäre es Ihnen, sprich AMD allemal :-)

TheGood
2016-05-21, 22:01:57
Manchmal ist sie auf Speed, dann wieder arbeitet sie mit angezogener Handbremse ... werdet euch doch mal einig :D
:) Passt doch zusammen auf "Speed" zu sein heisst ja am Ende am Limit und in dem fall limitiert halt der Speicher ;)

BlacKi
2016-05-21, 23:16:41
Zum Schluss macht AMD am 01. Juni noch einen Hardlaunch und bringt die Polaris Karten somit noch vor Nvidia in den Endkundenmarkt.

Wünschenswert wäre es Ihnen, sprich AMD allemal :-)
sind dir die ausrufezeichen ausgegangen?

sry für ot.


wer zuerst draussen ist spielt für mich keine rolle, btw: hardlaunch für die 1080 ist der 27. mai.

interessant wirds aber allemal.

Schnäppchenjäger
2016-05-22, 00:24:37
Sry, wegen Offtopic.



Warum macht es einen Unterschied ob ich ein Bild 1/60 s anzeige oder 2/120 s?

Dass hohe Frequenzen bei unbeschränkten FPS einen Unterschied machen ist klar, aber in dem von Darkman]I[ genannten Fall sehe ich den Vorteil nicht.

Das von Geächteter erwähnte Ultra Low Motion Blur reduziert ja Motion Blur, so ganz will mir nicht einleuchten warum die Bewegung damit flüssiger erscheinen soll. Immerhin reduziert man ja damit den Informationsgehalt wirklich auf 60Hz.
Doch tut es, es ist egal wie dabei die Bildrate ist. Selbst 80-90 FPS sehen schon um einiges besser bei 144Hz aus als 60fps.
Selbst die PC Games Hardware hat das letztens gesagt.
Es ist einfach flüssiger

BlacKi
2016-05-22, 00:35:35
Doch tut es, es ist egal wie dabei die Bildrate ist. Selbst 80-90 FPS sehen schon um einiges besser bei 144Hz aus als 60fps.
Selbst die PC Games Hardware hat das letztens gesagt.
Es ist einfach flüssiger
wenn ich das richt verstanden habe hat er nach vsync 60hz bei 60fps vs vsync 120hz bei 60fps gefragt. klar bei 80-90 ist ein unterschied vorhanden aber nicht bis zu 60 fps. unter 60fps verhält sich ein 144hz display ebenfalls wie ein 60hz display wenn vsync aktiviert ist.

-=Popeye=-
2016-05-22, 00:53:27
Hä? Darkman hat nur geschrieben das er die maxFPS auf seinem 120Hz Monitor auf 60 limitiert hat. Was das jetzt mit VSync zutun hat erschliesst sich mir nicht ganz.

Troyan
2016-05-22, 00:57:16
Das NDA für Custom-Karten wird wohl ebenfalls am Freitag ablaufen: http://www.evga.com/precisionxoc/

BlacKi
2016-05-22, 01:09:47
Hä? Darkman hat nur geschrieben das er die maxFPS auf seinem 120Hz Monitor auf 60 limitiert hat. Was das jetzt mit VSync zutun hat erschliesst sich mir nicht ganz.
ziemlich einfach, vorher ging es um vysnc, und dann kam darkman, verm. ohne vsync weil sonst die 120 hz keinen sinn machen würden.

Schrotti
2016-05-22, 01:20:12
Ich hoffe das ich eine erwische die gut geht.

Wakü rauf und dann lass brennen.

Geächteter
2016-05-22, 01:33:03
Das von Geächteter erwähnte Ultra Low Motion Blur reduziert ja Motion Blur, so ganz will mir nicht einleuchten warum die Bewegung damit flüssiger erscheinen soll. Immerhin reduziert man ja damit den Informationsgehalt wirklich auf 60Hz.
Ne, ich meinte damit nur, mit mehr Hz, also auch mehr eingefügten Schwarzbildern, ist der Effekt der Reduzierung des Motion Blurs größer als mit kleinen Hz, auch wenn die Framerate der Graka deutlich drunter liegt.

cR@b
2016-05-22, 02:36:51
Ne, ich meinte damit nur, mit mehr Hz, also auch mehr eingefügten Schwarzbildern, ist der Effekt der Reduzierung des Motion Blurs größer als mit kleinen Hz, auch wenn die Framerate der Graka deutlich drunter liegt.

Jo aber ohne ULMB wäre das absolut sinnfrei... die Frage ist ob er es nun nutzt oder nicht?

@Troyan

Glaube das bezieht sich doch nur ausschließlich auf ihr neues Tool, nicht auf ihre Custom Karten. Sicherlich werden die bald folgen aber hier in Deutschland bezweifel ich.

Troyan
2016-05-22, 02:46:00
Naja, die einzelnen Versionsnamen sind nicht ohne Grund dort enthalten. ;)

cR@b
2016-05-22, 02:50:24
Ja aber sieht mir eher nach Werbung für ihre generellen Produkte aus ;) Marketing und so :ugly:

aths
2016-05-22, 03:39:36
du verstehst mich total falsch! WTF! So ein post ausgerechnet von dir.

früher kam der große chip immer am anfang. Das ist jetzt anders und auch nicht relevant.
Es geht um die ganze baureihe und da war/ist der 104er chip einfach der kleine performance chip, welcher die performance der alten generation erreicht und immer für den mittleren geldbeutel war. früher hies der mal X60 und jeder wusste für welche leute und welches segment der chip war. die freaks haben dann auf den großen chip gewartet.
Mehr ist der 104er chip auch heute nicht! Das ist ein golf (R) und kein 5er bmw.
Die alten 60-er (oder 600-er) haben das vorherige High-End nur knapp überflügelt (7600 GT 5-10% schneller als 6800 Ultra, 8600 GTS rund 10% langsamer als 7950 GTX, aber vergleichbar schnell wie 7950 GT.) Selbst die 460 ist nur in Einzelfällen schneller als eine 280 oder 285 (die 460 war allerdings erheblich günstiger.)

Die 680 war immerhin rund 30% schneller als die 580. Die GTX 980 allerdings nur unwesentlich schneller als eine 780 Ti. Obwohl ein Hunderter im Namen übersprungen wurde gab es keinen richtigen Fortschritt.

Früher kam ein großer Chip am Anfang, dann kleinere Chipversionen und dann oft ebenfalls ein noch größerer Chip. Das ist heute auch noch so, wobei die Performance-Sprünge heute kleiner ausfallen und Nvidia seit etlichen Produktgenerationen bewusst nicht mehr mit dem direkten Vorgänger vergleicht, sondern den Vor-Vorgänger nimmt, damit auf dem Papier der Sprung größer aussieht. Da arbeiten Marketing-Experten, die Endkunden und technischen Redakteuren bewusst Sand in die Augen streuen und es hinkriegen, dass das Auseinander-Gefitzel von den Marketing-Papieren umständlich ist.

Die 660 Ti hat eine 580 genatzt (5% Mehrleistung für weniger Geld.) Dein Argument trifft aber zu, dass sich nach alter Tradition eine 760 mit der 680 hätte messen müssen (760 ist aber 15-20% langsamer) oder eine 960 mit der 780 (lol, die 960 ist 30-35% langsamer.) Hier bringt Nvidia das alte Schema der 60-er/600-er durcheinander und sonnt sich im Lichte von alten Erfolgen die aber inzwischen seit Jahren nicht mehr erbracht werden. Das Namensschema hat sich geändert, die 80 ohne Ti ist die neue 60. Da stimme ich dir zu. Dass eine stärkere Version mit der gleichen Architektur von Beginn fest eingeplant ist, ist allerdings nichts neues.

BlacKi
2016-05-22, 04:43:02
Die 680 war immerhin rund 30% schneller als die 580. Die GTX 980 allerdings nur unwesentlich schneller als eine 780 Ti. Obwohl ein Hunderter im Namen übersprungen wurde gab es keinen richtigen Fortschritt.
lol, ich fand den sprung von 780ti auf 980 richtig krass, da beides in 28nm gefertigt wurde. man weiß zwar warum,HPC ballast und die die fläche ist auch gestiegen, aber trotzdem, aus gamer hinsicht echt top, klar das NV seinen vorsprung dadurch weiter ausbauen konnte.

Ramsay
2016-05-22, 05:42:49
Wie wird wohl eine 1060 (auf 1080p) performen? Details auf High (Ultra ist ja inzwischen das Maximum) und dann 60fps min? Wäre wohl ein Preisbrecher für 300€.

Lurtz
2016-05-22, 08:44:10
Wie wird wohl eine 1060 (auf 1080p) performen? Details auf High (Ultra ist ja inzwischen das Maximum) und dann 60fps min? Wäre wohl ein Preisbrecher für 300€.
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.

Cubitus
2016-05-22, 08:44:40
Zum Schluss macht AMD am 01. Juni noch einen Hardlaunch und bringt die Polaris Karten somit noch vor Nvidia in den Endkundenmarkt.

Wünschenswert wäre es Ihnen, sprich AMD allemal :-)


Was ich mir von AMD wünschen würde.
Polaris positioniert sich zwischen der 1070 und 1080 und wäre preislich gleich bzw. sogar noch etwas günstiger als die 1070..

Das würde Nvidia massiv in Bedrängnis bringen :D

Das heißt Preis, für die 1070 runter + Preis für die 1080 anpassen.
Und Enthusiast kommt schneller und zu gewohnten Preisen..

-/\-CruNcher-/\-
2016-05-22, 09:23:50
Die alten 60-er (oder 600-er) haben das vorherige High-End nur knapp überflügelt (7600 GT 5-10% schneller als 6800 Ultra, 8600 GTS rund 10% langsamer als 7950 GTX, aber vergleichbar schnell wie 7950 GT.) Selbst die 460 ist nur in Einzelfällen schneller als eine 280 oder 285 (die 460 war allerdings erheblich günstiger.)

Die 680 war immerhin rund 30% schneller als die 580. Die GTX 980 allerdings nur unwesentlich schneller als eine 780 Ti. Obwohl ein Hunderter im Namen übersprungen wurde gab es keinen richtigen Fortschritt.

Früher kam ein großer Chip am Anfang, dann kleinere Chipversionen und dann oft ebenfalls ein noch größerer Chip. Das ist heute auch noch so, wobei die Performance-Sprünge heute kleiner ausfallen und Nvidia seit etlichen Produktgenerationen bewusst nicht mehr mit dem direkten Vorgänger vergleicht, sondern den Vor-Vorgänger nimmt, damit auf dem Papier der Sprung größer aussieht. Da arbeiten Marketing-Experten, die Endkunden und technischen Redakteuren bewusst Sand in die Augen streuen und es hinkriegen, dass das Auseinander-Gefitzel von den Marketing-Papieren umständlich ist.

Die 660 Ti hat eine 580 genatzt (5% Mehrleistung für weniger Geld.) Dein Argument trifft aber zu, dass sich nach alter Tradition eine 760 mit der 680 hätte messen müssen (760 ist aber 15-20% langsamer) oder eine 960 mit der 780 (lol, die 960 ist 30-35% langsamer.) Hier bringt Nvidia das alte Schema der 60-er/600-er durcheinander und sonnt sich im Lichte von alten Erfolgen die aber inzwischen seit Jahren nicht mehr erbracht werden. Das Namensschema hat sich geändert, die 80 ohne Ti ist die neue 60. Da stimme ich dir zu. Dass eine stärkere Version mit der gleichen Architektur von Beginn fest eingeplant ist, ist allerdings nichts neues.


Die GTX 980 allerdings nur unwesentlich schneller als eine 780 Ti. Obwohl ein Hunderter im Namen übersprungen wurde gab es keinen richtigen Fortschritt.

Doch gab es der Fortschritt aus dem anhaltenden Tegra Research sprich die extreme Effiziensteigerung des Maxswell kerns unter selbst 28 nm.

Und genau das hat Petersen auch in dem Interview mit der PCGH für die GTX 750 allen versucht damals klar zu machen eben das Nvidia noch nicht weiss in welche Richtung sie gehen werden (es war aber selbst dem Carsten offensichtlich wohin die Reise gehen wird) ;)
Die Frage war wird die Effizienzsteigerung in Energie oder Leistung umgemünzt und wir sehen ja welchen Weg Nvidia geht mehr in die Effizienz und ein wenig in die Leistung, ;)

Zudem darfst du nicht vergessen das Maxwell mehr Leistung in Nvidias Voxel Workflows hat als wie Kepler in deinem angeführten beispiel also doch z.b bei VXGI ordentlich mehr verliert.

Nur die Workflows wurden damals komplet falsch getestet von den Reviewern ;)

Vor Kepler/Maxwell war es Nvidia auf Deutsch ziemlich scheiss egal wie der Power Output aussieht mit Tegra hat sich das denken aber grundlegend verändert bei Nvidia, zumal Tegra Nvidia und den Investoren verdamt viel abverlangt hat ;)

Die GTX 460 lag noch bei ca 280 € die GTX 970 war mit 350 € noch ein schnäpchen mit der 104 Chip und Leistungs Serie, egal ich werde mein Persönliches budget nicht nochmal anpassen und mich als gelegentlich updater trifft die ganze Problematik nicht wirklich meine investitionen haben sich ja bereits amortesiert und das Upgrade auf die 1070 wäre so gesehen auch eine Option, immerhin bekomme ich für ziemlich den gleichen Power Output ordentlich mehr Performance die dann gut für VXGI z.b pro Frame investiert werden könnte.

Aber es sieht diesmal gut für einen AMD Ökosystemwechsel aus sollte der Preis stimmen und das gesammtpacket diesmal überzeugen :)

Tobe1701
2016-05-22, 09:57:53
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.
This! Wenn nur G-Sync mal breiter im Markt wäre. Ich seh mich schon ~700€ in nen Pascal stecken und immer noch in FHD spielen :(

MasterElwood
2016-05-22, 10:01:44
Frage an die Experten:

Ab welcher CPU ist eine 1080er ZU schnell = bremst die CPU aus?

Kommt ein E3-1230 V2 mit einer 1080er überhaupt noch vernünftig mit - oder ist dann eine 1070er die "vernünftigere" Karte? (1440p & VR)

BitJäger
2016-05-22, 10:25:18
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.


Laut einer aktuellen umfrage von Gamestar zocken über 66% in FullHD. Somit ist jeder Hersteller gut beraten sich auf diese Auflösung zu fokusieren.

http://www.gamestar.de/index.cfm?pid=842&pk=19917

dildo4u
2016-05-22, 10:28:57
Frage an die Experten:

Ab welcher CPU ist eine 1080er ZU schnell = bremst die CPU aus?

Kommt ein E3-1230 V2 mit einer 1080er überhaupt noch vernünftig mit - oder ist dann eine 1070er die "vernünftigere" Karte? (1440p & VR)

Kommt wie immer extrem aufs Game an DX11 Open World Games wie Far Cry 4 und GTA5 sind massiv CPU limitiert.DX12 und Vulkan sollte in Zukunft,die CPU bei solchen Games deutlich entlasten.Für 1440p kann sich die 1080 lohnen,ein krasses Beispiel wäre The Division was extrem GPU lastig ist.Eine OC 980 Ti packt keine 60fps locked.

http://abload.de/img/divionzmuhb.png

http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

scully1234
2016-05-22, 10:29:49
Ab welcher CPU ist eine 1080er ZU schnell = bremst die CPU aus?



Das haengt von soviel Variablen ab (Mutlithread Eigenschaften der Grafikengine, gewaehlte Aufloesung und AA Samples ec pp), das man das nicht fest machen kann , am Prozessortyp und Takt allein

Generel wuerde ich auf VR bezogen davon ausgehen ,das du weniger ins CPU Limit laeufst, als mit selbiger CPU im selben Spiel bei FHD

-/\-CruNcher-/\-
2016-05-22, 10:32:33
Laut einer aktuellen umfrage von Gamestar zocken über 66% in FullHD. Somit ist jeder Hersteller gut beraten sich auf diese Auflösung zu fokusieren.

http://www.gamestar.de/index.cfm?pid=842&pk=19917


Weill Full HD gut ausgenutzt wird mittlerweile durch Supersampling und Co :)

Kommt wie immer extrem aufs Game an DX11 Open World Games wie Far Cry 4 und GTA5 sind massiv CPU limitiert.DX12 und Vulkan sollte in Zukunft,die CPU bei solchen Games deutlich entlasten.Für 1440p kann sich die 1080 lohnen,ein krasses Beispiel wäre The Division was extrem GPU lastig ist.Eine OC 980 Ti packt keine 60fps locked.

http://abload.de/img/divionzmuhb.png

http://www.pcgameshardware.de/The-Division-Spiel-37399/Specials/PC-Benchmarks-1188384/

Bei the Division spielen 2 parts eine Mega Rolle Nvidias Raytraced Shadows und Ubisofts Inhouse GI ;)

Lurtz
2016-05-22, 10:57:32
Laut einer aktuellen umfrage von Gamestar zocken über 66% in FullHD. Somit ist jeder Hersteller gut beraten sich auf diese Auflösung zu fokusieren.

http://www.gamestar.de/index.cfm?pid=842&pk=19917
Das ist ein Henne-Ei-Problem.
Gegen Fokusierung hat auch niemand was, aber wenn Konsolenportierungen und kleine Indieschuppen 4k besser unterstützen als große PC-Entwickler wie The Creative Assembly, läuft was falsch und das gehört mittlerweile auch mal von Magazinen wie Gamestar und Co. angeprangert.

Schrotti
2016-05-22, 11:02:27
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.

Sehe ich genauso.

Wofür immer mehr VRAM wenn der Großteil immer noch in FULL HD rum gammelt.
Dafür reichen dann auch 2GB VRAM der GTX 680 vollkommen aus.

Ätznatron
2016-05-22, 12:05:43
Sehe ich genauso.

Wofür immer mehr VRAM wenn der Großteil immer noch in FULL HD rum gammelt.
Dafür reichen dann auch 2GB VRAM der GTX 680 vollkommen aus.

Was genau bitte hat die Auflösung mit der Speichermenge zu tun?

Und nein, 2 GB reichen schon lange nicht mehr. Auch nicht in FHD.

sulak
2016-05-22, 12:06:39
Frage an die Experten:

Ab welcher CPU ist eine 1080er ZU schnell = bremst die CPU aus?

Kommt ein E3-1230 V2 mit einer 1080er überhaupt noch vernünftig mit - oder ist dann eine 1070er die "vernünftigere" Karte? (1440p & VR)

Bei Computerbase hat man ein paar Beispiele gemacht:
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/8/

Wer jedoch seinen K Prozessor nicht übertaktet ist selbst schuld... Jeder Sandy/Ivy fährt +4GHz aus dem Stand. Daher sind die Abstände nicht ganz so groß für die meisten.
Da du einen Xeon hast, der zwar HT und etwas mehr Cache hat, aber weniger Takt, sind die Benchmark Werte quasi 1:1 auf dich übertragbar.

Radeonfreak
2016-05-22, 12:06:43
Bei Rise of the Tomb Raider reichts bei mir mit Very High Texturen nicht mal mehr mit 4GB.

MasterElwood
2016-05-22, 12:07:52
Das haengt von soviel Variablen ab (Mutlithread Eigenschaften der Grafikengine, gewaehlte Aufloesung und AA Samples ec pp), das man das nicht fest machen kann , am Prozessortyp und Takt allein

Generel wuerde ich auf VR bezogen davon ausgehen ,das du weniger ins CPU Limit laeufst, als mit selbiger CPU im selben Spiel bei FHD

@scully1234 @dildo4u @sulak

Hmmm... nur bei EINIGEN Games ein Vorteil wäre ja auch noch was - wenn es die RICHTIGEN sind.

Wie sieht es denn bei Elite: Dangerous aus? Weil das wird "ED in VR" wird wohl 80 Prozent meiner Gaming Zeit ausmachen - und von den Anforderungen her haut das Ding ja MÄCHTIGST rein. :eek:

Weis man was von der Cobra-Engine? GPU oder CPU Limit? 1080er mit 1230 ja/nein?

Gimmick
2016-05-22, 12:12:08
Sehe ich genauso.

Wofür immer mehr VRAM wenn der Großteil immer noch in FULL HD rum gammelt.
Dafür reichen dann auch 2GB VRAM der GTX 680 vollkommen aus.

Für 1080p braucht man halt keine teure GPU und niedrige FPS will man ohne GSync/FreeSync nicht haben.
Mit einem GSync/FreeSync Monitor bindet man sich aber momentan auch noch einen GPU Hersteller.

Und man kann nicht mal von UHD auf FHD in der Auflösung wechseln ohne, dass das Bild unscharf wird, obwohl hier eigentlich pixelgenau abgebildet werden kann.

Für mich ist Monitorkauf momentan immer ein unangenehmer Kompromiss weshalb ich im Wartemodus bleibe :redface:

Hübie
2016-05-22, 12:15:36
Geht mir genau so, Gimmick. So lang wie ich unangenehme Kompromisse machen muss und mein Monitor gut läuft, warte ich. Gibt ja DSR, SSAA und Downsampling. Ist ja nicht so dass man sich mit Full HD abgeben muss.

ChaosTM
2016-05-22, 12:41:06
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.

Da hast du völlig recht.
Speziell Steam ist auf einem 4k Monitor immer noch eine Zumutung.

edit.:
Ich verbringe 85% der Zeit am Desktop und daher war 4k die bessere Wahl.

uweskw
2016-05-22, 12:49:53
Bei Computerbase hat man ein paar Beispiele gemacht:
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/8/

Wer jedoch seinen K Prozessor nicht übertaktet ist selbst schuld... Jeder Sandy/Ivy fährt +4GHz aus dem Stand. Daher sind die Abstände nicht ganz so groß für die meisten.
Da du einen Xeon hast, der zwar HT und etwas mehr Cache hat, aber weniger Takt, sind die Benchmark Werte quasi 1:1 auf dich übertragbar.

wenn ich das richtig interpretiere, dann bin ich selbst in diesem worts-case (XCOM 2) Spiel mit einem ollen k2500 @4500 Megaherz nur 10% unter einem übertakteten aktuellen High-End Prozessor ?!
Spielt da der verwendete Speicher auch noch mal eine Rolle?

Greetz
US

Mr.Magic
2016-05-22, 13:08:36
wenn ich das richtig interpretiere, dann bin ich selbst in diesem worts-case (XCOM 2) Spiel mit einem ollen k2500 @4500 Megaherz nur 10% unter einem übertakteten aktuellen High-End Prozessor ?!
Spielt da der verwendete Speicher auch noch mal eine Rolle?

Greetz
US

Speicher von 1333Mhz 1600Mhz auf 2133Mhz aufrüsten bringt beim 4,5Ghz 4.6Ghz 2500k bis zu 20% mehr FPS und glättere Frametimes.

https://www.youtube.com/watch?v=frNjT5R5XI4

Ex3cut3r
2016-05-22, 13:34:41
Nochmal zu 1080p vs höhere Auflösungen. Bin nach 5 Jahren 27" 1080p Tn mit 120hz auf einen 34" 21:9, 3440x1440 VA gewechselt, und die schärfe die ich jetzt in Games auf der ollen GTX 770 sehe(warte auf die 1080) haut mich aus den Socken, da kommt kein DS, SSAA usw dran. Nativ ist Nativ ;)

uweskw
2016-05-22, 13:37:18
Ich kann leider nicht finden mit welchem Speicher die K2500 Benches bei Computerbase ausgeführt wurden. DDR3? DDR4 2133 MHz?

greetz
US

Kriton
2016-05-22, 13:44:14
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.

4k, 144 Hz und Freesync, dann rüste ich meinen Monitor auf.

MasterElwood
2016-05-22, 13:46:58
Speicher von 1333Mhz 1600Mhz auf 2133Mhz aufrüsten bringt beim 4,5Ghz 4.6Ghz 2500k bis zu 20% mehr FPS und glättere Frametimes.

https://www.youtube.com/watch?v=frNjT5R5XI4

:eek: :eek: :eek:

20 Prozent nur durch schnelleren Speicher klingt schon nach SEHR viel.

sulak
2016-05-22, 13:48:01
Ich kann leider nicht finden mit welchem Speicher die K2500 Benches bei Computerbase ausgeführt wurden. DDR3? DDR4 2133 MHz?

greetz
US

Sandy und Ivy können nur DDR3, die sind schließlich 4-5 Jahre alt.
€: Hast aber recht, bei Computerbase steht NICHT dabei, welche Hardware der Sandy genau verwendet: http://www.computerbase.de/2016-05/grafikkarten-testsystem-2016/

Hübie
2016-05-22, 13:52:33
Nochmal zu 1080p vs höhere Auflösungen. Bin nach 5 Jahren 27" 1080p Tn mit 120hz auf einen 34" 21:9, 3440x1440 VA gewechselt, und die schärfe die ich jetzt in Games auf der ollen GTX 770 sehe(warte auf die 1080) haut mich aus den Socken, da kommt kein DS, SSAA usw dran. Nativ ist Nativ ;)

Klar. Sagt niemand was anderes. ;)

Mr.Magic
2016-05-22, 13:54:49
:eek: :eek: :eek:

20 Prozent nur durch schnelleren Speicher klingt schon nach SEHR viel.


Bei 1:51 im Video 4.6Ghz/1600 86FPS -> 4.6Ghz/2133 110FPS ergibt +27,9%.

nochmal der Limk: Is It Time To Upgrade Your Core i5 2500K? (https://www.youtube.com/watch?v=frNjT5R5XI4)

Armaq
2016-05-22, 14:08:11
Das Thema wurde doch schon ein paar mal angeschnitten. Schnellerer Speicher bringt vll. keine höheren max Fps, aber es glättet und hilft beim laden etc.

Thunderburne
2016-05-22, 14:28:57
Nochmal zu 1080p vs höhere Auflösungen. Bin nach 5 Jahren 27" 1080p Tn mit 120hz auf einen 34" 21:9, 3440x1440 VA gewechselt, und die schärfe die ich jetzt in Games auf der ollen GTX 770 sehe(warte auf die 1080) haut mich aus den Socken, da kommt kein DS, SSAA usw dran. Nativ ist Nativ ;)
Hab so einen 3840×2160 stehen in 27 Zoll sieht nice aus aber auf Post AA oder andere AA modis kann ich trotzdem nicht verzichten.

BlacKi
2016-05-22, 14:31:12
Frage an die Experten:

Ab welcher CPU ist eine 1080er ZU schnell = bremst die CPU aus?

eigentlich ist die frage falsch, denn es ist eher die frage wieviel fps brauche ich. in 1080p bremst die cpu definitiv in einigen fällen die gtx 1080 aus. in 4k wirst du durchgängig gpu limitiert sein.

da du VR betreiben willst und 90fps anvisierst sind ist die cpu ein heißer kandidat zum aufrüsten.

captain_drink
2016-05-22, 14:37:55
Speicher von 1333Mhz 1600Mhz auf 2133Mhz aufrüsten bringt beim 4,5Ghz 4.6Ghz 2500k bis zu 20% mehr FPS und glättere Frametimes.

https://www.youtube.com/watch?v=frNjT5R5XI4

Autor: Digital Foundry

'nuff said.

The_Invisible
2016-05-22, 15:02:32
wenn ich das richtig interpretiere, dann bin ich selbst in diesem worts-case (XCOM 2) Spiel mit einem ollen k2500 @4500 Megaherz nur 10% unter einem übertakteten aktuellen High-End Prozessor ?!
Spielt da der verwendete Speicher auch noch mal eine Rolle?

Greetz
US

Kommt auch aufs Game an. Bei PCGH-Print war ein 6700k@Stock fast doppelt so schnell wie ein 2600k@Stock bei Starcraft 2.

Ansonsten dürfte bei hohen Auflösungen eh immer die GPU limitieren, ist eher was für 144fps Spieler :D

=Floi=
2016-05-22, 18:27:26
Das Namensschema hat sich geändert, die 80 ohne Ti ist die neue 60. Da stimme ich dir zu. Dass eine stärkere Version mit der gleichen Architektur von Beginn fest eingeplant ist, ist allerdings nichts neues.

nein, nur sollte das selbst den leuten hier in dem thread mal klar werden. NV hat marketingtechnisch seit der 970er einen rausgehauen und keiner kritisiert es. Das ist bewusste kundenverwirrung. (der nicht so affinen kundschaft) Das schema ist total intransparent. (970 980 980ti)


auf die preise zum start gebe ich nichts. wer bei dem wetter (,auch noch 980ti besitzer ist) und zu den preisen kauft ist selbst schuld.
für mich zählen die späteren marktpreise.

btw.
die 450€ waren ein "wunschpreis" der 1080 FE, bezogen auf die Titan x leistung. Der 980Ti fehlen hald doch ein paar einheiten und deswegen ist 980ti performance eben nicht titan x performance.

Iruwen
2016-05-22, 18:54:03
Hab so einen 3840×2160 stehen in 27 Zoll sieht nice aus aber auf Post AA oder andere AA modis kann ich trotzdem nicht verzichten.
Höhere Auflösung ist ja auch kein Ersatz für AA.

AYAlf
2016-05-22, 20:25:25
Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.

Wer will denn sowas? Ich bin dafür, dass sich endlich 21:9 durchsetzt. Den 4k, 8k Quatsch kannst du behalten ;D

2560x1080 gehört die Zukunft. Auflösung haben wir genug. Das Format muss sich nicht nur bei Filmen ändern! :rolleyes:

Die neue Generation reicht ja auch nicht für 4k zum zocken. Wenn man mal ordentlich 60-100FPS haben möchte (min)

M4xw0lf
2016-05-22, 20:29:45
Höhere Auflösung ist ja auch kein Ersatz für AA.
Höhere Pixeldichte aber schon.

just4FunTA
2016-05-22, 20:32:54
@AYAlf

Niemand der 4k gesehen hat geht runter auf 2560x1080..

Iruwen
2016-05-22, 20:33:46
Höhere Pixeldichte aber schon.

Nein. (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=9016936#post9016936) Du denkst vermutlich gerade nur an sichtbare "Treppchen", nicht an Flimmern.

Schrotti
2016-05-22, 20:39:45
@AYAlf

Niemand der 4k gesehen hat geht runter auf 2560x1080..

Aber echt, das wäre ja ein Rückschritt.

AYAlf
2016-05-22, 20:42:24
@AYAlf

Niemand der 4k gesehen hat geht runter auf 2560x1080..

Ich habe es gesehen und sage WAYNE?

Ich will 100+ FPS@min

Sven77
2016-05-22, 21:00:13
Die Leute sollten mal lieber ihre Monitore aufrüsten.

no shit Sherlock.. dann soll uns die Industrie doch gerne mal bitte anständige Monitore anbieten..

Ich hätte gerne:
- VA
- GSync
- 2560*1440

Gibts nich? Son Pech..

Und haut mir mit diesem 21:9 zeugs ab, ist genauso eine Modeerscheingung wie 3DVision

AYAlf
2016-05-22, 21:02:42
no shit Sherlock.. dann soll uns die Industrie doch gerne mal bitte anständige Monitore anbieten..

Ich hätte gerne:
- VA
- GSync
- 2560*1440

Gibts nich? Son Pech..

Und haut mir mit diesem 21:9 zeugs ab, ist genauso eine Modeerscheingung wie 3DVision
Die gleiche Modeerscheinung wie 16:9 damals ... die ewig gestrigen. :freak:

Die Zeit ist noch nicht Reif für 4k. Die Hardware gibt's einfach nicht her.

Ex3cut3r
2016-05-22, 21:08:10
Jungs wir driften wieder zu sehr ab, was gehen Monitore die 1080 GTX an? :freak:

AYAlf
2016-05-22, 21:12:38
Jungs wir driften wieder zu sehr ab, was gehen Monitore die 1080 GTX an? :freak:

Wir diskutieren die Frage wofür die Mehrleistung ist :freak:

Und sie ist ganz klar für mehr FPS und nicht für 4k, weil zu schwach.

cR@b
2016-05-22, 21:55:21
Nightspider wäre da wieder anderer Meinung... :rolleyes: Naja gp100/102 wird das hoffentlich ändern. Problem ist nur, dass es in Zeit "x" leistungshungrigere Engines geben wird, die das Spielen @4k zu Nichte machen. Im Endeffekt verschiebt sich die Etablierung von 4k immer wieder nach hinten...

TobiWahnKenobi
2016-05-22, 22:29:18
@AYAlf

Niemand der 4k gesehen hat geht runter auf 2560x1080..

zumindest nicht primär oder dauerhaft. ich gehe an meinem 40" UHD hin und wieder auf 3440x1440 oder auf 3840x1620 pixel, wenn ich lust auf 21:9 habe. das ist zum zocken am tisch schon ordentlich breit.. 88cm oder so.. gefällt mir. aber zum arbeiten oder für spiele, die mit 21:9 nichts anfangen können, möchte ich dann schon die komplette UHD-auflösung nutzen. das ganze möglichst unskaliert und nativ. 3440x1440 pixel sollten die neuen karten gut wuppen. 2560x1080 ist irgendwie kein anspruch und kein zugewinn auf schreibtischen; denke nicht, dass sich sowas durchsetzt.

btw,
UHD mit hohem detailgrad und ohne proprietäre lowframe-syncs wird noch ne ganze zeit mGPU-land bleiben.


(..)

mfg
tobi

Lurtz
2016-05-22, 22:35:01
Wir diskutieren die Frage wofür die Mehrleistung ist :freak:

Und sie ist ganz klar für mehr FPS und nicht für 4k, weil zu schwach.
Und ich dachte immer der PC wäre eine flexible Plattform, wo man selbst entscheiden kann ob man lieber mehr fps oder mehr Bildqualität nimmt.

Kartenlehrling
2016-05-22, 22:43:10
Wenn man die Gameworks Features aktiviert kann man bestimmt nicht in 4k Spielen,
ansonst sehe ich kein problem, weil es schon mit der Gtx980ti funktionierte.

illidan
2016-05-22, 23:01:05
Beständige 50fps mit A-Sync reichen doch für so ziemlich jedes SP-Spiel, und das ist mit der 1080 mit ggf. leicht reduzierten Einstellungen doch durchweg in 4k drin.
Für den MP schaltet man bei vernünftiger Skalierung dann halt ggf. auf WQHD...

scully1234
2016-05-23, 02:57:30
Ek Waterblocks hat schon mal die entsprechende Seite geschaltet

https://www.ekwb.com/shop/water-blocks/vga-blocks/full-cover-for-nvidia-geforce/geforce-gtx-10x0-series

wolik
2016-05-23, 05:32:46
Leider läuft fast keines der aktuellen sogenannten AAA-Games wirklich befriedigend, wenn ein Multi-GPU Setup genutzt wird. Die Hälfte der Spiele in meiner Suite läuft nicht mit CF/SLI, bzw. nur so lala. Genau deswegen sind so alberne Karten wie die Radeon Pro Duo aussterbende Dinosaurier, denen man nun wirklich keine Träne nachweinen muss. Zu hungrig, zu heiß, zu viele Kompromísse
?
GTA5,ACS,ACU,Division,Witcher3,FC4,FCP,Lords of Fallen, Dark Souls 3, DAI, Battelfield 4, MGS, RoTR, MadMax und weitere laufen in SLI (Quad auch) perfekt. Und NUR SLI macht möglich in 4K auf MAX zuspielen. (Auch noch zusätzlich bis DSR x4)

wolik
2016-05-23, 05:45:45
Weil keiner wirklich diesen Aufwand tragen wird wollen das ganze ist schon komplex genug selbst Nvidia sieht das nun ein und empfiehlt vor allem zwecks VR und den Latenzen nur noch Maximum 2x SLI Kombination.

Sachen zu Parallelisieren auf mehrere GPUs verteilt das ist einfach enormer Aufwand die Latenzen steigen zudem immer weiter ins Bodenlose und so eine witzige Nvidia Brücken idee bringt da nix da müsste eine komplette Architektur wie bei den Konsolen geschafen werden.
AAA Engine (Crytek, Rockstar, DICE und Co) von vorne unterstützen mGPU.
Ja, klar gibt's wie Blue Byte (Anno 2205) welche nicht in die Lage sind mGPU zu programmieren.
Bei 500 PS bei Auto, braucht wirklich niemand mehr Power. 10Tflops Heute ist nicht viel. (Für 4K reicht nicht)

(del)
2016-05-23, 07:22:21
?
GTA5,ACS,ACU,Division,Witcher3,FC4,FCP,Lords of Fallen, Dark Souls 3, DAI, Battelfield 4, MGS, RoTR, MadMax und weitere laufen in SLI (Quad auch) perfekt. Und NUR SLI macht möglich in 4K auf MAX zuspielen. (Auch noch zusätzlich bis DSR x4)Hast Du mal den tatsächlichen Zugewinn gemessen? Ich meine nicht die max. oder average FPS, sondern die minimalen. Ich habe selbst ein SLI aus zwei 980ern unter Wasser und ja, es ist der letzte Dreck. Division ging nach dem Release gar nicht, GTA 5 tut es bis heute nicht ohne deutliche Ruckler. Die Frametimes bei Witcher 3 sind fürchterlich, da pfeife ich auf max. Details und habe es lieber smooth und ruckelfrei mit nur einer Karte. AFR ist und bleibt Scheiße.

Geldmann3
2016-05-23, 07:37:15
Multi GPU für Games wird für mich dann richtig praktikabel, wenn auch Games die nicht explizit dafür designed sind ordentlich damit skalieren. Dafür braucht es völlig neue Technologie sowie mindestens 10x mehr Bandbreite zwischen den Chips. Am ehesten ist es noch auf einer Karte vorzustellen anstatt im Mehrkartenbetrieb. AMD könnte sowas in langfristiger Planung haben. Was soll man machen, wenn Moores Law zuende geht.

(del)
2016-05-23, 07:55:05
Ich bereue heute noch den Tag, an dem ich mich für ein 980er SLI entschieden habe. Da mein Tisch komplett wassergekühlt ist, habe ich nur nie Lust, das wieder rauszubauen. In 90% der Fälle frisst Karte Nummer zwei nämlich völlig sinnlos Strom.

Dying Light im SLI war auch so eine ruckelige Lachnummer. Da habe ichs am Ende sogar freiwillig deaktiviert, nur um die Hoppelhasen zu bändigen. Wer gegen Ruckler immun ist, hat eine sehr vorteilhafte Gen-Mutation. Ich muss leider darunter extrem leiden :(

=Floi=
2016-05-23, 08:07:36
Multi GPU für Games wird für mich dann richtig praktikabel, wenn auch Games die nicht explizit dafür designed sind ordentlich damit skalieren. Dafür braucht es völlig neue Technologie sowie mindestens 10x mehr Bandbreite zwischen den Chips. Am ehesten ist es noch auf einer Karte vorzustellen anstatt im Mehrkartenbetrieb. AMD könnte sowas in langfristiger Planung haben. Was soll man machen, wenn Moores Law zuende geht.

bei den gpu preisen ist die sache sowieso tod.
selbst die gute VR skalierung bringt nichts, wenn man dann über 2000€ hinlegen muss.
ich denke den absteigenden ast hat auch nv eingesehen und pusht sli deswegen nicht mehr so stark.

Thunderburne
2016-05-23, 09:22:57
Ich werde jetzt 40 das muss diese Midlife Kriese sein irgendwas hatte mich geritten einen 4K Monitor zu kaufen letztes Jahr.
Mit der 980Ti 1506/4001 konnte man so einige games fast maxout spielen (thirdperson)mit Controller und gefixten 30-35FPS .
Bei Egoshootern im Single Player (hin und wieder)musste man aber schon richtig die Einstellungen runter nehmen unm die 60FPS zu erreichen weil für mich Pflicht mit mouse und Tastatur und von MP fange ich harnicht erst an da geht nicht genug HZ/FPS.
Daher habe ich nun beschlossen downzugraden auf WQHD 144 HZ mit G-Sync.
Ich denke damit werde ich besser fahren mit der GTX1080.

wolik
2016-05-23, 09:51:03
Hast Du mal den tatsächlichen Zugewinn gemessen? Ich meine nicht die max. oder average FPS, sondern die minimalen. Ich habe selbst ein SLI aus zwei 980ern unter Wasser und ja, es ist der letzte Dreck. Division ging nach dem Release gar nicht, GTA 5 tut es bis heute nicht ohne deutliche Ruckler. Die Frametimes bei Witcher 3 sind fürchterlich, da pfeife ich auf max. Details und habe es lieber smooth und ruckelfrei mit nur einer Karte. AFR ist und bleibt Scheiße.
Wir driften ab von 1080. Aber was soll... die Karte hat noch Niemand.
Für SLI gibts http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509912&page=113
Ich verstehe was du meinst. Schon drops von 60 auf 50 und zurück, bei Shooter unzumutbar. FPS muss konstant sein/bleiben ! Jetzt kommen wir zum SLI. Die mehrwert SLI ist das zu schaffen. Für Division ich habe vierte Titan eingebaut. Jetzt ist die Auslastung die Karten mal 60 mal 90%. Konstante 60 fps.
GTA5 lief mit Triple SLI gut mit Quad perfekt.
Witcher 3. In 8K (scharpnes auf hoch) sieht Atemberaubend aus. Leider die Karten werden nicht ausgelastet (50%). Ergo 34 fps. und fruchtbare rückler. Ich habe TV und Spiel auf 30 fps gesetzt. Und ich habe konstante 30fps ohne rückler in 8K ! Karl. In 8K !!! (33.177.600 Pukten) FullHD grade 2.073.600 Punkten. Alles max (ohne AA)
Wie soll das ohne SLI gehen?

wolik
2016-05-23, 09:53:23
Man soll letzte viertel von Video anschauen.
https://www.youtube.com/watch?v=6iS7QieVMoc
Frage wieso hat 1080 mehr Speicher belegt ? Fast 200 Mb. Soll es nicht weniger doch sein?

Kartenlehrling
2016-05-23, 10:06:02
Du meinst aber nicht wirklich das 6 Jahre alte Mafia2 Benchmark, das kann alle möglichen Gründe habe?!

cR@b
2016-05-23, 10:17:12
Hast Du mal den tatsächlichen Zugewinn gemessen? Ich meine nicht die max. oder average FPS, sondern die minimalen. Ich habe selbst ein SLI aus zwei 980ern unter Wasser und ja, es ist der letzte Dreck. Division ging nach dem Release gar nicht, GTA 5 tut es bis heute nicht ohne deutliche Ruckler. Die Frametimes bei Witcher 3 sind fürchterlich, da pfeife ich auf max. Details und habe es lieber smooth und ruckelfrei mit nur einer Karte. AFR ist und bleibt Scheiße.

Hab so mit Sli genau die selbe Erfahrung hinter mir... zu meiner Zeit (2x7900GT und 1x7950 GX2) waren die Frametimes aber noch schlimmer und ich dachte eigentlich, dass Sli heute wesentlich besser läuft aber was ich hier immer in den Foren lese, scheint sich wenig geändert zu haben. Für mich war und ist multiGPU die größte Enttäuschung in meiner PC Karriere neben 3D Vision...

Da warte ich lieber auf die Titan 100 bis man 4k anständig zocken kann, bis dahin genieße ich high frames/Hz @1080 evtl. mit gp102 dann WQHD. Mal sehen evtl. werde ich bei einer Custom GTX 1080 schwach, auch wenn mir das FE Design so scheisse gut gefällt :ugly:

wolik
2016-05-23, 10:19:33
Du meinst aber nicht wirklich das 6 Jahre alte Mafia2 Benchmark, das kann alle möglichen Gründe habe?!
Metro 600 Mb mehr. Auch alt? Wer von Berichterstatter, etwas Ähnliches gemacht hat?

Cubitus
2016-05-23, 10:38:42
Wenn es anständig funktioniert. dann ist SLI schon toll..
Hatte regelmäßig 2way im Einsatz.. Allerdings, seit der Abkehr von DX9 sieht es mit dem SLI support eher Mau aus.
Funktioniert mit den ganzen Post-Features der aktuellen Engines (DX11/DX12), eher schlecht als recht.
Daher habe ich mich entschlossen (nutzte SLI seit 2005/2006 eigl immer) auch kein SLI mehr zu verwenden und kleinere Brötchen zu backen.

VR dürfte der Hauptgrund werden,
warum SLI überhaupt noch vernünftig eingesetzt werden könnte.

KHJ
2016-05-23, 11:04:49
Nightspider wäre da wieder anderer Meinung... :rolleyes: Naja gp100/102 wird das hoffentlich ändern. Problem ist nur, dass es in Zeit "x" leistungshungrigere Engines geben wird, die das Spielen @4k zu Nichte machen. Im Endeffekt verschiebt sich die Etablierung von 4k immer wieder nach hinten...

Kommt auf den Anspruch an . Der Vorteil des PC ist doch gerade das jeder das Spiel so einstellen kann wie es für ihn am besten ist. Bei der Konsole bin ich auf 720p900p1080p 30 vs. 60 fps beschränkt.

Beim Pc kann der eine in 1080p bei 144 fps spielen und ein anderer nutzt mit selber Hardware 4k bei nur 40fps.
Der eine regelt alles auf Ultra der andere ist mit very high zufrieden.
Das beste ist aber das es auch zwischen 1080p und 4k und very high und ultra je nach Game viele Regler gibt, wo man wirklich sehr gut das Game genau an die eigenen Bedürfnisse anpassen kann.

Theoretisch hinkt die Hardware sogar den Anforderungen hinterher den alleine eine Technik wie NV`s HFTS kann wohl den Lesitungsunterschied von einer 1080 zu einer Titan II komplett aushebeln.
Also 1080 ohne HFTS vs. Titan mit HFTS.Ist halt die Frage ob mir dieses eine Feature 20fps verlust wert sind oder ich nicht auch mit HBAO+ zufrieden bin, aber dafür 4k flüssig spielen kann.

Für mich wichtiger ist das Nv bei den Schatten jetzt mal einen Strich zieht mit HFTS und MFAA nochmal optimiert oder eine neue Techniken bringt, die nicht das Bild verwaschen.
Den wenn ich mir den Hangar als Beispiel in Star Citizien ansehe der mit very high schon ganz passabel aussieht, aber oben die Treppen übelst flimmern dann stört das einfach die immersion gewaltig, da stören mich Schatten die nur mit HBAO+ berechnet werden und nicht mit HFTS weniger.

Blaire
2016-05-23, 11:05:58
Hast Du mal den tatsächlichen Zugewinn gemessen? Ich meine nicht die max. oder average FPS, sondern die minimalen. Ich habe selbst ein SLI aus zwei 980ern unter Wasser und ja, es ist der letzte Dreck. Division ging nach dem Release gar nicht, GTA 5 tut es bis heute nicht ohne deutliche Ruckler. Die Frametimes bei Witcher 3 sind fürchterlich, da pfeife ich auf max. Details und habe es lieber smooth und ruckelfrei mit nur einer Karte. AFR ist und bleibt Scheiße.

Unausgewogendes System? Zu wenig Lanes oder VRAM? Genau dann passiert sowas, was aber weniger mit SLI oder AFR zu tun hat, sondern mit gestiegenem Bandbreiten-Bedarf diverser Games/Engines.

Hab so mit Sli genau die selbe Erfahrung hinter mir... zu meiner Zeit (2x7900GT und 1x7950 GX2) waren die Frametimes aber noch schlimmer und ich dachte eigentlich, dass Sli heute wesentlich besser läuft aber was ich hier immer in den Foren lese, scheint sich wenig geändert zu haben. Für mich war und ist multiGPU die größte Enttäuschung in meiner PC Karriere neben 3D Vision...

Wenn es danach ginge, was irgendwelche Leute in den Foren für Mythen verbreiten, dürftest du dir keine PC-Hardware mehr kaufen. ;) Mach dir selbst ein Bild davon und teste selbst, es ist leider so das die sogenannte Fachpresse MultiGPU-Systeme eher meidet, entsprechend auch keine Ursachenforschung betreibt und lieber weiter die alte Mikroruckler-Schiene fährt. Das nehme ich schon länger nicht mehr ernst.

AYAlf
2016-05-23, 11:06:30
Und ich dachte immer der PC wäre eine flexible Plattform, wo man selbst entscheiden kann ob man lieber mehr fps oder mehr Bildqualität nimmt.

Dein Geschreipsel


Die Leute sollten mal lieber ihre Monitore aufrüsten. Wer will heute noch 1080p-Gammel? Wird Zeit dass da endlich was passiert und die Aufmerksamkeit sich auf 1440p+ richtet.

Dann sind auch endlich die Entwickler gezwungen HighDPI besser zu unterstützen. Steam skaliert bis heute nicht vernünftig.


Wo ist das bitte flexibel? ;D

PHuV
2016-05-23, 11:21:39
Mach dir selbst ein Bild davon und teste selbst, es ist leider so das die sogenannte Fachpresse MultiGPU-Systeme eher meidet, entsprechend auch keine Ursachenforschung betreibt und lieber weiter die alte Mikroruckler-Schiene fährt. Das nehme ich schon länger nicht mehr ernst.
Was meinst Du genau damit? :confused: Das die Probleme mittlerweile behoben sind, und die Welt davon nichts mitbekommen hat oder wie?

SLI bzw. MultiGPU dürfte für HighEnd-VR wieder interessant werden, wo man für die Augen jeweils direkt ein Bild mit einer GK parallel rendert. Da spielt AFR und CO keine Rolle. Jedoch erst mit den neueren GKs nach 2018, wenn 4k pro Auge mit 90-120 FPS notwendig wird.

BlacKi
2016-05-23, 11:33:07
es ist leider so das die sogenannte Fachpresse MultiGPU-Systeme eher meidet, entsprechend auch keine Ursachenforschung betreibt und lieber weiter die alte Mikroruckler-Schiene fährt. Das nehme ich schon länger nicht mehr ernst.

die zb.?
http://www.pcper.com/reviews/Graphics-Cards/AMD-Fury-X-vs-NVIDIA-GTX-980-Ti-2-and-3-Way-Multi-GPU-Performance/Grand-Theft

akuji13
2016-05-23, 11:33:47
Und ich habe konstante 30fps ohne rückler in 8K !

30 fps ruckeln durchgehend. :D

Troyan
2016-05-23, 12:13:40
Ja aber sieht mir eher nach Werbung für ihre generellen Produkte aus ;) Marketing und so :ugly:

Eindeutiger gehts kaum: https://twitter.com/EVGA_JacobF/status/734500796100796417

:tongue:

wolik
2016-05-23, 12:27:58
30 fps ruckeln durchgehend. :D
Ich muss wohl ein Video basteln. Für irgendwelche Grafiken oder Excel Tabellen habe ich nur müde Lächeln. Besonders nett anzuschauen das Bildverlauf bei TV mit 60 und 30 Hz (Witcher 3). Tag und Nacht.

scully1234
2016-05-23, 12:31:12
Eindeutiger gehts kaum: https://twitter.com/EVGA_JacobF/status/734500796100796417

:tongue:

Das wird auch kein Feuerschutz Edition gewesen sein


https://twitter.com/EVGA_JacobF/status/734173126385360897

Der Vram:freak:

Edit:

Ek ist fuer 6+1Phasen geruestet wie es scheint

akuji13
2016-05-23, 12:53:02
Jetzt noch die Acetal Variante und es beginnt wieder zu jucken. :D

Ich muss stark bleiben und warten...

Ich muss wohl ein Video basteln.

Nicht nötig.
30 fps sind nie flüssig für mich. Auch nicht am TV.

Wen das nicht stört den stören MR verständlicherweise auch nicht.

TurricanM3
2016-05-23, 12:59:56
Sehe ich absolut genauso @30fps. Dann noch der Inputlag...

Ich hätte ja am liebsten wieder den AC mit aktiver Backplate wie jetzt, aber darauf kann ich wohl Wochen warten. :/
Ich müsste meine Ti eigentlich auch langsam mal ausbauen, da wartet schon jemand drauf. Hm...

Blaire
2016-05-23, 13:05:35
Was meinst Du genau damit? :confused: Das die Probleme mittlerweile behoben sind, und die Welt davon nichts mitbekommen hat oder wie?

Nein, alles in einen Topf und so... du verstehst? :) Nicht alle aktuellen Intel-CPUs stellen auch ausreichend Lanes für PCIe 3.0 zur Verfügung und dies wurde zuletzt mehr und mehr zum Hauptproblem mit SLI-Systemen in verschiedensten Games. Entweder skalierte SLI garnicht, krankte an schlechterer Scaling-Effizienz oder stärkere Frametime-Abweichungen waren die Folgen.
CPUs wie z.b. Haswell-E verfügen über 40 Lanes und ermöglichen somit 2-Way mit x16/x16 je Slot zu betreiben und somit über ausreichend Bus-Bandbreite für SLI. Aktuelle Skylake-Quadcore CPUs bieten da "nur" die Hälfte und derer 16 Lanes (x8/x8 für 2-Way) was für einige Games dann zu wenig ist... ein DOOM, The Witcher 3 , The Division sind dafür passende Beispiele... aber woher sollten die Leute das auch wissen...
Gut, das NV nun auch die Zeichen der Zeit erkannt haben und mit den neuen HB-SLI Bridges zumindest für Entlastung sorgt, was 4K-, Surround- und G-Sync Displays betrifft.


SLI bzw. MultiGPU dürfte für HighEnd-VR wieder interessant werden, wo man für die Augen jeweils direkt ein Bild mit einer GK parallel rendert. Da spielt AFR und CO keine Rolle. Jedoch erst mit den neueren GKs nach 2018, wenn 4k pro Auge mit 90-120 FPS notwendig wird.

Ob VR mehr als über Nischendasein hinaus kommt bleibt ja auch erstmal abzuwarten. Da jetzt einen Zusammenhang mit SLI zu sehen, ist noch etwas verfrüht finde ich. :) Spannendes Thema auf jeden Fall.

die zb.?
http://www.pcper.com/reviews/Graphics-Cards/AMD-Fury-X-vs-NVIDIA-GTX-980-Ti-2-and-3-Way-Multi-GPU-Performance/Grand-Theft


Na wenn ich beispielsweise das aktuellste Review als Maßstab nehme, das ein 2-Way 980Ti bessere Frametimes in GTA V (http://www.pcper.com/image/view/68639?return=node%2F65245) oder Fallout 4 (http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-Pro-Duo-Review/Fallout-4) als eine Single AMD Fury-X ermöglicht, dann kann es wohl kaum so schlimm sein... haben glücklicherweise auch mit passenden Haswell-E System getestet.

scully1234
2016-05-23, 13:34:24
Die passende Hiobsbotschaft dazu

http://www.tomshardware.de/pci-sig-pcie-pci-express-4.0,news-252629.html

PHuV
2016-05-23, 13:35:31
Nein, alles in einen Topf und so... du verstehst? :) Nicht alle aktuellen Intel-CPUs stellen auch ausreichend Lanes für PCIe 3.0 zur Verfügung und dies wurde zuletzt mehr und mehr zum Hauptproblem mit SLI-Systemen in verschiedensten Games. Entweder skalierte SLI garnicht, krankte an schlechterer Scaling-Effizienz oder stärkere Frametime-Abweichungen waren die Folgen.
CPUs wie z.b. Haswell-E verfügen über 40 Lanes und ermöglichen somit 2-Way mit x16/x16 je Slot zu betreiben und somit über ausreichend Bus-Bandbreite für SLI. Aktuelle Skylake-Quadcore CPUs bieten da "nur" die Hälfte und derer 16 Lanes (x8/x8 für 2-Way) was für einige Games dann zu wenig ist... ein DOOM, The Witcher 3 , The Division sind dafür passende Beispiele... aber woher sollten die Leute das auch wissen...
Dank PLX-Chip sollte das doch heute kein großes Thema mehr sein, siehe

Test: what amount of PCI-Express lanes is optimal for SLI? (http://us.hardware.info/reviews/5248/test-what-amount-of-pci-express-lanes-is-optimal-for-sli)
Bei 2xSLI sind mehr Lanes besser, ab 3x und 4x gewinnt sogar PLX etwas mehr.

scully1234
2016-05-23, 13:38:47
Der PLX ist fuer eine relativ latenzfreie Multi GPU Umgebung gar nicht gut, und VR wuerde ich damit erst gar nicht antesten wollen:smile:

Das muss bei den heutigen Anforderungen nativ laufen, sonst taugt das nix=)


Edit:

Asus jetzt auch mit ner Hello Kitty Bling Bling Edition:freak:

https://media.giphy.com/media/xT4uQfVQvmuPlvbfRS/giphy.gif

Thunderburne
2016-05-23, 13:54:59
Ich frag mich seit langem wann wir 2Gpus auf einem Sockel sehen werden ähnlch wie Intels erste Quadcores mit 2 Dies.
So das es garnicht mehr als MGPU erkannt wird.
Hoffe immer das mal irgendwan zu sehen.

cR@b
2016-05-23, 14:15:10
Nein, alles in einen Topf und so... du verstehst? :) Nicht alle aktuellen Intel-CPUs stellen auch ausreichend Lanes für PCIe 3.0 zur Verfügung und dies wurde zuletzt mehr und mehr zum Hauptproblem mit SLI-Systemen in verschiedensten Games. Entweder skalierte SLI garnicht, krankte an schlechterer Scaling-Effizienz oder stärkere Frametime-Abweichungen waren die Folgen.
CPUs wie z.b. Haswell-E verfügen über 40 Lanes und ermöglichen somit 2-Way mit x16/x16 je Slot zu betreiben und somit über ausreichend Bus-Bandbreite für SLI. Aktuelle Skylake-Quadcore CPUs bieten da "nur" die Hälfte und derer 16 Lanes (x8/x8 für 2-Way) was für einige Games dann zu wenig ist... ein DOOM, The Witcher 3 , The Division sind dafür passende Beispiele... aber woher sollten die Leute das auch wissen...
Gut, das NV nun auch die Zeichen der Zeit erkannt haben und mit den neuen HB-SLI Bridges zumindest für Entlastung sorgt, was 4K-, Surround- und G-Sync Displays betrifft.


Ob VR mehr als über Nischendasein hinaus kommt bleibt ja auch erstmal abzuwarten. Da jetzt einen Zusammenhang mit SLI zu sehen, ist noch etwas verfrüht finde ich. :) Spannendes Thema auf jeden Fall.


Na wenn ich beispielsweise das aktuellste Review als Maßstab nehme, das ein 2-Way 980Ti bessere Frametimes in GTA V (http://www.pcper.com/image/view/68639?return=node%2F65245) oder Fallout 4 (http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-Pro-Duo-Review/Fallout-4) als eine Single AMD Fury-X ermöglicht, dann kann es wohl kaum so schlimm sein... haben glücklicherweise auch mit passenden Haswell-E System getestet.

Hmm dann würde bei mir SLi wohl auch "wieder" abspacken zwecks dem 5820k. Dachte immer die Bandbreite macht nur marginale Unterschiede aus aber bezieht sich wohl eher auf PCIe Singleslotbelegung.

AMD hat teilweise schon immer miese Frametimes gehabt, obwohl sie es bei manchen Karten geschafft haben via Treiber zu optimieren aber ja die Fury X sieht fürchterlich aus und das würde ich sicher sehen mit meiner gestraften Wahrnehmung...

Wie auch immer bleibt wohl vorerst doch nur die GTX 1080 bzw. später GP102 :(

akuji13
2016-05-23, 14:22:31
Mich haben die MR auch nicht gestört und trotzdem würde ich aktuell kein SLI mehr haben wollen.

Dafür gab/gibt es genügend andere Baustellen, Stichwort G-Sync, DSR oder 3DVision.

Emperator
2016-05-23, 15:01:03
Die passende Hiobsbotschaft dazu

http://www.tomshardware.de/pci-sig-pcie-pci-express-4.0,news-252629.html


Interessant ist eher, wie die auf die Idee kommen das dieses Jahr noch Skylake-E erscheinen soll oO

Blaire
2016-05-23, 15:05:27
Mich haben die MR auch nicht gestört und trotzdem würde ich aktuell kein SLI mehr haben wollen.

Dafür gab/gibt es genügend andere Baustellen, Stichwort G-Sync, DSR oder 3DVision.

SLI-Support für DSR auf G-Sync Displays wird inzwischen unterstützt. 3D Vision für WQHD-Displays für bridgeless AFR ebenso.

btw. Neuer Game-Ready Treiber gerade erschienen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=573230
u.a. mehr Performance für DOOM :smile:

BlacKi
2016-05-23, 15:16:52
den artikel gerade durchgeblättert, warum ist amd in den benchmarks plötzlich doppelt so schnell ?

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/39124-nvidia-geforce-gtx-1080-mit-pascal-architektur-im-xxl-test.html?start=29

fehlerteufel?

Ex3cut3r
2016-05-23, 15:33:15
fehlerteufel?

Bei jeder Auflösung? Wohl kaum! Irgendwas wird wohl den AMDs bei dem Game besonders gut schmecken. Leider schreibt das Luxx nie etwas Text unter den Benches, ein Grund warum ich sie meide.

iuno
2016-05-23, 15:37:00
Als ob eine Nano mal doppelt so schnell ist wie eine 1080.
Ja, das Spiel laeuft ordentlich auf AMD: http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#diagramm-dirt-rally-1920-1080

Aber bei luxx stimmt ganz offensichtlich etwas nicht

Ex3cut3r
2016-05-23, 15:38:44
Ja, das Spiel laeuft ordentlich auf AMD: http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#diagramm-dirt-rally-1920-1080


Die Benches sind vom 10.12.2015 vlt. hat AMD für das Game einen Wundertreiber seit damals veröffentlicht? :freak:

tdon
2016-05-23, 16:09:20
Das sieht woanders ganz anders aus.

http://www.anandtech.com/show/10326/the-nvidia-geforce-gtx-1080-preview/2
http://nl.hardware.info/reviews/6740/16/nvidia-geforce-gtx-1080-review-de-nieuwe-koning-benchmarks-dirt-rally
http://www.hardware.fr/articles/948-19/benchmark-dirt-rally.html

dildo4u
2016-05-23, 16:13:27
Es gibt ein Effekt im Game (Advanced Blending) welcher die Performance massiv runter zieht der ist beim Ultra Preset abgeschaltet das könnte es sein.

Megamember
2016-05-23, 16:33:17
Bei jeder Auflösung? Wohl kaum! Irgendwas wird wohl den AMDs bei dem Game besonders gut schmecken. Leider schreibt das Luxx nie etwas Text unter den Benches, ein Grund warum ich sie meide.

Klar die Furys sind mal eben 4 mal so schnell wie die 390er, da stimmt was nicht.

Ex3cut3r
2016-05-23, 16:49:12
Klar die Furys sind mal eben 4 mal so schnell wie die 390er, da stimmt was nicht.

War auch nicht wirklich ernst gemeint. Wer Luxx Benches ernst nimmt, dem ist auch nicht mehr zu helfen, das predige ich schon seit Jahren.

Rampage 2
2016-05-23, 21:09:59
Glaubt ihr, dass es irgendwann später einen Aufguss der 1080 mit reiferen Chips (höheres OC-Potential) und schnellerem GDDR5X-Speicher ( < 12Gbps) geben wird?

R2

dildo4u
2016-05-23, 21:16:42
Macht kein Sinn da die dann zu nahe an der 1080 Ti wäre,es wir vermutlich so aussehen wenn alle Pascal Karten raus sind 1080 für 600,1080Ti für 750 und 1000 für die näste Titan.

yamo
2016-05-23, 21:27:37
Meine Tendenz geht zur einer 1080 custom mit waterblock. Ti`s werden sicherlich 1k€ durchbrechen und dann wirds mir zu blöd.
Ich bin ganz angefixt auf die 1080, aber erstmal abwarten auf wc und cs-designs. Dafür sind die Preise zu hoch.

Kriegsgeier
2016-05-23, 21:30:05
@ yamo: ganz meiner Meinung! Bin genau so eingestellt...
Abwarten und die Preise bröckeln sehen... 150€-200€ sind drin.

TheGood
2016-05-23, 22:53:55
@ yamo: ganz meiner Meinung! Bin genau so eingestellt...
Abwarten und die Preise bröckeln sehen... 150€-200€ sind drin.
So ist es... mal sehen wie schnell das geht... ich befürchte dass es eher langsam von statten geht.

(del)
2016-05-23, 22:57:04
Unausgewogendes System? Zu wenig Lanes oder VRAM? Genau dann passiert sowas, was aber weniger mit SLI oder AFR zu tun hat, sondern mit gestiegenem Bandbreiten-Bedarf diverser Games/Engines.

Erstens habe ich selbst schon ellenlange Dinger über MGPU verfasst, verfüge über tonnenweise Hardware und selbst zwei 980 Ti ruckeln :P

Wenn Du Zweitens einen 5960X @4,8 GHz auf einem guten X99 Board, 64 GB DDR4 3200 (8x8) und wahlweise zwei 980er (Wasser, im Gaming Table) oder zwei 980ti (Luft, im Wand PC) für unausgewogen hältst, dann fällt mir auch nichts mehr ein. Mit der 1080er OC im Single-Setup sieht es deutlich angenehmer aus. :)
Ich bin Hardware-Junkie, aber von MGPU bestens geheilt :)

Übrigens verabschiede ich mich mal für zwei Wochen in Richtung Asien, morgen früh geht's über Istanbul nach Taipeh, dann nach woandershin und wieder zurück nach Taipeh. Und Meister Jensen hat bestimmt noch ein Ü-Ei zur Computex, ich spüre es ;)
Und vergesst nicht: ich bin Euch immer sechs Stunden voraus :P

DoomGuy
2016-05-23, 23:21:58
Wird 4K jetzt das neue Argument für den Kauf von 800€ Boliden?. Ich Brauche keine Brille, hab nie nen Bildschirm mit dieser Auflösung vor Augen gehabt, bin mir aber recht sicher, dass vor hoher Auflösung einfach mehr Details folgen sollten.

Unendlich Gras, Staub, Wolken usw. daran sollte man arbeiten.

Troyan
2016-05-23, 23:26:47
Geht mir genauso. 4K wird gehypt - ist jedoch nichtmal annährend so gut spielbar wie 1440p. Es würde vielmehr sinn machen, wenn <27" Monitore mit 1440p veröffentlicht werden würden. Dann hat man noch genug Power, um Spiele grafisch zu verschönern.

DoomGuy
2016-05-23, 23:49:18
Geht mir genauso. 4K wird gehypt - ist jedoch nichtmal annährend so gut spielbar wie 1440p. Es würde vielmehr sinn machen, wenn <27" Monitore mit 1440p veröffentlicht werden würden. Dann hat man noch genug Power, um Spiele grafisch zu verschönern.

:up:

Die Power der Karten einfach mal richtig nutzen. Und keine Ports von Konsolen mit einer "Priese" Salz liefern.

scully1234
2016-05-24, 02:37:44
Und Meister Jensen hat bestimmt noch ein Ü-Ei zur Computex, ich spüre es ;)

Ein Ü-Ei was 488mm im Quadrat mißt, und auf dem Namen GP102 hört? ......ja ja ich weiß zu optimistische Träumereien :P

illidan
2016-05-24, 03:04:31
Es würde vielmehr sinn machen, wenn <27" Monitore mit 1440p veröffentlicht werden würden. Dann hat man noch genug Power, um Spiele grafisch zu verschönern.
Geile Grafik durch ein winziges Guckloch schauen?
Na ja, jedem das Seine...

(del)
2016-05-24, 06:07:34
Wenn ich gerade so auf mein Convertible schaue, während ich mir die Lufthansa-Lorke in der Lounge einwerfe - nene, der 21:9 fehlt mir jetzt schon. Nicht nur zum Spielen sind gescheite Auflösungen und praktische Formate erste Wahl. 1440p sind aber eigentlich genug, wenn man nicht gerade mit der Nase draufhängt. Dann lieber ein paar mehr Euro in ein gescheites Display investieren, als 4K um jeden Preis. ;)

wolik
2016-05-24, 07:05:13
als 4K um jeden Preis. ;)
http://geizhals.de/iiyama-prolite-x4071uhsu-b1-a1362847.html?hloc=at&hloc=de
558E ist bezahlbar. 1440p ist nicht schlecht, und wohl richtige Auflösung für sGPU 1080. Ich sitze vor Samsung 4K UE65HU8700T, und ein Monitor soll krumm sein!

akuji13
2016-05-24, 07:47:13
hab nie nen Bildschirm mit dieser Auflösung vor Augen gehabt, bin mir aber recht sicher, dass vor hoher Auflösung einfach mehr Details folgen sollten.

Du bekommst automatisch mehr Details zu sehen mit UHD oder mehr wenn das Spiel z. B. vernünftig aufgelöste Texturen bietet.

In Spielen wie z. B. TW3 die kein ordentliches AA bieten möchte ich UHD bzw. 3840x1620 auch nicht mehr missen weil man so das Flimmern des contents halbwegs in den Griff bekommt.

horn 12
2016-05-24, 07:52:01
Auch ihr mit 3840x1620 .-)

Wenn schon dann Ordentlich mit 16:10 Monitor mit 3840x2400 so wie bei mir und meinem LG 2600HP-BF inkl. VSR und Fury.

uweskw
2016-05-24, 07:56:56
Erstens habe ich selbst schon ellenlange Dinger über MGPU verfasst, verfüge über tonnenweise Hardware und selbst zwei 980 Ti ruckeln :P

Wenn Du Zweitens einen 5960X @4,8 GHz auf einem guten X99 Board, 64 GB DDR4 3200 (8x8) und wahlweise zwei 980er (Wasser, im Gaming Table) oder zwei 980ti (Luft, im Wand PC) für unausgewogen hältst, dann fällt mir auch nichts mehr ein. Mit der 1080er OC im Single-Setup sieht es deutlich angenehmer aus. :)
Ich bin Hardware-Junkie, aber von MGPU bestens geheilt :)


du verstehst das nur nicht. Es geht um Nvidia. Da ist das Problem immer der User, nie die Hardware.:freak:

Greetz
US

akuji13
2016-05-24, 08:00:00
@horn 12

16:10 wird aktuell oft genug nicht unterstützt und VSR/DSR kann native Pixel nicht ersetzen.
Aber wir sind OT und sollten das wenn in einem anderen thread fortsetzen.

Gimmick
2016-05-24, 08:06:53
Wird 4K jetzt das neue Argument für den Kauf von 800€ Boliden?. Ich Brauche keine Brille, hab nie nen Bildschirm mit dieser Auflösung vor Augen gehabt, bin mir aber recht sicher, dass vor hoher Auflösung einfach mehr Details folgen sollten.

Unendlich Gras, Staub, Wolken usw. daran sollte man arbeiten.

Kommt drauf an welche Details. Hab gestern mal wieder FC4 angeworfen und würde hohe auflösung z.B. jederzeit PCSS Schatten vorziehen. Es läuft in UHD ja fast besser als in FHD mit PCSS x)

scully1234
2016-05-24, 08:46:36
Auch ihr mit 3840x1620 .-)

Wenn schon dann Ordentlich mit 16:10 Monitor mit 3840x2400 so wie bei mir und meinem LG 2600HP-BF inkl. VSR und Fury.


Ihr mit euren ''Zwergenscreens''unter 3 Meter Diagonale bin ich nicht beeindruckt:biggrin:

https://www.youtube.com/watch?v=NWVVDXVsvYI

MikePayne
2016-05-24, 09:24:14
http://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast

Die maximal erreichbaren 1.886 MHz der GeForce GTX 1080 Founders Edition sind mehr ein theoretischer Wert: In Spielen sieht man diesen Takt nie. Dort betrug die höchste je gemessene Frequenz während der Testreihen 1.835 MHz, doch war auch der Takt nach wenigen Sekunden Geschichte. In fordernden Titeln hat sich schlussendlich 1.785 MHz als höchster, realistischer Takt heraus gestellt.

Die Founders-Edition wird oft zu warm

Mit den Standardeinstellungen ist dieser jedoch oftmals ebenfalls nicht von langer Dauer. In manchen Titeln greift sofort das Power Target ein, schlussendlich bremst in allen Spielen spätestens nach wenigen Minuten jedoch das Temperature Target die GPU ein.

Hoffe die Kohle hat sich dafür gelohnt. Das wird nicht der letzte Haken sein...

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/ "Geforce GTX 1080 im Test: Der erste 16-nm-König mit 2 GHz im OC-Betrieb"

Dem Nvidia-Marketingmenschen gut Arbeit abgenommen?
Clickbait 4 the win, denn: "... und mit starker Nachrüstkühlung auf der Jagd nach 2 GHz Kerntakt"

So leise wie viele die 1080er anpreisen ist sie offensichtlich auch nicht.
Erinnert mich an die FX 5800 Ultra (http://www.techpowerup.com/gpudb/images/74.jpg) :D

https://www.youtube.com/watch?v=fbHfuovpjFk <- Föhn, ultra nervig

Dieses kritiklose Geil-finden der Karte kotzt bei dem Preis und dem Gebahren nvidias mit der 970 einfach nur an. Meine Meinung.
Ihr könnt natürlich auch Tempel bauen, aber mit Objektivität hat das dann gar nichts mehr zu tun.
Der AMD-Polaris Thread wird auch wieder mit dem 1080er Thema zugespammt...

-/\-CruNcher-/\-
2016-05-24, 09:26:02
Kommt drauf an welche Details. Hab gestern mal wieder FC4 angeworfen und würde hohe auflösung z.B. jederzeit PCSS Schatten vorziehen. Es läuft in UHD ja fast besser als in FHD mit PCSS x)

Wieso wohl PCSS hing schon eh und jeh am 33.3 ms limit.

Und magisch kommen die anderen sachen nicht hinterher

(del)
2016-05-24, 09:40:50
du verstehst das nur nicht. Es geht um Nvidia. Da ist das Problem immer der User, nie die Hardware.:freak:
Greetz
US

Mit zwei FuryX ist es meist noch schlimmer, zumal AMDs CF-Profile oft zeitlich arg hinterher hängen. Noch einmal: hier im Bestand sind mehr Grafikkarten, als der Shop um die Ecke haben dürfte. Egal ob ich es mit G-Sync oder Freesync verbessere, mich stören die Rucker seit Jahren. Und bitte sei so lieb und unterstelle mir keine notorische Dummheit :)

AFR ist immer fehlerbehaftet, prinzipbedingt. Falls irgendwann mal astreines SFR kommt, dann werde ich auch MGPU wieder mögen :)

Loeschzwerg
2016-05-24, 09:46:33
So leise wie viele die 1080er anpreisen ist sie offensichtlich auch nicht.
Erinnert mich an die FX 5800 Ultra (http://www.techpowerup.com/gpudb/images/74.jpg) :D

https://www.youtube.com/watch?v=fbHfuovpjFk <- Föhn, ultra nervig


Auf "Max" ist der DHE wirklich laut, aber sonst ist dieser völlig erträglich. Ich erinnere gerne an die G80/R600 Zeit, da hat so eine Lautstärke keine Sau interessiert. Die 8800 GTX wurde sogar als richtig leise bezeichnet.

Lies dir mal den Test von Igor @ THG durch, insbesondere das Fazit zum Kühler.

Raff
2016-05-24, 09:48:43
Auf "Max" ist der DHE wirklich laut, aber sonst ist dieser völlig erträglich. Ich erinnere gerne an die G80/R600 Zeit, da hat so eine Lautstärke keine Sau interessiert. Die 8800 GTX wurde sogar als richtig leise bezeichnet.

Die ist auch ziemlich leise – leiser als die GTX 1080 Early-Access. ;)

MfG,
Raff

Loeschzwerg
2016-05-24, 09:50:16
KK. Könnt ihr den alten Hasen mal wieder in eine Messung mit aufnehmen? So als Referenz :) Edit: Ok, bei der 8800 GTX waren es 1,2 Sone. Ist schon ein ordentlicher Unterschied.

scully1234
2016-05-24, 09:50:36
Falls irgendwann mal astreines SFR kommt, dann werde ich auch MGPU wieder mögen :)

Naja SFR ist auch eher der goldene Mittelweg,Ist ja nicht so ,als haetten wir das nicht alles schon mal ''mehr oder weniger'' durchgestanden, zu 3DFX Zeiten:wink:

Wie gut das mit DX12 skalliert ,falls es ein Dev mal anstaendig einpflegt, muss sich erst noch zeigen.

Da wird am Anfang immer viel ueber den Klee gelobt, und irgendwelche perfekten Demos präsentiert mit 90% Skallierung und mehr, die sich dann im realen Einsatz ganz anders darstellen

Thunderburne
2016-05-24, 10:15:47
Ich hab hier 900Euro für die Karte rumflattern immer mehr muss ich feststellen das ich die auf jeden Fall nicht für die Referenz ausgeben werde.
Das PCB ist eine absolute schweinerei in dem Preissegment .
NV lässt sich hier klar für die Leistung bezahlen aber auf gar keinen Fall für die Komponenten .
Bin echt kurz davor zu sagen steckt euch die Founders sonst wo hin .
Gestern hab ich meinen Monitor in die RMA gegeben so kann ich wenigsten gute 2 Wochen keine Blödsinn machen und mir anschauen was passiert.

haudi
2016-05-24, 10:19:21
Ist auch das einzig richtige was man machen kann - NV hat sich diesmal verkalkuliert. Nicht mehr jeder geht diesen Traumpreisen nach, was ich sehr schön finde! Vor allem wenn man sich das Video angesehen hat, als nen Pressefuzzi nach den 100$ Aufpreis fragte für die Referenzversion - dieses rumgeeier, das dann folgte, war sowas von peinlich und lächerlich....
Naja leider werden immer noch einige fleißig kaufen - jeder sollte sowas boykottieren!!

Thunderburne
2016-05-24, 10:22:00
Zur Not schiesse ich mir noch mal ne gute gebrauchte 980Ti .
Wie gesagt habe keine schmerzen 1000 Euro für ne Karte zu zahlen jedoch nicht wen das drum herum nicht passt.
Kleiner Die mieses PCB da wären 600Euro schon viel.

scully1234
2016-05-24, 10:22:12
Jetzt wartet doch einfach mal den Release ab und was die Boardpartner draus machen duerfen

Hier werden im Vorfeld schon wieder die Fackeln angezündet, obwohl noch gar nix öffentlich ist

Die ganzen Teaser von Asus,Gigabunt,Msi und Co sollten doch eigentlich darauf hindeuten, das da mehr im Gange ist ,als das was aktuelle ueber die Feuerschutz Edition gezeigt wird.

Man hat gewiß nicht grundlos solch eine PCB Auslegung gewaehlt,wo man noch grosszuegig nachbestuecken kann..., und ich glaube die AIBs sind da mit dieser Strategie derzeit mehr zu frieden,als es frueher der Fall war.

Denn ihre Eigendesigns gleich zum Release zu bringen , gab es in der Vergangenheit wohl eher selten.

EVga teasert ganz ''dezent'' im Precission X Tool schon allein 6 Karten , einschließlich der Classified und Hydro Copper

http://www.evga.com/precisionxoc/

Ätznatron
2016-05-24, 10:32:26
Jetzt wartet doch einfach mal den Release ab und was die Boardpartner draus machen duerfen

Genau.

Wer kann, sollte ein halbes Jahr abwarten, bis dann die richtigen Männerkarten auf dem Markt sind.

BlacKi
2016-05-24, 10:34:18
Genau.

Wer kann, sollte ein halbes Jahr abwarten, bis dann die richtigen Männerkarten auf dem Markt sind.
Eher 3 tage...

Ätznatron
2016-05-24, 10:36:22
Eher 3 tage...

Nee, in 3 Tagen kommen keine Männerkarten...da kommt Spielzeug.

scully1234
2016-05-24, 10:39:31
red keinen Quark

http://forums.evga.com/FindPost/2481913


http://wccftech.com/nvidia-geforce-gtx-1080-1070-custom-models/

Hübie
2016-05-24, 10:43:22
Die Korrelation zu Karte und Geschlecht muss man mir nun mal erklären. "Männerkarten". So was albernes hab ich lang nicht gelesen. :rolleyes: Verlässt deine Frau dich, wenn du dir nicht den Größten holst?

Thunderburne
2016-05-24, 10:43:52
Genau.

Wer kann, sollte ein halbes Jahr abwarten, bis dann die richtigen Männerkarten auf dem Markt sind.
Eine echte Männer Karte wird Wasser gekühlt wen du es so hören willst:P
Nicht dieses bling bling on Air wo man Thermisch limitiert ist.
Hydrocooper verwendet zum Beispiel immer die Refplatine ohne PCB Verbesserungen ob sich das diesmal ändert???... ich bezweifel es.
Eine Classified gehört schon Serienmässig mit FC angeboten die meisten nehmen den Kühler eh runter.

TobiWahnKenobi
2016-05-24, 10:52:11
ich habe irgendwie nicht kapiert, warum das treiberseitige SFR wieder gekippt wurde. AFAIR hatte ich schon zu NV40-SLi SFR, AFR und AFR2 zur auswahl und bin bisher davon ausgegangen, dass der treiber beide rendering-modes beherrscht. warum ist das jetzt wieder ne applikations-entwickler-sache?!

ansonsten sollte man das, was heiko zu SLi geschrieben hat mal irgendwo festpinnen.

btw,
ich bin von mGPU nie wirklich fan gewesen aber manchmal geht es einfach nicht anders. und soooo schwarz/weiss, wie es im netz gern dargestellt wird, ist es nicht.


(..)

mfg
tobi

BlacKi
2016-05-24, 10:54:00
Die Korrelation zu Karte und Geschlecht muss man mir nun mal erklären. "Männerkarten". So was albernes hab ich lang nicht gelesen. :rolleyes: Verlässt deine Frau dich, wenn du dir nicht den Größten holst?
nein, wenn er eine sich eine gpu holt die unter 200w frisst und kleiner als 400mm² ist, dann fühlt er sich nicht männlich genug :P

Ätznatron
2016-05-24, 10:58:28
Was bei euch so im Kopfkino abgeht... schon witzig.

Iruwen
2016-05-24, 11:04:38
Ist auch das einzig richtige was man machen kann - NV hat sich diesmal verkalkuliert. Nicht mehr jeder geht diesen Traumpreisen nach, was ich sehr schön finde!

Kannst du mir deine Glaskugel mal leihen, ich würde gern was schauen :rolleyes:
Die Karte ist teuer, aber auch nicht so teuer. NV machts eher richtig, Apple Style. Warum sollte man die schnellste Karte ever auch verramschen. Das große Geld wird in dem Segment eh nicht verdient, das kommt von den großen Volumen der günstigeren Karten.

Gimmick
2016-05-24, 11:10:41
Wieso wohl PCSS hing schon eh und jeh am 33.3 ms limit.

Und magisch kommen die anderen sachen nicht hinterher

Was für ein 33,3ms Limit? Was macht das?

akuji13
2016-05-24, 11:26:10
Eine echte Männer Karte wird Wasser gekühlt wen du es so hören willst:P

"Echte" Männer ertragen die Hitze und den Lärm. ;)

Kleiner Die mieses PCB da wären 600Euro schon viel.

Mir ist die Größe des die völlig wumpe.
Man bekommt Leistung X für Betrag Y, das ist alles was zählt.

Ob das für einen passt entscheidet natürlich jeder selbst.

PHuV
2016-05-24, 11:27:55
Peinlich ist eher dieses ständige schlecht reden von einem Produkt mit falschen Aussagen nur weil man offensichtlich nicht das nötige klein Geld dazu hat :rolleyes:
Das ist das 3D-Center live seit 15 Jahren. :lol:
NV hat sich diesmal verkalkuliert.
Für jeden dieser Sätze von hier ein €, und ich hätte schnell mehrere GTX 1080 in FE zusammen. Das wird immer wieder behauptet, jedoch hat sich in der Praxis in der Vergangenheit genau das Gegenteil bewiesen, Nvidia lag richtig.

Nicht mehr jeder geht diesen Traumpreisen nach, was ich sehr schön finde! Vor allem wenn man sich das Video angesehen hat, als nen Pressefuzzi nach den 100$ Aufpreis fragte für die Referenzversion - dieses rumgeeier, das dann folgte, war sowas von peinlich und lächerlich....
Naja leider werden immer noch einige fleißig kaufen - jeder sollte sowas boykottieren!!
Hier muß ich auch :lol: en. Was ist mit dem 970-Skandal passiert? Nix.
http://wccftech.com/nvidia-geforce-gtx-1080-1070-custom-models/
The NVIDIA GeForce GTX 1080 will be available for sale next week through retail stores but it has already went on pre-order. According to a report by Eteknix, the Pre-Orders for the GeForce GTX 1080 sold out in just a few minutes.


Und zu 4k. Also wenn man einmal 4k hat, will man eigentlich nicht mehr zurück. Bei Strategiespielen ist mehr Fläche einfach mehr.

-/\-CruNcher-/\-
2016-05-24, 11:31:59
Was für ein 33,3ms Limit? Was macht das?

Der ganze Overhead bei 1080p liegt bei PCSS mit 4k enkoppelst du es quasi da die Jumps kleiner werden pro frame du näherst dich der Efffizienz grenze für die es optimiert wurde in der Frametime Latenz bei 60 FPS sprich 16,6 ms wird der overhead einfach zu groß für 16,6 ms brauchst du ordentlich Shader Power.

Deswegen läuft es für dich gefühlt bei 4k besser die Latenzen sind angeglichen weniger Fluktuationen das Temporale Ergebnis ist gleichmässiger zwar im Input Langsamer aber für das Auge angenehmer und das CPU Limit wird zusätzlich niedrieger ;)

Complicated
2016-05-24, 11:44:55
Was für ein 33,3ms Limit? Was macht das?
33,3 ms=> 30 FPS

Was es macht?
https://www.youtube.com/watch?v=a2OQP1rv7Ts
*SCNR* :biggrin:

Thunderburne
2016-05-24, 12:12:23
"Echte" Männer ertragen die Hitze und den Lärm. ;)



Mir ist die Größe des die völlig wumpe.
Man bekommt Leistung X für Betrag Y, das ist alles was zählt.

Ob das für einen passt entscheidet natürlich jeder selbst.
Zu 1: es geht mir nicht um den Lärm die Hitze aber schon.
Du kannst bei 68-78°C nicht das an OC abrufen was du unter z.b 30-35°C anstellen kannst somit bekomme ich für das Geld nicht was ich haben will.

Zu:2 mich interessiert es schon was auf dem PCB sitzt und was ich damit abrufen kann.

Im Fall des Ref.PCBs erwarte ich zumindest nicht viel.

Und ja genau jeder Entscheidet für sich selbst was ehr als angebracht empfindet darum spreche ich auch für mich selbst.

akuji13
2016-05-24, 12:21:16
Alles gut, meine X läuft auch unter Wasser. :wink:

mich interessiert es schon was auf dem PCB sitzt und was ich damit abrufen kann.

Im Fall des Ref.PCBs erwarte ich zumindest nicht viel.

Zumindest kann man jetzt schon ungefähr abschätzen was mindestens geht.
Ich rechne da immer pessimistisch und würde hier mit NV Referenz design nicht mehr als 2Ghz einplanen.
Bei meiner X bin ich auch von nur 1.4Ghz ausgegangen.

Ob das design der Haltbarkeit auf Dauer zuträglich oder abträglich ist kann ich nicht einschätzen.
Solange da keine stichhaltigen Zahlen kommen ist mir das auch Wurst.

Rampage 2
2016-05-24, 12:24:28
Macht kein Sinn da die dann zu nahe an der 1080 Ti wäre,es wir vermutlich so aussehen wenn alle Pascal Karten raus sind 1080 für 600,1080Ti für 750 und 1000 für die näste Titan.

Eine Ti (GP102) für höher als 700€ zu anzubieten, werden nur die wenigsten Käufer mitmachen - weil es Wucher ist und die Schmerzgrenze (700€) überschreitet. Das "Ti" lag bis jetzt immer im 600-700€ Bereich. IMO wird es so aussehen:

1080: von 600$ runter auf 500$ (später im Laufe der Zeit)
1080 Ti: 650$ (= 650-700€ im EU-Raum)
Titan III: 999$ (wie immer... :redface:)

R2

=Floi=
2016-05-24, 12:36:10
die 980Ti hatte auch keinen vollen chip!

PHuV
2016-05-24, 12:40:31
Eine Ti (GP102) für höher als 700€ zu anzubieten, werden nur die wenigsten Käufer mitmachen - weil es Wucher ist und die Schmerzgrenze (700€) überschreitet. Das "Ti" lag bis jetzt immer im 600-700€ Bereich.
Und früher gabs Brötchen für 10 Pfennige. :rolleyes:

1080: von 600$ runter auf 500$ (später im Laufe der Zeit)
1080 Ti: 650$ (= 650-700€ im EU-Raum)
Titan III: 999$ (wie immer... :redface:)
Öhm, die Titan X lag bei ca. 1300 € und mehr, und hielt sich relativ lange stabil in diesen Preisregionen.

Ravenhearth
2016-05-24, 13:34:02
Öhm, die Titan X lag bei ca. 1300 € und mehr, und hielt sich relativ lange stabil in diesen Preisregionen.

$ ≠ €

Iruwen
2016-05-24, 13:53:09
https://geizhals.de/?phist=1245239&age=9999

Ex3cut3r
2016-05-24, 16:14:22
Die Korrelation zu Karte und Geschlecht muss man mir nun mal erklären. "Männerkarten". So was albernes hab ich lang nicht gelesen. :rolleyes: Verlässt deine Frau dich, wenn du dir nicht den Größten holst?

Genial, lange nicht so gut gelacht. :biggrin:

Kriegsgeier
2016-05-24, 16:19:05
ich glaube am besten wartet man den ganzen Juni + Juli ab un im August gibt es soooooo viele Gerüchte über 1080Ti, dass die 1080 im Preis auf unter 480€ fällt...

TurricanM3
2016-05-24, 16:35:10
Warten warten, meine Zeit auf dem Planeten ist begrenzt. =)

BK-Morpheus
2016-05-24, 16:40:26
Warten warten, meine Zeit auf dem Planeten ist begrenzt. =)
This!

Ich warte nur noch auf die Vorstellung der P10 und falls diese solide ist, auf die ersten Reviews. Dann wird gekauft (1070 oder P10), sonst kann ich quasi ewig warten (steht ja immer was neues vor der Tür).

iuno
2016-05-24, 17:05:30
Hat eigentlich nun niemand von den werten Redakteuren mit ethash bzw genoils fork (https://github.com/Genoil/cpp-ethereum)getestet?
Igor hatte doch frueher glaube ich mal in den Computing Tests btc mining drin ;)

Godmode
2016-05-24, 17:09:52
Hat eigentlich nun niemand von den werten Redakteuren mit ethash bzw genoils fork (https://github.com/Genoil/cpp-ethereum)getestet?
Igor hatte doch frueher glaube ich mal in den Computing Tests btc mining drin ;)

Die GP104 Karten werden viel zu teuer fürs Mining sein.

iuno
2016-05-24, 17:20:37
Das ist voellig klar, wenn der Rechner aber eh schon laeuft ist es eine nette Alternative zum idle ;p
Zumal mich einfach interessiert, wie da die Leistung ist. Die meisten werden auch sonst z.B. kein CUDA/OpenCL raytracing machen, trotzdem ist es in den Tests in der Regel drin.
Ich rede ja nicht davon, damit Mining Rigs aufzubauen, das waere in der Tat absurd.