PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 Ti: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16

Triniter
2016-01-12, 19:37:48
@Trinter:
Nahezu identisch mit der G1, bis auf Takt und Power Target. Bissl laut, aber mit leicht modifizierter Lüfterkurve noch nicht einmal schlecht.

Welcome to the forums. :)

Soll sie denn "Stock" bleiben oder unter Wasser? Hast du Präferenzen bzgl. des Herstellers bzw. Designs? Wo liegt deine preisliche Schmerzgrenze?

Hallo ihr zwei, danke für eure Rückmeldung.
Die Karte soll so verbaut werden wie sie aus der Schachtel kommt (Lüfterkurve anpassen ist kein Thema), also kein Wakü-Umbau oä.
Wichtig wäre mir einfach eine durchdachte Kühlerlösung die mit den Werkseinstellungen gut zurecht kommt. Idealerweise geht sie nicht nach nem Jahr kaputt aber klar da kann man leider bei jedem Hersteller pech haben.
Von EVGA hört man recht viel gutes, hatte aber bisher noch keine Karte von denen. Ansonsten hatte ich bisher verschiedene Asus, Zotac und Gigabyte Karten. Asus gefällt mir aktuell nicht, die Preisgestaltung finde ich übertrieben für die 980ti Modelle. Bei meiner GTX770 ist der Windforce im Desktopbetrieb nicht zu hören, beim Spielen dann aber schon, ich weiß leider nicht in wie fern die Konstruktion dann mit der 980ti noch zurecht kommt oder wie sie angepasst wurde.

(del)
2016-01-12, 19:44:44
Die Palit SuperJetstream ist leiser, aber ich finde die VRM-Kühlung nicht ganz so prall. Bei der Windforce ist der Block im Hauptkühler integriert. Auf das ganze Backplate-Geraffel kann man eh verzichten, ist fast immer nur Optik.

Triniter
2016-01-12, 19:57:50
Die Palit SuperJetstream ist leiser, aber ich finde die VRM-Kühlung nicht ganz so prall. Bei der Windforce ist der Block im Hauptkühler integriert. Auf das ganze Backplate-Geraffel kann man eh verzichten, ist fast immer nur Optik.
Mit der Backplate liest man so öfters. Bei ner Wasserkühlung seh ich das ein, wenn ich da dann noch aktiv den Kühlkreislauf mit durchjage.
Heißt also die Gigabyte kaufen und glücklich sein?

Gimmick
2016-01-12, 20:18:43
Hallo ihr zwei, danke für eure Rückmeldung.
Die Karte soll so verbaut werden wie sie aus der Schachtel kommt (Lüfterkurve anpassen ist kein Thema), also kein Wakü-Umbau oä.
Wichtig wäre mir einfach eine durchdachte Kühlerlösung die mit den Werkseinstellungen gut zurecht kommt. Idealerweise geht sie nicht nach nem Jahr kaputt aber klar da kann man leider bei jedem Hersteller pech haben.
Von EVGA hört man recht viel gutes, hatte aber bisher noch keine Karte von denen. Ansonsten hatte ich bisher verschiedene Asus, Zotac und Gigabyte Karten. Asus gefällt mir aktuell nicht, die Preisgestaltung finde ich übertrieben für die 980ti Modelle. Bei meiner GTX770 ist der Windforce im Desktopbetrieb nicht zu hören, beim Spielen dann aber schon, ich weiß leider nicht in wie fern die Konstruktion dann mit der 980ti noch zurecht kommt oder wie sie angepasst wurde.

Hab auch lange rumgerätselt welche ich mi holen soll, habe mich dann für die EVGA 980ti SC+ entschieden und bin zufrieden.
Ich denke aber, dass man weder mit der EVGA noch mit der Gigabyte was falsch machen kann.

Da ich zuvor Probleme mit dem Support von MSI hatte hab ich da halt aus der Situation raus mehr Wert draufgelegt und mich daher für die EVAG entschieden. Ansonsten wäre es wohl die Gigabyte geworden.

Meine EVGA läuft btw. momentan mit +110 MHz Chip, +50 MHz VRam und +4 mV bei 110% PT ohne Probleme. Weiter nach oben traue ich mich erst wenn ich noch länger keine Probleme hatte :<
Wobei 1400 MHz an sich schon eine schöne Zahl ist :freak:

Edit: Das einzige was mir aufgefallen ist: Ich hab gerade einen ziemlich alten Flatscreen mit VGA Anschluss als Zweitmonitor angeschlossen. Der zeigt Störungen in Abhängigkeit der FPS ^^

phoenix887
2016-01-14, 01:51:58
Also das -100mV Aux scheint wirklich ein Geheimtipp zu sein. Jetzt eben knapp 2 Stunden Just Cause 3 4K gezockt mit 1540mhz, null Probleme:biggrin: Die Feuertaufe kommt dann mit dem Witcher 3 Addon.

Lowkey
2016-01-14, 10:19:12
Seit knapp 3 Wochen kein Fehler mehr. Mit USBDeview habe ich das USB Problem gelößt und seitdem mit der Grafikkarte auch nichts Negatives mehr erlebt. Also hat im Grunde die Grafikkarte den Fehler nicht erzeugt. Wer weiss...

Godmode
2016-01-14, 10:50:35
Also das -100mV Aux scheint wirklich ein Geheimtipp zu sein. Jetzt eben knapp 2 Stunden Just Cause 3 4K gezockt mit 1540mhz, null Probleme:biggrin: Die Feuertaufe kommt dann mit dem Witcher 3 Addon.

Kann die AUX Spannung auch beim Referenzdesign geändert werden, oder ist das nur bei Herstellerdesigns möglich?

(del)
2016-01-14, 10:51:39
Mal bitte lesen und dann wenn es geht versuchen, das selbst zu reproduzieren:
http://www.tomshardware.de/nvidia-treiber-idle-leistungsaufnahme-bug,testberichte-242017.html

Bei mir tritt es auch mit einem unverdächtigen 0815-Monitor, FullHD und 60 Hz auf. Auch mit einer kleinen GTX 950. Hat noch jemand dieses Phänomen bzw. das auch bei anderen Karten?

phoenix887
2016-01-14, 11:36:01
Kann die AUX Spannung auch beim Referenzdesign geändert werden, oder ist das nur bei Herstellerdesigns möglich?


Das weiß ich nicht, weiß nur, dass das ein Feature der Lightning ist, das ich bequem über den Afterburner steuern kann.

Das müsste Format C beantworten können. Haben es neulich schon davon gehabt, da hatte erzählt, dass man die Aux-Spannung bei anderen Karten per Modbios steuern kann, wenn ich das richtig verstanden habe.

(del)
2016-01-14, 11:59:36
Geht mit dem Arschbrenner aktuell wohl nur, wenn Du eine Lightning hast. Ich habs mit anderen Karten einschließlich der normalen MSI GTX 980 Ti Gaming 6G probiert - nix.

phoenix887
2016-01-14, 12:24:21
Aber per BIOS oder habe ich dich damals falsch verstanden?

(del)
2016-01-14, 12:33:37
Aber per BIOS oder habe ich dich damals falsch verstanden?
BIOS geht immer ;)

TurricanM3
2016-01-14, 12:37:49
Wie kann es denn sein dass die geringere Aux Spannung zu besserem OC führt?
Kompensiert das die Karte irgendwie?

Wie verhalten sich Temperaturen / Verbrauch damit?

phoenix887
2016-01-14, 12:43:31
Ja das ist es, was mir durch den Kopf geht, weshalb ist das so? Ist nur eine Feststellung von mir.

Temperatur und Verbrauch sind gefühlt unverändert. Habe aber jetzt auch nicht die Werte davor aufgezeichnet um eine objektive Aussage machen zu können.

(del)
2016-01-14, 13:04:05
Ich habs im Thread zum Werks-OC versucht zu erklären. Und bitte, das ist die PLL-Voltage und nicht Aux ;)

phoenix887
2016-01-14, 15:00:39
Stimmt, hatte ich vergessen. Ist bei mir nicht hängen geblieben, die Erklärung. Aber nicht persönlich nehmen Herr Dozent:biggrin: das Defizit liegt bei mir:freak:

LSSJBroly
2016-01-14, 15:21:10
Mal bitte lesen und dann wenn es geht versuchen, das selbst zu reproduzieren:
http://www.tomshardware.de/nvidia-treiber-idle-leistungsaufnahme-bug,testberichte-242017.html



Hab ich hier nicht - nutze aber auch schon den 361.60. Vielleicht ändert der irgendwas an dem Verhalten?
Afterburner zeigt immer noch ~8% PT im Leerlauf an, GPU-z die üblichen ~6,2% (PT bei 250 Watt)
http://abload.de/thumb/7-630.2648171128jgumj.jpg (http://abload.de/image.php?img=7-630.2648171128jgumj.jpg)

Mein Messgerät an der Steckdose zeigt mir wie schon seit Monaten im Leerlauf die üblichen knapp 70 Watt an.

(del)
2016-01-14, 15:21:28
Stimmt, hatte ich vergessen. Ist bei mir nicht hängen geblieben, die Erklärung. Aber nicht persönlich nehmen Herr Dozent:biggrin: das Defizit liegt bei mir:freak:

Kein Thema, ich bin Leid gewohnt :P

LSSJBroly
2016-01-14, 16:26:32
Ich hab jetzt nochmal den 355.60 dagegen getestet. Auf meinem Messgerät werden weiterhin knapp 70 Watt im Leerlauf angezeigt und die GPU-Temperatur bewegt sich auf dem selben niveau (rund 30°C).
GPU-z und auch der Afterburner zeigen das selbe wie in meinem vorherigen Beitrag an.

Dennoch ein interessantes Verhalten.

Hübie
2016-01-16, 03:19:37
Mal bitte lesen und dann wenn es geht versuchen, das selbst zu reproduzieren:
http://www.tomshardware.de/nvidia-treiber-idle-leistungsaufnahme-bug,testberichte-242017.html

Bei mir tritt es auch mit einem unverdächtigen 0815-Monitor, FullHD und 60 Hz auf. Auch mit einer kleinen GTX 950. Hat noch jemand dieses Phänomen bzw. das auch bei anderen Karten?

Wird wohl Link ASPM sein. Ist der Intel-Treiber für X99 auf dem Image? Wenn ja->löschen. Wenn nein->installieren. Sieht man ja auch an deinen Messungen, dass die Energie vom PEG aufgenommen wird.

Teste sonst zusätzlich einfach mal die Windows Energiesparmodi "Höchstleistung" und "Energiesparmodus". Könnte eine Wechselwirkung des neuen Treiber und dem Link Management sein. Oder einfach warten. nVidia fixt das schon. :biggrin:

ps: Die THG-Seite ist immer noch eine Katastrophe. Wie vor 10 Jahren. Wer verbricht denn so etwas eigentlich? X-D

Ich habe die Breite extra mal gelassen um zu veranschaulichen wie man es 2016 nicht mehr machen sollte. Und dann die gute Ablesbarkeit der Werte in jedem verdammten Review seit ...weiß der Geier wieviel Jahren :facepalm:

http://abload.de/thumb/thg-katastrophe5tbup.png (http://abload.de/image.php?img=thg-katastrophe5tbup.png)

HansSolo
2016-01-16, 12:41:45
Hallo, Wenn ich bei meiner Palit 980 ti SuperJetstream das PT auf 300 Watt stellen möchte, reicht es da den Regler für die Gesamt Watt im Bios auf 300 Watt hochzustellen? Im Bios sieht es nämlich so aus dass auf dem 6pol Anschluss schon bis zu 105 Watt gezogen werden dürfen auf dem 8pol bis zu 175 Watt und pcisteckplatz bis zu 75 Watt. Das wären zusammen ja auch schon über 300 Watt.....

(del)
2016-01-16, 12:53:32
Der Witz daran, die Karten ziehen keine 75 Watt mehr über den Mainboardanschluss. Meist im Mittel nur noch um die 50 Watt, einige weniger als 10 watt. Es geht eh fast alles über den/die PCIe-Stecker. Das mit der Norm ist eh so ein Spielkram. Wegen 20 Watt mehr explodiert da nichts :)

HansSolo
2016-01-16, 13:29:49
Der Witz daran, die Karten ziehen keine 75 Watt mehr über den Mainboardanschluss. Meist im Mittel nur noch um die 50 Watt, einige weniger als 10 watt. Es geht eh fast alles über den/die PCIe-Stecker. Das mit der Norm ist eh so ein Spielkram. Wegen 20 Watt mehr explodiert da nichts :)

Ah okay, dann werde ich wohl die Werte vom 6pol und 8pol Stecker jeweils auch erhöhen. Ich habe die Anleitung wie es funktioniert über Google Suche gefunden http://www.computerbase.de/forum/showthread.php?t=1445972. Danke auch....

phoenix887
2016-01-17, 01:44:22
So, gehe jetzt fast davon aus das die 1540mhz stabil sind bei mir. Zumindenst für die länge der Sessions die ich zocke, von 90min-120min am Stück. By the way, keine Ahnung warum das bei mir so ist, ist aber immer das selbe Zeitfenster auch wenn ich nicht auf die Uhr schaue, liegt wohl am Alter:D

Aufjedenfall habe ich eben 90 min. The Talos Principle@4K@Ultra@2xMSAA@2XSGSSAA gespielt und keine Probleme. Die GPU war Non-Stop mit 99% ausgelastet. War für 20min bei einem Rätsel gehangen, bei dem das Powertarget konstant mit 122% ausgelastet war. Also ca. 366W bei mir. Da geht die Karte dann schon maximal bis 82°C hoch. Das ist genau der Punkt wo die Karte runterschaltet auf 1527mhz@1,2V. (alle Gehäuselüfter bei 600rpm fixiert)

War jetzt nur bei der eine Location, aber so weiss ich wenigstens das der nächste Zwischentakt auch stabil ist.

Muss nochmal den Lüfter der Lightning loben. Selbst bei 2000rpm stört der mich nicht und das Nachts! Kein Headset, Sound@Zimmerlautstärke
Mit der Leistung werde ich Pascal Midrage Karten überspringen und nicht wie bei Maxwell mir eine GTX980 non-ti holen, sondern erst wieder zuschlagen bei einer MSI Pascal Lighting. MSI hat definitiv ein Stein bei mir im Brett, wie vorher bei Mainboards schon.

(del)
2016-01-17, 07:35:52
Na dann :) Ich kann bei der Lightning auch nicht klagen.

phoenix887
2016-01-17, 08:17:51
Na dann :) Ich kann bei der Lightning auch nicht klagen.

Ja, wollte mich einfach nur nochmal mitteilen und das mit der PLL-Spannung bestätigen.

Aber deine arme Lightning muss ja zu deiner Frau. Ob die da noch richtig gefordert wir? :)

Hübie
2016-01-17, 11:44:01
Igor? Hast du rein zufällig auch Kühlkörper gewogen?

Monty
2016-01-17, 11:52:30
Muss nochmal den Lüfter der Lightning loben. Selbst bei 2000rpm stört der mich nicht und das Nachts! Kein Headset, Sound@Zimmerlautstärke
Mit der Leistung werde ich Pascal Midrage Karten überspringen und nicht wie bei Maxwell mir eine GTX980 non-ti holen, sondern erst wieder zuschlagen bei einer MSI Pascal Lighting. MSI hat definitiv ein Stein bei mir im Brett, wie vorher bei Mainboards schon.

Die Zeiten eines jährlich notwendigen Updates sind ja ein Glück auch vorbei. Wer aktuell eine 980ti hat, kann auf Pascal sicher getrost verzichten ;)

TurricanM3
2016-01-17, 12:22:27
Wer aktuell eine 980ti hat, kann auf Pascal sicher getrost verzichten ;)


Die Performance reicht mir in 1440p zu oft nicht. Sobald es was schnelleres gibt, werde ich die Karte ersetzen.

Niall
2016-01-17, 12:29:32
Die Performance reicht mir in 1440p zu oft nicht. Sobald es was schnelleres gibt, werde ich die Karte ersetzen.

Dito, speichermäßig bin ich bisher mit den +/- 6GB ganz zufrieden, 20 FPS dürften es unter 1440p allerdings teilweise auch sein. Man wird ja noch träumen dürfen. ...oder doch mal über SLI nachdenken. :freak:

(del)
2016-01-17, 19:30:24
Igor? Hast du rein zufällig auch Kühlkörper gewogen?
Von der Lightning? Ich habe nur das Gesamtgewicht von 1,367 Kilo gemessen.

Aber deine arme Lightning muss ja zu deiner Frau. Ob die da noch richtig gefordert wir? :)
Mit Sicherheit. Die hat in Anno jetzt so viele Pimpfe am rumhasten, dass die Siedlungen proppevoll sind. Das geht echt auf die Pumpe, vor allem in höheren Auflösungen. Mich nervt die jetzt (noch) verbaute 980 Ti Referenz im Dauerlauf, weil der Kühler wirklich scheißlaut ist. Ich warte allerdings noch auf meinen Fullcover für die TitanX, dann erst wird getauscht.

phoenix887
2016-01-17, 21:17:17
Die Zeiten eines jährlich notwendigen Updates sind ja ein Glück auch vorbei. Wer aktuell eine 980ti hat, kann auf Pascal sicher getrost verzichten ;)


Ja hast recht. Mir langt die Leistung unter 4k. Aber wäre da nicht der Haben Will Virus manchmal:D

Hoopster
2016-01-17, 22:48:38
Diesen haben will Virus habe ich zZ mit der Classified 980ti, wollte vorher erst die Kingpin aber Classy ist nicht viel schlechter

Triniter
2016-01-18, 21:42:50
Bei mir ist es jetzt die Gigabyte 980ti Xtreme geworden. Da gibt's grad ein tolles Angebot beim Gehäusekönig. Bin echt gespannt auf das gute Stück. Hab bisher erst eine Karte über der x70 gekauft und das war ewig her (gtx 280).
Hoffentlich kommt die Karte morgen gleich...

phoenix887
2016-01-18, 23:58:32
@Format C

Da du einen guten Draht zu den Hersteller hast, wird die lightning nicht mehr von MSI hergestellt?

Habe nämlich etwas nach anderen Usererfahrungen gegoogelt und dabei gesehen das die Karte fast nicht mehr lieferbar bzw. Bei manche Händler sogar ganz aus dem Sortiment rausgefallen ist.

Habe ja eine, aber vielleicht bekommt die ja Sammlerwert mit der Zeit jetzt;)

Godmode
2016-01-19, 10:24:28
Die Zeiten eines jährlich notwendigen Updates sind ja ein Glück auch vorbei. Wer aktuell eine 980ti hat, kann auf Pascal sicher getrost verzichten ;)

Wenn man in 4K spielen will, dann ist GM200 schon jetzt an der Grenze. Ich kann Pascal/Polaris kaum erwarten.

dildo4u
2016-01-19, 10:40:56
Die erste Pascal wird keine High End Karte,die 980 Ti wird noch ne Weile ganz oben stehen.

Godmode
2016-01-19, 10:45:57
Gegen GP104 wird es GM200 wohl schon schwer haben, wenn ich jetzt auch nicht einen riesigen Unterschied erwarte. Für mich ist aber nur GP102/GP100 interessant und die erwarte ich erst im Jahr 2017.

Ex3cut3r
2016-01-19, 17:38:55
Die erste Pascal wird keine High End Karte,die 980 Ti wird noch ne Weile ganz oben stehen.

Wie kommst du denn darauf?

Die 680 hat damals die 580 auch zerstört....

Nightspider
2016-01-19, 17:45:04
Die erste Pascal wird keine High End Karte,die 980 Ti wird noch ne Weile ganz oben stehen.

So ein Quatsch. Selbst mit dem kleinen Pascal (GP104) wird eine Grafikkarte vor einer 980ti liegen.

Mit hoher Wahrscheinlichkeit werden da 10-30% mehr Leistung herauskommen bei vorraussichtlich 8GB VRAM und eventuell noch besserem Übertaktungsverhalten.

Mal ganz davon abgesehen das Pascal unter DX12 noch paar Vorteile haben könnte.

(del)
2016-01-19, 17:51:23
Glaskugeldreher :D

Thomas Gräf
2016-01-19, 19:04:16
Ja wie immer je nach Settings 10-30% mehr Leistung plus 30% schlechterem P/L Verhältniss. ;) ;)

TurricanM3
2016-01-19, 23:01:10
Ich kann nun recht sicher sagen, die Abstürze (dxError in BF4) meiner Karte lagen tatsächlich an zu wenig Spannung. Falls da noch wer Probleme hat, OC runter oder mehr Spannung. Hatte die Abstürze ja nach 40h Spielzeit teilweise erst.
Mit 1199mV konnte ich hingegen 100h insgesamt ohne Probleme zocken (F4 & BF4 Mix).
Bin ja extra testweise noch mal auf 1174mV zurück und zack nach 11h wieder der Error. Für mich pers. ist mein OC daher auch nicht stable so lange ich nicht 50+h gezockt hab.

phoenix887
2016-01-20, 00:53:00
Ich kann nun recht sicher sagen, die Abstürze (dxError in BF4) meiner Karte lagen tatsächlich an zu wenig Spannung. Falls da noch wer Probleme hat, OC runter oder mehr Spannung. Hatte die Abstürze ja nach 40h Spielzeit teilweise erst.
Mit 1199mV konnte ich hingegen 100h insgesamt ohne Probleme zocken (F4 & BF4 Mix).
Bin ja extra testweise noch mal auf 1174mV zurück und zack nach 11h wieder der Error. Für mich pers. ist mein OC daher auch nicht stable so lange ich nicht 50+h gezockt hab.

Wo nimmst du die Zeit her um das zu testen? ist ja ne ganzandere Welt als bei mir:D

Hübie
2016-01-20, 01:05:48
Du siehst doch dass er Zeitreisen unternehmen kann. Was soll diese Frage? :D Im Luxx denken einige er hat die Stunden am Stück herunter gerissen. Dachte erst die meinen das nicht ernst. :freak: Armer Turri. 40 Stunden in einer Tour auf das eckige Teil starren X-D

phoenix887
2016-01-20, 01:31:27
Du siehst doch dass er Zeitreisen unternehmen kann. Was soll diese Frage? :D Im Luxx denken einige er hat die Stunden am Stück herunter gerissen. Dachte erst die meinen das nicht ernst. :freak: Armer Turri. 40 Stunden in einer Tour auf das eckige Teil starren X-D

;D;D;D;D;D sorry bin nicht mehr ganz nüchtern;)

Triniter
2016-01-21, 07:50:30
Hab gestern meine 980ti auch noch schnell in den alten PC eingebaut. Konnte es nicht mehr erwarten bis die restlichen Teile für den neuen Rechner da sind. Man ist das ein Unterschied zur 770 bei WQHD.

gnomi
2016-01-21, 10:08:27
Ich hoffe schon, dass die Karte etwas schneller als die 980 TI wird.
Ansonsten entfällt ein Upgrade bei mir.
680 und 980 waren dahingehend einwandfrei und schlugen 580 und 780 TI deutlich.

Thomas Gräf
2016-01-23, 18:25:58
Keine Bange die Karte wird schneller sein. Aber derzeit stehen 980ti bei 700-800euro.
Somit sehe ich den 980ti Nachfolger in 2016 bei 900 euro.
Nach den News auf der Hauptseite heute wird AMD die Furys wohl auslaufen lassen und kein TopEnd in 2016 anbieten.
...das wars Lars ;) ;)

(del)
2016-01-24, 07:27:29
Übrigens: inno3D hat auch noch einmal nachgelegt und die GTX 980 Ti iChill X3 DHS aufgelegt.
Takraten, Offset und Boost-Steps hat man von der Gigabyte 980 Ti Extreme / Gaming G1 kopiert. Ob's hilft?

Schönes Mousepad, das Wechselcover ist allerdings Spielkram:

http://media.bestofmicro.com/W/Y/553282/gallery/Intro_w_600.jpg

Trotz eines Power Targets von 300 Watt knackt die Karte schon bei 284 Watt ein.
Der Grund dürfte im etwas zu niedrig angesetzten Temperatur-Limit zu suchen sein:

http://media.bestofmicro.com/W/E/553262/gallery/01-Clock-Rate_w_600.png

Get gerade so, aber es ginge deutlich besser, zumal man beim Stresstest die
120-Grad-Marke schafft:

http://media.bestofmicro.com/W/J/553267/original/03-Gaming-Loop.png

Zu viele Spikes am PEG. Im Durchschnitt 65 Watt sind zwar gerade noch ok, aber Spitzen
von über 100 Watt sind unzeitgemäß. Mit einem diesbezüglich empfindlichen Mainboard
hat man dann das Gezirpe im Audio-Part: WYHIWYS (what you hear is what you see)

http://media.bestofmicro.com/X/A/553294/gallery/15-Gaming-PEG-Total_w_600.png

=Floi=
2016-01-24, 08:34:03
wie hoch ist denn die temperatur der GPU? ab wann drosselt sie?


kennt jemand den grund, warum NV die 980Ti so genannt hat und die 980 so einen ähnlichen namen bekommen hat?

dildo4u
2016-01-24, 10:13:50
Gigabyte GeForce GTX 980 Ti Xtreme Gaming Windforce Review

http://www.tomshardware.com/reviews/gigabyte-980ti-xtreme-gaming-windforce,4391.html

woodsdog
2016-01-24, 11:56:46
wieso geht denn da beim OC fast gar nix...?

Feuerpfote
2016-01-24, 12:16:58
ich bin hin und hergerissen. Die Palit sollte doch super leise sein und trotzdem hohe Taktraten ermöglichen:
http://geizhals.de/palit-geforce-gtx-980-ti-super-jetstream-ne5x98th15jbj-a1275014.html?hloc=at&hloc=de

Für 700€ gibts nichts besseres, oder?

MartinRiggs
2016-01-24, 12:36:11
Also ich bin kein Palit-Freund da ich mit der GTX780 schon schlechte Erfahrungen hatte, hab Palit aber noch ne Chance gegeben und bin bis auf 2 kleine Punkte mit meiner Super Jetstream(Asic 69,9 - Boost 1340) zufrieden.

Die Lüftersteuerung ist nicht ganz Glücklich da die Lüfter ständig an und aus gehen wenn die Grafikkarte um 60 Grad rum ist, das kann man aber per Lüfterkurve selbst beheben.

Spulenfiepen hat sie ab 200-300FPS schon ganz ordentlich, da man da aber oft nicht hinkommt FPS-technisch ist es ok und man hört es selbst mit offenem Kopfhörer nicht.
Zumal das halt auch stark schwanken soll von Modell zu Modell.

Da Palit in puncto Garantie/Gewährleistung nicht der Burner sein soll habe ich bei Amazon bestellt, da kann man sicher sein das es kein Stress gibt falls was mit der Grafikkarte ist.
Kleiner Nachtrag: Ja die Super Jetstream ist sehr leise, sie dreht meist zwischen 1100 - 1200 U/min und bleibt so bei 71-72 Grad, ich habe aber auch ein sehr gut belüftetes Gehäuse.

Feuerpfote
2016-01-24, 12:51:48
hach, das klingt zu gut. Also diese Karte oder auf die nächste Generation warten. Schwere Entscheidung, eieieiei.

Raff
2016-01-24, 14:18:35
Schlag zu, da kann man wirklich nicht viel motzen. Der gebetsmühlenartige Verweis auf GPUs, die in 6 Monaten eventuell kaufbar und noch eventueller schneller als die 980 Ti sind, beseitigt Ruckeln und Lärm im Januar nicht. ;)

MfG,
Raff

Gimmick
2016-01-24, 15:27:04
Für langjährige nvidia Nutzer wahrscheinlich ein alter Hut, für mich ist es aber neu: Wie funktioniert eigentlich der Boost bei der 980 ti?

Ich kannte das nur so, dass Takt, Spannung und Powertarget getrennt eingestellt werden.

Warum erhöht sich denn jetzt der Takt wenn ich nur die Spannung ändere? :freak:

MartinRiggs
2016-01-24, 15:30:28
Warten kann man immer, Warten ist aber lahm.

Während andere warten kann ich schön mit hohen FPS in WQHD zocken und höre trotzdem nichts von meiner Grafikkarte:tongue:

dildo4u
2016-01-24, 15:32:43
Schlag zu, da kann man wirklich nicht viel motzen. Der gebetsmühlenartige Verweis auf GPUs, die in 6 Monaten eventuell kaufbar und noch eventueller schneller als die 980 Ti sind, beseitigt Ruckeln und Lärm im Januar nicht. ;)

MfG,
Raff
Jup kommt ein so vor als wenn alle vergessen haben wie Maxwell ausgerollt wurde.Gearde weil die nästen Karten in 16nm kommen wird man am Anfang erstmal ne low End "Testkarte" ausliefern.

horn 12
2016-01-24, 15:36:54
Nun, sehe ich ähnlich
Zudem man mit der Neuen Generation vor Allem zu Beginn keinen Quantensprung erwarten sollte!

(del)
2016-01-25, 12:13:34
Die gute alte inno3D in neuem Gewand - Review ist online:
http://www.tomshardware.de/inno3d-geforce-gtx-980-ti-ichill-x3-dhs-performance-leistungsaufnahme,testberichte-242022.html

Botcruscher
2016-01-25, 13:04:35
Bling Bling zum anschrauben.:uclap: Die Spannungsversorgung kann doch bestimmt noch einen Wasserkocher integrieren.

(del)
2016-01-25, 15:01:19
Umschrauben. So viel Zeit muss sein. :)

Emil_i_Lönneberga
2016-01-25, 19:12:00
Die gute alte inno3D in neuem Gewand - Review ist online:
http://www.tomshardware.de/inno3d-geforce-gtx-980-ti-ichill-x3-dhs-performance-leistungsaufnahme,testberichte-242022.html

Ich verstehe nicht wieso bei einem vergleichsweise großen verschraubten VRM-Kühler die Temps trotzdem jedes Mal um die 100°C liegen. Mit einem Hybrid III auf einem EVGA 980Ti Reference PCB (1400MHz/4000MHz) mit einem auf 300W festgelegten Maximalverbrauch (BIOS-Tuning) in UHD ergibt sich eine VRM-Temp von 67°C und eine GPU-Temperatur von 55°C. Und das bei einer jeweils anliegenden Lüfterdrehzahl von 25%.

Dann kauf ich mir doch gleich ein günstigere Karte mit Referece-PCB, stecke 90€ in einen Hybridkühler und schraube im RMA-Fall eben den ursprüglichen Kühler wieder auf die Karte.

Lowkey
2016-01-25, 19:35:02
Die Frage stelle ich mir auch seit Monaten, warum die VRM der 980 Ti im Prinzip heißer als die GPU wird und dennoch weniger Kühlung bekommt. Vermutlich liegt es daran, dass die Specs für die GPU und die VRM verschiedene Temp.max haben. Der normale User will keine 100°, auch wenn das Bauteil das abkann.

(del)
2016-01-25, 19:38:38
Mit einem Hybrid III auf einem EVGA 980Ti Reference PCB (1400MHz/4000MHz) mit einem auf 300W festgelegten Maximalverbrauch (BIOS-Tuning) in UHD ergibt sich eine VRM-Temp von 67°C Womit gemessen? Ich habe die ganzen Acceleros alle durch und halte dies für absolut unmöglich, solange einem nicht die Ohren abfallen sollen. Selbst mit direkt aufliegender Heatpipe konnte ich mit anderen Kühlern in keinem Fall unter 70°C kommen. Nur mit Fullcover und Wasser. Man müsste den Lüfter wohl volle Pulle laufen lassen, um irgendwie in diese Regionen zu kommen, aber der AC III Hybrid íst eh schon zu laut.

Ich habe gestern mit Gigabytes R&D-Ingenieur bei mir im Lab diese Problematik gemütlich bei einem Kaffee durchgekaut, Misson impossible. Es kommt erst einmal darauf an, die Hotspots so zu optimieren, dass keine empfindlichen Bauelemente über PCB und Pins mit aufgeheizt werden. Dann ist die VRM-Temperatur eigentlich scheißegal. Kühler wie der AC III Hybrid sind wirklich weltfremd. :) Gigabyte waren ja auch mit die Ersten, die damals bei der 780 Ti angefangen haben, den VRM-Block in den Hauptkühler mit einzubeziehen (Heatpipe / Heatsink). Dieser Ansatz ist bei Luft deutlich sinnvoller, als ein lauter Extra-Propeller bei Pseudo-Wasserkühlern. Ich fand es übrigens wirklich schön, wenn ein Plan funktioniert, weil einfach mal jemand zugehört und es auch umgesetzt hat (2013) (http://media.bestofmicro.com/W/H/389969/original/08-Meeting.jpg) ;)

Emil_i_Lönneberga
2016-01-25, 20:22:42
Über Messfühler einer Lüftersteuerung an der PCB-Rückseite, PCGH 12/2015. Bei 25% haben sie aus einer Entfernung von 50cm eine Gesamtlautstärke (Pumpe+beide Lüfter) von 0,8 Sone gemessen.

Hast du den Hybrid III schon getestet? Die Ergebnisse würden mich interessieren.

Es gibt abgesehen von TomsHardware einfach generell wenig Artikel mit Aussagen zu den VRM-Temperaturen, als ein Beispiel ...

http://www.hardwareluxx.de/index.php/artikel/hardware/kuehlung/37243-arctic-accelero-hybrid-iii-140-im-test.html?start=3

In einem Test auf einer 290X Referenz waren es bei den relevanten VRM1 50°C (GPU-Z, 100% Lüfterdrehzahl) und dort sind die Anforderungen an die VRM-Kühlung doch ähnlich hoch wie bei der GTX980Ti. Die 67°C/70°C bei einer reduzierten Lüfterdrehzahl sollten daher realistisch sein.

http://www.hardwareoverclock.com/ARCTIC-Accelero-Hybrid-III-140-5.htm (http://www.hardwareoverclock.com/ARCTIC-Accelero-Hybrid-III-140-5.htm)

http://www.hardwareoverclock.com/ARCTIC-Accelero-Hybrid-III-140-5a.htm
(http://www.hardwareoverclock.com/ARCTIC-Accelero-Hybrid-III-140-5a.htm)
Wie schon gesagt: Es gibt dazu generell wenig Messungen und deine Ergebnisse sind sicherlich genauer, aber die Hybridkühler schneiden bei der Kühlleistung im Allgemeinen sehr gut ab. Einen größeren verschraubten VRM-Kühler wie beim Hybrid III gibt es aktuell bei keinem Luftkühler, zudem bekommt er nicht die Abwärme des eigentlichen Alublocks ab, der sich bei Luftkühlern oberhalb der VRM befindet.

(del)
2016-01-25, 21:03:06
Über Messfühler einer Lüftersteuerung an der PCB-RückseiteDa kannst Du auch Würfel werfen. Nichts gegen PCGH, aber mit Messung hat das definitiv nichts zu tun ;)

Dass mittlerweile selbst bei AMD auf Sensorwerte verzichtet wird, liegt wohl auch daran daran, dass diese ebenfalls eher Unterhaltungswert haben. GPU-Z hat ewig und drei Nächte vieles falsch ausgelesen. Man darf sich auch nicht ungefragt zum Sklaven irgendeiner Software machen, die nichts kostet (außer Nerven) ;)

Noch einmal: ich könnte auch mit 130°C an den VRM leben, wenn sich keine empfindlichen Bauelemente im Einzugsbereich der Wärmeausbreitung befänden. Hier sind die Designer gefragt, um das sauber zu lösen. Auch in einigen chinesischen R&D hat mittlerweile die IR-Technik Einzug gehalten und der Kunde wird es am Ende mit Sicherheit danken. Allerdings sind andere Firmen komplett resistent und glauben, was der OEM diktiert. Leider.

akuji13
2016-01-26, 11:26:25
Einen größeren verschraubten VRM-Kühler wie beim Hybrid III gibt es aktuell bei keinem Luftkühler, zudem bekommt er nicht die Abwärme des eigentlichen Alublocks ab, der sich bei Luftkühlern oberhalb der VRM befindet.

Hat sich da inzwischen eigentlich was geändert?

Der den ich zu Anfang hatte war überhaupt nicht vernünftig zu befestigen und daher fast nutzlos.

Disconnected
2016-01-29, 21:00:42
Welche 980 Ti ist denn besonders leise ohne hunderte von Euro Aufschlag zu kosten?

(del)
2016-01-29, 21:32:59
Welche 980 Ti ist denn besonders leise ohne hunderte von Euro Aufschlag zu kosten?
Die, welche ausgeschaltet ist ;)

DIE leiseste Karte gibt es leider nicht, wenn Performance, Lautstärke und Preis stimmen sollen. Wenn Du den Preis weglässt, dann die MSI 980 GTI Lightning.

Disconnected
2016-01-29, 21:56:11
Hmm, die geht ab 900 EUR los. Da sind wir fast in Titan X Regionen. Ich glaube, ich warte noch.

Raff
2016-01-29, 22:35:20
Da kannst Du auch Würfel werfen. Nichts gegen PCGH, aber mit Messung hat das definitiv nichts zu tun ;)

In diesem Fall ging es um die Relationen, den Vergleich. Und da ist klar: Wenn ein Kühlsystem mit dieser behelfsmäßigen Messmethode um die 70 °C auf der PCB-Rückseite erreicht, ist das Ding sehr gut (weil die realen VRM-Werte höher liegen). Ein Kühler, der hingegen dreistellige Werte provoziert, ist am Limit und dem anderen klar unterlegen. Genau das zeigte der Test und somit sind wertvolle Aussagen gewonnen. :)

Die, welche ausgeschaltet ist ;)

DIE leiseste Karte gibt es leider nicht, wenn Performance, Lautstärke und Preis stimmen sollen. Wenn Du den Preis weglässt, dann die MSI 980 GTI Lightning.

Hmm, die geht ab 900 EUR los. Da sind wir fast in Titan X Regionen. Ich glaube, ich warte noch.

Definitiv eine sehr gute Wahl (siehe auch PCGH 02/2016 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-02-2016-Download-PDF-1182211/), wo die Karte gegen die Asus Matrix-P und EVGA Classified antritt). Der Preis ist der einzige Kritikpunkt. Okay, und die Größe, aber wer leise Power will, sollte dafür auch Platz haben. :naughty:

MfG,
Raff

Matrix316
2016-01-29, 22:52:11
Welche 980 Ti ist denn besonders leise ohne hunderte von Euro Aufschlag zu kosten?
Also ich kann nicht klagen:

http://geizhals.de/gainward-geforce-gtx-980-ti-phoenix-golden-sample-3477-a1285876.html?hloc=de

http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_geforce_gtx_980_ti_phoenix_gs/s04.php

dildo4u
2016-01-29, 23:23:55
Hmm, die geht ab 900 EUR los. Da sind wir fast in Titan X Regionen. Ich glaube, ich warte noch.

Laut CB und PCGH ist die Palit sehr leise.

Erstaunlich: Die bereits relativ leise Palit GeForce GTX 980 Ti Super Jetstream besitzt bei den ermittelten Temperaturen noch einige Reserven, die sich für einen noch leiseren Betrieb nutzen lassen.

http://www.computerbase.de/2015-08/partnerkarten-geforce-gtx-980-ti-test/4/

http://geizhals.de/palit-geforce-gtx-980-ti-super-jetstream-ne5x98th15jbj-a1275014.html?hloc=de

Hübie
2016-01-30, 00:26:56
Also ich kann nicht klagen:

http://geizhals.de/gainward-geforce-gtx-980-ti-phoenix-golden-sample-3477-a1285876.html?hloc=de

http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_geforce_gtx_980_ti_phoenix_gs/s04.php

Die wird meiner Meinung nach immer viel zu sehr außer Acht gelassen. Die ist wirklich sehr laufruhig und leise. Hatten Igor und Rafael bestimmt noch nicht. ;)

Raff
2016-01-30, 00:38:45
Hatten Igor und Raffael bestimmt noch nicht. ;)

Oh doch. (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Grafikkarten-Test-Bestenliste-Radeon-und-Geforce-678322/galerie/2402474/):) Gutes Dual-Slot-Design mit hochwertiger Metallhaube. Aber etwas lauter und etwas wärmer als die Jetstream – logisch, denn 2,0 sind eben nicht 2,5 Slots Kühlfläche.

MfG,
Raff

(del)
2016-01-30, 06:41:41
Die Gainward steckt bei uns im Gaming-Testsystem und ist durchaus brauchbar. Nur ist es eben nicht DIE Karte, nach der gefragt wurde. Für die Größe ist sie jedoch sehr ok.

Gainward schöpft R&D-technisch aus den Ressourcen von Palit, wobei Gainward ja am Ende nichts anderes als das Edelbrand von Palit/Xpertvision ist. Sogar die Platinen sind sehr ift absolut identisch. Auch der Kühler auf der SuperJetstream ist gut, nur eben anders. Preislich ist Palit interessant, von den Komponenten her eher nicht. Die Schwankungen innerhalb der Modellreiche sind wirklich enorm.

@Raff:
Ich arbeite ab und zu auch mit Sensoren am Oszi, weil ich einfach neugierig war, wie es funktioniert, nur geht so etwas nur mit punktförmiger Erfassung einigermaßen genau. Die großen "Drähte" der Lüftersteuerungssensoren schwanken sogar innerhalb der eigenen Serie extrem und erfassen alles und nichts. Für eine Abschätzung ist das durchaus ok und auch einen Plausibilitätstest kann man nach vorheriger Kalibrierung locker wagen, da gehe ich völlig konform. Aber da ich so etwas selbst schon mehrmals probiert und verglichen habe, verzichte ich darauf, weil es auch grandios in die Hose gehen kann. Oberhalb von ca. 60°C sind die Teile extrem schwankungsanfällig ;)

Emil_i_Lönneberga
2016-01-30, 11:28:08
Hat sich da inzwischen eigentlich was geändert?

Der den ich zu Anfang hatte war überhaupt nicht vernünftig zu befestigen und daher fast nutzlos.

Darüber ist mir nichts bekannt. Abseits einer Wakü ist das nach den Test- und Erfahrungsberichten die Nummer 1.

HansSolo
2016-01-30, 12:37:15
Hallo, habe im Moment folgendes Problem:
Wenn ich mein verändertes Bios auf meine Palit 980ti SJ flashen möchte kommt eine Fehlermeldung von nvflash das die Bios Signatur nicht stimmen würde oder so ähnlich und es wird abgebrochen. Seltsam als ich meine 780 ti genau auf die gleiche Weise geflasht hatte ging alles problemlos. Woran könnte das jetzt liegen?

Hübie
2016-01-30, 12:59:06
Falsche Version von nvflash. Google mal. Bin unterwegs.

HansSolo
2016-01-30, 13:10:59
Falsche Version von nvflash. Google mal. Bin unterwegs.

Habe es gefunden danke auch...

dildo4u
2016-01-30, 14:42:37
GTX 980 Ti vs R9 Fury X SLI/CrossFire Face-Off

https://youtu.be/yLnU4rCGYik

Ein OC Haswell i7 ist schon zu schwach für ein 2 Way SLI selbst in 4k,erstaunlich wie CPU lastig diese Game's sind obwhol die neuen Konsolen so schwache CPU's haben.

dargo
2016-01-30, 15:00:08
Was soll denn daran erstaunlich sein? Am PC sind wir immer noch mit der asbach uralt API unterwegs. Konsole hat in der Regel bei den anspruchsvolleren Games ein Target von 30fps. Zudem ist das LoD am PC in einigen Games deutlich höher. Aber hey... wir brauchen kein DX12/Vulkan. Sorry, ich meinte Nvidia braucht es nicht.

PS: das wird noch lustig wenn Ende 2016, Anfang 2017 die neuen High-End GPUs released werden und wir immer noch überwiegend bei DX11 hängen. :uup:

aufkrawall
2016-01-30, 15:03:55
Die Games aus deren Parkour sind mittlerweile nicht mehr taufrisch und haben nicht so gutes MT wie etwa aktuelle Ubisoft-Spiele.
Ob die auf NV mit DX12 im CPU-Limit einfach so nennenswert schneller laufen, darf man mal bezweifeln.

Atma
2016-01-30, 15:05:48
GTX 980 Ti vs R9 Fury X SLI/CrossFire Face-Off

https://youtu.be/yLnU4rCGYik

Ein OC Haswell i7 ist schon zu schwach für ein 2 Way SLI selbst in 4k,erstaunlich wie CPU lastig diese Game's sind obwhol die neuen Konsolen so schwache CPU's haben.
Das liegt ganz sicher nicht an einem zu schwachen Haswell ...

AFR ist ein einziges Gefrickel, dazu DX11 was völlig überfordert ist mit solchen Szenarien.

phoenix887
2016-01-30, 15:11:59
Die, welche ausgeschaltet ist ;)

DIE leiseste Karte gibt es leider nicht, wenn Performance, Lautstärke und Preis stimmen sollen. Wenn Du den Preis weglässt, dann die MSI 980 GTI Lightning.

Kann ich so bestästigen, sollte beweisen das Format C nicht von MSI gekauft ist ;)

Übrigens die 1540mhz scheinen wirklich stabil zu sein, dank reduzierte AUX Spannung. Gestern 2 Stunden Tomb Raider 4K Maxout gezockt, alles gut :) trotz des Non_Stop GPU Auslastung von 99% und 340w.

(del)
2016-01-30, 15:31:45
Deine 1540 MHz mit Luft sind richtig gut, damit kannste laben :)

Ich bin mittlerweile mit einer anderen Karte bei 1560 MHz (aber die wurde in der Fabrik aussortiert). Das rennt seit drei Tegen im Mixed-Betrieb stabil, also verschiedene Lasten und auch mal bissl Idle zwischendrin. Aber: der Performancegwinn gegenüber den 1500 MHz geht fast gegen Null. Ich habe sogar fast schon das Gefühl, sie ist manchmal langsamer, trotz Wasser. Ich gehe nachher wieder runter mit dem Takt, denn das ist nur noch für die Galerie und hat absolut keinen Mehrwert mehr für mich.

phoenix887
2016-01-30, 15:41:30
Natürlich ist das was für die Galerie. Habe aber dadurch irgendwie psychologisch den Eindruck das 4K unter meiner Prämisse, sehr flüssig läuft, wenn ich das OSD aus habe.

(del)
2016-01-30, 16:38:29
Autosuggestion :P

Disconnected
2016-01-30, 17:25:32
Wenn ich mir das so anschaue, scheint selbst die GTX 980 Ti nicht so wirklich UHD ready zu sein. ;( Die Spiele, die auf einer GTX 670 in 2560x1440 nicht wirklich gut liefen, tun dasselbe in 3840x2160 auch auf einer GTX 980 Ti, da die gerade etwas mehr als doppelt so schnell ist. Theoretisch bräuchte ich eine viermal so schnelle Karte. Für meinen Geschmack geht die Entwicklung einfach zu langsam.

phoenix887
2016-01-30, 17:33:57
Wie gesagt, mit Controller in 3rd Person langt mir das dicke so um die 40fps. Musst du dir halt mal live anschauen 4k. Hatte auch schon gsync und 144hz hier und habe es ganz schnell vergessen, bei der Bildquailtät. wie gesagt meine Prämisse, bin so zu frieden, das ich überlege Pascall zu überspringne, die Technik in Spielen geht ja noch langsamer voran. Und glaube etwas mehr als GTX670x2 müsste schon drin sein. Kann bestimtm Format C was dazu sagen.

Disconnected
2016-01-30, 17:42:44
Ich gebe aber keine 700 EUR für irgendwelche Kompromisslösungen aus. Ein paar der Spiele, die mit einer GTX 670 in 2560x1440 nicht zufriedenstellend liefen (also <60 FPS) waren: Alan Wake, Aliens vs. Predator, Batman Arkham City, Bioshock Infinite, Call of Duty: Ghosts, Crysis 2+3, The Evil Within, Max Payne 3, Metro 2033/Last Light, Sleeping Dogs, Tomb Raider, Thief. Laufen die mit einer GTX 980 Ti mit 60 FPS?

(del)
2016-01-30, 17:45:34
Ich sag nix. Aber es wird anfangs sehr wahrscheinlich erst mal an der Leistungsaufnahme gespart. Richtig Speed kommt mit Sicherheit erst später. So Ti-mäßig und Murmeltier samt täglichen Grüßen und Miss Sophie mit der ewig gleichen Prozedur :D

AMD launcht aktuell ja nicht mal mehr CPUs, sondern ersatzweise Kühler. Ich habs so satt... Halbes Wochenende futsch und im Messraum musste ich erst mal warten, bis die beschissenen 22°C Raumtemperatur erreicht waren. Das nervt echt. Ist zwar off-topic, hilft aber bei der Frustbewältigung. Dafür mit versöhnlichem Ausgang und mittlerweile einer halben Flasche Hendrick's intus, sowie Günthers Aktivboxen auf Akneplantagen-Pegel :P

Cheerio, Miss Sophie!

https://scontent.xx.fbcdn.net/hphotos-xta1/t31.0-8/12525147_1154044194630243_3639244403261732473_o.jpg

phoenix887
2016-01-30, 19:22:43
Ich gebe aber keine 700 EUR für irgendwelche Kompromisslösungen aus. Ein paar der Spiele, die mit einer GTX 670 in 2560x1440 nicht zufriedenstellend liefen (also <60 FPS) waren: Alan Wake, Aliens vs. Predator, Batman Arkham City, Bioshock Infinite, Call of Duty: Ghosts, Crysis 2+3, The Evil Within, Max Payne 3, Metro 2033/Last Light, Sleeping Dogs, Tomb Raider, Thief. Laufen die mit einer GTX 980 Ti mit 60 FPS?


Tja, dann kannste dich über die Kompromisslösungen mal selbst informieren;) bzw. selber rechnen, wenn ich in 3840x2160 im Schnitt 40fps habe bei den meisten Spielen, manchmal mehr, was dann in 2560x1440 geht.

Disconnected
2016-01-30, 19:26:46
Ich habe aber 3840x2160 und nicht 2560x1440.

(del)
2016-01-30, 19:37:47
Ich habe aber 3840x2160 und nicht 2560x1440.

Ich habe im Gaming-Table ein SLI mit zwei bis zum Exzess übertakteten 980ern unter Wasser, samt einem brutal übertaktenen 5960X - UHD macht trotzdem (noch) keinen richtigen Spaß. Manchmal fehlt das nötige SLI-Profil, ein andermal sind die 4GB Speicher zu wenig oder es hoppelt generell. Ich warte noch auf die Single-GPU-Karte mit 12 GB Speicher und der Performanmce zweier 980er. Dann geht auch UHD richtig. :)

Disconnected
2016-01-30, 19:45:41
So habe ich das erwartet: eine GTX 980 Ti performt unter UHD wohl ähnlich wie eine GTX 670 unter 2560x1440. D.h. von der Anzahl her laufen zwar die meisten Games gut, die oben aufgezählten wohl aber eher nicht.

(del)
2016-01-30, 20:48:23
Aktuell gibt es einfach keine passenden UHD-Karten. Selbst die TitanX schafft es mit OC nicht mal ansatzweise ohne Kompromisse bei den Settings.

phoenix887
2016-01-30, 21:12:16
wenn man 60fps braucht....nein , wenn man mit weniger zufrieden ist dann ja.

Ich relativere meine Erfahrungen, und ihr schreibt, wenn man keine 60fps hat ist UHD scheiße. Finde ich ziemlich anmaßend;) Na dann wartet halt und ich geh jetzt UHD in Tomb Raider genießen:P

(del)
2016-01-30, 23:28:06
Ich brauche keine 60 fps, nicht bei sowas wie Tomb Raider. Aber in fast allen Spielen gibt es fps-Einbrüche die mich nerven. DAS ist es, was es einen vergessen läßt :D

phoenix887
2016-01-30, 23:33:42
Na dann verzeihe ich dir. Liegt aber auch an den Spielen. Just Cause 3 hat kein natives triple buffering. Da hat es mich auch genervt. Aber mit einem Workaround, hat es geklappt.

Natürlich gibt es dann noch Leute die sehr empfindlich reagieren. Für die iss s dann wirklich nichts.

Aber muss auch sagen, bin jetzt bei Tomb Raider runter auf 3200*1800. Ist doch ein Zacken angenehmer:biggrin:

jetzt habe ich das Gefühl, das meine Lightning nicht mehr so leidet, will sie ja nicht unterfordern:freak:

Hübie
2016-01-31, 02:37:22
Ich brauche keinen framecounter ums zu bemerken. Ist scheiße.
Außerdem meint disconnected ja wohl die 970, denn eine 670 zaubert mit Ultra und 1440p nette Standbildchen, aber das wars auch schon.

phoenix887
2016-01-31, 05:41:15
Ist scheiße....Nach bald haben wir ja Luxx Niveu;)

Muss mir das heute nach Mittag nochmal in Ruhe anschauen, welche Auflösung ich in dem Spiel fahre. Kann man auch nicht nachvollziehen, wenn man kein natives 4k kennt und stoisch auf Maus und Tastatur besteht.

Aber genug. Die Meinungen dürften jetzt klar sein.

Disconnected
2016-01-31, 11:04:05
Ich brauche keinen framecounter ums zu bemerken. Ist scheiße.
Außerdem meint disconnected ja wohl die 970, denn eine 670 zaubert mit Ultra und 1440p nette Standbildchen, aber das wars auch schon.
Von welchem Spiel reden wir eigentlich? Und ja, ich meine die GTX 670. Schon mit einer GTX 480 konnte man ganz passabel in 2560x1440 spielen.

Niall
2016-01-31, 11:26:43
Wenn ich mit meiner 980Ti z.B. Witcher 3 spiele - natürlich alles auf Anschlag, laufen 1440p noch so weich, dass es mit dem Gamepad Spaß macht, 2160p hingegen fühlt sich für mich schon zu "laggy" an, denke aber dass es für einige durchaus spielbar wäre. Das ist natürlich nur ein Beispiel. Bei Risen 3 zuletzt hat es sich allerdings ähnlich verhalten. Ich denke so 15 - 20 FPS mehr und die meisten Sachen wären für mich durchaus mit dem Gamepad spielbar. :D

... deshalb warte ich auch noch mit dem 4K TV Kauf. Bei Filmen und Serien fehlt es noch an Content und aktuelle Spiele laufen mir in der Auflösung noch zu "lala". Ansonsten habe ich die Karte bislang in keinster Weise bereut. (In Verbindung mit der Wakü, sonst wäre sie mir vermutlich zu laut)

Hübie
2016-01-31, 11:46:57
Von welchem Spiel reden wir eigentlich? Und ja, ich meine die GTX 670. Schon mit einer GTX 480 konnte man ganz passabel in 2560x1440 spielen.

Dann reduzierst du ne Menge Details. Dann kannst du auch mit der 980 Ti in 4k zocken.

Edit: Spiel kannst du dir aussuchen, solang es kein alter Schinken ist.

ChaosTM
2016-01-31, 11:54:21
Abhängig vom Spiel muss die Qualität etwas reduziert werden oder ich gehe auf 1800p, um zumindest 40fps zu erreichen.
Je nachdem was besser ausschaut - meistens genügt es bei den Schatten und der Umgebungsverdeckung nicht den höchsten Wert zu wählen.

(del)
2016-01-31, 11:55:14
4K TVs zum Spielen sind eher grenzwertig, der Lag ist (sicher nicht nur) mir persönlich einfach noch zu hoch.

Am Ende ging es ja darum, ob eine 980 Ti nun eine echte UHD-Karte sei, oder eben nicht.
Definiere, was echt ist. :D
Wenn ich anfangen muss, Kompromisse zu machen oder darauf verzichten kann?
Wo ist dann aber im Fall von Kompromissen die Grenze nach unten?
(GTA V skaliert auch ganz gut mit Fußhupen, wenn man alles wegdreht)
Ist dann eine R9 380X auch eine 4K-Karte?

Niall
2016-01-31, 12:07:26
4K TVs zum Spielen sind eher grenzwertig, der Lag ist (sicher nicht nur) mir persönlich einfach noch zu hoch.

Am Ende ging es ja darum, ob eine 980 Ti nun eine echte UHD-Karte sei, oder eben nicht.
Definiere, was echt ist. :D
Wenn ich anfangen muss, Kompromisse zu machen oder darauf verzichten kann?
Wo ist dann aber im Fall von Kompromissen die Grenze nach unten?
(GTA V skaliert auch ganz gut mit Fußhupen, wenn man alles wegdreht)
Ist dann eine R9 380X auch eine 4K-Karte?


Berechtigte Frage, meine Definition einer "echten" 4K Karte ist, wenn das Spiel mit allen Details sauber läuft und ich keine Kompromisse bei der Bildqualität machen muss. Dinge wie SGSSAA oder treiberseitig forciertes HBAO+ sind natürlich nicht zu berücksichtigen. Also bspw. Witcher 3, alles auf Anschlag, 60 FPS, sauberes V-Sync. :D

Hübie
2016-01-31, 12:14:23
Echt als Wort in diesem Kontext ergibt wenig Sinn, da es ja sinngemäß "unverfälscht, wirklich oder nicht vorgetäuscht" bedeutet. Partiell angewandt bzw. abgewandelt kann man sagen: kompromisslos. Und das ist die 980 Ti nicht.

@Phoenix887: Erspare mir doch Kommentare über das Niveau. Manchmal sagt ein Wort einfach mehr als ganze Sätze. Meine Zeit ist knapp. Es ist scheiße zu bemerken wenn etwas unrund läuft.

Niall
2016-01-31, 12:19:39
Echt als Wort in diesem Kontext ergibt wenig Sinn, da es ja sinngemäß "unverfälscht, wirklich oder nicht vorgetäuscht" bedeutet. Partiell angewandt bzw. abgewandelt kann man sagen: kompromisslos. Und das ist die 980 Ti nicht.

Alten Semantiker. :ududen:

Disconnected
2016-01-31, 12:22:54
Dann reduzierst du ne Menge Details. Dann kannst du auch mit der 980 Ti in 4k zocken.

Edit: Spiel kannst du dir aussuchen, solang es kein alter Schinken ist.
Ich reduziere niemals Details, von diversen SSAA Modi mal abgesehen. Ich spiele sowohl alte als auch neue Schinken. Ausnahmen habe ich oben aufgezählt. Was mit der GTX 670 in 2560x1440 läuft, läuft auf einer GTX 980 Ti ungefähr genauso.

Niall
2016-01-31, 12:25:49
Ich reduziere niemals Details, von diversen SSAA Modi mal abgesehen. Ich spiele sowohl alte als auch neue Schinken. Ausnahmen habe ich oben aufgezählt. Was mit der GTX 670 in 2560x1440 läuft, läuft auf einer GTX 980 Ti ungefähr genauso.

Logischerweise läuft es genauso, die 980Ti ist eine ganze Ecke performanter, wäre also komisch wenn nicht. :freak:
Was aber willst du uns damit sagen? :D
Wenn du es andersrum meinst, never, jedenfalls nicht in aktuellen Titeln, oder du bist echt extrem schmerzfrei. ;)

Disconnected
2016-01-31, 12:42:22
Was ich damit sagen will? Für 3840x2160 braucht man ungefähr doppelt so viel Performance wie für 2560x1440, ungefähr das Verhältnis von GTX 670 zu GTX 980 Ti. Mit einer GTX 980 Ti könnte ich demzufolge nur die "anspruchslosen" Titel spielen, die bei mir mit einer GTX 670 in 2560x1440 liefen. Für den Rest brauch ich noch mehr Power. Ist das einleuchtend?

Niall
2016-01-31, 12:48:00
Was ich damit sagen will? Für 3840x2160 braucht man ungefähr doppelt so viel Performance wie für 2560x1440, ungefähr das Verhältnis von GTX 670 zu GTX 980 Ti. Mit einer GTX 980 Ti könnte ich demzufolge nur die "anspruchslosen" Titel spielen, die bei mir mit einer GTX 670 in 2560x1440 liefen. Für den Rest brauch ich noch mehr Power. Ist das einleuchtend?


Sind die GTX670 und die GTX980ti performancetechnisch doch noch so nah beieinander? Worauf ich hinaus will ist: Aktuelle Spiele laufen bei 1440p soweit flüssig, dass ich sie auch als flüssig empfinde. Ich kann mir einfach nicht vorstellen dass eine GTX670 bei diesen Spielen mit maximalen Details für ein wirklich "flüssiges" Spielvergnügen ausreicht. Oder geht es dir nur um die rein rechnerische Performance?

Disconnected
2016-01-31, 13:03:30
Sind sie. Schau mal hier (http://www.computerbase.de/2015-05/geforce-gtx-470-570-670-770-970-vergleich/2/). Mit Kepler gab es einen großen Sprung gegenüber Fermi. Die GTX 670 ist etwas langsamer als eine GTX 960. Der geringere Grafikspeicher mag noch zusätzlich mit reinwirken.

Worauf ich hinaus will: mit einer GTX 670 konnte man seinerzeit aktuelle Titel meistens in 2560x1440 spielen. Mit einer GTX 980 Ti kann man viel weniger aktuelle Titel in 3840x2160 spielen. Das heißt, die Entwicklung der Grafikkarten verläuft viel langsamer als die Anforderungen der Spiele wachsen. Die höhere Auflösung spielt zusätzlich noch mit rein.

tl;dr

2012: GTX 670 @ 2560x1440 :)
2015: GTX 980 Ti @ 3840x2160 :|

woodsdog
2016-01-31, 13:22:52
wobei die 670 auch nur 360/PS3 Grafik-Schinken ports hatte, die 980TI schlägt sich mit (aus damaliger Sicht!) NextGen rum.

Disconnected
2016-01-31, 13:36:59
Es gibt aber auch ein paar Evergreens wie die Metro-Serie oder Crysis 3, die schon damals nicht gescheit liefen. Sind die denn mittlerweile spielbar?

Troyan
2016-01-31, 13:41:42
Was ich damit sagen will? Für 3840x2160 braucht man ungefähr doppelt so viel Performance wie für 2560x1440, ungefähr das Verhältnis von GTX 670 zu GTX 980 Ti. Mit einer GTX 980 Ti könnte ich demzufolge nur die "anspruchslosen" Titel spielen, die bei mir mit einer GTX 670 in 2560x1440 liefen. Für den Rest brauch ich noch mehr Power. Ist das einleuchtend?

Die GTX980TI ist 3x bis 4x so schnell als die GTX670. 4K hat ca. 2,2x mehr Pixel als 1440p. Die GTX980TI liefert also zwischen 1,5x bis 2,25x mehr Leistung in 4K als die GTX670 in 1440p.

Hübie
2016-01-31, 13:44:26
Sind sie. Schau mal hier (http://www.computerbase.de/2015-05/geforce-gtx-470-570-670-770-970-vergleich/2/). Mit Kepler gab es einen großen Sprung gegenüber Fermi. Die GTX 670 ist etwas langsamer als eine GTX 960. Der geringere Grafikspeicher mag noch zusätzlich mit reinwirken.

Worauf ich hinaus will: mit einer GTX 670 konnte man seinerzeit aktuelle Titel meistens in 2560x1440 spielen. Mit einer GTX 980 Ti kann man viel weniger aktuelle Titel in 3840x2160 spielen. Das heißt, die Entwicklung der Grafikkarten verläuft viel langsamer als die Anforderungen der Spiele wachsen. Die höhere Auflösung spielt zusätzlich noch mit rein.

tl;dr

2012: GTX 670 @ 2560x1440 :)
2015: GTX 980 Ti @ 3840x2160 :|

Alter das nennst du flüssig? Die Benches sind in 1080p und ruckeln schon wie Atze. Dann sagst du es sei alles flüssig? Blech. Dann liegt unsere Defintion von flüssig weeeeeeiiiiit auseinander. Wenn ich avg ~30 in 1080p erreiche, dann sind es 25 in 1440p. Wenn ich mir dann vorstelle wie die Frametimes auf und abwandern. OMG! :rolleyes: NE du. Da kommen wir nicht zusammen.
Meine Aussage bleibt bestehen: 980Ti@4k=Möööööööööööööp!

Und für das Protokoll: Damit meine ich kompromisslos.

N0Thing
2016-01-31, 13:48:20
Die GTX980TI ist 3x bis 4x so schnell als die GTX670.

In Benchmarks liegt eine GTX 980Ti meist um den Faktor 2 vor einer GTX 770, da kann sie gegenüber einer GTX 670 nicht um den Faktor 3 oder 4 vorne liegen, sofern der VRAM nicht das Problem darstellt.

Troyan
2016-01-31, 13:55:20
Natürlich kann sie es:
Rise of the Tomb Raider (http://www.computerbase.de/2016-01/rise-of-the-tomb-raider-benchmarks/4/#diagramm-rise-of-the-tomb-raider-1920-1080-ssao-keine-tessellation):
GTX760@1080: 32,5FPS
GTX980TI@2160p: 31,5FPS

Dirt:Rally (http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#diagramm-dirt-rally-1920-1080):
GTX760@1080: 47,5FPS
GTX980TI@2160p: 45,9FPS

Fallout 4 (http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#diagramm-fallout-4-1920-1080):
GTX760@1080: 43,0FPS
GTX980TI@2160p: 39,4FPS

Just Cause 3: (http://www.computerbase.de/2015-12/just-cause-3-grafikkarten-benchmarks/2/#diagramm-just-cause-3-1920-1080)
GTX760@1080: 37,2FPS
GTX980TI@2160p: 34,8FPS

Anno2205: (http://www.computerbase.de/2015-11/anno-2205-benchmarks/2/#diagramm-anno-2205-1920-1080)
GTX760@1080: 28,5FPS
GTX980TI@2160p: 42,6FPS

GTX670 ist ca. 5-10% schneller als die GTX760. Dafür lassen sich Maxwell-Karten deutlich besser takten. Die Custom-Designs haben also eine höhrere Taktfrequenz.

AnarchX
2016-01-31, 14:08:20
22*128 @1,2 VS 7*140@1,0 (Kepler SMX können meist nicht die 192SPs auslasten) = Faktor 3,4x.
In rechenlastigen Titeln kann sich so ein Unterschied durchaus abzeichnen.

Disconnected
2016-01-31, 14:11:54
Alter das nennst du flüssig? Die Benches sind in 1080p und ruckeln schon wie Atze. Dann sagst du es sei alles flüssig? Blech. Dann liegt unsere Defintion von flüssig weeeeeeiiiiit auseinander. Wenn ich avg ~30 in 1080p erreiche, dann sind es 25 in 1440p. Wenn ich mir dann vorstelle wie die Frametimes auf und abwandern. OMG! :rolleyes: NE du. Da kommen wir nicht zusammen.
Meine Aussage bleibt bestehen: 980Ti@4k=Möööööööööööööp!

Und für das Protokoll: Damit meine ich kompromisslos.
Liest Du überhaupt mit? Diese Titel habe ich in meinem Eingangsposting ausgeschlossen. Laufen diese Titel auf einer GTX 980 Ti in 3840x2160 flüssig?

@Topic, sagen wir, die GTX 980 Ti ist im Schnitt 2,5x so schnell, wenn der GTX 670 der Speicher nicht ausgeht.

Troyan
2016-01-31, 14:19:14
3x passt eher. :D

Disconnected
2016-01-31, 14:21:10
Reicht aber leider immer noch nicht für sorgenfreies UHD.

ChaosTM
2016-01-31, 15:37:34
Gut genug um nicht mehr auf 1440p gehen zu müssen..

N0Thing
2016-01-31, 16:21:28
22*128 @1,2 VS 7*140@1,0 (Kepler SMX können meist nicht die 192SPs auslasten) = Faktor 3,4x.
In rechenlastigen Titeln kann sich so ein Unterschied durchaus abzeichnen.

Ohne Cherrypicking von Benchmarks und nicht nur vom Datenblatt kommt Faktor 2 gut hin. Wären es verteilt über alle Benchmarks wirklich mehr, hätte ich ne andere Grafikkarte.

http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-1920-1080-normale-qualitaet

dildo4u
2016-01-31, 16:23:59
Die 980 Ti wird vermutlich öfter von der CPU und API limitiert,wird interresant wie sich das mit DX12 entwickelt.

phoenix887
2016-01-31, 16:30:49
Echt als Wort in diesem Kontext ergibt wenig Sinn, da es ja sinngemäß "unverfälscht, wirklich oder nicht vorgetäuscht" bedeutet. Partiell angewandt bzw. abgewandelt kann man sagen: kompromisslos. Und das ist die 980 Ti nicht.

@Phoenix887: Erspare mir doch Kommentare über das Niveau. Manchmal sagt ein Wort einfach mehr als ganze Sätze. Meine Zeit ist knapp. Es ist scheiße zu bemerken wenn etwas unrund läuft.

Sorry, dann ist man einfach mal ruhig, wenn man keine Zeit hat, wenn es so sein sollte. Es gibt sowas wie Diskussionskultur.

Sehr schön aufgeschlüsselt Troyan.

Bestätigt meine Erfahrungen auch so. Da mein Philips 40 Zoll hat auf dem Schreibtisch, nutze ich auch oft 21:9. Also 3840x1632. Die Darstellungsfläche ist immer noch groß genug und bei selber Pixeldichte 1/3 mehr fps als bei 3840x2160.

Als Tipp für die passiv mitlesen.

Disconnected
2016-01-31, 16:32:58
3840x1620 wäre die korrekte "21:9" Auflösung.

phoenix887
2016-01-31, 16:36:15
Stimmt. Hatte ich am Anfang auch so. Aber irgendwann, hat hier mir jemand mal den Tipp mit 1632 gegeben, und seitdem hat sich das bei mir als 21:9 eingebrannt.

RoughNeck
2016-01-31, 16:37:04
Gut genug um nicht mehr auf 1440p gehen zu müssen..

Kommt auf die eigenen Ansprüche drauf an.
Mir reicht die TI oder Titan X nicht für sorgenfreies 4K, das habe ich aber auch schon vorher gewusst.
Ich brauch mindestens 58 FPS um ein smoothes Gameplay zu haben.

Hübie
2016-01-31, 17:04:14
Sorry, dann ist man einfach mal ruhig, wenn man keine Zeit hat, wenn es so sein sollte. Es gibt sowas wie Diskussionskultur.

Genau so wie man es sich verkneifen kann Kommentare über Niveauregulierung abzugeben.

@Disconnected: Ja willst du jetzt alle Titel ausschließen die nicht in die Argumentationskette passen, oder wie? Du reduzierst nie Details, war deine Aussage. Dann spielst du alte Schinken oder echt anspruchsloses Zeug, was dann auch auf der 980 Ti in 4k ginge. Sagte ich oben. Ebenso wie die Tatsache, dass eine 980 Ti keine (kompromisslose) 4k-Karte ist. Thema geklärt.:confused:

ps: Ihr untergrabt ~2 MP wenn ihr 3840x2160 oder 3840x1620 vergleicht. Das ist fast ein FHD-Monitor mehr oder weniger.

Troyan
2016-01-31, 17:07:47
Ohne Cherrypicking von Benchmarks und nicht nur vom Datenblatt kommt Faktor 2 gut hin. Wären es verteilt über alle Benchmarks wirklich mehr, hätte ich ne andere Grafikkarte.

http://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-rating-1920-1080-normale-qualitaet

Welchen Sinn macht es 1080p Benchmarks heranzuführen, wenn die GTX980TI öfters und stärker von der CPU und API eingebremst wird?

N0Thing
2016-01-31, 17:58:59
Welchen Sinn macht es 1080p Benchmarks heranzuführen, wenn die GTX980TI öfters und stärker von der CPU und API eingebremst wird?

Weil ich keine 4K Benchmarks mit einer GTX 980Ti und einer GTX 770 kenne. Dazu dürfte auch der VRAM nicht limitieren.

Aber ich bedien mich mal bei deinen Links, die bieten tatsächlich noch mehr:
In Dirt Ralley (http://www.computerbase.de/2015-12/dirt-rally-benchmarks/2/#diagramm-dirt-rally-2560-1440) bei 2.560 × 1.440 sind es Faktor 2,1.
In Fallout 4 (http://www.computerbase.de/2015-11/fallout-4-benchmarks/2/#diagramm-fallout-4-2560-1440) ist die GTX 980Ti unter 1440p um den Faktor 2 schneller als eine GTX 770.
Und in Just Cause 3 (http://www.computerbase.de/2015-12/just-cause-3-grafikkarten-benchmarks/2/#diagramm-just-cause-3-2560-1440) sind es dann Faktor 2,2.

Rise of the Tomb Raider fällt da zugegebener Maßen aus dem Rahmen und die 980Ti schafft bis zu Faktor 3,4. Im Schnitt sind aber eben eher Faktor 2 und nicht Faktor 4.

Disconnected
2016-01-31, 18:03:11
@Disconnected: Ja willst du jetzt alle Titel ausschließen die nicht in die Argumentationskette passen, oder wie? Du reduzierst nie Details, war deine Aussage. Dann spielst du alte Schinken oder echt anspruchsloses Zeug, was dann auch auf der 980 Ti in 4k ginge. Sagte ich oben. Ebenso wie die Tatsache, dass eine 980 Ti keine (kompromisslose) 4k-Karte ist. Thema geklärt.:confused:

Halt, halt, halt, immer langsam, Sportsfreund. Ich kann nur die Titel einschließen, die ich auch habe. In meiner Steam Bibliothek befinden sich aktuell 190 Titel, von denen einige auf einer GTX 670 in 2560x1440 nicht vernünftig laufen, wie ich hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10929192&postcount=3594) aufgeführt habe. Der Rest läuft einwandfrei. Nun stellt sich mir immer noch die Frage, wie Du "alter Schinken" definierst, alles älter als ein Jahr? Wenn ja, dann spiele ich eben alte Schinken. Voriges Jahr gab es nichts wirklich interessantes für mich, nur Resident Evil: Revelations 2, Trine 3, Oceanhorn und Woolfe: The Red Hood Diaries. Die liefen alle großartig in 2560x1440. Nach der Anschaffung eines neuen UHD Monitors ist natürlich die Anzahl der spielbaren Titel etwas gesunken (also wirklich nur alte Schinken). Neue Graka bietet sich also an. Nun will ich natürlich nicht wieder die gleichen Spiele bloß in höherer Auflösung spielen, sondern auch den Rest, der vorher nicht so gut lief. Da schaue ich mir Benchmarks der GTX 980 Ti an und stelle fest, dass sie in vielen Spielen (die sich leider nur teilweise mit meinen überschneiden) nicht wirklich schnell ist.

Ich habe in den letzten fünf Jahren über 70 Titel in 2560x1440 durchgespielt, auch welche die keine "alten Schinken" waren und das mit Grafikkarten, die mich nur etwas mehr als 200 EUR gekostet haben. Jetzt ist die einzige verfügbare Karte eine Kompromisslösung, die laut und stromfressend ist und 700 EUR kostet.

Hübie
2016-01-31, 18:13:40
Dann beantwortest du dir doch die Kaufentscheidung selber und verstehe nicht wieso hier weiter gemacht wird. :confused:
So anspruchslose Titel wir oben schafft die Ti wohl in 4k einigermaßen flüssig. Aber mal so nebenbei: Wieso skaliert dein Anspruch von unter 200 auf plötzlich 700? Lass doch 1440p Monitor und kauf für 300 Eier ne 290(X)/390(X). Da bekommst 8 GiB und kannst bequem in 1440p zocken. Für deine bekommst du je nach Modell, Ausstattung und Zubehör noch 100-130 Eier. Dann biste bei 170-200 Euro die du drauf zahlen musst. Da kannst du ab und zu auch DSR / VSR nutzen.
Also das nur als Randnotiz.

Btw: Sportsfreund? X-D

Disconnected
2016-01-31, 18:27:47
Ich habe meinen 27" 2560x1440 (warum nennt Ihr das eigentlich immer 1440p?) schon lange verkauft. Ich brauche was UHD taugliches. Man findet in Tests leider immer dieselben Benchmarks: Ryse, Crysis 3, Dying Light, Shadow of Morodr und das jährliche Ubisoftsche Tom Clancy's Assassins Cry. Wenn mir jemand bestätigen könnte, das meine o.g. Titel in 3840x2160 flüssig auf der GTX 980 Ti laufen, hole ich mir eine.

Die GTX 480 und die GTX 670 waren damals echte Schnäppchen, sowas findet man heute leider nicht mehr. Man muss eben heutzutage tiefer in die Tasche greifen für zeitgemäße leistung. Geld ist nicht der limitierende Faktor, aber ich möchte eben auch eine entsprechende Gegenleistung. Ich könnte mir den ganzen Rechner voller Titan X stopfen, aber das würde immer noch nicht das gewünschte Ergebnis bringen.

RoughNeck
2016-01-31, 18:59:00
Es kommt auf DEINE Ansprüche drauf an.
Die oben genannten Titel werden auf max. @ 4K nicht IMMER flüssig laufen.

N0Thing
2016-01-31, 19:59:45
Ich habe meinen 27" 2560x1440 (warum nennt Ihr das eigentlich immer 1440p?)

Ist eine gängige Abkürzung, um nicht die komplette Auflösung ausschreiben zu müssen, entlehnt von den Fernsehnormen. https://de.wikipedia.org/wiki/High_Definition_Television#Nomenklatur

Am PC ist die Angabe des p überflüssig, aber so wird deutich, dass die entsprechende Auflösung gemeint ist und nicht 720x560 im Falle von 720(p).

Disconnected
2016-01-31, 21:47:26
Ich weiß schon, aber es gibt keine TV-Auflösung mit 2560x1440. In dem Falle sollte man lieber WQHD schreiben.

(del)
2016-02-01, 06:34:42
WQHD wird in der Nomenklatur aber auch als 1440p geführt. Es handelt sich um eine Bildschirmauflösung, da sind die TVs (samt der Fernsehnormen und der daraus resultierenden Auflösung) nur ein Teil davon (und zwar ein sehr, sehr kleiner).

https://de.wikipedia.org/wiki/Grafikmodus

Der Sandmann
2016-02-01, 07:29:07
Ist eine gängige Abkürzung, um nicht die komplette Auflösung ausschreiben zu müssen, entlehnt von den Fernsehnormen. https://de.wikipedia.org/wiki/High_Definition_Television#Nomenklatur

Am PC ist die Angabe des p überflüssig, aber so wird deutich, dass die entsprechende Auflösung gemeint ist und nicht 720x560 im Falle von 720(p).

720p steht für die kleine HD Auflösung 1280*720.

Niall
2016-02-01, 07:47:52
720p steht für die kleine HD Auflösung 1280*720.

Das weiß er doch, er bezog sich auf das (p) durch welches die 720 im PC Umfeld nicht als "krumme" Auflösung wie z.B. 720x560 interpretiert werden kann. ;)

1440p ist eine gängige Bezeichnung für 2560x1440, genauso wie 720p(i), 1080p(i) und 2160p(i). Allesamt 16:9 - so einfach ist das. vierzehn vierzig p bzw. fourteen fourty p schreibt und spricht sich auch irgendwie entspannter als WQHD bzw. dablju kju äitsch di p. :freak:

(del)
2016-02-01, 08:09:05
Im Übrigen steht das p ja nicht für Pixel, sondern für progressiv. So, wie es auch 1080p und 1080i (interlace) gibt. :)

Niall
2016-02-01, 08:16:04
Im Übrigen steht das p ja nicht für Pixel, sondern für progressiv. So, wie es auch 1080p und 1080i (interlace) gibt. :)

Ich habe meinen Post der form halber diesbezüglich auch nochmal angepasst. Sicher ist sicher. :D

(del)
2016-02-01, 08:58:56
Ich höre es halt immer wieder, dass man das umgangssprachlich als (p)ixel tituliert.

Vollends Off-Topic:
Ich finde ja auch die Diskussionen immer lustig, wo man bis heute philosophiert, ob nun beim TV 1080i oder 720p besser seien. Nur dass man bei 1080 ja rein technisch gesehen nur zwei Halbbilder á 50 x 540 Zeilen hat als die 50 mal 720 Zeilen bei 720p. Hier scheidet sich die finale Qualität am Receiver / TV. De-interlacing vs. Upscaling. Einfach mal die Tour de dope zwischen ÖR und Eurosoport vergleichen ;)

Sailor Moon
2016-02-01, 10:25:05
Ich finde ja auch die Diskussionen immer lustig, wo man bis heute philosophiert, ob nun beim TV 1080i oder 720p besser seien. Nur dass man bei 1080 ja rein technisch gesehen nur zwei Halbbilder á 50 x 540 Zeilen hat als die 50 mal 720 Zeilen bei 720p.
Die Diskussion ist schon sinnvoll, da i50 2:2 verlustfrei zu p25 zusammengesetzt werden kann - auch wenn in der Erkennung für den Deinterlacer nicht immer ganz einfach von echtem Video (diskrete 50 Fields/s - wie eben z.B. die Tour) unterscheidbar. Und das ist ja schon ein sehr häufiger Inhaltsyp (Film nach Speedup).

(del)
2016-02-01, 13:01:51
Ich mag Interlaced auch lieber :)

Seit ich die Inhalte per Glasfaser gestreamt bekomme, sieht bei T-Entertain oft alles gleich Scheiße aus. Weß der Geier, womit die das vorher zusammenfrickeln :D

Mr. Lolman
2016-02-01, 13:04:42
Ich auch, vA weil das native 720p Material häufig nur schecht deinterlactes 1080i ist.

(del)
2016-02-01, 13:44:44
Die ÖR kaufen 1080i ein, frickeln 720p draus und der Receiver TV muss es dann hochskalieren. Kennt man :)

Loeschzwerg
2016-02-01, 13:49:54
...und heraus kommt eine herrliche Suppe :freak:

t691O8LkNxA

Matrix316
2016-02-01, 14:29:34
Ich habe meinen 27" 2560x1440 (warum nennt Ihr das eigentlich immer 1440p?) schon lange verkauft. Ich brauche was UHD taugliches. Man findet in Tests leider immer dieselben Benchmarks: Ryse, Crysis 3, Dying Light, Shadow of Morodr und das jährliche Ubisoftsche Tom Clancy's Assassins Cry. Wenn mir jemand bestätigen könnte, das meine o.g. Titel in 3840x2160 flüssig auf der GTX 980 Ti laufen, hole ich mir eine.

Die GTX 480 und die GTX 670 waren damals echte Schnäppchen, sowas findet man heute leider nicht mehr. Man muss eben heutzutage tiefer in die Tasche greifen für zeitgemäße leistung. Geld ist nicht der limitierende Faktor, aber ich möchte eben auch eine entsprechende Gegenleistung. Ich könnte mir den ganzen Rechner voller Titan X stopfen, aber das würde immer noch nicht das gewünschte Ergebnis bringen.
Dass die 980TI alleine für 4K nicht ausreichend ist, und selbst eine TitanX nicht so wirklich, konnte man ja bei den Reviews damals schon feststellen. Damit man da wirklich alles auch mit allen Details superflüssig spielen kann, braucht man schon mind. 2 von beiden denk ich mal.

Oder als Alternative, was nicht so teuer ist, zwei 390X mit 8 GB. Die könnten eventuell auch ausreichen.

Problem ist halt, über die Jahre hieß es immer: "Wer braucht schon so hohe Auflösungen, ich spiele noch in 1680x1050 höhöhö" und jetzt wollen alle plötzlich auf Ultra HD aufrüsten und wundern sich, warum die Grafikkarten noch nicht so weit sind.

Hübie
2016-02-01, 14:35:59
Das Licht am Ende des Tunnels könnte halt auch ein entgegen kommender Zug sein. ;)

N0Thing
2016-02-01, 15:12:18
Problem ist halt, über die Jahre hieß es immer: "Wer braucht schon so hohe Auflösungen, ich spiele noch in 1680x1050 höhöhö" und jetzt wollen alle plötzlich auf Ultra HD aufrüsten und wundern sich, warum die Grafikkarten noch nicht so weit sind.

Naja, es ist ja nicht so, dass AMD und Nvidia schnellere Grafikkarten hätten bauen könnten und dies nur nicht gemacht haben, weil die Zocker lieber mit 1680x1050 gespielt haben, anstatt auf 2560x1440 zu wechseln. :freak:

Matrix316
2016-02-01, 17:56:05
Naja, es ist ja nicht so, dass AMD und Nvidia schnellere Grafikkarten hätten bauen könnten und dies nur nicht gemacht haben, weil die Zocker lieber mit 1680x1050 gespielt haben, anstatt auf 2560x1440 zu wechseln. :freak:
Wer weiß, wer weiß. :wink:

Vielleicht orientiert man sich ja auch an den Statistiken der Spieleplattformen um nicht zu viel Leistung zu billig abzugeben. ;)

Oder 4K ist tatsächlich zu viel für den Mainstream.

Disconnected
2016-02-01, 18:56:57
Das weiß er doch, er bezog sich auf das (p) durch welches die 720 im PC Umfeld nicht als "krumme" Auflösung wie z.B. 720x560 interpretiert werden kann. ;)

1440p ist eine gängige Bezeichnung für 2560x1440, genauso wie 720p(i), 1080p(i) und 2160p(i). Allesamt 16:9 - so einfach ist das. vierzehn vierzig p bzw. fourteen fourty p schreibt und spricht sich auch irgendwie entspannter als WQHD bzw. dablju kju äitsch di p. :freak:

Es gibt meines Wissens weder 720i noch 2160i. Zur Karte: Ich glaube, ich warte mal ab, wie sie sich in DOOM schlägt.

Matrix316
2016-02-01, 21:23:35
i und p gibt's beim PC sowieso nicht, da die Bilder alle immer im ganzen ankommen (außer bei SLI oder Crossfire, aber das ist auch nicht wirklich interlaced oder gibt's ein Verfahren wo von beiden Karten jeweils abwechselnd eine Zeile gerendert wird? :uponder: Oder wenn man vsync aus hat und tearing kommt und so...;))

Ich denke mal, wenn du warten kannst, warte auf die nächste Generation von Nvidia oder AMD. Die sollten mit 4K klar kommen.

Disconnected
2016-02-01, 22:12:35
Das Voodoo2 SLI hat so funktioniert (scan line interleave), beim dem von NV sind es komplette Frames. Und ich werde halt warten... und alte Schinken spielen. :D

Palpatin
2016-02-02, 10:20:17
Kann mich erinnern das man zu DX 9 Zeiten bei einigen Games (z.B. Crysis) auch 1080i als Auflösung wählen konnte.

Triniter
2016-02-02, 11:13:04
Ich hab auch ewig gezögert ob ich nun von 1680x1050 auf 1920x1200 oder WQHD umsteigen soll. Letztendlich wäre mir der Unterschied zwischen 1680x1050 und den 1920xX Auflösungen zu gering gewesen, ergo ging es auf WQHD, 4K stand nie zur Debatte, ich denke da kann man gut noch das ein oder andere Jahr warten wenn man es nicht wirklich braucht (haben wollen kann aber natürlich auch eine sehr berechtigte Form von brauchen sein ;-) )
Kurzum, zum WQHD musste ne neue Grafikkarte her, die einzig wirklich tolle Lösung die 980ti. Nach mittlerweile 2 Wochen kann ich folgendes Fazit ziehen:
Battlefront: Alle Regler auf Ultra --> gar keine Probleme, der interne Framecounter zeigt mit VSync konstante 60fps ohne VSync gehts teilweise in den dreistelligen Bereich, hier könnte ich noch ein wenig mit DSR rumspielen
Battlefield 4: Quasi gleich, ist ja auch die gleiche Engine
Witcher 3: Alles auf Ultra (kein Hairworks) ist gut spielbar, fps Werte hab ich mir nicht anzeigen lassen aber ich hab nicht das Gefühl das ich die Settings noch nach unten korigieren müsste.
GTA V: Nur kurz gestartet, alles auf Ultra. Hier kommt die 980ti an ihre Grenzen, Ultra ist hier nicht spielbar, wie weit die Details reduziert werden müssen weiß ich nicht, da ich mit der Story durch bin auch nicht weiter schlimm für mich.
Rise of the Tomb Raider: Komplett Ultra inkl. Pure Hair. Bisher ca 90 Minuten gespielt (Syrien komplett durch) und noch keine Probleme gehabt, allerdings soll es wohl anspruchsvollere Karten geben.
Mordors Schatten: 1440p Ultra liefert im internen Benchmark bei den Min fps irgendwas von 60 - 70
Vorsicht: Die Eindrücke sind natürlich meine persönlichen Eindrücke und nur bei Battlefront und Mordors Schatten mit Zahlen unterlegt. Ich muss glaub mal den Afterburner installieren damit ich auch mal konkrete Zahlen sehe.

Hübie
2016-02-02, 12:25:15
Steam und Ubisoft Launcher bieten ebenfalls die Option für einen framecounter. Musst keinen Balast installieren.

Matrix316
2016-02-02, 13:44:41
Kann mich erinnern das man zu DX 9 Zeiten bei einigen Games (z.B. Crysis) auch 1080i als Auflösung wählen konnte.
Ok, früher beim Amiga gabs auch Interlaced Auflösungen. :uponder:

Aber bieten Grafikkarten heute überhaupt noch welche?

Jedenfalls hat ein LCD Display oder ein Smartphone Display x native Zeilen und keine interlaced Zeilen. ;)

(del)
2016-02-02, 13:50:00
Es soll ja Verrückte gewisse Leute geben, die einen TV als Screen nutzen. Mit etwas Geschick bekommt man das schon hin ;)

phoenix887
2016-02-02, 16:38:24
Es soll ja Verrückte gewisse Leute geben, die einen TV als Screen nutzen. Mit etwas Geschick bekommt man das schon hin ;)

Meinst du mich? :tongue:

(del)
2016-02-02, 16:50:37
Nö. :P

phoenix887
2016-02-02, 18:06:28
Schade, wäre für mich ein Ritterschlag gewesen;)

aufkrawall
2016-02-02, 18:59:14
Wenn man einen Fernseher nicht gescheit mit progressive füttern kann, würd ich ihn verschenken.

TurricanM3
2016-02-06, 15:12:29
Igor du hast nicht zufällig vor das hier zu testen:

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10935200#post10935200

?

Bin auf euren Bericht hier gestoßen:
http://www.tomshardware.de/nvidia-geforce-gtx-980-ti-grafikkarte-gpu,testberichte-241827-7.html

Oder habe nur ich den erhöhten Verbrauch?

Keule90
2016-02-06, 15:34:49
Da hier viel los ist und viele GTX 980Ti Besitzer unterwegs sind, erlaube ich mir einmal meinen Problem Thread zur Gigabyte GTX 980 Ti Gaming G1 zu verlinken, ich hoffe dies ist ok: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10935256#post10935256

Hübie
2016-02-06, 17:19:09
Da hast du Bockmist gemacht. Mal schauen ob wir deine Karte retten können. Siehe dein Thread. ;) Die Sticheleien mach ich um dir einzubläuen mit teuren Sachen umsichtiger zu sein. ;) :tongue:

phoenix887
2016-02-06, 17:21:20
Siehe deinen eigenen Thread.

Keule90
2016-02-06, 18:15:46
Da hast du Bockmist gemacht. Mal schauen ob wir deine Karte retten können. Siehe dein Thread. ;) Die Sticheleien mach ich um dir einzubläuen mit teuren Sachen umsichtiger zu sein. ;) :tongue:

Ist ja nur halb kaputt, ein BIOS geht ja noch :tongue:
Aber danke für eure Hinweise, siehe Thread.

(del)
2016-03-08, 17:59:18
So, die letzte 980 Ti, die ich getestet habe. Nach 12 Karten reichts langsam :D

http://media.bestofmicro.com/P/M/564682/gallery/RGB-Ring_w_755.jpg

Und dazu Glück im GPU-Lotto gehabt. ASIC von 85% und einen Boost ab Werk von 1480 MHz (bench table) bzw. 1468 MHz (Gehäuse).
Läuft mit Luft stabil bis 1530 MHz. Chapeau. Im Gaming sind es bei 1468 MHz dann nur 239 Watt in Metro LL 4K - Rekord. :)

-/\-CruNcher-/\-
2016-03-08, 19:25:20
Bin gespannt wo GP100 letztendlich landen wird bem Verbrauch bei der selben Performance sicherlich irgendwo in der nähe von jetzt GM204.

Was hast du bei Raytracing raus vor allem Octane und V-Ray ?

(del)
2016-03-08, 19:27:43
Die Karte habe ich mir aus dem Retail geschnappt. Die zieht sogar die Lightning ab.
Lustig ist der mittlere Lüfter, der gegenläufig dreht. Nicht schlecht...

horn 12
2016-03-08, 19:29:37
OPTISCH auch ein Prachtstück!

-/\-CruNcher-/\-
2016-03-08, 19:35:02
Die Karte habe ich mir aus dem Retail geschnappt. Die zieht sogar die Lightning ab.
Lustig ist der mittlere Lüfter, der gegenläufig dreht. Nicht schlecht...

Interessante idee bei einer 3 Fan Kombo, gibt es dafür schon einen Fancy name von Gigabyte aus der R&D ;) ?

Hui da steht Gigabyte ja mal wieder über MSI :D

Vor allem was MSI gerade bei ihren Laptops/Notebooks macht gefällt mir ein paar sehr verrückte sachen dabei vs MSI und Asus vor allem bei ihrem neuen High End Brand Aorus, da werden scheinbar einige Engineer Dreams true in der Abteilung :D

phoenix887
2016-03-08, 19:41:24
Die Karte habe ich mir aus dem Retail geschnappt. Die zieht sogar die Lightning ab.
Lustig ist der mittlere Lüfter, der gegenläufig dreht. Nicht schlecht...

Wo zieht sie die Lightning ab? :confused:Habe die selbe Werte mit ASIC 79%. Wenn das überhaupt von Relevanz ist

(del)
2016-03-08, 20:02:28
Wo zieht sie die Lightning ab? :confused:Habe die selbe Werte mit ASIC 79%. Wenn das überhaupt von Relevanz ist

1480 MHz out of the Box? Die 87mV reichen für stabile 1530 MHz ohne Aux-Spielereien.
Ganze 239 Watt bei knapp 1,5 MHz schaffst Du mit der Lightning nicht, da sind es 280 Watt. :)
Die Spannungsversorgung ist besser gelöst, das hatte ich bei der Waterforce schon.

TobiWahnKenobi
2016-03-08, 21:08:29
1480 MHz out of the Box? Die 87mV reichen für stabile 1530 MHz ohne Aux-Spielereien.
Ganze 239 Watt bei knapp 1,5 MHz schaffst Du mit der Lightning nicht, da sind es 280 Watt. :)
Die Spannungsversorgung ist besser gelöst, das hatte ich bei der Waterforce schon.

die kriegt man auf 1.5MHz runter?? da sind 240W aber doch reichlich happig ;D


(..)

mfg
tobi

Hübie
2016-03-09, 01:28:39
die kriegt man auf 1.5MHz runter?? da sind 240W aber doch reichlich happig ;D


(..)

mfg
tobi

:biggrin::biggrin::biggrin: Musste drei mal hingucken und lesen, aber dann hab ichs auch geschnallt. Hahahaa ;D Igor wird alt!

@Format_C: Geiles Teil. Willst nicht zufällig weiterverkaufen? :smile:

(del)
2016-03-09, 07:05:05
Was heißt alt.... Nach einem 14-Stunden-Tag darf einem auch schon mal sowas Gigablödes passieren :P

Ich verkaufe nie etwas weiter, das geht leider nicht. Die darf jetzt im Archiv in Ehren grau werden oder für einen Mod herhalten. Wenn es endlich mal einen passenden Fullcover gäbe...

Hübie
2016-03-09, 07:29:11
Was sagst du denn zur Lautstärke? Wann kommt der Test ungefähr? :D

MartinRiggs
2016-03-09, 07:55:04
So, die letzte 980 Ti, die ich getestet habe. Nach 12 Karten reichts langsam :D

Und dazu Glück im GPU-Lotto gehabt. ASIC von 85% und einen Boost ab Werk von 1480 MHz (bench table) bzw. 1468 MHz (Gehäuse).
Läuft mit Luft stabil bis 1530 MHz. Chapeau. Im Gaming sind es bei 1468 MHz dann nur 239 Watt in Metro LL 4K - Rekord. :)

Und die Lautstärke ist Gigabyte typisch bestimmt mal wieder übelst oder?
Da lieber die Palit und dafür jederzeit silent :tongue:

(del)
2016-03-09, 08:24:04
Ihr werdet es nicht glauben, selbst mit OC kaum lauter als die Lightning. Komplett neuer Kühler und gegenläufig drehende Lüfter :)
Im Gegensatz zur Palit auch weniger Spulengeräusche

Hübie
2016-03-09, 08:34:36
Wtf?! Jetzt will ich meine ASUS noch mehr loswerden X-D

PS: Igor. Im Test zum A10-7890k hast du sobjektiv auf Seite zwei geschrieben ;D Hat mir den Morgen gerettet...

(del)
2016-03-09, 08:39:10
Wtf?! Jetzt will ich meine ASUS noch mehr loswerden X-D

PS: Igor. Im Test zum A10-7890k hast du sobjektiv auf Seite zwei geschrieben ;D Hat mir den Morgen gerettet...

Such dir was aus, das ist der interaktive Part :P

Hübie
2016-03-09, 08:40:33
Hahaahaaa :D

(del)
2016-03-09, 08:54:17
Manno, beim Arzt kann man echt Lebenszeit lassen... (Zwischenruf)

Hübie
2016-03-09, 10:27:27
Immer noch krank? Dann vermute ich mal , dass der Test etwas später kommt. Kurier dich aus. Man hat, anders als bei Mario, nur ein Leben.

Lowkey
2016-03-09, 10:30:20
Format_C & Hübie ... still a better love story than twilight.


(musste mal gesagt werden) :D

Hübie
2016-03-09, 10:45:19
Wir teilen halt die Liebe zum Ingenieurwesen. ;D

(del)
2016-03-09, 11:15:44
So schaut's aus. Die exakten Wissenschaften sind das einzig Wahre. Neben gutem Bier und der passenden Frau... :P

Triniter
2016-03-09, 13:00:58
Wo zieht sie die Lightning ab? :confused:Habe die selbe Werte mit ASIC 79%. Wenn das überhaupt von Relevanz ist
Bissle relevant scheint der ASIC durchaus zu sein, ich hab die Gigabyte seit Ende Januar bei mir drin, mein ASIC ist 72,2%
Damit taktet sie auf 1418 MHz bzw. 1448 MHz wenn man im OC Guru den Haken bei OC setzt. Reicht mir, Lautstärke ist gefühlt auch gut, hatte davor eine GTX770 Windforce und die kam mir deutlich lauter vor. Allerdings hatte ich die in einem anderen Gehäuse verbaut.
Die Beleuchtung ist übringens echt nett, kann man lustig blingbling mit machen wenn man will.

phoenix887
2016-03-09, 19:39:10
1480 MHz out of the Box? Die 87mV reichen für stabile 1530 MHz ohne Aux-Spielereien.
Ganze 239 Watt bei knapp 1,5 MHz schaffst Du mit der Lightning nicht, da sind es 280 Watt. :)
Die Spannungsversorgung ist besser gelöst, das hatte ich bei der Waterforce schon.


Ok habe es geschnallt.;) Out he Box natürlich nicht. Glaube bei mir 1440-1450mhz.

Aber abzeiehen, ist etwas anderes, nach meiner Meinung;)

Aber ist auch Wurst, have fun:)

Thunder99
2016-03-09, 20:35:27
Gegen drehende Lüfter interessieren mich als Ingenieur :D. Massive turbulente Strömung die sich nicht gegenseitig behindert? Könnte da auch der Schall reduziert werden? :confused:

Hübie
2016-03-09, 21:01:15
Davon kann wohl kaum die Rede sein. Also massive Strömungen. Ist ja wenig gerichtet und die verlaufen ja nicht direkt aneinander vorbei. Interessant ist es jedoch alle mal. Ehrlich gesagt habe ich mir so etwas ähnliches auch mal gedacht. Irgendwo sah ich eine Karte mit angewinkelten Lüftern. Palit Jetstream glaube ich...

(del)
2016-03-09, 21:31:17
http://media.bestofmicro.com/R/7/545299/gallery/airflow_w_755.png

BTW:
Ich habe gerade mal die Log-Files des Benchmarks von The Division analysiert und bald einen Lachkrampf bekommen.
Nicht der Ingame-Benchmark ist als Szene Schrott, sondern die abgespeicherten und dann interpretierten Werte.
Eine schnellere Karte rendert weniger Frames in gleicher Zeit? Geht nicht, gibt's nicht bei Ubi.
Dann hätten wir noch Phantom-Frames und Log-Abbrüche mitten im Durchlauf.
Außerdem ist es CPU-abhängig, nur eben nicht, wie man allgemeinhin vielleicht denken könnte.

Theoretisch hätte man sich die ganzen eigenen Benchmarkszenen mit etwas Überlegung durchaus auch sparen können.
Deren Streuung ist deutlich größer, als eine ordentliche Messung der Ingame-Benchmarkszene mit geeigneten externen Mitteln. :)

TobiWahnKenobi
2016-03-09, 21:39:22
Davon kann wohl kaum die Rede sein. Also massive Strömungen. Ist ja wenig gerichtet und die verlaufen ja nicht direkt aneinander vorbei. Interessant ist es jedoch alle mal. Ehrlich gesagt habe ich mir so etwas ähnliches auch mal gedacht. Irgendwo sah ich eine Karte mit angewinkelten Lüftern. Palit Jetstream glaube ich...

AFAIR lief bei dem jetstream-lüfter damals auch schon der mittlere quril andersrum. erinnere mich da düster an zwei 680er jetstreams im SLi, die ich kurz vor der 690 hatte; für genauere erinnerungen müsste ich alte fotos wälzen..


edit

die da.
http://abload.de/thumb/img_0378o9s8c.jpg (http://abload.de/image.php?img=img_0378o9s8c.jpg) http://abload.de/thumb/img_037966svt.jpg (http://abload.de/image.php?img=img_037966svt.jpg)



(..)

mfg
tobi

akuji13
2016-03-09, 21:59:07
Da irrst du dich nicht, so eine hatte ich auch.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Palit-Geforce-GTX-680-Jetstream-Test-876357/

(del)
2016-03-09, 22:05:57
Ich habe den Sausebraus bei mir auch noch verstaubt im Archiv liegen. :)

Thunder99
2016-03-09, 23:19:18
Ach ich war echt im Kopf verdreht. Klar so läuft der Strom besser als mit 3 gleich drehenden Lüftern :usad: Sollte eine Erhöhung der Strömungsgeschwindigkeit 4free ergeben :up:

Hübie
2016-03-10, 06:45:48
Das Problem ist ja, dass übermäßig Warme Luft wieder weit ins Gehäuse getragen wird. So hat man zwei Baustellen, an denen die Wärme austritt. Wenn dann noch, wie bei mir, die AiO-Wakü von vorn hinein pustet, dürfte es ziemlich wirr im Luftstrom werden.
Genau genommen ist das Konzept ATX jedoch eh für die Katz.

Loeschzwerg
2016-03-10, 07:05:21
Die Probleme hast doch bei diesen axialen Designs immer, da hilft nur "Finger weg!" von 08/15 Gehäusen bzw. sich generell Gedanken über den Luftstrom zu machen.

Wegen mir kann gerne endlich eine 2,5 Slot Radialkonstruktion auf den Markt kommen. Dürfte für die meisten Nutzer die bessere Wahl sein.

Hübie
2016-03-10, 07:21:08
Radial ist wegen der Ausbeute Müll. Kennst du ein leises Design mit radial drehenden Lüftern? Ich nicht.

Edit: Das einzige was hilft: Das Müll-Konzept namens ATX endlich auf den Schrott werfen und mal was anständiges herausbringen. Wird nicht passieren, da Menschen Gewohnheitstiere sind.

Loeschzwerg
2016-03-10, 07:35:42
Naja, "leise" nach heutiger Definition nicht, aber müssen das highend Systeme unter Last unbedingt sein? Also leise im Sinne von "still"? Klar, nen Brüllwürfel wie die GTX 480 oder HD7970 GHZ will ich ebenfalls nicht, aber mittlerweile sind alle derart verwöhnt... da wird selbst eine 8800 GTX als laut bezeichnet.

Mir kommt es manchmal so vor als würde die Laustärke bei Grafikkarten kritischer betrachtete werden als die Lüftersteuerung bei Notebook ^^

Hübie
2016-03-10, 07:40:57
Die 8800 GTX ist ja auch laut. Hatte ja die 8800 GTX, GTS und 9800 GTX hier (letztere oxidiert oben im Server). Das ist einfach nur nervig. Radial mit 2,5 oder 3-Slots würde sich niemand antun wollen, dessen Gehör nicht schon vorbelastet ist. Nachweislich bringt DHE ja auch nicht das Allheilmittel. Man spart halt den ein oder anderen Gehäuselüfter bzw. kann auch "Brotboxen" als Gehäuse nutzen, aber sonst seh ich da kaum einen Sinn drin.

Edit: Und ich hätte am liebsten hier mal einen Kumpel herausgeschmissen, weil mir seine GTX 980 so auf den Senkel ging... :D

Loeschzwerg
2016-03-10, 08:16:33
Ok :D Also wenn du ne 8800 GTX als laut empfindest, dann kann ich deine Einstellung zumindest nachvollziehen.

Verwöhnt finde ich es dennoch, gerade wenn man sich sämtliche Ref.-Designs von z.B. Geforce 6 oder vergleichbare Radeon anschaut. Da war die 8800 GTX ein enormer Schritt nach vorne und wurde durchgehend als "nicht störend" von der Presse eingestuft.

Jetzt wird zwar schön mit immer kleineren Zahlen um sich geworfen, aber nur die wenigsten Käufer können das auch wirklich selbst abschätzen. Dann wird zur Karte mit der geringsten Laustärke gegriffen, das Teil in ein 08/15 Gehäuse (ohne entsprechendes Konzept) geworfen und gemeckert weil die GPU/VRMs zu warm werden ^^ Und die Taktregler müssen bis zum Anschlag gedreht werden.

Naja, man muss halt wissen was man will bzw. bevorzugt :) Ich mag das kompakte, robuste Design von DHE Karten und schätze mein weniger verstaubtes Gehäuse.

akuji13
2016-03-10, 08:26:55
Das einzige was hilft: Das Müll-Konzept namens ATX endlich auf den Schrott werfen und mal was anständiges herausbringen.

Man könnte auch das Müll-Konzept Luftkühlung auf den Haufen werfen. :wink:

Ein Konzept für alle Rechner ist auch schwierig.
Ein HTPC/low end Spielerechner hat ganz andere Anforderungen an die Kühlung als andere Rechner.

Kühlt man seine CPU/GPU mit AiOs funktioniert ATX auch ganz hervoragend.

Dr.Doom
2016-03-10, 08:38:20
Die 8800 GTX ist ja auch laut. Hatte ja die 8800 GTX, GTS und 9800 GTX hier (letztere oxidiert oben im Server).Dann liegt das, denke ich, am Alter der Karten.
Ich hatte seinerzeit zwei 8800er (G80, die mit 640 MB Speicher) und die waren beide Ohrenschmeichler. Später hatte ich dann eine G92er-Version (512 MB) und die war noch mal leiser -- allerdings nur deswegen, weil die passiv gekühlt wurde. :freak:

Enttäuschend fand ich erst die aktuellen Maxwell 980er (ohne Ti) mit dem DHE-Kühler. Beim Cities Skylines-Spielen rauschte nicht das Meer vor der Küste meiner Stadt, sondern die Luft, die aus der 980 rausschoss.

Das war der Zeitpunkt, an dem ich mich für eine AIO-Nachrüstung entschieden habe.

Hübie
2016-03-10, 08:43:31
Ja klar ist AiO besser. Kostet halt auch wieder mehr bzw. erhöht die Anforderungen (im umgekehrten Sinne: man verkleinert die potenzielle Käuferschaft).

dargo
2016-03-10, 09:07:47
Man könnte auch das Müll-Konzept Luftkühlung auf den Haufen werfen. :wink:

Dieser "Müll" wird erst verschwinden wenn wir nur noch APUs haben. Dann ein Radiator mit 2x 120-140mm Lüfter ins Gehäuse mit AiO und fertig ist der Lack.

Dural
2016-03-10, 09:38:44
Die 8800GTX war und ist eine der leisesten Grafikkarten mit Radial Lüfter, was da laut sein soll kann ich nicht nachvollziehen.

Und wie so die Radial Kühler immer als derart schlecht hingestellt werden ist mir bis heute so wie so ein Rätsel, es ist schlicht der einige Kühler der sinnvoller weise die Warm Luft nach aussen befördert und nicht im Gehäuse verteilt. Einzig die Slot Blende müsste man mal für einen besseren Durchfluss Anpassen, das ist nämlich auch der Grund wie so die Kühler etwas lauter sind, die Lüfter müssen einfach mehr Druck aufbauen.

Hübie
2016-03-10, 10:32:30
Da hat jemand in Physik nicht aufgepasst :D Radial ist so wie fächern. Brauchst viel Energie um die Luft zu bewegen und das wiederum bedeutet einfach mehr Reibung aus dem Ruhezustand (streben nach dem absoluten Nullpunkt - den es natürlich so nicht gibt). Weiterer Nachteil ist dass du 2,5-3 Slots brauchst wenn du ordentlich was umsetzen willst. 300 Watt brauchen schon einige Kubikmeter Luft pro Stunde (wobei ich lieber Liter pro Minute als Maß kenne / nutze). Ist der "Turm" zu hoch kommt es vermehrt zu Unwucht oder Schleifen. Radial ist also auch unter dem Gesichtspunkt der Lautstärkeemission schwieriger zu konstruieren / umzusetzen. Dazu gesellt sich die Aufgabe bei aktuellen Karten die Luft über recht große Distanz auszurichten und das möglichst turbulenzarm...
Man kann jetzt also streiten was besser ist. Am Ende muss es praktikabel sein. Das meine ich in jeder Hinsicht.

Edit: Also im Leerlauf kann man die 8800 GTX ja echt nicht hören, aber unter Last wirds öfter nervig. Zwar lange nicht so ätzend wie bei der GTX 980, aber immerhin. Wobei auch hier Erfahrungen und Empfindungen durch eine Vielzahl an Faktoren divergieren.

akuji13
2016-03-10, 10:40:03
Dieser "Müll" wird erst verschwinden wenn wir nur noch APUs haben. Dann ein Radiator mit 2x 120-140mm Lüfter ins Gehäuse mit AiO und fertig ist der Lack.

Wenn ich mir die Zahlen anschaue das Grafikkarten im oberen Preissegment stark zulegen wird mir das wohl erspart bleiben.

Die Idee alles in einem chip finde ich schon gut, aber solange die Leistung nicht da ist habe ich es lieber so.

Thunder99
2016-03-10, 11:29:41
Gab mal BTX für einen besseren Luftstrom. Nur haben wollte das keiner :D

Sonst finde ich ATX nicht so schlecht. Man braucht halt wirklich angepasste Lüfter und Konzepte (Anzahl & Position, ect) um die erwärmte Luft im Gehäuse gut nach draußen zu befördern :wink:

akuji13
2016-03-10, 12:27:07
BTX sollte doch z. B. der immer größeren Hitzentwicklung der CPUs entegegen wirken.
Das hat sich ja nach dem P4 auch in eine andere Richtung entwickelt und ist heute kaum noch ein Problem.

Das man mit BTX die Grafikkarten in den Griff bekommen würde mag ich nicht so recht glauben.
Auch wenn die Richtung optimiert ist, so ist der Luftstrom doch noch immer recht schwach ausgeprägt.

dargo
2016-03-10, 12:31:52
Sonst finde ich ATX nicht so schlecht. Man braucht halt wirklich angepasste Lüfter und Konzepte (Anzahl & Position, ect) um die erwärmte Luft im Gehäuse gut nach draußen zu befördern :wink:
Jupp, auch die Drehzahl ist wichtig. Schneller ist nicht immer besser, und damit meine ich nicht die Lautstärke. ;)

btw.
Ich vermisse langsam ein Gehäuse wo ich über der Graka einen 120-140mm und unter der Graka einen 120-140mm Lüfter verbauen kann. Ein Lüfter unter der Graka bringt recht viel. So muss man halt selbst basteln. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10786760&postcount=702

Ist dennoch leider nur Platz für einen 92-er.

akuji13
2016-03-10, 12:36:16
Hättest ja gleich noch einen Lufttunnel dafür bauen können. :wink:

dargo
2016-03-10, 12:44:13
Die Graka ist mir schon leise genug, aber bring mich nicht auf neue Ideen. :D

akuji13
2016-03-10, 12:55:19
Noch leiser, noch kühler...ich sags ja nur. :D

MartinRiggs
2016-03-10, 12:55:50
Jupp, auch die Drehzahl ist wichtig. Schneller ist nicht immer besser, und damit meine ich nicht die Lautstärke. ;)

btw.
Ich vermisse langsam ein Gehäuse wo ich über der Graka einen 120-140mm und unter der Graka einen 120-140mm Lüfter verbauen kann. Ein Lüfter unter der Graka bringt recht viel. So muss man halt selbst basteln. :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10786760&postcount=702

Ist dennoch leider nur Platz für einen 92-er.

Stimmt nicht in allen Gehäusen, muss man selbst testen.
Ich könnte direkt unter der Grafikkarte, neben dem Netzteil einen 120er anbringen. Da der Luftstrom von vorne aber schon so gut ist, bringt dieser Lüfter 0,0 Vorteil

dargo
2016-03-10, 13:07:52
Hast du den Luftstrom von vorne eventuell zu stark? Meine Erfahrung ist, dass der Frontlüfter der direkt Richtung Graka pustet nicht zu schnell drehen darf. Bei mir haben sich 500RPM beim 120mm Lüfter sehr gut bewährt. Mit 700RPM wird die Graka bereits wärmer, bzw. drehen die Lüfter schneller. Bei zu hoher Drehzahl wird wohl der Luftstrom der kleinen Grakalüfter gestört. Aber klar... wird auch sicherlich mit den Gegebenheiten vom jeweiligen Gehäuse zusammenhängen.

woodsdog
2016-03-10, 17:33:37
das ganze hat jetzt seit 2 seiten was genau mit der 980 TI zu tun?

(del)
2016-03-10, 17:38:53
das ganze hat jetzt seit 2 seiten was genau mit der 980 TI zu tun?

Luftstrom = Luft + Strom. Luft braucht sie, Strom auch. :P

Hübie
2016-03-10, 17:49:34
@woodsdog: Dein Beitrag hat nicht mal etwas mit Grafikkarten zu tun, also Füße still halten :P
Ist doch legitim wenn man sich mal allgemein über Kühlkonzepte austauscht, da die 980 Ti ja auch mal mit 350 Watt BIOS betrieben wird (manchmal sogar mehr).

Ich bin ja nicht wirklich zufrieden mit meiner ASUS, da man den Kühlkörper verkackt hat. Auch wenn sich manche mockieren wie man Ingenieursarbeit anzweifeln kann (oh je wie frevelig :rolleyes:), liegen die Fakten auf dem Tisch. Heatpipes haben schlechten Kontakt zum Die und verlaufen dann auch noch innenseitig am Mainboard :facepalm: Man muss kein Genie sein um anzuzweifeln, dass hier gutes R&D betrieben wurde. Es kommen täglich schrottige Produkte von Akademikern heraus, also darf man berechtigte Kritik anbringen.
Das nur vor weg, da so eine Diskussion im HWL ausartete. ;)

woodsdog
2016-03-10, 18:44:56
mit der Argumentation kann man hier auch anfangen über Windräder und Pumpspeicherkraftwerke zu reden. die TI braucht ja Strom. :freak:

Unfug....


Spricht ja nix gegen den Austausch an sich....! Nur will ich nicht seitenweise was von Kühlern, Lufttunneln und BTX lesen wenn ich hier 980 ti kram erwarte. :P

Loeschzwerg
2016-03-10, 20:05:12
Die 980Ti ist doch schon Schnee von Gestern, was erwartest du hier noch großartig Neues? :P

akuji13
2016-03-10, 20:26:21
Spricht ja nix gegen den Austausch an sich....! Nur will ich nicht seitenweise was von Kühlern, Lufttunneln und BTX lesen wenn ich hier 980 ti kram erwarte. :P

Du kannst ja erstmal die 184 Seiten davor lesen. ;)

phoenix887
2016-03-10, 21:39:19
Noch leiser, noch kühler...ich sags ja nur. :D

Wie primitiv der Mensch manipulierbar ist:D

(del)
2016-03-11, 08:22:38
Ok, zurück zur 980 Ti ;)

Nachdem ich mich jetzt zwei Tage mit The Division und ellenlangen Benchmarks mit 22 Karten und 5 verschiedenen
CPUs (Intel und AMD) rumgequält habe, bleibt das Fazit, dass die Gigabyte GTX 980 Ti Xtreme Gaming momentan
zwar die Spitze darstellt, aber auf UHD (wie alle anderen Karten auch) grandios überfordert ist :D

Da das Spiel sogar selbst mitprotokolliert, habe ich mir mal die internen Logs angeschaut und festgestellt, WARUM der
eingebaute Benchmark solche Scheiße anzeigt. Das kann so nicht funktionieren, da absolut fehlerhaft gemessen wird.
Schnellere Karten rendern weniger Frames als langsame Karten? Programmierfehler vom Feinsten :P

http://media.bestofmicro.com/5/J/565255/gallery/01-Ingame-Curves_w_600.png

Lässt man dann noch die Standbilder (4 Sekunden Blende) vom Anfang weg und begrenzt die Protokollierung
mit Fraps auf 50 Sekunden, dann hat man es relativ repräsentativ und vor allem auch perfekt reproduzierbar.
Alle eigenen Szenen sind sinnlos, da eine Differenz auftritt, die eine objektive Bewertung bei sehr ähnlich
schnellen Karten ad absurdum führt.

Das Spiel ist ein Hardwarefresser, der auch die 980 Ti genüsslich vernascht hat.
Da geht ja nicht mal WHQL in Ultra, wenn es nicht ruckeln soll :(

http://media.bestofmicro.com/8/X/565377/gallery/04-UHD_w_600.png

Link zum Benchmark-Test (http://www.tomshardware.de/the-division-benchmarks-cpu-skalierung-grafikkarten-grafikoptionen,testberichte-242065.html)

Ich war nach diesem ganzen Scheiß so gaga, dass ich die Nano auf UHD glatt vergessen habe. :D

Loeschzwerg
2016-03-11, 08:52:49
Das Spiel ist ein Hardwarefresser, der auch die 980 Ti genüsslich vernascht hat.
Da geht ja nicht mal WHQL in Ultra, wenn es nicht ruckeln soll :(


:D Man muss den Abkürzungsdschungel einfach mögen.

Danke schon mal für den Test :) (Currently reading)

Hübie
2016-03-11, 08:57:13
Es ist immer wieder erstaunlich wie wenig investigativ und kritisch andere Redakteure offenbar arbeiten, denn nach gefühlten 20 Reviews zu The Division samt Balken oder Graphen las ich nicht ein einziges Mal dass da etwas faul sein könnte. Gute Arbeit, Igor. :up:

akuji13
2016-03-11, 09:00:31
Das Spiel ist ein Hardwarefresser, der auch die 980 Ti genüsslich vernascht hat.
Da geht ja nicht mal WHQL in Ultra, wenn es nicht ruckeln soll :(

Ich finde das muss differenziert betrachtet werden.
Alles am Anschlag ist zuviel ja.

Aber HFTS z. B. ist so ähnlich als wenn ich irgendwo anders 8x AA anwähle.
Extrem viel Verlust von fps für wenig optischen Gewinn.

Das macht bei mir in 3440x1440 den Unterschied zwischen 60 und 48 fps aus.

(del)
2016-03-11, 09:24:56
Den ganzen Klimbim hatte ich ja nicht mal an :D

Klar kommt man stellenweise sogar auch mal über 60 fps, aber immer, wenn es spannend wird, ist dann wieder der Wurm drin.
Und ich hasse nichts mehr, als Ruckler, wenn ich ziele oder deckung suchen muss.
Die hohen FPS hat man dummerweise immer nur beim rumdödeln :D

denn nach gefühlten 20 Reviews zu The Division samt Balken oder Graphen las ich nicht ein einziges Mal dass da etwas faul sein könnte
Ich war jahrelang in der Wirtschaft tätig. Sinnvolles Arbeiten beginnt zunächst erst einmal damit, alle Umstände auf Plausibilität abzuklopfen und keine Fakten als gottgegeben zu betrachten. Da reicht eine Stunde spielen, um ein Gefühl für das Verhalten zu bekommen und alles mitzuloggen. Dann hat man auch einen Richtwert, nimmt einen gescripteten Ablauf wie den Ingame-Benchmark und sucht aus dessen Frameverlauf einen in ungefähr deckungsgleichen Abschnitt, was die Last als solche betrifft. Das ist doch kein Hexenwerk, sondern Logik. Sich sofort hinzusetzen, um dann wie wild und panisch zu testen, ist eine Zeitverschwendung, die sich hintenheraus nicht mal lohnt, weil man dann meist mehrmals anfängt. Hitman ist da ja auch so ein aktuelles Thema ;) Man erstellt doch zunächst ein Konzept, testet alles auf Plausibilität und Reproduzierbarkeit, versucht mögliche Fehlerquellen von vornherein auszuschließen und beginnt erst dann mit dem Arbeiten.

Das eigentliche Problem ist, dass jeder unbedingt der Erste sein will oder muss. Das kann gut gehen, muss es aber nicht. Leider bleibt da auch nie Zeit für das vorgeblich Nebensächliche. Mein Chefredakteur drängelt Gott sei Dank nie, so dass ich da weniger den Druck habe. Siehe AotS und nunmehr auch Hitman. Bevor das Spiel nicht final ist und DX12 nicht sauber läuft, muss man keine Kaffesatzleserei betreiben, die am Ende eh nichts bringt, weil eh wieder alles anders ist, als es gerade noch schien. Das ist nur vergeudeter Strom und Lebenszeit. Leider lassen sich viele Kollegen von den Publishern vor den Marketing-Karren spannen und halbgares Zeug testen. Diesbezüglich habe ich aber selbst wegen AotS Bauchschmerzen, das ich nur getestet habe, weil es nichts anderes gab. Normalerweise müsste man solche Machbarkeitsstudien mangels Realitätsbezuges glatt ignorieren.

BTW: Der CB-Test von Wolfgang ist nicht schlecht, auch wenn ich das mit der eigenen Szene immer noch als wirklich sinnlosen Aufwand betrachte. Ich lese mir die anderen Reviews ja oft erst bis zum Ende durch, wenn ich mit meinem fertig bin, um ggf. nicht auf die gleichen Probleme hereinzufallen bzw. um nicht voreingenommen zu sein. Mit meinem kleinen Workaround kann aber jeder selbst benchmarken und vor allem auch vergleichen, was bei den ganzen eigenen Szenen leider nicht geht. Die Social-Media-Komponente ist nicht zu unterschätzen :P

phoenix887
2016-03-11, 09:51:16
Nachts durch das Schneetreiben rennen ist doch mal der Hammer mit den beleuchteten Schneeflocken (die auch auf der Jacke landen und unter einer Brücke schneit es nicht mehr).
Könnte da stundenlang zusehen.


http://youtu.be/B7WB8t2KV8M

Video vom Kollegen. Läuft doch ganz gut. Würde mir mit Controller ausreichen, wenn ich das Spiel hätte.

Spiele auch Dying Light Max Out in 4K. Wunderbar spielbar für mich mit 40-50fps. Das die Ti nicht für 4K geeignet ist, als Grundsatz festzuhalten, halte ich für suboptimal formuliert. Kommt auch immer drauf an, brauche ich 60fps? mit welchem Eingabegerät spiele ich?
Hatte eine zeitlang auch mit 144hz Gsync gespielt. Vermisse ich nicht, weil 4K einfach den Augen gut tut:)

Nur nochmal meine subjektive Meinung dazu.

(del)
2016-03-11, 10:00:39
UHD läuft mit weniger als 34 FPS (min 20 FPS) in "High", was ja nun wirklich unspielbar ist. Medium bringt spielbare FPS, aber die Grafik sieht schon sowas von Kacke aus.... Fehlende Details, vor allem in der Tiefe. Wozu UHD, wenn die Hälfte der Bildinhalte fehlt?

Probiers aus, Du wirst stellenweise das Kotzen kriegen. Ich bin UHD-Freak, aber hier geht es einfach nicht.
Dein verlinktes Video ist definitiv nur auf "Low". Die 60 FPS gehen sonst einfach nicht.
Es würde Dir übrigens nicht mehr gefallen, wenn Du es mal auf "High" gesehen hättest. :)

Nachts sind alle Katzen grau, da wird sogar eine abgelegte Hafenhure zum lecker Teenager :P

akuji13
2016-03-11, 11:03:15
Den ganzen Klimbim hatte ich ja nicht mal an :D


Dann verstehe ich nicht wie du in WQHD Probleme hast. :confused:

WQHD hat ja nochmal deutlich mehr fps als 3440x1440.

(del)
2016-03-11, 11:33:30
Weil ich bei einem Shooter alles unter 50 FPS zum Kotzen finde. Und ich meine nicht Average, sondern immer dann, wenn man es wirklich braucht. WQHD und Ultra schafft die Karte gerade mal 45 FPS, wenn man es richtig wichtet und nicht nur wie Fraps stupide Mittelwerte errechnet. Ich reagiere auf Ruckler extrem empfindlich, es stört einfach. Ich nutze zwar G-Sync, aber das ist kein Allheilmittel.

TurricanM3
2016-03-11, 11:41:34
Das klingt ja super. Wollte es heute anfangen, auch 1440p. :/

Sprichst du von Ultra und keinen Gameworks-Effekten zusätzlich?

radical83
2016-03-11, 11:44:10
Ich nutze zwar G-Sync, aber das ist kein Allheilmittel.
Dann versuch es doch mal mit lieber mit freesync! ;D

Spaß bei Seite, es scheint hier wieder auf die Grundsatzdiskussion hinauszulaufen: Hohe Auflösung mit weniger Details vs. niedriger Auflösung mit vollen Details. Letztendlich bleibt es eine Geschmacksfrage bei der ihr wahrscheinlich nicht auf einen Nenner kommt.

(del)
2016-03-11, 11:55:26
1440p gehen schon, wenn man nicht so empfindlich ist wie ich :P

Ich habe mir aktuell gerade Asus' 27" G-Sync und Freesync hingestellt (sind ja ansonsten faktisch identisch) und vergleiche an zwei Systemen die FuryX mit der GTX 980 Ti. AMD hat zwar ab und zu mit sehr kurzen Hängern zu kämpfen, liefert aber trotz weniger FPS bis auf die sporadischen Hoppler das ruhigere Bild. Hätte ich jetzt mal so auch nicht vermutet.

dildo4u
2016-03-11, 11:57:42
Nvidia hat ein Tuning Guide gibt Sachen die man kaum bemerkt die man runter regeln kann.

If you want to improve performance, many settings can be dialed back a notch with only a small hit to image quality. In order, we'd turn down Particle Detail, Depth of Field, Volumetric Fog, Contact Shadows, Object Detail, Streaming Distance, and Spot Shadow Resolution. Beyond those settings, determine what features are more important to you and decrease as necessary until you're happy with your performance.

http://www.geforce.com/whats-new/guides/tom-clancys-the-division-graphics-and-performance-guide

Die Unterschiede zwischen High/Low sind teilweise minimal.

http://images.nvidia.com/geforce-com/international/comparisons/tom-clancys-the-division/tom-clancys-the-division-contact-shadows-interactive-comparison-002-all-high-vs-all-low.html

(del)
2016-03-11, 12:01:18
Bis auf die Schatten kann ich eigentlich auf nichts verzichten. Damit hatte ich auch schon privat rumgespielt. Den Guide hatte ja Ubisoft selbst schon verteilt :)

akuji13
2016-03-11, 12:48:32
AMD hat zwar ab und zu mit sehr kurzen Hängern zu kämpfen, liefert aber trotz weniger FPS bis auf die sporadischen Hoppler das ruhigere Bild. Hätte ich jetzt mal so auch nicht vermutet.

Hoppler würden mich persönlich mehr stören.

Ich kann (zum Glück) nichts bemerken bei G-Sync was mich stören würde, lüppt absolut geschmeidig. :)

Hat auch Vorteile mal nicht so empfindlich zu sein. :D

phoenix887
2016-03-12, 04:45:28
UHD läuft mit weniger als 34 FPS (min 20 FPS) in "High", was ja nun wirklich unspielbar ist. Medium bringt spielbare FPS, aber die Grafik sieht schon sowas von Kacke aus.... Fehlende Details, vor allem in der Tiefe. Wozu UHD, wenn die Hälfte der Bildinhalte fehlt?

Probiers aus, Du wirst stellenweise das Kotzen kriegen. Ich bin UHD-Freak, aber hier geht es einfach nicht.
Dein verlinktes Video ist definitiv nur auf "Low". Die 60 FPS gehen sonst einfach nicht.
Es würde Dir übrigens nicht mehr gefallen, wenn Du es mal auf "High" gesehen hättest. :)

Nachts sind alle Katzen grau, da wird sogar eine abgelegte Hafenhure zum lecker Teenager :P

Na gut, habe mir jetzt einen key gekauft, auch wenn mich das Spiel bis jetzt nicht interessiert hat :freak: