PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 980 und GTX 970: (P)Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16 17 18 19 20

yamo
2014-10-26, 18:06:42
Habe nur Crysis 2 getestet, weil das überhaupt kein ordentliches AA hat. Bei mir war es stellenweise so ähnlich. Ich renne und plötzlich bremst er massiv ab (Bildrate bricht einfach so um 30FPS ein) usw. Ungewöhnliche Schattenprobleme etc. hatte ich erst einmal nicht beobachten können.

Den neusten Treiber habe ich noch gar nicht geladen. Ich warte da meist lieber. Zumal ich ein begrenztes Datenvolumen habe. Einen Neustart werde ich noch einmal durchführen. Wenn es nicht besser ist, bleibe ich bei Faktor 1,5.

Nur mit Maldho-Patch spielen. Unter Win 8 nix höherers als FXAA einstellen (Absturz).

aufkrawall
2014-10-26, 18:29:16
ASIC ist 78.5%, eigentlich ganz ok. Meine zweite Karte hat 67% und packt die 1400 gerade mal in BF4 (luftgekühlt). 1450 hatte ich Abstürze.
Meine 980 hatte afair ~69% und lief auch nur mit 1420 bei Frostbite 3 längerzeitig stabil. Aber die Spannung war definitiv unter 1,2V.

Hoffe mal, Montag wird meine MSI verschickt...

TurricanM3
2014-10-26, 18:59:57
Leider hast Du keine HW-Sig, aber unter Luft ist das schon irre. Das bringt nix.


Ist Wakü.

Was sagen die Spawas bei der Belastung ?


Sind halt wassergekühlt, wie warm hab ich nicht geprüft. Durch die Backplate kann man das leider auch kaum noch.

yamo
2014-10-26, 19:21:24
Thanx Turrican, für micht das Bios Gefummel zunächst keinen Sinn. Ich gehe mal zu den Geiern und schaue zu:redface:.
Aber da muss doch was gehen....:D

Jupiter
2014-10-26, 20:00:28
Ich habe NVidias DSR weiter probiert und ich muss leider für mich feststellen, dass die Performance enttäuschend ist. Das läuft selbst mit Faktor 1,5 auf meiner GTX 970 bildratentechnisch nur genau so wie Crysis 3 in den höchsten Einstellungen mit 4SMAA und 1080p. Also je nach Abschnitt zwischen 45 und 60FPS. Eigentlich fällt Crysis 2 mit DSR sogar stärker. Dabei sieht der Nachfolger weitaus besser aus und bis auf dieses Specular Aliasing wird das Bild mit 4xSMAA um einiges besser geglättet. Denn ohne PostMSAA flimmert selbst 23xx*13xx trotz des Gauss-Filters sehr stark. Das PostMSAA muss an. Auch 1600p reichen lange nicht.

Wenn native Auflösung auch so viel Leistung benötigt, ist für mich bei modernen Actionspielen alles über 1080p eine Verschwendung. Es sei denn es werden zwei Grafikkarten verwendet. Wer will da wirklich solche Unmengen an Performance und Grafik für UHD opfern?! Da habe ich lieber eine ordentliche Grafik und Bildrate. SMAA leistet für die Bildqualität sehr gute Arbeit. Mich nervt nur das sich hier kein anständiges AA aktivieren lässt. Im Gegensatz zum Erstling limitiert das Spiel heute bei der GPU.

EDIT:
Letztendlich sage ich, dass die aktuelle GPU-Leistung für flüssiges UHD (60FPS) in aktuellen Spielen jedenfalls noch lange nicht ausreicht. Allein bis grafisch anspruchsvolle Spiele aus den Jahre 2014 auf einer Grafikkarte flüssig gespielt werden können, dauert es noch mindestens vier Jahre. Doch in vier Jahren werden die Grafikansprüche wieder enorm gestiegen sein usw.


Nur mit Maldho-Patch spielen. Unter Win 8 nix höherers als FXAA einstellen (Absturz).

Vielen Dank für den Tipp. Die ModDatei ließ sich bei mir nie entpacken. Das ist allerdings ein anderes Thema.

ZapSchlitzer
2014-10-26, 20:10:49
Meine 980 hatte afair ~69% und lief auch nur mit 1420 bei Frostbite 3 längerzeitig stabil. Aber die Spannung war definitiv unter 1,2V.

Hoffe mal, Montag wird meine MSI verschickt...

Ist der ASIC-Wert überhaupt ein zuverlässiger Anhaltspunkt?

Meine Stock GTX 980 hat laut GPU-Z 68%, läuft dabei mit 1450MHz (weiter habe ich noch nicht getestet) unter BF4 stabil bei maxinmal 1,93V.

gnomi
2014-10-26, 20:51:44
Meine 980 läuft nur bis 1400 absolut stabil. Speicher geht allerdings bis 4000 ohne Fehler.
Den ASIC Wert weiß ich jetzt gerade nicht....

@Crysis 2
Das habe ich mit Maldo's Texturpaket bereits ausprobieren können. (mit Win 8 wie yamo schon sagt nur FXAA einstellen)
1440P nativ bei 60 fps sind drin. Per DSR ginge auch noch mehr.
VRAM Verbrauch ist höher als in Teil 3.
Die Grafik reicht tatsächlich nicht an 3 heran.
Trotzdem sieht es ebenfalls noch sehr schick und besser als vieles andere aus dem Genre aus.
Die Inszenierung ist aber auch hier nicht von schlechten Eltern und das Spiel ist um einiges länger, wenngleich monotoner.

aufkrawall
2014-10-26, 21:03:47
Speicher geht allerdings bis 4000 ohne Fehler.

Wie testest du das?

Jupiter
2014-10-26, 21:31:08
Das habe ich mit Maldo's Texturpaket bereits ausprobieren können. (mit Win 8 wie yamo schon sagt nur FXAA einstellen)
1440P nativ bei 60 fps sind drin. Per DSR ginge auch noch mehr.
VRAM Verbrauch ist höher als in Teil 3.
Die Grafik reicht tatsächlich nicht an 3 heran.
Trotzdem sieht es ebenfalls noch sehr schick und besser als vieles andere aus dem Genre aus.
Die Inszenierung ist aber auch hier nicht von schlechten Eltern und das Spiel ist um einiges länger, wenngleich monotoner.

Offenbar reicht die Leistung aktueller Grafikkarten doch für 1440p aus. Ich hatte da per DSR andere Erfahrungen gemacht. Was mich enttäuscht hat, da das Spiel schon älter ist und der Nachfolger dagegen so gut läuft und unter 1080p mit 4xSMAA eine super Bildqualität abliefert (besser als Crysis 2 mit 2550x1440 mit PostMSAA) . Vielleicht sollte ich die Grafikkarte übertakten. Diese taktet jedoch bereits ab Werk mit zirka 1410MHz.

Kantenglättung macht einfach so viel aus. Die Entwickler sollen einfach von 1xSMAA bis 8xSMAA alles einbauen und ich wäre bildqualitativ die nächsten 5 Jahre unter 1080p sehr gut ausgestattet. Die nächsten Grafikkarten (spätestens alle zwei Jahre) würden alle zur Verbesserung der Grafik dienen. Keine ordentlich implementierte Kantenglättung macht alles einfach nur um ein vielfaches komplizierter. Wenn es dieses Specular Aliasing nicht gäbe, wär ich mit 4xSMAA schon sehr zufrieden.

Gespannt warte ich auf MFAA. Das könnte etwas werden...

von Richthofen
2014-10-26, 23:26:40
Ähm....lese ich jetzt hier unter den letzten Beiträgen heraus, dass DS-Auflösungen per DSR schneller als per Custom-Auflösung im Treiber eingestellte laufen ?

TurricanM3
2014-10-26, 23:35:33
Am Rande für alle Betroffenen:
Problem mit dem nicht mehr Runtertakten liegt bei mir an ShadowPlay. Wenn ich es einmal aus und direkt wieder einschalte, taktet die Karte wieder normal herunter.

aths
2014-10-27, 01:08:41
Meine 980 läuft nur bis 1400 absolut stabil. Speicher geht allerdings bis 4000 ohne Fehler.Hast du bei der 980 das Bedürfnis, zu übertakten?

Ich kriege bei meiner Karte das Grinsen, weil hier alles auf Werkstakt läuft und trotzdem rennt.

gnomi
2014-10-27, 08:10:04
Wie testest du das?

Ich spiele einfach drauf los. :freak:

gnomi
2014-10-27, 08:16:39
Hast du bei der 980 das Bedürfnis, zu übertakten?

Ich kriege bei meiner Karte das Grinsen, weil hier alles auf Werkstakt läuft und trotzdem rennt.

Ganz ehrlich- ja, auf jeden Fall.
Ich bin ja auch auf 1440P nativ gewechselt.
Bei AC 4 Black Flag mit allen Details und PhysX und TXAA kann ich die Leistung schon gebrauchen.
Crysis 3, Ryse und Metro Redux ebenso.
Und bei den jetzt anstehenden Spielen wird es nicht anders aussehen.
Die Karte wird wegen Next Gen Konsolen deutlich mehr gefordert als die 680 zum Release.
Ich nehme auch an, dass ich sie nicht wieder 2 1/2 Jahre behalten werden, sondern nur 1 1/2 bis 2.
Aktuell braucht man viel Performance. Ich habe sogar ein wenig Bammel vor AC Unity und The Witcher 3. :wink:

DrMabuse1963
2014-10-27, 08:28:28
Falls jemand Interesse hat seine " Alte " Graka aus dem Sys zu Entfernen , ich mache es immer so , meine GTX 670 hat sich da auch noch rumgetrieben . MfG
http://www.experto.de/b2c/hobby-freizeit/so-entfernen-sie-alte-treiberreste.html

Hacki_P3D
2014-10-27, 13:33:03
Oder mit DDU
http://www.guru3d.com/files-details/display-driver-uninstaller-download.html

MechWOLLIer
2014-10-27, 14:34:29
Also wenn ich die Galax wirklich hart quäle, komme ich auf max. 2200RPM - und die sind schon deutlich hörbar. Normalerweise sattelt sie sich bei 1850-2000RPM ein, wie CB auf 2600RPM kommt, weiß ich nicht. Ich nutze auch das Fractal R4 mit 7V-Gehäusebelüftung,
Auch wenn der Post schon älter ist, hier mal die Lösung:
Galax hat ein BIOS-Update rausgebracht, mit dem ab sofort sämtliche GTX 970 Karten ausgeliefert werden. Und dieses lässt den Lüfter höher drehen, da es vorher angeblich manchmal Temperaturprobleme gab.

Mit dem alten BIOS haben wir etwa 2.000 Umdrehungen erzielt, mit dem neuen eben 2.600.

aths
2014-10-27, 14:36:46
Ganz ehrlich- ja, auf jeden Fall.
Ich bin ja auch auf 1440P nativ gewechselt.
Bei AC 4 Black Flag mit allen Details und PhysX und TXAA kann ich die Leistung schon gebrauchen.
Crysis 3, Ryse und Metro Redux ebenso.
Und bei den jetzt anstehenden Spielen wird es nicht anders aussehen.
Die Karte wird wegen Next Gen Konsolen deutlich mehr gefordert als die 680 zum Release.
Ich nehme auch an, dass ich sie nicht wieder 2 1/2 Jahre behalten werden, sondern nur 1 1/2 bis 2.
Aktuell braucht man viel Performance. Ich habe sogar ein wenig Bammel vor AC Unity und The Witcher 3. :wink:
Das sind 60% mehr Pixel als bei 1920x1200.

Okay, das ist noch mal eine andere Hausnummer.

MechWOLLIer
2014-10-27, 14:39:45
Die Strix Werte passen überhaupt nicht, im gedämmten R4 soll die Karte auf einmal viel besser sein als die anderen Luftgekühlten Karten was Lautstärke und Temperatur betrifft?
Wenn ich mir das Video so anhöre, dann ist die Zotac AMP Extreme die leiseste Karte unter Last, die Strix dreht deutlich auf
Es mag komisch sein, ist aber so. Asus kennt das Problem auch, doch lässt sich das eben nicht so ohne weiteres lösen. Das Problem tritt primär dann auf, wenn der Kühler für die konfigurierte Lüftersteuerung knapp dimensioniert ist (DCII ist nicht DCII. Der Kühler auf der GTX 980 ist z.B. deutlich größer) und dann Limits bei der Lüftersteuerung "sprengt".

Bei dem Lautstärke-Video bitte nicht die Temperatur im Overlay ernst nehmen. Das werden wir wohl in Zukunft ausschalten, um nicht für Verwirrung zu sorgen.

-/\-CruNcher-/\-
2014-10-27, 15:50:51
Kann man eigentlich nachvolziehen das die Lüftersteuerung nicht nur auf die Temperatur reagiert sondern auch auf das PT selbst (Load verhalten) ?

immerhin scheint die Kühlung der Spawas mittlerweile wichtiger als der Chip selbst wenn man mit einem Board Design Kosten sparen will und am Limit rennt ;)


Frag mich immernoch was bei Galax (Galaxytech) plötzlich die Engineers austicken lässt, das sie gegen ihr eigenes ziel plötzlich skeptisch werden und solche Aussagen bei den Reviewern plötzlich auftauchen


Bitte beachten Sie, dass einige Retail-Karten mit einem älteren BIOS ausgeliefert wurden, bei dem die Geräuschentwicklung wesentlich niedriger ausfällt, die Karte unter Volllast aber zu heiß wird (Spannungswandler, PCB). Bitte wenden Sie sich bei Bedarf an den jeweiligen Support.


Dieses Ziel war offensichtlich Anfangs noch so definiert bei Realease

http://www.ld-host.de/uploads/images/d9b66c5b9c2ff676daa84fe3d95157ca.png

Ich hallte es dennoch selbst im Anno test für ein wenig verrückt 80 fps anzupeilen und nicht zu limitieren, was zur turbine im Anno DX11 test bei vielen Reviewern führt von 2600 rpm


Frag mich ob man hier eine kalkulierbare Differenz erkennt sprich

60 FPS = 1700 rpm
80 FPS = 2600 rpm

muss mir das load verhalten nochmal genauer anschauen


Hatt man mit einem Load verhalten wie Anno es zeigt bei DX11 nicht gerechnet am Limit ?

Hatt man sich in Internen Tests nur auf 3Dmark und Furmark verlassen ?

Wieso ist das bei Nvidias Design Abnahme nicht erkannt worden ?


Vor allem machen diese Aussagen alle keinen großen sinn auf der einen Seite sagt THG (Backplate war dran wir konnten nicht ordentlich testen) und releasen aber 85°C als ES gemesenen wert und wahrscheinlich noch mit neuem Bios

schreiben aber

- knappe Kühlreserven für weitere Übertaktung
- Spannungswandler werden extrem warm


Hallo bei MSI sind die bei 100°C direkt gemesen ?

und da gibt es als Kontra

Kontra:
- relativ hoch (über 16 cm mit eingesteckten PCIe-Stromsteckern)


Wie heis sind die Spawas dann wohl bei der Galax Exoc wirklich geworden am Limit und wurden die Limit tests mit dem Maximum 125% PT durchgeführt und sind zumindestens die user sicher die nur das normale PT von 100-103% fahren ?



Also was hier abläuft lässt mich an vielen Reviewern noch mehr zweifeln als schon vorher der Fall war was ihre Objektivität angeht selbst bei THG

aufkrawall
2014-10-27, 17:07:03
Für die Festlegung der Lüftergeschwindigkeit wird auch die VRM-Temperatur miteinberechnet (die sieht man halt nicht).
Eventuell können diese bei Spielen wie Anno heißer werden als bei Kombustor, weil es mehr Lastspitzen gibt, die Powertarget nicht so rigoros abfängt wie Powertune.

-/\-CruNcher-/\-
2014-10-27, 17:30:59
Das ist mir Klar aber denkst du nicht das des auch Nvidia klar ist bei der Design Abnahme ?

Wenn das bei den Simulationen bei Nvidia durchgerutscht ist aber hallo dann müssten sie jetzt im Treiber versuchen die OC karten wieder unter kontrolle zu halten und zu entlasten Nvidia kann den Zukünftigen load (vor allem der ihres eigenen Ökosystems) schon sehr gut berrechnen auch den DX12 load werden sie wohl teilweise mit einbezogen haben für die Zukunft.

Das ein Board Design jetzt schon gefixed werden muss ist etwas krass, lässt mich auch an Galaxytechs kompetenz selbst zweifeln.

Und die Informationspolitik der Reviewer die hier so was von geschwallen um den heisen brei rumreden ist auch eine sache für sich.

aufkrawall
2014-10-27, 17:41:19
Es geht doch nur um ein Galax Custom Design, oder nicht?
Der IHV kann ja nicht alles prüfen.

-/\-CruNcher-/\-
2014-10-27, 17:55:44
Meine Fragestellung ist sehr simpel

F: Bin ich mit dem OC stock werten @ PT 100-103% @ 1266-1300 MHz sicher was die VRM Kühlung angeht bei 99% load @ 1700 rpm und 75°C GPU ?

Beantworten tut sie mir niemand wirklich in den Reviews ausser der Panikmache und dem bei (Bedarf) an Galaxytech wenden.

Bedarf find ich sehr schön formuliert für mich heist das faktisch übersetzt sowas wie bei Ausfall an Galaxytech wenden.

Thunder99
2014-10-27, 18:06:07
Ganz ehrlich, ich scheiß auf das neue BIOS und lasse es darauf ankommen!

Ganze Panik mache ignoriere ich

-/\-CruNcher-/\-
2014-10-27, 18:12:03
Thunder99 die Power Daten beim Standard PT lassen für mich rein kalkulatorisch nach den THG daten keine andere Schlussfolgerung zu das wir safe sind, so lange jedenfalls wie wir nicht am PT regler rumdrehen.

Immerhin sind die Verbrauchsdaten (Effizienz/Watt) besser als viele andere Karten aber mich wundert ob das gerade den größeren Load auf die Spawas aussübt also ob sich das Anti Proportional oder Proportional im Design verhält.

Aber ich will es bestätigt bekommen und nicht so eine larifarie gerede und das von leuten die sich als Elektro Nerds bezeichnen ist schon irgendwo traurig.


Für mich sind diese tests ausschlaggebend das sie die Richtige Balance gewählt haben :)

http://media.bestofmicro.com/B/0/459180/original/12-Efficiency.png

http://media.bestofmicro.com/B/1/459181/original/10-Power-Consumption-GTX-970.png

http://media.bestofmicro.com/G/X/459393/original/04a-Thief-HD.png

http://media.bestofmicro.com/H/6/459402/original/08b-Hitman-Absolution-UHD.png

http://media.bestofmicro.com/G/W/459392/original/03b-Metro-Last-Light-UHD.png

Thunder99
2014-10-27, 18:24:10
Verständlich. Vorerst betreibe ich auch kein OC :)

Knuddelbearli
2014-10-27, 18:47:30
ne frage was interessiert euch bei den test? einfahc nur die fps oder auch die Technik der Karte zB

wäre es nicht zB nett mal nen test zu haben wo alle Karten mit selben Powerlimit und Basistakt haben bei offenem temperaturlimit und dann zu gucken welche wie hoch taktet und wie laut der lüfter dabei ist?

aktuell ist es halt so das die Karten mit dem höchsten PT auch mit die lautesten sind müssen ja auch am meisten wärme abführen

-/\-CruNcher-/\-
2014-10-27, 19:03:03
Im Prinzip gibt es nur 1 Messbares Kriterium bei einem Custom Design die Balance gegen Nvidias Referenz :)

DrMabuse1963
2014-10-27, 19:07:27
Gibts denn nu das neue Bios für die Galax 970 EXOC ? Bei galax hab ich keins gefunden...

-/\-CruNcher-/\-
2014-10-27, 19:09:54
Im Prinzip kannst du dir es auch selber bauen du siehst ja wie es sich verhält und Raff hat es ja bestätigt.

Im Full Load musst du sehen das du die GPU im offenen aufbau auf ca 60°C hältst und nicht die 75°C wie jetzt was faktisch bedeutet 2600 rpm versus 1700 rpm

DrMabuse1963
2014-10-27, 19:14:04
Mit Biosmodding hab ich mich zu Zeiten meiner HD29001GB beschäftigt , das ging so gut das ich mir dann doch lieber eins hab basteln lassen : (

Thunder99
2014-10-27, 19:18:45
Musst eins wenn du willst beim Support anfordern, aber wieso? Ist dir die Karte mal abgeschmiert? Eher nicht, daher freue dich über eine leise stabile Karte :)

DrMabuse1963
2014-10-27, 20:19:46
Support hatte ich letzte Wo angeschrieben , bisher keine Antwort . Da ich mit Kopfhörer zocke stört es mich nicht weiter wenn se beim zocken lauter wird . Aber beim OC auf das ich nicht verzichten möchte wäre mir nen Bios schon lieber als manuell im Nvspector den Fan höher zu stellen wenn ich dann ins Game gehe. MfG

Adam D.
2014-10-27, 20:56:49
Auch wenn der Post schon älter ist, hier mal die Lösung:
Galax hat ein BIOS-Update rausgebracht, mit dem ab sofort sämtliche GTX 970 Karten ausgeliefert werden. Und dieses lässt den Lüfter höher drehen, da es vorher angeblich manchmal Temperaturprobleme gab.

Mit dem alten BIOS haben wir etwa 2.000 Umdrehungen erzielt, mit dem neuen eben 2.600.
Danke für die Aufklärung. Ich werde dem Support mal schreiben, lauter will Ich eigentlich nicht haben...

hq-hq
2014-10-27, 23:47:42
Bei Ryse scheint MFAA zusammen mit Temporal-AA nicht richtig zu funktionieren :freak:
(nur so hab ichs grade heute gezockt)

wenn neue Szenen starten gibt es eine Art von weissen Strahl von links nach
rechts mit schwarzen Klötzen in der Mitte und bei der Leiche am Boden ...
also in Bewegung fällt das kaum auf aber wenn man stehen bleibt sieht das
sehr pixelig aus :ulol::ueye:
http://abload.de/img/mfaa_ryse60odu.png

Eggcake
2014-10-28, 08:22:59
Also ich muss nachdem ich etwas Zeit hatte um zu zocken schon sagen, dass die MSI echt verdammt gut ist. Habe nun das PT erhöht und auf ~1500MHz übertaktet und in Ryse geht die Temp kaum über 70° bei 1400RPM. Und noch dazu mit langsam drehenden Gehäuselüftern...und das beste ist, sobald ich mit dem zocken fertig bin ist nach wenigen Sekunde wieder absolute Stille (wobei die 1400RPM schon extrem leise sind).

Wenn ich dabei denke was für ein nervtötendes Lärmmonster ich vorhin mit der EVGA GTX 770 SC ACX hatte...1200RPM im idle mit "Silent BIOS" mit extrem hochfrequentem Lüftergeräusch...

Hübie
2014-10-28, 09:23:32
Dachte es wäre allgemein bekannt das EVGA unter Luft nichts taugt. ;D

aths
2014-10-28, 09:34:57
Bei Ryse scheint MFAA zusammen mit Temporal-AA nicht richtig zu funktionieren :freak:
(nur so hab ichs grade heute gezockt)

wenn neue Szenen starten gibt es eine Art von weissen Strahl von links nach
rechts mit schwarzen Klötzen in der Mitte und bei der Leiche am Boden ...
also in Bewegung fällt das kaum auf aber wenn man stehen bleibt sieht das
sehr pixelig aus :ulol::ueye:
http://abload.de/img/mfaa_ryse60odu.png
Das ist mir in Ryse noch nicht aufgefallen, zocke dort allerdings jetzt auch wieder ohne MFAA, nur mit eingebautem Temporal-AA.

Solche flächigen Rasterartefakte hat man allerdings auch in Max Payne 3 oder Star Citizen bei aktiviertem MFAA. In Shadow of Mordor konnte ich flächige Raster aber noch nicht sehen.

Godmode
2014-10-28, 09:40:01
Das ist mir in Ryse noch nicht aufgefallen, zocke dort allerdings jetzt auch wieder ohne MFAA, nur mit eingebautem Temporal-AA.

Solche flächigen Rasterartefakte hat man allerdings auch in Max Payne 3 oder Star Citizen bei aktiviertem MFAA. In Shadow of Mordor konnte ich flächige Raster aber noch nicht sehen.

Ich habe dieses Artefakt gestern kurz mal gesehen, aber ich spiele auch ohne MFAA. Bei Ryse reicht mir das Temporal-AA vollkommen, da brauche ich nicht mal DSR.

aths
2014-10-28, 11:40:23
Gerade Lords of the Fallen vorbestellt. Ein gutes Gefühl, zu wissen, mit Max-Einstellungen problemlos zocken zu können. :D

sulak
2014-10-28, 12:01:15
Nach langem Testen war mir die Gigabyte GTX970 G1 doch zu laut/nervig. Bin auf eine MSI GTX980 Gaming umgestiegen, und das sind Welten. In D3 bei 1329MHz bleibt die Karte teils unter 67° und schaltet die Lüfter ab von Civ Beyond Earth brauch man erst gar nicht reden. Selbst mit 1000RPM ist die Karte leiser als 2 meiner Gehäuse Lüfter (minimale Einstellung am NZXT Phantom 410 schallgedämmt).
Der Kühler ist echt Bombe, definitiv meine leiseste Grafikkarte bisher (passiv gekühlte Voodoos zählen nicht, eine Asus DC2 kommt ggf. ran).

dargo
2014-10-28, 12:47:20
Nach langem Testen war mir die Gigabyte GTX970 G1 doch zu laut/nervig. Bin auf eine MSI GTX980 Gaming umgestiegen, und das sind Welten. In D3 bei 1329MHz bleibt die Karte teils unter 67° und schaltet die Lüfter ab von Civ Beyond Earth brauch man erst gar nicht reden. Selbst mit 1000RPM ist die Karte leiser als 2 meiner Gehäuse Lüfter (minimale Einstellung am NZXT Phantom 410 schallgedämmt).
Der Kühler ist echt Bombe, definitiv meine leiseste Grafikkarte bisher (passiv gekühlte Voodoos zählen nicht, eine Asus DC2 kommt ggf. ran).
Das mit dem Kühler der MSI (bei mir allerdings GTX970) kann ich definitiv bestätigen. ;)

gnomi
2014-10-28, 12:49:01
Gerade Lords of the Fallen vorbestellt. Ein gutes Gefühl, zu wissen, mit Max-Einstellungen problemlos zocken zu können. :D

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Lords_Of_The_Fallen-test-LordsOfTheFallen_1920.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Lords_Of_The_Fallen-test-LordsOfTheFallen_2560.jpg

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Lords_Of_The_Fallen-test-LordsOfTheFallen_proz.jpg

Läuft wohl völlig unkritisch. =)

-/\-CruNcher-/\-
2014-10-28, 13:04:23
Das mit dem Kühler der MSI (bei mir allerdings GTX970) kann ich definitiv bestätigen. ;)

Da hat Galax Potential verschenkt, vor allem das Palit das besser immitieren konnte ist irgendwo traurig.

yamo
2014-10-28, 13:08:58
Leute, unter Wasser sind selbst die einfachen Palits ein Traum.
Obwohl unter Luft ein Lüfter randalierte (bei sehr gutem OC) habe ich die Zwillinge dann unter Wasser gesetzt und sah von einer RMA ab. Herrlich, wie die flitzen.
@WaKü: Zischen Eure Karten auch ab und an? Ist def. kein Fiepen.

Shaft
2014-10-28, 14:09:02
Gibt es Vergleichstest von EVGA ACX 2.0 mit neuem und alten Bios?

Ich finde absolut nichts, weder im Internet noch bei Youtube. :(

Eggcake
2014-10-28, 14:13:11
Gibt es Vergleichstest von EVGA ACX 2.0 mit neuem und alten Bios?

Ich finde absolut nichts, weder im Internet noch bei Youtube. :(

Wenn du hier runterscrollst findest du ein kurzes Update, allerdings nichts wirklich ausführliches:
http://www.anandtech.com/show/8568/the-geforce-gtx-970-review-feat-evga/15

Shaft
2014-10-28, 14:30:56
Wenn du hier runterscrollst findest du ein kurzes Update, allerdings nichts wirklich ausführliches:
http://www.anandtech.com/show/8568/the-geforce-gtx-970-review-feat-evga/15


Danke,

war zwar auf Anandtech, den Absatz habe ich übersehen.

-/\-CruNcher-/\-
2014-10-28, 14:59:25
Leute, unter Wasser sind selbst die einfachen Palits ein Traum.
Obwohl unter Luft ein Lüfter randalierte (bei sehr gutem OC) habe ich die Zwillinge dann unter Wasser gesetzt und sah von einer RMA ab. Herrlich, wie die flitzen.
@WaKü: Zischen Eure Karten auch ab und an? Ist def. kein Fiepen.


Die billig Palits haben sehr böses geräusch feedback was komponentenverarbeitung angeht, so sparen sie halt.

Das konntest du aber schon hier mehrmals hören und auch sehen wie billig die Verarbeitung ist und die Komponenten sein müssen.

Aber glaub mal nicht das die Reviewer jemals so tief Reviewen werden ;)

Thunder99
2014-10-28, 17:21:07
Galax hat etwas potential verschenkt aber kaum. Ich höre die Karte kaum aus dem Gehäuse raus bei Volllast! (PT Peaks bei 118%)

Meine subjektive Einschätzung ist daher, dass die Galax knapp hinter der MSI liegt was die Lautstärke anbelangt

Dawn on Titan
2014-10-28, 18:23:14
Meine EVGA 970 FTW ist da. Sehr leise, Boost bei 1379mhz ohne jedes OC, leichtes Fiepen bei 300+FPS

fondness
2014-10-28, 19:05:07
NVIDIA GeForce GTX 980 SLI 4K Video Card Review (http://www.hardocp.com/article/2014/10/27/nvidia_geforce_gtx_980_sli_4k_video_card_review/1#.VE_axxad744)

In most of the games tested GeForce GTX 980 SLI matched the same gameplay experience as AMD Radeon R9 290X CrossFire. This was surprising considering single-GPU GeForce GTX 980 is able to outperform single-GPU AMD Radeon R9 290X. We thought that naturally, putting two video cards together in SLI would equally excel past AMD Radeon R9 290X CrossFire. This wasn't the case. We got an unexpected result.

Instead, GeForce GTX 980 SLI was on par, equal with AMD Radeon R9 290X CrossFire in performance, most of the time. There were some occasions that AMD Radeon R9 290X CrossFire was even better than GeForce GTX 980 SLI, for example in Watch Dogs. We didn't expect that, considering that game had the heavy hand of NVIDIA Game Works applied to it. Yet, the competition seems to be scaling much better with CrossFire on that game. It seems SLI isn't doing well there.

We also saw problems in Alien: Isolation with SLI. Performance was more erratic, inconsistent compared to CrossFire. Performance even seemed to drop out when interacting with the computer terminals in the game under SLI. CrossFire had no problems with that.

These two games are the "newest" games in our gaming suite, and so far, CrossFire seems to be doing better compared to SLI. That's not enough for a trend, but it is interesting to note. We will have to see how Far Cry 4 does here next month.

We experienced something with SLI we aren't use to at 4K gaming. We experienced some inconsistent frames, some low efficiency and poor SLI scaling. We were used to seeing this on AMD GPUs until AMD fixed their issues. AMD implemented a technology called Frame Pacing, and ultimately went the hardware route with XDMA on the AMD Radeon R9 290/X.

At the end of the day, what we find is that GeForce GTX 980 SLI performance is left wanting at 4K, not because Maxwell isn't fast, but because the current implementation of SLI is more inconsistent and less efficient compared to AMD's XDMA technology on the AMD Radeon R9 290X. This is a case of aging SLI actually hindering very capable GPUs. SLI needs an upgrade, it needs to evolve.

We do not think the true potential of the GeForce GTX 980 GPUs are being exploited with current 4K SLI gaming. It is being held back from its full potential. If GTX 980 could be fully and efficiently tapped, two GTX 980 GPUs have the potential to offer a better gameplay experience.

AMD hit NVIDIA hard with this new XDMA technology. Everyone was expecting NVIDIA would strike back with Maxwell by offering its own evolved SLI technology. However, it did not for this generation. That may end up biting NVIDIA in the butt as far as 4K gaming goes in the future.

hq-hq
2014-10-28, 20:37:44
Meine EVGA 970 FTW ist da. Sehr leise, Boost bei 1379mhz ohne jedes OC, leichtes Fiepen bei 300+FPS

dann registrier das ding mal, bekommst 2 Jahre gratis Garantie dazu :freak:

Blediator16
2014-10-28, 21:08:13
NVIDIA GeForce GTX 980 SLI 4K Video Card Review (http://www.hardocp.com/article/2014/10/27/nvidia_geforce_gtx_980_sli_4k_video_card_review/1#.VE_axxad744)

Da fragt man sich natürlich, ob gleich das Argument "AMD hatte Zeit ihre Treiber zu optimieren" hier auch genannt wird oder "abwarten Maxwell ist brandneu und Treiber noch nicht Horny genug" :freak: Und das nach all den Schmutzkampagnen von Nvidia vor einem Jahr.

Godmode
2014-10-28, 21:18:52
Habe meine 980 gerade auf Wakü umgebaut. Was haben den die Wakü User hier so für Temperaturen? In Ryse bei 105% Power, 1452 Mhz und 1,206v habe ich 46°C GPU Temperatur, was ich sehr in Ordnung finde. Mit dem original Kühler ging die Temperatur an der selben stelle auf über 80°C hoch.

edit: bei 120 FPS fiept meine 980 übrigens wie ein kleines Ferkel, aber damit habe ich gerechnet. Ist eine Zotac im Ref-Design.

derguru
2014-10-28, 21:31:20
Da fragt man sich natürlich, ob gleich das Argument "AMD hatte Zeit ihre Treiber zu optimieren" hier auch genannt wird oder "abwarten Maxwell ist brandneu und Treiber noch nicht Horny genug" :freak: Und das nach all den Schmutzkampagnen von Nvidia vor einem Jahr.
und trotzdem sind 300W weniger gegenüber amd sehr heftig.:eek:

http://abload.de/img/132u6j.png

Godmode
2014-10-28, 21:52:22
und trotzdem sind 300W weniger gegenüber amd sehr heftig.:eek:

http://abload.de/img/132u6j.png

300W ist schon wieder eine weitere GPU. Auch wenn ich immer sage das mir Watt egal sind, ist es schon ein Unterschied ob ich 100 FPS mit 200W oder mit 300W erreiche.

derguru
2014-10-28, 21:56:11
eine weitere gpu? das sind fast 2 weitere^^

Godmode
2014-10-28, 21:58:44
eine weitere gpu? das sind fast 2 weitere^^

Ja eine aufgerotzte Highend ala GK110, Tahiti, oder zwei Mainstream 980er ^^

Dural
2014-10-28, 22:01:16
der ganze test ist etwas komisch. sieht für mich so aus als ob die sli treiber nicht richtig liefen, das würde auch der sehr geringe verbrauch der 980 und 780ti erklären.

der idle verbrauch der 980 sli kann ja auch nicht sein...

Rebell
2014-10-28, 22:03:53
Habe meine 980 gerade auf Wakü umgebaut. Was haben den die Wakü User hier so für Temperaturen? In Ryse bei 105% Power, 1452 Mhz und 1,206v habe ich 46°C GPU Temperatur, was ich sehr in Ordnung finde. Mit dem original Kühler ging die Temperatur an der selben stelle auf über 80°C hoch.

edit: bei 120 FPS fiept meine 980 übrigens wie ein kleines Ferkel, aber damit habe ich gerechnet. Ist eine Zotac im Ref-Design.

die 50 Grad erreiche ich auf beiden Karten extrem schwer. Da müssten sie schon ständig auf 99% laufen. Meistens ~40°

Habe bei beiden Karten das Bios angepasst (Takt und Power)

1: 1506/4000, 1,275v
2: 1506/4000, 1,225v

Powerlimit ist so gesetzt, dass die Karten im Firestrike (und damit auch sonst in jedem Game bisher) ständig die 1506mhz Coretakt halten können.

Godmode
2014-10-28, 22:10:13
die 50 Grad erreiche ich auf beiden Karten extrem schwer. Da müssten sie schon ständig auf 99% laufen. Meistens ~40°

Habe bei beiden Karten das Bios angepasst (Takt und Power)

1: 1506/4000, 1,275v
2: 1506/4000, 1,225v

Powerlimit ist so gesetzt, dass die Karten im Firestrike (und damit auch sonst in jedem Game bisher) ständig die 1506mhz Coretakt halten können.

Danke für die Info. Mal sehen ob ich 50° dann im SLI erreiche.

Ja das BIOS habe ich jetzt noch nicht angepasst, da warte ich aber noch auf die zweite Karte

Blediator16
2014-10-28, 22:32:54
300W ist schon wieder eine weitere GPU. Auch wenn ich immer sage das mir Watt egal sind, ist es schon ein Unterschied ob ich 100 FPS mit 200W oder mit 300W erreiche.

Wenns nicht richtig läuft bringen mir diese weniger 300Watt nichts.

Godmode
2014-10-28, 22:43:34
Wenns nicht richtig läuft bringen mir diese weniger 300Watt nichts.

Das ist natürlich die Grundvoraussetzung dass es läuft. Ich muss gestehen, ich habe mir den Test noch nicht angesehen. Dural hat wohl recht mit seiner These.

Hübie
2014-10-28, 23:39:54
Die GeForce-Karten liefen stets an der Leine was bei den 290X DD nicht der Fall ist. Die Relation würde jedoch entsprechend sehr ähnlich ausfallen. Dann sind die Verbrauchswerte der nVidia-Karten höher aber dann halt auch die Performance wieder mit mehr Abstand zum CFX-Gespann. Ich finde das HOCP mal dazu übergehen sollte apples-to-apples-Vergleiche sowie deren Standardphilosophie (nie unter 30 fps bei max BQ) in Zusammenfassung zu bringen. Hier geht manch einer den Reviewern auf den Leim.

Edit: Ausnahme ist natürlich die immer wieder auftretende negative Skalierbarkeit.

TurricanM3
2014-10-29, 00:41:54
Bei den wassergekühlten Karten ist die Wassertemperatur wissenswert, ansonsten sagt der Wert nicht so viel aus. Ich hab meine Wakü auf max. 500rpm abgestimmt, was nur synthetisch ausgelastet leicht mehr als 35° Wassertemp gibt.
Bei mir in BF4:
Bei 34.5° Wasser, Graka = 50° max. nach 2-3 Stunden zocken.

Hatte übrigens erst nach mehreren Tagen und ca. 10 Spielstunden mit 1533/4000 heute zwei Treiberresets. Hab jetzt mal wieder auf 1533/3900 geflasht.

Rente
2014-10-29, 01:11:06
Dann wird GM204 auf jeden Fall wärmer, ich komme mit einer 780 Ti @1230/1,10V auf max. 40°C bei ~31°C Wassertemp.

uweskw
2014-10-29, 04:41:58
NVIDIA GeForce GTX 980 SLI 4K Video Card Review (http://www.hardocp.com/article/2014/10/27/nvidia_geforce_gtx_980_sli_4k_video_card_review/1#.VE_axxad744)

Was nutzt mir die bessere Skalierung wenn Features wie Downsampling / DSR fehlen? Nicht jeder hat einen 4k Monitor.

Zum OC:
Firestrike läuft auf meiner 970er stundenlang mit 1540 MHz.
Bei Modors Schatten mit DSR 2.25 hab ich aber "schon" mit 1470MHz nach 10-15 min. nen Chrash. Hilft nur Abmelden/Neustart.

Greetz
U.S.

Dawn on Titan
2014-10-29, 07:07:44
dann registrier das ding mal, bekommst 2 Jahre gratis Garantie dazu :freak:

Danke für den Hinweis. habe ich mitgenommen und ne "Free Backplate" gleich dazu.

Godmode
2014-10-29, 08:42:56
Bei den wassergekühlten Karten ist die Wassertemperatur wissenswert, ansonsten sagt der Wert nicht so viel aus. Ich hab meine Wakü auf max. 500rpm abgestimmt, was nur synthetisch ausgelastet leicht mehr als 35° Wassertemp gibt.
Bei mir in BF4:
Bei 34.5° Wasser, Graka = 50° max. nach 2-3 Stunden zocken.

Hatte übrigens erst nach mehreren Tagen und ca. 10 Spielstunden mit 1533/4000 heute zwei Treiberresets. Hab jetzt mal wieder auf 1533/3900 geflasht.


Ok, das Wasser ging gestern auf 33.8°C in der Spitze. Die Lüfter habe ich aber nur mit 250 RPM laufen. Mit der zweiten 980 könnte es dann natürlich nochmal wärmer werden.


Dann wird GM204 auf jeden Fall wärmer, ich komme mit einer 780 Ti @1230/1,10V auf max. 40°C bei ~31°C Wassertemp.

Kommt wohl auch auf das restliche System drauf an.

aths
2014-10-29, 09:45:55
Danke für den Hinweis. habe ich mitgenommen und ne "Free Backplate" gleich dazu.
Bei der 980 im Referenzdesign ist die Backplate schon vormontiert :D

Godmode
2014-10-29, 10:11:41
Bei der 980 im Referenzdesign ist die Backplate schon vormontiert :D

Die wird übrigens recht warm, trotz Fullcover Wasserkühler.

hq-hq
2014-10-29, 12:34:12
Danke für den Hinweis. habe ich mitgenommen und ne "Free Backplate" gleich dazu.

cool, kannst du mal dein bios auslesen wie das Powertarget der FTW eingestellt ist ?

die ACX und ACX2.0 mit dem standard Kühler bis zur SSC haben alle nur 170Watt @100% und halt 187Watt @110% max. Evtl. hat die FTW ja 200Watt

-/\-CruNcher-/\-
2014-10-29, 12:36:46
und trotzdem sind 300W weniger gegenüber amd sehr heftig.:eek:

http://abload.de/img/132u6j.png

Da werden die falschen karten getestet man kann doch nicht gegen eine alte Architektur sinvoll testen es bleibt nur Tonga als ehrlicher test übrig.

N0Thing
2014-10-29, 12:43:32
Was bringt ein Test mit der neuesten Karte, wenn deren Leistung nicht an die älteren Modelle heran reicht? Jemand der darüber nachdenkt, ob er sich eine GTX980 kaufen soll, wird als Alternative keine R9 285 im Kopf haben, sondern eine R9 290(x), 780 Ti oder GTX 970.

Rente
2014-10-29, 12:43:43
Da werden die falschen karten getestet man kann doch nicht gegen eine alte Architektur sinvoll testen es bleibt nur Tonga als ehrlicher test übrig.
Mit was sollst du denn da vergleichen? Tonga CF ist deutlich langsamer als ein GTX970-SLi und verbraucht vermutlich trotzdem etwas mehr.

Dawn on Titan
2014-10-29, 12:50:05
cool, kannst du mal dein bios auslesen wie das Powertarget der FTW eingestellt ist ?

die ACX und ACX2.0 mit dem standard Kühler bis zur SSC haben alle nur 170Watt @100% und halt 187Watt @110% max. Evtl. hat die FTW ja 200Watt

Kann ich machen. Welches Tool funktioniert dafür?

yamo
2014-10-29, 14:07:39
Die billig Palits haben sehr böses geräusch feedback was komponentenverarbeitung angeht, so sparen sie halt.

Das konntest du aber schon hier mehrmals hören und auch sehen wie billig die Verarbeitung ist und die Komponenten sein müssen.

Aber glaub mal nicht das die Reviewer jemals so tief Reviewen werden ;)
Das "Zischen" unter Last hatte ich aber auch mit meinen 3 Evgas 580, meine aber das es mit der Zeit leiser wurde...
Aber es sind wirklich marginale Problemchen, die nicht wirklich stören (würde nur gern wissen, was da zischt - Kondensatoren?). Wenn eines von meinen Datengräbern anläuft, ist es ungleich lauter. Das nervt richtig.:freak:

Ok, das Wasser ging gestern auf 33.8°C in der Spitze. Die Lüfter habe ich aber nur mit 250 RPM laufen. Mit der zweiten 980 könnte es dann natürlich nochmal wärmer werden.

Bin jetzt zu faul nachzuschauen, was hast Du da für Turbinen auf dem Wassertürmchen drauf? Kühlleistung ist wohl satt da.
Nur, es muss ja halt auch leise sein.:D

TurricanM3
2014-10-29, 14:27:11
Dann wird GM204 auf jeden Fall wärmer, ich komme mit einer 780 Ti @1230/1,10V auf max. 40°C bei ~31°C Wassertemp.

Meine Ti wurde auch wärmer als deine demnach. Lief aber auch 1300 mit mehr Spannung, glaube 1.187 oder sowas.
Mein Höchstwert ist der in GPU-Z abgelesene Wert, der dort als max. Angabe hinterlegt wird. Lief halt die Stunden im Hintergrund mit. Wenn ich nur mal kurz reinschaue in GPU-Z steht dort auch weniger.

yamo
2014-10-29, 14:44:24
Ihr müsst da schon Eure Radi-Größen angeben. Sonst ist das Ganze doch sinnlos.

Godmode
2014-10-29, 14:45:09
Das "Zischen" unter Last hatte ich aber auch mit meinen 3 Evgas 580, meine aber das es mit der Zeit leiser wurde...
Aber es sind wirklich marginale Problemchen, die nicht wirklich stören (würde nur gern wissen, was da zischt - Kondensatoren?). Wenn eines von meinen Datengräbern anläuft, ist es ungleich lauter. Das nervt richtig.:freak:


Bin jetzt zu faul nachzuschauen, was hast Du da für Turbinen auf dem Wassertürmchen drauf? Kühlleistung ist wohl satt da.
Nur, es muss ja halt auch leise sein.:D

Das sind zwei 180er mit 250 RPM, das ist wirklich leise!

TurricanM3
2014-10-29, 14:53:54
Ihr müsst da schon Eure Radi-Größen angeben. Sonst ist das Ganze doch sinnlos.

Spielt keine Rolle, Wassertemp ist wie gesagt der einzig entscheidende Faktor. Ob man die nun mit einem 420 und 2000rpm erreicht oder passiv mit fünf Heizkörpern :biggrin: ist egal.

yamo
2014-10-29, 15:08:10
Das sind zwei 180er mit 250 RPM, das ist wirklich leise!

Eigentlich unhörbar;D Ich hab die nämlich auch. Und selbst bei knapp unter 600 RPM sind die sau leise. Mit leiser Musik im Hintergrund eig. nicht hörbar. Da sind Pumpe und HDD schon lauter.
Oder die Heizung, grad mal aufgedreht. Tierisch laut. Geht gar nicht :motz:

PS.: Warum nur eine 980? Warten auf Big M?

yamo
2014-10-29, 15:11:35
Spielt keine Rolle, Wassertemp ist wie gesagt der einzig entscheidende Faktor. Ob man die nun mit einem 420 und 2000rpm erreicht oder passiv mit fünf Heizkörpern :biggrin: ist egal.

Nee, RadiatorFLÄCHE ist der einzig entscheidende Faktor.

hq-hq
2014-10-29, 15:23:14
Kann ich machen. Welches Tool funktioniert dafür?

GPUz 0.8 müsste jetzt funktionieren, habs selbst noch nicht probiert. Falls
nicht besteht die Chance das das System freezt, kanns leider grade nicht
probieren weil ich noch in der Arbeit bin.

Und mit dem Kepler Bios Tweaker bzw. jetzt gibts ja den Maxwell Bios Tweaker 1.30
mit dem kann man das Biosfile ansehen.

Godmode
2014-10-29, 15:31:06
Eigentlich unhörbar;D Ich hab die nämlich auch. Und selbst bei knapp unter 600 RPM sind die sau leise. Mit leiser Musik im Hintergrund eig. nicht hörbar. Da sind Pumpe und HDD schon lauter.
Oder die Heizung, grad mal aufgedreht. Tierisch laut. Geht gar nicht :motz:

PS.: Warum nur eine 980? Warten auf Big M?

Ja mein Ziel ist es ein Highend-System zu haben, wo ich nur mehr die Spulen zirpen höre. ;D

Weil der verdammte Händler einen falschen Lagerstand angegeben hat. Wenn ich Glücke habe, kommt die zweite 980 noch diese Woche.

yamo
2014-10-29, 16:00:51
Ja mein Ziel ist es ein Highend-System zu haben, wo ich nur mehr die Spulen zirpen höre. ;D

Weil der verdammte Händler einen falschen Lagerstand angegeben hat. Wenn ich Glücke habe, kommt die zweite 980 noch diese Woche.

Nur 2x 980? Kommt da die Altersweisheit durch oder wartest Du auf den Tombman-Erstschlag bei big M.? :biggrin:

Godmode
2014-10-29, 17:12:01
Nur 2x 980? Kommt da die Altersweisheit durch oder wartest Du auf den Tombman-Erstschlag bei big M.? :biggrin:

Die 980er sind nur Übergangskarten die von GM200 abgelöst werden. :biggrin: Ich muss aber schon sagen, dass die GTX 980 mit 1500 Mhz eine sehr hohe Leistung bringt. GM200 wird da IMHO nicht mehr soviel drauflegen können.

Raff
2014-10-29, 17:15:57
Die 980er sind nur Übergangskarten die von GM200 abgelöst werden. :biggrin: Ich muss aber schon sagen, dass die GTX 980 mit 1500 Mhz eine sehr hohe Leistung bringt. GM200 wird da IMHO nicht mehr soviel drauflegen können.

Das wird sein wie immer. Ein gekeulter GK104 kommt auch an GK110-Karten heran oder sogar vorbei – so eine GTX 680 @ 1,3 GHz wird milde übertakteten 780- und Titan-Karten durchaus gefährlich, solange der Speicher ausreicht. Übertaktet man letztere auch, wendet sich das Bild. Es bleibt zu hoffen, dass Big M viele Rechenwerke bei wenig Takt besitzt (und damit schon eine GTX 980 @ 1,5 GHz abzieht), denn dann macht Übertakten erst richtig Spaß. Wäre bitter wenn nicht, denn GM204 ist gewiss kein High-End-Chip.

MfG,
Raff

Thunder99
2014-10-29, 17:25:33
Wie so oft, 200MHz mehr bei mehr Einheiten schlägt immer besser durch als bei wenigen :D

Selbst wenn GM200 "nur" 1,3GHz schaffen sollte wäre dieser spürbar schneller als GM204@1500 (sollte eigentlich ins Speku Forum :redface:)

aths
2014-10-29, 18:09:10
Ich hoffe doch, dass der nächste Maxwell-Chip die 980 klar abzieht. Die 980 ist schließlich die sympathische Performance-Karte.

differenzdiskriminator
2014-10-29, 18:10:53
Rein von der TDP her hat man zumindest genug Spielraum, auch deutlich mehr als bei GK104 vs. GK110.

Ist die Frage, ob man dies ausnutzt und die 225W fährt oder drunter bleibt.

Thunder99
2014-10-29, 18:19:37
250W TDP und gib ihm ;). Dann muss aber die Performance stimmen mit +60% gegenüber der GTX980

-/\-CruNcher-/\-
2014-10-29, 18:32:05
Ich hoffe doch, dass der nächste Maxwell-Chip die 980 klar abzieht. Die 980 ist schließlich die sympathische Performance-Karte.

Das ist eher die GTX 970

yamo
2014-10-29, 18:40:49
Die 980er sind nur Übergangskarten die von GM200 abgelöst werden. :biggrin: Ich muss aber schon sagen, dass die GTX 980 mit 1500 Mhz eine sehr hohe Leistung bringt. GM200 wird da IMHO nicht mehr soviel drauflegen können.
Das wird sein wie immer. Ein gekeulter GK104 kommt auch an GK110-Karten heran oder sogar vorbei – so eine GTX 680 @ 1,3 GHz wird milde übertakteten 780- und Titan-Karten durchaus gefährlich, solange der Speicher ausreicht. Übertaktet man letztere auch, wendet sich das Bild. Es bleibt zu hoffen, dass Big M viele Rechenwerke bei wenig Takt besitzt (und damit schon eine GTX 980 @ 1,5 GHz abzieht), denn dann macht Übertakten erst richtig Spaß. Wäre bitter wenn nicht, denn GM204 ist gewiss kein High-End-Chip.

MfG,
Raff

Momentan machts aber auch keinen Spaß nen 970ér abzukeulen.Oder mehr?
Vor allem, wenn man die €xtra € pro frame bedenkt. Bei der 980...
Für Raff ist das zwischenzeitliche "high-end" natürlich wichtig, aber was ist den high-end? Big Max? Trau schau wem ;)

TurricanM3
2014-10-29, 18:54:39
Nee, RadiatorFLÄCHE ist der einzig entscheidende Faktor.

Das musst mir mal erklären. 35° Wassertemp sind 35° Wassertemp - egal mit wieviel Fläche oder RPM. =)

yamo
2014-10-29, 19:05:09
hier stand müll

Thunder99
2014-10-29, 19:19:00
Wäre mal interessant der Vergleich 1,5GHz 970 vs 980 ;)

Grestorn
2014-10-29, 19:53:31
A bigger radiator leads to a lower temperature.

So both are right. If you have a low temperature, you'll be fine. Too achieve that you might need a big radiator.

Easy :)

/edit: Und warum zur Hölle schreib ich das auf Englisch?! Deine Schuld, yamo!!!! :)

Raff
2014-10-29, 19:58:00
250W TDP und gib ihm ;). Dann muss aber die Performance stimmen mit +60% gegenüber der GTX980

250 Watt sind wohl realistisch, wirken aber ziemlich mickrig angesichts von 980- und 970-Karten, die bereits dieses Powertarget aufweisen. Dort springen aber nur etwa 10 Prozent Extraleistung ggü. der Referenzkarte raus, mit Option auf +20 % ohne nennenswert höheren Verbrauch. Solange es Big M auch in 300-Watt-Versionen bzw. mit Option auf BIOS-Mods gibt, klappt das mit den +50 % aber bestimmt.

Momentan machts aber auch keinen Spaß nen 970ér abzukeulen.Oder mehr?
Vor allem, wenn man die €xtra € pro frame bedenkt. Bei der 980...
Für Raff ist das zwischenzeitliche "high-end" natürlich wichtig, aber was ist den high-end? Big Max? Trau schau wem ;)

Hehe, Mc Donald's präsentiert: den Big Max. ;D

MfG,
Raff

TurricanM3
2014-10-29, 19:58:21
Ehm?
Ich schrieb zur Vergleichbarkeit der Temps brauchen wir die Wassertemp, er Radiatorgröße. Letztere ist doch irrelevant. Entscheidend ist das Delta zum Wasser. :smile:

Ob ich nun 5 passive Radis habe oder einen aktiven, 35° Wasser sind 35° Wasser!
Klar ist mehr Radi-Fläche von Vorteil, aber darum ging es nicht!

aufkrawall
2014-10-29, 20:06:58
250 Watt sind wohl realistisch, wirken aber ziemlich mickrig angesichts von 980- und 970-Karten, die bereits dieses Powertarget aufweisen. Dort springen aber nur etwa 10 Prozent Extraleistung ggü. der Referenzkarte raus, mit Option auf +20 % ohne nennenswert höheren Verbrauch. Solange es Big M auch in 300-Watt-Versionen bzw. mit Option auf BIOS-Mods gibt, klappt das mit den +50 % aber bestimmt.

Äpfel und Birnen. Die 780 Ti hat auch nur 20W mehr TDP als die 770.

Raff
2014-10-29, 20:09:04
Ja, das ist das einzige, was hoffen lässt. :D Kleine, gekeulte Chips sind einfach ineffizient.

MfG,
Raff

-/\-CruNcher-/\-
2014-10-29, 20:21:41
Falscher Thread

hq-hq
2014-10-29, 21:55:23
ähm, DSR funktioniert bei mir nicht wenn ich auf zwei Full-HD Geräten das Bild klone ?
Das is ja ... blöd :-D

Knuddelbearli
2014-10-30, 04:50:53
so Zotac Omega ist da leider auch leichtes zierpen ab 100 fps aber damit kann ich leben auch wenn mir 144 fps lieber wären

im Gegensatz zu CB sind bei mir die Taktraten absolut stabil, komischerweise sinkt Takt aber massiv sobald ich PL senke. Wenn ich PL auf 60% senke was ca eine standard 970 wäre habe ich statt 1550 nur noch 1320 anliegen und PL sinkt auf 40%. Mit einer normal 970 hat man da aber immerhin noch 1450 gehabt.

differenzdiskriminator
2014-10-30, 08:42:37
250 Watt sind wohl realistisch, wirken aber ziemlich mickrig angesichts von 980- und 970-Karten, die bereits dieses Powertarget aufweisen. Dort springen aber nur etwa 10 Prozent Extraleistung ggü. der Referenzkarte raus, mit Option auf +20 % ohne nennenswert höheren Verbrauch. Solange es Big M auch in 300-Watt-Versionen bzw. mit Option auf BIOS-Mods gibt, klappt das mit den +50 % aber bestimmt.
Bist du nicht immer derjenige, der bei vergleichen Referenz vs. Overclocked anmerkt, dass man das Referenzmodell auch overclocken kann? ;D

Von daher sollte man auch die Referenz 980/970 nehmen und dann mal grob skizzieren, wo man mit einem 250W-Chip landen würde. Das sollte schon einiges an Performance bringen.

Grindcore
2014-10-30, 11:07:39
Das wird sein wie immer. Ein gekeulter GK104 kommt auch an GK110-Karten heran oder sogar vorbei – so eine GTX 680 @ 1,3 GHz wird milde übertakteten 780- und Titan-Karten durchaus gefährlich, solange der Speicher ausreicht. Übertaktet man letztere auch, wendet sich das Bild. Es bleibt zu hoffen, dass Big M viele Rechenwerke bei wenig Takt besitzt (und damit schon eine GTX 980 @ 1,5 GHz abzieht), denn dann macht Übertakten erst richtig Spaß. Wäre bitter wenn nicht, denn GM204 ist gewiss kein High-End-Chip.

MfG,
Raff

Eine extrem übertaktete 680 kommt bis auf 10% an eine unübertaktete 780 ran. Die profitiert ja nur relativ schwach von Übertaktung, im Gegensatz zur 780, die den Mehrtakt viel besser umsetzt. Ich habe das damals ziemlich lange recherchiert, bis ich mich schließlich für die 780 entschieden habe. Man schaue sich nur Tomb Raider mit 4XSSAA an, GK110 mit doppelt so hohen Min-FPS (Test bei PCGH). Das ist durch keine (realistisch machbare) Übertaktung der Welt auszugleichen.

yamo
2014-10-30, 11:09:04
Ehm?
Ich schrieb zur Vergleichbarkeit der Temps brauchen wir die Wassertemp, er Radiatorgröße. Letztere ist doch irrelevant. Entscheidend ist das Delta zum Wasser. :smile:

Ob ich nun 5 passive Radis habe oder einen aktiven, 35° Wasser sind 35° Wasser!
Klar ist mehr Radi-Fläche von Vorteil, aber darum ging es nicht!

Stimmt. Ich hab Dich falsch verstanden. :)

Godmode
2014-10-30, 12:16:52
Kann ich eigentlich jedes BIOS auf meine GTX 980 im Refdesign flashen oder muss das schon eines von Zotac sein? Ich habe gestern ein wenig mit dem BIOS Editor rumgespielt, musste dann aber wieder zurück flashen, da ich nur mehr Bluescreens bekommen habe. Irgendwie hat sich das ganze mit dem Afterburner nicht vertragen, ka was da los was. Die zweite 980 kann ich mir heute abholen, habe ich gerade erfahren. Bin schon gespannt wie sich die beiden im Duo verhalten.

mironicus
2014-10-30, 14:25:01
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-980-mit-8-gb-noch-in-diesem-jahr/

*Wart auf den Aufschrei* :D

hasebaer
2014-10-30, 14:35:58
Aufschrei?

-/\-CruNcher-/\-
2014-10-30, 14:38:12
Für mich Persönlich stellt immer mehr VRam verbrauch einen gewaltigen rückschritt da für die PC Platform sorry, es muss sich endlich was ändern was sinn macht.

Wir haben diese möglichkeiten schon den VRam verbrauch ohne Probleme zu senken was sollen diese ganzen Workarrounds.

hasebaer
2014-10-30, 14:54:21
Ich seh da keinen Rückschritt.
Texturen kosten kaum Rechenleistung, nur Platz.

-/\-CruNcher-/\-
2014-10-30, 14:58:11
Den man um ein erhebliches massiv reduzieren könnte anstelle dessen ist es aber billiger mehr Ram zu verbauen sorry ist ein Workarround bleibt ein Workarround.

hasebaer
2014-10-30, 15:03:24
Den man um ein erhebliches massiv reduzieren könnte anstelle dessen ist es aber billiger mehr Ram zu verbauen sorry ist ein Workarround bleibt ein Workarround.

Wer genau, könnte was genau, massiv reduzieren?

TobiWahnKenobi
2014-10-30, 15:06:27
je größer die texturen werden, desto höher wird auch der anspruch an die bandbreite und die gibt es weder für lau, noch günstig.


(..)

mfg
tobi

yamo
2014-10-30, 15:19:39
http://www.computerbase.de/2014-10/nvidia-geforce-gtx-980-mit-8-gb-noch-in-diesem-jahr/

*Wart auf den Aufschrei* :D

Für mich ist das Marketing-Geschwubbel, weil AMD wohl leider keine passende Antwort hat. 4-6 GB sinnvoll auszureizen ist nicht ganz einfach und beschränkt sich auf sehr wenige (Mod)Titel i. V. m. SLI. Spontan fällt mir Skyrim ein.
Maxwell hat dafür auch gar nicht die Bandbreite und ist für mich eher eine Übergangslösung. NV sollte eher daran arbeiten, in UHD nicht so einzubrechen.
Just my 2 cents.

boxleitnerb
2014-10-30, 15:31:38
Das kommt auf den Bezugspunkt an. Es wird da immer unterschwellig mitgesagt, dass AMD das besser macht, dabei ist der einzige Grund, warum AMD scheinbar effizienter in 4K+ ist, der, dass sie ineffizienter in niedrigeren Auflösungen sind, sprich die Rohleistung nicht im selben Maß auf die Straße bekommen wie unter 4K+ im Vergleich zu NV.
Wenn ich den Gefrierpunkt auf 10° setze, kocht Wasser auch bei einem Delta von "nur" 90°C, aber absolut gesehen sind es eben doch noch 100°C. Ein blöderes Beispiel ist mir gerade nicht eingefallen, aber ich denke es ist verständlich :freak:

hasebaer
2014-10-30, 15:32:27
je größer die texturen werden, desto höher wird auch der anspruch an die bandbreite

Wenn eine GTX 750Ti mit 86GB/s die Geschwindigkeit einer GTX 480 mit 177GB/s ereichen kann, muss mir erstmal jemand zeigen, dass 4GB mehr oder weniger VRAM die Bandbreite killt.

aufkrawall
2014-10-30, 15:44:20
Die Diskussion, was technisch sinnvoll ist, ist müßig, so lange man nicht irgendwas mit PRT in Aktion gesehen hat.

Thunder99
2014-10-30, 15:55:36
Ich seh da keinen Rückschritt.
Texturen kosten kaum Rechenleistung, nur Platz.
Es gibt Texturen die deutlich besser aussehen bei weniger Platz Bedarf als z.B. in Shadow of Mordor -> Crysis als Beispiel

Das Argument zieht daher bei mir nicht, sondern zeigt wie wenig Zeit die Entwickler für effiziente Nutzung der VRAM Größe dafür nutzen oder nur bekommen (Zeitdruck) :(

Edit: Und wenn sie 8GB GTX980er zulassen sieht man wohl erst mal nichts von GM200 in 2014 ;)

Grestorn
2014-10-30, 16:00:35
Es gibt Texturen die deutlich besser aussehen bei weniger Platz Bedarf als z.B. in Shadow of Mordor -> Crysis als Beispiel

Schlauchspiel vs. OpenWorld Spiel?

Thunder99
2014-10-30, 16:10:39
Schlauchspiel vs. OpenWorld Spiel?
Wie "openWorld" ist denn Shadow of Mordor? LOD und so :confused:

Sonst nimm ein anderes Spiel (Gothic 3 :freak: ) :redface:

yamo
2014-10-30, 16:40:15
Das kommt auf den Bezugspunkt an. Es wird da immer unterschwellig mitgesagt, dass AMD das besser macht, dabei ist der einzige Grund, warum AMD scheinbar effizienter in 4K+ ist, der, dass sie ineffizienter in niedrigeren Auflösungen sind, sprich die Rohleistung nicht im selben Maß auf die Straße bekommen wie unter 4K+ im Vergleich zu NV.
Wenn ich den Gefrierpunkt auf 10° setze, kocht Wasser auch bei einem Delta von "nur" 90°C, aber absolut gesehen sind es eben doch noch 100°C. Ein blöderes Beispiel ist mir gerade nicht eingefallen, aber ich denke es ist verständlich :freak:

Jetzt komm Du mir nicht auch noch mit Temperaturdeltas;D
Dass AMD unterhalb 4k nicht so effizient ist, mag ja architekturbedingt sein.
Keine Ahnung. In hohen Res. bringen die AMD aber die Rohleistung besser als die NV auf die Strasse. Ist ja nix Neues. Und 4GB haben sie ja auch mitgebracht. Wenn nicht die frickeligen Treiber und das unrunde Gesamtprodukt wären, würde ich mich schon lange im roten Lager befinden (mal auf die Effizienz geschixxen).
Aber es geht ja um die 980 8GB. 4GB halte ich wie gesagt für völlig ausreichend. Höhere Werte sind doch spielbar gar nicht umsetzbar.
Geht´s nicht letztendlich darum?

TobiWahnKenobi
2014-10-30, 16:51:02
Wenn eine GTX 750Ti mit 86GB/s die Geschwindigkeit einer GTX 480 mit 177GB/s ereichen kann, muss mir erstmal jemand zeigen, dass 4GB mehr oder weniger VRAM die Bandbreite killt.

du darfst davon ausgehen, dass bei der drei generationen älteren karte ganz andere flaschenhälse und/oder schwerpunktverlagerungen der anwendung an die GPU bestimmend für den "leistungsunterschied" sind.


(..)

mfg
tobi

boxleitnerb
2014-10-30, 18:04:12
In hohen Res. bringen die AMD aber die Rohleistung besser als die NV auf die Strasse. Ist ja nix Neues.

Eben nicht! Das meine ich ja gerade. 780 Ti und 290X sind praktisch gleich schnell bei ähnlichem Takt. Dass bei niedrigeren Auflösungen dies nicht mehr gilt, hat für hohe Auflösungen absolut betrachtet doch überhaupt keine Bedeutung.

Knuddelbearli
2014-10-30, 19:44:29
Wow wie knüppelt Witcher 2 die 970 runter oO

1550 / 4200 und keine 60 fps in 1200p ( SS natürlich an aber trotzdem )

habe das eigentlich nur gestartet da es geheißen hat, dass das ein guter OC Test ist und kann nicht glauben das die 4200 stabil sind und zack spielt man im Dark Mode das Spiel ^^ ( und bisher kein Absturz )

TurricanM3
2014-10-30, 20:38:01
Kann ich eigentlich jedes BIOS auf meine GTX 980 im Refdesign flashen oder muss das schon eines von Zotac sein? Ich habe gestern ein wenig mit dem BIOS Editor rumgespielt, musste dann aber wieder zurück flashen, da ich nur mehr Bluescreens bekommen habe. Irgendwie hat sich das ganze mit dem Afterburner nicht vertragen, ka was da los was. Die zweite 980 kann ich mir heute abholen, habe ich gerade erfahren. Bin schon gespannt wie sich die beiden im Duo verhalten.


Normalerweise müssten viele laufen. Ich hatte testweise das EVGA SC drauf, lief einwandfrei. Im Luxx hat jemand das der Gigabyte G1, läuft wohl auch. Setz am besten vorher die Taktraten auf defaults und / oder nimm die Autostart Settings raus.

Knuddelbearli
2014-10-30, 20:54:40
Naja, nicht jedes Bios ist mit jedem PCB kompatibel.
Glaube kaum das wir genug Leute haben die versuchen alle möglichen Bios Versionen auf ihren Karten zu testen.
Wirklich gefährlich ist das zwar nicht, aber es ist nervig.

Beispiel: Asus Strix Bios auf einer Ref 980 sorgt dafür das man nur noch bunte Bildchen sieht wenn ein Treiber installiert is.
Da muss man dann Karte ausbauen und mit igpu den Treiber deinstallieren damit man überhaupt zurückflashen kann.
Ohne igpu oder Ersatzkarte is das schon ziemlich blöd.
!!!

TurricanM3
2014-10-30, 21:26:50
Ref. zu Ref. sollte gehen. Selbst wenns schief läuft, ist ja alles kein Beinbruch, kaputtflashen kannst quasi nicht. Ich hab nicht mal iGPU... :biggrin:
Ich würde mir eher das eigene BIOS modden (lassen).

Grestorn
2014-10-30, 22:34:17
Meint ihr, dass es Probleme gibt, das EVGA 980 SC ACX auf meine EVGA SC zu flashen? Bei dem ACX BIOS ist die Spannung anders geregelt, oder? Gibt es irgendwo einen Link, der die Unterschiede im ACX BIOS beschreibt?

hq-hq
2014-10-30, 22:49:07
kann man denn nicht sein eigenes mit dem Maxwell Bios Tweaker so ändern wie man möchte und dann mit dem letztens mal verlinkten NV-flash flashen ?:freak:

Godmode
2014-10-30, 23:00:45
kann man denn nicht sein eigenes mit dem Maxwell Bios Tweaker so ändern wie man möchte und dann mit dem letztens mal verlinkten NV-flash flashen ?:freak:

Ja kannst du: http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-980-gm204-sammelthread-faq-bei-fragen-erste-seite-1038553-31.html#post22808820

Aufschrei?

Nur blöd für Leute die die Karte länger haben. Mir ist es fast egal, da ich eh auf GM200 wechsle, sobald kaufbar.

Normalerweise müssten viele laufen. Ich hatte testweise das EVGA SC drauf, lief einwandfrei. Im Luxx hat jemand das der Gigabyte G1, läuft wohl auch. Setz am besten vorher die Taktraten auf defaults und / oder nimm die Autostart Settings raus.

Aja das mit den Autostart Settings habe ich glatt vergessen. Danke für den Tipp.

hq-hq
2014-10-30, 23:36:53
:freak: dannnnn sollte man vielleicht das eigene Bios ändern und auf Grafikfehler und Bluescreens verzichten :uidea:

Godmode
2014-10-30, 23:43:59
:freak: dannnnn sollte man vielleicht das eigene Bios ändern und auf Grafikfehler und Bluescreens verzichten :uidea:

Also das EVGA Bios hat bei mir tadellos funktioniert. Ich würde aber nur Ref zu Ref flashen. Die Customkarten sind ja teilweise doch recht anders.

hq-hq
2014-10-30, 23:53:30
ich mein ja nur, jetzt kann man ja das eigene anpassen :cool: (y)

Thunder99
2014-10-31, 01:33:50
Gibt es eigentlich eine Software seitige Möglichkeit zum untervolten?

hasebaer
2014-10-31, 09:59:42
Nur blöd für Leute die die Karte länger haben. Mir ist es fast egal, da ich eh auf GM200 wechsle, sobald kaufbar.

Jup das seh ich auch so, und ich hab auch keine Illusionen was den Preis angeht.
Eine GTX 980 8GB wird sicherlich bei ~ 650,-€ einsteigen, da hätten so oder so nicht alle eine 8GB gekauft.

Und GM200 ... nun ja, ein erster GM200 Salvage aka 980Ti wird bei der gleichen UVP nur 6GB haben, ausser es wird doch ein 512bit SI und/oder Titan II braucht keine 12GB als Alleinstellungsmerkmal, warum auch immer.

Dawn on Titan
2014-10-31, 11:25:11
Meint ihr, dass es Probleme gibt, das EVGA 980 SC ACX auf meine EVGA SC zu flashen? Bei dem ACX BIOS ist die Spannung anders geregelt, oder? Gibt es irgendwo einen Link, der die Unterschiede im ACX BIOS beschreibt?

Würde ich nicht machen, da die 980 bereits den Lüfter im Idle abstellt, ob das die Referenzkarte mag...

Grestorn
2014-10-31, 11:34:27
Würde ich nicht machen, da die 980 bereits den Lüfter im Idle abstellt, ob das die Referenzkarte mag...
Da sie unter Wasser ist, spielt die Lüftersteuerung ja keine Rolle :) Wenn das das einzige Problem wäre, würde ich es sofort machen.

Ich habe aber Angst, dass es noch weitere Unterschiede gibt und ich die Karte aus irgendeinem Grund nicht zurückgeflasht bekomme. Ich möchte ja nicht zwei teurer Bricks rumstehen haben...

yamo
2014-10-31, 12:14:37
Werde ich langsam zu alt für mein Hobby?
Es gelingt mir partout nicht, das aktuelle Bios auszulesen. Weder mit Thunder Master noch mit GPU-Z. Win 8.1 neu aufgesetzt, Aero in der Taskbar off, keine Tools im Hintergrund (afterburner etc.). Fehlt da ne library? Bei allen andern gehts, nur hier wieder nich:freak:

MfG
Yamo

Grestorn
2014-10-31, 13:21:57
Was passiert denn bei dir? Bei mir kommt mit GPU-Z ne Meldung, dass der Treiber deaktiviert wird. Dann schaltet der Schirm in LoRes, nach einigen Sekunden wieder zurück in die korrekte Auflösung und es erscheint der "Speichern unter" Dialog.

dildo4u
2014-10-31, 14:27:55
Es kommen laut Nvidia erstmal keine 8GB Karten Nachfrage nach 4GB Karten ist zu hoch und es gibt GDDR5 Knappheit.

http://forums.overclockers.co.uk/showpost.php?p=27135737&postcount=16

kunibätt
2014-10-31, 14:44:37
Und das soll eine Quelle sein?

dildo4u
2014-10-31, 14:46:11
Der Typ gehört zu einem Computer Teil Händler in England. OC UK Staff guck in sein Avatar.

http://www.overclockers.co.uk/

kunibätt
2014-10-31, 15:21:58
Kann er gerne sein. Macht den Rest trotzdem nicht richtiger.

hq-hq
2014-10-31, 15:28:15
graka treiber manuell deinstallieren, neustarten, bios auslesen, graka treiber wieder installieren neustarten... total umständlich aber so muss es gehen.:freak:

differenzdiskriminator
2014-10-31, 15:35:33
Warum sollte NVIDIA 900er Karten mit mehr als 4 GB anbieten? Die Karten verkaufen sich auch so wie geschnitten Brot und mehr Speicher würde nur die Marge drücken.

kunibätt
2014-10-31, 17:39:55
Warum sollte AMD R29X-Karten mit mehr als 4 GB anbieten? Die Karten verkaufen sich auch so seit Maxwell kaum noch und mehr Speicher würde nur die Marge drücken.

von Richthofen
2014-10-31, 17:46:21
...und mehr Speicher würde nur die Marge drücken.

Bei wahrscheinlich sehr hohen Preisen für eine solche 8GB Version würd ich eher das Gegenteil für den Fall halten.

Keinen Sinn macht eine 970 mit doppelter Speichermenge. Da torpediert man sich dann selbst - wobei die preisliche Spanne zwischen den beiden Maxwells das zulassen würde.

Schaffe89
2014-10-31, 21:58:33
Warum sollte AMD R29X-Karten mit mehr als 4 GB anbieten? Die Karten verkaufen sich auch so seit Maxwell kaum noch und mehr Speicher würde nur die Marge drücken.

Bei dem Billig-Mist den Nvidia auf den Markt wirft, würde ich das eher nicht sagen.
Ich hatte jetzt 4 GTX 970 Karten und fiepten und klackerten vor sich hin.

Die Zotac habe ich jetzt noch da und überlege ob ich sie zurückschicke oder nicht, dass ich wenigstens einmal eine behalten kann.

Hier wirkt sich das fiepen noch am geringsten aus, ca ab 80 FPS in COD/Crysis fängts an.
Furmark ist nicht auszuhalten, Crysis1 Menü gar nicht.

Grestorn
2014-10-31, 22:22:56
Ach Schaffe... :)

hq-hq
2014-10-31, 22:54:09
was für scheiss Mimosen, als meine Voodoo3 3000 auf meiner Aiwa Stereoanlage
im 3dMurks 99 gepfiffen hat wie ein Formel1 Wagen fand ich das GEIL, einfach
nur GEIL und heute mimimimimii :biggrin:


ja, ich verstehe es auch nicht warum das Problem scheinbar ignoriert wird,
aber WTF, stört das beim ZOCKEN wirklich ??? will ich mittendrin sein hab ich
eh Kopfhörer auf :freak:

Es stimmt nicht, daß pfeiffende Geräusche auf schrottige und billige Bauteile schließen lassen! Aber sein muß es nicht, dass stimmt auch. :)

Seth
2014-10-31, 23:20:24
Meine GTX 970 macht zum Glück keine Geräusche, meine alte 7870XT dagegen konnte ich aus dem 2m entfernten Gehäuse mit aufgesetzten, geschlossenen Kopfhörern (DT770) zirpen und fiepen hören. :freak:
Durch die Ruhe jetzt habe ich dann allerdings gemerkt dass mein Netzteil zirpt. Wenn auch nur ganz leise.:redface:

Schrotti
2014-11-01, 00:43:41
Also meine beiden 980er fiepen nicht oder ich höre es nicht mehr (mit über 40).

Beim zocken hab ich dann eh Kopfhörer auf also ist es mir eigentlich auch egal.

Thunder99
2014-11-01, 01:54:00
Meine GTX 970 fiebt bei meiner Konfiguration nicht oder nicht hörbar :wink: Ergo hängt es immer davon ab welches Modell mit welchem Netzteil und welchem Grundgeräusch von den sonstigen Lüftern betrieben wird ;)
Bzw bei den Spiele Settings wo ich betreibe (immer VSync on)

Schaffe89
2014-11-01, 08:16:57
Ach Schaffe...

Gibt halt immer welche die Fehler bei einer Marke eher verzeihen als bei anderen, aber keine Sorge, die 7950 hab ich damals auch sofort zurückgeschickt.:freak:

Ergo hängt es immer davon ab welches Modell mit welchem Netzteil

Das stimmt schon, nur ist es zumindest bei mir völlig egal welches Netzteil ich anschließe, ich hab 4 Stück zuhause und bei keinem ist es so schön Fiepfrei, wie bei meiner GTX 750 Ti, oder r9 290.

ja, ich verstehe es auch nicht warum das Problem scheinbar ignoriert wird,
aber WTF, stört das beim ZOCKEN wirklich ??? will ich mittendrin sein hab ich
eh Kopfhörer auf

Ich höre es trotz Kopfhöreren in leisen Szenen. Ist wie ein Verfolgungswahn derzeit.
Meine 290 ist absolut still, selbst in Furmark, auch die GTX 750 Ti fiept nicht mal im CRysis Menü.

Es liegt meiner Meinung nach daran, dass das PCB bzw die Spulen einfach zu billig für die Lastspitzen sind.

Wenn ihrs nicht glaubt, lade ich gern Videos hoch ;)

horn 12
2014-11-01, 09:37:03
Ebenso meine beiden , 1x Sapphire R9 290 Referenz und 1x R9 290 Turboduo OHNE Fiepen oder jegliche Geräusche, AUSSER dem Föhn von GPU Lüfter :-)
Dabei werde ich nun letztere abgeben und bis ins Neue Jahr mit der Referenz auskommen
NV bietet mir zu wenig Performance um zu wechslen.

Dawn on Titan
2014-11-01, 09:50:54
Spulenpfeifen kann man selten dem GPU Hersteller ankreiden, zumindest solange das Referenzboard unauffällig ist, was bei der 980 gegeben ist.

fondness
2014-11-01, 09:56:00
Warum sollte AMD R29X-Karten mit mehr als 4 GB anbieten? Die Karten verkaufen sich auch so seit Maxwell kaum noch und mehr Speicher würde nur die Marge drücken.

8GB Hawaii-Karten sind eigentlich eine logische Konsequenz, mich wundert es das AMD damit so lange gewartet hat. AMD muss ohnehin 16 Speicherbausteine für das 512-bit SI verbauen, man kann also 8GB VRAM ohne neuen Platinendesigns und ohne mehr Stromverbrauch verbauen. Nvidia müsste bei GM204 die Anzahl der Speicherbausteine verdoppeln, was neue Platinendesign erfordert und gleich mal 15-20W mehr Strom verbraucht. Die höheren Kosten werden natürlich an den Kunden weiter gegeben, deshalb sehe ich auch nicht wo es die Margen drücken soll.

uweskw
2014-11-01, 10:20:44
Kleiner Erfahrungsbericht:

Mit meiner Powercolor 290 PCS+ war ich eigentlich soweit zufrieden, mit manuell eingestelltem Lüfter Profil auch angenehm leise im Leerlauf. Was ich aber die ganze Zeit vermisst habe, waren die DS Möglichkeiten.
Das war für mich der Hauptgrund mir eine MSI GTX970 zu holen. Ich habe jetzt meine vierte! MSI wegen Spulen-Fiepen zurückgeschickt. Das höre ich selbst aus meinem geschlossenem Fractal Define R4 heraus.
In den Menüs von einigen Spielen die mit über 1000 FPS laufen unerträglich. Und auf das Abenteuer mit irgendwelchen FPS-Limitern zu arbeiten will ich mich nicht wirklich einlassen.
Da ich aber auch nicht auf DSR verzichten will, habe ich mir eine gebrauchte 780ti für 320 € geschossen. Die werden gebraucht zur Zeit so richtig verramscht. Hat leider kein Zero-Fan, ist aber im Leerlauf trotzdem sehr leise. Und kein Fiepen!!!!

https://geizhals.de/evga-geforce-gtx-780-ti-superclocked-acx-cooler-03g-p4-2884-kr-a1029113.html

Wenn ich die MSI bis zum Anschlag (1467Mhz) übertaket habe, kam ich zu folgenden Ergebnissen:

Mordors Schatten @2688x1680: 51,4 FPS
Witcher 2 @2880x1800: 55,6 FPS
Heaven 4.0: 1474 Score

Mit der EVGA 780Ti @1288 komme ich zu folgenden Ergebnissen:

Mordors Schatten @2688x1680: 55,3FPS
Witcher 2 @2880x1800: 69,7FPS
Heaven 4.0: 1739 Score

ist einfach nur als Anstoß für diejenigen gedacht, die jetzt aufrüsten wollen.

Greetz
U.S.

edit: war gerage nochmal in Himmelsrand: GEFÜHLT deutlich geschmeidiger als mit der 970er.

hq-hq
2014-11-01, 11:37:09
mit Kopfhörern kann man das Fiepen hören :uponder:

anscheinend ist mir die Dimension des Pfeiffens nicht ganz bewusst :redface:

also eine Hörprobe wär immer interessant :smile:

machma halt mal nen Fred dafür auf =)

uweskw
2014-11-01, 11:55:14
Es ist weniger die Lautsärke: Was so nervt ist die Tönhöhe und dass der Ton sich ständig ändert.
Von der blanken Lautstärke ist meine 780Ti wohl lauter als die 970er, es ist aber ein gleichmäßiges, dunkles rauschen. Also bei weitem nicht so unangenehm wie das hochfrequente, ständig sich ändernde Pfeiffen der 970.

Greetz
U.S.

[dzp]Viper
2014-11-01, 11:58:57
Zum Glück fiept meine MSI GTX 970 nicht :D

aufkrawall
2014-11-01, 11:59:59
Meine auch wesentlich weniger als meine vorige Gaming 780 Ti...

aths
2014-11-01, 12:21:07
Spulenpfeifen kann man selten dem GPU Hersteller ankreiden, zumindest solange das Referenzboard unauffällig ist, was bei der 980 gegeben ist.
Mit ATI-Tool pfeift es bei mir auch, zum Glück ist das Zirpen eher leise. In Spielen hatte ich bisher noch nicht die Frameraten, dass es zirpt.


8GB Hawaii-Karten sind eigentlich eine logische Konsequenz, mich wundert es das AMD damit so lange gewartet hat. AMD muss ohnehin 16 Speicherbausteine für das 512-bit SI verbauen, man kann also 8GB VRAM ohne neuen Platinendesigns und ohne mehr Stromverbrauch verbauen. Nvidia müsste bei GM204 die Anzahl der Speicherbausteine verdoppeln, was neue Platinendesign erfordert und gleich mal 15-20W mehr Strom verbraucht. Die höheren Kosten werden natürlich an den Kunden weiter gegeben, deshalb sehe ich auch nicht wo es die Margen drücken soll.
Indirekt möglicherweise: Mit dem Angebot an 8-GiB-Modellen wären die 4-GiB-Versionen unattraktiver.

Im Moment würde ein 8-GiB-980 die Titan Black ins Hintertreffen bringen. Leider schützt Nvidia lieber die eigenen Produkte anstatt den Kunden entscheiden zu lassen, wie viel RAM er auf der Graka möchte.

Wenn ich daran denke, dass meine erste 3D-Karte nur 4 MiB RAM hatte ... die 980 hat jetzt das 1024-fache.

uweskw
2014-11-01, 12:36:24
Mit ATI-Tool pfeift es bei mir auch, zum Glück ist das Zirpen eher leise. In Spielen hatte ich bisher noch nicht die Frameraten, dass es zirpt.

....



Beim Spielen weniger. Im Menue, oder im Vorspann, halt bei sehr hohen FPS. Mir schleierhaft warum die Spielehersteller das nicht von Haus aus begrenzen....


Greetz
U.S.

dildo4u
2014-11-01, 12:45:31
Weil man nicht das Menü spielt,ist eh Blödsinn wie du von einer 4 auf 3GB ab zurüsten vorallem wenns dir um DSR geht.

aufkrawall
2014-11-01, 12:51:35
full ack
Karten wegen Fiepens bei 1000fps zurückschicken hat schon was von ziemlich gaga.
Toll für die anderen Kunden, die die betatschten Rückläufer bekommen...

hq-hq
2014-11-01, 12:55:40
ja das müssen wir nur richtig organisieren, wenn einer 5 Exemplare wegen
Fiepens durchprobiert kann er gleich die OC freudigsten raussuchen und beim
nächsten mal an mich verkaufen ;D

-/\-CruNcher-/\-
2014-11-01, 13:21:31
Kleiner Erfahrungsbericht:

Mit meiner Powercolor 290 PCS+ war ich eigentlich soweit zufrieden, mit manuell eingestelltem Lüfter Profil auch angenehm leise im Leerlauf. Was ich aber die ganze Zeit vermisst habe, waren die DS Möglichkeiten.
Das war für mich der Hauptgrund mir eine MSI GTX970 zu holen. Ich habe jetzt meine vierte! MSI wegen Spulen-Fiepen zurückgeschickt. Das höre ich selbst aus meinem geschlossenem Fractal Define R4 heraus.
In den Menüs von einigen Spielen die mit über 1000 FPS laufen unerträglich. Und auf das Abenteuer mit irgendwelchen FPS-Limitern zu arbeiten will ich mich nicht wirklich einlassen.
Da ich aber auch nicht auf DSR verzichten will, habe ich mir eine gebrauchte 780ti für 320 € geschossen. Die werden gebraucht zur Zeit so richtig verramscht. Hat leider kein Zero-Fan, ist aber im Leerlauf trotzdem sehr leise. Und kein Fiepen!!!!

https://geizhals.de/evga-geforce-gtx-780-ti-superclocked-acx-cooler-03g-p4-2884-kr-a1029113.html

Wenn ich die MSI bis zum Anschlag (1467Mhz) übertaket habe, kam ich zu folgenden Ergebnissen:



Mordors Schatten @2688x1680: 51,4 FPS
Witcher 2 @2880x1800: 55,6 FPS
Heaven 4.0: 1474 Score

Mit der EVGA 780Ti @1288 komme ich zu folgenden Ergebnissen:

Mordors Schatten @2688x1680: 55,3FPS
Witcher 2 @2880x1800: 69,7FPS
Heaven 4.0: 1739 Score

ist einfach nur als Anstoß für diejenigen gedacht, die jetzt aufrüsten wollen.

Greetz
U.S.

edit: war gerage nochmal in Himmelsrand: GEFÜHLT deutlich geschmeidiger als mit der 970er.

Mit Menü problemen wirst du niemanden dazu kriegen mehr in sein Produkt zu inverstieren vor allen da diese Karten für Hohe FPS nicht ausgelegt sind und in den berreichen wofür sie ausgelegt sind zeigen sie keine Fiep Probleme abgesehen vielleicht stärker die Palits, die lachen dich bei MSI eher aus ;)

Das Ziel der 970 mit DX11 ist ganz klar erkennbar

1080p = 60 FPS
2K/4K = 30 FPS

Was darüber geht sind meistens DX9 titel mit nicht aufwendiger Shader belastung die dann schonmal in die 100x regionen vordringen, aber auch hier haben viele auf Headroom geachtet bis zu 250 FPS sollten relativ stabil sein bei mir ist das Jedenfalls der fall mit der Galax EXOC

Menüs (Video Playback) interessieren keinen da müssen die Entwickler mal drauf reagieren

Hohe FPS beim Videoplayback und belastung der GPU (DSP) kann man übrigens mit Windows Media Player testen (Microsoft Defaul EVR Renderer) hier rendert Nvidia mit 120 FPS bei 60 FPS content

PS: Beim Fiepen solltet ihr auch nebengeräusche ausschliesen subjektiv können einige Waschmaschinen anscheinend die selbe Geräuschart erzeugen wenn z.b Metal auf Metal schleift ;)

aufkrawall
2014-11-01, 13:27:13
Garden Warfare Jewel Junction Startposition:
1440p, Ultra, kein AA, Motion Blur aus, Q-Filterung tril. Optm. aus
GTX 970@1,5/3850: 109fps
GTX 780 Ti@1,24/3600: 120fps

10% langsamer bei wohl ca. halbem Stromverbrauch. Der fps-Unterschied ist schon bemerkbar, ändert aber wenig an der Spielbarkeit. Wenn MFAA mal funktioniert, würde es auch anders aussehen.
BF4 werd ich auch mal benchen.

Kommt halt aufs Spiel an. Watch Dogs kann man mit der 780 Ti bei 3620x2036 vergessen, im Gegensatz zur 970 OC.

-/\-CruNcher-/\-
2014-11-01, 13:36:48
Garden Warfare Jewel Junction Startposition:
1440p, Ultra, kein AA, Motion Blur aus, Q-Filterung tril. Optm. aus
GTX 970@1,5/3850: 109fps
GTX 780 Ti@1,24/3600: 120fps

10% langsamer bei wohl ca. halbem Stromverbrauch. Der fps-Unterschied ist schon bemerkbar, ändert aber wenig an der Spielbarkeit. Wenn MFAA mal funktioniert, würde es auch anders aussehen.
BF4 werd ich auch mal benchen.

Kommt halt aufs Spiel an. Watch Dogs kann man mit der 780 Ti bei 3620x2036 vergessen, im Gegensatz zur 970 OC.

Das der Unterschied bemerkbar sein soll aufgrund der FPS ist unwahrscheinlich eher spielt hier der Latenzunterschied den du erfasst eine rolle.

schau dir lieber die Frametime Daten des Frostbite Debug Graphs an als wie die FPS

Eggcake
2014-11-01, 13:47:24
Also ich müsste das fiepen bei meiner msi auch mal testen, aber solange das nur in Menüs einiger Spiele ist, wo ich vielleicht nach dem ersten Setup pro Spielstart 5 Sekunden verbringe, ist mir das sowas von egal....

-/\-CruNcher-/\-
2014-11-01, 13:50:58
Am meisten Betroffen denke ich mal könnte Valve werden die immernoch Source DX9 einsetzten und verdammt hohe FPS fahren ingame selbst.
Aber hier wird man sicherlich vorab getestet haben das man z.b bei der EXOC nicht über die 220 FPS kommt und Valve selbst hat ja auch geupdatet über die Jahre so das die Shader inzwischen auch besser genutzt werden sollten.

Und diese Real erreichbaren 220 fps nur ganz selten zustande kommen in einem Anwendungszenario für die Karte.

Wobei in meiner Systemkonfiguration mit dem alten Netzteil sind es eben diese 220 FPS wo es anfängt kritisch zu werden bei 210 FPS wird es schon böse 250 FPS sind unertragbar für mich persönlich, im Offscreen GFXbenchmark würd ich am liebsten wegrennen so schiss in der Hose bekomm ich von dem Geräusch im Alu test oder T-Rex da sind wir bei ca 700 fps Render Leistung.

aufkrawall
2014-11-01, 14:06:11
Das der Unterschied bemerkbar sein soll aufgrund der FPS ist unwahrscheinlich eher spielt hier der Latenzunterschied den du erfasst eine rolle.

Nein. Ob du 70 oder 77fps hast, bemerkt man. Bei den dreistelligen fps vielleicht weniger.
Die Frametimes sind nicht schlechter mit Maxwell. Erzähl doch keine Märchen, nur weil dargo auf einmal am Rad dreht.
Habe auch keine komischen ruckler mit Vsync etc...

-/\-CruNcher-/\-
2014-11-01, 14:10:03
Deine Einbildung möcht ich haben der content ist garnicht für solche FPS intern ausgelegt zumal dein Monitor da auch schon über dem Limit ist wie schnell er reagieren kann.

und zu deinem Frametimes sind nicht schlechter

http://techreport.com/r.x/geforce-gtx-980/c3-16ms.gif

Im default sind sie das (bzw waren es noch bei review)


Komisch hier fehlt ja was ;)

http://techreport.com/r.x/geforce-gtx-980/bf4-16ms.gif

http://techreport.com/r.x/geforce-gtx-980/dogs-16ms.gif

http://techreport.com/r.x/geforce-gtx-980/tr-16ms.gif

uweskw
2014-11-01, 14:10:16
Weil man nicht das Menü spielt,ist eh Blödsinn wie du von einer 4 auf 3GB ab zurüsten vorallem wenns dir um DSR geht.

Verblendet oder keine Ahnung?
1. Wenn ich im Spiel auf Pause gehe um mit jemandem zu reden, was zu trinken, mal was zu schaun....... wo bin ich da wohl? Im Menue mit 1200 FPS. Oder im Inventar, oder der Characterentwicklung oder....
2. Die meisten Spiele laufen auch unter 4k ne ganze ecke schneller mit der 780ti, Watchdog ist wohl bisher eine Ausnahme. Benchmarks gibts genug hierzu.

@krawall

Für mich ist das ständig variierende Gepfeiffe ein klarer Mangel. Ich geb doch keine 350 Öcken aus um mich dann ständig nerven zu lassen.:freak:
Geht ja auch anders. Mit meiner 780ti und vorher mit der 290 PCS. Hab ich bei der Rückgabe auch jeweils angegeben.

Greetz
U.S.

Thunder99
2014-11-01, 14:24:55
nach meiner Meinung sollte die Karte nicht fiepen können bis zur maximalen Hz Zahl des Monitors aktueller Stand der Technik. In dem Fall 144Hz. Es gibt aber auch 200Hz TVs wo es ebenfalls nicht fiepen sollte wenn man so einen betreibt

TobiWahnKenobi
2014-11-01, 14:29:29
nach meiner Meinung sollte die Karte nicht fiepen können bis zur maximalen Hz Zahl des Monitors aktueller Stand der Technik. In dem Fall 144Hz. Es gibt aber auch 200Hz TVs wo es ebenfalls nicht fiepen sollte wenn man so einen betreibt

es gibt sogar 400Hz geräte, nur hat das mal absolut keine vergleichbarkeit zur PC-technik, weil die fernseher das bild nur mit höherer frequenz ausgeben; annehmen tun sie trotzdem nur standardkost mit 23 bis 60Hz.


(..)

mfg
tobi

-/\-CruNcher-/\-
2014-11-01, 14:35:07
Da sind DSPs drin die machen eine FRC so wie bei Nvidia im Windows Media Player der fall dort kommt auch ein Realtime FRC zum Einsatz

Thunder99
2014-11-01, 14:40:05
Ok, danke für die Erläuterung :)

TobiWahnKenobi
2014-11-01, 14:42:09
Da sind DSPs drin die machen eine FRC so wie bei Nvidia im Windows Media Player der fall dort kommt auch ein FRC zum Einsatz

der WMP zeigt (z.b. mit fraps) die framerate an, die zum eingestellten refresh des primären displays passt. hier fehlt die erkennung für die framerate des eingangsmaterials.

player wie etwa powerDVD erkennen per se die framerate des videos und schalten auf wunsch den refresh des desktops auf die hertzen herunter, die zum video passen. welche grafikkarte respektive welcher IHV eingesetzt wird, ist dabei banane.


(..)

mfg
tobi

uweskw
2014-11-01, 14:43:29
nach meiner Meinung sollte die Karte nicht fiepen können bis zur maximalen Hz Zahl des Monitors aktueller Stand der Technik. In dem Fall 144Hz. Es gibt aber auch 200Hz TVs wo es ebenfalls nicht fiepen sollte wenn man so einen betreibt

Wichtig ist doch ob es beim normalen Betrieb auftritt oder nicht.
Liegt nicht an mir wenn die so programieren dass im Inventar/Menue 99% GPU Auslastung anliegt. Ist aber nix neues und die GraKa muss damit zurecht kommen.
Aber irgendwie darf man hier mit NV-Karten keine Probleme haben. Was nicht darf, kann nicht. Die sind schliesslich perfekt. Wenns um NV geht liegts eben grundsätzlich an was anderem. An Windows, am Spiel, am Mond, den Gutmenschen.... oder man ist nen Noob...:freak:

Greetz
U.S.

-/\-CruNcher-/\-
2014-11-01, 14:44:33
der WMP zeigt (z.b. mit fraps) die framerate an, die zum eingestellten refresh des primären displays passt. hier fehlt die erkennung für die framerate des eingangsmaterials.

player wie etwa powerDVD erkennen per se die framerate des videos und schalten auf wunsch den refresh des desktops auf die hertzen herunter, die zum video passen. welche grafikkarte respektive welcher IHV eingesetzt wird, ist dabei banane.


(..)

mfg
tobi

Keine Ahnung ob der FRC schon bei Kepler zum Einsatz kam bei Maxwell kommt er im Fullscreen zum Einsatz, dementsprechend ist der Shader Load auch höher

http://www.ld-host.de/uploads/images/ccd73dab63770a3ec882d9dc66ae417d.jpg


Das Display ist bei 60 Hz 120 supportet es nicht

TobiWahnKenobi
2014-11-01, 14:56:13
Keine Ahnung ob der FRC schon bei Kepler zum Einsatz kam bei Maxwell kommt er im Fullscreen zum Einsatz

http://www.ld-host.de/uploads/images/ccd73dab63770a3ec882d9dc66ae417d.jpg


Das Display ist bei 60 Hz 120 supportet es nicht

für mich unverständlich. der MPC-HC hat bei mir eine funktionierende frameratenerkennung und gibt korrekt die bilder aus, die auch kodiert wurden. hab das eben nur schnell mit einem 24fps hd-file und einem alten 25fps divx getestet. filmfreunde schalten also manuell besser auf einen refresh um, der zum video passt, wenn sie stotterfrei mit dem MPC-HC gucken wollen. also bei 25fps auf 25 oder 50, 75 oder 100. in den optionen gibt es dafür auch eine zuschaltbare automatik.

edit
MPC-HC wertet bei mir scheinbar auch mediainfo aus - ein kleines tool, das eig. auf keiner filmschleuder fehlen darf.


(..)

mfg
tobi

-/\-CruNcher-/\-
2014-11-01, 14:58:00
Nochmal das ist ein Realtime FRC

du wirst ihn nur mit EVR Default Renderer im Einsatz sehen

EVR Custom supportet ihn nicht dort musst du auf Vsync ausweichen

TobiWahnKenobi
2014-11-01, 15:12:27
Nochmal das ist ein Realtime FRC

du wirst ihn nur mit EVR Default Renderer im Einsatz sehen

EVR Custom supportet ihn nicht dort musst du auf Vsync ausweichen

kann ich irgendwie nichts mit anfangen - scheint eine überflüssige funktion zu sein, die mein system nicht kennt.

user startet video - player erkennt framerate - player schaltet auf passenden refresh - user sieht die bilder die kodiert wurden. <- das einzig richtige.

oder umständlich

user analysiert video mit mediainfo, wechselt manuell den windows-refresh passend zum file, user startet den film.

programme die das selbständig erledigen sind bei mir windows media center (über media control plugin), powerDVD (nativ) und MPC-HC (optional).

btw,
videos, die nativ mit 120fps aufgenommen wurden, habe ich nicht auf dem PC.


(..)

mfg
tobi

-/\-CruNcher-/\-
2014-11-01, 15:25:03
Es interpoliert die 120 FPS und das macht es verdammt gut, mit garnicht so viel overhead ;)

http://www.ld-host.de/uploads/images/a883648e5b244b36b32a6a8ae25930ac.jpg

TobiWahnKenobi
2014-11-01, 15:27:13
Es interpoliert die 120 FPS und das macht es verdammt gut, mit garnicht so viel overhead ;)

habe ich mir schon gedacht. sowas machen HDTVs und projektoren auch und ich bin seit äonen froh, dass man dieses verhalten abschalten kann. mich würde es nichtmal wundern, wenn diese art der zwischenbildberechnung in videospiele einfließt. da werden dann aus 24fps ganz schnell 120fps und die spieleentwickler können sich den regler für die bewegungsunschärfe verkneifen.


(..)

mfg
tobi

-/\-CruNcher-/\-
2014-11-01, 15:30:11
Mit sowas experimentiert Nvidia garantiert schon die Verbindung des DSP bietet noch eine menge Potential, die viele nichtmal erahnen können ;)

Sicherlich sehen wir auch hier den selben Algo der bei G-sync im Nvidia FPGA zum tragen kommt :)

Thunder99
2014-11-01, 15:42:29
Wichtig ist doch ob es beim normalen Betrieb auftritt oder nicht.
Liegt nicht an mir wenn die so programieren dass im Inventar/Menue 99% GPU Auslastung anliegt. Ist aber nix neues und die GraKa muss damit zurecht kommen.
Aber irgendwie darf man hier mit NV-Karten keine Probleme haben. Was nicht darf, kann nicht. Die sind schliesslich perfekt. Wenns um NV geht liegts eben grundsätzlich an was anderem. An Windows, am Spiel, am Mond, den Gutmenschen.... oder man ist nen Noob...:freak:

Greetz
U.S.
Meine Aussage ist IHV übergreifend :) nvidia ist bei weitem nicht perfekt aber in meinen Settings bin ich derzeit zu 100% zufrieden. Ich spiele halt auch zu 99,9% mit VSync on was ja auch einen Unterschied macht z.B. gegenüber zu dir ;)

aufkrawall
2014-11-01, 16:51:45
und zu deinem Frametimes sind nicht schlechter

http://techreport.com/r.x/geforce-gtx-980/c3-16ms.gif

Im default sind sie das (bzw waren es noch bei review)

Was du wieder fantasierst...
http://www.pcper.com/image/view/46645?return=node%2F61249
http://www.pcper.com/image/view/46565?return=node%2F61245
http://www.pcper.com/image/view/46605?return=node%2F61247

Dawn on Titan
2014-11-01, 17:19:53
Mit ATI-Tool pfeift es bei mir auch, zum Glück ist das Zirpen eher leise. In Spielen hatte ich bisher noch nicht die Frameraten, dass es zirpt.

Ich vermute mal das sind hohe dreistellige FPS, die nennt man im allgemeinen unauffällig.

Thunder99
2014-11-01, 17:28:54
Btw, meine fiept im Render Test von GPU-Z bei 350fps nicht :)

Eggcake
2014-11-01, 18:07:04
Also meine fiept auch deutlich bei den ATITools. Nur eben: mit Kopfhörern höhre ich das erstens nicht und zweitens sind dies 5k FPS :ugly:

Edit: Bei 200-300FPS (Furmark Test mit niedrigsten Settings) habe ich keinerlei Fiepen.

hasebaer
2014-11-01, 18:08:37
ist eh Blödsinn wie du von einer 4 auf 3GB ab zurüsten vorallem wenns dir um DSR geht.

Kommt halt aufs Spiel an.
Ich hab grad mal in Borderlands geschaut wieviel mehr die Auflösung dann VRam belegt und da sind es von FullHD auf 4K grad mal 280MB mehr.

aufkrawall
2014-11-01, 18:31:03
Bei Risen 3 verdoppelt sich der VRAM-Bedarf an manchen Stellen mit vervierfachter Auflösung (1440p -> 5k).
Da sind schon mal 3,4GB belegt. 5k ist wegen der Leistung natürlich fragwürdig, aber Risen 3 braucht auch eigentlich nicht viel VRAM.

Noch andere Tests mit gleichen Einstellungen wie oben (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10407707&postcount=3424):
BF4 Lancang Dam
970: 113fps
780 Ti 113fps

Risen 3 Kila
970: 67,4fps
780 Ti: 67,4fps

HQ vs Q Risen 3 Kila
970: 67,4fps vs 70fps
780 Ti: 67,4fps vs 70,8fps

Exakt gleich schnell, HQ ist GM204 minimalst teurer unter typischen Bedingungen.
Eine 970 OC kann also für 780 Ti Besitzer durchaus ein sinnvolles Sidegrade sein (wobei es jetzt zu spät für einen Verkauf ist).
Spätestens, wenn in ein paar Wochen mit 3GB Kompromisse gemacht werden müssen.

uweskw
2014-11-01, 19:02:16
@krawall
kannst du mal Bioshock mit beiden benchen?

hasebaer
2014-11-01, 19:40:34
Spätestens, wenn in ein paar Wochen mit 3GB Kompromisse gemacht werden müssen.

Dann ist eh ein erster GM200 Salvage aka GTX 980Ti mit 6GB Pflicht. ;)

aufkrawall
2014-11-01, 19:47:35
@krawall
kannst du mal Bioshock mit beiden benchen?
100€

Dann ist eh ein erster GM200 Salvage aka GTX 980Ti mit 6GB Pflicht. ;)
Dürfte die ein oder andere Ausnahme wie SoM geben, die den VRAM brauchen. Ich schätze und hoffe aber mal, dass mindestens 80% der Titel problemfrei mit 4GB bis 1600p laufen werden.
Watch Dogs soll nach dem letzten Update bei vielen ja nun auch deutlich besser laufen.
Von den 60fps sollte man sich mal wieder verabschieden, die lange Zeit herrschende leichte Erreichbarkeit derer war halt dem alten Konsolen-Krempel geschuldet. Gab vorher auch häufig Titel, wo man wesentlich niedrigere Bildraten bei den damals typischen Auflösungen hatte.

-/\-CruNcher-/\-
2014-11-01, 20:17:15
TressFX 2.0 test ?
Nvidia Hairworks test ?

http://developer.amd.com/tools-and-sdks/graphics-development/amd-radeon-sdk/#downloadsamples
https://developer.nvidia.com/gameworksdownload#?dn=nvidia-hairworks-1-0

http://www.ld-host.de/uploads/images/c52ae2c5f916f1d60005a009021db0a9.jpg

aufkrawall
2014-11-01, 20:56:15
Themenbezug?

-/\-CruNcher-/\-
2014-11-01, 21:23:16
Themenbezug?

Vergleich GTX 970 (Maxwell) vs 780 TI (Kepler)

http://www.ld-host.de/uploads/images/42766b1ea80fb7b9b80c38484dcd7ef7.jpg

hellibelli
2014-11-02, 01:16:00
Hallo,

ich wollte mal nachfragen ob es zu dem Lüfterproblem der MSI 970 GTX Gaming schon eine Lösung gibt?

Das der zweite Lüfter einfach auf 100% läuft im Desktopbetrieb!

hq-hq
2014-11-02, 09:39:46
glaube dafür gibts ein neues Bios "602-V316-03S-vbios126"
hilft aber nicht bei jedem :freak:

hellibelli
2014-11-02, 11:09:32
Hmm na sollte man ja Risikofrei mal testen können.

Hoffentlich hilft das Bios. Sonst hilft wohl nur RMA :(

hq-hq
2014-11-02, 11:36:53
hab grad gesehen das es schon ne v180 vom Bios gibt

https://forum-en.msi.com/index.php?topic=183618.450

einige sind wohl auf nen älteren Treiber gegangen dann wars angeblich weg .... komisch

Thunder99
2014-11-02, 12:22:50
Auch hier nochmal. Seit ich mit GPU-Z das BIOS ausgelesen hatte gab es im Inspektor eine "Modified" Meldung im BIOS Name und nach dem Neustart des Rechners ein "DEBUG"

Wer hat das noch beobachten können? Wirkt sich zumindest bis jetzt nicht negativ aus

-/\-CruNcher-/\-
2014-11-02, 12:44:32
Auch hier nochmal. Seit ich mit GPU-Z das BIOS ausgelesen hatte gab es im Inspektor eine "Modified" Meldung im BIOS Name und nach dem Neustart des Rechners ein "DEBUG"

Wer hat das noch beobachten können? Wirkt sich zumindest bis jetzt nicht negativ aus

trotzdem krass das sie den zugriff logen (so neu ist das jetzt nicht aber man hat es nie visuel gesehen)

sicher bin ich mir aber da nicht weil 1.9.7.2 zeigt diese daten nicht an könnte auch was von Orbmu2k sein der damit aufmerksam machen will das die OC daten verändert wurden und sich das ganze in einem Debug mode befindet, passt aber auch nicht logisch gesehen könnte man wirklich darauf schliesen das sie den Zugriff auf den Flash gelogt haben und 1.9.7.3 das nun anzeigt ;)

Weil du berichtest ja den ablauf ganz klar oder hast du eventuel OC gemischt nach dem auslesen und hattest noch 1.9.7.2 drauf ;)

hab es ja auch schon ausgelesen, somit müsste bei mir beim ersten start von 1.9.7.3 sofort [Modified] auftachen (testen wir mal)

Nur das readout des Flash schon als Modified zu loggen wäre aber echt übertrieben beim schreiben könnte man das ja verstehen


Übrigens NVapi ist schon nicht schlecht Sensortechnisch erkennt es sogar das auslesen mit der Print Screen taste als MCU load :)

BlacKi
2014-11-02, 12:54:04
die 970 soll ja demnächst ebenfalls mit 8gb kommen, glaubt ihr man wird mehr als 100€ aufpreis verlangen?

Rebell
2014-11-02, 12:58:55
die 970 soll ja demnächst ebenfalls mit 8gb kommen, glaubt ihr man wird mehr als 100€ aufpreis verlangen?

mindestens. Nvidia wird sich die 4GB gut bezahlen lassen. War doch immer so.

Schnoesel
2014-11-02, 13:02:55
Die 8GB waren doch der GTX 980 vorbehalten?

dildo4u
2014-11-02, 13:04:27
Die 8GB waren doch der GTX 980 vorbehalten?
Warum sollte das so sein?Die 780 gabs auch mit 6.

von Richthofen
2014-11-02, 13:12:16
Gibt's von den neuen Maxwells eigentlich Dual-BIOS Karten ? Die Verbreitung is da bei nV nich so hoch, oder?

aufkrawall
2014-11-02, 13:12:27
Gibt bisher aber auch keine Maxwell-Titan.

BlacKi
2014-11-02, 13:19:13
naja, wenn ich mir jetzt ne 4gb karte kaufe sollte ich genug speicher haben, aber wenn ich mir so spiele ansehe die bald erscheinen und mir watch dogs videos ansehe die den grafikspeicher verbrauch anzeigen, dann stellt sich bald die frage wann die 4gb limitieren werden, wenn ich jetzt die preise der 2gb 660ti vergleiche mit der 3 gb version gebraucht bei ebay oder 760 mit 2 oder 4gb, dann lege ich garnichtmal soviel mehr drauf bei 100€ mehr kaufpreis.

angeblich sollen sie noch im november kommen. ich bin mal gespannt.

-/\-CruNcher-/\-
2014-11-02, 13:23:16
@Thunder99

Deine Beobachtung lässt sich nicht bestätigen

http://www.ld-host.de/uploads/images/dfa45247b126a11a2012537498213e29.jpg
http://www.ld-host.de/uploads/images/0cf33a1188b0347ec7b23774b13e0eda.jpg

Es ist wahrscheinlich wie ich sagte eine Funktion von Orbmu2k bezüglich einer State Veränderung in seinem Programm die er damit visualisiert ;)

Changelog

Version 1.9.7.3

- updated setting constants until driver R343
- updated custom settings
- override reported default value for aa gamma correction and shader cache
- fixed donation link
- show memory vendor shortname after memory type
- you can now add "-silent" param after the nip file for silent profile import
- creating startup tasks will add 30sec task delay
- creating seperated startup tasks for each perf level
- fixed default values for non P0 state oc controls
- fixed MDPS apps drag & drop from non elevated desktop
- fixed ROP calculation for Maxwell 2 cards

aufkrawall
2014-11-02, 13:27:09
Die Version ist schon Wochen alt, warum du jetzt hier den Changelog posten musst...

-/\-CruNcher-/\-
2014-11-02, 13:32:15
Weil dort nichts von diesem State loging und display aufgeführt wird vielleicht [MODIFIED][DEBUG] ?

aufkrawall
2014-11-02, 13:33:54
Gibts schon ewig im Programm. Macht wohl einen CRC-Check o.ä.

-/\-CruNcher-/\-
2014-11-02, 13:38:43
Jo so wie ich das lese stellt es Profil Veränderung da wohl DEBUG Optionen die der Thunder99 da verändert hat in den Profilen und Orbmu2k das gleich so visualisiert damit er bescheid weis ob was an den Profilen geändert wurde wenn ihm ein Screenshot zufliest (und ob es eine test option ist die geändert wurde).

- further improved scan speed for modified profiles

Thunder99
2014-11-02, 13:42:59
Wie gesagt außer das auslesen des BIOS damit ich es File hab und Veränderung der Taktraten hab ich nichts verändert.

Was aber die Meldung verursacht ist bei mir das auslesen via GPU-Z 0.7.9 Beta (erstmals) sowie 0.8.0

Weitere kuriosität ist das ohne erreichen des PT und TT die Karte nicht den max Clock hält :confused:

-/\-CruNcher-/\-
2014-11-02, 13:46:05
Dann visulaisiert es die OC optionen nicht die Profil Veränderungen

ich hatte auch schon mit GPU-Z das bios angerührt bei mir steht kein [MODIFIED] oder [DEBUG]

ergo kann es das nicht gelogt haben jedenfalls nicht in Hardware bzw das wird damit nicht angezeigt, dafür würde Nvidia auch sicher nicht externen 3rd Party Entwicklern wie Orbmu2k oder Wizzard1 (selbst bei Unwinder würd ich das bezweifeln das er so tief Zugriff hat) den Zugriff über Nvapi geben ;)

Vor allem nur das Loggen des puren auslesens des Flash inhalts wäre zu krass vom Nvidia Watchdog ;)

hq-hq
2014-11-02, 14:00:34
Wie gesagt außer das auslesen des BIOS damit ich es File hab und Veränderung der Taktraten hab ich nichts verändert.

Was aber die Meldung verursacht ist bei mir das auslesen via GPU-Z 0.7.9 Beta (erstmals) sowie 0.8.0

Weitere kuriosität ist das ohne erreichen des PT und TT die Karte nicht den max Clock hält :confused:

also ich hab das Bios bei EVGA und ZOTAC ausgelesen bei mir gibts keine "modified" oder "debug".

In Anno 2070 hab ich das selbe Problem mit dem Boost der fällt trotz nicht
erreichten PT und TT auf bis zu 1455MHz. Wenn ich den Base-Clock weiter
anhebe das er z.B. 1500MHz halten könnte spackt die Grafikkarte ab. Mehr
geht dann halt mit 1,2125v nicht.

Thunder99
2014-11-02, 14:04:41
also ich hab das Bios bei EVGA und ZOTAC ausgelesen bei mir gibts keine "modified" oder "debug".

In Anno 2070 hab ich das selbe Problem mit dem Boost der fällt trotz nicht
erreichten PT und TT auf bis zu 1455MHz. Wenn ich den Base-Clock weiter
anhebe das er z.B. 1500MHz halten könnte spackt die Grafikkarte ab. Mehr
geht dann halt mit 1,2125v nicht.
Bei mir liegt nur 1,187V maximal an.

Ergo ist 1,5GHz auch mit der Spannung gekoppelt? :confused:

Edit: So langsam verstehe ich den Boost. Werden aus TT Gründen (wahrscheinlich alles über 79°C?) keine 1,21V an den Chip angelegt wird dieser auch nicht auf sein max. Boost takten können. Die Taktraten darunter sind eng mit der Spannung verknüpft. Ergo nur beeinflussbar durch den Offset den man sagt "mach 1,5GHz bei 1,18xV" wenn der Chip das kann. D.h. er muss >1,5GHz stabil bei 1,21V packen :idea: :freak:

woodsdog
2014-11-02, 14:23:50
Jo so wie ich das lese stellt es Profil Veränderung da wohl DEBUG Optionen die der Thunder99 da verändert hat in den Profilen und Orbmu2k das gleich so visualisiert damit er bescheid weis ob was an den Profilen geändert wurde wenn ihm ein Screenshot zufliest (und ob es eine test option ist die geändert wurde).

- further improved scan speed for modified profiles


Satzzeichen!!!!

aufkrawall
2014-11-02, 15:08:22
Guter OC-Stabilitätstest schein Risen 3 zu sein: Wenn man in den Himmel schaut, tauchen mit zu viel GPU-Takt sehr schnell aufploppende Vierecke auf. Minimiert man das Spiel und senkt eben den Takt, sind sie auch schon wieder verschwunden. Sehr komfortabel. :redface:
Anno 2070 oder BF4/Garden Warfare zeigten sich weniger anfällig für Fehler.

Hm, ich verstech auch nicht, warum recht schnell eine Booststufe runtergetaktet wird. Temperatur bei Spielen ist hier meist unter 69°C, PT in weiter Ferne. Unschön, aber mangels Bemerkbarkeit kein Beinbruch.

Thunder99
2014-11-02, 15:30:48
Evt noch eine weitere Schutz-Stufe? :confused:

hq-hq
2014-11-02, 15:31:01
Also ich bin mir fast sicher, dass es an der Spannung liegt wenn er den Boost
ab und zu senkt ohne das PT und TT erreicht sind.
Scheint es zu merken wenn ihm die Puste ausgeht :freak:
Immer noch besser als ab und zu in einen Treiberreset zu laufen :biggrin:

Thunder99
2014-11-02, 16:05:30
Also ich bin mir fast sicher, dass es an der Spannung liegt wenn er den Boost
ab und zu senkt ohne das PT und TT erreicht sind.
Scheint es zu merken wenn ihm die Puste ausgeht :freak:
Immer noch besser als ab und zu in einen Treiberreset zu laufen :biggrin:
Dem stimme ich voll und ganz zu :biggrin:

Was aber nice ist das meine bis jetzt out of the box max. 1506/3805 mit macht und typisch bei 1455/3805 bleibt in massiven Szenen. Dabei wird sie max. 83°C warm bei max. 122% PT (typisch bei 111%) :)

aufkrawall
2014-11-02, 16:08:55
Fast 15°C Temperaturunterschied. :eek:
Teste mal Risen 3 wie besagt, falls du das Spiel hast. :)
Bei meiner MSI Gaming senkt sich der Takt wirklich nur um eine Booststufe ab, wie es scheint.

BlacKi
2014-11-02, 16:37:02
warum macht ihr das? die mehr performance ist doch eh zu vernachlässigen, oder?

-/\-CruNcher-/\-
2014-11-02, 16:40:00
Dem stimme ich voll und ganz zu :biggrin:

Was aber nice ist das meine bis jetzt out of the box max. 1506/3805 mit macht und typisch bei 1455/3805 bleibt in massiven Szenen. Dabei wird sie max. 83°C warm bei max. 122% PT (typisch bei 111%) :)

Nicht die Spawas vergessen es gibt keine aussreichenden tests mit dem alten Bios wie warm die da bei dir jetzt sind und was das bedeutet nur panik von Galax die das am liebsten so wie du das hast bei 60°C sehen würden

Auf die super leichte schulter würde ich das bevor wir keine ordentlichen infrarot test bilder ohne backplate haben aber nicht so nehmen, du darfst auch nicht vergessen wir haben Winterzeit auch wenn das bei dir jetzt funktioniert für länger behalt deine ambient temperatur im auge für nächsten sommer

Thunder99
2014-11-02, 17:19:18
Das mag sein, aber wenn die Karte bei maximaler Belastung derzeit sowieso auf minimal 1,125V geht ist doch die Belastung der SpaWas niedriger als bei 1,21V oder? :confused: Ich werde mit Sicherheit nicht das neue BIOS verwenden sondern darauf ankommen lassen. Wenn die Karte abraucht gibt es sowieso genug Modelle am Markt und die Wartezeit auf ein Austausch Modell wird gering sein :)

Und wieso ich das mache mit dem OC? Da der geringe Zuwachs an fps genau das ist wo ich noch brauche das es flüssiger läuft als mit 1255MHz ;)

-/\-CruNcher-/\-
2014-11-02, 18:11:14
Jo logisch gesehen da Proportionales verhalten zum Verbraucher (GPU) je höher die GPU Spannung je heiser wird der Spannungswandlerbereich.

Nur du gehst hier von Spannungsdaten aus die dir ein Tool in Windows anzeigt die schaltzeiten liegen ja bei Boost bei irgendwo 100 ms und man sieht ja bei THG wie schnell sich da der verbrauch ändert und wie prezisse sie messen müssen um das zu erfassen.

Nvidias RTOS im Chip kann das viel schneller erfassen als wie die Daten in Windows landen und ich hoffe ja das bei einer VRM überlastung oder drohenden die karte sofort stopt

Deswegen wundert es mich ja auch das Galax trotzdem zu einem neuen Bios durch die Reviewer rät, aus spaß machen die das sicher nicht.

Schau sich mal einer dieses beast von Galax an ;)

http://galax.net/europe/970hof.html

Ihre konkurenz zu Zotac :D

-Integrated Mosfeet Heatsink (moment mal haben wir den nicht auch drauf auf der Exoc ?)

oder war das die Asus Strix ?

oha hier wird Bios customisation sogar beworben ?

-Hardware dual BIOS simplifies the tweaking process by enabling risk-free firmware updates and customisation

Glaube MSI wird sich auf dieses Spielchen aber diesmal in der Preisklasse nicht einlassen und die 2 Gamings bleiben die einzigen von MSI bis BIG Max kommt ;)

Thunder99
2014-11-02, 18:45:10
Jo logisch gesehen da Proportionales verhalten zum Verbraucher (GPU) je höher die GPU Spannung je heiser wird der Spannungswandlerbereich.

Nur du gehst hier von Spannungsdaten aus die dir ein Tool in Windows anzeigt die schaltzeiten liegen ja bei Boost bei irgendwo 100 ms und man sieht ja bei THG wie schnell sich da der verbrauch ändert und wie prezisse sie messen müssen um das zu erfassen.

Nvidias RTOS im Chip kann das viel schneller erfassen als wie die Daten in Windows landen und ich hoffe ja das bei einer VRM überlastung oder drohenden die karte sofort stopt

Deswegen wundert es mich ja auch das Galax trotzdem zu einem neuen Bios durch die Reviewer rät, aus spaß machen die das sicher nicht.

Schau sich mal einer dieses beast von Galax an ;)

http://galax.net/europe/970hof.html

Ihre konkurenz zu Zotac :D


Glaube MSI wird sich auf dieses Spielchen aber diesmal in der Preisklasse nicht einlassen und die 2 Gamings bleiben die einzigen von MSI bis BIG Max kommt ;)
Und wie :D Doch ich bezweifle das die Karte deutlich höher kommt als unsere :D

-/\-CruNcher-/\-
2014-11-02, 18:54:59
Und wie :D Doch ich bezweifle das die Karte deutlich höher kommt als unsere :D

Würd ich nicht sagen die Komponenten scheinen hochwertiger und sie geben die selben 42A wie bei der EXOC an trotz jetzt 2x8 pin :)

zudem garantieren sie quasi 1500 Mhz on air wobei das im vergleich zur MSI dann keine wirkliche Meisterleistung scheint aber mit 7 Heatpipe hier hat die MSI 0 chance da hast du recht und bis zu 2100 Mhz mit dem Chip binning :D

Der Preis hat sich bestimmt gewaschen schätze mal Region Zotac AMP ;)

Wenn sie es schaffen die Zotac AMP zu schlagen in Preis und Leistung (Geräuschlevel) dann wäre der MSI fail nicht so extreme tragisch ;)


Wobei wenn man sich mal anschaut diese Karten sind einfach verrückt überdimensionierte Stromschlucker ;)

Die Exoc ist echt noch akkurat von der Balance

Schaffe89
2014-11-02, 20:15:56
Wenn man sich die Zahlen der bisherigen Fiep-Umfrage ansieht, sieht es nicht besonders gut für Nvidia aus.

Während ca jede 7 AMD High End Karte fiept, fiept bei Nvidia fast jede 2.te.
Das Ergebnis wird wohl die 9XX Reihe versauen, wo bisher jede GTX 970 bei mir unerträglich fiepte.

hq-hq
2014-11-02, 20:20:41
integrated mosfet heatsink, musst halt seitlich mal gucken ob du
was sehen kannst. Die EVGA hat einen Alukühler und die Zotac Omega
nur ein besseres Blech :freak: allerdings verteilt sich die Wärme ja auf
ein paar mehr Bauteile :D
ne stimmt nicht, das Blech war für die RAM Bausteine, die 8 Phasen für GPU haben
Kühlkörper die 2 Phasen für RAM haben nix dafür sind das 8 Bausteine

achja wegen dem Fiepen, man hätte vielleicht noch einbauen sollen z.B. Fiepen bei 60Hz ?, bei 144Hz ?

Peter Gräber
2014-11-02, 20:22:18
Zur Galax: Das scheint ein GTX 980 Board zu sein, oder zumindest die geplante NVIDIA-Referenzplatine für die GTX 970, die von den Ausmaßen her identisch zur 980-Platine war.

Zum Fiepen: hatte noch immer keine Karte hier, die sich ungewöhnlich verhielt. Alles unter typischen 200 bis 300 FPS war fiepfrei - in Menüs mit 1000 FPS oder im ATI-Tool mit weit über 1000 FPS fiept eigentlich jede Grafikkarte an die ich mich erinnern kann - auch die Referenz 980 und das Geräusch wird durch das verkapselte Kühlerdesign deutlich gedämpft.

hq-hq
2014-11-02, 20:27:33
Ja Herr Gräber, so kenn ich das beim Fiepen auch :smile:

-/\-CruNcher-/\-
2014-11-02, 20:35:17
Zur Galax: Das scheint ein GTX 980 Board zu sein, oder zumindest die geplante NVIDIA-Referenzplatine für die GTX 970, die von den Ausmaßen her identisch zur 980-Platine war.

Zum Fiepen: hatte noch immer keine Karte hier, die sich ungewöhnlich verhielt. Alles unter typischen 200 bis 300 FPS war fiepfrei - in Menüs mit 1000 FPS oder im ATI-Tool mit weit über 1000 FPS fiept eigentlich jede Grafikkarte an die ich mich erinnern kann - auch die Referenz 980 und das Geräusch wird durch das verkapselte Kühlerdesign deutlich gedämpft.

Das hab ich ja selbst so auch schon in meinem eigenen fiep test hier dargestellt

Nur die Palit Jetstream scheint zum dauer fiepen bei normaler last zu tendieren da die Jetstream das selbe leise Kühler Design wie die MSI Gaming hat ist das richtig böse von der erfassbarkeit ;)

Die liste von Computerbase ist jetzt so das beste was man zum Fiepproblem gesehen hat, weil ja auh gleich 11 Modele auf den prüfstand kommen

http://www.computerbase.de/2014-10/nvidia-geforce-gtx-970-test-roundup-vergleich/4/

Aber die Gainward Reference ist und bleibt der ober hammer wer das geräuschspektrum des lüfter überhaupt irgendwie ertragen kann hat entweder nerven aus stahl, seinen PC Kugelsicher und absolut Luftdicht verpackt oder ein kaputtes gehör durch das aufdrehen seiner kopfhörer auf volle pulle.

Das muss ein Montagsmodel sein oder ein anderer Reviewer hat sie irgendwie beschädigt sowas kann Gainward doch nicht ernsthaft durchlassen ?


@Hq-Hq
Und ja die Exoc hat den Passiven Kühlkörper auch wenn er im Marketing nicht explizit hervorgehoben wird wie bei der HOF, hab ihn ja selbst gesehen von der seite ;)

http://media.bestofmicro.com/5/6/457674/original/02-Galax-GTX-970-EXOC-View-Bottom.jpg
http://media.bestofmicro.com/5/9/457677/original/02-Galax-GTX-970-EXOC-View-End.jpg

Bei der HOF wird mal gleich ein Feature daraus das man explizit erwähnen muss lol targeted Marketing so durchschaubar, oder aber sie meinen das sie die den Heatsink bei der HOF in die Mosfets selbst integriert haben ein Research durchbruch also by Galax das muss dann natürlich extra Erwähnung finden :D

BlacKi
2014-11-02, 21:19:58
Wenn man sich die Zahlen der bisherigen Fiep-Umfrage ansieht, sieht es nicht besonders gut für Nvidia aus.

Während ca jede 7 AMD High End Karte fiept, fiept bei Nvidia fast jede 2.te.
Das Ergebnis wird wohl die 9XX Reihe versauen, wo bisher jede GTX 970 bei mir unerträglich fiepte.

es mag sein das das fiepen bei den nvidiakarten vermehrt auftritt, aber eigentlich ist das ja ein herstellungs problem der kartenhersteller. ich denke es liegt schlichtweg an der qualität der bauteile. das haben die hersteller in der hand.

Merkor
2014-11-02, 21:29:16
hab grad gesehen das es schon ne v180 vom Bios gibt

https://forum-en.msi.com/index.php?topic=183618.450

einige sind wohl auf nen älteren Treiber gegangen dann wars angeblich weg .... komisch

Es hat wohl mit Treiber und BIOS nichts zu tun. Es handelt sich wohl um ein mechanisches Problem. Ich würde die Karte sofort reklamieren. Mein läuft noch. Toi toi toi...

Achtung: Das 180er BIOS ist für eine Karte mit Hynix-Speicher gedacht. Die BIOSe der 12x-Serie sind für die Karten mit Samsung-Speicher. Das hat ein Moderator im MSI-Forum geschrieben.

-/\-CruNcher-/\-
2014-11-02, 21:46:31
es mag sein das das fiepen bei den nvidiakarten vermehrt auftritt, aber eigentlich ist das ja ein herstellungs problem der kartenhersteller. ich denke es liegt schlichtweg an der qualität der bauteile. das haben die hersteller in der hand.

Tomshardware dazu durch lesen das ding ist Komplexer geworden das schnelle switching fordert viel ab von den Komponenten das die AIBs jetzt versuchen sich zu überbieten wer die billigsten komponenenten findet die noch standhalten an ihrem gesetzen Design Limit sollte ja logisch sein ;)

Einige übertreiben es dann aber mit Geiz ist Geil zu sehr (cents zählen) ;)

Hier solllte Nvidia eine ganz klare Quality Linie vorgeben die erfüllt werden muss auch wenn das bedeutet das AIBs gehen werden müssen.

Der Rest geht an Gamer und Overclocker getarnt für ordentlichen Aufpreis

hq-hq
2014-11-02, 22:01:11
@CruNcher, passiv ist der ja nicht, bläst bei der EXOC doch ein Lüfter drauf...

daß es so fiept liegt wohl eher daran, dass man bei der Auswahl an Bauteilen dem
Fiepen keine (große) Beachtung geschenkt hat.

Die Omega hat "ganz" andere FETs und Spulen drauf wie EVGA und dadurch
hört sie sich auch anderst an, aber ganz ohne dem Pfeiffen gehts hier auch nicht.
8 Phasen 3 oder 4Phasen.... hilft alles nix :-D

-/\-CruNcher-/\-
2014-11-02, 22:10:57
@CruNcher, passiv ist der ja nicht, bläst bei der EXOC doch ein Lüfter drauf...

daß es so fiept liegt wohl eher daran, dass man bei der Auswahl an Bauteilen dem
Fiepen keine (große) Beachtung geschenkt hat.

Die Omega hat "ganz" andere FETs und Spulen drauf wie EVGA und dadurch
hört sie sich auch anderst an, aber ganz ohne dem Pfeiffen gehts hier auch nicht.
8 Phasen 3 oder 4Phasen.... hilft alles nix :-D

jo die billigsten karten haben komischerweise aber die schlimsten geräuschspektren, man merkt einfach wo mehr investiert wird in der Entwicklung, Design und QC :)

Und touche ist fake aktiv so gesehen wobei in meinem verständnis da ein extra lüfter drauf sein muss um es aktiv zu nennen und das unmittelbar oben drauf auf den kühlkörper, glaube nicht das der kontakt zur heatpipe hat siehst ja auch deutlich den schlitz (freiraum) ;)

Da einen extra lüfter draufzukriegen wird aber in der tat schwierig ;)

Was ich im Desing nicht verstehe wieso sie nicht den Vorderen Lüfter angelassen haben anstelle vom hinteren