PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 780: (P)Review-Thread


Seiten : 1 [2] 3 4

akuji13
2013-05-27, 16:30:04
Es kann nie etwas Sinn machen höchstens Sinn ergeben ;-)

http://www.iaas.uni-bremen.de/sprachblog/2009/01/12/seit-wann-machen-wir-im-deutschen-sinn/ ;)

Das läuft nicht?

Sagt der Profi zum Laien! :eek:
Was macht ihr eigentlich mit meiner ganzen Abo-Kohle? :D

Raff
2013-05-27, 16:49:15
Besäße ich die Allwissenheit, müsste ich nicht den ganzen Tag für wenig Geld Blödsinn testen. :tongue:

MfG,
Raff

akuji13
2013-05-27, 16:51:49
Dann wirds umso mehr Zeit das mal auszutesten.
Ist bei euch doch einfacher als bei mir, ich muss erst das Gehäuse öffnen. :D

aufkrawall
2013-05-27, 17:13:03
/e: eine einfache Lösung wäre doch eine Sicherung irgendwo einzubauen die bei Spannungserhöhung durchbrennt. Spannungserhöhung ist nur über ein zweites BIOS möglich das per manuellem Schalter aktiviert werden muss.
Meinst du, das geht mit Boost recht unproblematisch? Auch ist bei Factory-OC ja auch gerne mal die Spannung zu niedrig gewählt, was dann per offiziellem bios-flash gefixt werden muss. Dann müsste man so gesicherte Karten extra einischicken.

Vielleicht sollten die Hersteller auch nicht bei den Elektronikbauteilen alles kaputt sparen, dann wäre moderates OC mit moderator Spannungserhöhung unter Luft sicherlich kein Problem bei guter Kühlung.
Sonst stinken mir abstinkende Elkos ein wenig nach geplanter Obsoleszenz...

aufkrawall
2013-05-27, 17:49:16
*edit* delete plz

Skysnake
2013-05-27, 18:19:41
Meinst du, das geht mit Boost recht unproblematisch? Auch ist bei Factory-OC ja auch gerne mal die Spannung zu niedrig gewählt, was dann per offiziellem bios-flash gefixt werden muss. Dann müsste man so gesicherte Karten extra einischicken.

Vielleicht sollten die Hersteller auch nicht bei den Elektronikbauteilen alles kaputt sparen, dann wäre moderates OC mit moderator Spannungserhöhung unter Luft sicherlich kein Problem bei guter Kühlung.
Sonst stinken mir abstinkende Elkos ein wenig nach geplanter Obsoleszenz...
Ja geht es....

Spannungsanhebung usw usw läuft ja alles über den Treiber.

Häng einfach 1-2 Sicherungen vor die entsprechenden Einheiten, und gut ist. Du kannst da über L2C usw usw ja Hardwareabfragen machen. Register eignen sich auch super dazu.

Du kannst also sagen <1,0V keine Kaputt, >1,0<1,2V eine kaputt. >1,2V 2 kaputt, oder du kannst es sogar so machen, dass du nen kleinen Flash mit drauf packst, den du eh für das BIOS brauchst, der eben NUR zulässt höhere Werte ein zu tragen, aber nicht niedrigere. Das ist nen miniwinzig kleiner Logikchip, bzw kannste das auch wieder über Logik auf dem DIE machen, die eben dann das BIOS schreibt.

Also Möglichkeiten gibts da wie Sand am Meer. Man muss nur wollen...

aufkrawall
2013-05-27, 18:29:46
Das spricht sich rum. Dann geht man halt lieber zur Konkurrenz, die lauter Schrott verbauen, dafür aber OC ermöglichen.

Bei GK104 macht Spannungserhöhung (bis 1,2125V) btw. relativ wenig Sinn, der Performancegewinn ist meist minimal. Da kann mans auch gleich sein lassen und die Gängelung seitens NV leicht akzeptieren.

Die Custom 780 kann man doch geil clocken (die EVGA sollte es aushalten), Titan ist eh für 99% uninteressant und wie NV bei einem etwaigen "Titan Ultra" handelt, wird sich zeigen. Also mal locker durch die Hose atmen.

Duplex
2013-05-27, 23:42:04
Jetzt für 554 Euro bei HWV erhältlich (4x Karten für 2216,-)

http://www.hardwareversand.de/articledetail.jsp?aid=80256&agid=1670&pvid=9mld7m3yl_0&ref=27

http://abload.de/thumb/780i4u1g.jpg (http://abload.de/image.php?img=780i4u1g.jpg)

Darkman.X
2013-05-28, 02:34:22
Wie sieht es eigentlich bei den 780er aus? Sind die kompletten GraKas wieder von nVidia hergestellt (wie bei der Titan), oder baut sie jeder Hersteller (Asus, Gigabyte, usw.) selber zusammen, wo man bei ganz sparsamen Herstellern vielleicht Spulenfiepen erwarten darf?

Nightspider
2013-05-28, 02:37:56
Würde mich wundern, wenn die 780 fiepen würde. Ich denke die Platinen sind bei allen Modellen gleich.

Loeschzwerg
2013-05-28, 11:26:45
Evtl. kann jemand der in HWLuxx angemeldet ist die Redaktion darauf hinweise dass der NV Inspector nicht die korrekte GPC Anzahl auslesen kann bzw. die aufgezeigten GPC nicht mit der Füllrate zusammenpassen. Das zeigen zumindest die aktuellen Werte.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/26441-meldung-ueber-geforce-gtx-780-mit-4-oder-5-gpcs.html

Vermutung: NV Inspector greift wie GPU-Z nur auf eine interne Datenbank zu bzw. zieht sich Daten aus dem Treiber...

Einziger sichere Weg bleibt momentan der Füllratentester:
http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/276246-geforce-gtx-780-mit-4-oder-5-graphics-processing-clusters-die-hintergruende-4.html#post5307080

http://www.3dcenter.org/download/fillrate-tester

Edit: Und falls die Angabe doch stimmen sollte haben wir den Beiweis das es nicht ins Gewicht fällt ^^

dildo4u
2013-05-28, 15:14:14
Grid 2 im Technik-Test mit 16 Grafikkarten-Benchmarks: Stemmt Ihr PC die DX11-Edelgrafik?

http://www.pcgameshardware.de/Race-Driver-Grid-2-PC-239144/Tests/Grid-2-Test-Benchmarks-1071271/

Könnten wir in Zukunft öfter zu sehen bekommen 680 hat Probleme mit Compute Shadern.(-30% mit erweiterter Beleuchtung)Damit könnte sich der Aufpreis der 780 auf lange Sicht eher rechnen.

Skysnake
2013-05-28, 15:22:59
Autsch, der Einbruch ist echt heftig, vor allem wenn man sich anschaut, dass die anderen deutlich schwächer einbrechen. Besonders krass finde ich aber das Verhalten der HD7970. Die bricht am schwächsten ein.

Wenn ich mir Supersamlping und auch die 1600p Ergebnisse so anschaue, dann frage ich mich schon, ob die GTX780 ihren Preis gerechtfertigt ist.

Es wird ECHT spannend, ob das mit GRID2 jetzt nur ein ausreiser ist, oder sich das Bild in neueren Engines/Games so festigt. Wenn ja, dann haben die Tahiti-Käufer am Anfang echt nen guten Schnitt gemacht.

Ich versteh allerdings echt nicht, warum nVidia da stärker einbricht. Bei GK104 ist es ja verständlich und ok, aber bei GK110???

Also das überrascht mich jetzt doch. :confused:

Eventuell noch nen "Murks"-Treiber von nVidia???

dildo4u
2013-05-28, 15:24:13
Bei Showdown haben sie +20% per Treiber geschafft muss man abwarten.

DiRT Showdown: Performance increased by 19.6% at 2560x1600 using max settings and 8xMSAA.

http://www.geforce.com/whats-new/articles/nvidia-geforce-320-18-whql-drivers-released

Wenn das für alle Karten geht sind Titan und 780 natürlich weit weg.

derguru
2013-05-28, 15:24:50
ich sehe grid 2 zum ersten mal in bewegung,sieht wirklich top aus vor allem die beleuchtung.:biggrin:

benchwerte waren zu erwarten,gtx680 ist nun mal eine performancegpu.:D

fondness
2013-05-28, 15:30:15
Bei Showdown haben sie +20% per Treiber geschafft muss man abwarten.


Die +20% gab es erst ein Jahr nach Veröffentlichung, da interessiert das keinen mehr. Hoffentlich geht das bei Dirt2 schneller.

Raff
2013-05-28, 15:52:41
Die +20% gab es erst ein Jahr nach Veröffentlichung, da interessiert das keinen mehr. Hoffentlich geht das bei Dirt2 schneller.

Ich erinnere da gern an den AMD'schen "Wundertreiber" für Battlefield 3, der genau ein Jahr nach Release erschien ... ;) Nimmt man IMO doch gern mit. Okay, das Spiel ist wegen des Multiplayer-Modus auch recht "zeitlos".

Zum eigentlichen Thema: Ich denke nicht, dass Nvidia völlig unvorbereitet den Asphalt betritt – die Treiberverbesserungen für Dirt Showdown werden nicht komplett an Grid 2 vorbeigehen.

MfG,
Raff

PHuV
2013-05-28, 23:33:43
Frage: Gibt es durch die abgeschaltetenDouble-Precision-Leistung bei der 780er irgendwie ein Nachteil, z.B. bei der Videoberechnung oder anderweitigen CUDA-Berechnungen?
Kann keiner dazu was sagen? :confused:

PCGH_Carsten
2013-05-28, 23:45:10
Außer für echte wissenschaftliche Anwendungen gibt's derzeit m.W. keine Notwendigkeit für Double Precision.

Loeschzwerg
2013-05-29, 07:19:34
Bei mir alles stock, zum OC bin noch nicht gekommen, da eigentlich unnötig.

Display adapter: NVIDIA GeForce GTX 780
Driver version: 9.18.13.2018
Display mode: 1920x1080 R5G6B5 120Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 31346.351563M pixels/sec
FFP - Z pixel rate - 201317.187500M pixels/sec
FFP - Single texture - 32279.494141M pixels/sec
FFP - Dual texture - 32538.468750M pixels/sec
FFP - Triple texture - 28559.669922M pixels/sec
FFP - Quad texture - 26383.394531M pixels/sec
PS 1.1 - Simple - 32686.957031M pixels/sec
PS 1.4 - Simple - 31928.121094M pixels/sec
PS 2.0 - Simple - 32683.705078M pixels/sec
PS 2.0 PP - Simple - 32687.998047M pixels/sec
PS 2.0 - Longer - 32285.904297M pixels/sec
PS 2.0 PP - Longer - 32285.050781M pixels/sec
PS 2.0 - Longer 4 Registers - 32690.279297M pixels/sec
PS 2.0 PP - Longer 4 Registers - 32689.808594M pixels/sec
PS 2.0 - Per Pixel Lighting - 25688.921875M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 25663.705078M pixels/sec
=> http://www.hardwareluxx.de/community/f14/meldung-ueber-geforce-gtx-780-mit-4-oder-5-gpcs-2-update-960207-5.html#post20675786

Es ist auch folgende Aufteilung der SMX möglich:
3 GPCs mit 3x SMX => 8 Pixel
1 GPC mit 2x SMX => 8 Pixel
1 GPC mit 1x SMX => nur 4 Pixel da nur 1 SMX

Ergo hätte man 36 Pixel * 863MHz => 31068 M pixels/sec

Natürlich kann hier auch der Boost Clock das Ergebnis verfälschen. Es wäre daher sinnvoll den Takt zu fixieren.

Bis jetzt sieht es so aus als bliebe es bei 4 GPCs bei der GTX 780.

@HWLuxx: Ihr solltet vielleicht eure exakten Modell (gibts ja auch Superclocked usw.) posten und den Takt nebenbei mit einem Tool auslesen und dazuschreiben. Ebenfalls sollten alle die gleichen Einstellungen beim Füllratentester verwenden.

LSSJBroly
2013-05-29, 08:50:35
Ich teste später meine 780 auch noch, wie viel Füllrate die hat, wenn die da ist :) (natürlich dann mit festen 863 MHz).

Dural
2013-05-29, 09:17:42
Grid ist doch ein AMD gesponsertes Game? War jedenfalls bei Dirt schon so und die AMD Karten liefen da auch immer sehr gut.
Da es die selbe Engine wie in Dirt2 ist, verwundert das ja nicht wirklich.

Knuddelbearli
2013-05-29, 09:28:09
gesponsort hat ( sobald treiber angepasst sind ) nicht viel zu sagen

gibt etliche spiele die von NV gesponsort wurden und dann auf amd besser liefen und umgekehrt.

Einzige ausnahme sind Spiele wo Proprietäre Software genutzt wurde, da das aber nur NV macht ... :biggrin:

Raff
2013-05-29, 09:29:21
Hier ist ein "Sponsor" gaaanz unauffällig abgebildet: http://www.pcgameshardware.de/Race-Driver-Grid-2-PC-239144/News/Grid-2-Exklusive-Grafikeffekte-fuer-Haswell-1071513/ ;)

MfG,
Raff

M4xw0lf
2013-05-29, 09:33:35
Hier ist ein "Sponsor" gaaanz unauffällig abgebildet: http://www.pcgameshardware.de/Race-Driver-Grid-2-PC-239144/News/Grid-2-Exklusive-Grafikeffekte-fuer-Haswell-1071513/ ;)

MfG,
Raff

Exklusive Grafikfeatures für Intels (!) IGPs (!!) einzubauen ist einfach nur albern. Aber offenbar hat der blaue Riese ja tief in die Tasche gegriffen... ;)

MadManniMan
2013-05-29, 10:15:43
Sind das überhaupt Features, die die Optik aufpolieren, oder geht es da nur um Performance?

boxleitnerb
2013-05-29, 10:19:57
So wie ich das verstanden habe, ist es durchaus Optik. Man hat volumetrischen Rauch und nicht mehr diese typischen Artefakte, wenn die Rauchwolke auf Flächen trifft.

Skusi
2013-05-29, 10:40:51
Exklusive Grafikfeatures für Intels (!) IGPs (!!) einzubauen ist einfach nur albern. Aber offenbar hat der blaue Riese ja tief in die Tasche gegriffen... ;)

Marketingtechnisch aber irgendwie genial. Der Titan kann es nicht darstellen, aber deine Intel IGP.;D

Raff
2013-05-29, 10:56:13
Titan bzw. Kepler beherrscht im Gegensatz zur Intel-IGP ja auch kein DX11.1. :ulol:

MfG,
Raff

M4xw0lf
2013-05-29, 11:13:03
Oh richtig. Nvidia bekommt ja von Intel (achja, und AMD) demonstriert, wie man moderne GPUs baut.:lol:

MadManniMan
2013-05-29, 11:27:05
Also bekommt man von aktuellen Radeons die ganze Optik-Breitseite bei Grid 2?

Raff
2013-05-29, 12:02:47
Nope, die Intel-Features lassen sich nicht aktivieren. Auch nicht per Config (siehe PCGH-Techniktest).

MfG,
Raff

M4xw0lf
2013-05-29, 12:19:23
Dass OIT Intel vorbehalten ist, finde ich nach wie vor sehr merkwürdig. Das ist doch ein generelles DX11-Feature, und sollte daher für alle DX11-fähigen Chips zur Verfügung stehen - also was is da los?

Hübie
2013-05-29, 12:25:16
Und mit fake vendor / device id? Es ist ja nicht so das intel da zaubern könnte. Es sei denn die ham da echt was in Stein (Hardware) gemeißelt. Oit erfordert afaik viel Registerraum wenn ich mich nicht täusche. Aber das können unsere Spezies sicher beantworten ;)

Die 780 turnt mich an. Der Preis muss noch etwas sinken dann könnte vielleicht sogar ein SLi meine beiden Thermis ersetzen.
WANN KOMMEN OC ERGEBNISSE VON EUCH? ;D

AnarchX
2013-05-29, 12:35:43
Dass OIT Intel vorbehalten ist, finde ich nach wie vor sehr merkwürdig. Das ist doch ein generelles DX11-Feature, und sollte daher für alle DX11-fähigen Chips zur Verfügung stehen - also was is da los?

Ist eine spezielle Implementierung für die HSW GT3e GPUs: http://www.anandtech.com/show/6863/intels-pixelsync-instantaccess-two-new-directx-extensions-for-haswell

Skysnake
2013-05-29, 12:51:53
Marketingtechnisch aber irgendwie genial. Der Titan kann es nicht darstellen, aber deine Intel IGP.;D
Naja, das ist ja eigentlich nur Order IndependentTransparence, also nichts, was nicht auf jeder DX11 Karte eigentlich geht... :rolleyes:

Intel hat dem halt nen neuen Namen gegeben, und gut ist... Was ziemlich :down; ist...

Eventuell nutzen Sie aber auch so Sachen wie zeroCopy direkt. Keine Ahnung, da müsste man mal Intel fragen,was da wirklich der Unterschied ist. Unterm Strich ist es aber ziemlich bescheiden, da wieder ne Extrawurst drehen zu müssen...

dildo4u
2013-05-29, 13:00:58
Ziehmlicher Murks weil man so nie alle Details nutzen kann der IGP wird mit Ultra Details total einbrechen.

Spasstiger
2013-05-29, 13:07:48
benchwerte waren zu erwarten,gtx680 ist nun mal eine performancegpu.:D
Die Radeon HD 7870 ist aber auch nur eine Performance-GPU und hält ganz gut mit. Immerhin gleichauf mit der GeForce GTX 670 bei max. Details oder sogar leicht vor der GTX 670 (2560x1600 oder SGSSAA). Der Vorsprung der Radeon HD 7950 Boost ("High-End-GPU") liegt mit 18% bis 22% im üblichen Rahmen.

Raff
2013-05-29, 15:47:00
Die Hintergrundgeschichte zu Grid 2: Grid 2 Benchmark-Evaluierung: Darum sind 75 Streckentests nötig (http://www.pcgameshardware.de/Race-Driver-Grid-2-PC-239144/Specials/Grid-2-Strecken-im-Benchmark-Test-plus-Screenshots-1071499/)

PCGH hat demnach den "Worst Case" auserwählt.

MfG,
Raff

Godmode
2013-05-29, 15:47:50
Das war sicher lustig das zu ermitteln. :eek:

Angiesan
2013-05-29, 15:53:25
Ach ich denke da hat unser lieber Raff Freude und Arbeit verbunden:biggrin:
Und hat sich wohl gedacht wenn schon Test dann richtig, dann ist das zuerst auch mal gespielt ;D

Aber schmälert nicht die Klasse des Tests=)

Knuddelbearli
2013-05-29, 15:57:59
hmm interessant gewesen wäre es wenn es zu jeder strecke ein NV und AMD Beispiel gäbe

was nützt es wenn man die strecke mit den geringsten fps nimmt wenn dort zB beide gleich auf sind im rest des Spieles aber NV 20% flotter ist

Captain Future
2013-05-29, 16:08:41
Dann aber bitte noch mit Intel und AMD CPU, sowie SMT an/aus. Da bremst öfter was als man denkt und in Crysis 3 war AMD ja sogar flotter.

Knuddelbearli
2013-05-29, 16:46:11
das ist dann die CPU Abteilung hier gehts ja um die GPU außerdem scheint ( laut text ) PCGH die daten der AMD zu haben da sie ja beides getestet haben

Nightspider
2013-05-29, 17:00:14
Die EVGA GTX 780 Hydrochopper (Wasserkühlung) hat eine deutlich potentere Stromversorgung:

http://www.hardwareluxx.de/images/stories/newsbilder/aschilling/2013/evga-780-classified-pcb-twitter.jpeg

Woklbokl
2013-05-29, 18:15:49
Das ist das Classified PCB, die normale Hydrocopper hat die Referenz-Platine.

Knacki99
2013-05-30, 16:42:42
Wann kommt die Gigabyte Windforce? Geizha ls sagt 7.6?

Raff
2013-05-31, 22:42:59
Gerade eben: höchste VRAM-Auslastung, die ich jemals sah. 6 GiB sind ja sowas Tolles. :ulol:

(Crysis 3 maxed in 3.840x2.400 mit 8x MSAA auf einer GTX Titan)

http://abload.de/thumb/crysis32400p01ujl.jpg (http://abload.de/image.php?img=crysis32400p01ujl.jpg)

Mit FXAA sind's übrigens noch ~2,5 GiB und es ist mit etwas Schmerz spielbar.

MfG,
Raff

Godmode
2013-05-31, 22:46:38
Da hab ich schon mehr geschafft, nämlich 5,7 GB. ^^

http://abload.de/thumb/crysis3_2013_03_04_23fzuvp.png (http://abload.de/image.php?img=crysis3_2013_03_04_23fzuvp.png)

Raff
2013-05-31, 22:48:23
Autsch. Downsampling via Config? Ich hätte noch 5.120x3.200 zu bieten, wollte aber fps-mäßig zweistellig bleiben. X-D

MfG,
Raff

Godmode
2013-05-31, 22:49:35
DS via Treiber, aber ich hatte noch 8xSGSSAA dabei. ;D

schreiber
2013-05-31, 22:51:46
wow, 8,8 fps,mit 3 GB VRAM wäre das echt unspielbar.

Woklbokl
2013-05-31, 22:53:30
Gerade eben: höchste VRAM-Auslastung, die ich jemals sah. 6 GiB sind ja sowas Tolles. :ulol:

(Crysis 3 maxed in 3.840x2.400 mit 8x MSAA auf einer GTX Titan)

http://abload.de/thumb/crysis32400p01ujl.jpg (http://abload.de/image.php?img=crysis32400p01ujl.jpg)

Mit FXAA sind's übrigens noch ~2,5 GiB und es ist mit etwas Schmerz spielbar.

MfG,
Raff

Wenn ich mir dein OSD so anschau nutzt du definitiv das falsche Mod Bios^^
(siehe pn)

derguru
2013-05-31, 22:54:33
wow, 8,8 fps,mit 3 GB VRAM wäre das echt unspielbar.

mit 2 titan wohlbemerkt.;)

ach, wer ram verschleudern will der kann es auch über die ingame optionen von moh warfighter.

Godmode
2013-05-31, 23:05:07
wow, 8,8 fps,mit 3 GB VRAM wäre das echt unspielbar.

Mit vier wars super, da hatte ich sogar die doppelte Framerate. ;D

Hübie
2013-06-01, 12:45:25
Gerade eben: höchste VRAM-Auslastung, die ich jemals sah. 6 GiB sind ja sowas Tolles. :ulol:

(Crysis 3 maxed in 3.840x2.400 mit 8x MSAA auf einer GTX Titan)

http://abload.de/thumb/crysis32400p01ujl.jpg (http://abload.de/image.php?img=crysis32400p01ujl.jpg)

Mit FXAA sind's übrigens noch ~2,5 GiB und es ist mit etwas Schmerz spielbar.

MfG,
Raff

Muss hier nicht einer mal seine Sig aktualisieren:confused::naughty:

Zum Foto schießen also 900€ ausgeben um 6GB zu haben :up: Eine DSLR kommt da günstiger. Ich stiele immer noch auf den Preis der 780er :redface:

OC_Burner
2013-06-01, 13:04:53
Gothic III haut immernoch alles weg was die RAM-Auslastung anbelangt. Eine Belegung von 6120MB sind mir in dem mittlerweile 6,5 Jahre altem Spiel ohne weiteres gelungen. Ok, ein zwei Texturmods und massig DS mussten nachhelfen.:freak:

aufkrawall
2013-06-01, 13:13:52
Wollt gerade sagen, denn letztens war hier bei 1080p mit 8xSGSSAA kaum 1GB belegt. ;)

LSSJBroly
2013-06-03, 15:50:53
Mal was zum Boostverhalten der GTX 780 (Temp-Target 80°C):
http://www.abload.de/img/dedddvupfj.jpg http://www.abload.de/img/1vvv2jpsp.jpg

Irgendwas haben die da verändert. die Titan macht, soweit ich weiß, nicht solche Sprünge auf den Basis-takt...
Das schlimme, man merkt diese Taktunterschiede auch noch...

dildo4u
2013-06-03, 15:55:46
Der EVGA Kühler scheint zu schwach.

Hier ganz unten alle Custom Kühler boosten durchgängig,schätze mal deine Karte hat nur einen Lüfter?Die 780 braucht ja auch noch ein paar Watt mehr.

http://www.tomshardware.de/geforce-gtx-770-gk104-review-Benchmarks,testberichte-241292-26.html

Versuchsweise das Temptarget auf 78° stellen 79° soll die Schwelle sein wo sie anfängt zu drosseln.

Raff
2013-06-03, 15:55:59
Gothic III haut immernoch alles weg was die RAM-Auslastung anbelangt. Eine Belegung von 6120MB sind mir in dem mittlerweile 6,5 Jahre altem Spiel ohne weiteres gelungen. Ok, ein zwei Texturmods und massig DS mussten nachhelfen.:freak:

Welche Texturmods? =)

MfG,
Raff

LSSJBroly
2013-06-03, 15:58:51
Der EVGA Kühler scheint zu schwach.

Hier ganz unten alle Custom Kühler boosten durchgängig,schätze mal deine Karte hat nur einen Lüfter?Die 780 braucht ja auch noch ein paar Watt mehr.


Das ist doch egal. Wenn ich das Temp-Target auf 85°C setze, taktet das ding ja auch immer mit vollem Boost. Es geht ja darum, dass der Boost solche extremen sprünge macht (wenn das Temp-Target erreicht wird) und dass die Titan soweit ich weiß, das eben nicht macht.

Tom'sHardware zeigt im übrigen ein sehr ähnliches verhalten auf:
http://www.tomshardware.de/geforce-gtx-780-performance-review,testberichte-241287-23.html


@Raff
wieviel % Lüfterspeed hat eure GTX 780 bei 3,2 Sone eigentlich erreicht?

OC_Burner
2013-06-03, 18:20:06
Welche Texturmods? =)

MfG,
Raff

Die bekannten oder eigentlich nur der eine gegen die LowPolyMatschTexturen und dann zusätzlich eine geänderte Grastextur ohne MipMaps (http://www.oc-burner.de/ftp/WoG/NoGrasMipMaps_for_GIII-V1.75_or_GD-V2.00.16.zip), da sich das gerade bei SGSSAA und massig DS anbietet. Das Gras wirkt fast wie ein Fur-Shader (könnte man sich glatt reinfallen lassen). Die Grastextur erhöht den Membedarf aber nicht. CP Patch v1.75.14, Tweaked ini, 8xSGSSAA bei heftigen 5120x2880 knacken dann nach einer Weile die 6GB. Die ExtraTexturen aus dem ContentMod dürften den Speicherplatzbedarf auch nochmal erhöhen, habe das aber nicht getestet.

Angiesan
2013-06-05, 02:10:26
Das ist doch egal. Wenn ich das Temp-Target auf 85°C setze, taktet das ding ja auch immer mit vollem Boost. Es geht ja darum, dass der Boost solche extremen sprünge macht (wenn das Temp-Target erreicht wird) und dass die Titan soweit ich weiß, das eben nicht macht.

Tom'sHardware zeigt im übrigen ein sehr ähnliches verhalten auf:
http://www.tomshardware.de/geforce-gtx-780-performance-review,testberichte-241287-23.html


@Raff
wieviel % Lüfterspeed hat eure GTX 780 bei 3,2 Sone eigentlich erreicht?
Ich habe Dir die Frage zwar schon mal im Luxx beantwortet, aber bei 2 Stück die ich hier hatte war es absolut das gleiche.
Voller Boost > Templimit erreicht < Basistakt > und wieder hoch dann für gewöhnlich eine Stufe unter dem was er vorher geboostet hat. Und wieder von neuem das macht die solange bis die Karte meint das gefunden zu haben wo sie sich wohlfühlt, und regelt kleine Unterschiede erst dann über den Lüfter
Das hat bei mir i.d.R. so bei 48 % Lüfterdrehzahl und 79° C begonnen und wenn die Karte fertig war war ich bei 50-52% Lüfterspeed und 78°-80° C leicht schwankend je nach Spiel, bekommst Du nur weg wenn du die Basistaktraten auf das festsetzt was der Chip noch mit 1,05-1,075 Volt stemmt. Je nach ASIC ist das die Start 3D Boost Spannung. Dann über den Boosttable den Boost begrenzt. Das dürften in der Regel 993 -1006 MHz für den Basistakt sein und den Boost dann z.B. auf 1058 festsetzten da geht die Karte dann zwar drüber aber nur sehr kurzfristig am Anfang, danach bewegt sie sich dann innerhalb dessen was du eingestellt hast. Alles andere bleibt dabei erhalten wie Spannungsanpassung und und und. Da die Karte durch das Übertakten dann aber etwas wärmer wird wird du i.d.R. nur die 1006 MHz dauerhaft sehen. Alternative ist so verrückt wie es sich anhört die Basistaktrate zu verringern und den Boosttable dort belassen wo er ist. Dann fällt die Karte auch nicht auf den Basistakt zurück, auch nicht beim Übertakten :-) da dort wenn man so will der Treiber den Boosttable verschiebt, dass ist auch der Grund warum man dann einen Boost hat der mit deutlich niedrigeren Spannungen läuft, aber Achtung das ist oft nicht dauerhaft stabil auch nicht bei guten Karten.
Wenn du nicht großartig übertakten willst, würde ich den Basistakt nur 1 Stufe absenken und dann den Boost so nehmen wie die Karte im Rahmen ihrer Qualität automatisch taktet oder den boosttable um eine Stufe nach oben schieben. bei deiner ist das ja dann von 954 MHz es werden dann als maximaler boost 1215 MHz angezeigt . Willst du mehr bleibt nur die Lösung mit dem Basistakt.... zumindest aktuell, vielleicht findet ja noch jemand was;-)


Grüße

LSSJBroly
2013-06-05, 03:16:22
Ich weiß, dass du die Frage schon im Hardwareluxx beantwortet hattest, ich habe die Fragen hier und da recht zeitgleich erstellt;)

Per BIOS-mod funktioniert es deutlich angenehmer, Basis-takt auf 1006MHz, Boost auf 1046MHz und max. Boost auf 1124 MHz (mehr ist leider nicht drin mit 1,162V).
So sinkt der Takt, nachdem das Temp-Target erreicht wurde, auf 1006MHz und geht dann wieder auf rund 1046 oder 1059MHz hoch.

Angiesan
2013-06-05, 09:24:33
Wenn deine damit stabil läuft ist das deutlich über Titan@Standard :cool:
Das was man so oft lesen kann meinen macht xyz und da ist noch Luft ist in den meissten fällen nicht stabil oder zumindest unter Luft zu heiß und damit zu laut, schau mal wie viele auf einmal schreiben meine 24/7 Settings habe ich jetzt so gewählt..... da kommen fast immer die 1100-1150MHz raus, den Rest kannste unter Luft knicken, das geht vielleicht mal zum Benchen aber nicht für mehr und unter Luft wäre mir das noch deutlich zu laut, so wie deine läuft dürftest du zwischen 51-53 % der Lüfterdrehzahl erreichen, das ist ja noch erträglich, sage mal hast Du auch Probleme beim Spielen von Metro LL und Crysis, bei mir schmiert die eine die noch hier ist immer wieder mal ab wohlgemerkt bei Standardtakt:freak: ich weiß nicht ob ich die Heute Abend weiterverkaufen soll oder ob die wirklich eine Macke hat. Ist ein Freund von mir der die haben will und da will ich keinen Müll weiterverkaufen. Viele andere Spiele laufen unauffällig, also so wie es sein soll.

Grüße

Hübie
2013-06-05, 09:50:50
Kann mal eine Lochabstand des Kühler ums Package messen? :smile: Der Kühler ist doch Mist wenn man so ein geringes Temp-Ziel hat.

Deisi
2013-06-05, 11:11:23
Würde mein Seasonic X-760 noch reichen für GTX780 SLI? Bei guru3D steht was von mindestens 800W.
Betreibe zurzeit ein GTX680 SLI System und bin sehr zufrieden mit dem Netzteil.:wink:

Hübie
2013-06-05, 11:17:22
Simmsallabimm. Nein denn dein Hamster dreht das Rad nicht schnell genug und es is zu dunkel im kalten Regensonnenschein. Strick dir ein Fahrrad und fliege heim... :facepalm:

Woher zum Henker sollen wir das wissen wenn wir nicht mal ansatzweise wissen ob du damit einen 386er mit Lukü oder einen P4XE mit Wakü betreibst? :rolleyes: Niemand von uns guckt dir über die Schulter. Vergiss das nicht.
Also nenne uns bitte sämtliche Komponenten welche von dem Netzteil gespeist werden. Dann erhälst du eine fachlich kompetente Antwort.

Deisi
2013-06-05, 11:27:13
Hallo Hübie,

hier mein System:

intel i7-3770k mit corsair h60
asus sabertooth z77
8GB ram corsair
Gigabyte Windforce GTX 680
EVGA GTX 680 (Referenz)
Seasonic X-760
samsung ssd
dvd-laufwerk
3 Gehäuselüfter

Hübie
2013-06-05, 12:22:19
In anbetracht des geringen Verbrauchs von CPU etc. reicht das Netzteil mit ziemlicher Sicherheit aus und bietet sogar noch Reserven. Selbst wenn du übertaktest sollte noch etwas Spielraum sein. 63 Amperé auf der 12 Volt-Schiene lassen hoffen ;)

Nun stelle ich mir jedoch die Frage nach dem Sinn von zwei 680er auf zwei 780er zu wechseln. Drückt der Schuh oder handelt es sich einfach nur um "Investitionsnot"?

Deisi
2013-06-05, 13:06:34
Danke für die Antwort! :smile:

Mit 3D Vision stoß ich schon öfters mal ans Graka Limit. Bin aber gerade eh noch am Überlegen. Die Frage tat sich nur auf als ich einen Artikel gelesen habe, wo mindestens 800W ohne OC empfohlen waren.

LSSJBroly
2013-06-05, 13:41:26
Wenn deine damit stabil läuft ist das deutlich über Titan@Standard :cool:
Das was man so oft lesen kann meinen macht xyz und da ist noch Luft ist in den meissten fällen nicht stabil oder zumindest unter Luft zu heiß und damit zu laut, schau mal wie viele auf einmal schreiben meine 24/7 Settings habe ich jetzt so gewählt..... da kommen fast immer die 1100-1150MHz raus, den Rest kannste unter Luft knicken, das geht vielleicht mal zum Benchen aber nicht für mehr und unter Luft wäre mir das noch deutlich zu laut, so wie deine läuft dürftest du zwischen 51-53 % der Lüfterdrehzahl erreichen, das ist ja noch erträglich, sage mal hast Du auch Probleme beim Spielen von Metro LL und Crysis, bei mir schmiert die eine die noch hier ist immer wieder mal ab wohlgemerkt bei Standardtakt:freak: ich weiß nicht ob ich die Heute Abend weiterverkaufen soll oder ob die wirklich eine Macke hat. Ist ein Freund von mir der die haben will und da will ich keinen Müll weiterverkaufen. Viele andere Spiele laufen unauffällig, also so wie es sein soll.

Grüße

Jup, die Taktraten sollten wohl stabil sein. Immerhin, das einzige Game, was mir bei 1137MHz und 1,162V bei längerer spielzeit abgeschmirt ist, war Skyrim mit SGSSAA:freak:
Jup, in Games dreht der Lüfter mit rund 50-53% und bleibt somit recht angenehm, ist halt ein tiefes rauschen, allerdings ohne irgendwelche störgeräusche:)

Also bei mir läuft alles, selbst mit OC zurzeit vollkommen stabil, keine abstürze, nichts:)

V2.0
2013-06-05, 13:52:01
In anbetracht des geringen Verbrauchs von CPU etc. reicht das Netzteil mit ziemlicher Sicherheit aus und bietet sogar noch Reserven. Selbst wenn du übertaktest sollte noch etwas Spielraum sein. 63 Amperé auf der 12 Volt-Schiene lassen hoffen ;)

Nun stelle ich mir jedoch die Frage nach dem Sinn von zwei 680er auf zwei 780er zu wechseln. Drückt der Schuh oder handelt es sich einfach nur um "Investitionsnot"?

Das ist schon ein Sprung. Aber bei SLI würde ich auf 2xTitan gehen. Ultra-HD braucht halt schon mehr als 3GB VRAM. (Go big or go home)

LSSJBroly
2013-06-05, 13:57:15
Naja, 3GiB sind schon ganz gut, und reichen auch für 2160p und MSAA eigentlich immer. Das höchste, was ich bisher gesehen habe, waren 2800MB mit Crysis 3 in 2160p und 8xMSAA.
Und für den preis von 2 Titans bekommt man ja wieder 3 780er...

aufkrawall
2013-06-05, 13:57:18
Das ist schon ein Sprung. Aber bei SLI würde ich auf 2xTitan gehen. Ultra-HD braucht halt schon mehr als 3GB VRAM. (Go big or go home)
Will er den UHD machen?
Selbst mit zwei 780ern hat man für 4k + AA zu wenig Leistung.
Auch mit 1080p kann man die Leistung sinnvoll verbraten.

Hübie
2013-06-05, 15:25:17
Na offenbar hat er ein 3D-Vision-Set. Da kann es durchaus sinnvoll sein wenn man all eyecandy haben will. Schönheit hat eben seinen Preis ;D

P@trick
2013-06-09, 00:54:32
Will er den UHD machen?
Selbst mit zwei 780ern hat man für 4k + AA zu wenig Leistung.
Auch mit 1080p kann man die Leistung sinnvoll verbraten.

Will deine Ausage nicht bezweifeln(auch resp.für deine Arbeit(en)),aber z.Bsp. Grid 2 mit 3840*2160 Auflsöung alles auf very high whatever, 2 MSAA ,läuft teilweise ordentlich um 55-60 Fps(Titan 1150/3300MHz,SNB-E 3958MHz,Monitor 2560*1440).
Bei vielen Zuschauern an einer Kurve gings aber bis 45 Fps runter(die man man ja im Menüe vesrchieden ändern könnte,sofern es das war,habe jetzt auch schnell nur eine Strecke getest)

Hatte nur im GTX 780 Luxx-Thread die Sache mit der DS-Lösung Titan/GTX 780 bei 2160p mit 60Hz vor kurzem mitgekriegt.Grid 2 kriegt jenachdem aber nichtmal annähernd die 2GB Speicherausalstung bei d.o.genannten Setting überschritten.
Ist natürlich eine Ausnahme,wie auch Just Cause 2.Bei sonst den Sachen darf man froh sein das der 1440 Monitor genügend Frames kriegt teilweise mit SSAA oder auch ohne.

Persönlich spiele ich Grid 2 mitunter lieber nativ mit 60Hz oder 80 Hz synchron/.

LSSJBroly
2013-06-09, 01:25:05
Naja, wenn ein Game MSAA anbietet, würde ich eher SGSSAA nehmen. Effizienter, schöner und schneller:)
Aber bietet Grid 2 eigentlich MSAA an?

Hübie
2013-06-09, 04:12:03
Ja. Zwei- und vierfach. Dann halt noch die coverage-sample Modi aus MSAA.

aufkrawall
2013-06-09, 11:01:29
Auch 8xMSAA. Das in-game AA taugt aber nicht viel.
Deshalb die Petition in meiner Signatur, möcht noch wer teilnehmen? :)

Hübie
2013-06-09, 11:48:18
Hab ich schon :tongue: Ich bewundere manchmal deine Energie bei solchen Aktionen ;D
Dirt macht technisch vieles richtig. Früher konnte man leistungstechnisch forward-renderer nicht sehr breitbandig und sinnvoll einsetzen. Die Zeiten scheinen bald vorbei. Leider ist nun mein PC im Arsch und ich kanns nicht genießen :mad:

Skysnake
2013-06-09, 11:52:32
Sorry, aber DAGEGEN!

AA-Bits usw mögen schön und gut sein, aber die Entwickler sollen einfach von Anfang an gleich richtige Arbeit abliefern. AA-Bits verführen diese nur zum "pfuschen". Lieber keine AA-Bits und wenns euch auf den Sack geht, dann lasst das Spiel im Regal/Web stehen. Das "erzieht" die Entwickler...

AMD und nVidia hätten auch NIE anfangen sollen die Fehler der Entwickler aus zu bügeln um Games mit beschissener Performance zu optimieren...

boxleitnerb
2013-06-09, 11:57:56
Miese Einstellung mMn. Du kannst nicht Hunderte Entwickler erziehen, das ist naiv und völlig illusorisch. Es ist weitaus realistischer, wenn man dort ansetzt, wo man nur einen oder zwei überzeugen muss.

Hübie
2013-06-09, 11:59:41
Ja aber dann ist doch das gewhine so groß. Gerade bei den Amis is das schlimm. Da gibts unheimlich viele hohle Früchte. Erst jetzt kommt dort laaaangsam der Training nd zum selber bauen. Bisher war Komplett-PC-Leasing dort der Marktguru. Du stellst dir das zu einfach vor.
Zumal DU als AMD'ler doch eh kein Interesse an Bits haben dürftest ;D

Skysnake
2013-06-09, 12:02:54
Miese Einstellung mMn. Du kannst nicht Hunderte Entwickler erziehen, das ist naiv und völlig illusorisch. Es ist weitaus realistischer, wenn man dort ansetzt, wo man nur einen oder zwei überzeugen muss.
Dann sollen SIE PLETE GEHEN!

Manchmal muss man auch die Zähne zusammenbeisen, und etwas ertragen, bevor es besser wird...

Zumal AA-Bits eh immer problematischer werden mit den ganzen komplexen Shadern usw.

Was willst du dann machen? Direktzugriff auf die Shader, damit du da noch rumfummeln kannst?

Es macht einfach keinen Sinn, zumal Kosten/Nutzen eh zweifelhaft sind. Die Ressourcen sollte man lieber in die Unterstützung der Engineentwicklet usw stecken, damit man es GLEICH! richtig macht, und nicht erst im Nachhinein dann irgendwie geradebiegt...

aufkrawall
2013-06-09, 12:09:15
Sorry, aber DAGEGEN!

AA-Bits usw mögen schön und gut sein, aber die Entwickler sollen einfach von Anfang an gleich richtige Arbeit abliefern. AA-Bits verführen diese nur zum "pfuschen". Lieber keine AA-Bits und wenns euch auf den Sack geht, dann lasst das Spiel im Regal/Web stehen. Das "erzieht" die Entwickler...

Völliger Schwachsinn. BQ-Enthusiasten sind für Spieleentwickler offenbar keine allzu relevante Marktgröße. Meinst du es hätte irgendeinen Effekt, wenn zehn Leute weniger ein Spiel kaufen?
Kennst du irgendein Spiel, das SGSSAA anbietet? Kennst du irgendein Spiel mit komplexerem Renderer, das perfektes MSAA anbietet?
Natürlich nicht, so etwas gibt es nicht.
Folgerichtig bleibt als einziger Ausweg der Treiber. Wen es nicht interessiert, muss es ja nicht nutzen. Und zu der Sache mit wenig sinnig, weil Shader immer komplexer: Unsinn, in Cryengine 3 funzt SGSSAA über den Treiber perfekt.

Jemand hatte im Petitions-Thread auch einen Vergleich zu den High-DPI-Fonts von Windows gemacht: In der Theorie auch ganz super, aber wenn App-Entwickler immer gesondert Hand anlegen müssen, ist das Scheitern vorprogrammiert.


AMD und nVidia hätten auch NIE anfangen sollen die Fehler der Entwickler aus zu bügeln um Games mit beschissener Performance zu optimieren...
Hat mit AA direkt rein gar nichts zu tun.

Skysnake
2013-06-09, 12:17:08
Und warum sollte man wegen "zehn Leuten" unmengen an Ressourcen rausballern UND gegen Standards verstoßen, anstatt die Ressourcen sinnvoll ein zu setzen?

Also bessere Doku/Sampels usw usw für die Entwickler.

boxleitnerb
2013-06-09, 12:19:35
Du mit deinen blöden Standards. Sowas kann immer optional sein. Hast du gemeckert bei der LOD-Verschiebung von Nvidia und AMD? Mehr Möglichkeiten (= optional, kein Zwang) sind immer gut. Glaub du meckerst und jammerst einfach gerne, mehr steckt da nicht dahinter :tongue:

Hübie
2013-06-09, 12:19:46
Warum wird eigentlich lieber OGSSAA als SGSSAA implementiert? Frage ich mich schon lange.

Knuddelbearli
2013-06-09, 12:23:53
ist einfacher für den dev

kostet aber halt viel mehr leistung

aufkrawall
2013-06-09, 12:24:00
Und warum sollte man wegen "zehn Leuten" unmengen an Ressourcen rausballern UND gegen Standards verstoßen, anstatt die Ressourcen sinnvoll ein zu setzen?

Es fragen in vielen Foren ständig Leute nach besserem AA für DX11-Spiele, und auch nicht nur die "zehn".
Der Bedarf ist also schon da. Nur solltest du nicht den Fehler machen, das einfach in geringere Verkaufszahlen umzurechnen. Wer bitte kauft sich denn ein gutes Spiel nicht, nur weil das AA mies ist?
Was du dir da vorstellst...
Wenn das nach deinem Gusto liefe, würde es bald gar keine PC-Spiele mehr geben. Na, schönen Dank auch...


Also bessere Doku/Sampels usw usw für die Entwickler.
Ich lach mich tot...
So wie bei AMD, meinst du? Wo Grid 2 und Showdown ja so tolles AMD-MSAA haben? ;D
Edit: Oder Hitman *argh*...

Skysnake
2013-06-09, 13:02:43
Du mit deinen blöden Standards. Sowas kann immer optional sein. Hast du gemeckert bei der LOD-Verschiebung von Nvidia und AMD? Mehr Möglichkeiten (= optional, kein Zwang) sind immer gut. Glaub du meckerst und jammerst einfach gerne, mehr steckt da nicht dahinter :tongue:
Ja Standards sind ja soooo doof :uhammer:

Überleg dir mal, was wir ohne Sie machen würden....

Und warum ich da sos kotzen bekomme ist ganz einfach. Bereits heute halten sich sowohl AMD als auch nVidia öfters nicht an die genauen Specs, was dann zu Problemen führt.... Und darauf habe ich einfach KEINEN BOCK! Die sollen die Standards auf den Punkt genau umsetzen und gut ist. Wenn Sie denken das irgendwas anders gemacht werden sollte, oder vergessen wurde, dann sollen Sie halt VOR Verabschiedung des Standards die Fresse auf machen... Ist ja nicht so, als ob die Standards vom lieben Gott kommen und plötzlich auftauchen, ohne das man vorher etwas hätte machen können :down:

Immer dieses an den GEMEINSAM! erarbeiteten Standards dran vorbei geschiebe... Das kotzt einfach nur noch an, weil man wieder an allen möglichen Scheis denken muss, oder Probleme bekommt, an die keine vorher gedacht hat... Darauf habe ich einfach keinen bock aus Entwicklersicht.

@Aufkrawall:
Warum bringst du jetzt AMD mit ins Spiel? Was hat das damit zu tun?

Die "" hast du schon gesehen um die "zehn" oder? Das war DEINE Aussage. Und ja, wenn mich etwas stört, dann lass ich es im Regal/Web stehen, und kaufe nicht. Ansonsten ist es anscheinend ja nicht wichtig genug.

Hübie
2013-06-09, 13:04:33
Och nee. Nun lasst das hier doch nicht wieder zum flamewar verkommen. AMD hat sehr gute (hardware-) whitepaper. Davon könnten sich Softwareentwickler ne Scheibe abschneiden. Das meinte Skysnake wohl.

aufkrawall
2013-06-09, 13:14:34
Immer dieses an den GEMEINSAM! erarbeiteten Standards dran vorbei geschiebe... Das kotzt einfach nur noch an, weil man wieder an allen möglichen Scheis denken muss, oder Probleme bekommt, an die keine vorher gedacht hat... Darauf habe ich einfach keinen bock aus Entwicklersicht.

Nur dass hier kein Standard zum Nachteil der Entwickler verwässert wird, für die ändert sich rein gar nichts. Aber zieh ruhig weiter deine Show ab...


@Aufkrawall:
Warum bringst du jetzt AMD mit ins Spiel? Was hat das damit zu tun?

Du meintest doch, die IHVs sollten die Entwickler bei AA unterstützen.
Jetzt habe ich dir junge Beispiele von einem IHV genannt, wo das ziemlich gefloppt ist.
Das hat das damit zu tun.


Die "" hast du schon gesehen um die "zehn" oder? Das war DEINE Aussage. Und ja, wenn mich etwas stört, dann lass ich es im Regal/Web stehen, und kaufe nicht. Ansonsten ist es anscheinend ja nicht wichtig genug.
Na klar, die Mär von konsequenten Verbraucher...
Ich bin bereits auf den Punkt eingegangen. Wenn du einfach meine Argumente ingorierst und wieder von vorne anfängst, ist mir das zu blöd.

Skysnake
2013-06-09, 13:17:58
Nein, ich hab nichtmal im entferntestesn an AMD gedacht :ugly:

Keine Ahnung, wie aufkrawall darauf jetzt wieder kommt...

Die Whitepaper und Samplecodes könnten aber besser sein, und zwar von jedweder Firma. Und ich halte es auch viel sinnvoller da seine Ressourcen rein zu stecken, als in irgendwelche nicht standardkonforme Sonderlösungen...

Wenn nVidia das für so wichtig hält, und denkt, dass das etwas gutes für die Endnutzer wäre, dann sollen Sie doch bei der nächsten DX Version damit antanzen und Vorschläge machen, wie man das umsetzen soll. Da können dann nämlich alle ihre Ressourcen bündeln und man muss die ARbeit nicht doppelt und dreifach machen, zumal dann eben auch leichter Probleme erkannt werden. 4/6 Augen sehen einfach mehr als 2 ;)

Genau das Selbe bei Framemetering...

Anstatt da an den Symptomen rum zu puschen sollten die lieber über eine GESCHEITE! Api Erweiterung nachdenken, die den Herstellern eben erlaubt bereits bei der Entwicklung besser die Probleme zu verhindern, indem ihre Engine eben Feedback von der Hardware bekommt.

boxleitnerb
2013-06-09, 13:52:20
Und bis dahin profitiert halt der Kunde. Aber das ist ja sooo schlimm. Abgesehen davon glaube ich nicht an so eine Lösung wie du sie dir da ausdenkst. Wäre zu schön um wahr zu sein. Da wird lieber FXAA, MLAA, TXAA und OGSSAA drübergebügelt und gesagt "basst scho".

Die Ausrede mit den Standards ist total am Thema vorbei, denn sowas wäre (wie es übrigens auch bei den DX9-Bits normal ist) optional. Den Standard rührt das überhaupt nicht an, wenn der Kunde nicht aktiv eingreift und auch override einstellt.

Iruwen
2013-06-09, 14:47:42
Solange die Standards den Specs entsprechen und man nur optional die Möglichkeit hat manuell einzugreifen gibts daran gar nichts auszusetzen. Das ist nunmal einer der Vorteile des PCs. Und NV müsste das nichtmal ins offizielle CC integrieren sondern nur über die API, i.e. den Inspector verfügbar machen, Problem solved. Das Ding fasst eh kein DAU an.
Was Syksnake da fordert ist einfach mal völlig illusorisch und weltfremd. Selbst wenn den Entwicklern alle Ressourcen zur Verfügung stehen fehlen denen einfach die Zeit und oft auch das Können. Ein Entwickler bei ANet hätte z.B. in GW2 gerade etwas besseres als FXAA und OGSSAA implementiert, passte aber nicht in den Zeitplan.

Skysnake
2013-06-09, 15:54:10
In DX11 hat man sich aber eben darauf geeinigt, das man dem Programm die VOLLE! Kontrolle überlässt, und kein drüberdüber geschiebe zulässt.

Hätte nVidia halt vorher den Mund aufgemacht.... So sollte man sich aber dran halten, und halt fürs nächste mal was daraus lernen.

Und damit ist das Thema auch für mich durch.

Wir können das eh nicht beeinflussen, wenns dann aber zu Problemen kommt, weil sich Hersteller X oder Y nicht 100% an die Specs von Standards hält, möchte ich kein geweine von euch höhren. Genau DAS provoziert man nämlich durch son Mist.

Hübie
2013-06-09, 16:54:14
Na ja, deine Ansichten provozieren auch so manchen Mist. Ich habe lieber die Wahl und pfeif auf Specs. Es sind nicht nur AMD & nVidia welche die Specs definieren. Du weißt doch gar nicht wer was ausgesprochen hat. MS macht eh was es will. Sei mal nicht immer so engstirnig und verbohrt. Sollte es in Zukunft möglich werden AA über D3D11-Games zu erzwingen wäre es ein großer Schritt gegen Faulheit und/oder Geldgeilheit der Devs/Publisher. Und solltest du einen Problem-Thread finden: übergehe den doch einfach und komm gar nicht erst rein. Spar dir die Zeit und Energie.

Skysnake
2013-06-09, 17:00:02
An sich habe ich nichts dagegen, wenn man freie Hand hat, es muss nur RICHTIG gemacht werden!

Alleingänge, egal von welchem Herstellern entgegen dem was ein Standard spezifiziert werde ich immer ablehnen. Wenns so toll ist, soll mans Maul aufmachen, und in den Standard packen, und zur Not auf die Kacke hauen, falls sich andere weigern das in den Standard mit auf zu nehmen ohne gute Gründe.

aufkrawall
2013-06-09, 17:03:13
An sich habe ich nichts dagegen, wenn man freie Hand hat, es muss nur RICHTIG gemacht werden!

Alleingänge, egal von welchem Herstellern entgegen dem was ein Standard spezifiziert werde ich immer ablehnen. Wenns so toll ist, soll mans Maul aufmachen, und in den Standard packen, und zur Not auf die Kacke hauen, falls sich andere weigern das in den Standard mit auf zu nehmen ohne gute Gründe.
Wieso sollte NV proprietäre Programmteile, die die Konkurrenz so nicht hat, in die Specs hieven wollen?
Oder weißt du, wie das Treiber-AA genau funktioniert?

Captain Future
2013-06-09, 17:25:30
Oh my oh my.
Der liebe Skysnake hat wohl keine Ahnung, wie so ein Standard erarbeitet wird. Natürlich macht da jeder den Mund auf und am Ende implementiert Microsoft den größten gemeinsamen Nenner. Bei allen fällt irgendwas raus, was die API nicht unterstützt, so ist das nunmal mit Kompromissen.

Und dann kommt Firma X, macht die ganze Arbeit von Microsoft & Co. nochmal extra um Entwicklern mit der hauseigenen Hardware Vorteile zu bieten und Herr Skysnake heult rum, weil er nix kapiert.

Skysnake
2013-06-09, 17:27:50
Es ist doch scheis egal, wie nVidia oder wer auch immer das genau implementiert. Hauptsache es ist in den Specs hinreichend genau spezifiziert, damit man weiß, was wo und wie funktioniert.

Propritäre Lösungen sind immer eine schlechte Lösung.

Ganz mies ist es aber, wenn man selbst an der Spezifizierung mitwirkt, und dann im Nachhinein selibe brechen würde...

Das ist ziemlich link. Vor allem, was machen die anderen dann? Ziehen die nach? Wenn nein, wird gemault, wenn ja, hat man wieder propritären Dreck...

Firmen sollen durch Ideen und Leistung überzeugen, nicht dadurch, dass Sie Specs kreativ umgehen...

Schau dir mal Infiniband an. Da ist auch alles ziemlich offen spezifiziert, und dennoch differenzieren sich die Firmen.

Vor allem der Witz ist ja, wenn man sich vorher Gedanken macht, und ne gescheite Lösung hat, dann kann man das über die Spezifizierung ja an alle anderen lizenzieren... Es ist also nicht so, das man irgendwas verschenkt...

aufkrawall
2013-06-09, 17:35:36
Propritäre Lösungen sind immer eine schlechte Lösung.

Ich bin mit Sicherheit einer der letzten, der nicht offene Standards favorisieren würde.
Nur wenn der (auch nicht wirklich offene) Standard nix taugt, respektive Microdoof Mist gebaut hat (was man bei dem AA von DX11 Spielen so bezeichnen kann), dann hab ich nichts dagegen, wenn die Hersteller (ob proprietär oder nicht) nachbessern.
Im Gegenteil, ich als Kunde wünsche mir so etwas. Da dürfen dann NV-Karten auch gerne etwas teurer sein. That's business.

Skysnake
2013-06-09, 18:36:00
MS entscheidet sowas aber nicht allein, sondern mit den beiden zusammen, bzw Intel wird inzwischen sehr sicher auch mit am Tisch sitzen.

nVidia müsste nur den Mund aufmachen, aber die schweigen ja gern, wenns drum geht.

boxleitnerb
2013-06-09, 18:39:51
War ja klar, dass jetzt auf einmal Nvidia Schuld ist. Es würde was fehlen, wenn Skysnake das nicht mindestens einmal am Tag in irgendeiner Form bringen würde...
Nur zur Erinnerung - Nvidia und AMD geht das am Popo vorbei, die haben beide (hust!) nichts gesagt und pushen ihre eigenen doofen Sachen. Uns Kunden bzw. den Enthusiasten - zu denen du wohl nicht zählst - aber nicht. Darum geht es.

Skysnake
2013-06-09, 18:58:17
Und bei dir weiß man auch, dass nach kurzer Zeit mehr oder weniger unterschwellige Diffamierungen kommen...

Und btw. falls es dir nicht aufgefallen ist. nVidia hat es ja bisher irgnoiert, und ich hoffe Sie bleiben auch dabei, denn dann ziehen Sie eine klare Linie, was begrüßenswert ist.

Das sich die Diskussion darum dreht, was wäre wenn nVidia dem nachgibt, sollte wohl offensichtlich sein oder? Aber dann kann man ja nicht wieder mit Schlägen unter der Gürtellinie kommen gell?

Also nochmals. Aktuell muss sich nVidia obiger Kritik nicht stellen, da Sie eben noch nichts gemacht haben, aber ich hoffe auch dass es dabei bleibt. Es soll nur zeigen, wie es aussieht, wenn Sie eurer Forderung nachgeben würden, was ich NICHT hoffe.

Und bzgl "ihre eigenen doofen Sachen":
Meine Meinung dazu kennst du ja. AMDs Frame-Metering auf nVidia Vorbild ist bullshit. Die sollen lieber schauen, dass Sie ZUSAMMEN! das Problem an der Wurzel angehen, anstatt den Mist werbewirksam auszuschlachten. Von der Profilierungsgeilheit der Hersteller hat der Kunde nämlich in dem Fall nichts, da eben nur die zweitbeste Lösung

Ronny145
2013-06-09, 19:02:26
MS entscheidet sowas aber nicht allein, sondern mit den beiden zusammen, bzw Intel wird inzwischen sehr sicher auch mit am Tisch sitzen.

nVidia müsste nur den Mund aufmachen, aber die schweigen ja gern, wenns drum geht.


Hört sich nach einer geselligen wünsch dir was Runde an. Hier ist sicherlich keiner dabei gewesen und kann sagen, was der oder die Beteiligten für Wünsche geäußert haben. Bestes Beispiel sind die 2 Intel Extensions für Haswell. Ein von Intel direkt beteiligter Entwickler:


I fully agree with you here. In fact, I've personally pushed these features for standardization (starting years ago) with the major API folks, but ultimately things are moving very slowly in the API space right now. Rather than let that slow GPU innovation, it seems better to go and prove how useful a feature is so that everyone applies pressure on the other hardware vendors and API overlords to add it too
http://beyond3d.com/showpost.php?p=1742744&postcount=15


Die haben offenbar den Mund aufgemacht. Hat es was gebracht? Hat es nicht. Alle Interessen unter einen Hut zu bekommen ist sicherlich auch nicht einfach. Du machst eine wünsch dir was Veranstaltung draus. Das ist einfach nur hanebüchen.

boxleitnerb
2013-06-09, 19:06:03
Optionale Geschichten muss man auch gar nicht kritisieren, außer man hat sonst nichts Besseres zu tun wie du.

Der Punkt, den du absolut nicht verstehst, ist der:
Wenn wir solche Lösungen wie erzwungenes AA, Framemetering usw. nicht hätten, hätten wir entweder überhaupt nichts um die entsprechenden Probleme anzugehen oder eine Lösung erst sehr sehr viel später.
Bist du echt so naiv und glaubst, es ginge besser? Die Realität, in der du offenbar nicht lebst, sieht anders aus. Bei AFR, GPU-Physik und AA hat sich kein Standard herausgebildet, seit vielen Jahren nicht. Da hab ich in der Zwischenzeit lieber eine Lösung, die vielleicht nicht sauber ist, aber dafür halbwegs ordentliche Ergebnisse liefert. Und das hindert absolut niemanden daran, parallel noch was Standardisiertes auf die Beine zu stellen.

Eine "zweitbeste" Lösung ist besser als gar keine Lösung, und das weißt du auch, wenn du mal zur Abwechslung ehrlich hier bist.

Cubitus
2013-06-09, 19:08:03
Und bei dir weiß man auch, dass nach kurzer Zeit mehr oder weniger unterschwellige Diffamierungen kommen...

Und btw. falls es dir nicht aufgefallen ist. nVidia hat es ja bisher irgnoiert, und ich hoffe Sie bleiben auch dabei, denn dann ziehen Sie eine klare Linie, was begrüßenswert ist.

Das sich die Diskussion darum dreht, was wäre wenn nVidia dem nachgibt, sollte wohl offensichtlich sein oder? Aber dann kann man ja nicht wieder mit Schlägen unter der Gürtellinie kommen gell?

Also nochmals. Aktuell muss sich nVidia obiger Kritik nicht stellen, da Sie eben noch nichts gemacht haben, aber ich hoffe auch dass es dabei bleibt. Es soll nur zeigen, wie es aussieht, wenn Sie eurer Forderung nachgeben würden, was ich NICHT hoffe.

Und bzgl "ihre eigenen doofen Sachen":
Meine Meinung dazu kennst du ja. AMDs Frame-Metering auf nVidia Vorbild ist bullshit. Die sollen lieber schauen, dass Sie ZUSAMMEN! das Problem an der Wurzel angehen, anstatt den Mist werbewirksam auszuschlachten. Von der Profilierungsgeilheit der Hersteller hat der Kunde nämlich in dem Fall nichts, da eben nur die zweitbeste Lösung


Klar Standards sind gut, ohne Normen würde die technisierte Welt zusammenbrechen. Aber über was du dich aufregst ist doch eher trivial.

Mein Gott dann gibt Nvidia eben für ein paar Geeks nach und implementiert die Bits für DX11, damit die Fan-Gemeinde etwas zum herumspielen hat.
Mehr ist das doch nicht! Das diese Funktion nicht bei jedem DX11 Titel funktionieren, oder Verbesserungen bringen wird ist doch klar. SGSSAA wird, außer von der Presse, von Nvidia nicht mal beworben.
Aber he es immerhin besser dieses Feature nutzen zu können, als überhaupt nicht. In deiner Welt gibt es wohl nur Schwarz und Weiß!?

Skysnake
2013-06-09, 20:39:22
Nein die "zweitbeste" Lösung ist eben keine Lösung, weil Sie aktiv die Bestrebungen nach einer richtigen Lösung untergräbt. Es ist ja "gut genug" und man hat schon "genug Geld" investiert.

Da ist es viel konstruktiver, einfach kein SLI zu kaufen, und die Trommel zu schlagen, dass die Lösung scheise ist. Dadurch dass so viele eben sich einlullen lassen, lassen die Hersteller die Sache schleifen.

Die machen eben nur das was zwingend nötig ist.

@Cubitus:
Es ist aber genau diese standardfeindliche Einstellung, die es im Keim zu ersticken gilt. "Wehret den Anfängen..."

Nur leider funktioniert das im Konsumerbereich viel zu selten, weil die Leute viel zu Konsumgeil sind.... Leider. :(

boxleitnerb
2013-06-09, 20:51:57
Nein die "zweitbeste" Lösung ist eben keine Lösung, weil Sie aktiv die Bestrebungen nach einer richtigen Lösung untergräbt. Es ist ja "gut genug" und man hat schon "genug Geld" investiert.

Da ist es viel konstruktiver, einfach kein SLI zu kaufen, und die Trommel zu schlagen, dass die Lösung scheise ist. Dadurch dass so viele eben sich einlullen lassen, lassen die Hersteller die Sache schleifen.

Das ist deine Meinung, das muss aber noch lange nicht so sein. Beispiel GPU-Physik. GPU-PhysX ist so selten vertreten, das wird bestimmt nicht der Grund dafür sein, dass niemand sonst was auf die Beine gestellt hat. Wie lange geht das jetzt schon so, 5 Jahre, 6? Die AA-Bits gibt es auch schon ewig, nur Nerds nutzen sie. Und trotzdem gibt es keine gescheite standardisierte Lösung. Du erkennst einfach nicht, dass niemand sich die Mühe machen würde, für so einen kleinen Marktbereich irgendwas zu standardisieren. Bei GPU-Physik haben die Konsolen gebremst, das wird jetzt mit der neuen Generation besser und damit kannst du auch die breite Masse ansprechen. Nur mal so als Beispiel. Perfektes AA juckt außer uns keinen im Kontrast dazu. SLI/CF auch nicht.

Du kannst ja gerne verzichten, ich werde das sicher nicht tun und viele andere auch nicht. Nur aus irgendwelchen moralischen Gründen anderen sowas nicht gönnen zu wollen ist ziemlich daneben. Bringen würde es sowieso nichts, denn Verzicht war noch nie realistisch, egal bei was. Realität und so...

Frei nach Ikea: "Wartest du noch oder zockst du schon?"

Tesseract
2013-06-09, 20:55:03
Nein die "zweitbeste" Lösung ist eben keine Lösung, weil Sie aktiv die Bestrebungen nach einer richtigen Lösung untergräbt. Es ist ja "gut genug" und man hat schon "genug Geld" investiert.

so lange die "richtige" lösung aus sicht der meisten entwickler garnicht das ziel ist gibt es auch keine bestrebungen danach. ergo ist die zweitbeste lösung die einzige lösung.
das aktuelle techlevel hindert jedenfalls niemanden daran. so dinge wie AA funktionieren nur wesgegen nicht weil darauf einfach keine rücksicht genommen wurde und nicht, weil das techlevel entsprechende lösungen nicht umsetzen kann.

Skysnake
2013-06-09, 21:25:58
Du kannst ja gerne verzichten, ich werde das sicher nicht tun und viele andere auch nicht. Nur aus irgendwelchen moralischen Gründen anderen sowas nicht gönnen zu wollen ist ziemlich daneben. Bringen würde es sowieso nichts, denn Verzicht war noch nie realistisch, egal bei was. Realität und so...

Das war schon immer die Ausrede der Leute ohne Rückrat/Prinzipien.

Die Vergangenheit hat schon oft gezeigt, das man sehr wohl etwas bewegen kann, und eine ganze Bewegung initialiseren kann als Einzelner.

Und sorry, so wie "ihr" dafür "kämpf" die AA Bits zu bekommen, müsst ihr auch andere Meinungen akzeptieren, die dies nicht als erstrebenswert erachten. So funktioniert Meinungsfreihet ;)

Ob ihr erfolgt habt oder nicht, wird sich ja zeigen, aber man sollte den Leuten auch die "Gefahren" aufzeigen, und die sind durchaus gegeben. Man erinnere sich nur an die "Späße" die alle zur Zeit abziehen.

nVidia mit ihren DX11.0<->11.1 Treppenwitz
AMD mit ihrer Aussage bzgl keinem neuen DX mehr in Zukunft
und Intel, wie OIT nen neuen Namen verpassen und als super duper neue Erfindung presentieren, wobei die Techniken soweit ich das verstanden habe nicht kompatibel sind....

Sorry, aber da bekomme ich einfach nen richtig dicken Hals, wenn dann die Endnutzer noch anfangen Standards mit Füßen zu treten, und die Hersteller darin zu bestärken, auf Standards nen feuchten Haufen zu setzen...

Kennt ihr "Die Geister die ich rief"?

Am Horizont zeigen sich einige sehr dunkle Wolken, und wir können nur hoffen, dass sich alle Hersteller zusammenreisen, und nicht versuchen werden auf biegen und brechen ihren proprotären Mist durchzudrücken, weil der Markt schrumpft und jeder schauen muss, das er überlebt... Damit sägt man am Ende nur an dem Ast auf dem man sitzt...

so lange die "richtige" lösung aus sicht der meisten entwickler garnicht das ziel ist gibt es auch keine bestrebungen danach. ergo ist die zweitbeste lösung die einzige lösung.
das aktuelle techlevel hindert jedenfalls niemanden daran. so dinge wie AA funktionieren nur wesgegen nicht weil darauf einfach keine rücksicht genommen wurde und nicht, weil das techlevel entsprechende lösungen nicht umsetzen kann.
Falsch...

Der Standard sieht vor, dass der Treiber NICHTS zu melden hat, sondern einfach nur das macht, was die Anwendung abruft...

Man setzt sich also aktiv über den Standard hinweg, wenn man das zulässt!

Und ich glaube nicht, das man so einfach das aufgenommen hat ohne jedweded Gründe, wenn es vorher über mehrere Generationen möglich war, und nicht verboten war. Oder meinste nicht, dass sich die Leute VORHER! durchaus Gedanken darüber gemacht haben, warum man sowas in nen Standard packen sollte?

Und nVidia hat ja scheinbar auch nichts dagegen gehabt bisher. Und dabei bleibts hoffentlich auch

boxleitnerb
2013-06-09, 21:32:45
Wie gut, dass du auf die Argumente und Beispiele eingegangen bist...ich bin Realist, kein Träumer. Das hat mit Rückgrat nichts zu tun.
Du übertreibst wie immer maßlos, dabei interessiert es im Fall der AA-Bits doch keine Sau außer uns BQ-Fetischisten. Wenn es nach dir ginge, wären wir noch bei vielen Dingen in der Steinzeit. Wohl bekomms...

Godmode
2013-06-09, 21:35:54
Falsch...

Der Standard sieht vor, dass der Treiber NICHTS zu melden hat, sondern einfach nur das macht, was die Anwendung abruft...

Man setzt sich also aktiv über den Standard hinweg, wenn man das zulässt!

Und ich glaube nicht, das man so einfach das aufgenommen hat ohne jedweded Gründe, wenn es vorher über mehrere Generationen möglich war, und nicht verboten war. Oder meinste nicht, dass sich die Leute VORHER! durchaus Gedanken darüber gemacht haben, warum man sowas in nen Standard packen sollte?

Und nVidia hat ja scheinbar auch nichts dagegen gehabt bisher. Und dabei bleibts hoffentlich auch

Wo ist bitte das Problem? Es ist optional, also überhaupt kein Problem oder eine Verletzung eines Standards. Du schaffst es echt immer wieder Threads um X-Seiten wachsen zu lassen.

aufkrawall
2013-06-09, 21:38:39
Wo ist bitte das Problem? Es ist optional, also überhaupt kein Problem oder eine Verletzung eines Standards.
Wer weiß. Aufgewertetes SGSSAA und die LOD-Verschiebung für DX11 haben bestimmt schon heimlich enormen Schaden angerichtet...

Ronny145
2013-06-09, 21:48:19
Ja die Lod Verschiebung unter dx11 war laut Skysnake damals nicht WHQL Konform. Auf die Kacke gehauen hat er damals wie böse und wie schlimm das wäre. Die Realität war dann das es überhaupt keine Problem mit WHQL gab. Hier zieht er jetzt das gleiche ab.

Tesseract
2013-06-09, 21:55:28
Der Standard sieht vor, dass der Treiber NICHTS zu melden hat, sondern einfach nur das macht, was die Anwendung abruft...
macht er auch nicht so lange der user nicht explizit etwas anderes will und ab dem zeitpunkt ist es sowieso keine sache des standards mehr.

ein A4-blatt ist auch standardisiert und wenn du es zuschneidest passt es vielleicht nicht mehr in den drucker rein. willst du deswegen scheren verbieten? :freak:

Angiesan
2013-06-09, 22:26:10
Wollkommen im 3DC GTX 780 Thread, ich musste eben noch mal nachschauen ob ich auch richtig geclickt habe:freak:

Fassen wir mal schnell zusammen:

Skysnake spielt offensichtlich nicht,
ist wie die meisten sehr gehorsam,
das steht nicht geschrieben, also kann es nicht sein:D
und ist eh per se schlecht-da ja nicht in irgend eine Norm gepresst!:facepalm:

Das könnte man jetzt auf auf geschätzte 25 Threads anwenden!

+ Es ist nichts bewiesen solange ist meine Vermutung die einzig logische Wahrheit!

Durch dieses Scheiß OT Grütze verspüre ich immer weniger Lust hier noch was zu schreiben, da sollten die Mods mal drüber nachdenken vielleicht geht es mir ja nicht alleine so, man sucht sich zum Teil den Wolf in Threads bis mal wieder was zum Thema kommt. Und ja ich prangere in diesem Zusammenhang ganz klar Skysnake an, der schreddert mit seinen maßlosen Übertreibungen und Mutmaßungen viele Threads, sodass es nur noch mühsam ist diese zu verfolgen. Wenn er antwortet verstehe ich ab und an nicht mehr den Inhalt meines eigenen Beitrags, und muss zuerst mal nachdenken wo da jetzt der Zusammenhang ist.
Ein kleiner Korinthenkacker der im RL offensichtlich schwere Defizite hat.
Sorry aber das musste jetzt mal raus.

Und jetzt weiter im OT

Skysnake
2013-06-09, 23:54:04
Sorry, aber wer hat die Diskussion vom Zaun gebrochen? Ach ja richtig: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9799036&postcount=331

Ansonsten verbitte ich mir derartige beleidigende und diskreditierenden Kommentare zu meiner Person.

Sorry, aber wenn du selbst Sachen entwickelst, und dann teilweise bis down to the metal anfängst Sachen beachten zu müssen, dann bekommste teilweise einfach NUR NOCH das große Kotzen, wenn immer so getan wird, als ob man sich an Specs halten würde, und dann erst scheibchenweise raus kommt, wo und wann denn das dann aber wiederum nicht so ganz stimmt... Es gibt schon so genug "Leichen im Keller" dan brauch ich wirklich nicht noch Einfallstore für noch mehr Probleme.

Egal ob das jetzt Hardwarespecs/Doku ist, oder so profane Sachen wie OpenGL XY, was dann doch wieder nicht interportabel ist, weil AMD<->nVidia meinen da doch irgendwo ne Extrawurst zu drehen, die doch niemanden zu interessieren hat....

Sorry, aber ich hab schon so viel Arbeits- und Lebenszeit wegen solchem Dreck verballert, das meine Toleranz dafür gegen NULL geht. Wenn die Firmen wenigstens schaffen würden so was sauber zu implementieren, und sich eben an die Standards zu halten, dann wäre es mir ja egal, aber die Erfahrung hat gezeigt, dass es früher oder später irgendwann mal verkackt wird, und man dann unmengen an Zeit dafür verschwenden muss, den Fehler zu finden.

Und bevor ihr jetzt damit kommt, dass das nicht passieren wird, oder kein Problem ist, überlegt euch mal folgendes:
Würdet ihr eine eidesstattliche Versicherung abgeben, für jedwede Kosten/Aufwand finanziell gerade zu stehen, der sich durch eine Abweichung des Verhaltens vom Standard und des damit verbundenen Aufwands gerade zu stehen?

Wenn nein, würde ich mir mal Gedanken machen, ob es nicht doch nachvollziehbar ist, warum jemand wehement den Weg kritisiert.

@Rony:
Ja hab ich "nVidia"-Hater. Oh wait, das war ja AMD...
Und ich erinnere mich schon daran, dass die LOD-Verschiebung eben nicht in allen Fällen optimal ist, und es dann auch hier wieder genug Leute gab, die meinten, das es daher so in der Form wieder nutzlos ist...

Wie gesagt, die sollen sich lieber am Anfang Gedanken machen, was Sie da ausklüngeln, und nicht hinterher am Standard vorbei dran rumdoktorn...

Captain Future
2013-06-09, 23:54:49
Es ist doch scheis egal, wie nVidia oder wer auch immer das genau implementiert. Hauptsache es ist in den Specs hinreichend genau spezifiziert, damit man weiß, was wo und wie funktioniert.

Propritäre Lösungen sind immer eine schlechte Lösung.

Ganz mies ist es aber, wenn man selbst an der Spezifizierung mitwirkt, und dann im Nachhinein selibe brechen würde...

Das ist ziemlich link. Vor allem, was machen die anderen dann? Ziehen die nach? Wenn nein, wird gemault, wenn ja, hat man wieder propritären Dreck...

Firmen sollen durch Ideen und Leistung überzeugen, nicht dadurch, dass Sie Specs kreativ umgehen...

Schau dir mal Infiniband an. Da ist auch alles ziemlich offen spezifiziert, und dennoch differenzieren sich die Firmen.

Vor allem der Witz ist ja, wenn man sich vorher Gedanken macht, und ne gescheite Lösung hat, dann kann man das über die Spezifizierung ja an alle anderen lizenzieren... Es ist also nicht so, das man irgendwas verschenkt...
Sorry, aber ich bin immer mehr der Ansicht, dass du wirklich nur trollieren magst, denn offenbar hast du meinen Post, auf den du antwortest, nicht gelesen oder nicht verstanden.

Kompromiß! Dabei kriegt nur seltenst jemand seinen Kopf komplett allein durch. Wird der jetzt qua Lex Skysnakia dazu verdonnert, alle darüber hinausgehende Funktionalität zu verrammeln, damit auch ja niemand drankommt?

(Offene) Standards - toll! Aber so wie du sie gern haben willst, killt das jeglichen Innovationswillen, denn dann ist jeder IHV nur Franchisenehmer von M$, so wie es in jeder McDo-Filiale dieselben schäbigen Bratlinge gibt.

Oh - und apropos offene Standards: OpenGL muss dann ja ganz schlimm sein für dich, und OpenCL erst! Diese ganzen _ext_xxx.... schlimm, wie da der Standard unterlaufen wird.

Firmen sollen durch Ideen und Leistung überzeugen - toll, ja, volle Zustimmung. Aber genau das verhinderst du ja bei deinen Korinthen-Specs. Überleg doch bitte mal selbst fünf Minuten lang. Firmen sind dazu da, Gewinn zu erzielen, das sind keine NGOs wie der Rote Halbmond. Wenn sich eine Investition nicht in Geld umwandeln lässt, dann ist es eine miese Investition, die im schlimmsten Fall dazu führt, dass der Aktienkurs sinkt und die eigene Firma übernommen wird.

Kleiner Hinweis, der allen hier bekannt sein dürfte: S3TC. Alleingang. OpenGL-Extension. Später erst im DirectX Standard lizenziert.

Skysnake
2013-06-10, 00:16:25
Warum sollte ich mit OpenCL ein Problem haben? Es ist dort expliziet vorgesehen, dass es herstellerspezifische Extensions gibt. Da weiß ich dann worauf ich mich einlasse. Was mich allerdings stört ist, dass DP nicht zwingend drin ist, aber gut, das sind eben die Reibungsverluste aus dem "kleinsten gemeinsamen Nenner". Da weiß ich allerdings, woran ich dran bin, und kann mich dementsprechend darauf einstellen.

Und das mit "alle darüber hinausgehende Funktionalität zu verammeln" ist nicht dein Ernst oder?

Was war dann DX9.0 a/b/c oder DX 10.0 und 10.1, oder auch aktuell DX 11.0 und 11.1?

Anscheinend konnte man früher auch durchaus Standards verabschieden, die dann eben nicht jeder mitgegangen ist. Wie passt denn das bitte mit deiner Ausführung zusammen?

Hier wird so getan, als ob es nur Pflicht und Verboten gibt. Das ist ja aber nicht der Fall. Jeder(?) DX Standard hat eigentlich auch immer teile dabei gehabt, die Optional waren. Vor allem ist es ja aber "nur" eine Schnittstelle, also nur die halbe Miete. Man muss das ja auch noch implementieren, wo die Hersteller genug Möglichkeiten haben sich zu profilieren.

Und bzgl deinem

Kompromiß! Dabei kriegt nur seltenst jemand seinen Kopf komplett allein durch.
Warum hat man dann durchbekommen, dass der Treiber die Finger von solchen Sachen zu lassen hat, wo doch nVidia praktisch eine fertige Lösung parat hatte, und AMD NICHT! also Sie im Nachteil waren. Warum sollte nVidia da also überhaupt mitziehen und sich mit den Partnern darauf einigen? Bisher war es ja auch kein "Problem" es aus den Specs drausen zu lassen.

Ist nVidia also dumm das zu machen und ihr erleuchtet Sie mit der Petition, weil ihr es besser wisst? Oder hat AMD etwa ihren "Kopf" durchgesetzt?

Also ich halte die These für gewagt. Die werden schon ihre Gründe gehabt haben, das so leichtfertig aus der Hand zu geben, oder meinste nicht?

Hübie
2013-06-10, 00:21:15
Ohne dir zu nahe treten zu wollen Skysnake: aber hast du schon mal darüber nachgedacht den Job / die Branche zu wechseln? Baubranche wäre vielleicht was. Da gibt's fast nur Standards und man hält sich weitgehend daran :smile: Ich hab damals mein Studium zum Wirtschaftsinformatiker geschmissen weil ich ebenfalls das Kotzen bekommen habe wie undurchdringlich diese Welt ist wenn man alles wissen will.

Hier geht's ja um GTX780. Aber ich wüsste gar nicht was man soviel über so wenig reden könnte. Da gibt's irgendwie gar nichts neues. Nicht mal ein Alleinstellungsmerkmal. Also können wir auch weiterhin auf Skysnake rumhacken. ;) Obwohl er (okay und andere) nicht mal Unrecht hat / haben...

Captain Future
2013-06-10, 00:40:38
Und das mit "alle darüber hinausgehende Funktionalität zu verammeln" ist nicht dein Ernst oder?

Was war dann DX9.0 a/b/c oder DX 10.0 und 10.1, oder auch aktuell DX 11.0 und 11.1?
In DX9 gabs noch extensions, ab DX10 machst du den Standard komplett oder eben gar nicht. Wenn dir ein feature fehlt, bist du raus.

Lass mich mal überlegen:
FP16/24/32
FourCC codes
PCF
3Dc http://alt.3dcenter.org/artikel/3dc/
"HDR" (float formate und deren Filterung)
DX10 shared memory
Alles Dinge, die man nutzen konnte, ohne das sie von DX spezifiziert worden wären und die mit der Lex Skysnakia verboten wären.



Anscheinend konnte man früher auch durchaus Standards verabschieden, die dann eben nicht jeder mitgegangen ist. Wie passt denn das bitte mit deiner Ausführung zusammen?
.1-"Standards.... ja. Und das passt sehr gut mit meinen Ausführungen zusammen. Welcher bedeutende Hersteller hat denn DX10 ausgelassen oder von wem gibt's bis heute keine DX10.1-Hardware?


Hier wird so getan, als ob es nur Pflicht und Verboten gibt. Das ist ja aber nicht der Fall. Jeder(?) DX Standard hat eigentlich auch immer teile dabei gehabt, die Optional waren. Vor allem ist es ja aber "nur" eine Schnittstelle, also nur die halbe Miete. Man muss das ja auch noch implementieren, wo die Hersteller genug Möglichkeiten haben sich zu profilieren.
Damit ist mit DX10 (so gut wie) schluss. Profilieren kannst du dich nur noch über eigenes Zeug (Physx, OpenGL/CL Extensions) oder über die Performance.


Und bzgl deinem

Warum hat man dann durchbekommen, dass der Treiber die Finger von solchen Sachen zu lassen hat, wo doch nVidia praktisch eine fertige Lösung parat hatte, und AMD NICHT! also Sie im Nachteil waren. Warum sollte nVidia da also überhaupt mitziehen und sich mit den Partnern darauf einigen? Bisher war es ja auch kein "Problem" es aus den Specs drausen zu lassen.
Wer sagt denn, dass AMD diese Lösung nicht hat? Sie ist nur nicht offen im Treiber zugänglich, so wie es noch mit DX9 ist. Und von wegen "mitziehen" - wenn Microsoft amd Ende sagt, so und so wird's gemacht, dann ist das so. Die sehen halt zu, dass sie beiden immer mal wieder ein Zuckerl hinwerfen (9.0c, 10.1, 11.1) damit sich nicht irgendwer komplett aus DirectX verabschiedet (und es am Ende Zoff um Patente gibt).

Skysnake
2013-06-10, 00:40:43
Hihi :biggrin:

Jetzt rate mal aus welcher Branche ich ursprünglich komme ;D

RICHTIG der Immobilienbranche, und ich hab das eine oder andere Bauprojekt schon mitbetreut, und weiß daher aus erster Hand, wie es da läuft... Ich sag nur gelbe "Riffelschläuche" als Drenage... war noch NIE zugelassen, wird aber fast jede Firma versuchts aufs Neue und darf die dann wieder rausreisen :biggrin:

Und es macht ja auch Spaß an Sachen zu tüfeln, es kotzt einfach nur manchmal extrem an, wenn man sich teilweise einfach nur noch verarscht vorkommt... Gerade kleinen Firmen kann das halt echt schnell das Genick brechen, wenn Sie sich auf die Specs verlassen, und dann hintenrum irgendwann die "echten" Specs mit allen Einschränkungen auftauchen... Bei Software gehts ja noch meistens, wenn man nicht zu weit in die Tiefen absteigt, aber bei Hardware ist es teils echt nicht mehr lustig...

Wenn man eine Woche an nem Problem arbeitet, um dann am Ende herauszufinden, das irgendjemand mal wieder irgend nen "fancy shit" gemacht hat, ohne es zu dokumentieren, oder weil er meinte "ach das geht besser" dann schwillt dir der Hals, weil du eigentlich noch genug anderes zu tun hast.

Deswegen gibt es bei uns inzwischen auch nen "Insider"-Treppenwitz mit Buzzwords:
Sollte.., müsste.., dürfte.., eigentlich.., unlogisch, macht keinen Sinn, usw

Wenn du oft genug dir die Nase blutig gehauen hast an ner Wand, gegen die du mit voller Pulle gerannt bist, dann wirst du irgendwann leicht "paranoid" und klopfst gleich am Anfang alles mögliche ab, ob es denn wirklich so ist, wie erwartet.

Aber pro x100 Codezeilen hast du halt einen Fehler im Schnitt...

Ein Kollege ist z.B. wenn ich mich recht erinnere dieses Jahr über einen Fehler im Linux-Kernel gestolpert. Das war ganz großes Kino bis er kapiert hatte, was da eigentlich das Problem war, und der Linux-Kernel ist ja komplett offen im Gegensatz zu den Treibern und DX.... Jetzt rate mal, was du machst, wenn da irgend jemand mal scheise baut... Richtig, du hast verloren und wenn du Pech hast ist deine Firma pleite bis der Fehler gefunden und behoben ist...

Naja, bzgl GTX780, und was es da noch zu reden gibt.

PCGH hat ja z.B. folgendes geschrieben: http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/News/Warum-eine-Geforce-GTX-780-OC-die-bessere-GTX-Titan-ist-1073079/

Ich hab mich auch schon gefragt, warum nVidia das ohne jedweden Druck macht. Vor allem, warum wird das "mod"-Bios nicht offiziell rausgegeben, um das Powerlimit an zu heben.

Diese Diskrepanz GTX Titan<->GTX 780 kann ich absolut nicht verstehen.

@Captain Future:
Kannst du dich bitte mal entscheiden, ob AMD und nVidia jetzt völlig abhängig von MS sind, oder eben doch nicht, weil MS auch verkackt hat, wenn sich einer verabschiedet. Es kann nur entweder oder geben, aber nicht beides.

Captain Future
2013-06-10, 01:01:05
Nö, und genau DA liegt dein Denkfehler.
AMD und nV können (und tun) Hardware bauen wie sie wollen und sie können über Treiber die komplette Funktionalität exposen. Sie können (und tun) beim Standardisieren von DX möglichst viele ihrer Ideen und Funktionen als Pflichtfeature vorschlagen. Teils um "die Sache" voranzubringen und teils, um so hoffen sie, ihrem Konkurrenten eine reinzudrücken und teils um Verhandlungsmasse zu haben (Mein Feature X ist nicht drin, also darf Konkurrent's Feature Y auch nicht rein). Doch wenn sie das DX-Siegel wollen, dann müssen sie sich dem beugen, was M$ am Ende der Verhandlungen verbindlich festlegt.

Und da am Ende des Tages immer ein Kompromiß bei rumkommt, haben beide Features "übrig". Die wollen sie natürlich auch unters Volk bringen. shared memory hat's zum Beispiel nicht in DX10 geschafft, obwohl das wohl eine ziemlich gute Idee für die Performance und auch für die Realtime-Eignung mancher Algos war. Also gab's dann eben einige Extras bei Nvidia. Die haben sicherlich wiederum gekotzt, als sie irgendeinen Rotz für DX10.1 nicht schafften, obwohl das Hauptfeature, Sample-zugriff im Z-Buffer auch irgendwie ging. Trotzdem waren sie bei .1 außen vor.

aufkrawall
2013-06-10, 14:39:32
Sorry, aber wer hat die Diskussion vom Zaun gebrochen? Ach ja richtig: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9799036&postcount=331

Ich hab überhaupt nix vom Zaun gebrochen, sonst gehts dir noch gut...

Hübie
2013-06-10, 14:47:32
Na du weißt doch das ein Stier ein rotes Tuch findet wenn er lang genug im Publikum sucht ;D
Ich hab mir Raffs Kolumne durch gelesen und kann dem nur zustimmen. Aber es sind halt Unternehmen. Die wollen nur das beste (...und was meint ihr is das wohl?).

kruemelmonster
2013-06-10, 19:23:02
@Skysnake:

Immer wieder interessant zu sehen wie du an dich gestellte Fragen und Argumente, z.B. von Captain Future auf der vorigen Seite, mit belanglosem Füllmaterial (Anekdoten aus der Programmierer-Kaffeeküche) beiseite wischt um dann auch gleich wieder in den Kotz-Modus zu schalten.

Für einen angenommenen Nichtspieler ist es sehr erstaunlich wie wichtig es dir ist dass sich alle Spiele (und die involvierten Komponenten wie der Treiber) zu 100% an die Spec halten, egal wie unsinnig und nachteilig sie in einzelnen Punkten auch sein mag. Vor deinem wissenschaftlichen Hintergrund wäre dein Standpunkt auch absolut nachvollziehbar, hier gehts uns aber nicht um physikalísche Grundlagenforschung sondern um bunte Pixelanordnungen die bitte schön an ihren Kanten vernünftig geglättet sein sollen.
Die DX11 Spec erzwingt nun AppAA, aber keiner zwingt die Devs dazu vernünftiges AA zu implementieren. Sollen wir nun alle Augenkrebs bekommen nur weil du mit deinem ISO-9001 zertifizierten Rettungsring aus Beton untergehen willst?
Komm doch einmal aus deinem "Specs sind der Heiland"-Modus raus und auch du müsstest erkennen dass eine nur per NVAPI und für BQ-Freaks zugängliche Option nur von Vorteil für die Randgruppe BQ-Spieler sein kann.
Die Spec an sich wird dadurch nicht ungültig, Devs müssen sich weiterhin an den einen offiziellen DX11 Standard halten und werden weiterhin gute als auch weniger gute AA-Lösungen einbauen. Nur gäbe es bei Erfolg der Petition halt ne zusätzliche Hintertür um doch an vernünftige Kantenglättung zu kommen falls der Dev es vergeigt.

Für eine regelkonforme Flimmerhölle brauchst du jedenfalls keine Lanze brechen, und wenn dich die mangelnde Ehrfurcht vor der Heiligkeit der Spec noch so sehr kotzen lässt.

aufkrawall
2013-06-10, 20:09:49
Für eine regelkonforme Flimmerhölle brauchst du jedenfalls keine Lanze brechen, und wenn dich die mangelnde Ehrfurcht vor der Heiligkeit der Spec noch so sehr kotzen lässt.
Wo kann man diese Specs eigentlich einsehen?
Nicht, dass hier sich jemand für inszenierte Kotzkrämpfe einfach irgendwas zusammen reimt.

Hübie
2013-06-10, 22:27:17
Für D3D? Im MSDN. Da steht so gut wie alles schätz ich.

Skysnake
2013-06-10, 23:05:35
Kruemelmonster, wie wäre es denn einfach druck auf die Hersteller/Publisher aus zu üben, damit schnellstmöglich ein neuer Standard verabschiedet wird, in dem AA eben zwingend implementiert werden muss? ;)

Wäre das nicht eine vernünftige Lösung?

boxleitnerb
2013-06-10, 23:10:10
Standard und "schnellstmöglich"? Mit was willst du Druck ausüben? Und wer sagt, dass alle mitziehen? Nachher machen nur 20% mit und wir sind keinen Schritt weiter.
Sei mal ehrlich - hälst du das für realistisch? Ich nicht...

Godmode
2013-06-10, 23:10:58
Wäre natürlich eine super Sache, aber da sich eh nur die Deutschen an guter Bildqualität ergötzen, wohl vergebens. Ich kenne niemanden meiner Bekannten dem AA/AF etc. wirklich was sagt oder auch nur danach fragt warum das Bild so hässlich ist. Die wollen einfach nur zocken.

Knuddelbearli
2013-06-10, 23:21:35
Ihr seid eben BQ Nazis ^^

Hübie
2013-06-11, 00:03:40
Mein Bruder mags sogar lieber flimmernd und scharf. Er stellt AA extra ab ;D Kümmert euch lieber um die Flutwelle im Osten ;D;D

Tesseract
2013-06-11, 00:43:33
Mein Bruder mags sogar lieber flimmernd und scharf.
scharf != kontrastreich. das bild ist mit AA schärfer auch wenn der kontrast geringer ist.

Godmode
2013-06-11, 08:22:10
Mein Bruder mags sogar lieber flimmernd und scharf. Er stellt AA extra ab ;D Kümmert euch lieber um die Flutwelle im Osten ;D;D

Ich frage mich ernsthaft für was es Grafikkarten um mehr als 300 Euro zu kaufen gibt?

Die Flut kannst behalten, die haben wir selber.

Hübie
2013-06-11, 09:06:05
scharf != kontrastreich. das bild ist mit AA schärfer auch wenn der kontrast geringer ist.

DAS sieht er anders ;) Er hat halt noch nie nVidia gehabt und kennt kein SGSSAA mit LOD-Bias.

Dr.Doom
2013-06-11, 09:26:06
DAS sieht er anders ;) Er hat halt noch nie nVidia gehabt und kennt kein SGSSAA mit LOD-Bias.Kenn' ich auch nicht trotz nVidia-GraKa-Besitz. :freak:

Hübie
2013-06-11, 09:55:04
Na wenns ne GT430 is ...kein Wunder ;D

Knuddelbearli
2013-06-11, 10:01:50
ohne hier jemand direkt ansprechen zu wollen, ich finde beide Seiten lustig, ( da ich keine Lust habe heraussuchen wer das alles war )

als SGSSAA mit LoD Verschiebung bei AMD eingeführt haben, wurde ja vor allem von NV lauten dagegen gebasht was das zeug hält das braucht doch niemand das zerhaut das ganze bild usw ^^

Jetzt wo es auch NV hat ist es auf einmal der gelobte Gral.

boxleitnerb
2013-06-11, 10:13:33
Du behauptest also was und sagst gleich, du willst es nicht belegen? Hmkay...
Bei SGSSAA braucht man nunmal eine LOD-Verschiebung. Dagegen wird niemand etwas gehabt haben, höchstens Leute die keine Ahnung haben. Ich könnte mir höchstens vorstellen, dass man kritisiert hat, kein manuelle Eingriffmöglichkeit wie bei Nvidia zu haben.

Knuddelbearli
2013-06-11, 10:20:54
ähm NV bietet damals gar keine Einstellmöglichkeit an.

Und wenn du magst kann ich gerne in Zukunft für jede deiner Vermutungen / Spekulationen usw einen Beweis fordern mal gucken wie lange du das mitmachst ^^

Ist ja nicht so das mal das alles mit einem Bookmark abgespeichert hat wenn mal wieder einer über einen IHV lästern musste

boxleitnerb
2013-06-11, 10:23:56
Unter DX9 schon seit Ewigkeiten.
Und du behauptest etwas, was einfach keinen Sinn ergibt. SGSSAA ohne LOD-Verschiebung ist unschön, da gibt es gar nichts dran zu rütteln. Was meinst du wohl, warum es die Petition gab, damit Nvidia hier nachzog? Wenn du was Nachvollziehbares behauptet hättest, wäre das was anderes.

Knuddelbearli
2013-06-11, 11:00:58
ob es nachvollziehbar ist liegt immer noch im Auge des Betrachters. ;-)


Da du dich immer aus Prinzip angesprochen fühlst wenn ich was sage liegt es nahe das es für dich das nicht ist ^^

boxleitnerb
2013-06-11, 11:51:59
Nicht aus Prinzip, nur wenn es Unsinn ist ;)

kruemelmonster
2013-06-11, 11:53:04
Kruemelmonster, wie wäre es denn einfach druck auf die Hersteller/Publisher aus zu üben, damit schnellstmöglich ein neuer Standard verabschiedet wird, in dem AA eben zwingend implementiert werden muss? ;)

Wäre das nicht eine vernünftige Lösung?

Nein, das ist einfach realitätsfern.

Wie boxleitnerb schon sagte, was soll das bringen? Druck auf sämtliche Devs und Publisher ausüben für ein Feature wofür vllt <10% der Käuferschaft auch die Rechenleistung übrig hat? Genau, das gibt ne super Kosten <-> Nutzen Rechnung für den Publisher. :rolleyes: Überhaupt, womit "Druck ausüben"? Kaufverzicht? Juckt den Publisher nicht, dafür sind "wir" zu wenige.
Mal ganz abgesehen von dem Problem alle unter einen Hut zu bekommen. Du siehst doch schon wie schwierig es ist ne Handvoll Beteiligte beim DX-Standard auf eine Linie zu bekommen, und du möchtest hunderte Studios erziehen? Träum weiter.
Und selbst falls DX12 eine Lieblichknuffeltal-Lösung hierfür liefern würde bringt uns das heute mit DX11 rein gar nichts.

Nightspider
2013-06-11, 11:57:27
Hoffentlich sinkt die Karte noch auf 450-500 Euro bis Oktober/November.

Für BF4 / GTA5 brauch ich ordentlich Horsepower. :D

Iruwen
2013-06-11, 14:35:00
als SGSSAA mit LoD Verschiebung bei AMD eingeführt haben, wurde ja vor allem von NV lauten dagegen gebasht was das zeug hält das braucht doch niemand das zerhaut das ganze bild usw

Das ist wirklich Unsinn. Wie schon gesagt, wenn dann wurde die mangelnde manuelle Eingriffsmöglichkeit kritisiert, ansonsten haben wir gefeiert weil klar war dass NV das dann früher oder später auch anbieten würde. Wenn sich einer eingekackt hat dann wahrscheinlich Skysnake, aber der ist kein NV Leut :cool:

Skysnake
2013-06-11, 18:11:31
Ich bin "kein NV Leut" weil ich deiner Meinung nach kritisiert hatte?

Ähm ja ok.. :ugly:

Raff
2013-06-12, 21:40:10
Hoffentlich sinkt die Karte noch auf 450-500 Euro bis Oktober/November.

Für BF4 / GTA5 brauch ich ordentlich Horsepower. :D

Im Laufe des Sommers werden noch ein paar spannende Custom-Designs der GTX 780 herauskommen, welche vorerst jenseits von 600 Euro wildern.

MfG,
Raff

Nightspider
2013-06-12, 22:28:38
Ich habe Wakü. Mich interessieren Custom-Designs daher nicht wirklich.

Eine bessere Platine wäre zwar für Wakü auch nicht schlecht aber man würde custom Wasserkühler benötigen und zahlt für den Kühler dann quasi doppelt, was unterm Strich nicht viel Sinn macht.

Hübie
2013-06-13, 00:26:33
Hoffentlich sinkt die Karte noch auf 450-500 Euro bis Oktober/November.

Für BF4 / GTA5 brauch ich ordentlich Horsepower. :D

Full Ack! :D

Iruwen
2013-06-13, 11:46:13
Ich habe Wakü. Mich interessieren Custom-Designs daher nicht wirklich.

Ich auch, da interessiert mich eine EVGA Classified Hydro Copper schon.

gnomi
2013-06-13, 12:16:07
Gerade im Zuge der neuen Konsolengeneration hätte ich schon gerne schnell mehr GPU Power.
Kommt eigentlich dieses Jahr noch eine neue Generation von AMD, die ausgehend von einer GTX 680 durch GCN 2 vielleicht interessant sein könnte?
Ansonsten werden die Preise für 780GTX und Titan wohl schätzungsweise gar nicht nachgeben.
Nvidia erreicht ja mit der 770 schon die schnellste AMD Karte.

Nightspider
2013-06-13, 12:23:04
Ich auch, da interessiert mich eine EVGA Classified Hydro Copper schon.

Bei ungerechtfertigten fast 200 Euro Aufpreis? :|

Hübie
2013-06-13, 12:47:45
Gerade im Zuge der neuen Konsolengeneration hätte ich schon gerne schnell mehr GPU Power.
Kommt eigentlich dieses Jahr noch eine neue Generation von AMD, die ausgehend von einer GTX 680 durch GCN 2 vielleicht interessant sein könnte?
Ansonsten werden die Preise für 780 GTX und Titan wohl schätzungsweise gar nicht nachgeben.
Nvidia erreicht ja mit der 770 schon die schnellste AMD Karte.

Im Februar wurde mir der September als paper-launch zugezwitschert. Ebenso dass im Juni was von nVidia kommt. Da alles eintrat was die Quelle verriet halte ich das AMD-Lineup für sehr wahrscheinlich. Oktober sollen die dann "kaufbar" sein.

Iruwen
2013-06-13, 12:54:10
Bei ungerechtfertigten fast 200 Euro Aufpreis? :|
Neues PCB + Wakü + Garantie, geht klar. Ein Kühlkörper allein kostet ja schon 80-100€.

Nightspider
2013-06-13, 13:01:54
Garantie gibts auch bei günstigen Karten. Pcb bringt wenig.

Iruwen
2013-06-13, 14:25:52
Kostet trotzdem. Bringt natürlich überhaupt nur was wenn man die Spannung auch ändern kann.

Angiesan
2013-06-13, 19:06:50
So für alle Leid geplagten GTX 780 User hier mal eine von mit gemodete nv_disp für den 314.22 die GTX 780 rennt damit sehr gut und es gibt ein paar Sachen die verwundern, das Auffälligste ist, dass der Lüfterspeed mit diesem Treiber so eingestellt wird wie er im Bios hinterlegt ist, also 30% und nicht 26% bzw. 25% und das die Karte ein etwas andreres Boostverhalten hat, so wie man es eigentlich gewohnt ist und die Drops auf die Base-Taktraten sind damit auchl verschwunden :wink:

LSSJBroly
2013-06-13, 19:52:25
So für alle Leid geplagten GTX 780 User hier mal eine von mit gemodete nv_disp für den 314.22 die GTX 780 rennt damit sehr gut und es gibt ein paar Sachen die verwundern, das Auffälligste ist, dass der Lüfterspeed mit diesem Treiber so eingestellt wird wie er im Bios hinterlegt ist, also 30% und nicht 26% bzw. 25% und das die Karte ein etwas andreres Boostverhalten hat, so wie man es eigentlich gewohnt ist und die Drops auf die Base-Taktraten sind damit auchl verschwunden :wink:


Aha... werde das gleich mal testen, wenn meine GTX 780 aus der RMA wieder da ist. Könntest du vllt einen precision-X screen zeigen, wie sich die Karte (der GPU-takt) in 3D verhält?

Angiesan
2013-06-13, 20:37:20
So bitte hier mal nach ca.5 Minuten Crysis 3 ich habe das auch schon länger probiert, da ändert sich nix mehr.
Die Karte ist so ganz ohne Tool schneller da sie eigentlich zumindest in Crysis 3 und Metro LL immer um 50 MHz mehr taktet.
Was hat deine denn?
http://abload.de/thumb/inspectorfnuyy.png (http://abload.de/image.php?img=inspectorfnuyy.png)

LSSJBroly
2013-06-13, 20:44:37
Echt cool. besitzt du den referenzkühler? Wenn ja, mit wieviel RPM dreht der Lüfter im Idle bei 30%?

Angiesan
2013-06-13, 21:00:10
ja 30% wobei das immer noch sehr leise ist, wie du aber siehst, dreht der Lüfter unter Last etwas weiter auf, 55-56% ca. das ist etwas lauter aber immer noch sehr angenehm und nicht zu vergleichen mit den 55 % einer GTX 690 :biggrin: Ich glaube die haben nur per Treiber die Ramp verändert, was ohne Probleme machbar sein sollte um das TT niedriger anzusetzen. Damit holt man genau die 5% mehr die man braucht um die Karten besser zu differenzieren ;-) Das könnte auch der Grund sein warum die EVGA OCX so Probleme hat mit Ihren Lüftern

Angiesan
2013-06-18, 20:52:02
Hier mal eine Inf für die 780er für den neuen 320.27 Quadro.

Godmode
2013-07-02, 15:39:05
http://www.computerbase.de/artikel/grafikkarten/2013/palit-geforce-gtx-780-super-jetstream-im-test/2/

Ziemliche nette Karte für nicht SLI Nutzer.

boxleitnerb
2013-07-02, 16:02:56
Wegen "nur" 3GB? Schwer zu sagen, ich persönlich hätte auch ein mulmiges Gefühl, aber das muss nichts heißen. 47% Vorsprung zur 7970 GHz, alter Schwede. Das wird AMD auch mit einer werksübertakteten Hawaii nicht einholen können glaube ich.

Godmode
2013-07-02, 16:04:13
Nein weil kein Direct-Exhaust Kühler

LSSJBroly
2013-07-02, 16:35:32
Naja, meine GTX 780 ist noch etwas schneller als diese Super Jetstream, nicht lauter als eine refernz GTX 780 (da Temp-Target auf stock) und dabei noch im DHE :D

Raff
2013-07-02, 17:06:51
Wegen "nur" 3GB?

Ich kann dir anhand jüngster Erfahrungen sagen, dass das derzeit kein Nachteil für die GTX 780 ist. Wie das 2014 aussieht, ist eine andere Sache ...

MfG,
Raff

Nightspider
2013-07-02, 17:08:26
Warum hast du dir eigentlich eine Titan gekauft, Raff?
Gebraucht? Die Titan hat ja bis auf den Speicher null Vorteile gegenüber der 780 oder?

Und die 780 haben doch sogar noch ein besseres Stepping.

boxleitnerb
2013-07-02, 17:08:49
Ich krieg mit meinen Titans manchmal schon mehr wie 3GB belegt - aber ob eine Karte mit nur 3GB in meinen Settings dann ruckeln würde, kann ich natürlich nicht sagen. Für SingleGPU sind 3GB ausreichend denke ich, für SLI mit 2-4 GPUs...schwierig zu sagen.

aufkrawall
2013-07-02, 17:27:47
Wo bekommst du ohne Mods denn mehr als 3GB voll?

LSSJBroly
2013-07-02, 17:34:22
Das höchste, was ich bei meiner 780 gesehen habe war 2,8GB in Crysis 3 mit 4x MSAA in 2160p. Einzig Skyrim kommt ebenfalls in 1440p daran, dann aber eben mit Mods.

Ich glaube, das selbst 3GiB für SLI erstmal reichen werden.

boxleitnerb
2013-07-02, 17:43:30
Wo bekommst du ohne Mods denn mehr als 3GB voll?

Hauptsächlich mit erzwungenem AA, das frisst viel. Da brauch ich bei Skyrim z.B. gar keine Mods außer dem normalen HD-Pack. Aber sowas ist selten, mehr Beispiele könnte ich dir jetzt spontan gar nicht nennen.

Knuddelbearli
2013-07-02, 17:44:39
Warum hast du dir eigentlich eine Titan gekauft, Raff?
Gebraucht? Die Titan hat ja bis auf den Speicher null Vorteile gegenüber der 780 oder?

Und die 780 haben doch sogar noch ein besseres Stepping.

och 15% mehr Leistung bei selben Takt ist doch immer noch ganz nett und soviel teurer als die Palti ist eine Titan auch wieder nicht. Wobei das eher daran liegt das auch die 780 hoffnungslos überteuer ist ^^

aufkrawall
2013-07-02, 17:48:38
Hauptsächlich mit erzwungenem AA, das frisst viel. Da brauch ich bei Skyrim z.B. gar keine Mods außer dem normalen HD-Pack. Aber sowas ist selten, mehr Beispiele könnte ich dir jetzt spontan gar nicht nennen.
Forciertes AA frisst bei Skyrim doch schon nach den Logo-Videos abartig Speicher, da läuft irgendwas schief.
Gut, mehr VRAM ist natürlich eine Absicherung gegenüber schlampigen Entwicklern.

Angiesan
2013-07-02, 17:51:06
Hmmm 3GB sind sicherlich Heute genug auch mit SLi, da die Halbwert-Zeit der GPu´s aber gefühlt länger wird, kann ich mir vorstellen, dass man mit einem Titan SLi auch noch in 2-3 Jahren vorzüglich spielen wird können. Dann könnte der große Speicher sich bezahlt machen. Ob das dann noch jemand drin hat oder schon wieder bei der "Titan II oder III" ist, ist eine andere Sache:biggrin:

Nightspider
2013-07-02, 18:02:50
och 15% mehr Leistung bei selben Takt ist doch immer noch ganz nett und soviel teurer als die Palti ist eine Titan auch wieder nicht. Wobei das eher daran liegt das auch die 780 hoffnungslos überteuer ist ^^

Ich habe vergessen, das die 780 ja auch von der Shaderzahl beschnitten ist.
Allerdings gleicht die das ja mit mehr Takt und besserem Stepping etwas aus.
15% sind das nirgends. Eher 5-10%

Mich würde mal interessieren ob die 780 durch die Bank weg bessere Taktraten schafft, wegen dem besseren Stepping.

boxleitnerb
2013-07-02, 18:04:42
Besseres Stepping? Woher nimmst du diese Info? Und er schrieb doch "bei gleichem Takt".

Nightspider
2013-07-02, 18:05:39
Wurde das nicht in den Tests gesagt? Oder liege ich da auch daneben?
Zumindest ein neueres Stepping. Das es besser ist, das nehme ich automatisch an.

Angiesan
2013-07-02, 18:15:33
Ist beides A1 Silicium :wink: Beim Titan GK110-400 A1 und bei der GTX 780 GK 110-300 A1 Mit original Bios ist es aber wohl so, dass die GTX 780 etwas höhere Taktraten schafft, da dem Titan das PT eher in die Parade fährt, das ist aber ein anderes Problem und hat nichts mit der wirklichen Übertaktbarkeit des Chips zu tun. Der Titan muss halt bei gleichem PT 2 Cluster und 3 GB Speicher mehr bedienen.

horn 12
2013-07-02, 18:56:44
ComputerBase mal wieder
Pusth die GTX 7x0-er Serie mal wieder

Sollen lieber mal 8-10 Games testen,- als von NV vorgegeben Titel.
Im Schnitt ist eine GTX 780 sicherlich knappe 20% vor einer HD7970 Ghz, aber WENN ÜBERTAKTET wird muss auch die HD7970 mit einbezogen werden, nicht jene mit 1000/1050 Mhz antreten lassen Gegen eine Hausübertakte Jetstream :-(
Dann relativiert sich der Vorsprung in etwa wie Stock / Stock - oder OC / OC

Thunder99
2013-07-02, 19:08:43
ComputerBase mal wieder
Pusth die GTX 7x0-er Serie mal wieder

Sollen lieber mal 8-10 Games testen,- als von NV vorgegeben Titel.
Im Schnitt ist eine GTX 780 sicherlich knappe 20% vor einer HD7970 Ghz, aber WENN ÜBERTAKTET wird muss auch die HD7970 mit einbezogen werden, nicht jene mit 1000/1050 Mhz antreten lassen Gegen eine Hausübertakte Jetstream :-(
Dann relativiert sich der Vorsprung in etwa wie Stock / Stock - oder OC / OC
Naja, der Vergleich wird eher mit einer GTX Titan gemacht und DA macht die Karte wirklich eine gute Figur. Der Seitenhieb auf die HD sehe ich da nicht so problematisch ist aber ein Kritikpunkt wert.

boxleitnerb
2013-07-02, 19:11:26
ComputerBase mal wieder
Pusth die GTX 7x0-er Serie mal wieder

Sollen lieber mal 8-10 Games testen,- als von NV vorgegeben Titel.
Im Schnitt ist eine GTX 780 sicherlich knappe 20% vor einer HD7970 Ghz, aber WENN ÜBERTAKTET wird muss auch die HD7970 mit einbezogen werden, nicht jene mit 1000/1050 Mhz antreten lassen Gegen eine Hausübertakte Jetstream :-(
Dann relativiert sich der Vorsprung in etwa wie Stock / Stock - oder OC / OC

Was sollen die Unterstellungen? Weißt du, wieviel Arbeit so ein Test ist? Bei kurzen Produkttests werden eben nur wenige Spiele getestet. Kennst du die Kriterien, nach denen Wolfgang die Spiele ausgewählt hat?

Die schnellste werksübertaktete 7970 GHz taktet um schlappe 50 MHz höher, das sind nichtmal 5% mehr...

Iruwen
2013-07-02, 19:13:40
Die 680 und 780 im Vergleich sind auch Referenzkarten. Das ist einfach wieder haltloses Gebashe.

boxleitnerb
2013-07-02, 19:52:27
Drei der fünf Titeln sind übrigens in AMDs Gaming Evolved Programm. Soviel zu "von NV vorgegebene Titel"...

Iruwen
2013-07-02, 20:16:32
Gerade Tomb Raider ist ja ein Titel der ganz klar Nvidia bevorzugt :rolleyes:

Angiesan
2013-07-02, 20:19:24
Ich denke auch, dass das Augenmerk eher auf der Titan -Performance gelegen hat. Es gibt zwar auch die HD7970 mit 1200 MHz aber das ändert auch nix dran denn es gibt auch noch höher übertaktete 780er.

Das was NV da gerade zulässt ist nicht besonders nett gegenüber den Titan-Usern.
Ich würde mich da schon leicht veräppelt vorkommen, zumal es ja nach wie vor nicht wirkliche OC Modelle von der Titan gibt. Und wenn man nicht an irgendwelchen PT´s und TT´s rumschraubt und taktet sind die GTX 780er OC-Karten einfach schneller oder zumindest gleich schnell, das ganze für weniger Geld so sollte man mit der Premium-Kundschaft meiner Meinung nach nicht umgehen.

Die HD 7970 und GHz Ed, sorry wenn ich das mal so hart sage spielt nicht in dieser Liga weder vom Preis noch von der Performance.

Da könnte man dann auch anführen warum nicht alle anderen Karten als OC Versionen getestet wurden.

Match-Maker
2013-07-02, 20:20:07
Die schnellste werksübertaktete 7970 GHz taktet um schlappe 50 MHz höher, das sind nichtmal 5% mehr...
Die schnellste werksübertaktete HD 7970 GHz Edition taktet mit 1200 MHz/3200 MHz (Sapphire Toxic Radeon HD 7970 GHz Edition mit Lethal-Boost-BIOS).

Was mich aber an den CB-Tests stört, ist die Tatsache, dass ständig mit unterschiedlichen Treibern getestet wird.
Was soll das? :confused:

Raff
2013-07-02, 20:20:51
Warum hast du dir eigentlich eine Titan gekauft, Raff? Gebraucht?

Nice price. Ich habe keine 880 Euro bezahlt, sondern etwas weniger. Man muss nur das richtige Angebot abpassen. :)

Gäbe es keine gelungenen Mod-BIOSe, hätte ich das niemals gemacht. Ohne Mods ist die Kiste einfach überteuert. "Unchained" @ 1.100+ MHz jedoch ... harr! :naughty:

Die Titan hat ja bis auf den Speicher null Vorteile gegenüber der 780 oder?

Eine GTX 780 braucht laut meinen Tests ziemlich genau 1.006 MHz, um mit der Titan gleichzuziehen; sie ist aufgrund des kleineren Speichers bei gleicher theoretischer Rechenleistung etwas schneller. Eine Titan mit 1.006 MHz ist wiederum etwas schneller als eine GTX 780 mit 1.006 MHz (10 bis 15 Prozent). Gute GTX-780-Karten erreichen 1.200 MHz, eine Leistung, für die eine Titan nur etwa 1.058 MHz braucht. "Unchained" Titans schaffen locker mehr als 1.100 MHz, also die höchste derzeit erzielbare Leistung. Hinzu kommt der zukunftssichere Speicherausbau und das schöne (wenn auch flüchtige) Gefühl, die dickste Grafikkarte im Rechner zu haben. Ich griff zur Titan, da ich mein 30-Zoll-LCD neuerdings auch mit 3.840x2.400 Pixeln betreiben kann – da braucht's jedes Megahertz und jedes Megabyte. Reicht das alles? :biggrin:

Und die 780 haben doch sogar noch ein besseres Stepping.

Wie hier schon gesagt wurde, ist das nirgends zu sehen. Eher ist die GTX 780 schlechter, denn es handelt sich ja um Chips, die keine Titan werden konnten. Mit einem Mod-BIOS lässt sich eine Titan höher takten als die etwas ungezügelteren OC-Modelle der GTX 780. :)

Die schnellste werksübertaktete HD 7970 GHz Edition taktet mit 1200 MHz/3200 MHz (Sapphire Toxic Radeon HD 7970 GHz Edition mit Lethal-Boost-BIOS).

Ja, aber diese Karte ist nicht mehr lieferbar. Alle anderen Kisten (Asus Matrix Platinum, Powercolor PCS+, Club 3D Royal Ace ...) boosten/takten nur mit 1.100 MHz. Die Asus-Kiste zieht dank 1.100/3.300 MHz knapp alle anderen ab.

MfG,
Raff

aufkrawall
2013-07-02, 20:23:41
Mit einem Mod-BIOS lässt sich eine Titan höher takten als die etwas ungezügelteren OC-Modelle der GTX 780. :)

Wobei man dann zum abartigen Preis noch ne andere Kühlung addieren muss, die man auch noch selber draufwurschteln darf. Diese Bastelzeit könnte man auch wieder geldlich veranschlagen. ;)

Raff
2013-07-02, 20:25:54
Eigentlich haben wir die gleiche Meinung: Eine hochgezüchtete GTX 780 ist die bessere Titan (http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/News/Warum-eine-Geforce-GTX-780-OC-die-bessere-GTX-Titan-ist-1073079/). Aber wir reden hier nicht von Vernunft. ;D

MfG,
Raff

LSSJBroly
2013-07-02, 20:28:34
Aber wir reden hier nicht von Vernunft. ;D

MfG,
Raff

Hey, selbst bei den 650€ für meine GTX 780 hat bei mir die Vernumpft ausgesetzt xD

boxleitnerb
2013-07-02, 20:31:49
Die schnellste werksübertaktete HD 7970 GHz Edition taktet mit 1200 MHz/3200 MHz (Sapphire Toxic Radeon HD 7970 GHz Edition mit Lethal-Boost-BIOS).

Was mich aber an den CB-Tests stört, ist die Tatsache, dass ständig mit unterschiedlichen Treibern getestet wird.
Was soll das? :confused:

Die Karte ist in Europa nicht erhältlich laut geizhals bzw gar nicht mehr gelistet.
Bei den Treibern stimme ich teilweise zu. Allerdings muss man bedenken, dass es im Schnitt kaum einen Unterschied macht. Ausnahmen wie den 12.11 gibt es, aber die sind selten. Entweder mehr Spiele oder einheitliche Treiber. Ich könnte mich nicht entscheiden ;)

Raff
2013-07-02, 20:33:40
Hey, selbst bei den 650€ für meine GTX 780 hat bei mir die Vernumpft ausgesetzt xD

Wer sein altes Schnitzel verkauft, subtrahiert das vom Neukauf und fühlt sich besser. ;)

MfG,
Raff

LSSJBroly
2013-07-02, 20:46:03
Wer sein altes Schnitzel verkauft, subtrahiert das vom Neukauf und fühlt sich besser. ;)


Naja, gut, mit dem verkauf meiner GTX 680 hab ich effektiv sogar noch gewinn gemacht xD (im Dezember für 300€ gekauft, und am 23. Mai für 320€ vertickt :biggrin:)

Trotzdem bleiben 650€ ne menge Asche...
Aber was solls, ne GTX 780 mit 1,1GHz ist schon flott, und die 10, 15%, die die Titan bei selben Takt schneller wäre, interessieren mich auch nicht mehr:)

gedi
2013-07-03, 00:05:59
Die Karte ist in Europa nicht erhältlich laut geizhals bzw gar nicht mehr gelistet.
Bei den Treibern stimme ich teilweise zu. Allerdings muss man bedenken, dass es im Schnitt kaum einen Unterschied macht. Ausnahmen wie den 12.11 gibt es, aber die sind selten. Entweder mehr Spiele oder einheitliche Treiber. Ich könnte mich nicht entscheiden ;)

Am besten doch beides...

Hier (http://ht4u.net/reviews/2013/asus_matrix_hd_7970_platinum_im_test/index39.php) sieht es etwas anders aus, wobei ich auch feststellen muss, dass die 780 ein rundes Produkt darstellt und der Preis imo absolut gerechtfertigt ist. Im P/L-Verhältnis zum Bohlen ein Preishit und auch der Vergleich zur 7970GHZ hinkt nicht, da entsprechende Mehrleistung im GPU-Segment schon immer exorbitant bezahlt werden mußte.

Gott sei dank muss ich mich aufgrund meines NB nicht mehr mit solchen Problemen in Bezug auf Geldverbrennung auseinandersetzen.

boxleitnerb
2013-07-03, 08:04:10
Wie ich schon öfters sagte, der HT4U-Test wirkt unrund auf mich. 10 Prozentpunkte Unterschied zu anderen Reviews trotz praktisch Basis-Takt lässt sich schwer erklären. Dazu die komische Taktskalierung und Benchmarks, wo die 7970 GHz uncharakteristisch sogar gleichaufliegt (nicht Dirt Showdown oder Sleeping Dogs, wo dies durchaus vorkommen kann) bzw. Titan sich von der 680 überhaupt nicht absetzen kann. Das ergibt für mich keinen Sinn und wurde so auch nie anderswo beobachtet. Kurz, zuviele Ungereimtheiten für mich, als dass ich diesen Test so ganz ernst nehmen könnte.

Ätznatron
2013-07-03, 08:18:43
Wie ich schon öfters sagte, der HT4U-Test wirkt unrund auf mich. 10 Prozentpunkte Unterschied zu anderen Reviews trotz praktisch Basis-Takt lässt sich schwer erklären. Dazu die komische Taktskalierung und Benchmarks, wo die 7970 GHz uncharakteristisch sogar gleichaufliegt (nicht Dirt Showdown oder Sleeping Dogs, wo dies durchaus vorkommen kann) bzw. Titan sich von der 680 überhaupt nicht absetzen kann. Das ergibt für mich keinen Sinn und wurde so auch nie anderswo beobachtet. Kurz, zuviele Ungereimtheiten für mich, als dass ich diesen Test so ganz ernst nehmen könnte.

HT4U testet gewöhnlicherweise immer mit neuen Treibern und einer Vielzahl von Anwendungen und Spielen.

Die Testmethodik wird deutlich beschrieben, man kann die Ergebnisse also nachstellen.

Insgesamt halte ich die Tests auf HT4U für seriöser als die auf CB.

PS: Kann es auch daran liegen, dass von HT4U mindestens die Karten für den Titan-Test in Eigenregie gekauft wurden, also keine möglicherweise handselektierten von nVidia gestellten Prachtexemplare getestet wurden? So, wie bei den anderen Redaktionen?

boxleitnerb
2013-07-03, 08:43:07
Treiber können einen Unterschied machen, aber nicht soviel, das halte ich für unmöglich. Auch andere Redaktionen testen mit vielen Spielen. Und die Probleme mit der Taktskalierung und dem teilweise extrem geringen Abstand von Titan zu 680 bleiben und machen stutzig.
Das mit der Handselektion ist reine Spekulation. Mit so einem Vorwurf wäre ich vorsichtig.

Ätznatron
2013-07-03, 08:49:32
Treiber können einen Unterschied machen, aber nicht soviel, das halte ich für unmöglich.


Du spekulierst also darauf, dass der Unterschied nicht so groß sein kann.

Möglich wäre es aber trotzdem.

Die Handselektion würde wunderbar die Differenz erklären - wenn auch natürlich nur rein spekulativ. :wink:

RoughNeck
2013-07-03, 09:10:03
Mögliches CPU Limt bei HT4U.
Der I7 3820 wird Stock, ohne Turbo und ohne HT betrieben.

http://ht4u.net/reviews/2013/asus_matrix_hd_7970_platinum_im_test/index3.php

Wenn ich mir die Games einzeln ansehe und das mit anderen Reviews vergleiche, stimmt beim Review von HT4U was nicht. Die Unterschiede sind zum Teil schon sehr extrem.

Raff
2013-07-03, 09:11:23
Prozessor, Treibermischmasch, AF-Qualität: Es gibt unzählige Faktoren, die (neben der Spiele-Auswahl) ein abweichendes Bild zimmern können.

MfG,
Raff

Hübie
2013-07-03, 09:46:21
HT4U testet ohne CPU-Turbo/SMT. Das macht schon einiges aus.

boxleitnerb
2013-07-03, 09:49:05
Du spekulierst also darauf, dass der Unterschied nicht so groß sein kann.

Möglich wäre es aber trotzdem.

Die Handselektion würde wunderbar die Differenz erklären - wenn auch natürlich nur rein spekulativ. :wink:

Bzgl. Treiber:
Im Schnitt bei so vielen Spielen? Nie im Leben, da muss ich nicht spekulieren. Bei einzelnen Ergebnissen schon eher. Erklärt immer noch nicht die geringen Unterschiede von teils unter 10% zwischen Titan und 680.
Und Handselektion ist eher irrelevant hier, da die Taktraten mitprotokolliert bzw. gar festgepinnt wurden und auch Computerbase nicht nennenswert über den Basistakt herauskam. Die komische Taktskalierung bleibt ebenfalls bestehen - wenn bei fix eingestellten Takt von 9% mehr Takt nur 4% mehr fps (836 MHz vs 914 MHz) ankommen, stimmt etwas nicht. Perfekte Skalierung erwarte ich nicht, aber das ist einfach zu merkwürdig und deckt sich auch nicht mit meinen eigenen Messungen bei verschiedenen fixen Taktraten. Die Skalierung ist eindeutig besser.

Spiele- bzw. Szenenauswahl ist da schon eher ein Faktor.

Ätznatron
2013-07-03, 10:13:40
Die komische Taktskalierung bleibt ebenfalls bestehen - wenn bei fix eingestellten Takt von 9% mehr Takt nur 4% mehr fps (836 MHz vs 914 MHz) ankommen, stimmt etwas nicht. Perfekte Skalierung erwarte ich nicht, aber das ist einfach zu merkwürdig und deckt sich auch nicht mit meinen eigenen Messungen bei verschiedenen fixen Taktraten. Die Skalierung ist eindeutig besser.

Spiele- bzw. Szenenauswahl ist da schon eher ein Faktor.

Hier (http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index9.php) mal das Verfahren, mit dem HT4U das Boostverhalten testet.

Erkennst du daran irgendwelche Auffälligkeiten, die deiner Meinung nach das "wahre" Resultat verfälschen könnten? Die Titan wird ja ebenfalls nach dieser Methode gemessen.

Die Spiele- bzw. Szenenauswahl spielt natürlich eine große Rolle. Offenbar vergrößert das die Bandbreite möglicher Ergebnisse. Und das ist doch völlig okay.

Angiesan
2013-07-03, 12:52:13
Es gibt verschiedene Faktoren an denen das hängen könnte!
Sicherlich spielt die relativ schwache CPU für einen High End Grafikkarten Test auch eine Rolle, aber wie Boxleitnerb schon richtig festgestellt hat sicherlich die verwendete Testszene die Auswahl der Spiele finde ich jetzt aufgrund der Masse eher unkritisch.

Die Tests von HT4 U sind meiner Meinung nach mit die besten die man im Netz finden kann, trotzdem zeigen sie meiner Meinung nach nur einen Teilbereich auf was auch vollkommen normal ist.
Man könnte jetzt annehmen, das es hier leichte Tendenzen in Richtung AMD gibt, da in der Tat ähnliche Testergebnisse eher selten sind.
Es hängt aber meiner Meinung nach nicht am Testverfahren mit dem Boost, das ich als User einer GTX 780 ausdrücklich begrüße! Sondern eher an den getesteten Szenen und auch an der Dauer der Testszene.

HT4U teste "nur" 10 Sek. lang im Gegensatz zu z.B. Computerbase die dort gleich 25 Sek. lange Testszenen haben und auch Frameverläufe anbieten, toll!
Um mal dies mal an einem Beispiel zu verdeutlichen habe ich mich bei Computerbase bedient konkret im letzten Test der GTX 660 Ti vs HD7950 vs GTX 760 den kompletten Test und alle Framverläufe findet man dort:http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-760-im-test/

Ich habe jetzt als Beispiel einfach mal Far Cry 3 gewählt, ich hätte auch Palanetside oder was immer nehmen können was nicht eindeutig schneller auf der einen oder anderen Grafikkarte läuft, aber seht selbst:

In diesem Bild sieht man die Frameverläufe des kompletten Tests:
http://abload.de/thumb/farcry35ys5c.png (http://abload.de/image.php?img=farcry35ys5c.png)

In diesem habe ich das ganze auf 10 Sekunden gekürzt und das in Richtung AMD, die GTX 660 Ti könnte sich hier überhaupt nicht von der AMD absetzen.
http://abload.de/thumb/farcry3proamdzcss6.png (http://abload.de/image.php?img=farcry3proamdzcss6.png)

Und jetzt mal genau in die andere Richtung GTX 660 Ti auch hier nur 10 Sekunden die GTX 660 TI ist hier klar schneller
http://abload.de/thumb/farcry3pronv9rs35.png (http://abload.de/image.php?img=farcry3pronv9rs35.png)

Und nun?

Mein Fazit:
Der Durchschnitt der Testergebnisse im Netz ist ausschlaggebend aus 10 % können bei anderen Testszenen gleich mal 20% oder 30% 'werden und umgekehrt.

Ich selbst könnte heute ohne Vorbereitung einen Crysis3 Test mit einer GTX 690 und GTX 780 zeigen wo Erstere gute 40%+ schneller ist.
Ebenso könnte ich einen erstellen in dem der Unterschied nur etwas mehr wie 15% ist und das ganz ohne CPU Limit:freak::biggrin:

Grüße

boxleitnerb
2013-07-03, 13:04:03
Hier (http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index9.php) mal das Verfahren, mit dem HT4U das Boostverhalten testet.

Erkennst du daran irgendwelche Auffälligkeiten, die deiner Meinung nach das "wahre" Resultat verfälschen könnten? Die Titan wird ja ebenfalls nach dieser Methode gemessen.

Die Spiele- bzw. Szenenauswahl spielt natürlich eine große Rolle. Offenbar vergrößert das die Bandbreite möglicher Ergebnisse. Und das ist doch völlig okay.

Wenn ich mir die festgepinnten Taktraten bei HT4U anschaue (Basistakt) und "unser Takt" bei Computerbase sehe ich nicht viele Unterschiede. Mal taktet bei CB eine Karte etwas höher, im Schnitt sind dies aber nichtmal 3% mehr wie beim Basistakt (Mittelwert aller 18 Taktangaben). Und dennoch liegt der Unterschied der beiden Tests bei AMD vs Nvidia bei ca. 15 (!!!) Prozent. Bei HT4U liegen 7970 GHz (mit knapp 5% Boost zugerechnet) und 780 auf Basistakt praktisch gleichauf. Bei Computerbase liegt die 780, die im Schnitt mit 888 MHz taktet laut Angaben um 16% vorne - beides mal 2560er Auflösung. Das ist derart massiv, ich weiß nicht wie man das erklären soll. Mit Takt sicher nicht, es sei denn die Angabe "unser Takt" hat mit dem Takt in den Benchmarks nichts zu tun. Und selbst wenn sind es wie gesagt nur knapp 3%, bleiben immer noch gute 10% Differenz zwischen den Tests bei Taktgleichheit.

Es wird wohl so sein wie Angiesan sagt - die Auswahl der Spiele und Szenen kann einen deutlichen Einfluss haben. Ich bin aber immer noch sehr skeptisch bei einzelnen Ergebnissen von HT4U (Bioshock Infinite, Batman AC). Gerade bei diesen Spielen sind die Ergebnisse absolut ungewöhnlich, und der geringe Abstand von 680 zu Titan/780 dort ergibt auch keinen Sinn. Das wäre höchstens erklärbar, wenn der Boost der 680 voll ausgefahren wurde im Gegensatz zu den GK110-Karten.

Match-Maker
2013-07-03, 14:57:59
Bei den Treibern stimme ich teilweise zu. Allerdings muss man bedenken, dass es im Schnitt kaum einen Unterschied macht. Ausnahmen wie den 12.11 gibt es, aber die sind selten. Entweder mehr Spiele oder einheitliche Treiber. Ich könnte mich nicht entscheiden ;)
Ich schon. ;)
Lieber aktuelle und einheitliche Treiber, dafür aber von mir aus weniger Spiele.
Und auch bei den aktuellen Treibern gibt es z.T. große Performance-Unterschiede.

Beispiel: "Für unseren Test nutzen wir die von Nvidia vorab bereitgestellten 320.39er-Treiber. Hierzu ein paar Anmerkungen. Der Treiber bietet einen großen Leistungssprung in Skyrim mit aktiviertem Supersample-Antialiasing - auch auf der Radeon konnten wir starke Zuwächse mit dem aktuellen Beta-Catalyst feststellen" (PCGH, GTX 760 Test, LINK (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/Geforce-GTX-760-Test-Review-1075818/2/))

Hübie
2013-07-03, 15:18:50
Am sinnvollsten sind doch Tests die das Szenario so praxisnah wie möglich gestalten. Ich installiere auch immer aktuelle Treiber und zocke auch aktuelle Spiele. Weiß nicht was ihr immer habt. Theoretiker :rolleyes:

Knuddelbearli
2013-07-03, 17:22:15
HT4U betreibt einen extremen aufwand für das perfekte testszenario usw

Also wenn ich die Wahl zwischen CB oder HT4U Ergebniss habe nehme ich eindeutig das HT4U Ergebnis, auch weill ich teilweise direkte Einblicke habe wie er testet

Iruwen
2013-07-03, 17:27:49
Ich nehm den Mittelwert aus HT4U und PCGH (ohne jetzt was Böses über CB sagen zu wollen).

LSSJBroly
2013-07-03, 17:45:36
Also wenn ich die Wahl zwischen CB oder HT4U Ergebniss habe nehme ich eindeutig das HT4U Ergebnis, auch weill ich teilweise direkte Einblicke habe wie er testet

Kann ich die Szene denn ganz genau nachbenchen, wie sie (HT4u) es machen? Hab ich die savegames dazu?
Wenn's um Benchmarks geht, kommt man einfach nicht um die PCGH (Raff und co) herum.

boxleitnerb
2013-07-03, 17:52:02
HT4U betreibt einen extremen aufwand für das perfekte testszenario usw

Also wenn ich die Wahl zwischen CB oder HT4U Ergebniss habe nehme ich eindeutig das HT4U Ergebnis, auch weill ich teilweise direkte Einblicke habe wie er testet

Das schafft die Ungereimtheiten leider nicht aus der Welt.

Kriton
2013-07-03, 18:10:06
Umgereimtheiten in Bezug auf was? Du "unterstellst", dass das Problem bei HT4U liegt. Wenn deren Testszenario aber sauber beschrieben ist und prinzipiell nachstellbar, dann ist das vielleicht nicht das Problem von HT4U, sondern anderen Testern?
Wie sieht die Beschreibung von deren Testszenarien aus? Oder ist das Problem gar nicht bei irgendeinem Tester, sondern liegt tatsächlich daran, dass unterschiedliche Szenen so unterschiedliche Anforderungen an die HW haben (Nvidia und AMD haben ja unterschiedliche Stärken und Schwächen auf Basis ihrer jeweiligen Architektur) - Angiesan argumentiert ja auch in diese Richtung?

Vielleicht gibt es auch ein Problem mit dem Testszenario - dann wäre es aber Aufgabe eines Kritikers dieses deutlich zu machen und nicht "pauschal" Abweichungen in den Ergebnissen demjenigen anzulasten, der sein Testszenario genau beschreibt.

Ich bin sicher nicht ausreichend genug qualifiziert die verschiedenen Testszenarien zu bewerten, aber deine Kritik ist für meinen Eindruck zu pauschal und zu wenig substantiiert.

Blaire
2013-07-03, 18:22:02
Kann ich die Szene denn ganz genau nachbenchen, wie sie (HT4u) es machen? Hab ich die savegames dazu?
Wenn's um Benchmarks geht, kommt man einfach nicht um die PCGH (Raff und co) herum.

Ich traue nur meinen eigenen Benchmarks ;) Wenn ich sehe wie Titan & Co eingebremst werden, hat das nicht viel mit der Praxis zu tun. NV wäre vieleicht gut beraten einen Power-/Temp-Target Schalter direkt in die Treiber (ControlPanel) zu integrieren und zwischen Normal- und Performance-Setting zu unterscheiden, solch ein Kuddelmuddel in den aktuellen Reviews geht mal garnicht.

Knuddelbearli
2013-07-03, 18:32:21
wie sucht CB ihre testsavesgames aus?

Größte GPU Belastung überhaupt?
Größte GPU Auslastung bei NV und AMD?
Niedrigste FPS?

Werden mehr als die ersten 1-3 Level eines Spieles getestet?

und wenn NV solchen ( aus Benchmarker sicht ) Schott verbaut muss sich der Tester eben behelfen. und sowohl CB auch als HT4U geben ja an was für einen Takt sie gemessen haben, und das ist oft genug gerade mal nur der garantierte Boost von NV

boxleitnerb
2013-07-03, 18:33:31
Umgereimtheiten in Bezug auf was? Du "unterstellst", dass das Problem bei HT4U liegt. Wenn deren Testszenario aber sauber beschrieben ist und prinzipiell nachstellbar, dann ist das vielleicht nicht das Problem von HT4U, sondern anderen Testern?
Wie sieht die Beschreibung von deren Testszenarien aus? Oder ist das Problem gar nicht bei irgendeinem Tester, sondern liegt tatsächlich daran, dass unterschiedliche Szenen so unterschiedliche Anforderungen an die HW haben (Nvidia und AMD haben ja unterschiedliche Stärken und Schwächen auf Basis ihrer jeweiligen Architektur) - Angiesan argumentiert ja auch in diese Richtung?

Vielleicht gibt es auch ein Problem mit dem Testszenario - dann wäre es aber Aufgabe eines Kritikers dieses deutlich zu machen und nicht "pauschal" Abweichungen in den Ergebnissen demjenigen anzulasten, der sein Testszenario genau beschreibt.

Ich bin sicher nicht ausreichend genug qualifiziert die verschiedenen Testszenarien zu bewerten, aber deine Kritik ist für meinen Eindruck zu pauschal und zu wenig substantiiert.

Ich habe dies schon ausgeführt, muss ich mich wiederholen? Scheint so.
Teilweise extrem geringer Abstand 680/780/Titan, Taktskalierung und einzelne (für mich!) sehr unglaubwürdige Ergebnisse. Ich habe genau gesagt, was mich stört, da ist gar nichts pauschal.

wie sucht CB ihre testsavesgames aus?

Größte GPU Belastung überhaupt?
Größte GPU Auslastung bei NV und AMD?
Niedrigste FPS?

Werden mehr als die ersten 1-3 Level eines Spieles getestet?

und wenn NV solchen ( aus Benchmarker sicht ) Schott verbaut muss sich der Tester eben behelfen. und sowohl CB auch als HT4U geben ja an was für einen Takt sie gemessen haben, und das ist oft genug gerade mal nur der garantierte Boost von NV

Zum Takt habe ich ja schon was gesagt und es sogar vorgerechnet ein paar Posts zuvor. Daran liegt es sicher nicht. Betrifft auch eher nicht meine anderen Kritikpunkte.
Zur Auswahl der Szenen musst du Wolfgang fragen, nicht mich. So fürchterlich wichtig finde ich es nicht, denn egal was man wählt, richtig repräsentativ ist es nie, dafür ist es viel zu kurz. Gerade bei nur 10 Sekunden Dauer. Ich sehe Benchmarks generell eher als groben Anhaltspunkt, mehr können sie auch gar nicht sein. Ich würde auch gar nicht groß untersuchen ob eine Szene NV oder AMD gut liegt, das ist egal. Warum soll man hier einen Nachteil oder Vorteil versuchen herauszuegalisieren? Wenn es so ist, ist es halt so. Wichtig finde ich nur, dass die Szene bezüglich der Performance fordernd ist. Muss kein absoluter Worst Case sein, sondern eine typische Spielszene eben.

LSSJBroly
2013-07-03, 18:37:20
Wenn deren Testszenario aber sauber beschrieben ist und prinzipiell nachstellbar, dann ist das vielleicht nicht das Problem von HT4U, sondern anderen Testern?

Prinzipiell nachstellbar bedeutet aber eben auch, dass genaues Nachstellen nicht möglich ist und auch nicht Zielführend sein kann. Nachstellen kann ich Game-benchmarks nur soweit, wie ich genau die gleichen setting und genau das gleiche savegame besitze.

@Blaire
Naja, einbremsen ist das falsche wort. Nvidia hat ja selbst dafür gesorgt, dass die Karte im schnitt nur mit dem durchschnittlichen boost (stock!) zu fahren sind - und genau das ist die Praxis, denn meine Karte boostet halt auch die meiste zweit um den angegeben Boostwert herum, eben "out of box".

Hinzu kommt, dass man aber halt die PCGH benchmarks ganz genau nachstellen kann und dann selbst sieht, dass die angegebenen Werte "meistens" richtig sind.

Knuddelbearli
2013-07-03, 18:42:32
Ich bezog mich natürlich auf Blaires post direkt vor mir.

Was wollt ihr eigentlich mit soclhen Aussagen bewirken / Aussagen?
Hinzu kommt, dass man aber halt die PCGH benchmarks ganz genau anchstellen kann und dann selbst sieht, dass die werte "meistens" richtig sind.
Das bedeutet doch nichts anderes als das ihr glaubt das derjenige die Ergebnisse manipuliert, oder?

LSSJBroly
2013-07-03, 18:50:43
Das bedeutet doch nichts anderes als das ihr glaubt das derjenige die Ergebnisse manipuliert, oder?

Ich behaupte nur eins: Das man bei den PCGH benchmarks die möglichkeit bekommt, die werte zu überprüfen, egal wie die Ergebnisse später aussehen werden. Das hat man aber bei sogut wie allen anderen reviews aber nicht.

Manipulation sicherlich nicht, nur, da man selber die werte nicht kritisch testen oder nachstellen kann, halt schon etwas merkwürdig, wie boxleitnerb schon sagte ist eine GTX 780 im schnitt rund 20 bis 25% und eine Titan meistens um die 30 bis 35% schneller als eine GTX 680.

Knuddelbearli
2013-07-03, 19:08:20
naja sinnvoller ist da erstmal ein Vergleich Spiel für Spiel, sind ja immer jedes Spiel einzeln dabei.

Das wäre wohl das minimum bevor man gleich mit sonstwas um die Ecke kommt.

Alan wake zB
Titan ist knapp 10% vor der GHz und der Vorsprung nimmt mit höherer Auflösung ab nicht zu spricht da also auch gegen CPU Limit
deckt sich nicht mit CB FPS bei HT4U niedriger
cb testet 25 sek ht4u 10sek, laut CB frameverlauf müsste aber NV davon deutlich!!! profitieren ( vermutlich aufgrund des turbos )

Risen 2
unter 1050p CPU limitiert unter 1920 dann aber scheinbar kein bisschen mehr
deckt sich mit CB

Witcher 2
Titan wieder nur 10 schneller und SSAA scheint der Titan absolut gar nicht zu schmecken
deckt sich mit CB

das fällt aber allgemein bei cbs frameverlauf auf

in den meisten ( nicht allen ! ) Spielen ist NV anfangs deutlich schneller als hinten raus, da frage ich mich dann doch ob CB richtig vorheizt / den takt limitiert

Angiesan
2013-07-03, 19:19:18
Ich bezog mich natürlich auf Blaires post direkt vor mir.

Was wollt ihr eigentlich mit soclhen Aussagen bewirken / Aussagen?

Das bedeutet doch nichts anderes als das ihr glaubt das derjenige die Ergebnisse manipuliert, oder?

Das hat doch niemand gesagt und ich habe das auch nicht zwischen den Zeilen gelesen zumindest nicht bei Broly, aber es ist halt schon schön wenn man das auch mal gegentesten kann.
Und mein Beispiel hat es ja gut gezeigt, da liegen nur ein paar Sekunden dazwischen und schon ist Karte A oder Karte B im Vorteil und das ist kein Einzelfall natürlich ist Beides richtig.
Ich gebe dir mal ein anderes Beispiel, bei Metro LL gibt es ein Level Namens Quarantäne, in diesem Level gibt es eine Szene wo man durch einen Durchgang geht und einem das Licht entgegen scheint. Bei dieser Szene bekomme ich mit einer GTX 780 und einer HD 7950 eine Performance-Differenz von ca .15-20%
Die Szene ist meiner Meinung nach die schlimmste im Spiel, zeigt aber mit Nichten den wahren Performance-Abstand der beiden Karten auf. Die GTX 780 ist in 98 % des Spieles deutlich schneller wie die 15%-20% suggerieren wollen.
Wenn ich meine Testszenen denn immer nach der Stelle im Spiel ausrichte die eine Grafikkarte am stärksten fordert, diese Testszene aber nur 1% des Spiels ausmachen würde, würde ich diesen Test auch in Frage stellen, denn er zeigt ein Worst Case Szenario auf und nicht eine Ingame-Performance, dann sollte man das auch kommunizieren.

Und natürlich ist es legitim das Menschen sowas auch hinterfragen bzw. vielleicht auch anzweifeln, da ihre eigenen Erfahrungswert andere sind oder eben viele andere Test eine etwas andere Performance aufzeigen.

Knuddelbearli
2013-07-03, 19:29:34
jau deshalb ja meine Fragestellung oben.

wird nach der fordernsten Szene gesucht die die Karte möglichst stark belastet ( auch wenn man dort sorgenfreie FPS hat? )
oder nach den geringsten fps ( auch wenn die nur 5-10 Sekunden eines 10 Std Spieles ausmachen? )
und das im gesamten Spiel oder nur in den ersten paar Leveln?

und dann kommt noch die frage dazu ob das jeweils mit dem anderen Hersteller gegengestetest wird, die fordernste stelle für NV muss ja nicht umbedingt die fordernste für AMD sein.

Ich weiss wie es HT4U macht ( und da gibt sich Peter verdammt viel mühe!!! Habe mit ihm mal darüber gequatscht ) und das finde ich dort sehr gut. bei CB habe ich nur ne grobe Ahnung wie sie das machen

Ätznatron
2013-07-03, 19:47:42
Wenn ich meine Testszenen denn immer nach der Stelle im Spiel ausrichte die eine Grafikkarte am stärksten fordert, diese Testszene aber nur 1% des Spiels ausmachen würde, würde ich diesen Test auch in Frage stellen, denn er zeigt ein Worst Case Szenario auf und nicht eine Ingame-Performance, dann sollte man das auch kommunizieren.


Welche Seite richtet denn die Tests auschließlich an den am stärksten fordernden Szenen aus? HT4U?

Und was soll man davon halten, wenn dann ausgerechnet da Karten eines bestimmten Herstellers überproportional einbrechen?

Zufall?

Möglicherweise ist es bei einer anderen Grafikkartengeneration dann genau anders herum.

Für mich gilt:

Anderer Testaufbau - anderer Szenen - andere Methode = anderes Ergebnis.

Das trifft's wohl am ehesten. Alles weitere ist Spekulation.

Und dazu noch'n Spruch von Bertrand Russell:

"Selbst wenn alle Fachleute einer Meinung sind, können sie sehr wohl im Irrtum sein."

Blaire
2013-07-03, 21:22:36
@Blaire
Naja, einbremsen ist das falsche wort. Nvidia hat ja selbst dafür gesorgt, dass die Karte im schnitt nur mit dem durchschnittlichen boost (stock!) zu fahren sind - und genau das ist die Praxis, denn meine Karte boostet halt auch die meiste zweit um den angegeben Boostwert herum, eben "out of box".

Design-Entscheidung... das Temptarget allerdings zu niedrig angesetzt, meiner Meinung, aber das ist nicht der Punkt.
Ob es dann mehr Sinn macht ein System künstlich aufzuheizen, eine 1,2Ghz HD7970 mit OC (incl. Garantie-Verlust) gegenzutesten, GTX Titan auf 876Mhz festtackert, nicht in der Lage ist das Temp-Target zu erhöhen (ohne Garantie-Verlust!) ich weiss nicht... Wenn man sich so dagegen sträubt und auf Out of the Box besteht, dann dürfte man im Treiber auch nichts verstellen und müsste alles auf Default belassen. Davon halt ich nichts, da es nicht dem entspricht, was man erreichen kann.
Ich denke man sollte so testen, was ist vertret- und vergleichbar. Meine aktuellen Karten rennen mit 1006Mhz Boost, Vorgänger-Karten mit bis 1096Mhz und genau so wird verglichen, halt genau so wie die Karten ausgeliefert wurden. Einzig das Temp-Target ist hier zu berücksichtigen, die Werte sollten ja vergleichbar mit deren der GTX680 sein, wo es diese Einschränkung noch nicht gab. Und diese 876Mhz sind dann einfach unrealistisch, da viel zu niedrig.

Hinzu kommt, dass man aber halt die PCGH benchmarks ganz genau nachstellen kann und dann selbst sieht, dass die angegebenen Werte "meistens" richtig sind.

Das ist auch super, dagegen gibts auch nichts zu sagen. Meine Aussage war eher Allgemein gehalten, nicht ausschließlich auf PCGH bezogen.

Knuddelbearli
2013-07-03, 21:47:09
es gibt bei amd eine auto oc funktion wenn da auch die garantie erhalten bleibt soll man das auch machen?

LSSJBroly
2013-07-03, 21:54:14
Einzig das Temp-Target ist hier zu berücksichtigen, die Werte sollten ja vergleichbar mit deren der GTX680 sein, wo es diese Einschränkung noch nicht gab. Und diese 876Mhz sind dann einfach unrealistisch, da viel zu niedrig.


wobei ich sagen muss, dass meine GTX 780 SC out of the box im schnitt wirklich mit etwa 993MHz rechnet. Zumindest Computerbase und PCGH (release-review) haben mit mehreren Konfigurationen die GTX Titan durchgetestet und dabei kam dann halt eben auch raus, dass die Angegebenen 876MHz nicht von ungefähr kommen.

Außerdem, wenn man bei einer GTX 780 oder sonstigen GPU mit Boost 2.0 den Takt auf den Boost-takt klemmt, erreicht man schon fast immer den worst-case, in der Praxis wird man also meistens immer etwas mehr Performance erreichen - aber nicht wirklich weniger.

Kriton
2013-07-04, 11:06:23
Ich habe dies schon ausgeführt, muss ich mich wiederholen? Scheint so.
Teilweise extrem geringer Abstand 680/780/Titan, Taktskalierung und einzelne (für mich!) sehr unglaubwürdige Ergebnisse. Ich habe genau gesagt, was mich stört, da ist gar nichts pauschal.

Da haben wir uns missverstanden. Das pauschal bezog sich darauf die Abweichungen spezifisch (nur) HT4U anzulasten. Die von dir angesprochenen Abweichungen und warum dies grds. ein Problem ist (wo immer die Ursache dafür liegen mag) kann ich nachvollziehen.

Bringhimup
2013-07-13, 18:34:25
Gibts was, das gegen die Palit GeForce GTX 780 Super JetStream und für eine andere GTX 780 spricht?

Gibt es Hoffnung, dass in nicht allzu ferner Zukunft 780er mit mehr Speicher als 3 GB kommen werden?

Skysnake
2013-07-13, 18:36:42
Ich würde mir da gar keine Hoffnung machen. Die 6GB sind eine der wenigen Abgrenzungen zur GTX780

Raff
2013-07-13, 19:48:16
Gibts was, das gegen die Palit GeForce GTX 780 Super JetStream und für eine andere GTX 780 spricht?


MSI und Inno 3D sind nicht nur leiser, sondern bieten auch drei Jahre Garantie. Die Jetstream ist aber gewiss nicht übel.

MfG,
Raff

Hübie
2013-07-13, 20:11:13
Gibt es Hoffnung, dass in nicht allzu ferner Zukunft 780er mit mehr Speicher als 3 GB kommen werden?

Klar. Kommt am 19. Ferbruar 2013 und nennt sich dann GeForce Titan :freak:

Oh halt. Nee, war ja alles schon... Tja dann wohl doch keine 780 mit 6 GB. Warum auch? :confused:

Was haltet ihr davon: Ich kauf mir ne 780, mach meinen Peter da rauf und schau mal ob die auf 1,1 GHz kommt?

Meine Anforderungen an die Ablöse:
-leise unter Last
-min. 3GB VRAM
-ähnlich hohe Leistung wie die 580er@SLi (also etwa 780 OC bis Titan @stock)

Meine Überlegungen:
-zwei GTX 770 mit 4GB @SLi (bisher kein passendes Modell auf dem Markt)
-eine GTX 780 mit 3GB schön hoch prügeln aber eben einen Peter raufschnallen (hab ich ja schon) - 33 % weniger Leistung bei 28% weniger Kosten und ~40% geringerem Energiebedarf vom Standard ausgehend als zwei GTX 770 @4GB

LSSJBroly
2013-07-13, 20:12:14
Sag mal Raff, beim Ocen eurer 780er(n), ist da Skyrim + SGSSAA auch so schnell abgeflogen?
Ich meine, ich kann Far Cry 3 stundenlang mit z.B. 1150MHz spielen, Skyrim schmiert nach keinen 5 Sekunden mit Treiberreset ab xD



Was haltet ihr davon: Ich kauf mir ne 780, mach meinen Peter da rauf und schau mal ob die auf 1,1 GHz kommt?
1100MHz erreichst du sogut wie immer. Ich bin ja von zwei GTX 680 auf eine 680 und dann auf die 780 gewechselt. ich habs nicht bereut. Mit OC ist das ding schneller als ein 580 SLI + doppelt so viel Vram und die hälfte an Verbrauch und wärme :D

Bringhimup
2013-07-14, 13:19:24
So ... die Unvernunft (mehr Geld für ne Graka als für ne PS4) hat gesiegt! ;D

Ich habe mir gerade die Palit GeForce GTX 780 Super JetStream bestellt. Wenn Raff sacht, dass die nich übel ist, mache ich damit zumindest nix Grob falsch.

Die MSI N780 TF 3GD5/OC Twin Frozr Gaming find ich irgendwie zu häßlich und die Inno3D iChill GeForce GTX 780 HerculeZ X3 Ultra (die ich eigentlich am liebsten genommen hätte), ist mir einfach die entscheidenden 100 € zu teuer.

Bin schon gespannt wie ein Flitzebogen. Den Umstieg von einer GTX 560 Ti werde ich wohl in jeder Lebenslage deutlichst zu spüren kriegen, vor allem in GTA4 mit nen paar Mods. Der Taxi-Bug bringt mich um den Verstand und der Traffic-Fix raubt mir mit meiner 560 einfach zu viele Texturen. Hoffe das Problem ist dann keines mehr.

c0re
2013-07-15, 21:28:19
So ... die Unvernunft (mehr Geld für ne Graka als für ne PS4) hat gesiegt! ;D

Ich habe mir gerade die Palit GeForce GTX 780 Super JetStream bestellt. Wenn Raff sacht, dass die nich übel ist, mache ich damit zumindest nix Grob falsch.

Die MSI N780 TF 3GD5/OC Twin Frozr Gaming find ich irgendwie zu häßlich und die Inno3D iChill GeForce GTX 780 HerculeZ X3 Ultra (die ich eigentlich am liebsten genommen hätte), ist mir einfach die entscheidenden 100 € zu teuer.

Bin schon gespannt wie ein Flitzebogen. Den Umstieg von einer GTX 560 Ti werde ich wohl in jeder Lebenslage deutlichst zu spüren kriegen, vor allem in GTA4 mit nen paar Mods. Der Taxi-Bug bringt mich um den Verstand und der Traffic-Fix raubt mir mit meiner 560 einfach zu viele Texturen. Hoffe das Problem ist dann keines mehr.


Kam vor einigen Wochen von einer GTX 570@900Mhz auf die GTX780 und der Unterschied ist überall Wahnsinn. Crysis 3 mit allem auf Max in Full HD, Treiber Settings auf Quali und 8xMSAA sind machbar, erst recht wenn du Sie ein bisschen Taktest ;)
Nach meinem Empfinden gut doppelt so schnell wie die edit_ meine 570.

Bringhimup
2013-07-17, 16:41:14
So, hab jetzt die Palit Super Jetstream eingebaut und ... was soll ich sagen ... es haut mich fast aus den Socken. Crysis 2 mit Maldo Mod auf Anschlag brach die 560Ti vorher wegen zu wenig VRam auf einstellige Frameraten zusammen. Mit der Palit läuft es ununterbrochen geschmeidig mit ge-V-Sync-ten 60 fps. Einfach nur geil. So stell ich mir PC-Gaming vor! ;D

Mein einziger Kritikpunkt bis jetzt -> Spulenfiepen ab ca. 300-400 fps. Gesehen vor allem im neusten 3DMark.

Bei den Billo-Tests am Anfang geht die ja phasenweise auf über 2000 FPS und dann fiepen die Spulen tatsächlich ähnlich laut wie in Raffs Spulenfiepen Vorführvideo. Wie sagte er da so schön -> ABARTIG!!!:freak:

Da ich immer Kopfhörer trage und man normalerweise auch Ton hat (3dMark ja teilweise nicht) und ich zudem selten mit über 300 fps spielen werde, kann ich wohl damit Leben und muss sie nicht zurückschicken (will ich eigentlich auch nicht). Trotzdem ein bisschen uncool. :cool:

Hübie
2013-07-17, 16:50:18
Na ja ich denke dann ist es entschieden. Nun muss ich nur noch herausfinden ob der Peter passt. EKL hat ja einen miesen Endkunden-Support. Emails von Privatpersonen werden grundsätzlich ignoriert - so schätze ich mal. Bisher kam nie was von denen zurück :mad:

RMA
2013-08-01, 20:48:08
Abseits der Inno3D ist die MSI die momentan leiseste 780er, oder? Habe mich jetzt entschieden, von meiner mich nervenden 770er (siehe zahlreiche Threads hier im Forum) gleich auf eine 780er zu gehen (auch dank einer Gehaltserhöhung ;D), und bin noch etwas unschlüssig. Die Inno3D ist mir etwas zu teuer und vor dem Spulengezirpe ist man laut dem PCGH-Test offensichtlich auch nicht sicher, im Gegensatz zur MSI. Oder ist seit dem PCGH-Test noch ein Modell hinzugekommen, das in der Liga der vorgenannten Karten spielt und einen ähnlich guten (leisen) Kühler hat?

Raff
2013-08-06, 13:33:56
Hat schon jemand interessante GTX-780-Mod-BIÖSer gefunden? Was die Spannungen angeht, hängen die Custom-Designs ja bereits an der 1,21-Volt-Grenze, aber hinsichtlich des Power-Targets ginge noch was.

MfG,
Raff

Woklbokl
2013-08-06, 14:17:03
Der svl7 hat doch einige bereitgestellt?!

RMA
2013-08-07, 11:12:00
Kann es sein, dass es ernsthafte Lieferschwierigkeiten bei den 780ern gibt? Insbesondere die MSI und die EVGAs sind ggw. praktisch nirgendwo zu finden...

Deisi
2013-08-07, 15:08:50
Der svl7 hat doch einige bereitgestellt?!

Könnte einer von euch das auch hier posten? Würde das sehr gerne testen. :)

Angiesan
2013-08-07, 16:12:54
Kann es sein, dass es ernsthafte Lieferschwierigkeiten bei den 780ern gibt? Insbesondere die MSI und die EVGAs sind ggw. praktisch nirgendwo zu finden...
Da die Karten bis auf die EVGA Classified eh alle auf dem Referenzdesign aufsetzen sollte es wirklich egal sein welche du da kaufst.
Soweit ich das mitbekommen habe soll die Jetstream und der Ziegel aka Phantom gar nicht so schlecht sein was die Belüftung angeht.

Wenn du nicht Übertakten möchtest würde ich dir zu dem Titankühler Modellen raten die sind wirklich sehr angenehm von der Lautstärke und sehen einfach toll und wertig aus. Zumal da eben auch die Wärme aus dem Case geblasen wird ich hatte mehrere von den Dingern.

Willst Du jedoch mehr Performance ist der Standardkühler eher nicht so gut zu gebrauchen da ihm da Boost 2.0 in die Parade fährt aber auch da gehen schon die 1100 MHz i.d.R. nur geht es dann eben nicht mehr ganz so leise zur Sache.

Grüße

RMA
2013-08-07, 17:02:28
Naja, übertakten würde ich schon gerne um zumindest in die Regionen einer Titan @ stock vorzustoßen. Das dürften so knapp über 1.000 MHz sein, 1.050 MHz schaffen aber wohl praktisch alle Modelle, wenn ich das richtig verstanden habe. Der Aufpreis zu einer 770er ist mir ansonsten bei wohl noch großzügig veranschlagten ~ 30 % Performancevorteil sonst zu groß. Da scheidet das Referenzdesign dann wohl aus.

Da ich relativ lautstärkeempfindlich bin bzw. der PC jetzt erstmals im Wohnzimmer steht – wegen LCD-TV zum Zocken – ist mir Geräuschentwicklung schon wichtig. Zumal ich noch ein Audiosystem im mittleren vierstelligen Bereich daran hängen habe. Die Gainward 770er ist mir mit ihren 3,0 Sone @ stock jedenfalls entschieden zu laut. Leider kam das in keinem Online-Test so richtig durch (im Gegenteil, dort wurde sie teilweise ja geradezu als Silence-Wunder besungen), und den PCGH-Test, der mir noch am realistischsten erscheint, habe ich erst nach dem Kauf gelesen.

Dort haben bei den 780ern die MSI und die EVGA am besten abgeschnitten (auch was das Spulenpfeifen angeht, sonst hätte ich zur Inno3D gegriffen). EVGA habe ich auch schon mehrfach für andere Leute verbaut und kann nur bestätigen, dass die immer noch mit den besten Kundenservice überhaupt haben.