PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 680: (P)Review-Thread


Seiten : 1 2 3 4 5 [6]

Cubitus
2012-06-13, 12:47:18
Hi Leute,

3. Wo liegt im Moment der Flaschenhals der 680? - Hab irgendwann mal was von der Speicherbandbreite gelesen, stimmt das?

Absolut, besonders in hohen Auflösungen (2560*1440) +AA. (SGSSAA).
Dennoch, es ist jammern auf hohem Niveau. Also unter 1080p und normalen AA Einstellungen ist die 680er schon ein Dampfhammer.

TobiWahnKenobi
2012-06-13, 12:52:34
http://www.abload.de/thumb/bf32012-06-1310-36-13wt8bo.jpg (http://www.abload.de/image.php?img=bf32012-06-1310-36-13wt8bo.jpg)http://www.abload.de/thumb/bf32012-06-1310-49-56c1m97.jpg (http://www.abload.de/image.php?img=bf32012-06-1310-49-56c1m97.jpg) http://www.abload.de/thumb/bf32012-06-1310-51-24is8ml.jpg (http://www.abload.de/image.php?img=bf32012-06-1310-51-24is8ml.jpg) http://www.abload.de/thumb/bf32012-06-1310-52-01mvkxm.jpg (http://www.abload.de/image.php?img=bf32012-06-1310-52-01mvkxm.jpg)

BF3 @GTX680/2GiB, 2880x1620/60Hz, ultra setting, map: karkant!
2012-06-13 10:36:27 - bf3
Frames: 26460 - Time: 597889ms - Avg: 44.256 - Min: 27 - Max: 63

oder hier nochmal das selbe setting mit texturqualität auf "gering"

2012-06-13 13:08:56 - bf3
Frames: 12982 - Time: 311612ms - Avg: 41.661 - Min: 29 - Max: 64

2GiB vorhanden.. 2GiB in benutzung.. egal ob ultra oder geringe texturen (bf3)
http://www.abload.de/img/bf32012-06-1313-03-03v7aam.jpg

flaschenhälse kann man immer kreieren.. ist halt die frage was man will, welche intention man verfolgt und vor allem: ab wann einstellungen und anforderungen "schwachsinnig" werden.

edit:

http://www.abload.de/thumb/bf3_2012_06_13_18_32_g8g8r.jpg (http://www.abload.de/image.php?img=bf3_2012_06_13_18_32_g8g8r.jpg) http://www.abload.de/thumb/bf32012-06-1318-28-4776z5w.jpg (http://www.abload.de/image.php?img=bf32012-06-1318-28-4776z5w.jpg)

^^hier ist der arsch dann ab.. drops auf <20fps.

2012-06-13 18:24:08 - bf3
Frames: 9274 - Time: 263189ms - Avg: 35.237 - Min: 21 - Max: 52

allerdings ist das auch komplett ohne kantenglättung eine zumutung und ich orakle mal, dass das auch bei einer karte mit 4GiB nicht anders aussieht. was ein wenig verwundert ist, dass die GPU trotz 5GHz i7 verhungert (~90% auslastung). könnte sein, dass hier schon das SI limitiert.

http://www.abload.de/thumb/bf3_2012_06_13_17_35_ev8h4.jpg (http://www.abload.de/image.php?img=bf3_2012_06_13_17_35_ev8h4.jpg)

2012-06-13 17:45:22 - bf3
Frames: 3731 - Time: 107781ms - Avg: 34.616 - Min: 14 - Max: 52


(..)

mfg
tobi

AnarchX
2012-06-13, 12:57:07
Trotz allem skaliert GK104 wohl häufig besser mit dem Speichertakt, als mit dem GPU-Takt.
Aber für den 2011 noch anvisierten Zielmarkt($200-300) waren die 256-Bit ein kosteneffektiver Kompromiss.

john carmack
2012-06-13, 13:39:42
und welche CPU brauche für die GTX680 ich mindestens damit diese nicht limitiert?

Raff
2012-06-13, 13:47:05
Hi Leute,

kann mir bitte jemand meine Fragen beantworten? :-)

Danke :-)

1. Hat jemand ne Ahnung wie weit man ungefähr eine GTX680 4GB gainward phantom übertakten kann?

2. Welcher Hersteller bietet die im Moment schnellste GTX 680 an?

3. Wo liegt im Moment der Flaschenhals der 680? - Hab irgendwann mal was von der Speicherbandbreite gelesen, stimmt das?

Die Zotac GTX 680 AMP! ist derzeit knapp die schnellste – eben weil sie den Flaschenhals Speichertransferrate um 10 Prozent weitet (3,3 GHz RAM-Takt). Danach folgen Boost-Monster wie die Asus GTX 680 DC2T.

MfG,
Raff

Atma
2012-06-13, 13:56:02
Der Ram auf den GTXen ist in der Regel aber sehr übertaktungsfreudig. Den Ram auf meiner 680 habe ich um schlappe 490 MHz übertaktet, das bringt noch mal ordentlich Bandbreite und somit mehr Luft für Kepler :). Auf das Niveau einer HD 7970 kommt man natürlich nicht, das ist klar.

Bei anderen GTXen geht sicher noch mehr, auf meiner bekomme ich die 500 MHz mehr Ramtakt jedoch nicht stabil hin :D

john carmack
2012-06-13, 13:59:57
Wie Übertaktet ihr?

Kann man GPU und RAM auf der Karte mit einem gemeinsamen Tool übertakten?

Und auch unabhägig voneinander?

Cubitus
2012-06-13, 14:08:18
Wie Übertaktet ihr?

Kann man GPU und RAM auf der Karte mit einem gemeinsamen Tool übertakten?

Und auch unabhägig voneinander?

Kein Problem, mit Evga Precision X ist dies möglich.

Raff
2012-06-13, 14:13:43
Der Ram auf den GTXen ist in der Regel aber sehr übertaktungsfreudig. Den Ram auf meiner 680 habe ich um schlappe 490 MHz übertaktet, das bringt noch mal ordentlich Bandbreite und somit mehr Luft für Kepler :). Auf das Niveau einer HD 7970 kommt man natürlich nicht, das ist klar.

Bei anderen GTXen geht sicher noch mehr, auf meiner bekomme ich die 500 MHz mehr Ramtakt jedoch nicht stabil hin :D

In Prozent ist das aber winzig. ;) 3.300 gegenüber 3.000 Standard: +10 Prozent. 3.600 MHz, was fast keine GTX 680 packt, wären 20 Prozent. Zum Vergleich: HD-7970-Karten stemmen oft 3.600 MHz, was +31 Prozent ggü. dem 2.750er-Standard entspricht – und fast nix bringt, außer man keult die GPU weit jenseits 1.000 MHz.

MfG,
Raff

john carmack
2012-06-13, 14:51:13
und welche CPU brauche für die GTX680 ich mindestens damit diese nicht limitiert?

aufkrawall
2012-06-13, 14:53:00
und welche CPU brauche für die GTX680 ich mindestens damit diese nicht limitiert?
Eine von Intel. ;)
Am besten SNB oder IVB Quadcore mit +4Ghz.

Raff
2012-06-13, 14:54:02
Diese Aussage kann man strenggenommen gar nicht treffen, da eine Grafikkarte nie zu schnell ist. Man kann die Leistung immer in Bildqualität investieren. Mit einem Vierkerner jenseits von 4 GHz bist du in jeder Lage gut bedient.

MfG,
Raff

aufkrawall
2012-06-13, 15:07:20
Diese Aussage kann man strenggenommen gar nicht treffen, da eine Grafikkarte nie zu schnell ist. Man kann die Leistung immer in Bildqualität investieren.
Das nützt einem aber auch nichts, wenn man keine nervigen Drops haben will.

boxleitnerb
2012-06-13, 15:22:55
und welche CPU brauche für die GTX680 ich mindestens damit diese nicht limitiert?

Je nach Spiel eine nicht existierende (Ivy@6-7 GHz) oder einen Athlon X2. Die Frage kann man nicht pauschal beantworten.

Diese Aussage kann man strenggenommen gar nicht treffen, da eine Grafikkarte nie zu schnell ist. Man kann die Leistung immer in Bildqualität investieren. Mit einem Vierkerner jenseits von 4 GHz bist du in jeder Lage gut bedient.

MfG,
Raff

Kann man schon, wenn man bei Nicht-Shootern/-Rennspielen 30fps und sonst 60fps voraussetzt. Kommt auf die eigenen Ansprüche an. Ich hab meinen 2600K selbst mit 4GHz mal bis zu 20fps runtergebracht in Shogun 2. Da kann ich Bildqualität wie nochwas investieren, dass auch die GPU dieses Niveau erreicht, aber mit 20fps spielt es sich einfach blöd.

aufkrawall
2012-06-13, 15:24:43
Je nach Spiel eine nicht existierende (Ivy@6-7 GHz) oder einen Athlon X2. Die Frage kann man nicht pauschal beantworten.
Ich habs geschafft. ;)
Wer sich ne GTX 680 holt, hat wohl kaum den Anspruch, bei aktuellen (FPS) Spielen unter 60fps zu kommen.

N0Thing
2012-06-13, 17:19:10
Ich habs geschafft. ;)
Wer sich ne GTX 680 holt, hat wohl kaum den Anspruch, bei aktuellen (FPS) Spielen unter 60fps zu kommen.

Es kommt trotzdem auf die Anwendung an, wie stark eine CPU sein muß, um sorgenfrei spielen zu können. Wenn es nach dir gehen würde, könnte man keine CPU mit Standardtaktraten kaufen, die für 60fps gut genug ist. Das entspricht ja nicht der Realität. ;)

aufkrawall
2012-06-13, 17:21:26
Es kommt trotzdem auf die Anwendung an, wie stark eine CPU sein muß, um sorgenfrei spielen zu können. Wenn es nach dir gehen würde, könnte man keine CPU mit Standardtaktraten kaufen, die für 60fps gut genug ist. Das entspricht ja nicht der Realität. ;)
IVB geht doch mit Turbo fast auf 4Ghz hoch. :)
Mehr als 4 Ghz wären dann quasi völlig sorgenfrei.
BF3 lastet meine Kerne auch mit Vsync ziemlich gut aus.

PingpiN
2012-06-13, 20:37:05
Battle of the Elite: Asus GeForce GTX 680 DirectCU II TOP vs. MSI R7970 Lightning

http://www.xbitlabs.com/articles/graphics/display/asus-geforce-gtx-680-msi-radeon-hd7970.html

:eek:

Knuddelbearli
2012-06-13, 20:53:13
schöner test

680 und 7970 im Mittel gleich auf mit teils extremen Unterschiede :-/

bald braucht man echt 2 pcs ...

Raff
2012-06-13, 21:12:13
Da sagst du was. Ist so schlimm wie noch nie mit den Ausreißern. Was bleibt: Keult man beide Karten ans Limit (http://www.pcgameshardware.de/aid,875267/Overclocking-Test-Geforce-GTX-680-Radeon-HD-7970/Grafikkarte/Test/), kann man die HD 7970 im Mittel davonziehen lassen.

MfG,
Raff

Knuddelbearli
2012-06-13, 21:45:25
leider auch beim verbrauch ...

dafür kein gefrickel mitm turbo

aufkrawall
2012-06-13, 22:42:35
leider auch beim verbrauch ...

Man kann ja Ökostrom beziehen. :freak:
Der ist zwar womöglich ne Mogelpackung, aber wenns dem Gewissen hilft...

TobiWahnKenobi
2012-06-14, 00:23:23
reicht für bf3 irgendwie auch und lässt den lüfter weniger aufheulen..

http://www.abload.de/img/75nyko5.jpg


(..)

mfg
tobi

aufkrawall
2012-06-14, 00:40:34
Bei der Geforce ja, die Radeon nimmt gerne +300Mhz mit für das Spiel.

V2.0
2012-06-14, 06:39:55
Ich habe meine 670 auch auf 75% TDP als Standard gestellt.

M4xw0lf
2012-06-14, 08:59:14
Wäre es nicht sinnvoller einfach ein bestimmtes Frameratetarget vorzugeben, damit nicht in anspruchsvolleren Spielen der Saft ausgeht? In einem älteren Spiel sind ja auch 75% TDP noch Overkill, da sollte doch mit einem Target von 60 FPS mehr Ersparnis drin sein. Hats jemand mal getestet?

V2.0
2012-06-14, 09:08:10
Da nehme ich meist Vsync.

Screemer
2012-06-14, 14:10:42
kann weg.

Ruffnax
2012-06-19, 21:24:12
Mahlzeit!

So, heute die Palit Jetstream GTX 680 eingebaut und ich bin mal wirklich richtig begeistert von der neuen Generation bzw. den Features.

Graphics Clock (MHz): Base Clock 1084MHz/Boost Clock 1175MHz
Memory Clock (MHz): 3150 MHz (DDR 6300 MHz)

Also die 2 GB Variante.
Selbst unter Last ist die Karte sehr leise. (BF3 + 3DMark 11)

Zudem habe ich anstelle der TDP Frame Target auf 60 FPS eingestellt. Dies sollte auch für Shooter reichen. Erstaunlich, dass nun in Starcraft 2 der Takt auf unter 500 Mhz geht um die 60 FPS zu halten. Ich zocke mit 1920x1080.

Na jedenfalls muss man erst mal schauen, wie man sich die Karte am besten einstellt.

Mfg
Ruffnax

n00b
2012-06-19, 21:48:25
Zudem habe ich anstelle der TDP Frame Target auf 60 FPS eingestellt. Dies sollte auch für Shooter reichen. Erstaunlich, dass nun in Starcraft 2 der Takt auf unter 500 Mhz geht um die 60 FPS zu halten. Ich zocke mit 1920x1080.

Wenn du einfach VSync einschaltest sollte die Karte genauso runtertakten und zusätzlich biste dann 100% synschron mitm Monitor.

Schon ein feines Ding :)

Ruffnax
2012-06-19, 22:05:22
Ok, das ist mir auch klar. Nur soll wohl laut CB test die TDP Ersparnis mit dem Framelimiter wesentlich besser sein als mit VSync. Hier zu sehen: http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/15/

Und es geht mir hauptsächlich um einen niedrigeren Stromverbrauch bei maximaler Leistung. Schon irgendwie ein Widerspruch oder?

Gruß,
Ruffnax

n00b
2012-06-19, 22:17:06
Mmmm... Ich habs bisher zugegebenermaßen nur bei Dirt 3 gemessen und da war die Leistungsaufnahme Framelimit 60 oder VSync praktisch gleich (schwankt ja immer etwas hin und her, was man bei so einem Test halt sagen kann).

Theoretisch könnte man das ja auch kombinieren, Framelimit auf vielleicht 65 und dann noch VSync dazu damit es synchron wird :D

aufkrawall
2012-06-19, 22:20:13
Theoretisch könnte man das ja auch kombinieren, Framelimit auf vielleicht 65 und dann noch VSync dazu damit es synchron wird :D
Öh, und was bringt das?
Vsync agiert doch schon als quasi fps-Limiter bei 60.

n00b
2012-06-19, 22:23:28
Keine Ahnung ob das was bringt, bei mir und Dirt 3 isses ja eh egal ob Framelimit 60 oder VSync, braucht beidesmal dieselbe Leistung...

Framelimit 60 finde ich sowieso eher schlecht weil das Tearing, wenn es denn auftritt, sozusagen an einer Stelle klebt und dadurch noch mehr stört. Dann eher etwas mehr oder weniger als die Vertikalfrequenz des Monitor, vielleicht 57Hz oder 63Hz oder so...

Ruffnax
2012-06-19, 22:26:32
Ja stimmt. Ich denke auch, dass sich Vsync und Framelimiter nicht wirklich was nehmen, sobald die Karte so weit ausgelastet ist, dass sie gerade die z.B. 60 FPS schafft. Aber bei Dirt 3 würds mich wundern, da die 680 dort ja weit mehr FPS schafft und trotz Vsync die restelichen Bilder berechnet, aber nicht mit ausgibt. Ich werde einfach die Tage mal ausgiebig testen.

Hast du denn diese Ruckler mit aktiviertem Framelimiter und Vsync an? Ich verwende derzeit den 104.48 Beta Treiber und habe das so nicht feststellen können. Soll aber auch mit dem Treiber behoben worden sein.

Limiter habe ich derzeit auf 60 + Vsynch adaptiv. Mal schauen, wie und ob ich das ändere.

dargo
2012-06-19, 22:57:58
Framelimit 60 finde ich sowieso eher schlecht weil das Tearing, wenn es denn auftritt, sozusagen an einer Stelle klebt und dadurch noch mehr stört. Dann eher etwas mehr oder weniger als die Vertikalfrequenz des Monitor, vielleicht 57Hz oder 63Hz oder so...
Bei diversen UE3 Games wird gerne spielintern ein Limit bei 62fps gesetzt. Würde das mal probieren.

n00b
2012-06-19, 22:58:32
Aber bei Dirt 3 würds mich wundern, da die 680 dort ja weit mehr FPS schafft und trotz Vsync die restelichen Bilder berechnet, aber nicht mit ausgibt.

Öh, nein, AFAIK wird da nix verworfen, die Karte berechnet bei aktiviertem VSync auch nur 60 Bilder in der Sekunde... Würde sie immer volle Kanne laufen und alles verwerfen was nicht zur synchronen Anzeige gebraucht wird wäre die Leistungsaufnahme und Temperatur ja immer am Anschlag, das ist definitiv nicht der Fall...

Hast du denn diese Ruckler mit aktiviertem Framelimiter und Vsync an? Ich verwende derzeit den 104.48 Beta Treiber und habe das so nicht feststellen können. Soll aber auch mit dem Treiber behoben worden sein.

Ich habe bei Dirt nur den ganz normalen VSync laufen, nicht den adaptiven (und auch kein Framelimit). Wäre auch witzlos weil die Karte bei dem Spiel eh gnadenlos Frames raushaut, das ist keine Herausforderung für das Ding. Treiber hab ich noch den 301.42 WHQL, hab nach dem VSync-Bug Ausschau gehalten aber ich kann da nix feststellen. Das läuft bei mir butterweich. Also entweder tritt der Bug bei meiner Systemzusammenstellung nicht auf oder ich bin zu unsensibel den zu bemerken.

Thunder99
2012-06-20, 09:12:39
Mahlzeit!

So, heute die Palit Jetstream GTX 680 eingebaut und ich bin mal wirklich richtig begeistert von der neuen Generation bzw. den Features.

Graphics Clock (MHz): Base Clock 1084MHz/Boost Clock 1175MHz
Memory Clock (MHz): 3150 MHz (DDR 6300 MHz)

Also die 2 GB Variante.
Selbst unter Last ist die Karte sehr leise. (BF3 + 3DMark 11)

Zudem habe ich anstelle der TDP Frame Target auf 60 FPS eingestellt. Dies sollte auch für Shooter reichen. Erstaunlich, dass nun in Starcraft 2 der Takt auf unter 500 Mhz geht um die 60 FPS zu halten. Ich zocke mit 1920x1080.

Na jedenfalls muss man erst mal schauen, wie man sich die Karte am besten einstellt.

Mfg
Ruffnax
Schalt mal in StarCraft II SGSSAA hinzu sowie die Umgebungsverdeckung (Extrem oder Ultra Settings) :naughty: , da wird die Leistung gebraucht :D

Skysnake
2012-06-20, 15:54:31
Also SB-E User müssen sich um PCI-E 3.0 eigentlich offiziell keine Gedanken mehr machen...

http://www.pcgameshardware.de/aid,905480/Geforce-600-Serie-Offiziell-kein-PCI-E-30-mit-X79-Chipsaetzen/Grafikkarte/News/

Ich hasse es Recht zu behalten.... -.-

mironicus
2012-06-20, 16:29:30
Ist doch kein Problem von SB-E, eher ein Problem von NVidia. AMD läuft mit 3.0 auf dieser Plattform.

dargo
2012-06-20, 16:31:21
Ist doch kein Problem von SB-E, eher ein Problem von NVidia. AMD läuft mit 3.0 auf dieser Plattform.
Es gab doch früher mal Meldungen über PCIe 3.0 Probleme bei Kepler. Dadurch auch eine gewisse Verspätung. Haben die das immer noch nicht richtig behoben? :|

Skysnake
2012-06-20, 16:33:36
Ist doch kein Problem von SB-E, eher ein Problem von NVidia. AMD läuft mit 3.0 auf dieser Plattform.
Nein, nein und nochmals nein...

nVidia muss ich hier mal in Schutz nehmen. Meines Wissens nach haben Sie das PCI-E 3.0 Zertifikat. Nur eben Intel nicht, weil das Zeug von Intel halt kein PCI-E 3.0 kann...

y33H@
2012-06-20, 18:56:55
Deines Wissens? SNB-EP kann PCI-Express 3.0 (Fakt!), AMDs HD7k auf GCN-Basis auch (Fakt!) - nur Nvidia cancelt bei Kepler den Support. Aber hey, Intels X79, der mit den Lanes für die Grafikkarte nichts zu tun hat, ist schuld :uclap:

Skysnake
2012-06-20, 18:59:53
Rückkopplung, Ressonanzen, Interferenzen, Spannungsschwankungen an den Ports, usw usw usw.

Gibt sehr viele Möglichkeiten warum er einen Einfluss hat.

Meine GPU sorgt je nach Frames/Last auch teilweise für Pfeifen/Brummen aus den Boxen

y33H@
2012-06-20, 19:03:00
Der X79 ist ein Patsburg, so wie alle C600er auch. Aber gut, ich werf die GTX 680 kommende Woche auf das Asus Z9PE-D8 WS ...

Skysnake
2012-06-20, 19:08:09
Wäre nett :up:

V2.0
2012-06-20, 19:48:45
Es steht nicht, dass es nicht funktioniert, es steht nur, dass es offiziell nicht unterstützt wird, so wie X79 bzw. Sandy-E offiziell ja auch kein PCIe 3.0 kann.

Raff
2012-06-20, 20:17:47
Es gab doch früher mal Meldungen über PCIe 3.0 Probleme bei Kepler. Dadurch auch eine gewisse Verspätung. Haben die das immer noch nicht richtig behoben? :|

Es steht nicht, dass es nicht funktioniert, es steht nur, dass es offiziell nicht unterstützt wird, so wie X79 bzw. Sandy-E offiziell ja auch kein PCIe 3.0 kann.

Die Kepler-Karten profitieren in den veröffentlichten Tests auch kaum von PCI-E 3.0, im Gegensatz zu Tahiti. Ob das wohl echt mit einem Problem zusammenhängt? *Verschwörungstheorie*

MfG,
Raff

Hugo78
2012-06-20, 21:03:41
Die Kepler-Karten profitieren in den veröffentlichten Tests auch kaum von PCI-E 3.0, im Gegensatz zu Tahiti. Ob das wohl echt mit einem Problem zusammenhängt? *Verschwörungstheorie*

MfG,
Raff

Dann könnte man auch Thaiti im Vergleich mit Cap Verde ein Problem andichten, weil Cap Verde laut euren Tests stärker von PCIe 3.0 profitiert (was ja eigentlich auch wieder unlogisch ist).

Dabei gab es schon von PCIe 2.0 x8 auf x16 kaum dicke Sprünge bei den jeweils aktuellen High End Karten
und auch bei Thaiti gibts laut hardware-infos nur Sprünge im Bereich der Messungenauigkeit, wenn man vom Einzelfall Skyrim mal absieht.
http://www.hardware-infos.com/tests.php?test=85&seite=4

Und mit Ivy Bridge PCIe 3 hat Kepler kein Problem, ergo muss es in der Tat irgendeine Wechselwirkung bei X79 geben.

muelli
2012-06-20, 22:11:10
Passive GTX 680 mit zweimal 8Pin-PCIe.
(http://www.computerbase.de/news/2012-06/luefterlose-geforce-gtx-680-von-colorful-gezeigt/)

Gruß

Blaire
2012-06-20, 22:17:21
Und mit Ivy Bridge PCIe 3 hat Kepler kein Problem, ergo muss es in der Tat irgendeine Wechselwirkung bei X79 geben.

Es gibt keine Probleme. ;) Das hat ganz andere Gründe.

P@trick
2012-06-21, 21:51:23
@Blaire :Auch mal so Spielchen gemacht mit deine Karten und extreme Auflösungnen bzw. DS ab 2x2 OGSSAA und mehr oder derben Hybriden und verglichen zwischen PCI-E 2.0 und PCi-E 3.0,so wie "(Callsign) Vega" in seinem Thread?

http://www.xtremesystems.org/forums/showthread.php?279308-Vega-s-*Heavyweight*-display-and-computer-edition-2012/page6, siehe Post 132

Was der Herr da genau gemessen hat und inwiefern das ganz aussagekräftig ist,ist mir zwar nicht ganz klar.(Also klar schon,nur wie aussagekräftig nicht ganz ;D)

Hab`pers. natürlich auch mal auf dem popeligen X79 die Datei ausgeführt und schaue,aber denke es ist klar, dass wie schon erwähnt da zumindest mit einer Karte(evtl. bei extrem settings s.o.)kaum messbare Unterschiede auszumachen sind.(Beispiel z.Bsp PCGH 07/12, 2%) .

dildo4u
2012-06-22, 13:37:20
Hollywood Goes High Tech in Transformers Ride at Universal Studio

http://youtu.be/w2kuSCaL0KU auf 1080p stellen.


http://blogs.nvidia.com/2012/05/nvidia-gpus-render-stunning-visuals-in-transformers-ride/

Skysnake
2012-06-22, 15:29:02
Und jetzt? Was hat das mit hier zu tun? :ugly:

Nightspider
2012-06-22, 15:45:41
Wieso spielen die da nicht einfach ein besser aussehendes, vorgerendertes Video ab?

Skysnake
2012-06-22, 15:51:11
Tun Sie vermutlich auch, alles andere wäre ja total banane, aber der Film wurde mit nVidia GPUs erstellt, wobei ich das noch immer nicht vesteh, was man uns mit den Links gerade sagen will.

Blaire
2012-06-22, 20:43:59
@Blaire :Auch mal so Spielchen gemacht mit deine Karten und extreme Auflösungnen bzw. DS ab 2x2 OGSSAA und mehr oder derben Hybriden und verglichen zwischen PCI-E 2.0 und PCi-E 3.0,so wie "(Callsign) Vega" in seinem Thread?

http://www.xtremesystems.org/forums/showthread.php?279308-Vega-s-*Heavyweight*-display-and-computer-edition-2012/page6, siehe Post 132

Was der Herr da genau gemessen hat und inwiefern das ganz aussagekräftig ist,ist mir zwar nicht ganz klar.(Also klar schon,nur wie aussagekräftig nicht ganz ;D)

Hab`pers. natürlich auch mal auf dem popeligen X79 die Datei ausgeführt und schaue,aber denke es ist klar, dass wie schon erwähnt da zumindest mit einer Karte(evtl. bei extrem settings s.o.)kaum messbare Unterschiede auszumachen sind.(Beispiel z.Bsp PCGH 07/12, 2%) .

Werde in Kürze auf dieses Asus x79 Rampage IV Extreme Board umrüsten, dann schau ich mir das genauer an. Mittlerweile hat NV ja auch ein PCI-E 3.0 Enabler-Patch für X79-Boards rausgebracht, so daß es diesbezüglich keine Performance-Nachteile mehr geben sollte. Mit meinen EVGA 4-Way SLI Classified und 4x PCI-E 2.0 x16-Slots gab es diesbezüglich keine Probleme, wie bsplw. von Vega dort berichtet.
Aber gut möglich das SLI von PCI-E 3.0 noch nachträglich profitiert, das wird sich zeigen müssen. :)

P@trick
2012-06-25, 21:44:46
Ach,ganz ausgeblendet dasss du auf LGA 1366:tongue: noch unterwegs bist.Aber sicher, kann natürlich interessant werden bei deinem Setting (und derben Settings natürlich).Kannst ja berichten wenn es denn mal soweit ist mit deinem Rampage IV und ob sich da auch mehr was tut, als etwas, was man sonst (grob gesagt) so gut wie unter Messtoleranz abhacken kann.

TobiWahnKenobi
2012-06-29, 12:55:28
soderle.. meine erste palit gtx680 jetstream ist heute früh gestorben.. absturz beim nichtstun, rebootschleife, grafikfehler im uefi.. fein.. hat ja lange gehalten.. drei wochen, wenn ich mich nicht irre.




(..)

mfg
tobi

aufkrawall
2012-06-29, 13:11:19
Einmal Palit, nie mehr Palit. :biggrin:
Meine 570 ist leider noch nicht endgültig gestorben, neben dem Stinken machen mittlerweile nun aber auch die Lüfter Probleme.

TobiWahnKenobi
2012-06-29, 13:15:00
hab ich damals auch mal irgendwann gesagt.. ist aber ewig her.. die letzten karten waren meist palit oder gainward..

naja.. soll sich wer anders mit abeseln - hab damit schon genug zeit vertrödelt..

*sichneneuereinsteckt*

passt, läuft.. ! ich mag nicht übers WE ohne GK im hauptrechner unterwegs sein.



(..)

mfg
tobi

Skysnake
2012-06-29, 14:00:15
joa.. sind die grenzen, die ich auch für mich festgestellt habe.

mal abwarten wie die teile mit mehr saft laufen..



(..)

mfg
tobi
Da war wohl OC bei der Karte mit dabei....

Ich weiß jetzt nicht, ob ich dir jetzt viel Glück mit der Gewährleistung/Garantie wünschen soll, oder aber nicht, schließlich zahlen das alle anderen Kunden mit.....

aufkrawall
2012-06-29, 14:08:03
Da war wohl OC bei der Karte mit dabei....

Wie will man denn Kepler so übertakten, dass was kaputt geht?

TobiWahnKenobi
2012-06-29, 14:08:06
Da war wohl OC bei der Karte mit dabei....

Ich weiß jetzt nicht, ob ich dir jetzt viel Glück mit der Gewährleistung/Garantie wünschen soll, oder aber nicht, schließlich zahlen das alle anderen Kunden mit.....
kannst du lesen? guck mal auf das datum von der "neuen" rechnung.. ;-)

Wie will man denn Kepler so übertakten, dass was kaputt geht?

geht nicht.. davon ab kaufe ich mir bestimmt keine werks-OC-karte um dann zu gucken, ob noch 20MHz mehr gehen.. aus dem alter bin ich raus.. *kopfkratz* ich drehe eher das powerlimit zurück und erfreue mich über reduzierten lärm @75%


(..)

mfg
tobi

Knuddelbearli
2012-06-30, 13:51:39
http://www.computerbase.de/news/2012-06/point-of-view-geforce-gtx-680-beast-edition-angekuendigt/

absolut unbrauchbar mit Standard vramtakt ...

AnarchX
2012-06-30, 14:05:16
Wohl möglich hat man bei TGT höhere Qualitätsanforderungen an sein Produkt?
Der Speicher ist nun mal nur bis 6Gbps spezifiziert.

Knuddelbearli
2012-06-30, 14:39:15
die gpu ist auch nur bis 1006 base clock spezifiziert ^^

Raff
2012-06-30, 17:39:41
Nur wenige Hersteller wagen OC des Speichers. Mir fallen spontan nur Palit/Gainward, Evga und speziell Zotac ein. Bei den AMPs ist's mit +10 Prozent deutlich, der Rest bleibt im 5-Prozent-Rahmen. Dementsprechend sind die AMPeln auch am schnellsten.

MfG,
Raff

TobiWahnKenobi
2012-06-30, 19:48:03
ja - echt toll von palit.. hab ich ja gesehen, wielange sowas hält.. 150MHz mehr takt - so gut wie nie gespielt und nach nicht ganz 4 wochen tot wegen kaputtem speicher.

wohlgemerkt ein ausfall beim nichtstun als windowsen..


(..)

mfg
tobi

Radeonfreak
2012-06-30, 22:25:05
Was ist denn jetzt eigentlich mit der New Dawn Demo? Da stand "Later this Month".

Das ist Heute. :upara:

Cyv
2012-07-09, 00:38:38
Was ist denn aus dem vsync-Problem geworden? Kam der versprochene Patch im Juni?

aufkrawall
2012-07-09, 01:24:17
Ja, ist seit dem vorletzten Betatreiber gefixt.

TobiWahnKenobi
2012-07-12, 14:30:50
damit wäre ich dann an der grenze meiner gehäuse-kapazitäten angelangt.. *rolleyes*

http://www.abload.de/thumb/palit_jetstream_duo2gjz18.jpg (http://www.abload.de/image.php?img=palit_jetstream_duo2gjz18.jpg) http://www.abload.de/thumb/palit_jetstream_duoa2xwz.jpg (http://www.abload.de/image.php?img=palit_jetstream_duoa2xwz.jpg)

enger shice..

apropos kapazitäten.. denke, ich lasse mal alles ohne erhöhte spannungen laufen, nicht dass mein 625W NT wegfliegt.. ob die CPU jetzt mit 4.5 oder 4.9GHz läuft, sollte den kohl nicht fett machen. die 17 kilos im schnullermark sehe ich bestimmt eh erst mit dem nächsten prozessor.


(..)

mfg
tobi

aufkrawall
2012-07-12, 14:35:23
lol, 2x Palit.
Du wurdest gewarnt. :freak:

TobiWahnKenobi
2012-07-12, 14:38:54
das ist mir sowas von egal, was da draufsteht.. *gg* hauptsache es läuft und nervt mich nicht.. ausbauen kann ich die untere eh nie wieder.. das war vllt. ein gefummel.. weil die kack-pumpe doch direkt daneben steht.

idle-temps liegen imo @34 + 37°C, lüfter sind schön leise (800u/min).


(..)

mfg
tobi

M4xw0lf
2012-07-12, 15:57:33
idle-temps liegen imo @34 + 37°C, lüfter sind schön leise (800u/min).

Und unter Last? Die Karte ist laut diverser Tests ja ein rechter Radaubruder... und dann gleich zwei davon, wo die eine kaum noch atmen kann...

Nightspider
2012-07-12, 16:16:19
Wieviel FPS schafft ein 680 SLI Gespann in BF3 unter 2880*1800 bei Ultra (HBAO=off) ?

aufkrawall
2012-07-12, 16:18:44
Wieviel FPS schafft ein 680 SLI Gespann in BF3 unter 2880*1800 bei Ultra (HBAO=off) ?
Da hätte man womöglich selbst mit einer ne Chance auf konstante 60fps, zumindest mit OC.

TobiWahnKenobi
2012-07-12, 16:19:17
stay tuned..

die beiden haben zusammen grad mal ne runde bf3 und zweimal den schnullermark 11 überstehen müssen.

meine erste vor vier wochen war auch relativ hörbar; aber da sie dann eh kaputt war.. *gg*

ääähm, die beiden hier sind okay.. temps gingen auf 82/84°C hoch..

ich achte mal auf geräusch ;-) aber aus dem bauch raus würde ich jetzt mal behaupten, dass die 7970 im nachbarrechner nerviger ist, wenn ich hier sitze und meine freundin skyrim spielt.

btw,
palits bios-update-tool ist auch witzig.. das ist wohl nur im stande, device0 zu flashen.. obwohl device1 nachweislich ein B -bios hat, wohingegen ich bei karte0 schon auf C -bios up-ge-datet habe, behaupet es, dass alles kuhl ist.. naja.. ich lass das erstmal so laufen - traue dem braten noch nicht so recht.


(..)

mfg
tobi

TobiWahnKenobi
2012-07-12, 16:24:33
Wieviel FPS schafft ein 680 SLI Gespann in BF3 unter 2880*1800 bei Ultra (HBAO=off) ?

2880x1800 kann ich nicht downsampeln. bei 2560x1440 bzw. 2560x1600 pixeln ist schluss mit lustig.

(2560x1600, ultra | map karkant | 64spieler)

2012-07-12 16:33:52 - bf3
Frames: 4818 - Time: 52120ms - Avg: 92.441 - Min: 61 - Max: 131
2012-07-12 16:35:14 - bf3
Frames: 9368 - Time: 126142ms - Avg: 74.266 - Min: 37 - Max: 125
2012-07-12 16:48:13 - bf3
Frames: 14960 - Time: 171258ms - Avg: 87.354 - Min: 49 - Max: 134

btw,
powerlimit @75%, lüfter bleibt zwischen 60-65%


(..)

mfg
tobi

aufkrawall
2012-07-12, 16:36:17
2880x1800 kann ich nicht downsampeln. bei 2560x1440 bzw. 2560x1600 pixeln ist schluss mit lustig.


(..)

mfg
tobi
Du könntest das SSAA-Tool für den SP nutzen.
Im MP gibts damit leider Kick.

Hübie
2012-07-12, 16:40:25
Man bei deiner hardware wird mir langsam schwindelig ;D Kauf dir lieber mal n anständiges Auto und aktualisiere deine Seite :tongue: Bist du eigtl noch bei C´T??

b2t: Wieso nun wieder SLi? Hab ich nicht irgendwo gelesen dass dir die Leistung ausreicht (glaube PCGHX)? :|

TobiWahnKenobi
2012-07-12, 17:03:18
b2t: Wieso nun wieder SLi? Hab ich nicht irgendwo gelesen dass dir die Leistung ausreicht (glaube PCGHX)? :|

gekränkter stolz. :-P ich wollte eigentlich eine zweite gewinnen und hab dafür extra meinen hund auf die letzte kaputte palit gelegt und abgelichtet.. dachte, tiere ziehen immer.. :-) naja..

aber es hat nicht geklappt, also hab ich mir eine gekauft..

ob ich die behalte, steht noch in den sternen.. der sinn erschliesst sich mir noch nicht soo.. evtl. schmeisse ich die 7970 raus und gebe meiner freundin eine GTX in den phenom ab, falls das passt..

btw,
ich finde mein auto toll.. :-) der hat letzte woche erst eine neue motorhaube und seine vierte inspektion bekommen. nächste woche kriegt er einen neuen fahrersitz, weil der hersteller sehr kulant zu mir ist.


(..)

mfg
tobi

TobiWahnKenobi
2012-07-12, 17:38:55
Du könntest das SSAA-Tool für den SP nutzen.
Im MP gibts damit leider Kick.

quark - was soll ich mit SP?

das hier ist meine einstellung:

standard 1080p/120Hz 3D Vision

2012-07-12 17:34:56 - bf3 (1920x1080 /ultra | Map karkant | 3DV)
Frames: 14096 - Time: 240553ms - Avg: 58.598 - Min: 30 - Max: 103

btw,
toll.. jetzt hab ich mir ein neueres fraps installiert und schon zeichnet es mir keine frametimes mehr auf :-(


(..)

mfg
tobi

Nightspider
2012-07-12, 17:41:53
30 min fps bei GTX680 SLI? :O
Sicher das die 2. GPU/SLI aktiv war?

Was ist 3DV? Zockst du mit 3D? Wenn ja: wieviel fps kostet das Ganze bei BF3?

dildo4u
2012-07-12, 17:48:17
Die fps kommen hin 3D zieht ordentlich Leistung.

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-690-Review-Dual-GK104-Kepler-Greatness/3D-Vision-and-3D-Vi

FPS sind im MP noch mal niedriger.

TobiWahnKenobi
2012-07-12, 17:50:50
ich habe das spiel noch NIE SP gestartet.

30 min fps bei GTX680 SLI? :O
Sicher das die 2. GPU/SLI aktiv war?

Was ist 3DV? Zockst du mit 3D? Wenn ja: wieviel fps kostet das Ganze bei BF3?

jupp.. shutterbrille!! frisst mehr frames als ich dachte.


(..)

mfg
tobi

Hübie
2012-07-12, 18:37:46
gekränkter stolz. :-P ich wollte eigentlich eine zweite gewinnen und hab dafür extra meinen hund auf die letzte kaputte palit gelegt und abgelichtet.. dachte, tiere ziehen immer.. :-) naja..

aber es hat nicht geklappt, also hab ich mir eine gekauft..

(..)

mfg
tobi

:freak: Mir ist der Sinn der Hundeaktion noch nicht ganz einleuchtend? Wir haben gleich zwei Hunde, vllt klappts mit denen :confused: ;D

btw: sry for OT

TobiWahnKenobi
2012-07-12, 18:45:55
bei palit kannst du ne weitere karte gewinnen, wenn du schon eine hast und mit ihrer seriennummer + einem foto von der karte an der verlosung teilnimmst.

https://fbcdn-sphotos-a.akamaihd.net/hphotos-ak-ash3/599292_363202683751501_969735007_n.jpg

edit:

hab eben ein paar experimente mit adaptiven vsync und den einstellungen 1/2 und 1/3 der bildwiederholfrequenz als ziel (mit skyrim) gemacht -> funzt tadellos und auch das spielgefühl ist gut.. mir gefällt die funktion.

die karten sind zusammen klar leiser als die HD7970 im zweitrechner. nebenbei läuft der fernseher - ich hab das fenster auf - ich höre die karten so gut wie gar nicth. mein steam-skyrim mit den steam-hd-texturen läuft super mit AO, SGSSAA und bis 2560x1440. vllt gucke ich mir das noch näher an, wenn ich mal ohne brille zocke.


(..)

mfg
tobi

Effe
2012-08-01, 18:20:55
Test der EVGA-Classified mit 4GB bei HT4U: http://ht4u.net/reviews/2012/evga_geforce_gtx_680_classified_4gb_test/

schreiber
2012-08-01, 18:44:12
Test der EVGA-Classified mit 4GB bei HT4U: http://ht4u.net/reviews/2012/evga_geforce_gtx_680_classified_4gb_test/
Ein Test von noch höheren Auflösungen wäre interessanter gewesen. Ist ja bei nvidia mit Downsampling kein Problem.
Mafia2, Skyrim, Deux Ex hätten noch genug Reserven.

Dürfte aber dennoch schwer werden, viele Spiele zu finden, die in diesen hohen Auflösungen durch den Mehrspeicher schneller werden UND dann auch noch im spielbaren Bereich liegen.

aufkrawall
2012-08-01, 18:46:44
Ein Test von noch höheren Auflösungen wäre interessanter gewesen. Ist ja bei nvidia mit Downsampling kein Problem.

Geht momentan schlechter als bei Radeons.

boxleitnerb
2012-08-01, 18:55:51
Jein, bei Tahiti ist auch nicht viel drin, wenn man sich so im Forum umschaut. Evergreen und Cayman sind unproblematischer.

aufkrawall
2012-08-01, 18:58:24
Jein, bei Tahiti ist auch nicht viel drin, wenn man sich so im Forum umschaut. Evergreen und Cayman sind unproblematischer.
Bei Tahiti geht im Gegensatz zu Kepler aber wenigstens 2560x2048.

boxleitnerb
2012-08-01, 19:10:06
Da ich keinen kleinen Bildschirm mehr habe: Mir egal :tongue:
Im Ernst: Müssen wir jetzt Pixel zählen, wirklich?

aufkrawall
2012-08-01, 19:23:30
Im Ernst: Müssen wir jetzt Pixel zählen, wirklich?
Nein. 2560x1440 + 8xMSAA sollte reichen.
Bei "normalen" Anwendungen kein nennenswerter Unterschied -> Thema imho gegessen. ;)

Palpatin
2012-08-02, 07:49:06
Ein Test von noch höheren Auflösungen wäre interessanter gewesen. Ist ja bei nvidia mit Downsampling kein Problem.
Mafia2, Skyrim, Deux Ex hätten noch genug Reserven.

2 Karten mit 4GB und das ganze dann in 7680 x 1440 testen. Ab da werden die 4GB sehr intressant. Da braucht es kein DS.

kunibätt
2012-08-07, 01:09:26
Crysis 2 mit SGSSAA über 2x ist auch so ein Kandidat.

dildo4u
2012-08-07, 17:28:40
Next-Gen TXAA Anti-Aliasing Makes Its Debut In Latest Update For The Secret World

http://www.geforce.com/whats-new/articles/the-secret-world-txaa/

aufkrawall
2012-08-07, 17:34:13
omg, was haben die mit der Rangeconversion beim Video verbrochen...
epic fail

TXAA scheint ziemlich viele Texturdetails zu killen. :(
Seehr unscharf.

Rente
2012-08-07, 18:31:42
omg, was haben die mit der Rangeconversion beim Video verbrochen...
epic fail

TXAA scheint ziemlich viele Texturdetails zu killen. :(
Seehr unscharf.
Also mit dem Video machen sie sich aber keine neuen Freunde, das wirkt hauptsächlich wie ein besserer Weichzeichner (und damit wie FXAA in vielen Fällen).

€: Wenn man das Video klein lässt wirkt es aber tatsächlich ordentlich...

Hübie
2012-08-07, 20:59:54
Es entflimmert offenbar auf Kosten der Texturdetails. In welchem Grad werden wir ja sehen. Schätze dass es aber nicht schlimmer wird als FXAA.

robbitop
2012-08-08, 11:11:51
Tja echtes AA ist eben nicht zu ersetzen... :)

foenfrisur
2012-08-11, 13:10:49
Doch durch Auflösung/Pixeldichte und gutes Design bzw. Technik ;D

dargo
2012-08-11, 13:15:18
Es entflimmert offenbar auf Kosten der Texturdetails. In welchem Grad werden wir ja sehen. Schätze dass es aber nicht schlimmer wird als FXAA.
Ist FXAA in seiner standard Form nicht schon schlimm genug?

Hübie
2012-08-11, 18:30:49
In der Standardform, ja. Aber man kanns ja mittlerweile auch sinnvoll einsetzen. Aber ehrlich gesagt habe ich gar keine Lust mehr auf dieses tweaken und Fummeln bis es schick ist. :(

Langsam habe ich das Gefühl die Programmierer sind immer mehr überfordert. Es gibt allein bei den Schattentechniken so derbe viele... da würd ich auch den Überblick verlieren =)

Ich frage mich übrigens schon etwas länger warum eigentlich Texel immer eckig sind. Genau so wie Pixel am Monitor - sind auch eckig. Kann mir das mal einer erklären?

http://www.abload.de/img/lochmaskefasvo.png (http://www.abload.de/image.php?img=lochmaskefasvo.png)

So könnte man doch viel einfacher und natürlicher Formen projezieren... Auf Gefahr gleich gesteinigt zu werden sage ich mal: Das ist wieder so ein Ding der Altlasten aus den 80ern oder so ;D

Edit: Verdammt ich werde OT - kann das ein Mod mal bitte in einen neuen Thread schieben falls es stört? :smile:

TobiWahnKenobi
2012-08-11, 18:50:12
zerleg mal einen kreis in dreiecke und forme aus dreiecken ein viereck ;-)

/OT


(..)

mfg
tobi

Hübie
2012-08-11, 19:43:02
Hä? Mach mal aus Dreiecken einen Kreis... :rolleyes:

dargo
2012-08-11, 20:13:16
Hä? Mach mal aus Dreiecken einen Kreis... :rolleyes:
Wo soll da jetzt ein Problem sein?

Hübie
2012-08-11, 20:16:54
Wo soll umgekehrt das Problem sein?

PrefoX
2012-08-11, 20:19:39
Wo soll da jetzt ein Problem sein?
weil du gefühlte 100000 polygone brauchst um so nen kreis zu machen, naja es werden vielleich 100-200 sein aber immerhin, im gegensatz zu 2?

foenfrisur
2012-08-11, 23:25:11
es gab ja wohl bereits eine lochmaske, schon vergessen in zeiten von lc/le-display ?

es hat ja alles sein vor- & nachteile:
ich halte rund für schwierig, weil mehrere zusammengesetzte "runde pixel" zu viele unregelmäßige schwarze bereiche haben, die überleuchtet werden müssen.
am angrenzenden nächsten pixel wiederum überleuchten die sich gegenseitig. also zu viele nachteile

bei viereckigen pixeln sind die ränder an allen seiten gleich. noch besser wären immer halb-verschobene quadrate.

ähnlich der schlitzmaske, denn man minimiert dunkle bereiche.

mfg

TobiWahnKenobi
2012-08-12, 09:15:04
leute, lagert das "dreieck vs. kreis" doch in einen separaten thread aus.

ja sicher gab es eine zeit von lochmasken; hier war sie 2000/2001 zuende.


(..)

mfg
tobi

Blaire
2013-01-22, 00:13:11
2012 NVIDIA Video Card Driver Performance Review @ [H]
http://www.hardocp.com/article/2013/01/21/2012_nvidia_video_card_driver_performance_review
http://www.abload.de/img/bf3benchqxl05.png
"Overall, 2012 has been a good year for NVIDIA. If we had to give a specific letter grade to NVIDIA for driver support and performance, we feel an "A" would be befitting. If you are in the market for an NVIDIA GPU based video card, the GeForce GTX 670 has come down to about $350 now, and usually comes within 10-15% the performance of GTX 680. It is your best bet for value for the dollar for a high-end video card experience. Alternatively, the GeForce GTX 660 Ti has been a very popular video card, and can be found as low as $270. Whichever video card you decide to go with, install at least ForceWare 310.70 WHQL and you will have a great gameplay experience."

gnomi
2013-01-27, 12:09:59
Nur deswegen kaufe ich ausschließlich nvidia GPU's.
OOTB lief bislang alles sehr ordentlich und unkompliziert.

Die Performancesteigerungen sind auch nicht so zu verachten, wenn man eben bedenkt, dass sie oft frühzeitig eine gute Geschwindigkeit bei gefragten Titeln erreichen.
Natürlich ist AMD auch öfter mal schneller. Imho liegt es dann aber daran, dass das Spiel die Stärken derer Hardware einfach besser nutzt.
Speziell die GTX 680 ist in Sachen Rohleistung der Ghz Version der 7970 von AMD ja auch klar unterlegen, was oft mit reinspielt.

Interessant wären mal Tests abseits von Battlefield 3, Skyrim, Far Cry 3, Max Payne 3.
Es gibt auch sehr interessante Spiele, die in zweiter Reihe stehen und nicht ganz so aufwendig oder technisch modern daherkommen, aber die gleiche Aufmerksamkeit verdient hätten. (Ghost Recon - Future Soldier, Inversion, Hitman Absolution, Dishonored, Sleeping Dogs, Ridge Racer Unbounded, Risen 2, Syndicate u.a.)
Auch interessiert nicht so sehr, wer 5-10 Bilder mehr durchschnittlich rausholt.
Normalerweise müsste man einfach pro GPU nur eine allgemeine Performance- und Kompatibilitätsbewertung geben und die Spiele aufführen, wo die GPU schlapp oder Probleme macht.
Dann bräuchte man nicht mal mehr Benchmarks...

Angiesan
2013-01-27, 12:45:53
Interessant wären mal Tests abseits von Battlefield 3, Skyrim, Far Cry 3, Max Payne 3.
Es gibt auch sehr interessante Spiele, die in zweiter Reihe stehen und nicht ganz so aufwendig oder technisch modern daherkommen, aber die gleiche Aufmerksamkeit verdient hätten. (Ghost Recon - Future Soldier, Inversion, Hitman Absolution, Dishonored, Sleeping Dogs, Ridge Racer Unbounded, Risen 2, Syndicate u.a.)

Ja da das stimmt, aber da wäre die NV Gemeinde ziemlich angepi... den bei den von dir genannten ist AMD oft in Front, Ausnahme ist Dishonored mit erzwungenem SSAA das sieht auf NV nicht nur deutlich besser aus es ist auch schneller :cool: Ansonsten glaube ich das NVidia mehr auf die Optimierung populärer Engines setzt und nur bei Top-Titel direkt darauf optimiert. Bei AMD scheint man das irgendwie anders zu machen denn wie du schon richtig geschrieben hast ootb ist NV trotz unterlegener HW zumindest oft gleich schnell, wenn aber AMD das Tier freilässt sind die nicht mehr zu halten schau mal wie groß die Unterschiede sind wenn es AMD mal zu Stande gebracht hat ein Spiel zu optimieren da brauch man die kommenden Generation gar nicht der Unterschied ist oft gewaltig.
Bei NV braucht man oft nur zu gucken welche Engine verwendet das Spiel und du kannst die Leistung recht gut einschätzen. Bei AMD ist das nicht immer so, da scheinen kleine Veränderungen schon große Auswirkungen zu habe.

Wenn ich mal einen Vergleich bemühen darf, -- Wir haben ein Fass das hat ein Loch und soll trotzdem gefüllt werden, NVidia geht den Weg und sagt Moment mal das Loch muss gestopft werden sonst wird das nix, AMD sagt scheiß drauf, schütten wir oben schneller und mehr rein --:biggrin: Das Ergebniss ist fast das gleiche wenn man es von oben betrachtet.:freak:
Wenn die von AMD mal anfangen würden das Loch zu suchen und zu stopfen mein lieber Mann, dann bräuchte NVidia den Titan um da gegen zuhalten so reicht eben die 680 je nach Testfeld und Settings

Skysnake
2013-01-27, 12:51:14
Naja, tun Sie ja auch. Bis jetzt gingen halt auch viel Ressourcen für die LLVM drauf, also für den Laufzeitcompiler, der die Befehle auf VLIWx gemapped hat.

Das fällt jetzt weg, und man hat mehr Ressourcen für andere Sachen frei. AMD hat diese Generation (GCN) einen großen Schritt nach vorne getan, was Optimierungen usw anbelangt, und da darf man in Zukunft auch noch einiges erwarten. Die mussten sich ja auch erstmal mit der neuen Architektur anfreunden.

TobiWahnKenobi
2013-01-27, 12:59:00
das anfreunden zieht sich ziemlich hin und wenn ich auf die monate mit der 7970 zurückblicke, hatte AMD noch ganz andere baustellen mit der karte, als nur olle spiele oder deren anpassung.

ich hatte von cat 11.12 bis 12.11 immer irgendwelche ärgernisse zu beklagen (betr. HDMI-ton, darstellung im klonbetrieb, 120Hz ausgabe usw). ich empfand das teil schlicht als nervig im alltag und es gab immer irgendwas, das den gedanken schürte "hoffentlich wird der nächste treiber besser".

auf die letzten 10fps kam es mir nie an - das teil unter dem tisch muss laufen und auch randfunktionen müssen arbeiten. wenn die frames nicht reichen, drehe ich einstellungen zurück oder stecke ne weitere GPU zu.

ich war schon immer bereit, gutes geld für ein gutes produkt zu bezahlen und zu einem guten produkt gehört nicht nur die hardware.

edit:
mittlerweile hat sich der preis ganz gut eingependelt und darüber lässt sich einiges relativieren. aber die 560€, die ich im januar 2012 für die AMD-karte bezahlt habe, waren für das unrunde produkt mMn zuviel.


(..)

mfg
tobi

aufkrawall
2013-01-27, 13:01:33
Sie sollten aber mal dringend die Performance in SC2 mit MSAA fixen, bevor der neue Teil rauskommt.
AC3 geht auch gar nicht, Project Cars sei entschuldigt da noch nicht Final.

Ich kauf mir jedenfalls keine Karte, wo der Treiber bei einzelnen Titeln keinen hoch kriegt. AC3 hat ja leider gezeigt, dass man auch mit GCN mit so was immer noch rechnen muss.

Angiesan
2013-01-27, 13:13:10
Tobi da sollte man schon Nachsicht walten lassen, du bist ja auch was das Multimonitoring und Video Einstellungen angeht ein Poweruser.
Wenn man den Aussagen einiger Entwickler glauben darf brauchen die z.B. 3 Generatione an Spielen bis die das Maximum aus einer Konsolengeneration rausholen können. Die Denkmuster der AMD Leute ist eben noch auf die Alte Generation ausgelegt und hier müssen erst die Möglichkeiten gefunden werden.
Ich glaube schon das wir hier noch was erwarten dürfen.

Es ist aber schon so wie du es beschreibst, die Jungs uns Mädels von AMD scheinen ab und an mit weniger zufrieden zu sein ich kann es überhaupt nicht verstehen wie man es fast ein Jahr lang geschafft hat ZC bei mir am funktionieren zu halten wo ich häufig nur von diesen Problemen hörte und sie nie nachvollziehen konnte und mit dem 13.1 es auf einmal nicht mehr so ist und es mich auch erwischt :freak:aber das wird zu sehr ot.

fondness
2013-01-27, 13:16:02
Sie sollten aber mal dringend die Performance in SC2 mit MSAA fixen, bevor der neue Teil rauskommt.
AC3 geht auch gar nicht, Project Cars sei entschuldigt da noch nicht Final.

Ich kauf mir jedenfalls keine Karte, wo der Treiber bei einzelnen Titeln keinen hoch kriegt. AC3 hat ja leider gezeigt, dass man auch mit GCN mit so was immer noch rechnen muss.

Seltsames Argument. Man könnte genau so Gegenbeispiele nennen wie Dirt Showdown, Metro, etc. wo "der NV-Treiber keinen hoch kriegt". Jede Karte hat ihre Vor- und Nachteile ist ist deshalb je nach Anwendung mehr oder weniger schnell.

boxleitnerb
2013-01-27, 13:26:47
Dirt Showdown ist wohl außer Konkurrenz, denn da hatte AMD die Finger direkt mit am Code. Da ist es sonnenklar, dass das exakt auf die eigene Hardware zugeschnitten wurde.
Bei Metro ist es das DOF, was sehr viel Bandbreite kostet.

Der Punkt ist, die GTX680 hat weniger Rechenleistung und deutlich weniger Bandbreite als die 7970 (GE). AMD hat diese "Entschuldigung" nicht. Das ist schon ein Unterschied, den man nicht einfach ignorieren kann. Sicher kann Nvidia auch hier und da über Optimierungen ein bisschen was wettmachen, tun sie ja auch - sonst wäre die 7970 GE im Schnitt 25-30% flotter. Bei manchen Titeln geht das eben nicht, weil bestimmte Faktoren vorher limitieren.

fondness
2013-01-27, 13:37:57
Dirt Showdown ist wohl außer Konkurrenz, denn da hatte AMD die Finger direkt mit am Code. Da ist es sonnenklar, dass das exakt auf die eigene Hardware zugeschnitten wurde.
Bei Metro ist es das DOF, was sehr viel Bandbreite kostet.

Ich möchte nicht wissen bei wie vielen Spielen NV die Finger im Code hatte. Gerade das DevRel ist doch bei NV ein großer Pluspunkt.


Der Punkt ist, die GTX680 hat weniger Rechenleistung und deutlich weniger Bandbreite als die 7970 (GE). AMD hat diese "Entschuldigung" nicht. Das ist schon ein Unterschied, den man nicht einfach ignorieren kann. Sicher kann Nvidia auch hier und da über Optimierungen ein bisschen was wettmachen, tun sie ja auch - sonst wäre die 7970 GE im Schnitt 25-30% flotter. Bei manchen Titeln geht das eben nicht, weil bestimmte Faktoren vorher limitieren.


Das ist doch eine Milchmädchenrechnung. NV hat kleinere Warps und nutzt deshalb die Einheiten deutlich besser aus. Oder glaubst du die könnten zaubern? Die größere Brandbreite bei Tahiti ist auch nur eine Nebenwirkung aus dem Profi-Segment. Die 7870 zeigt was mit nur 1,2Ghz an einem 256-bit SI möglich ist.

aufkrawall
2013-01-27, 13:40:07
Dirt Showdown ist wohl außer Konkurrenz, denn da hatte AMD die Finger direkt mit am Code. Da ist es sonnenklar, dass das exakt auf die eigene Hardware zugeschnitten wurde.

Genau. Und ohne die Compute-GI läuft es auch auf Geforces flott.


Bei Metro ist es das DOF, was sehr viel Bandbreite kostet.

Zumal es mega kacke optimiert ist.
Das Spiel ist jetzt auch nicht so "groß", dass man es immer als Argument anführen müsste.

Bei Nvidia limitiert halt nicht der Treiber, sondern die Hardware.
Ich weiß schon, was mir lieber ist.
In vielen Spielen kann die 680 bei 1080p auch mit der 7970 Ghz Edition gut mithalten.

boxleitnerb
2013-01-27, 13:42:24
fondness:
Du solltest besser schreiben, du weißt nicht, bei wievielen bzw. welchen Spielen NV die Finger im Code hatte. Und bei was genau dort. So ist das substanzloses Geblubbere. AMD hat direkt die Forward+ Renderingmethode mitentwickelt, die essentiell für die Features ist, die AMD den Vorteil verschaffen. Das ist Fakt, ist auch bei AMD selbst nachzulesen.

Deutlich = 5%, 10%, 25%? Und die Bandbreite kehren wir auch unter den Tisch? Es ist ein gültiger Einwand, der bestehen bleibt, solange wie detaillierte Messungen und Untersuchungen ihn widerlegen.

Angiesan
2013-01-27, 13:42:30
Sie sollten aber mal dringend die Performance in SC2 mit MSAA fixen, bevor der neue Teil rauskommt.
AC3 geht auch gar nicht, Project Cars sei entschuldigt da noch nicht Final.

Ich kauf mir jedenfalls keine Karte, wo der Treiber bei einzelnen Titeln keinen hoch kriegt. AC3 hat ja leider gezeigt, dass man auch mit GCN mit so was immer noch rechnen muss.
Die Entwickler von SC2 sollten leiber mal darauf achten das man AA im Spiel einstellen kann!Und was gibt es bei AC3?http://www.pcgameshardware.de/Assassins-Creed-3-PC-235361/Tests/Assassins-Creed-3-Test-Benchmarks-1036472/

Da haben die Nvidianer auch direkt die Finger drin aber ein Totallausfall sieht anders aus.

boxleitnerb
2013-01-27, 13:45:14
Gibts da Quellen zu? Nvidia hat das TXAA sicher selbst implementiert oder Unterstützung dabei geliefert, das bestreitet niemand. Aber beim Rest? Der verlinkte Benchmark benutzt kein TXAA.

aufkrawall
2013-01-27, 13:46:33
Die Entwickler von SC2 sollten leiber mal darauf achten das man AA im Spiel einstellen kann!

Weißt du denn, ob das überhaupt geht?
DX9 & Deferred Renderer.


Und was gibt es bei AC3?http://www.pcgameshardware.de/Assassins-Creed-3-PC-235361/Tests/Assassins-Creed-3-Test-Benchmarks-1036472/

Da haben die Nvidianer auch direkt die Finger drin aber ein Totallausfall sieht anders aus.
Du mich veräppeln wollen?
Eine 560 Ti ist schneller als die 7970 GE. ;D
Ohne CPU-Limit dürfte der Unterschied noch wesentlich deutlicher sein.

fondness
2013-01-27, 13:46:52
fondness:
Du solltest besser schreiben, du weißt nicht, bei wievielen bzw. welchen Spielen NV die Finger im Code hatte. Und bei was genau dort. So ist das substanzloses Geblubbere. AMD hat direkt die Forward+ Renderingmethode mitentwickelt, die essentiell für die Features ist, die AMD den Vorteil verschaffen. Das ist Fakt, ist auch bei AMD selbst nachzulesen.

Oh man was für ein Kindergarten. Nein NV würde das natürlich nie tun, sie geben nur völlig uneigennützige Hilfe. :)


Deutlich = 5%, 10%, 25%? Und die Bandbreite kehren wir auch unter den Tisch? Es ist ein gültiger Einwand, der bestehen bleibt, solange wie detaillierte Messungen und Untersuchungen ihn widerlegen.

Das hängt schlicht von der Dreiecksgröße ab und lässt sich nicht pauschalisieren. Nur weil man etwas nicht super simpel mit einer einfachen Zahl angeben kann ist es nicht weniger relevant. Und ich habe auch etwas zur Bandbreite geschrieben. Aber wenn du lieber Kindergarten spielen willst dann lassen wir das lieber.

boxleitnerb
2013-01-27, 13:50:43
Oh man was für ein Kindergarten. Nein NV würde das natürlich nie tun. :)

Das hängt schlicht von der Dreiecksgröße und vielen anderen Faktoren ab. Nur weil man etwas nicht super simpel mit einer einfachen Zahl angeben kann ist es nicht weniger relevant. UNd ich habe auch etwas zur Bandbreite geschrieben.

Also hast du wirklich keine belegten Beispiele. Dachte ich mir

Du behauptest also was und kannst es dann wieder nicht belegen...
Zur Bandbreite bei Metro:
http://www.abload.de/img/metrorzc3b.jpg (http://www.abload.de/image.php?img=metrorzc3b.jpg)
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/20/

Aber nein, die bringt gar nix in diesem Fall, überhaupt nix.

Angiesan
2013-01-27, 13:51:42
Genau. Und ohne die Compute-GI läuft es auch auf Geforces flott.


Zumal es mega kacke optimiert ist.
Das Spiel ist jetzt auch nicht so "groß", dass man es immer als Argument anführen müsste.

Bei Nvidia limitiert halt nicht der Treiber, sondern die Hardware.
Ich weiß schon, was mir lieber ist.
In vielen Spielen kann die 680 bei 1080p auch mit der 7970 Ghz Edition gut mithalten.

Die Geister die ich rief.....war es nicht das Spiel das noch zu Zeiten einer GTX 480 der Titel war der die Zukunft zeigt ;) und die HD 5870 schlecht aussehen ließ? Jetzt wo die Zukunft da ist ..... naja

Ich könnte jetzt auch Anfang und Schreiben das ein Titel aus dem Jahre 2006 ME 1 mit 8xSSAA auf einer übertakteten GTX 670 nicht rund läuft und auf einer 7950 ohne Übertaktung immer am FPS Limit von 60 hängt :) und dabei das SSAA noch deutlich besser aussieht ist das zielführend?

Angiesan
2013-01-27, 13:54:57
Also hast du wirklich keine belegten Beispiele. Dachte ich mir

Du behauptest also was und kannst es dann wieder nicht belegen...
Zur Bandbreite bei Metro:
http://www.abload.de/img/metrorzc3b.jpg (http://www.abload.de/image.php?img=metrorzc3b.jpg)
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/20/

Aber nein, die bringt gar nix in diesem Fall, überhaupt nix.

Das sagt null aus, es könnte auch gut sein, das die 7970 die Bandbreite die sie hat auch braucht und nicht umsonst bekommen hat. ein Test in die andere Richtung würde da mehr Aussagekraft haben und der speicher lässt sich ja auch gut übertakten bei den 79xx er

fondness
2013-01-27, 13:56:26
Also hast du wirklich keine belegten Beispiele. Dachte ich mir

Du behauptest also was und kannst es dann wieder nicht belegen...


Ich dachte tatsächlich du wärst interessiert an einer ernsthaften Diskussion. Aber wenn du nur Kindergarten spielen willst dann lassen wir das lieber. Was ich aufgezählt habe sind technische Fakten und simpelste Logik, wenn du einen Beweis willst dann frag doch die Entwickler. Ich habe mit vielen geredet und alle sind begeisterst von NVs toller DevRel, wo man natürlich gezeigt bekommt wie man aus den NV-Karten die maximale Leistung raus holen kann. Wenn du glaubst das NV das macht ohne einen Vorteil daraus zu erzielen dann bist du entweder super naiv oder stellst dich einfach dumm. Auf einem solchen Niveau werde ich nicht diskutieren.


Zur Bandbreite bei Metro:
http://www.abload.de/img/metrorzc3b.jpg (http://www.abload.de/image.php?img=metrorzc3b.jpg)
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-7970/20/

Aber nein, die bringt gar nix in diesem Fall, überhaupt nix.

Ich habe überhaupt nichts zu diesem konkreten Fall gesagt.

boxleitnerb
2013-01-27, 13:59:40
Das sagt null aus, es könnte auch gut sein, das die 7970 die Bandbreite die sie hat auch braucht und nicht umsonst bekommen hat. ein Test in die andere Richtung würde da mehr Aussagekraft haben und der speicher lässt sich ja auch gut übertakten bei den 79xx er

Hä? Das sag ich doch - die Bandbreite macht die 7970 (GE) in bestimmten Fällen eben deutlich schneller. Nimmst du Bandbreite weg, nimmst du in diesen Fällen auch Performance weg.

Interessant ist es, wenn wir uns die 7870 LE anschauen, die von den Specs her der GTX670 sehr ähnelt:
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/30/

Und siehe da: Gleichstand in Metro. Hm...liegt der Vorsprung von AMD also doch an der höheren Rohleistung. So wie ich gesagt habe.

Ich dachte tatsächlich du wärst interessiert an einer ernsthaften Diskussion. Aber wenn du nur Kindergarten spielen willst dann lassen wir das lieber. Was ich aufgezählt habe sind technische Fakten und simpelste Logik, wenn du einen Beweis willst dann frag doch die Entwickler. Ich habe mit vielen geredet und alle sind begeisterst von NVs toller DevRel, wo man natürlich gezeigt bekommt wie man aus den NV-Karten die maximale Leistung raus holen kann. Wenn du glaubst das NV das macht ohne einen Vorteil daraus zu erzielen das bist du entweder super naiv oder stellst dich einfach dumm. Auf einem solchen Niveau werde ich nicht diskutieren.



Ich habe überhaupt nichts zu diesem konkreten Fall gesagt.

Du machst es dir hier sehr einfach. Du hast etwas behauptest, willst oder kannst es nicht konkret belegen und zeigst dann auf andere und redest dich raus. So kann man gar nicht diskutieren. Wenn du wenigstens ein konkretes Beispiel genannt hättest, wo Nvidia an einem integralen Bestandteil der Engine/des Codes mitgearbeitet hat und dementsprechend einen klaren Vorteil im Vergleich zu AMD hat. Kannst du das?

Du hast Dirt Showdown und Metro aufgezählt als Beispiele, also bleibe doch bitte schön bei der Wahrheit.

dildo4u
2013-01-27, 14:00:54
Titan mach sich besser zum Vergleich,(384 Interface)die 680 ist halt Midrange die 7970 Ghz aber ganz klar AMD Versuch High-End zurück zu erobern.Die 7970 Ghz dürfte auch Vergleichbar Storm zu Titan ziehen.

Angiesan
2013-01-27, 14:04:23
Hä? Das sag ich doch - die Bandbreite macht die 7970 (GE) in bestimmten Fällen eben deutlich schneller. Nimmst du Bandbreite weg, nimmst du in diesen Fällen auch Performance weg.

Interessant ist es, wenn wir uns die 7870 LE anschauen, die von den Specs her der GTX670 sehr ähnelt:
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/30/

Und siehe da: Gleichstand in Metro. Hm...



Du machst es dir hier sehr einfach. Du hast etwas behauptest, willst oder kannst es nicht konkret belegen und zeigst dann auf andere und redest dich raus. So kann man gar nicht diskutieren. Wenn du wenigstens ein konkretes Beispiel genannt hättest, wo Nvidia an einem integralen Bestandteil der Engine/des Codes mitgearbeitet hat und dementsprechend einen klaren Vorteil im Vergleich zu AMD hat. Kannst du das?

Du hast Dirt Showdown und Metro aufgezählt als Beispiele, also bleibe doch bitte schön bei der Wahrheit.
Sorry hatte ich falsch verstanden, hatte es von einer anderen Seite aus betrachtet.

aufkrawall
2013-01-27, 14:08:01
Die Geister die ich rief.....war es nicht das Spiel das noch zu Zeiten einer GTX 480 der Titel war der die Zukunft zeigt ;) und die HD 5870 schlecht aussehen ließ? Jetzt wo die Zukunft da ist ..... naja

Wir müssen jetzt aber nicht mit veralteten Architekturen die Ergebnisse durcheinander würfeln...
Metro ist scheiße optimiert, fertig. Das DoF verbrät auch viel zu viel Leistung für den erreichten Effekt.


Ich könnte jetzt auch Anfang und Schreiben das ein Titel aus dem Jahre 2006 ME 1 mit 8xSSAA auf einer übertakteten GTX 670 nicht rund läuft und auf einer 7950 ohne Übertaktung immer am FPS Limit von 60 hängt :) und dabei das SSAA noch deutlich besser aussieht ist das zielführend?
:facepalm:

fondness
2013-01-27, 14:09:45
Du hast etwas behauptest, willst oder kannst es nicht konkret belegen und zeigst dann auf andere und redest dich raus.

Weil ich mich hier nicht verarschen lassen. Ich werde dir auch nicht beweise das die Erde rund ist. Es gab dazu genug Diskussionen in der Vergangenheit, es gab öffentliche Stellungnahmen von NV, es gab sogar Beschwerden von AMD das NV bei ihren Programm nicht "fair" spielen würde. Wenn du das alles negieren willst und so tun willst als ob NV Samariterbund spielt und das alles aus purer Nächstenliebe macht - bitte.


Wenn du wenigstens ein konkretes Beispiel genannt hättest, wo Nvidia an einem integralen Bestandteil der Engine/des Codes mitgearbeitet hat und dementsprechend einen klaren Vorteil im Vergleich zu AMD hat. Kannst du das?

Das war sogar für alle öffentlich - Batman Arkham Asylum. Und was bringt dir das jetzt?


Du hast Dirt Showdown und Metro aufgezählt als Beispiele, also bleibe doch bitte schön bei der Wahrheit.

Habe ich das bestritten? Warum "Wahrheit"? Es waren genau so valide Beispiele wo ein IHV Vorteile hat wie die von aufkrawall.

Angiesan
2013-01-27, 14:21:11
Weißt du denn, ob das überhaupt geht?
DX9 & Deferred Renderer.


Du mich veräppeln wollen?
Eine 560 Ti ist schneller als die 7970 GE. ;D
Ohne CPU-Limit dürfte der Unterschied noch wesentlich deutlicher sein.
Vielleicht ist es dir nur entgangen aber die 7970 bis hinunter zur 6870 sind mehr oder weniger auf gleicher Höhe und von unspielbar kann da nicht die Rede sein, oder? Ich kann die Benchmarks zeigen wo ein 7870 die GTX 680 gnadenlos zersägt cherry picking halt und nu sorry aber ich kann dich nicht mehr richtig ernst nehmen denn du bringst in jede neutrale Diskussion Farbe rein, vorzugsweise Grüne Farbe ob das gerade passt oder nicht scheint dir vollkommen egal zu sein.
Wenn ich mir den Thread hier im 3DC ansehe wie viele Leute sich an AC3 Thread beteiligt haben ganze 8 Seiten, ist das Interesse ja grenzenlos da schaffen es viele Spiele ja schon vor Erscheinen mehr zu polarisieren.

aufkrawall
2013-01-27, 14:27:31
Vielleicht ist es dir nur entgangen aber die 7970 bis hinunter zur 6870 sind mehr oder weniger auf gleicher Höhe und von unspielbar kann da nicht die Rede sein, oder?

Doch. Wo kommt es bei Nvidia vor, dass die 680 langsamer als Midrange-Karten der Konkurrenz von der Vorgängergeneration sind?


Ich kann die Benchmarks zeigen wo ein 7870 die GTX 680 gnadenlos zersägt cherry picking halt

Immer her damit.


und nu sorry aber ich kann dich nicht mehr richtig ernst nehmen denn du bringst in jede neutrale Diskussion Farbe rein, vorzugsweise Grüne Farbe ob das gerade passt oder nicht scheint dir vollkommen egal zu sein.

So so, du beurteilst Argumente danach, ob sie irgendwie farbig sind.
Toller Diskussionsstil.
Im Übrigen gibts hier auf den letzten Seiten auch krasse rot eingefärbte Beiträge...


Wenn ich mir den Thread hier im 3DC ansehe wie viele Leute sich an AC3 Thread beteiligt haben ganze 8 Seiten, ist das Interesse ja grenzenlos da schaffen es viele Spiele ja schon vor Erscheinen mehr zu polarisieren.
Ich hab auch nicht gesagt, dass mich persönlich das Spiel interessiert. ;)
Mir ging es um den Vergleich.

boxleitnerb
2013-01-27, 14:36:46
Weil ich mich hier nicht verarschen lassen. Ich werde dir auch nicht beweise das die Erde rund ist. Es gab dazu genug Diskussionen in der Vergangenheit, es gab öffentliche Stellungnahmen von NV, es gab sogar Beschwerden von AMD das NV bei ihren Programm nicht "fair" spielen würde. Wenn du das alles negieren willst und so tun willst als ob NV Samariterbund spielt und das alles aus purer Nächstenliebe macht - bitte.


Hör bitte auf zu lügen! Ich habe es nicht negiert und ich habe auch nie das behauptet, was du hier von dir gibst (Nächstenliebe...). Ich habe von dir konkrete Beispiele verlangt, die einen Vorteil von Nvidia zeigen analog zu dem von AMD in Dirt Showdown. Wenn du diese nicht liefern kannst oder willst, solltest du dir überlegen, ob du überhaupt an diesem Aspekt der Diskussion teilnehmen solltest.


Das war sogar für alle öffentlich - Batman Arkham Asylum. Und was bringt dir das jetzt?


Warum nicht gleich so? Es ging damals allerdings um das Ausschließen von AMD was das MSAA angeht. Einen Leistungsvorteil gab es nicht.
Warum bist du nicht auf HawX 2 oder Crysis 2 gekommen? Das wäre doch viel passender, da hier dasselbe berechnet wird, aber AMD eben auf ein Hardwarelimit stieß. Da hätte ich auch nie behauptet, dass "der Treiber keinen hochbekommt", es liegt schlicht an der Hardware.


Habe ich das bestritten? Warum "Wahrheit"? Es waren genau so valide Beispiele wo ein IHV Vorteile hat wie die von aufkrawall.

Ja, hast du:
Ich habe überhaupt nichts zu diesem konkreten Fall gesagt.
Und vorher:
Man könnte genau so Gegenbeispiele nennen wie Dirt Showdown, Metro, etc. wo "der NV-Treiber keinen hoch kriegt"

Und die Beispiele sind eben nicht valide, weil es hier eine direkte Einflussnahme von AMD auf den Code gab bzw. die geringere Rohleistung dafür verantwortlich ist. Siehe mein verlinktes Review zur 7870 LE. Das hat also nichts mit dem Treiber zu tun.

Angiesan
2013-01-27, 14:41:27
Doch. Wo kommt es bei Nvidia vor, dass die 680 langsamer als Midrange-Karten der Konkurrenz von der Vorgängergeneration sind?


Immer her damit.


So so, du beurteilst Argumente danach, ob sie irgendwie farbig sind.
Toller Diskussionsstil.
Im Übrigen gibts hier auf den letzten Seiten auch krasse rot eingefärbte Beiträge...


Ich hab auch nicht gesagt, dass mich persönlich das Spiel interessiert. ;)
Mir ging es um den Vergleich.

hier z.B wenn du mehr brauchst sag Bescheid. http://www.pcgameshardware.de/Half-Life-2-PC-16672/Tests/Half-Life-2-Fakefactory-Cinematic-Mod-1221-Grafikkarten-Benchmarks-Downsampling-Shots-und-Video-1041118/

Zu dem Rest werde ich nicht mehr antworten da ot :facepalm:

fondness
2013-01-27, 14:44:23
Hör bitte auf zu lügen! Ich habe es nicht negiert und ich habe auch nie das behauptet, was du hier von dir gibst (Nächstenliebe...).

Und genau deshalb ist dein Argument von vorhin und ganz unten wertlos. Es ist üblich das die IHV Hilfestellungen geben und Codebeispiele geben, etc. Bei NV sogar noch deutlich häufiger als bei AMD.


Warum nicht gleich so? Es ging damals allerdings um das Ausschließen von AMD was das MSAA angeht. Einen Leistungsvorteil gab es nicht.

Woher willst du das wissen? Du weißt gar nicht wie du Performance ausgesehen hätte wenn NV nicht "mitgeholfen" hätte.


Warum bist du nicht auf HawX 2 oder Crysis 2 gekommen? Das wäre doch viel passender, da hier dasselbe berechnet wird, aber AMD eben auf ein Hardwarelimit stieß. Da hätte ich auch nie behauptet, dass "der Treiber keinen hochbekommt", es liegt schlicht an der Hardware.

Weil es völlig irrelevant ist.


Ja, hast du:

Und vorher:

Und die Beispiele sind eben nicht valide, weil es hier eine direkte Einflussnahme von AMD auf den Code gab bzw. die geringere Rohleistung dafür verantwortlich ist. Siehe mein verlinktes Review zur 7870 LE. Das hat also nichts mit dem Treiber zu tun.

Sag mal willst du mich wirklich für blöd verkaufen? Ich habe Beispiele genannt wo ein IHV deutliche Vorteile hat, als Gegenargument auf krawalls Beitrag. Der zweite Beitrag war auf die Bandbreitenskalierung von Metro bezogen - zu diesem konkreten Fall habe ich nichts gesagt.


Und die Beispiele sind eben nicht valide, weil es hier eine direkte Einflussnahme von AMD auf den Code gab bzw. die geringere Rohleistung dafür verantwortlich ist. Siehe mein verlinktes Review zur 7870 LE. Das hat also nichts mit dem Treiber zu tun.

Und bei den anderen Spiele gab es natürlich niemals nicht irgendwelche DevRel und alles war völlig fair und transparent und liegt zu 100% am Treiber? Ich nehme an du hast den Sourcecode und schon entsprechenden Codereviews gemacht um das beurteilen zu können.

boxleitnerb
2013-01-27, 15:06:28
Und genau deshalb ist dein Argument von vorhin und ganz unten wertlos. Es ist üblich das die IHV Hilfestellungen geben und Codebeispiele geben, etc. Bei NV sogar noch deutlich häufiger als bei AMD.


Das mag sein, aber mir ist kein Fall bekannt, wo Nvidia bei der Entwicklung eines ganzen Renderers mitgearbeitet hat oder wo durch eine Mitarbeit solche massiven Vorteile entstanden wären, die nicht durch Hardware (zu wenig VRAM, zu wenig Tessellationleistung) zu erklären waren.


Woher willst du das wissen? Du weißt gar nicht wie du Performance ausgesehen hätte wenn NV nicht "mitgeholfen" hätte.


Ohne AA gibt es keine Auffälligkeiten:
http://www.legionhardware.com/articles_pages/msi_r5870_lightning,4.html

Auch mit AA (nach Patch. bzw. GOTY Edition) liegen die Werte durchaus im Rahmen:
http://www.legitreviews.com/article/1482/5/


Weil es völlig irrelevant ist.


Nein ist es nicht. Ich habe auch dargelegt warum.


Sag mal willst du mich wirklich für blöd verkaufen? Ich habe Beispiele genannt wo ein IHV deutliche Vorteile hat, als Gegenargument auf krawalls Beitrag. Der zweite Beitrag was auf die Bandbreitenskalierung von Metro bezogen - zu diesem konkreten Fall habe ich nichts gesagt.


Eure Beispiele haben aber unterschiedliche Ursachen, wie du inzwischen schon mitbekommen haben solltest.
Und dein Argument mit der 7870 ging leider nur ziemlich in die Hose, weil damit eben in Metro nicht wirklich viel möglich ist - entsprechend ihrer geringeren Bandbreite und Rechenleistung.


Und bei den anderen Spiele gab es natürlich niemals nicht irgendwelche DevRel und alles war völlig fair und transparent und liegt zu 100% am Treiber? Ich nehme an du hast den Sourcecode und schon entsprechenden Codereviews gemacht um das beurteilen zu können.

Bei Starcraft 2 und Assassins Creed 3 meinst du? Bei SC2 ist MSAA gar nicht im Spiel vorgesehen, da kann Nvidia schlecht die Finger im Code haben. Es geht hier um einen AA-Hack von außerhalb, der bei Nvidia eben effizienter ist. Da muss AMD ihren eigenen Hack halt verbessern. Das hat mit irgendwelchen Manipulationen nichts zu tun.

Und bei AC3 gibt es soweit ich weiß absolut keine Anzeichen für eine Kooperation, die über TXAA und FXAA hinausgehen. TXAA wird in den üblichen Benchmarks nicht verwendet, und FXAA kannst ja auch ausschalten - das wird nichts an dem großen Abstand zwischen AMD und Nvidia in diesem Spiel etwas ändern. Falls du dazu selbst konkrete Informationen hast, nur heraus damit.

aufkrawall
2013-01-27, 15:06:42
hier z.B wenn du mehr brauchst sag Bescheid. http://www.pcgameshardware.de/Half-Life-2-PC-16672/Tests/Half-Life-2-Fakefactory-Cinematic-Mod-1221-Grafikkarten-Benchmarks-Downsampling-Shots-und-Video-1041118/

Was ohne Mods wär nett. ;)
Source-Engine ohne Mods läuft übrigens auf GK104 mit SGSSAA schneller als auf Tahiti XT, war bei Team Fortress 2 mit 8xSGSSAA ziemlich enttäuscht.

Angiesan
2013-01-27, 15:16:14
Und bei AC3 gibt es soweit ich weiß absolut keine Anzeichen für eine Kooperation, die über TXAA und FXAA hinausgehen. TXAA wird in den üblichen Benchmarks nicht verwendet, und FXAA kannst ja auch ausschalten - das wird nichts an dem großen Abstand zwischen AMD und Nvidia in diesem Spiel etwas ändern. Falls du dazu selbst konkrete Informationen hast, nur heraus damit.

Ich denke, das wir hier ein HW Limit sehen und es nichts mit der Treibersoftware zu tun hat. Dafür sind die HD Karten alle zu sehr beisammen und es findet keine Skalierung statt wie bei den GTXen die haben sich ja schön der Reihen nach einsortiert und die Abstände entsprechen auch in etwa dem was man von den einzelnen Karten erwartet. Bei den AMD´s könnte man fast von Messungenauigkeit reden.

boxleitnerb
2013-01-27, 15:21:28
Ich denke, das wir hier ein HW Limit sehen und es nichts mit der Treibersoftware zu tun hat. Dafür sind die HD Karten alle zu sehr beisammen und es findet keine Skalierung statt wie bei den GTXen die haben sich ja schön der Reihen nach einsortiert und die Abstände entsprechen auch in etwa dem was man von den einzelnen Karten erwartet. Bei den AMD´s könnte man fast von Messungenauigkeit reden.

Und was genau soll da limitieren? Ich denke nicht, dass man diesen Schluss so eindeutig machen kann. Es ergibt keinen Sinn, dass eine Karte mit deutlich mehr Rohleistung und Bandbreite diese nicht umsetzen kann. In BF3 gabs doch auch den Wundertreiber, wo es bis zu 33% mehr Performance gab. Da hat man vorher auch nicht von einer Hardwarelimitierung gesprochen. Solche isolierten deutlichen Schübe gibt es immer wieder, und die belegen doch wunderbar, dass solche Bremsen, die man per Treiber lösen kann, nicht selten sind.

Knuddelbearli
2013-01-27, 15:35:26
die 33% gabs aber über alle karten

und es gibt mehr als nur shaderpower und bandbreite zB Frontend

boxleitnerb
2013-01-27, 15:45:28
Ich glaube kaum, dass das schwächere Frontend bei AMD vom Einfluss auf die Performance her mit dem massiven Rohleistungsvorteil von Tahiti gleichzusetzen ist.

Es reicht ein Blick auf die 7870 LE, die sich dort, wo AMD ungewöhnlich stark ist, z.B. Sleeping Dogs, Sniper Elite V2 und Metro 2033, in GK104-Gefilden einreiht, wo man sie aufgrund ihrer Rohdaten auch erwarten würde. Das sagt doch schon alles.

Ich behaupte nicht, dass es nicht auch bei Nvidia mal einen Treiber-Fuckup gibt, der die Performance ggü. Tahiti einbrechen lässt. Aber ich kenne kein Spiel, wo dem so wäre. Die generell plausiblere Erklärung, die an erster Stelle genannt werden sollte, ist die Rohleistung.

Angiesan
2013-01-27, 16:11:15
Und was genau soll da limitieren? Ich denke nicht, dass man diesen Schluss so eindeutig machen kann. Es ergibt keinen Sinn, dass eine Karte mit deutlich mehr Rohleistung und Bandbreite diese nicht umsetzen kann. In BF3 gabs doch auch den Wundertreiber, wo es bis zu 33% mehr Performance gab. Da hat man vorher auch nicht von einer Hardwarelimitierung gesprochen. Solche isolierten deutlichen Schübe gibt es immer wieder, und die belegen doch wunderbar, dass solche Bremsen, die man per Treiber lösen kann, nicht selten sind.
Ich kann das natürlich nicht belegen und es ist nur eine Vermutung von meiner Seite. Der Schub von BF3 kam mit dem Treiber für Moha Warfighter und das ist ein Gaming Evolved Game und beruht soweit ich das richtig in erinnerung habe auf der gleichen Engine ein Schuft der böses dabei denkt :biggrin:
Ich habe ja schon weiter vorne geschrieben, dass AMD HW oft durch kleine Änderungen vollkommen von der Rolle ist, woran das liegt weiß ich natürlich nicht
BF2 ist auch so ein Spiel das zuerst auf Nvidia schneller gelaufen ist und auf einmal einen riesen Satz bei AMD gemacht hatte, da war es aber schon fast vorbei und BF3 stand eigentlich schon vor der Tür.

Ob wir das jetzt bei ACIII auch so sehen werden, wer weiß? Auszuschließen ist das sicherlich nicht. Wie sagen die Programmierer, bei AMD HW muss man näher an der HW progen um die entsprechenden erstklassigen Ergebnisse zu bekommen, wie das zu verstehen ist musst Du jemand anderes fragen ich kann damit nicht so viel anfangen weil ich davon keine Ahnung habe.

Grüße

Angiesan
2013-01-27, 16:21:50
Was ohne Mods wär nett. ;)
Source-Engine ohne Mods läuft übrigens auf GK104 mit SGSSAA schneller als auf Tahiti XT, war bei Team Fortress 2 mit 8xSGSSAA ziemlich enttäuscht.

Ja das stimmt was du schreibst,

ich wollte dich auch nur ein wenig sensibilisieren das man nicht immer alles schwarz und weiß betrachten muss oder eben rot und grün:wink:

Man kann seine Sache auch ohne die entsprechende Polemik vertreten, dass kommt in der Regel etwas besser an:D

Guck die doch mal den Boxi an, ich bin mir sicher er hat auch grüne Unterwäsche an und ist trotzdem ein offener Diskussionspartner (nicht Böse gemeint:biggrin:).
Der Austausch mit ihm macht mir Spaß da er konstruktiv und nie beleidigend ist und vor allem andere Meinungen zulässt.

aufkrawall
2013-01-27, 16:41:56
Sorry, aber ich fand deinen Aufmacher mit ME1 völlig daneben.

Aber gut: Natürlich kann es auch Konstellationen geben, wo Nvidia allgemein ein Problem hat. Ich glaube wie boxleitnerb aber nicht, dass das großartig praktischen Bezug hat, im Gegensatz zur Situation bei AMD.

Angiesan
2013-01-27, 17:52:48
:wave: Habe dich wieder lieb :biggrin:

Ja ich glaube auch das AMD sich häufig selbst besiegt und NV besiegt werden muss wenn man dieses wording überhaupt verwenden will.

Dabei war ich wirklich im Glauben, dass sich mit der Annäherung von GCN und Kepler wieder was tun würde da sie ja im Grunde auf einer nun ähnlichen Basis aufsetzen. Aber im Vergleich zur alten Generation ist es eben immer noch so, dass AMD mehr Einheiten verbauen muss um mit der Leistung von Nvidia gleich zu ziehen zumindest im Gamingbereich und das verstehe ich nicht wirklich warum das so ist. Eine Vergleichbarkeit ist heute weniger gegeben wie jemals zuvor da die Gap´s in den Benchmarks überhaupt nicht mehr nachvollziehbar sind da liegen schon mal locker 100%+ zwischen der Performance der einen GPU und der anderen GPU von Spiel zu Spiel unterschiedlich, so extrem war das früher einfach nicht.

Blaire
2013-01-28, 11:08:00
Nur deswegen kaufe ich ausschließlich nvidia GPU's.
Die Performancesteigerungen sind auch nicht so zu verachten, wenn man eben bedenkt, dass sie oft frühzeitig eine gute Geschwindigkeit bei gefragten Titeln erreichen.

Das macht es auch aus. :up: Lese ich auch oft so in den Foren. Bei AMD dauert eben alles etwas länger oder fällige Bugfixes werden dann gleich als Wunder-Treiber verkauft. ;D
Naja jeder wie er will. :smile:

N0Thing
2013-01-28, 11:56:23
Dirt Showdown ist wohl außer Konkurrenz, denn da hatte AMD die Finger direkt mit am Code. Da ist es sonnenklar, dass das exakt auf die eigene Hardware zugeschnitten wurde.
Bei Metro ist es das DOF, was sehr viel Bandbreite kostet.


Und die Beispiele sind eben nicht valide, weil es hier eine direkte Einflussnahme von AMD auf den Code gab bzw. die geringere Rohleistung dafür verantwortlich ist. Siehe mein verlinktes Review zur 7870 LE. Das hat also nichts mit dem Treiber zu tun.

Nicht nur bei Showdown, sondern auch bei den Vorgängern hatte AMD seine Finger direkt mit am Code und dennoch hat Nvidia teilweise besser abgeschnitten. Link (http://www.pcgameshardware.de/Dirt-3-PC-234328/Tests/Zum-Release-Dirt-3-im-Technik-Test-Sechs-CPU-Kerne-im-Vorteil-gelungener-DirectX11-Modus-825548/)
So wie es bei Metro an der Hardware liegt (immerhin ist eine GTX 580 nicht weit weg von einer 680), liegt es auch bei Showdown an der GTX 680, also an der Hardware.

Blediator16
2013-01-28, 11:58:57
Nicht nur bei Showdown, sondern auch bei den Vorgängern hatte AMD seine Finger direkt mit am Code und dennoch hat Nvidia teilweise besser abgeschnitten. Link (http://www.pcgameshardware.de/Dirt-3-PC-234328/Tests/Zum-Release-Dirt-3-im-Technik-Test-Sechs-CPU-Kerne-im-Vorteil-gelungener-DirectX11-Modus-825548/)
So wie es bei Metro an der Hardware liegt (immerhin ist eine GTX 580 nicht weit weg von einer 680), liegt es auch bei Showdown an der GTX 680, also an der Hardware.

Also wir halten fest: Bei GE Spielen hatte AMD seine Finger im Code und bei TWIMTBP hatte NV einfach so Geld übrig und wollte den Entwicklern einfach nur den Tag verüßen:freak:

N0Thing
2013-01-28, 12:05:43
Was willst du damit sagen?

Blediator16
2013-01-28, 12:08:11
Was willst du damit sagen?

AMDÄ phöse ENFAU gut

boxleitnerb
2013-01-28, 12:08:24
Nicht nur bei Showdown, sondern auch bei den Vorgängern hatte AMD seine Finger direkt mit am Code und dennoch hat Nvidia teilweise besser abgeschnitten. Link (http://www.pcgameshardware.de/Dirt-3-PC-234328/Tests/Zum-Release-Dirt-3-im-Technik-Test-Sechs-CPU-Kerne-im-Vorteil-gelungener-DirectX11-Modus-825548/)
So wie es bei Metro an der Hardware liegt (immerhin ist eine GTX 580 nicht weit weg von einer 680), liegt es auch bei Showdown an der GTX 680, also an der Hardware.

Natürlich liegt es an der Hardware. fondness meinte ja, es wäre ein Treiberproblem, was natürlich Quatsch ist. Dein verlinktes Resultat ist auch bei weitem nicht so "schlimm" wie Tahiti die 680 mit erweiterter Beleuchtung verprügelt (50-55%). Übrigens sieht das inzwischen auch anders aus:
http://www.techspot.com/review/603-best-graphics-cards/page7.html

Ich bezweifle ernsthaft, dass wir so eine Annäherung auch bei Showdown sehen werden.

N0Thing
2013-01-28, 12:50:08
AMDÄ phöse ENFAU gut

Wenn du meinst, daß das so ist... :comfort:

Natürlich liegt es an der Hardware. fondness meinte ja, es wäre ein Treiberproblem, was natürlich Quatsch ist. Dein verlinktes Resultat ist auch bei weitem nicht so "schlimm" wie Tahiti die 680 mit erweiterter Beleuchtung verprügelt (50-55%). Übrigens sieht das inzwischen auch anders aus:
http://www.techspot.com/review/603-best-graphics-cards/page7.html

Ich bezweifle ernsthaft, dass wir so eine Annäherung auch bei Showdown sehen werden.

Stimmt, im Techspot Benchmark hat AMD bei Dirt 3 deutlich gegenüber dem PCGH-Benchmark zum Release aufgeholt.
Man sieht aber auch im Benchmark zu Showdown, daß sich die GTX 580 sehr nah an der GTX 670 und 680 halten kann, das Spiel also nicht unbedingt nur auf AMD-Karten gut läuft.
Interessant fände ich auch einen Vergleich mit GI bei dem auch eine GTX 580 teilnimmt. Ist beim CB Test der VTX3D HD 7870 Black GI bei Showdown aktiviert?

boxleitnerb
2013-01-28, 12:58:21
Global Illumination ist eigentlich gar nicht das, was so Performance frisst. Da gab es noch was anderes, bei PCGH gabs dazu eine Tabelle, die ich jetzt aber leider nicht mehr finde.

Bei Computerbase ist die 6970 schneller als die 580, was eher ungewöhnlich ist. Denke daher schon, dass es generell auf AMD-Karten gut läuft.

y33H@
2013-01-28, 13:04:35
http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/

http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Downloads/AMD-Demo-DX11-Download-1045674/

Nightspider
2014-05-24, 11:31:30
Ein Freund von mir hat zu seiner GTX680 Lightning noch eine zweite gebrauchte dazugesteckt und hat ein 650 Watt Netzteil.

Die erste hat er mit zwei 8pol Steckern angeschlossen und die zweite mit zwei 6 Pol auf 8 Pol Adaptern.

Das sollte ja so passen, da die Karten ja keine 200W ziehen mit Standardtakt und die zwei 8 Pol-Stromanschlüsse nur für extremes(!) OC gedacht sind.

Richtig?

aufkrawall
2014-05-24, 11:43:43
Die TDP ist 195W. Ob die in Spielen erreicht wird, hängt auch stark von der Temperatur ab. SLI heizt sich gerne auf, aber bei 650W sollte das trotzdem kein Problem darstellen.
Das mit den 2x achtpoligen Anschlüssen ist nur Marketing.
Meine MSI 780 Ti Gaming hat mit 6x und 8x schon 160% TDP (~425W) gezogen, ohne, dass irgendwas nicht mehr richtig lief.

phoenix887
2014-05-24, 12:12:50
Die TDP ist 195W. Ob die in Spielen erreicht wird, hängt auch stark von der Temperatur ab. SLI heizt sich gerne auf, aber bei 650W sollte das trotzdem kein Problem darstellen.
Das mit den 2x achtpoligen Anschlüssen ist nur Marketing.
Meine MSI 780 Ti Gaming hat mit 6x und 8x schon 160% TDP (~425W) gezogen, ohne, dass irgendwas nicht mehr richtig lief.

Welches ModBios nutzt du?

aufkrawall
2014-05-24, 12:20:14
Habe nur das maximale PT vom Originalbios der Karte erhöht.

phoenix887
2014-05-24, 12:24:43
Ah ok. Suche halt noch ein ordentliches Bios zu meiner GTX 780ti. Denn mit meimen Orginalbios habe ich ab 1200mhz keine Artefakte. Aber bei dem BIOS von Skynet und Slv7 habe ich Artefakte. Sind aber auch ältere BIOS-Versionen. Gehe davon aus das es an den Versionen liegt, da ich mit dem Orginalbios keine Artefakte habe.

aufkrawall
2014-05-24, 12:46:40
Geht es dir ums PT oder die Spannung?

phoenix887
2014-05-24, 13:48:57
An erste Stelle ums Powertarget.

aufkrawall
2014-05-24, 13:56:59
Funktioniert es denn nicht, wenn du die Werte entsprechend hoch setzt?
http://abload.de/thumb/1hvky1.jpg (http://abload.de/image.php?img=1hvky1.jpg) http://abload.de/thumb/2epkrj.jpg (http://abload.de/image.php?img=2epkrj.jpg)

phoenix887
2014-05-24, 14:03:51
Funktioniert es denn nicht, wenn du die Werte entsprechend hoch setzt?
http://abload.de/thumb/1hvky1.jpg (http://abload.de/image.php?img=1hvky1.jpg) http://abload.de/thumb/2epkrj.jpg (http://abload.de/image.php?img=2epkrj.jpg)

Mit dem Programm habe ich nich nie gearbeitet, habe da auch bedenken etwas falsch einzustellen. Kannste das für mich machen, wenn ich mein Bios hochlade, Boost deaktivieren und die Spannung frei schaltest? :wink:

aufkrawall
2014-05-24, 14:24:36
Es kann dabei eigentlich nichts schief gehen. Habe zumindest noch nicht so etwas gelesen und auch selber ging bei einigem Rumprobieren noch nichts daneben.
Ich kann dir das gerne editieren, aber ohne Garantie auf Erfolg.

phoenix887
2014-05-24, 14:34:44
Hier ist es mal. Naja habe da etwas bedenken wegen den Spannungswandler und so^^

Danke im Voraus. Kann auch einen Obolus für deine Mühe dann per Paypal zukommen lassen.

aufkrawall
2014-05-24, 14:48:44
Aha, die Werte sind bis auf die TDP die gleichen wie bei der Gaming.
Probier es mal aus, musst das PT dann noch per Software-Tool hochsetzen.
Auf eigene Gefahr natürlich. Obolus nicht nötig, hoffe es läuft.

phoenix887
2014-05-24, 15:33:48
Aha, die Werte sind bis auf die TDP die gleichen wie bei der Gaming.
Probier es mal aus, musst das PT dann noch per Software-Tool hochsetzen.
Auf eigene Gefahr natürlich. Obolus nicht nötig, hoffe es läuft.

Danke. Mache ich wenn ich wieder zuhause bin. Hast jetzt das PT, die Spannung und Boost inwiefern verändert? Beim PT wieviel Watt sind jetzt 100%?

aufkrawall
2014-05-24, 16:29:48
Habe nur das PT verändert. 100% sind nachwievor 100% (also die TDP), du solltest aber das Max-PT auf 180% stellen können.
Würd ich aber nicht dauerhaft empfehlen, sonst explodiert der Stromverbrauch bei bestimmten Situationen unnötig, was auch nicht gut für die Elektronik sein kann. Mehr als 140% würd ich im Alltag nicht geben.

phoenix887
2014-05-24, 16:59:45
Ok danke

phoenix887
2014-05-24, 18:29:00
Habe nur das PT verändert. 100% sind nachwievor 100% (also die TDP), du solltest aber das Max-PT auf 180% stellen können.
Würd ich aber nicht dauerhaft empfehlen, sonst explodiert der Stromverbrauch bei bestimmten Situationen unnötig, was auch nicht gut für die Elektronik sein kann. Mehr als 140% würd ich im Alltag nicht geben.

Funktioniert einwandfrei. Bei 140% saugt sie auch mehr Strom. Denn ab 70°C habe ich dauerhaft 1,21V. Vorher hat sie da immer zwischen 1,75 und 1.21 hin und her geschaltet, da sie nicht mehr Strom ziehen konnte. Auch nicht bei Skynet oder SLV7. Von daher haste da schonmal was besser gemacht;)

Kann auch vorn weg 50mhz mehr einstellen, wo ich vorher Artefakte, wie ich mir dachte lag es an der BIOS Version.

Aber: warum habe ich erst ab 70°V erst 1.21 dauerhaft? Und darunter nur 1.75? War auch vorher schon, verstehe da mein BIOS nicht. Müsste doch umgekehrt sein. Um Temperaturen zu senken, muss ich die Spannung senken. Irgendie ist doch das Verhalten mit meiner Karte unlogisch. Oder sehe ich etwas falsch:confused:

aufkrawall
2014-05-24, 18:55:30
Schön.
So ein Verhalten kann ich auch nicht erklären. Meine Gaming läuft unabhängig von der Temperatur mit 1,175V.

phoenix887
2014-05-24, 18:59:05
Schön.
So ein Verhalten kann ich auch nicht erklären. Meine Gaming läuft unabhängig von der Temperatur mit 1,175V.

Wird nur Inno3D wissen. Ist halt nur doof fürs OC. Muss dann praktisch vorgeheizt werden.:biggrin: