PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX 780 Ti: (P)Review-Thread


Seiten : 1 2 [3] 4

TobiWahnKenobi
2013-11-30, 15:14:43
für Surroundgaming mit 3dvision braucht es dann aber sowieso wieder mehr als 1 graka.

Also ein konstruierter Fall da es vielleicht 0,00001% der Nutzer nutzt ( ja Prozentzahl ist ausgedacht dürfte aber fast hinkommen ^^ )

Habe noch Kontakt zum Käufer meiner Titan und dort langweilt sich der RAM nur obwohl er sich sogar eine 2te dazugekauft hat :-/

Und ja der was spezielles Faktor ist der einzige Grund wieso ich überhaupt Interesse an einer Titan habe, für 1ke damals war es mir aber einfach zuviel. Rein von der Leistung her dürfte sie Neupreis maximal noch bei 450€ rum sein ( zwischen 780 und 780 TI )

nochmal für dich -> es gibt am markt keine kaufbare spielergrafikkarte, die mit titan vergleichbar ist. lass mich raten -> wenn ein neues samsung-hendi rauskommt, müssen iPhones im preis fallen, stimmts?!

und was den AMD-krempel angeht -> mit einer R9 290 muss man klarkommen wollen, um sie ertragen zu können. da geht bei weitem nicht das, womit nVidia uns seit jahr und tag verwöhnt. AMD regelt das über den preis.


(..)

mfg
tobi

boxleitnerb
2013-11-30, 15:15:05
Siehe meinen Post. Ich trolle nicht, es war eine schlichte Annahme - Tobi hat sich nicht gerade klar ausgedrückt ;)

TobiWahnKenobi
2013-11-30, 15:20:51
Siehe meinen Post. Ich trolle nicht, es war eine schlichte Annahme - Tobi hat sich nicht gerade klar ausgedrückt ;)

mir ging es darum, dass man nicht erwarten kann, dass eine 6GiB karte, die neu an die 900€ kostet, gebraucht für die hälfte weggeht, nur weil es inzwischen 3GiB karten mit kastrierter DP-performance für knapp 700€ gibt, die gemittelte 10% über der 900€ karte unter 0815-bedingungen liegt. oder gar eine karte des mitbewerbs, die mit ach und ganz viel krach "ähnliches" unter 0815-settings zu bieten hat.

wenn titan bei 450€ angekommen ist, kostet eine Ti 350€ und eine R9 290 250€.



(..)

mfg
tobi

Knuddelbearli
2013-11-30, 15:23:10
nochmal für dich -> es gibt am markt keine kaufbare spielergrafikkarte, die mit titan vergleichbar ist.

Naja das kann man doch über jede Graka sagen oder? es gibt auch keine Graka die mit der 780 TI vergleichbar ist da nur die die maximale Leistung hat.

DP gibt sicher Leute die das gebrauchen können aber das dürften nichtmal 1% der Titan Besitzer sein.
6Gb Ram schon eher aber scheinbar kommen da ja auch bald passende 780TI und auch das dürften die wenigsten Titan besitzer aktiv ausnutzen. Aber sicher um einige mehr als DP.

Kann natürlich nachvollziehen da es da für viele um den haben Faktor geht ( lieber 6GB haben und nicht brauchen als umgekehrt, kenne ich ja nur zu gut ^^ ) oder man sich seine Investition schöner reden will. Mir geht es halt aber um den Faktor brauchen.
Aber gerade bei so einem Objekt wie Titan dürften das doch Leute sein die bei 20nm sofort wieder neu kaufen wo man dann den RAM dann auch nicht für die Zukunft rechnen sollte.

Siehe Blair und vermutlich auch du und Boxleitnerb, würde mich wundern wenn ihr nicht alsbald auf 20nm umschwenkt nach erscheinen. Sogar wenn die nur 4GB haben.

@ boxleitnerb
Und wenn du Tobi meinst und er sich unklar ausgedrückt hast wieso quotest und antwortest du dann auf mich? -.-

Knuddelbearli
2013-11-30, 15:25:35
mir ging es darum, dass man nicht erwarten kann, dass eine 6GiB karte, die neu an die 900€ kostet, gebraucht für die hälfte weggeht, nur weil es inzwischen 3GiB karten mit kastrierter DP-performance für knapp 700€ gibt, die gemittelte 10% über der 900€ karte unter 0815-bedingungen liegt. oder gar eine karte des mitbewerbs, die mit ach und ganz viel krach "ähnliches" unter 0815-settings zu bieten hat.

wenn titan bei 450€ angekommen ist, kostet eine Ti 350€ und eine R9 290 250€.



(..)

mfg
tobi


Also der Logik kann ich absolut 0 folgen, meiste Argumente siehe vorherigen Post. Abgesehen davon das die TI schon deutlich unter 600€ ist.
Was die Leute neu dafür gezahlt haben ist doch scheiß egal.

TobiWahnKenobi
2013-11-30, 15:29:42
Also der Logik kann ich absolut 0 folgen, meiste Argumente siehe vorherigen Post. Abgesehen davon das die TI schon deutlich unter 600€ ist.
Was die Leute neu dafür gezahlt haben ist doch scheiß egal.

wundert mich kein stück.. :rolleyes:


(..)

mfg
tobi

Dural
2013-11-30, 15:35:40
wer Titan gekauft hat war und ist selber schuld, wer so doof ist für ein defekter chip so viel zu bezahlen hat es nicht besser verdient ;D

zudem war von anfang an klar das spätestens ende jahr ein vollausbau kommen wird, wie wir es jetzt ja mit der 780Ti auch haben.

TobiWahnKenobi
2013-11-30, 16:00:53
wer Titan gekauft hat, war und ist selber schuld. wer so doof ist, für ein defekter einen defekten chip so viel zu bezahlen, hat es nicht besser verdient. ;D

zudem war von anfang an klar, das dass spätestens ende des jahr jahres ein vollausbau kommen wird, wie wir es jetzt ja mit der 780Ti auch haben.

ach du bist das. ich frage mich schon länger, wer festgelegt hat, was das wort "viel" bedeutet.

apropos "viel" - du machst viele fehler. nicht nur die, die ich da oben im quote ausgebügelt habe. moralisch ist es auch ein fehler, leute, die man gar nicht kennt, in foren als doof zu bezeichnen.

hinter dem verdient könntest du noch ein komma setzen und einen satzteil anfügen, der erklärt, woran man "schuld" ist und vor allem, "was" man "nicht besser verdient" hat. je öfter ich das lese, desto mehr erwarte ich, dass der satz irgendwie inhaltserklärend weitergeht.. vielleicht mit "..als".

on top
ich würde einen accelero titan mit 1.2GHz jederzeit einer beliebigen 780Ti vorziehen.
ich ziehe einen accelero titan @1.2GHz jederzeit einer beliebigen 780Ti vor.


(..)

mfg
tobi

aufkrawall
2013-11-30, 16:16:00
Die 6GB 780 Ti kommt bestimmt, und da kannst du auch draufschnallen, was du willst.

Titan war halt nicht nur als Gamerkarte beworben. So gesehen, und mangels Konkurrenz, konnte man sich über den Preis nicht beschweren. Das sollte einem auch klar gewesen sein.

Ich hätt ja nie nen teildeaktivierten Chip für den Preis als Gaming-Karte gekauft. :tongue:

soLofox
2013-11-30, 16:27:30
mein gott, nun lasst TobiWahnKenobi doch endlich das hören was er von allen hören will: er ist der tollste, beste, schlauste und sowieso am 04.12.2013 um 15uhr bei "verdachtsfälle" auf RTL zu sehen.

muss man da noch mehr zu sagen? ignore und gut.

selbst wenn man sich mit der materie nicht so gut auskennt und die aktuellen GPU-threads (AMD vs. NV) verfolgt merkt man, was bei ihm abgeht.

TobiWahnKenobi
2013-11-30, 16:30:31
Die 6GB 780 Ti kommt bestimmt, und da kannst du auch draufschnallen, was du willst.

Titan war halt nicht nur als Gamerkarte beworben. So gesehen, und mangels Konkurrenz, konnte man sich über den Preis nicht beschweren. Das sollte einem auch klar gewesen sein.

Ich hätt ja nie nen teildeaktivierten Chip für den Preis als Gaming-Karte gekauft. :tongue:

hatte EVGA das nicht kürzlich noch dementiert? *lach* nein, du hast derer gleich zwei gekauft ;-)
was das draufschnallen angeht, so ist dem wohl so. der accelero scheint echt überall zu passen. als proprietäre lösung hätte ich den aber auch nicht gekauft. war ja ursprünglich für die R9 290 angedacht.

btw,
wenn ich heute kaufen müsste und nicht schon ewig auf titan rumrödeln würde, hätte ich vermutlich auch zur Ti gegriffen. aber dann wäre hier ja auch noch die 690 drin und da wäre dann auch die vermoddete ausgangslage in skyrim ne andere (nur 2GiB VRAM). insofern ist hier die sichtweise ne ganz andere. ich sehe in der Ti -von titan blickend- eine karte mit verzichtbarer mehrleistung, vergleichbarer overall performance und halbiertem RAM.

es gibt bestimmt auch leute, die einen 4.5GHz i7 gegen einen 5GHz i5 tauschen, weil der im schnullermark mehr pumpt oder etwa weil HT so total schädlich für die gameperformance ist. *gg* jeder braucht einen glauben und hat andere beweggründe.



muss man da noch mehr zu sagen? ignore und gut.

selbst wenn man sich mit der materie nicht so gut auskennt und die aktuellen GPU-threads (AMD vs. NV) verfolgt merkt man, was bei ihm abgeht.

da entgeht dir mehr als mir.


(..)

mfg
tobi

Raff
2013-11-30, 20:10:11
Die 6GB 780 Ti kommt bestimmt, und da kannst du auch draufschnallen, was du willst.

Titan war halt nicht nur als Gamerkarte beworben. So gesehen, und mangels Konkurrenz, konnte man sich über den Preis nicht beschweren. Das sollte einem auch klar gewesen sein.

Ich hätt ja nie nen teildeaktivierten Chip für den Preis als Gaming-Karte gekauft. :tongue:

Titan ist nach wie vor, ein halbes Jahr nach Release, das Nonplusultra für anspruchsvolle Spieler. Und sie ist immer noch überteuert. Alles beim Alten, von daher verstehe ich die Diskussion nicht. Die 10 Prozent von der Titan auf 780 Ti sind für die Spielbarkeit irrelevant, aber wenn der Speicher ausgeht, ist die Kacke am Dampfen.

MfG,
Raff

yamo
2013-11-30, 23:21:17
Titan ist nach wie vor, ein halbes Jahr nach Release, das Nonplusultra für anspruchsvolle Spieler. Und sie ist immer noch überteuert. Alles beim Alten, von daher verstehe ich die Diskussion nicht. Die 10 Prozent von der Titan auf 780 Ti sind für die Spielbarkeit irrelevant, aber wenn der Speicher ausgeht, ist die Kacke am Dampfen.

MfG,
Raff

So wie ich Dich kenne, gilt "das Nonplusultra für anspruchsvolle Spieler" für sehr hohe Settings (z.B. 4k Downsampling+FXAA). Wobei auch das bei AAA Titles unter 60fps läuft (Crysis 3). Das ist doch auch kacke.
Aber mal im Ernst, eine Titan kannst Du nur im SLI ausreizen.
(Macht das doch mal)
Wenn ich 2 (B1) hätte, würde ich mich über die Ti totlachen.
Als Gamer gefällt mir die Ti, obwohl ich sie nicht habe.
3 GB sind wenig und meine Games laufen auch so, mit DS/extremen Einstellungen. Und btw. eine neue Küche ist fällig. Kriegt man für Titan-Sli.
Scheiße, langsam werde ich erwachsen. :freak:

Felixxz2
2013-12-01, 03:07:02
Tobi, sehe ich das richtig, dass du eine Titan einer 6GB Ti vorziehen würdest?

Knuddelbearli
2013-12-01, 04:13:23
Titan ist nach wie vor, ein halbes Jahr nach Release, das Nonplusultra für anspruchsvolle Spieler. Und sie ist immer noch überteuert. Alles beim Alten, von daher verstehe ich die Diskussion nicht. Die 10 Prozent von der Titan auf 780 Ti sind für die Spielbarkeit irrelevant, aber wenn der Speicher ausgeht, ist die Kacke am Dampfen.

MfG,
Raff

Nur sind alte Titan ( A1 ) auf TI deutlich mehr als 10%, und ohne SLI wird man kaum settings schaffen die die 3GB vollaufen lassen

phoenix887
2013-12-01, 05:12:48
So wie ich Dich kenne, gilt "das Nonplusultra für anspruchsvolle Spieler" für sehr hohe Settings (z.B. 4k Downsampling+FXAA). Wobei auch das bei AAA Titles unter 60fps läuft (Crysis 3). Das ist doch auch kacke.
Aber mal im Ernst, eine Titan kannst Du nur im SLI ausreizen.
(Macht das doch mal)
Wenn ich 2 (B1) hätte, würde ich mich über die Ti totlachen.
Als Gamer gefällt mir die Ti, obwohl ich sie nicht habe.
3 GB sind wenig und meine Games laufen auch so, mit DS/extremen Einstellungen. Und btw. eine neue Küche ist fällig. Kriegt man für Titan-Sli.
Scheiße, langsam werde ich erwachsen. :freak:


Es gibt noch etwas genannt SGSSAA Bits für maximale Bildqualität. Abe ok bin ruhig, bist ja zu erwachsen für sowas:freak:

TobiWahnKenobi
2013-12-01, 08:40:59
Tobi, sehe ich das richtig, dass du eine Titan einer 6GB Ti vorziehen würdest?

unterscheide eine titan und meine titan. ich habe titan schon und auch eine fiktive 6GiB Ti würde daran nichts ändern.

hätte ich keine titan, wäre eine 6+GiB nVidia-karte natürlich meine wahl. wie weit ich mit 2GiB, 3GiB und 4GiB komme, kenne ich ja zur genüge.

ich hatte anfang 2012 erst ne 7970, dann ne GTX680+7970, dann zwei GTX680 (http://www.abload.de/img/396701_3653005002083850ujc.jpg) und die 7970 im zweitrechner, dann die GTX690+7970 (http://www.abload.de/img/koopnvatiwrudd.jpg) im hauptsystem, dann GTX690+Titan (http://www.abload.de/img/img_0163jmus9.jpg), dann nur noch titan und ich weiss eines sicher -> von MGPU bin ich vorläufig geheilt. wenn ich mehr als eine graka verwende, dann von unterschiedlichen iHVs (http://www.abload.de/img/unbenannt-136dv5.jpg).



@downsampling
es gibt nicht nur 4K, nicht nur crysis, nicht nur maximale details und man muss auch nicht zwingend MSAA mit DS mischen.

den dritten teil dieses gern angesprochenen AAA-titels verwende ich heute nur als grafikdemo oder um stabilität zu testen. dass ich im sumpf und anderen leveln rumgelaufen bin, verdanke ich raff und dem ersten PCGH benchmark, sowie der konsole und befehlen wie "map swamp". faktisch habe ich keinen crysisteil je gespielt. ausnahme war 2007 teil eins, weil mich ein ein damaliger redaktionskollege drum gebeten hat, mir die performance auf G80 anzuschauen und zu gucken, was tweaks bringen. warm bin ich damit damals schon nicht geworden und habe mich dann mit meiner kladde + mandelentzündung ins bett gelegt und meinen kleinen bruder das spiel auf dem alten HDTV durchspielen lassen.

meine baustellen sind eher elder scrolls, sim city, gothic, diablo, rennspiele, GTA oder stealth-shooter und natürlich battlefield und worms.


(..)

mfg
tobi

Schaffe89
2013-12-01, 08:58:45
Zitat von Knuddelbearli Beitrag anzeigen
also mein Thread zu 450€ wurde geschlossen :-/
ist ja auch frech und affig wie es nur geht.

einen gebrauchten 997 zum preis eines 996 gibts auch nur mit motor- oder getriebeschaden.

450 Euro sind absolut realistisch, was die Karte noch wert sein könnte. Gute GTX 780 Karten mit etwas OC und einem leisen Customkühler gibt es für das Geld und zwar !neu!
Eine 290 entweder mit dem Brüllnachteil oder + Acellero oder MK26 ist noch günstiger.

Die Vorteile die Titan hat existieren selbst für anspruchsvolle Gamer sowieso nicht. Der V-ram reicht in 99,9 Prozent der Fälle aus, aber man kann sich natürlich jeden Unsinn schön reden.

Dafür hatte man für teures Geld 2 oder 3 Monate ( bis zur GTX 780 ) konkurrenzlose Leistung.
Die 6GB V-ram sind, wenn man sich bei AMD umschaut (4GB) und auch Nvidia 3GB recht nutzlos, auch wenn 3GB vielleicht für manche Extremesettings recht am Limit sind, aber was solls läuft eh nicht flüssig.

Godmode
2013-12-01, 10:48:38
450 Euro sind absolut realistisch, was die Karte noch wert sein könnte. Gute GTX 780 Karten mit etwas OC und einem leisen Customkühler gibt es für das Geld und zwar !neu!
Eine 290 entweder mit dem Brüllnachteil oder + Acellero oder MK26 ist noch günstiger.

Die Vorteile die Titan hat existieren selbst für anspruchsvolle Gamer sowieso nicht. Der V-ram reicht in 99,9 Prozent der Fälle aus, aber man kann sich natürlich jeden Unsinn schön reden.

Dafür hatte man für teures Geld 2 oder 3 Monate ( bis zur GTX 780 ) konkurrenzlose Leistung.
Die 6GB V-ram sind, wenn man sich bei AMD umschaut (4GB) und auch Nvidia 3GB recht nutzlos, auch wenn 3GB vielleicht für manche Extremesettings recht am Limit sind, aber was solls läuft eh nicht flüssig.

Mit 2 oder mehr GPUs können die 6 GB durchaus sinnvoll sein. Wenn man allerdings nur eine Karte verwendet, werden wohl 3 GB reichen.

derguru
2013-12-01, 10:59:18
auch im sli sind es zu 99% nicht sinnvoll,wenn man derart hohe settings auffahren muss und dann bei ~30fps rumgurgt im sli,no thx.

das schöne gefühl ist diese reserve zu haben aber ob man die tatsächlich mal nutzen wird :confused::rolleyes: es sei denn man behält die titan mehrere jahre aber das wiederum macht auch kein enthusiast .

aber jeder hat das recht sich das einzureden.:)

Godmode
2013-12-01, 11:06:32
auch im sli sind es zu 99% nicht sinnvoll,wenn man derart hohe settings auffahren muss und dann bei ~30fps rumgurgt im sli,no thx.

das schöne gefühl ist diese reserve zu haben aber ob man die tatsächlich mal nutzen wird :confused::rolleyes: es sei denn man behält die titan mehrere jahre aber das wiederum macht auch kein enthusiast .

aber jeder hat das recht sich das einzureden.:)

Ich hatte ja nicht nur zwei Titans sondern 4.

Knuddelbearli
2013-12-01, 11:14:15
das Zauberwort dort ist eben hatte ^^

aufkrawall
2013-12-01, 11:46:44
Das Jahr 2013 war jetzt leider nicht unbedingt soo gut für AFR. :(
Häufig auf Patches warten, oder es ging/geht bei einzelnen Sachen nicht besonders perfekt...
Im Moment wartet ich auf nen Patch für AC4, möchte nicht mit flackerndem Regen spielen. :rolleyes:

Raff
2013-12-01, 11:50:30
Vertick dein AFR-Duo, solange es noch ein bisschen was wert ist, und ersetz es durch ne GK110-Karte.

MfG,
Raff

aufkrawall
2013-12-01, 11:59:01
Ja, vielleicht. Wär bei richtigem Scaling allerdings ein Performance-Rückschritt, so lange es keine 780 Ti@1,25Ghz ist. :(
So ne R290 wär ja schön billig und ich hab hier noch nen Arctic Twin Turbo 2 rumliegen (passt der?).
Ich fürchte nur, ich würde es nicht halb so lange wie Tobi mit den AMD-Treibern aushalten...

derguru
2013-12-01, 12:07:34
wenn der preis stimmt wirft man natürlich alles über board was einem sonst bei nv so heilig war,sooo wichtig sind die nv-argumente also wie ds und co.:eek::wink:
klar die treiber,die sind es die den unterschied machen.;D

TobiWahnKenobi
2013-12-01, 12:10:35
Ja, vielleicht. Wär bei richtigem Scaling allerdings ein Performance-Rückschritt, so lange es keine 780 Ti@1,25Ghz ist. :(
So ne R290 wär ja schön billig und ich hab hier noch nen Arctic Twin Turbo 2 rumliegen (passt der?).
Ich fürchte nur, ich würde es nicht halb so lange wie Tobi mit den AMD-Treibern aushalten...

mit blick auf den QNIX würde ich von AMD eher abstand nehmen. so toll fühlt sich eine 290 auch nicht an - da hat man nach einer woche alles gesehen, getestet, getrickst und die karte ist langweilig. tridef ist auch immer noch baustelle - lohnt nicht - aber darum kostet es auch so billig.

man startet auch direkt mit der gleichen hoffnung, mit der man bei AMD immer lebt -> die hoffnung auf den nächsten treiber. performance hier, blackscreen, takt- und lüfterverhalten dort..


(..)

mfg
tobi

aufkrawall
2013-12-01, 12:22:56
wenn der preis stimmt wirft man natürlich alles über board was einem sonst bei nv so heilig war,sooo wichtig sind die nv-argumente also wie ds und co.:eek::wink:
klar die treiber,die sind es die den unterschied machen.;D
Die Sache ist, dass ich in 1440p gerne viel VRAM hätte. Da sind mir 3GB bei der Schlamperei der Spieleentwickler (Dice...) schon fast wieder zu wenig.
Leistung für viel SGSSAA ist dann eh nicht mehr da und Titan SLI ist leicht außerhalb meiner Preislage. ;)

Aber doch, es ist die Treiberqualität, die mich abschreckt. Schon wieder diese Blackscreen-Geschichte. Irgendein fetter Wurm ist bei AMD offenbar immer drin (erst Ruckler, DX9 Grafikfehler, Texturfilter-Fuckup, jetzt auch noch Blackscreens, die btw. ein ziemlich übler Fehler sind...).
Und diese Schlamperei, über Treiber die Lüfterkurve zu manipulieren...
Ich fürchte, bei AMD arbeiten Penner und es werden immer Penner bleiben. Das ist jetzt nicht polemisch oder gar lustig gemeint, es ist einfach traurig...

derguru
2013-12-01, 12:30:06
wenn interessiert die lüfterkurve wenn du eh einen neuen kühler drauf schnallen willst. blackscreen gibt es anscheinend hatte ich aber nie bisher jedenfalls.

aber selbst 1440p sind ramseitig bei 3gb kein problem,auch kein bf4.(mit resolution scale brauchst du eh gar nicht erst loslegen weil dafür die performance nicht reicht)

aufkrawall
2013-12-01, 12:37:15
wenn interessiert die lüfterkurve wenn du eh einen neuen kühler drauf schnallen willst.

Wer weiß, was als nächstes kommt. Bei denen muss man leider mit allem rechnen.


aber selbst 1440p sind ramseitig bei 3gb kein problem,auch kein bf4.(mit resolution scale brauchst du eh gar nicht erst loslegen weil dafür die performance nicht reicht)
Wer weiß, wie das in nem halben Jahr aussieht.

Mantle wär auch ganz nett, da ich noch einige Zeit ausgiebig BF4 zocken will.
Ich warte erstmal noch ab. Erstmal sehen, wie knapp die 2GB wirklich sind.
Wenn SLI skaliert, ist es ja schon deutlich schneller als eine einzelne GTX 780.
Und wenn der AMD-Kram mich dann halt nervt, geht er ruck zuck zurück. Wär ja nicht das erste Mal.

derguru
2013-12-01, 12:45:50
mantle muss sich erst noch beweisen aber selbst ohne ist die performance in bf4 mindestens auf nv niveau.

kann nicht hellsehen aber 3gb sollten noch locker für das jahr 2014 reichen(vermutlich sogar weit drüber), auch in 1440p.

immer dieser rammangel panik.:biggrin:

TobiWahnKenobi
2013-12-01, 12:54:33
ist nur die frage, auf welcher stufe der unterschiedlichen NV niveaus. ich hab da locker 100fps im mittel @FHD/ultra. das würde puffertechnisch sogar noch für 150% pixeldichte reichen ohne dass ich im MP schlechter werde.

http://abload.de/thumb/bf42013-11-3017-33-13w0i7j.jpg (http://abload.de/image.php?img=bf42013-11-3017-33-13w0i7j.jpg)

2013-11-30 17:33:43 - bf4
Frames: 82132 - Time: 765157ms - Avg: 107.340 - Min: 76 - Max: 199
2013-11-30 18:12:35 - bf4
Frames: 9759 - Time: 76281ms - Avg: 127.935 - Min: 81 - Max: 187
2013-11-30 22:32:27 - bf4
Frames: 12973 - Time: 106281ms - Avg: 122.063 - Min: 86 - Max: 150
2013-11-30 22:34:25 - bf4
Frames: 25468 - Time: 197985ms - Avg: 128.636 - Min: 67 - Max: 199
2013-11-30 22:37:46 - bf4
Frames: 6064 - Time: 58735ms - Avg: 103.243 - Min: 80 - Max: 145
2013-11-30 22:39:00 - bf4
Frames: 9062 - Time: 83000ms - Avg: 109.181 - Min: 72 - Max: 170



(..)

mfg
tobi

aufkrawall
2013-12-01, 12:58:55
immer dieser rammangel panik.:biggrin:
Ja, toll. Konnte BF4 ohne AA nicht mal in 2880*1620 spielen, ohne dass es zu üblen Stockern kam.
CoD Ghosts und AC4 mit TXAA fressen schon in 1080p VRAM zum Frühstück.

Gegen so etwas sollte man sich absichern. Ist leider nicht alles so super optimiert wie Crysis 3, das selbst in 4k noch mit 2GB anständig läuft.

fondness
2013-12-01, 13:16:51
Aber doch, es ist die Treiberqualität, die mich abschreckt. Schon wieder diese Blackscreen-Geschichte. Irgendein fetter Wurm ist bei AMD offenbar immer drin (erst Ruckler, DX9 Grafikfehler, Texturfilter-Fuckup, jetzt auch noch Blackscreens, die btw. ein ziemlich übler Fehler sind...).
Und diese Schlamperei, über Treiber die Lüfterkurve zu manipulieren...
Ich fürchte, bei AMD arbeiten Penner und es werden immer Penner bleiben. Das ist jetzt nicht polemisch oder gar lustig gemeint, es ist einfach traurig...

Gab ja auch bei NV nicht gerade weniger Treiberbugs. Man braucht sich ja nur die entsprechenden Treiberthreads durchlesen. Die unbenutzbarkeit der GTX460/560-Karten bis heute(?) setzt dem ganzen die Krone auf. Die Blackscreen-Geschichte bei den 290(X)-Karten wurde im übrigen innerhalb weniger Tage gefixet.

Wer noch immer mit der Treiber-Geschichte kommt sucht IMO nur irgend ein vorgeschobenes Argument um sich irgendwie selbst zu erklären warum man >100EUR mehr ausgeben soll für den Namen Geforce und weniger VRAM. Selbst Exklusiv-Features sind nach Mantle und True-Audio auf bedien Seiten vorhanden - das wollten doch die NV-User immer.

aufkrawall
2013-12-01, 13:30:25
Gab ja auch bei NV nicht gerade weniger Treiberbugs.

Ich hab schon seit Monaten keinen mehr bemerkt.


Die unbenutzbarkeit der GTX460/560-Karten bis heute(?) setzt dem ganzen die Krone auf.

So eine Karte hätte man damals schon, als sie das erste Mal solche Probleme gemacht haben, loswerden sollen (so wie meine Wenigkeit).
Dass kaputte Karten mit aggressiveren Treibern Ärger machen, ist wenig verwunderlich. Btw. waren nie alle Karten betroffen. Aber das weißt du ja. ;)
"die Krone aufsetzen" ist auch eine sehr lustige Formulierung dafür, dass nur alter Krempel Ärger macht...


Die Blackscreen-Geschichte bei den 290(X)-Karten wurde im übrigen innerhalb weniger Tage gefixet.

Ist der denn komplett gefixt?


Wer noch immer mit der Treiber-Geschichte kommt sucht IMO nur irgend ein vorgeschobenes Argument um sich irgendwie selbst zu erklären warum man >100EUR mehr ausgeben soll für den Namen Geforce und weniger VRAM.
Nun ja, dafür funktionieren alle Features im Treiber und man ist nicht zu doof, einfachste Sachen wie Texturfilterung softwareseitig zu vergeigen...

fondness
2013-12-01, 13:43:57
Ich hab schon seit Monaten keinen mehr bemerkt.

Das freut mich für dich, scheint aber nicht überall so zu sein wenn man die entsprechenden Threads ließt.


So eine Karte hätte man damals schon, als sie das erste Mal solche Probleme gemacht haben, loswerden sollen (so wie meine Wenigkeit).
Dass kaputte Karten mit aggressiveren Treibern Ärger machen, ist wenig verwunderlich. Btw. waren nie alle Karten betroffen. Aber das weißt du ja. ;)
"die Krone aufsetzen" ist auch eine sehr lustige Formulierung dafür, dass nur alter Krempel Ärger macht...

Tolles Argument.


Ist der denn komplett gefixt?

Die Erfolgsquote scheint zumindest sehr hoch zu sein. Hier gibt es niemanden mehr mit Blackscreens und auch in anderen Foren findet man keine solchen Meldungen mehr. Außer bei Guru3D gibt es noch einen mit Problemen, aber der könnte genau so gut eine defekte Karte haben.


Nun ja, dafür funktionieren alle Features im Treiber und man ist nicht zu doof, einfachste Sachen wie Texturfilterung softwareseitig zu vergeigen...

Wenn dir das den Aufpreis und den kleineren VRAM wert ist dann kauf dir doch deine Geforce, ich halte dich sicher nicht davon ab. Andere benutzen eben RadeonPRO (oder ingame-Einstellungen) und suchen nicht mit der Lupe nach Texturfilterproblemen.

aufkrawall
2013-12-01, 13:57:16
Das freut mich für dich, scheint aber nicht überall so zu sein wenn man die entsprechenden Threads ließt.

Was sind denn die Probleme?
Bitte nicht so was wie welche mit Hibernate etc., das ist seit Jahren mit so ziemlich jeder Hardware ein Dauerbrenner.
Ich habe selbst mit SLI keinerlei Stabilitätsprobleme etc.



Tolles Argument.

Find ich auch. Zwei bis drei Generationen alte Karten sind wohl kaum eines für den Kauf einer neuen (deren Generation dahingehend völlig unauffällig ist).


Die Erfolgsquote scheint zumindest sehr hoch zu sein. Hier gibt es niemanden mehr mit Blackscreens und auch in anderen Foren findet man keine solchen Meldungen mehr. Außer bei Guru3D gibt es noch einen mit Problemen, aber der könnte genau so gut eine defekte Karte haben.

Toll, das macht ja richtig Lust auf mehr. :D


Wenn dir das den Aufpreis und den kleineren VRAM wert ist dann kauf dir doch deine Geforce

"Meine Geforce" müsste ich nicht kaufen.


ich halte dich sicher nicht davon ab.

Danke, Papa.
:facepalm:


Andere benutzen eben RadeonPRO (oder ingame-Einstellungen) und suchen nicht mit der Lupe nach Texturfilterproblemen.
Ich hab den leisen Verdacht, dass man bei den knackscharfen BF4-Texturen nicht lange suchen muss.

Blackhand
2013-12-01, 14:15:18
Mich hatte eigentlich auch ne neue Graka gereizt, da meine jetzige eigentlich zu lahm ist, aber hab mein Geld jetzt doch in was anderes investiert. Ist zur Zeit doch einfach alles doof.

An und für sich hätte ich schon Bock auf ne NV, da mir ATIs AF und AA-Quali langsam aufn Zeiger gehen. Das allerdings nur, weil ich auch gern mal ältere Titel spiele. Wenn es um neuere und DX10/11 bzw. zukünftige Titel geht, sehe ich derzeit keinen Grund für NV, außer die besseren DS-Fähigkeiten mitsamt den BIOS-Mods als Ausnahme vielleicht. Aber mit dem bischen DS kann ich meine ATi auch locker an ihre Grenzen bringen und das bei hoher Refreshrate.

Allerdings ist mir NV einfach viel zu teuer für das gebotene. Da mir die Firmenpolitik auch nicht gerade sympathisch ist (und nie war), bin ich nicht bereit, so einen Mehrpreis zu zahlen.

Dann gibts da momentan noch den Boostcrap und keine Customdesigns, was ATi auch noch völlig vergeigt hat. Warum auch immer die nur den Scheiß von NV nachmachen müssen, den keiner wirklich braucht.

Ich hoffe ja darauf, dass Mantle einschlägt und NV daraufhin die Preise senkt. Am besten langfristig. Allerspätestens ab 16nm muss was neues her und das sollte dann auch ältere Spiele möglichst korrekt filtern können.

135i
2013-12-02, 21:07:44
Ich seh jede Menge Supersampling. ;)

Klär mich auf:confused:
Reines 32xS glättet nicht optimal, flimmern in Bewegung vorhanden, siehe rote Bereiche.
Erst mit Zuschalten von TSSAA wird's in Bewegung angenehm.

http://abload.de/img/doom32013-12-0220-53-nlfod.jpg
Erst mit Zuschalten von TSSAA wirds in Bewegung angenehm

aufkrawall
2013-12-02, 21:18:08
Würklich? ;)
Bei OpenGL ist Treiber-TrSSAA SGSSAA. Ohne manuelle LOD-Verschiebung hast du dann auch noch Überfilterung, das muss ruhig sein.
Btw. steckt auch im Akronym TrSSAA SSAA drin.
Und OGSSAA hast du bei den Mischmodi dann auch noch. :redface:

Raff
2013-12-02, 21:32:37
Klär mich auf:confused:
Reines 32xS glättet nicht optimal, flimmern in Bewegung vorhanden, siehe rote Bereiche.
Erst mit Zuschalten von TSSAA wird's in Bewegung angenehm.

http://abload.de/img/doom32013-12-0220-53-nlfod.jpg
Erst mit Zuschalten von TSSAA wirds in Bewegung angenehm

32xS beinhaltet ja auch nur 2x2 OGSSAA, wobei außerdem das Texture LOD angepasst wird. Um Flimmern wirklich effektiv zu bekämpfen, nimmt man am besten SGSSAA und lässt das LOD auf 0. Das führt dann zu weitgehender Überfilterung und vernünftigen Ergebnissen bei zuvor unterabgetasteten Inhalten.

MfG,
Raff

135i
2013-12-02, 21:49:32
32xS beinhaltet ja auch nur 2x2 OGSSAA, wobei außerdem das Texture LOD angepasst wird. Um Flimmern wirklich effektiv zu bekämpfen, nimmt man am besten SGSSAA und lässt das LOD auf 0. Das führt dann zu weitgehender Überfilterung und vernünftigen Ergebnissen bei zuvor unterabgetasteten Inhalten.

MfG,
Raff

Ok, bloss SGSSAA funktioniert in Doom3 nicht, sondern stinknormales Transparent SSAA, kombiniert mit spielbaren 16xS, glättet aktiv.
LOD ist bei mir stets auf 0.

Raff
2013-12-02, 22:03:38
Das ist ein Treiber... feature ;): Wie aufkrawall schon sagte, kriegt man SGSSAA unter OpenGL durch Aktivierung von TSSAA. Wenn das LOD bei 8x SGSSAA bzw. 32x SSAA (32xS + 8x "TSSAA") wirklich auf 0 steht, sollte Doom 3 glatt sein wie ein Baby(zombie)arsch.

MfG,
Raff

gedi
2013-12-02, 22:09:44
mit blick auf den QNIX würde ich von AMD eher abstand nehmen. so toll fühlt sich eine 290 auch nicht an - da hat man nach einer woche alles gesehen, getestet, getrickst und die karte ist langweilig. tridef ist auch immer noch baustelle - lohnt nicht - aber darum kostet es auch so billig.

man startet auch direkt mit der gleichen hoffnung, mit der man bei AMD immer lebt -> die hoffnung auf den nächsten treiber. performance hier, blackscreen, takt- und lüfterverhalten dort..


(..)

mfg
tobi


Langweilig in Bezug auf problemlos :confused:

Blackscreen -> zu hoher Ramtakt (bei mir ab 1690Mhz)
Lüfterverhalten -> ich denke eine gute Lüfterkurve sollte doch jeder anlegen können, der sich zutraut ein Vbios zu flashen ...
Takt -> Asus 006-Bios hilft :)
Tridef -> stimme ich dir voll zu, mit der Einschränkung, dass es hier vor allem auf das Ausgabegerät ankommt. Ich z.B. habe an meinem TV keine Limitierung auf 24.9Hz, da über DVI angeschlossen.

aufkrawall
2013-12-02, 22:21:49
Richtig schlimm ist Vsync bei AMD.
Über den Treiber nur ein übler Placebo-Betrug und RadeonPro schießt mit seinen Hooks jede 2. Anwendung ab oder nervt sonst wie rum.
Gibt nichts Vergleichbares zu adaptives Vsync über den NV-Treiber (für 120/144Hz klar am besten). Ätzend.

Was bei AMD und so nem OC Qnix nützlich sein könnte, ist dass man mit PowerStrip ICC Profile auch in 3D-Anwendungen erzwingen können soll.
Einige meinen aber auch, dass das mit angepassten Timings gar nicht nötig sein soll.

135i
2013-12-02, 22:31:52
Das ist ein Treiber... feature ;): Wie aufkrawall schon sagte, kriegt man SGSSAA unter OpenGL durch Aktivierung von TSSAA. Wenn das LOD bei 8x SGSSAA bzw. 32x SSAA (32xS + 8x "TSSAA") wirklich auf 0 steht, sollte Doom 3 glatt sein wie ein Baby(zombie)arsch.

MfG,
Raff

Nichts anderes hab ich geschrieben -------Edit: hatte da ein S vergessen


Doom3 1600p macht bei only 32xS schlapp, da brauchts gar kein Supersampling dazuschalten.
Spiels in 16xS+4xTSAA

.

Bei only 32Xs geht's beim Betreten von Räumen bis auf 15Fps runter, also unspielbar.

VooDoo7mx
2013-12-03, 15:46:06
wenn der preis stimmt wirft man natürlich alles über board was einem sonst bei nv so heilig war,sooo wichtig sind die nv-argumente also wie ds und co.:eek::wink:
klar die treiber,die sind es die den unterschied machen.;D

Es sind ja nicht nur die Treiber. Insgesamt läuft einfach alles viel runder und man hat so noch viel mehr features.
Ich war wirklich kurz davor mir eine R290 zu kaufen. Hab aber dann die Posts von Tobi gelesen und kann genau das nachvollziehen was er meint.
Jetzt bestellt ich doch eine 780ti. Das ist mir einfach das Geld wert.

Was meint ihr ist als Silent Fan besser?
Ne billige Karte in Referenzdesign mit AC III Extreme oder die Gigabyte Windfurz Variante? (ggf mit geandterer Lüfterkurve) Momentan habe ich eine GTX680 mit Twin Turbo II und bin damit voll zufrieden.

yamo
2013-12-05, 13:02:39
Es gibt noch etwas genannt SGSSAA Bits für maximale Bildqualität. Abe ok bin ruhig, bist ja zu erwachsen für sowas:freak:

Na klar, benutze ich auch vorzugsweise. Viele Games spacken aber leider rum.
So aus der Erinnerung (habe seit 6 Monaten nicht mehr gedaddelt) war das zuletzt bei mir Far Cry 3. Letztendlich hab ich es mit 1,5 DS @1080p mit sweetfx gedaddelt (DX9), weil ich so die beste BQ mit bester FPS hatte.

Die Ti juckt mich ja immer noch, vorzugsweise im SLI :freak:
Aber das sind natürlich schöne Preise ;) Dann noch das Rumgefiddel mit der WaKü...Entwässern, ohne Grakas befüllen und mit Grakas@air testen, ausbauen, entwässern, umbauen, befüllen...
Das hält mich wohl mehr ab, als der abgerufene Preis. :rolleyes:
Wenn man nur wüßte, wann Maxwell mit welcher Leistung kommt.

Gruß,
Yamo

Rente
2013-12-05, 15:07:23
Wenn du nur die Grakas nachträglich einbinden willst, brauchst du doch nicht zwingend komplett entwässern, bau einfach nach dem Ausbau der alten Karten einen Kugelhahn oder Schnellkupplungen ein, dann tropft es höchstens kurz minimal beim Öffnen des Kreislaufes (und man kann den offenen Schlauch ja abklemmen/abdichten für kurze Zeit) und nach dem Wechsel muss nur entlüftet und Wasser nachgefüllt werden - so würde ich es jedenfalls tun.

Maxwell mit mehr Leistung als ein voller GK110? Nicht vor Ende des Jahres, eher später.

Iruwen
2013-12-05, 16:09:47
Kann ich auch nur empfehlen (aber dann gleich gute Schnellkupplungen), reduziert das Gefummel auf annähernd Null.

http://i.imgur.com/KZNmUm.jpg (http://imgur.com/KZNmU)

Knuddelbearli
2013-12-05, 21:02:41
ist aber hässlich! :-/

Iruwen
2013-12-06, 13:37:51
Wenn man nicht gerade ein Blingbling-Showcase mit Plexiglasfenstern und Beleuchtung hat kann einem das wohl egal sein. Außerdem ist das Männerhardware, die muss nicht schön sein :cool: So eine Kupplung wiegt ganz ordentlich was.

Knuddelbearli
2013-12-06, 14:38:29
wenn Männer Sachen nicht schön sein muss wieso fahren dann viele Männer solche protzkarren? ^^

Raff
2013-12-06, 14:46:07
3 GiB am Anschlag, 4 und 6 GiB mit leichten Vorteilen: TES Skyrim mit maximaler Grafik: Rund 150 Mods plus ENB lassen auch High-End-Boliden im Benchmark glühen (http://www.pcgameshardware.de/The-Elder-Scrolls-5-Skyrim-PC-128680/Specials/Skyrim-mit-maximaler-Grafik-1100228/)

MfG,
Raff

derguru
2013-12-06, 14:54:27
mit msaa hätte es dann wohl nicht mehr gereicht für die 3gb variante, naja die anderen gurken auch so schon bei ~23fps.:smile:

Rente
2013-12-06, 17:05:11
3 GiB am Anschlag, 4 und 6 GiB mit leichten Vorteilen: TES Skyrim mit maximaler Grafik: Rund 150 Mods plus ENB lassen auch High-End-Boliden im Benchmark glühen (http://www.pcgameshardware.de/The-Elder-Scrolls-5-Skyrim-PC-128680/Specials/Skyrim-mit-maximaler-Grafik-1100228/)

MfG,
Raff
Der Vorteil zwischen nicht spielbar und nicht spielbar? Genau deswegen ist Genöle über "nur" 3GB VRam ohne SLI meist so sinnlos, es ist selbst mit 6GB nicht vernünftig spielbar (das trifft auch viele aktuelle Spiele in 4K zu).

Blaire
2013-12-06, 18:23:00
Der Vorteil zwischen nicht spielbar und nicht spielbar? Genau deswegen ist Genöle über "nur" 3GB VRam ohne SLI meist so sinnlos, es ist selbst mit 6GB nicht vernünftig spielbar (das trifft auch viele aktuelle Spiele in 4K zu).

Seh ich genauso. Auch mit SLI ändert sich da wenig (ausgenommen vieleicht Multi-Monitoring bzw. Surround-Resolutions). Aber zum Glück ist alles frei konfigurierbar, man muss nicht stur irgendwelche Settings verfolgen oder Mods installieren, nur um zu zeigen, hier schaut der VRAM geht aus. Es gibt aktuell keinen Grund diesbezüglich irgendwelche Panik zu schieben.

Radeonfreak
2013-12-06, 18:32:31
3 GiB am Anschlag, 4 und 6 GiB mit leichten Vorteilen: TES Skyrim mit maximaler Grafik: Rund 150 Mods plus ENB lassen auch High-End-Boliden im Benchmark glühen (http://www.pcgameshardware.de/The-Elder-Scrolls-5-Skyrim-PC-128680/Specials/Skyrim-mit-maximaler-Grafik-1100228/)

MfG,
Raff

Eine 680 GTX 4GB hätt mich mal interessiert.

Knuddelbearli
2013-12-06, 19:00:49
wo sind den 30 min fps in einem worstcase in sykrim nicht spielbar ? oO

OC drauf und auch 1440p hat 30min fps

yamo
2013-12-07, 22:38:34
Wenn du nur die Grakas nachträglich einbinden willst, brauchst du doch nicht zwingend komplett entwässern, bau einfach nach dem Ausbau der alten Karten einen Kugelhahn oder Schnellkupplungen ein, dann tropft es höchstens kurz minimal beim Öffnen des Kreislaufes (und man kann den offenen Schlauch ja abklemmen/abdichten für kurze Zeit) und nach dem Wechsel muss nur entlüftet und Wasser nachgefüllt werden - so würde ich es jedenfalls tun.

Maxwell mit mehr Leistung als ein voller GK110? Nicht vor Ende des Jahres, eher später.

Ist mir schon klar, bisher habe ich a) keine vernünftige Schnellkupplung für 11/8 gefunden, b) habe ich schon den Mora3 schnell-verkuppelt, was einerseits den Durchfluß hemmt (~35l), andererseits will ich diese Plastikkupplungen nicht an die Graka(s) hängen. Kugelhahn kommt da nicht in Frage. Höchstens am untersten Punkt zum bequemen Wasser ablassen, ist nicht doppeldeutig gemeint ;)
Kannst Du was für 11/8 empfehlen?

Kann ich auch nur empfehlen (aber dann gleich gute Schnellkupplungen), reduziert das Gefummel auf annähernd Null.


Was hast Du denn da im Einsatz, wäre für Tipps dankbar.
Bling Bling ist mir Latte, obwohl ich ein Plexi habe. Das muß wirklich männertechnisch, grobmotorisch :freak: sicher und großzügig verschlaucht sein, selbst Winkeladapter setze ich nicht mehr ein. Ich hatte 2 Undichte, am oberen internen Radi und an der Pumpe.
Deshalb wohl auch meine Vorsicht bei Schnellkupplungen innerhalb des Systems.

Sorry für OT und danke für alle Antworten zu diesem Thema...

Rente
2013-12-07, 23:48:07
Das sind wohl QD2/QD3 oder VL3 von Koolance, die besten Kupplungen auf dem Markt (mit deutlich weniger Durchflusshemmung), gibts z.B. hier für 11/8 (bzw. mit G1/4 IG, du kannst also Anschlüsse deiner Wahl nutzen):
http://www.aquatuning.de/product_info.php/info/p15814_Koolance-Schnellverschluss-G1-4--IG-Kupplung--High-Flow----QD3.html
http://www.aquatuning.de/product_info.php/info/p15813_Koolance-Schnellverschluss-G1-4--IG-Stecker--High-Flow----QD3.html

Sind natürlich nicht ganz günstig und zusammen mit den Anschlüssen sehr groß, für 11/8 gibt es von Koolance leider direkt keine.

Die günstige Alternative wäre das: http://www.aquatuning.de/product_info.php/info/p14218_Phobya-2-Wege-Kugelhahn-G1-4---ger-ndelt.html
Sieht natürlich nicht so hübsch aus, es reicht aber ans sich schon einer vor der GPU um halbwegs vernünftig tauschen zu können imho.

Ex3cut3r
2013-12-08, 13:12:57
Würde es Sinn machen von einer Inno 3D GTX 770 iChill 2GB auf eine GTX 780 Ti iChill zu wechseln?

Rente
2013-12-08, 13:45:30
Würde es Sinn machen von einer Inno 3D GTX 770 iChill 2GB auf eine GTX 780 Ti iChill zu wechseln?
Je nach Anwendung dürftest du zwischen 25 bis 45% mehr Leistung haben, dazu noch 1GB VRam mehr.
Finanziell lohnt es sich, gerade auch bei der iChill (die kostet über 100€ mehr als das Referenzdesign) nicht so richtig aus meiner Sicht.

Gute Übersicht hier, rechne für iChill einfach jeweils noch 10% drauf: http://www.computerbase.de/artikel/grafikkarten/2013/grafikkarten-2013-im-vergleich/3/#rating-1920-1080-4xaa-16xaf

Ex3cut3r
2013-12-08, 14:01:02
Danke dir, aber ich glaube ich lass es sein, und warte lieber auf Maxwell.

RMA
2013-12-08, 17:11:10
Bin ja auch von einer 770 auf eine 780 gewechselt, und es lohnt eigentlich nur, wenn man > 1920x1080 (z. B. zum Downsampling) zocken will oder SGSSAA-Fan ist, gerade die recht verbreiteten UE-Titel lassen sich durch die Bank zumindest mit 4xSGSSAA spielen, wo der 770er einfach die Puste für fehlt. Persönlich würde ich eher davon ausgehen, dass nächstes Jahr schnell die nur 2 GB VRAM ein Problem werden könnten, wenn die ersten explizit für die neuen Konsolen entwickelten Ports kommen.

Knuddelbearli
2013-12-08, 17:12:31
Naja +50% Speicher ist jetzt aber auch nicht dei Menge wenn dus chon davon ausgehst das 2GB zum problem werden

135i
2013-12-08, 17:43:28
Sind natürlich nicht ganz günstig und zusammen mit den Anschlüssen sehr groß, für 11/8 gibt es von Koolance leider direkt keine.

.

VL3 von Koolance: 11/8 Schlauchende in heisses Wasser und druff. Braucht aber ein bissl Geschick

http://abload.de/img/druffr7a69.jpg

Ex3cut3r
2013-12-08, 20:49:18
Bin ja auch von einer 770 auf eine 780 gewechselt, und es lohnt eigentlich nur, wenn man > 1920x1080 (z. B. zum Downsampling) zocken will oder SGSSAA-Fan ist, gerade die recht verbreiteten UE-Titel lassen sich durch die Bank zumindest mit 4xSGSSAA spielen, wo der 770er einfach die Puste für fehlt. Persönlich würde ich eher davon ausgehen, dass nächstes Jahr schnell die nur 2 GB VRAM ein Problem werden könnten, wenn die ersten explizit für die neuen Konsolen entwickelten Ports kommen.

:D Ich bin schon ein kleiner Grafik Fetischist, wer nicht? ^^ Wenn es die Performance zulässt, spiele ich im SP eigentlich fast immer mit 1.5x1.5 DS @FHD, bis jetzt hat die Power immer noch gereicht, aber ich habe nochmal überlegt, und es würde nicht wirklich Sinn machen, auf eine 780Ti zu wechseln, weil ich es so sehe:

- 780Ti, gleiches Feature Set wie die 770 -> Max DX 11.0 (bei richtigen Konsolenports dann nochmal wechseln, wegen DX 11.2?) :(

- "Nur" 3GB VRAM, klar besser als meine 2GB, aber wenn ich schon wechsle, dann muss es die doppelte VRAM Menge sein, also 4GB, wenn es die 780Ti wenigstens mit 6GB VRAM geben würde. (ändert sich vlt. noch)

- Preis für die iChill 780Ti im Moment einfach frech, was anderes als den iChill Kühler will ich nicht mehr haben, selbst wenn das Referenz Modell 200€ weniger kostet, imo der beste Kühler auf den Markt, 1.7 Sone @ 61 Grad sind einfach geil.

+ Performance Gewinn, unter "MAX AA" ->SGSSAA, DS, usw. ^^

AMD, kommt nicht wirklich in frage, da einfach zu laut, und die Custom Karten, werden wohl auch nicht wirklich viel leiser sein, außer vlt. die MSI, ansonsten, weiß nicht, würde es mir schwer fallen z.B auf den Nvidia Inspector zu verzichten. Und wohin mit der ganzen Power, wenn nicht einfaches DS möglich ist? die R9 290X schreit ja eigentlich nach 4K DS :D

P.S irgendwie wars ein Fail Anfang September eine GTX 770 iChill mit 2GB VRAM für 370€ zu kaufen ;D

MFG

Iruwen
2013-12-09, 13:39:38
Das sind wohl QD2/QD3 oder VL3 von Koolance, die besten Kupplungen auf dem Markt (mit deutlich weniger Durchflusshemmung), gibts z.B. hier für 11/8 (bzw. mit G1/4 IG, du kannst also Anschlüsse deiner Wahl nutzen):
http://www.aquatuning.de/product_info.php/info/p15814_Koolance-Schnellverschluss-G1-4--IG-Kupplung--High-Flow----QD3.html
http://www.aquatuning.de/product_info.php/info/p15813_Koolance-Schnellverschluss-G1-4--IG-Stecker--High-Flow----QD3.html

Ich hab High-Flow VL3 13/10, die neuen QDs gabs da noch nicht. Mit Koolance macht man auf jeden Fall nichts falsch. Ich hab alles von Caseking (http://www.caseking.de/shop/catalog/Wasserkuehlung/Anschluesse/Schnell-Verschluss-Anschluesse:::27_287_434.html?filter=manufacturers:298;price:4,20&sort=pname_asc).

horn 12
2013-12-11, 23:37:44
Es geht los:

MSI GTX 780 TI Gaming Testbericht!
Klasse Karte...

http://www.guru3d.com/articles_pages/msi_geforce_gtx_780_ti_gaming_review,1.html

dildo4u
2013-12-12, 00:15:08
Die Karte ist noch nicht mal auf Lager.Bei der 780 sind die Custom Karten sogar die billigsten,MSI kostet nicht mal 10€ mehr als die Standard Karte.


http://geizhals.de/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&xf=132_2048~1439_GTX+780

HarryHirsch
2013-12-12, 00:16:33
Macht ja nix. Verkaufspreis sollen wohl 700€ sein.

dildo4u
2013-12-12, 00:18:24
Macht ja nix. Verkaufspreis sollen wohl 700€ sein.
Sie ist für 650€ gelistet und wird natürlich billiger genau wie die 780 MSI zum Anfang nicht 437€ gekostet hat.

gnomi
2013-12-12, 00:22:15
Nvidia ist seit langem schon zu teuer.
200 Euro billiger wäre natürlich das Highlight. (500 Euro für eine Highend Single Karte mit ordentlicher Kühlkonstruktion darf man denke ich erwarten und war mal ungeschriebener Standard)
Dazu müsste AMD aber eben ein qualitativ vergleichbares Produkt haben, und das sehe ich ehrlich gesagt nicht. :(

Undertaker
2013-12-12, 20:41:04
Bitte beim Thema bleiben. Aufgeräumt.

Dawn on Titan
2013-12-14, 09:38:07
Die Customdesigns die bisher gezeigt worden sind klasse. Abgesehen vom Preis ist eine EVGA ACX SC oder die Inno nahe an der perfekten High-End-Karte.

Dural
2013-12-14, 13:25:13
die 780ti ist eine tolle karte, der abstand zwischen 290X und der 780ti ist sogar grösser als es die tests vermuten lassen, gerade wenn es um OC / leistungsaufnahme geht. man hat pro watt deutlich mehr leistung.

Blediator16
2013-12-14, 14:17:34
die 780ti ist eine tolle karte, der abstand zwischen 290X und der 780ti ist sogar grösser als es die tests vermuten lassen, gerade wenn es um OC / leistungsaufnahme geht. man hat pro watt deutlich mehr leistung.

Widerspricht sich irgendwie

Knuddelbearli
2013-12-14, 16:48:07
Ich mach mir die Welt, widewide wie sie mir gefällt.
...

Hugo78
2013-12-18, 00:23:00
Gigabyte GHz Edition - HWLuxx Test:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29049-gigabyte-geforce-gtx-780-ti-ghz-edition-im-test.html?start=18

Stabile 1228 MHz Boost out of the Box, bei unter 80°C.
1.283 MHz bei zusätzlichem OC.

Nightspider
2013-12-18, 01:51:41
Wo liegen denn aktuell die Wakü-Rekorde?

grizu
2013-12-18, 02:56:40
Gigabyte GHz Edition - HWLuxx Test:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29049-gigabyte-geforce-gtx-780-ti-ghz-edition-im-test.html?start=18

Stabile 1228 MHz Boost out of the Box, bei unter 80°C.
1.283 MHz bei zusätzlichem OC.


Finde noch keinen Laden der die Karte schon im Bestand hat.
Weiß vielleicht jemand wann der Release ist ?

Raff
2013-12-18, 09:14:27
Gigabyte GHz Edition - HWLuxx Test:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29049-gigabyte-geforce-gtx-780-ti-ghz-edition-im-test.html?start=18

Stabile 1228 MHz Boost out of the Box, bei unter 80°C.
1.283 MHz bei zusätzlichem OC.

Alt. :biggrin:

Gigabyte Geforce GTX 780 Ti GHz Edition im Hands-on-Test: Die schnellste Single-GPU-Karte der Welt (http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Gigabyte-GTX-780-Ti-GHz-Test-1098977/)

MfG,
Raff

Dural
2013-12-18, 09:22:47
Widerspricht sich irgendwie

und wo genau?

habe drei 780Ti und zwei 290X da, schon die OC Modelle der 780Ti sprechen eine deutliche Sprache! 1300MHz mit Luft und 1400MHz (Ab da wird es mit der Referenz Karte schwierig) mit Wasser ist möglich, wohl gemerkt bei einer geringeren Spannung (!!!) die eine 290X stock hat :freak:

Mittelwert unter WaKü dürfte 1300MHz bei 1,10Volt sein. So eine Karte braucht rund 100Watt weniger als eine 290X @ 1250MHz / 1,4Volt :rolleyes:

Botcruscher
2013-12-18, 09:53:31
Warum sollte man da 1,4V geben? Spannungserhöhung bei der 290 ist ein extrem zweischneidiges Schwert. Absenken ist selbst bei WaKü deutlich besser. Imo lohnt sich der Vergleich auch nicht weil die Karten auf deutlich unterschiedliche Märkte ausgerichtet sind. Bei fast doppeltem Preis einer TI zu einer einfachen 290 sollte man das Potential wohl erwarten können.

Knuddelbearli
2013-12-18, 10:21:47
und wo genau?

habe drei 780Ti und zwei 290X da, schon die OC Modelle der 780Ti sprechen eine deutliche Sprache! 1300MHz mit Luft und 1400MHz (Ab da wird es mit der Referenz Karte schwierig) mit Wasser ist möglich, wohl gemerkt bei einer geringeren Spannung (!!!) die eine 290X stock hat :freak:

Mittelwert unter WaKü dürfte 1300MHz bei 1,10Volt sein. So eine Karte braucht rund 100Watt weniger als eine 290X @ 1250MHz / 1,4Volt :rolleyes:

dafür kostet eine 290 ( non x die nur 4% langsamer ist als die X ) aber auch nur die hälfte :rolleyes:

Einfach CF machen damit Takt auf 800Mhz Senken + Spannung auch runter und man hat 50% mehr Leistung als 780TI OC bei weniger verbrauch ^^

Vergleich ist gleich bescheuert wie deiner aber egal ^^

Dural
2013-12-18, 10:34:14
Nein ist er nicht, weil das kein High-End mehr ist... und die Ti muss man auch nicht untertakten wie in deinem Beispiel :rolleyes:

Warum sollte man da 1,4V geben? Spannungserhöhung bei der 290 ist ein extrem zweischneidiges Schwert. Absenken ist selbst bei WaKü deutlich besser. Imo lohnt sich der Vergleich auch nicht weil die Karten auf deutlich unterschiedliche Märkte ausgerichtet sind. Bei fast doppeltem Preis einer TI zu einer einfachen 290 sollte man das Potential wohl erwarten können.

hast du eine 290X die 1250MHz unter 1,4v packt? ich leider nicht :(

ich habe nie gesagt das die 290X schlecht sei, nur das der unterschied deutlich grösser ist als es die Test vermuten lassen, und das ist schlicht einfach so. :)

Blediator16
2013-12-18, 11:38:38
CB hat heute einen CF SLI Test gebracht wo man sehr gut sehen kann, dass der Verbrauch bei den Karten sehr eng ist während AMD mit ihrem suboptimalen Kühler an den Start gegangen ist. Der Verbrauch wird bei besseren Kühlern sich bei Nvidias einpendeln. Die Karten sind sich in allen Dingen ziemlich ähnlich

Botcruscher
2013-12-18, 12:25:55
hast du eine 290X die 1250MHz unter 1,4v packt? ich leider nicht :(
Dafür ist sie schlicht nicht ausgelegt.
ich habe nie gesagt das die 290X schlecht sei, nur das der unterschied deutlich grösser ist als es die Test vermuten lassen, und das ist schlicht einfach so. :)
Weil die GPU typisch auf Ökonomie designt wurde. Bei einem Chip mit deutlich geringerer Packdichte und mehr Fläche, erwarte ich einfach mehr Spielraum beim Takt. Den bezahlt man dann aber eben auch.
Die Chips verhalten sich unter Wasser dann durchaus fast identisch. Durch den bescheidenen Ref.-Kühler gewinnt die R9 nur deutlich mehr beim Verbrauch. 50W und mehr Einsparung(ohne OC) sind der Normfall.
Wer auf die Leistungsspitze samt deutlichem OC aus ist, der ist mit der TI natürlich deutlich besser bedient.

Pirx
2013-12-18, 15:13:52
.del

mac_skull
2013-12-18, 15:50:24
Weiß jemand, wie es zu so extrem starken Unterschieden in der Lautstärkemessung kommen kann?

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/64491-gigabyte-gtx-780-ti-ghz-edition-review-7.html

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29049-gigabyte-geforce-gtx-780-ti-ghz-edition-im-test.html?start=4

Die Ergebnisse variieren nicht nur in der reinen dB, was sich durch unterschiedliche Abstände erklären lassen könnte, sondern auch erheblich im Vergleich zu anderen Karten wie der normalen GTX 780 Ti.

Es gibt bei den Windforce Kühlern ja auch schon starke Unterschiede zwischen computerbase und PCGH was das angeht. Kann es sein, dass es da eine erhebliche Spanne in der Lüfterqualität der Windforce Lüfter gibt?

Mfg

fondness
2013-12-18, 16:07:50
und wo genau?

habe drei 780Ti und zwei 290X da, schon die OC Modelle der 780Ti sprechen eine deutliche Sprache! 1300MHz mit Luft und 1400MHz (Ab da wird es mit der Referenz Karte schwierig) mit Wasser ist möglich, wohl gemerkt bei einer geringeren Spannung (!!!) die eine 290X stock hat :freak:

Mittelwert unter WaKü dürfte 1300MHz bei 1,10Volt sein. So eine Karte braucht rund 100Watt weniger als eine 290X @ 1250MHz / 1,4Volt :rolleyes:

Der Kehrseite ist, dass bei NV bei der Speicherbandbreite nicht mehr viel geht. Bei solchen Taktraten wird das wohl nicht selten zum Bottleneck. Vcore AMD und NV ist ohnehin nicht vergleichbar. Ganz davon abgesehen das deine Werte selten stabil sind und für 99% wohl nicht realistisch. ;)

Dawn on Titan
2013-12-18, 16:12:58
Ne 290X reagiert stärker auf Bandbreite als ne 780ti.

dildo4u
2013-12-18, 17:15:28
OC3D Gigabyte GTX780 Ti GHz Graphics Card Review

http://youtu.be/oqZKTYqrex8

135i
2013-12-18, 20:52:26
und wo genau?

Modelle der 780Ti sprechen eine deutliche Sprache! 1300MHz mit Luft und 1400MHz (Ab da wird es mit der Referenz Karte schwierig) mit Wasser ist möglich,
.

BlaBlaBla... vielleicht 24h Firestrike .
Gamestable ist was andres. Meine beide haben sich unter Luft bei 1175Mhz eingependelt.
Zum Benchen warens um einiges höher.

gedi
2013-12-18, 22:28:53
Nein ist er nicht, weil das kein High-End mehr ist... und die Ti muss man auch nicht untertakten wie in deinem Beispiel :rolleyes:



hast du eine 290X die 1250MHz unter 1,4v packt? ich leider nicht :(

ich habe nie gesagt das die 290X schlecht sei, nur das der unterschied deutlich grösser ist als es die Test vermuten lassen, und das ist schlicht einfach so. :)

Dir ist aber bewusst, dass von den 1.4V lediglich ~1,33V ankommen? Generell finde ich dieses Stromverbrauchsgedöns bei Grafikkarten dieses Kalibers sinnfrei, denn ich kaufe ja auch keinen Lambo und stelle dann einen Vergleich mit einer Dodge Viper an, um dann zu sagen: In etwa gleich schnell sind se ja, meiner braucht aber 3l/100km weniger :rolleyes:

Raff
2013-12-18, 22:50:14
Mit was stellt ihr denn 1,4 Volt ein?

MfG,
Raff

gedi
2013-12-18, 22:56:09
Asus GPU-Tweak

Dural
2014-01-01, 16:26:35
nach dem ich hier gelesen habe, habe ich gerade lust tomb raider zu zocken :D mit 1300MHz :P
1080p @ alles ultra @ 67FPS...

Raff
2014-01-03, 23:46:03
SSAA-Benchmarkwerte, bitte: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539515 ;)

MfG,
Raff

Hugo78
2014-01-11, 14:02:18
MSI GTX 780 Ti Gaming
http://www.techpowerup.com/reviews/MSI/GTX_780_Ti_Gaming/22.html

Scheinbar die leiseste 780 Ti mit Luftkühlung aktuell.

RMA
2014-01-16, 13:58:52
Ist offenbar die gleiche Lösung wie bei der Non-Ti. Und die ist wirklich wohnzimmertauglich.

akuji13
2014-02-07, 15:56:45
MSI GTX 780 Ti Gaming
http://www.techpowerup.com/reviews/MSI/GTX_780_Ti_Gaming/22.html

Scheinbar die leiseste 780 Ti mit Luftkühlung aktuell.

Ich vermisse da einen Vergleich zur Inno3D. :wink:

Raff
2014-02-07, 16:12:12
MSI GTX 780 Ti Gaming
http://www.techpowerup.com/reviews/MSI/GTX_780_Ti_Gaming/22.html

Scheinbar die leiseste 780 Ti mit Luftkühlung aktuell.
Ist offenbar die gleiche Lösung wie bei der Non-Ti. Und die ist wirklich wohnzimmertauglich.

Das ist zweifellos eine leise Karte, allerdings hegen die Wandler eine Todessehnsucht, wenn man das Übertakten und Hochspannen anfängt. Letzteres hat MSI bei der 290X besser gelöst.

MfG,
Raff

gnomi
2014-02-16, 17:27:14
Ich habe die MSI Karte auch gestern bekommen.
Sie ist wirklich sehr leise und wird auch kaum warm.
Die Performance stimmt Dank den Taktraten zwar, aber ehrlich gesagt empfinde ich den Unterschied zu meiner OC GTX 680 in der Praxis als doch zu gering.
Viele moderne Effekte klauen leider extrem Leistung, weshalb auch die 780 TI trotz etwas mehr Qualität und ~ 60% mehr Power oftmals kein sonderlich besseres Spielerlebnis ermöglicht.
Ich hätte nicht gedacht das zu sagen, aber da kann man momentan auch mal die Objektdetails minimal reduzieren oder das TXAA um eine Stufe reduzieren.
Die 60 fps konstant hält die 780 TI auch in Crysis 3 oder AC 4 bei aufgedrehten Details nicht immer, wenn sie mehr zu tun bekommt.
Einzig BF 4 läuft muss man sagen wirklich richtig, richtig schnell.
Alles in allem werde ich noch eine Generation warten.
Dann gibt es auch mehr Spiele mit Frostbite 3 und anderen modernen beziehungsweise optimierteren Engines.

aufkrawall
2014-03-11, 09:44:35
Wie viel ist die 780 Ti taktnormiert schneller als die 780?

Rente
2014-03-11, 10:10:06
Wie viel ist die 780 Ti taktnormiert schneller als die 780?
Ich konnte leider keinen einzigen Test finden, der das mal nachgestellt hätte, aber es dürften etwa 18% sein, der Vergleich ist aber insofern schwierig, da die Ti auch schnelleren Speicher (mit zusätzlicher Reserve) besitzt.

Für gewöhnlich lassen sich aber die Ti's sogar noch besser übertakten als die normalen 780er, somit liegt der Unterschied real dann wieder deutlich über 25%.

Raff
2014-03-11, 12:28:57
Jo, gute 20 Prozent sind's (natürlich im Grafiklimit).

MfG,
Raff

aufkrawall
2014-03-11, 12:37:25
Ui, das ist viel. Danke euch.
Dann wirds wohl eine Ti, nach den Schlappen mit den 290s.

Welche sollte ich denn da nehmen, für bestes OC unter Luft?
1500rpm im Idle wie bei der 290 Tri-X brauchts jedenfalls nicht. :freak:

Raff
2014-03-11, 12:43:13
Na was dachtest du denn :D, die Ti hat 25 Prozent mehr Rechenwerke und im Falle der MSI-Karten einen leicht höheren Boost. Mein Tipp wäre die Inno 3D mit "Herculez X3 Ultra"-Kühler. Achtung, schrecklich laute ~0,7 Sone im Leerlauf. :ugly:

MfG,
Raff

gnomi
2014-03-11, 12:53:27
Jo, der Lüfter auf der Inno scheint noch etwas mehr Reserven zu haben.
Bei Hardwareluxx haben sie wirklich einige 780TI in den letzten Wochen getestet. :up:

Inno 1 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/30029-inno3d-ichill-geforce-gtx-780-ti-herculez-x3-ultra-dhs-edition-im-test.html)
Inno 2 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/30088-inno3d-ichill-geforce-gtx-780-ti-herculez-x3-ultra-mit-bios-update-im-nachtest.html)
EVGA (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29152-evga-geforce-gtx-780-ti-classified-im-test.html)
Gainward (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29075-gainward-geforce-gtx-780-ti-phantom-im-test.html)
MSI (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29097-msi-geforce-gtx-780-ti-gaming-im-test.html)
Asus (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29094-asus-geforce-gtx-780-ti-directcu-ii-im-test.html)
Zotac (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/29500-zotac-geforce-gtx-780-ti-amp-edition-im-test.html)

aufkrawall
2014-03-11, 13:02:29
Die Inno ist unter Last extrem kühl, aber im Idle ist sie klar am lautesten:
http://www.computerbase.de/artikel/grafikkarten/2013/geforce-gtx-780-ti-von-gigabyte-und-inno3d-im-test/3/
Kann man das per Lüfterkurve noch beeinflussen? Wenn nicht, scheidet die schon mal aus.

Die MSI Gaming ist leise im Idle und die Lüfter sollen recht angenehm sein. Gilt das auch für OC mit Spannungserhöhung?

Wichtig wäre auch noch, dass das Powertarget nicht bremst. Lässt sich das bei allen Karten per Bios lösen?

Rente
2014-03-11, 13:08:54
Für alle Modelle mit Referenzdesign (z.B. die MSI) gibt es Bios-Mods mit quasi offenem PT (375 Watt - 600 Watt) und frei geschalteten Spannungeinstellungen (bis 1,21V, mit speziellen Mod wohl bis zu 1,3V), für Custom-Modelle (also mit Custom-PCB) müsste man u.U. dann mal bei overclockers.net oder im Hardwareluxx schauen bzw. selbst Hand anlegen mit dem Kepler Bios Tweaker.

Bzgl. Lüftereinstellungen kann ich leider nichts genaues sagen, der Referenzkühler drehte im Idle mit 20%, niedriger ließ der sich auch mit Bios-Mod nicht einstellen, das könnte bei den Custom-Modellen ähnlich sein und damit limitieren.

Angiesan
2014-03-11, 18:05:51
@aufkrawall, Du kannst es vergessen eine Ti die stark übertaktet ist leise mit Luft zu kühlen, da gibt es faktisch keinen Kühler der das packt, da können die Leute schreiben was Sie wollen es stimmt einfach nicht zum Benchen mag das noch gut gehen für mehr aber nicht.

Die Inno 3D ist z.B. ein richtiger Blender da bei dieser Karte zwar die Baseclock erhöht wurde auf den gleichen Wert wie bei der GTX GHz Edition von Gigabyte aber der Boosttable schon deutlich niedriger aufsetzt weshalb die Karte auch out of the Box eben nicht bis ans "normale" Boostlimit boostet sondern meist bei 1137 oder 1150 hängen bleibt obwohl die Karte mit dem Baseclock bei 1202 -1228 landen würde;-)

Kann jeder auch gerne überprüfen mit dem KBE.

Ansonsten würde ich dir empfehlen einen GTX 780 zu holen und diese stärker zu übertakten, abgesehen das es deutlich günstiger ist sind dort auch 1202 Mhz möglich ohne das man denkt der PC hebt bald ab.

Ich habe alles hier gehabt und nicht nur in einer Ausführung und recht viel Geld beim Wiederverkauf verloren und bin doch bei einer GTX 780 hängen geblieben.

Ich habe noch nie einen Chip gesehen wie den GK110 der so irre mit den Einheiten und oder dem Takt skaliert, leider auch beim Verbrauch und damit unmittelbar auch mit den Temperaturen.
Hier ist es so, dass eine GTX 780 @ 1150 ziemlich genau den gleichen Verbrauch hat wie eine GTX 780 Ti bei 1006 MHz was in etwa in einer Leistungsklasse mündet. Wenn man das schnellste haben will, leise und nur sehr sachte Übertakten will würde ich zur MSI GTX 780 TI Gaming oder der neuen EVGA GTX 780 TI ACX raten die Inno ist auch ok aber wie schon gesagt ein Blender und dafür dann i.d.R. auch zu teuer.
Sehr hohe Übertaktungen gehen dann i.d.R. nur mit einem modifizierten Bios da auch die sehr gut gekühlten Karten dann ins PT rennen und dies dann geweitet werden muss damit man mehr bekommt.

Meine Erfahrung sagt folgendes wenn man nur übertaktet und nicht an der Spannung dreht bekommt man aufgrund des PT sowohl mit der GTX 780 wie mit der GTX 780 Ti die gleich Performance da sich die GTX i.d.R. mit dem vorhandenen PT weiter übertkten lässt sofern es der Chip mitmacht.
Erst ab ca 1084 MHz auf einer GTX 780 Ti wird es eine Herausforderung an dieser mit einer GTX 780 dran zu bleiben, da man dann so weit übertakten muss das dies oft nicht ohne Spannungserhöhung geht und dann fangen alle B1 an zu saufen und zu heizen als ob es kein morgen geben darf :freak:


Alternativ eine gut gekühlte GTX 780 (da auch gerne die Inno) und die übertaktet was bei 1150 in etwa Gleichstand mit einer normalen Ti bedeutet.

Ich habe die EVGA GTX 780@1202 gegen Die King Pin laufen lassen die out of the Box auch 1202 MHz liefert und hatte in vielen Spielen die knappen 20% gesehen, bei Crysis weniger und bei TR 2013 mit 4xSSAA etwas mehr da schlägt glaube ich auch der Speicher durch.

Ansonsten kann ich sagen das eine GTX 780 unter Luft deutlich einfacher und auch leiser gekühlt werden kann wie der Vollausbau die zusätzlichen Einheiten heizen offensichtlich ganz gut.
Das bestätigt mir auch der Stromverbrauch bei o.a. Test habe ich schlappe 100 Watt Differenz zwischen der übertakteten GTX 780 und der 780 TI KP bei gleichem Takt also 1202MHz vs 1202 MHz und das obwohl die GTX 780 ein 378X und kein 278X Modell ist also ebenfalls mit 10 Phasen Stromversorgung :-)

Abschließend kann man sagen wenn TI und Übertaktung, dann mit Wasser und nicht mit Luft oder man lässt es bei 10xxMHz gut sein dann reichen auch die guten Luftkühler aber dann ist eben eine GTX 780 auch nicht viel langsamer zumindest nicht wenn man die übertaktet ;)

aufkrawall
2014-03-11, 18:35:06
Danke für deine Einschätzung (auch@Rente für die Hinweise).
Allerdings hab ich einen komplett offenen Aufbau, wo ich auch einen Hawaii mit +200mV Spannungserhöhung noch bei relativ akzeptabler Lautstärke unter 85°C halten konnte.
Ich denke nicht, dass so eine Spannungserhöhung mit GK110 Vollausbau für 1150-1200Mhz nötig ist.
Der darf ja auch gerne 90°C heiß werden. Ich gehe aufgrund der Erfahrung mit Hawaii davon aus, dass das möglich ist.

Sorge machen mir da die SpaWas. Wenn die bei der MSI so schlecht sind wie Raff sagt, fällt die natürlich raus.

Wie die standardmäßig boosten, ist mir auch relativ egal, da ich ja Hand anlegen will. Wird wohl wegen PT eh auf Bios-Flash hinauslaufen.

4Fighting
2014-03-11, 19:09:37
Ich hab meine beiden Ref Ti's mit 1121 mhz bei 1,037V laufen. Das senkt die Temps und bis 86°C hab ich noch moderate 59% Lüfter.

Bis ich auf Wakü umsteige ist es ganz okay so.

haudi
2014-03-12, 18:29:15
@aufkrawall, Du kannst es vergessen eine Ti die stark übertaktet ist leise mit Luft zu kühlen, da gibt es faktisch keinen Kühler der das packt, da können die Leute schreiben was Sie wollen es stimmt einfach nicht zum Benchen mag das noch gut gehen für mehr aber nicht.

Die Inno 3D ist z.B. ein richtiger Blender da bei dieser Karte zwar die Baseclock erhöht wurde auf den gleichen Wert wie bei der GTX GHz Edition von Gigabyte aber der Boosttable schon deutlich niedriger aufsetzt weshalb die Karte auch out of the Box eben nicht bis ans "normale" Boostlimit boostet sondern meist bei 1137 oder 1150 hängen bleibt obwohl die Karte mit dem Baseclock bei 1202 -1228 landen würde;-)

Kann jeder auch gerne überprüfen mit dem KBE.

Ansonsten würde ich dir empfehlen einen GTX 780 zu holen und diese stärker zu übertakten, abgesehen das es deutlich günstiger ist sind dort auch 1202 Mhz möglich ohne das man denkt der PC hebt bald ab.

Ich habe alles hier gehabt und nicht nur in einer Ausführung und recht viel Geld beim Wiederverkauf verloren und bin doch bei einer GTX 780 hängen geblieben.

Ich habe noch nie einen Chip gesehen wie den GK110 der so irre mit den Einheiten und oder dem Takt skaliert, leider auch beim Verbrauch und damit unmittelbar auch mit den Temperaturen.
Hier ist es so, dass eine GTX 780 @ 1150 ziemlich genau den gleichen Verbrauch hat wie eine GTX 780 Ti bei 1006 MHz was in etwa in einer Leistungsklasse mündet. Wenn man das schnellste haben will, leise und nur sehr sachte Übertakten will würde ich zur MSI GTX 780 TI Gaming oder der neuen EVGA GTX 780 TI ACX raten die Inno ist auch ok aber wie schon gesagt ein Blender und dafür dann i.d.R. auch zu teuer.
Sehr hohe Übertaktungen gehen dann i.d.R. nur mit einem modifizierten Bios da auch die sehr gut gekühlten Karten dann ins PT rennen und dies dann geweitet werden muss damit man mehr bekommt.

Meine Erfahrung sagt folgendes wenn man nur übertaktet und nicht an der Spannung dreht bekommt man aufgrund des PT sowohl mit der GTX 780 wie mit der GTX 780 Ti die gleich Performance da sich die GTX i.d.R. mit dem vorhandenen PT weiter übertkten lässt sofern es der Chip mitmacht.
Erst ab ca 1084 MHz auf einer GTX 780 Ti wird es eine Herausforderung an dieser mit einer GTX 780 dran zu bleiben, da man dann so weit übertakten muss das dies oft nicht ohne Spannungserhöhung geht und dann fangen alle B1 an zu saufen und zu heizen als ob es kein morgen geben darf :freak:


Alternativ eine gut gekühlte GTX 780 (da auch gerne die Inno) und die übertaktet was bei 1150 in etwa Gleichstand mit einer normalen Ti bedeutet.

Ich habe die EVGA GTX 780@1202 gegen Die King Pin laufen lassen die out of the Box auch 1202 MHz liefert und hatte in vielen Spielen die knappen 20% gesehen, bei Crysis weniger und bei TR 2013 mit 4xSSAA etwas mehr da schlägt glaube ich auch der Speicher durch.

Ansonsten kann ich sagen das eine GTX 780 unter Luft deutlich einfacher und auch leiser gekühlt werden kann wie der Vollausbau die zusätzlichen Einheiten heizen offensichtlich ganz gut.
Das bestätigt mir auch der Stromverbrauch bei o.a. Test habe ich schlappe 100 Watt Differenz zwischen der übertakteten GTX 780 und der 780 TI KP bei gleichem Takt also 1202MHz vs 1202 MHz und das obwohl die GTX 780 ein 378X und kein 278X Modell ist also ebenfalls mit 10 Phasen Stromversorgung :-)

Abschließend kann man sagen wenn TI und Übertaktung, dann mit Wasser und nicht mit Luft oder man lässt es bei 10xxMHz gut sein dann reichen auch die guten Luftkühler aber dann ist eben eine GTX 780 auch nicht viel langsamer zumindest nicht wenn man die übertaktet ;)
Ehrlich gesagt weiß ich nicht warum er sich nicht ne Inno mit Herculez Kühler holen sollte. Wer das Original Bios bei der Ti verwendet verschenkt eh Leistung und Kohle wegen Stromverbrauch;). Ne normale Herculez also nicht die DHS, nen Mod Bios drauf und Taktraten und Volt selbst einstellen. Ne bessere luftgekühlte Karte bekommst du nicht...
Gruß

aufkrawall
2014-03-16, 19:13:19
Hier auch mal mein Thread im Luxx:
http://www.hardwareluxx.de/community/f306/gtx-780-ti-fuer-luft-oc-leise-im-idle-1011561.html#post21976619

Falls wer noch was weiß, jede Info ist willkommen. Würde gerne auf Anhieb die richtige Karte bestellen.

MartinRiggs
2014-03-16, 20:52:44
Also wenn es nicht das Mörder OC sein muss dann wird die MSI GTX780 TI wohl mit die leiseste sein ohne das die Wandler direkt sterben.

Ich hab zwar nur die MSI GTX780 Gaming ohne TI bin aber nach wie vor absolut zufrieden, eine Grafikkarte für Silent-Huren :D
Meine läuft auch 1200MHZ, lasse sie meist aber nur mit 1100 laufen.

Mcdave
2014-03-16, 22:53:30
Ich habe die Palit Super Jetstream GTX 780 non TI und bin sehr zufrieden. Sie dreht im Leerlauf mit knapp 800 UPM und ist wirklich leise. Beim Spielen liegt die Drehzahl um die 1200 UPM, was immer noch leise ist. Wenn ich die FPS limitiere, dreht sie noch langsamer. Meine läuft ohne Spannungszugabe mit 1215 MHZ stabil (ASIC = ~80%). Bei diesem Takt ist sie gut 5% schneller als eine reguläre GTX 780TI. Der Chip ginge deutlich höher, rennt mit Spannungszugabe allerdings recht schnell ins TDP-Limit. Hier müsste man ein einschlägiges BIOS flashen.

Die TI @ 1200 MHZ ist nur ca. 10-15% schneller, was den Aufpreis von gut 130€ nicht rechtfertigt, zumal sie auch "nur" 3GB VRAM hat.

Thunder99
2014-03-16, 23:06:57
Ich habe die Palit Super Jetstream GTX 780 non TI und bin sehr zufrieden. Sie dreht im Leerlauf mit knapp 800 UPM und ist wirklich leise. Beim Spielen liegt die Drehzahl um die 1200 UPM, was immer noch leise ist. Wenn ich die FPS limitiere, dreht sie noch langsamer. Meine läuft ohne Spannungszugabe mit 1215 MHZ stabil (ASIC = ~80%). Bei diesem Takt ist sie gut 5% schneller als eine reguläre GTX 780TI. Der Chip ginge deutlich höher, rennt mit Spannungszugabe allerdings recht schnell ins TDP-Limit. Hier müsste man ein einschlägiges BIOS flashen.

Die TI @ 1200 MHZ ist nur ca. 10-15% schneller, was den Aufpreis von gut 130€ nicht rechtfertigt, zumal sie auch "nur" 3GB VRAM hat.
Eher +25% (http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-ti-gegen-gtx-titan-im-test/4/) wenn nicht mehr je nachdem was limitiert ;). Sind halt doch ein Stück mehr Einheiten

LSSJBroly
2014-03-16, 23:19:30
Sind halt doch ein Stück mehr Einheiten

Aber: Die Shader skalieren beim vollen GK110 alles andere als linear gegenüber ner 780 (12 SMX) oder Titan (14 SMX). Bei selber Speicherbandbreite reicht eine 780 schon etwa 1.058 bis 1.072 MHz um genauso schnell wie eine 780 Ti mit 928 MHz zu sein (also "nur" etwa +17 bis 19% mehr Takt, statt den theoretischen 29%). Bei OGSSAA wird es wieder etwas mehr, aber auch bei weitem nicht so viel, wie es das mehr an Shadern vermuten lässt.

Bei der Titan Black gegenüber der Titan siehts sogar noch "schlimmer" aus. Das Ding ist trotz 20% mehr Rechenleistung und 17% mehr Bandbreite nur etwa 12% schneller als die Titan "Classic" - also in etwa genau das mehr an Takt welches die Black gegenüber der Titan besitzt (980 MHz vs. 876 MHz).

Grindcore
2014-03-17, 11:03:23
@McDave: Also ich habe die Super Jetstream auch, wie hast Du die denn laufen, dass sie nicht mehr als 1200 UPM bei 1200Mhz erreicht? Ich habe die Lüfterkurve so angepasst, dass sie nicht mit mehr als 1250 UPM läuft, das führt aber dazu, dass sie bei Maximalauslastung auf bis zu 1074 Mhz runtertaktet, das Temp-Limit habe ich dabei auf 85° erhöht.

Mit Default-Einstellungen (Boost bis 1124 Mhz) regelt sie bspw. bei Crysis 3 mit max. Details an fordernden Stellen auf bis zu 1700 UPM hoch und das ist bei dieser Lüfterkonstruktion wirklich zu viel des Schlechten. Gehäuse ist ein Fractal Design Define XL mit lüftertechnischer Maximalbestückung.

Mcdave
2014-03-17, 18:57:02
Eher +25% (http://www.computerbase.de/artikel/grafikkarten/2013/nvidia-geforce-gtx-780-ti-gegen-gtx-titan-im-test/4/) wenn nicht mehr je nachdem was limitiert ;). Sind halt doch ein Stück mehr Einheiten

Siehe Post von LSSJBroly..... Simple Mathematik ist hier nicht zielführend.

@McDave: Also ich habe die Super Jetstream auch, wie hast Du die denn laufen, dass sie nicht mehr als 1200 UPM bei 1200Mhz erreicht? Ich habe die Lüfterkurve so angepasst, dass sie nicht mit mehr als 1250 UPM läuft, das führt aber dazu, dass sie bei Maximalauslastung auf bis zu 1074 Mhz runtertaktet, das Temp-Limit habe ich dabei auf 85° erhöht.

Mit Default-Einstellungen (Boost bis 1124 Mhz) regelt sie bspw. bei Crysis 3 mit max. Details an fordernden Stellen auf bis zu 1700 UPM hoch und das ist bei dieser Lüfterkonstruktion wirklich zu viel des Schlechten. Gehäuse ist ein Fractal Design Define XL mit lüftertechnischer Maximalbestückung.

Bist Du sicher, dass dein Kühlkonzept ideal ist? Viele Lüfter müssen nicht unbedingt gute Durchlüftung bedeuten. Ich habe insgesamt 4 Lüfter im PC, 2 davon sitzen auf dem mächtigen Noctua NH-D14 CPU Kühler, der sich mit der warmen Abluft der Graka herumschlagen darf (was ihn vor keinerlei Probleme stellt). Ein Weiterer sitzt an der Vorderseite und saugt kühle Aussenluft an und der Letzte klebt an der Seite und bläst kühle Aussenluft direkt zur Graka.

Mein Gehäuse ist aufgeräumt und keine HDDs blockieren den Luftstrom, da ich nur noch SSDs verwende, die an der oberen Innenseite des Gehäuses mit Klettband befestigt sind.

Mehr als 76 Grad habe ich bei meiner Super Jetstream noch nie gesehen; der Lüfter dreht dann mit ca. 1400UPM (Unigine Valley @ max Settings --> Karte klebt fast permanent am TDP-Limit). Ähnlich warm wird sie nur bei Witcher 2 mit Übersampling oder Anno 1404 mit SSAA.

Ich spiele aber grundsätzlich mit aktiviertem FPS Limiter. So bleibt die Karte in der Regel deutlich unter 70 Grad. Die oben genannten Werte sind natürlich ohne Limiter entstanden.

Eventuell ist bei deiner Karte die WLP schlecht verteilt und/oder sie hat eine schlechtere ASIC Quality als meine (80.1%) und braucht daher mehr Spannung. Bei mir liegen 1.10V-1.11V an @ 1202MHZ.

Grindcore
2014-03-18, 08:59:32
Jo, die Kühlung im Define XL ist gut, Luftstrom ist ungehindert dank Kabelmanagement, Netzteil ist per Zwischenblech von den übrigen Komponenten getrennt, etc. Naja, da Du jetzt schon mal 1400 UPM angibst, sind die übrigen Werte auch nicht mehr so erstaunlich, bei genauerem Hinschauen und enstprechender Auslastung wirds mit Sicherheit noch mehr.

Mcdave
2014-03-18, 09:22:54
Nein, da wird nichts "mit Sicherheit" noch mehr. Die 1400 UPM sind ein Extremfall, die Spielerealität sind gut 200 UPM weniger. Es gibt's ja auch zig Reviews der Karte, die das untermauern. Also bitte nicht einfach Sachen aus dem Zusammenhang reißen, gell?

Auch Kabelmanagement und ungehinderter Luftstrom bedeuten noch gar nichts, wenn sich die Lüfter gegenseitig in die Quere kommen.
Deine Karte wird deutlich wärmer als meine und auch heißer als in allen Reviews, die ich zur Karte gefunden habe.

http://www.tomshardware.de/GTX780-EVGA-Palit-Review-Benchmarks,testberichte-241328-4.html

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/26932-palit-geforce-gtx-780-super-jetstream-im-test.html?start=4

http://www.kitguru.net/components/graphic-cards/zardon/palit-gtx760-gtx770-and-gtx780-super-jetstream-review/23/

PCGH hat die Karte übrigens letzten Herbst auch getestet; aufgrund dieses Tests habe ich mich für die Jetstream entschieden.

Grindcore
2014-03-18, 10:22:58
Is ja gut nu, 1200 Mhz bei 1200 UPM sind auf Dauer jedenfalls komplett unrealistisch bei Maximallast und darum gings mir.

Im Übrigen wird meine Karte eben nicht "heißer als in allen Reviews": mit default-Einstellungen (Also ohne angepasste Lüfterkurve und Temptarget) wird die auch kaum über 75° warm, aber eben mit entsprechender Geräuschkulisse, 1400 UPM sind bspw. definitiv nicht mehr leise bei dem Teil.

N0Thing
2014-03-18, 10:45:52
Bei Computerbase wird die 780 non Ti auch schon in den Standardeinstellungen 75°C warm, die Ti wird da kaum kälter oder leiser bleiben. Im Gegensatz zu den meisten anderen Reviews testen die nicht mit einem offenen Aufbau, sondern mit einem geschlossenen Gehäuse.

fondness
2014-03-22, 10:52:17
Wieder mal ein Beweis dafür wie Konkurrenz das Geschäft belebt, 6Gb 780 ud 780Ti wurden offensichtlich von NV frei gegeben:

Well, guess what, guys over at NVIDIA HQ felt really unconformable with the recent news from Sapphire. Sapphire is preparing its 8GB models of R9 290X, which would outperform any 780 Ti in terms of available memory. That said they returned to their original plans and they will launch 6GB models. Okay, maybe not NVIDIA itself, but it’s AIB partner — EVGA.

http://videocardz.com/50008/evga-preparing-geforce-gtx-780-gtx-780-ti-6gb-memory

http://s30.postimg.org/5xvhkygu9/6_GB_Step_Up_Header.jpg (http://postimage.org/)

Damit wird freilich die Titan Black völlig überflüssig für Gamer.

horn 12
2014-03-22, 11:35:23
Und man sieht dass erneut AMD nur den Anstoß geben muss!
Ohne AMD wäre NV noch konservativer und würde auf Kundenwünsche kaum bis gar nicht eingehen!

dildo4u
2014-03-22, 11:45:09
Das ist das ganz normale vorgehen bei Nvidia,die GTX 580 kam auch erstmal nur mit 1.5GB später mit 3.So bald es die V-Ram Preise zulassen bringen sie das große Modell,bei der Titan gingen gleich 6GB weil sie absurd teuer war.

Blediator16
2014-03-22, 11:59:48
Sonst wird die Marge nicht so hoch sein was :D

dildo4u
2014-03-22, 12:08:17
Kein Plan ob die Marge so viel besser als bei AMD ist der Chip ist größer und jetzt haben sie 6GB gegenüber 4GB.

horn 12
2014-03-22, 12:27:56
Wohl 8 GB gegen 6 GB zugunsten der Sapphire R9 290X Karte!

boxleitnerb
2014-03-22, 12:40:14
Wohl 8 GB gegen 6 GB zugunsten der Sapphire R9 290X Karte!

und was soll das bitte bringen? richtig, nix außer einem sinnlosen post von dir

fondness
2014-03-22, 12:43:39
"for free" (oder wahrscheinlich sogar zu einem geringeren Preis^^) nehme ich es auch gerne mit. Und im Zweifelsfall immer noch sinnvoller als Spieler welche die DP-Leistung der Titan als pro Argument aufführen. Kein Grund jemanden persönlich anzumachen.

aufkrawall
2014-03-22, 12:45:47
Welcher Depp tut denn so etwas...

horn 12
2014-03-22, 12:56:18
Nun, IHR seit mal wieder geil drauf!

@Box
Sollte als Hinweis dienen, bin nun aber wieder raus
und zocke lieber als hier zu diskutieren.

Botcruscher
2014-03-22, 12:57:33
Das ist doch typische NV Melktechnik. Erst gibt es nur kastrierte Chips, dann die Vollversion und irgendwann den Speicher. Die Vram- Preise haben damit überhaupt nichts gemein.

boxleitnerb
2014-03-22, 12:59:46
"for free" (oder wahrscheinlich sogar zu einem geringeren Preis^^) nehme ich es auch gerne mit. Und im Zweifelsfall immer noch sinnvoller als Spieler welche die DP-Leistung der Titan als pro Argument aufführen. Kein Grund jemanden persönlich anzumachen.

für spieler ist es vollkommen egal ob es 6 oder 8 gb sind. und wenn jemand unsinn postet, darf man das auch so anmerken, punkt

-/\-CruNcher-/\-
2014-03-22, 13:07:12
Wieder mal ein Beweis dafür wie Konkurrenz das Geschäft belebt, 6Gb 780 ud 780Ti wurden offensichtlich von NV frei gegeben:



http://videocardz.com/50008/evga-preparing-geforce-gtx-780-gtx-780-ti-6gb-memory

http://s30.postimg.org/5xvhkygu9/6_GB_Step_Up_Header.jpg (http://postimage.org/)

Damit wird freilich die Titan Black völlig überflüssig für Gamer.

Man sollte sich aber auch mal im klaren darüber sein das durch die Software und Hardware Technische Entwicklung die wir gerade gehen so viel Memory garnicht so dringend zwingend mehr gebraucht wird und die ganze sache aus einer sehr differenzierteren Sichtweise bewerten ;)

Schaffe89
2014-03-22, 15:06:03
Das ist das ganz normale vorgehen bei Nvidia,die GTX 580 kam auch erstmal nur mit 1.5GB später mit 3.So bald es die V-Ram Preise zulassen bringen sie das große Modell,bei der Titan gingen gleich 6GB weil sie absurd teuer war.

Ich glaub echt bei dir schaltet sich das Gehirn aus, wenn es um Nvidia geht.
Nvidia bringt nicht aus dem Grund die 6GB Karten, sondern weil die AMD Partner 8Gb Karten bringen.

Nvidia bewirbt ihre Titan unter anderem mit dem höheren Speicher und als die absolute Gamingkarte.

Hätte AMD die 290x standardmäßig mit 8GB ausgeliefert, gäbe es schon Monate 6GB Karten von NV.

und was soll das bitte bringen? richtig, nix außer einem sinnlosen post von dir


#Mehr ist immer besser als weniger.
Beim gleichen Preis würd ich jedenfalls die AMD mit 8GB statt Nvidia mit 6Gb kaufen.

für spieler ist es vollkommen egal ob es 6 oder 8 gb sind. und wenn jemand unsinn postet, darf man das auch so anmerken, punkt

Ich finde deinen Beitrag Unsinn, darf ich ja anmerken. :D

Man sollte sich aber auch mal im klaren darüber sein das durch die Software und Hardware Technische Entwicklung die wir gerade gehen so viel Memory garnicht so dringend zwingend mehr gebraucht wird

Wenn es Karten gibt die extrem viel Speicher haben, lässt sich vielleicht ein Entwickler darauf ein mal Content zu produzieren der zum Photorealismus neigt und der ordentlich V-ram zieht.
Außerdem kommen dieses Jahr die ersten erschwinglichen 4K Monitore, ich hab übrigens schon einen.
Da können 3Gb schon zum strammen Flaschenhals werden.

dildo4u
2014-03-22, 15:23:05
Die 8GB Karte ist eine Custom karte von Sapphire keine Standard AMD Karte.Es gibt kein Grund dagegen was zu bringen,da sie wie die 7970 6GB kein Konkurrenzfähigen Preis haben wird.

Iruwen
2014-03-22, 15:55:35
Beim gleichen Preis würd ich jedenfalls die AMD mit 8GB statt Nvidia mit 6Gb kaufen.

Wissen wir :rolleyes: Ist aber unmal sinnvoller sich dabei auch anzusehen inwiefern man das auch nutzen kann, z.B. durch Downsampling. Wenn horn recht hat und AMD das offiziell bringt...

fondness
2014-03-22, 16:17:28
Dieses Gerücht gibt es schon seit einer gefühlten Ewigkeit. Alles was AMD macht und gemacht hat ist das Gaming Evolved Titel Ingame Downsampling bekommen. An Downsampling über den Treiber glaube ich nicht mehr.

aufkrawall
2014-03-22, 16:24:34
horn erzählt gerne mal Stuss, ist hoffentlich nicht die einzige "Quelle".

fondness
2014-03-22, 16:31:29
Es gab dazu wohl schon konkrete Pläne, allerdings wurden ein paar Leute "entsorgt" die davon etwas hielten und mittlerweile ist das wohl in irgend einer Schublade verschwunden. Raff hat sich dazu AFAIk auch mal geäußert.

boxleitnerb
2014-03-22, 17:21:35
#Mehr ist immer besser als weniger.
Beim gleichen Preis würd ich jedenfalls die AMD mit 8GB statt Nvidia mit 6Gb kaufen.


Quatsch, das weißt du selber und trollst nur. Es kommt immer darauf an, um was es geht und von welchen Werten man spricht. 3 vs 4 ist was anderes als 3 vs 6 und das ist wieder was anderes als 6 vs 8.
Und abgesehen davon: Als ob ein einziger Faktor ausschlaggebend ist/sein sollte...so ein Schwachsinn. Auch das weißt du (eigentlich) besser. Features, Performance, Kühlung, Lautstärke usw usf.


Ich finde deinen Beitrag Unsinn, darf ich ja anmerken. :D


Also willst auch du deinen Postcounter mit sinnlosen Beiträgen hochtreiben? Wenn du wenigstens ein konkretes Argument gebracht hättest, aber so ist es einfach nur aus Spass/Trotz/Langeweile deinen Senf dazugeben.

Raff
2014-03-22, 22:26:17
Es gab dazu wohl schon konkrete Pläne, allerdings wurden ein paar Leute "entsorgt" die davon etwas hielten und mittlerweile ist das wohl in irgend einer Schublade verschwunden. Raff hat sich dazu AFAIk auch mal geäußert.

Mein letzter Stand lautet so ähnlich. Aber mal abwarten, was die Zukunft bringt. Wir wissen schließlich, dass Konkurrenz das Geschäft belebt ... ;)

MfG,
Raff

Blaire
2014-03-23, 01:56:14
NVIDIA Talks DX12, DX11 Efficiency Improvements
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Talks-DX12-DX11-Efficiency-Improvements

http://abload.de/img/api_efficiencys5xae.png (http://www.pcper.com/image/view/38821?return=node%2F59855)
These were obviously hand selected by NVIDIA so there may be others that show dramatically worse results, but it is clear that NVIDIA has been working to improve the efficiency of DX11. NVIDIA claims that these fixes are not game specific and will improve performance and efficiency for a lot of GeForce users. Even if that is the case, we will only really see these improvements surface in titles that have addressable CPU limits or very low end hardware, similar to how Mantle works today.

http://abload.de/img/dreamscometruevmsid.png (http://www.pcper.com/image/view/38822?return=node%2F59855)
If you include Mantle in the picture, it improves performance on the R9 290X by 87% - a HUGE amount! That result was able to push the StarSwarm performance past that of the GTX 780 Ti with the R331 and R334 drivers but isn’t enough to stay in front of the upcoming release.

Thief, the latest Mantle-based game release, shows a similar story; an advantage for AMD (using driver version 14.2) over the GTX 780 Ti with R331 and R334, but NVIDIA’s card taking the lead (albeit by a small percentage) with the upcoming driver.

Source: http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Talks-DX12-DX11-Efficiency-Improvements

Fernab von DX12 Zukunftsmusik, gibts wohl auch bald die nötige Wunder-Medizin für Mantle-Geplagte...?!? :tongue: :wink:

aufkrawall
2014-03-23, 09:07:10
Ach du kacke, wenn das stimmt.

fondness
2014-03-23, 09:24:08
So einfach? Ein neuer Treiber der Mantle im cpu-limit schlägt? Wenn das so einfach wäre warum hat man es dann nicht schon lange gemacht? Warum dann überhaupt Mantle? Warum dann überhaupt dx12?

aufkrawall
2014-03-23, 09:25:42
Mantle muss im CPU-Limit nicht geschlagen werden, ähnlich schnell reicht auch schon für ne Blamage.
Aber warten wir den Treiber mal ab.

OC_Burner
2014-03-23, 09:41:48
Die zweite Grafik mit dem Thief Diagramm ist doch wohl ein schlechter Witz. Die falsche Skalierung läßt es wie ein riesen Sprung aussehen der es überhaupt nicht ist. Daneben eine 290X D3D einfügen und das Diagramm bei Null anfangen lassen würde ein völlig anderes Bild abgeben.

Angiesan
2014-03-23, 09:42:19
Wenn die Leistung stimmt die hier angeschlagen wird ist das auf alle Fälle mal ein wirklich dickes Ding und hat wohl eine ähnliche Wirkung wie damals der Wundertreiber von AMD und BF4.

Vielleicht kann NV ja auch aus dem Mantle Patch Vorteile ziehen und den Treiber darauf optimieren, anders sind diese Sprünge ja sonst kaum erklärbar.
Wäre natürlich schon ein Ding wenn NV auch mit Mantel oder Teilen davon umgehen kann und dies nur nicht offiziell bestätigen will, was ich auch verstehen kann.

Mal sehen ob das jetzt bei anderen Mantle Spielen auch so kommt dann kann man vielleicht Rückschlüsse daraus ziehen;).

Botcruscher
2014-03-23, 09:51:22
Thief ist ja jedes mal 3FPS schneller.;D AMD und MS würden nicht so einen Aufriss machen, wenn man mal eben so gut wäre wie das NV-Marketing.

fondness
2014-03-23, 09:53:59
Die Benchs sind jedenfalls sicher nicht im CPU-Limit entstanden, dazu liegt die 290X in Thief zu schlecht und auch StarSwarm bringt zu wenig. Sind also wohl ganz normale Grafikoptmimierungen welche dann die avg fps bei entsprechender GPU-limitierung vor die 290X drücken.

Angiesan
2014-03-23, 10:01:31
Es geht nicht um die reinen FPS sondern darum ob die Skalierung ähnlich wie bei AMD ist die Star Swarm Werte lassen dies vermuten.

Abgesehen das wir hier im falschen Thread sind könnte man schon vermuten das DX 12= Mantle 1.1 ist und das nur nicht früher kommt weil AMD 2 Jahre exklusiv Rechte mit Mantle wollte ;-)

Viele hier, die wesentlich mehr Ahnung von der Materie haben wie ich, haben sich darüber ja schon sehr intensiv ausgelassen und geschrieben, dass vieles von Mantle sich in DX 12 wieder findet.
Vielleicht ist meine Vermutung auch zu naiv.

aufkrawall
2014-03-23, 10:01:39
Lies noch mal oben das fett markierte.

fondness
2014-03-23, 10:03:56
Abgesehen das wir hier im falschen Thread sind könnte man schon vermuten das DX 12= Mantle 1.1 ist und das nur nicht früher kommt weil AMD 2 Jahre exklusiv Rechte mit Mantle wollte ;-)


Warum sollte irgend jemand AMD 2 Jahre exklusiv Rechte einräumen?

135i
2014-03-23, 10:07:13
Die Benchs sind jedenfalls sicher nicht im CPU-Limit entstanden, dazu liegt die 290X in Thief zu schlecht und auch StarSwarm bringt zu wenig. Sind also wohl ganz normale Grafikoptmimierungen welche dann die avg fps bei entsprechender GPU-limitierung vor die 290X drücken.

Ist dann anscheinend in 1600p, wo Mantle 2% bringt. :D
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-2560-1600-fxaa-16xaf

fondness
2014-03-23, 10:08:13
Ist dann anscheinend in 1600p, wo Mantle 2% bringt. :D
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-2560-1600-fxaa-16xaf

Oder full-HD plus 4xSSAA würde von den fps halbwegs passen. Aber definitiv kein CPU-Limit. Thief kann man auch nur mit den integrieren Bench in Mantle benchen, deswegen kann man andere Szenen auch ausschließen.

Angiesan
2014-03-23, 10:09:22
Vielleicht weil sie es erfunden haben:-) Und man sich nur darauf geeinigt hat es als DX 12 für alle zugänglich zu machen was sicherlich den Entwicklern die Möglichkeit geben wird sich da einzuarbeiten und NV und MS nicht das Gesicht kostet.

135i
2014-03-23, 10:11:08
Oder full-HD plus 4xSSAA würde von den fps halbwegs passen. Aber definitiv kein CPU-Limit.

Daher ist Mantle bei 30" oder sehr hohen AA-Einstellungen quasi vernachlässigbar.

fondness
2014-03-23, 10:13:46
Daher ist Mantle bei 30" oder sehr hohen AA-Einstellungen quasi vernachlässigbar.

Das sehe ich aus verschiedenen Gründen anders aber das ist hier OT. :)

aufkrawall
2014-03-23, 10:17:21
Aha, also sollen die API-Funktionen, die auf dem einen Slide zu sehen sind, alle nur das GPU-Limit betreffen?
Du scheinst dich auszukennen.

StefanV
2014-03-23, 10:18:14
Warum sollte irgend jemand AMD 2 Jahre exklusiv Rechte einräumen?
Weil man 'nen verdammt guten Preis für die XBox1 APU bekommen hat?

fondness
2014-03-23, 10:23:19
Bitte löschen.

Angiesan
2014-03-23, 10:28:24
Ja ja mit der Ironie :D Aber mal Spaß bei Seite ich glaube denen ging ganz schön der Stift so offensiv habe ich NV selten gesehen.

Hübie
2014-03-23, 10:38:41
Das verdanken wir Mantle bzw. DICE die mal Eier hatten und sich gegen den Wind aufbäumten. BF4 ist zwar Schrott, aber technisch extrem vielseitig.
Soviel zu: "Mantle ist nur eine Randerscheinung" *hust* ;D ;D
@fondness: Bekommst du eigentlich Geld dafür? :|

Gaestle
2014-03-23, 10:40:20
Gedankenspiel:
Demirug hat mal gesagt, es gäbe ein Gerücht, dass Mantle "nur" ein Aufsatz auf einer DX12-Alpha sei. Angenommen, da ist was dran. Außerdem gibt es wohl schon "go live lizenzen" von DX12, mit denen die Devs schon rummachen können. Möglicherweise sehen wir hier die Resultate von solchen "go live lizenzen". Das würde aber bedeuten, das Teile von DX12 in Form von Mantle und jetzt NV-adaptierten Treibern schon vor offiziellem Release durch die Hintertür und ohne Bezeichnung eingeführt würden.

dargo
2014-03-23, 10:40:38
NVIDIA Talks DX12, DX11 Efficiency Improvements
http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Talks-DX12-DX11-Efficiency-Improvements

http://abload.de/img/api_efficiencys5xae.png (http://www.pcper.com/image/view/38821?return=node%2F59855)


http://abload.de/img/dreamscometruevmsid.png (http://www.pcper.com/image/view/38822?return=node%2F59855)


Source: http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-Talks-DX12-DX11-Efficiency-Improvements

Lustig zu sehen welche Ausmaße Mantle bei Nvidia ausgelöst hat. Denen geht der Arsch ganz schön auf Grundeis. ;D

Das verdanken wir Mantle bzw. DICE die mal Eier hatten und sich gegen den Wind aufbäumten. BF4 ist zwar Schrott, aber technisch extrem vielseitig.
Soviel zu: "Mantle ist nur eine Randerscheinung" *hust* ;D ;D

Absolut!

Ich kann mich noch sehr gut daran erinnern wie Mantle von einigen als nicht relevant abgestempelt wurde. Die Folgen sieht man gerade. :D Schön zu sehen, dass man so langsam auf den "Effizienzzug" aufspringt.

fondness
2014-03-23, 10:51:41
@fondness: Bekommst du eigentlich Geld dafür? :|

Nein, bekommst denn du Geld dafür? :|

aufkrawall
2014-03-23, 10:53:48
Lustig zu sehen welche Ausmaße Mantle bei Nvidia ausgelöst hat. Denen geht der Arsch ganz schön auf Grundeis. ;D

Vielleicht haben sie auch einfach Langeweile, weil CUDA 6 fertig ist...

Botcruscher
2014-03-23, 11:00:37
Vielleicht haben sie auch einfach Langeweile, weil CUDA 6 fertig ist...
Dann sollen sie mal PhysX auf einen brauchbaren Stand bringen.

Hübie
2014-03-23, 11:16:22
Vielleicht haben sie auch einfach Langeweile, weil CUDA 6 fertig ist...

;D der war gut ;D

dargo
2014-03-23, 11:16:44
Vielleicht haben sie auch einfach Langeweile, weil CUDA 6 fertig ist...
Ja... ganz bestimmt. ;D

aufkrawall
2014-03-23, 11:17:37
Dann sollen sie mal PhysX auf einen brauchbaren Stand bringen.
Es ist halt, so wie es meist eingesetzt wird, einfach relativ sinnfrei.
Sie sollten es in der Form lieber einstellen, es wird nie den Markt durchdringen und Spiele gameplaytechnisch aufwerten oder sonderbar glaubwürdiger machen.

Rente
2014-03-23, 11:28:12
Lustig zu sehen welche Ausmaße Mantle bei Nvidia ausgelöst hat. Denen geht der Arsch ganz schön auf Grundeis. ;D


Absolut!

Ich kann mich noch sehr gut daran erinnern wie Mantle von einigen als nicht relevant abgestempelt wurde. Die Folgen sieht man gerade. :D Schön zu sehen, dass man so langsam auf den "Effizienzzug" aufspringt.
Wenn irgendjemand bei nVidia der "Arsch auf Grundeis" gehen würde, würde sich das im UVP der Grafikkarten niederschlagen...
Es sind nach wie vor 2 Spiele mit Mantle, beide erst nachgepatcht, der Einfluss auf die Verkäufe dürfte doch überschaubar sein (LiteCoin usw. haben wohl deutlich mehr Einfluss auf die Verkäufe bei AMD...).

Und btw., das ist der 780 Ti-Thread, nicht DX12 oder Mantle...

Iruwen
2014-03-23, 15:12:50
Ist doch immer so, NV "geht der Arsch auf Grundeis" und AMD liefert das next big thing, und bei der nächsten Veröffentlichung der Geschäftszahlen sieht dann doch wieder alles aus wie eh und je :rolleyes: Sind ja auch immer die gleichen Leute, wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10154768#post10154768).

fondness
2014-03-23, 15:45:39
Oh Iruwen mal wieder dabei in verschiedenen Threads Leute persönlich anzupatzen, die nicht bei der NV-Lobhudelei mitmachen wie hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10155147#post10155147) oder hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10155142#post10155142). Wie charmant.

aufkrawall
2014-03-23, 16:44:34
Man muss nicht Sherlock heißen, um zu merken, dass du irgendwie mit AMD verbandelt bist.

fondness
2014-03-23, 16:52:32
Man muss nicht Sherlock heißen, um zu merken, dass du irgendwie mit AMD verbandelt bist.

Das gleiche könnte ich auch bei dir und NV behaupten, trotzdem wirf ich es dir nicht auf den Kopf.

Loeschzwerg
2014-03-23, 18:09:52
Das gleiche könnte ich auch bei dir und NV behaupten, trotzdem wirf ich es dir nicht auf den Kopf.

Dein Engagement bezüglich AMD Berichterstattung hier im Forum in allen Ehren (das ist durchaus ernst gemeint), aber irgendwie hat er nicht unrecht mit der Aussage ;) Selbst wenn man alle Beiträge ignoriert, deuten schon der Avatar und die Links in der Signatur darauf hin. Aber ich sehe das nicht so ernst solange es sich in Grenzen hält.

Abseits davon könnte ein Moderator den thread etwas säubern, mit dem Thema hat das hier alles recht wenig zu tun.

Ich bin ja gespannt ob sich langsam mal was bei den Preisen der 780 und 780Ti (3GB Modelle) tut, da herrscht schon viel zu lange Stillstand, dagegen werden die 290/290x regelrecht verschleudert.

Hübie
2014-03-23, 18:11:27
Wie immer bei nVidia :rolleyes: Ich wollte eigentlich auch von SLi weg, aber die kürzlich vorgestellten Frechheiten ääähm Karten taugen nicht wirklich als Ersatz für 770 SLi mit 4 GB.

M4xw0lf
2014-03-23, 19:45:09
Man muss nicht Sherlock heißen, um zu merken, dass du irgendwie mit AMD verbandelt bist.
Echt jetzt? :D

Wie immer bei nVidia :rolleyes: Ich wollte eigentlich auch von SLi weg, aber die kürzlich vorgestellten Frechheiten ääähm Karten taugen nicht wirklich als Ersatz für 770 SLi mit 4 GB.
Naja, deine 4GB-770er könntest du sicher noch recht gut verkaufen und dafür eine 780Ti 6GB anschaffen. Leistungstechnisch natürlich wenig sinnvoll, aber Single statt MultiGPU ;)

dargo
2014-03-23, 20:04:00
Ich bin ja gespannt ob sich langsam mal was bei den Preisen der 780 und 780Ti (3GB Modelle) tut, da herrscht schon viel zu lange Stillstand, dagegen werden die 290/290x regelrecht verschleudert.
Gab ja erst Ende Oktober/ Anfang November ne Preissenkung.
http://www.computerbase.de/2013-10/nvidia-senkt-geforce-gtx-780-und-770-im-preis/

Für eine weitere Preissenkung gibts momentan keinen wirklichen Grund. So schnell kommen keine neuen Produkte, auch nicht bei der Konkurrenz.

Loeschzwerg
2014-03-24, 08:29:17
780 und 290X liegen damit auf gleichem Preisniveau, nicht gerade der Hit. Letztendlich hat den Preisrutsch auch nur die hauseigene 780Ti verursacht.

Da sieht man mal wie wenig NV von Hawaii und Mantle beeindruckt ist :freak:

Kommt mir vielleicht aber auch alles nur so vor, weil ich den GK110 langsam echt als alten Hund empfinde.

Rente
2014-03-24, 08:37:10
Echt jetzt? :D


Naja, deine 4GB-770er könntest du sicher noch recht gut verkaufen und dafür eine 780Ti 6GB anschaffen. Leistungstechnisch natürlich wenig sinnvoll, aber Single statt MultiGPU ;)
Aktuell bekommt nur die normale 780 6GB, an der 6GB Ti arbeitet EVGA noch (vermutlich verhandeln sie noch...).

http://www.overclock.net/t/1475993/evga-step-up-your-gtx-780-to-6gb-update-6gb-gtx-780-ti-incoming-aswell#post_21987381

Blaire
2014-03-24, 21:25:26
Die zweite Grafik mit dem Thief Diagramm ist doch wohl ein schlechter Witz. Die falsche Skalierung läßt es wie ein riesen Sprung aussehen der es überhaupt nicht ist. Daneben eine 290X D3D einfügen und das Diagramm bei Null anfangen lassen würde ein völlig anderes Bild abgeben.

Das so ist üblich, ist bei AMD nicht anders.
http://scr3.golem.de/screenshots/1402/Thief_Catalyst_14.2_Beta/thumb620/2014-02-25_111535_cr.png ;)
Nachdem AMDs Thiefs "Mantle-Benchmark" so leicht durchgewunken und als Benchmark akzeptiert wurde, ist die Reaktion jedenfalls sehr gut nachvollziehbar. Malschaun was am Ende vom Mantle-Hype noch übrig bleibt. :D

dargo
2014-03-24, 21:36:47
Das so ist üblich, ist bei AMD nicht anders.
http://scr3.golem.de/screenshots/1402/Thief_Catalyst_14.2_Beta/thumb620/2014-02-25_111535_cr.png ;)

Die Skalierung ist auf der AMD-Folie genauso dämlich, da hast du völlig recht. Hier gibts nur einen kleinen aber feinen Unterschied. Auf der NV-Folie versucht Nvidia ihre angeblich überlegene DX11-API-Effizienz in Thief und Star Swarm Demo als solche zu verkaufen was völlig absurd ist. Fondness trifft es genau auf den Punkt.
Aber solche Marketingfolien mit der Ankündigung eines neuen Treiber der irgendwann kommen soll reicht offensichtlich schon aus das viele Leute glauben Mantle ist überflüssig, damit hat sich das ganze für NV schon mehr als ausgezahlt, man will schließlich Zeit gewinnen bis DX12, das in Wahrheit eh nichts anderes ist wie Mantle für alle.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10156641&postcount=5068

aufkrawall
2014-03-24, 21:46:24
Es fällt leider schon auf, dass du und viele andere User, die von der Materie eigentlich keine Ahnung haben (und deshalb schon mal die API-Calls auf dem einen Slide gar nicht verstehen können), sich ziemlich weit aus dem Fenster lehnen.
Oder seids neuerdings alles Entwickler?

Einfach mal die Gosch halten, bis der Treiber da ist.

N0Thing
2014-03-24, 21:55:01
Das so ist üblich, ist bei AMD nicht anders.
http://scr3.golem.de/screenshots/1402/Thief_Catalyst_14.2_Beta/thumb620/2014-02-25_111535_cr.png ;)
Nachdem AMDs Thiefs "Mantle-Benchmark" so leicht durchgewunken und als Benchmark akzeptiert wurde, ist die Reaktion jedenfalls sehr gut nachvollziehbar. Malschaun was am Ende vom Mantle-Hype noch übrig bleibt. :D

Die Skala ist auch bei AMD unentschuldbar. Nur schreiben sie in deinem Beispiel explizit die Rahmenbedingungen dazu, was Nvidia leider vergessen hat und dadurch auch der Eindruck entsteht, als wäre die ganze Geschichte nicht mehr als ein schwacher PR-Stunt. Eine echte Wundertreiberleistung aus dem Nichts erwartet hier im Forum doch wohl hoffentlich niemand, oder?

dildo4u
2014-03-24, 21:58:58
Nvidia labert nich nur sondern macht auch z.b ist im AMD Treiber immer noch kein DX11 Multithreading drin,und warum soll nich noch massig Potenzial in DX11 liegen.Manche scheinen zu vergessen das die Masse an Entwicklern,grad mal jetzt Angefangen haben sich das Feature Level anzugucken,ebend weil's erst jetzt neue Konsolen gibt.

dargo
2014-03-24, 22:15:20
Es fällt leider schon auf, dass du und viele andere User, die von der Materie eigentlich keine Ahnung haben (und deshalb schon mal die API-Calls auf dem einen Slide gar nicht verstehen können), sich ziemlich weit aus dem Fenster lehnen.
Oder seids neuerdings alles Entwickler?

Einfach mal die Gosch halten, bis der Treiber da ist.
Im Moment fällt mir halt auf, dass Nvidia mit allen Mitteln versucht vom Thema CPU-Limitierung in Games abzulenken und eben dafür gpu-limitierte Szenen postet wo man mit der 780TI wieder leicht vor der R9 290X steht. Für mich ist das gezielte Kundentäuschung. Oder auf gut deutsch Verarschung.

Nvidia labert nich nur sondern macht auch z.b ist im AMD Treiber immer noch kein DX11 Multithreading drin,und warum soll nich noch massig Potenzial in DX11 liegen.
Ja... man sieht besonders hier eindrucksvoll wieviel das implementierte DX11 Multithreading Nvidia tatsächlich bringt. :rolleyes:
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf

Und die Schwäche vom NV-Treiber bei weniger als 4 Threads wurde offenbar auch schon schnell vergessen. Wo ist da die Wunderwaffe von Nvidia geblieben?

aufkrawall
2014-03-24, 22:20:42
Wir wissen gar nicht, auf welche Situationen sich diese Slides letztlich beziehen.
Abgesehen davon würd ich mich mal nicht an Thief aufhängen, der integrierte Benchmark ist Moppelkotze².

Iruwen
2014-03-24, 22:21:45
Deshalb ist es ja auch gut, dass es unabhängige Reviews gibt. Auf PR-Folien sollte man grundsätzlich nichts geben. Und allen anderen fällt übrigens auf, dass dargo offensichtlich eine Mission hat und ständig wegen jeder Lappalie ein Fass sondergleichen aufmacht.

dargo
2014-03-24, 22:25:49
Deshalb ist es ja auch gut, dass es unabhängige Reviews gibt. Auf PR-Folien sollte man grundsätzlich nichts geben. Und allen anderen fällt übrigens auf, dass dargo offensichtlich eine Mission hat und ständig wegen jeder Lappalie ein Fass sondergleichen aufmacht.
Ich amüsiere mich halt momentan über den verzweifelten Versuch von Nvidia. Lass mir den Spaß einfach mal. ;) Ich muss sogar zugeben, dass ich am Anfang selbst drauf reingefallen bin weil ich mich nicht sofort näher mit den Bedingungen auseinander gesetzt habe (letzter Satz).
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10154789&postcount=672

Hübie
2014-03-24, 23:49:11
Echt jetzt? :D


Naja, deine 4GB-770er könntest du sicher noch recht gut verkaufen und dafür eine 780Ti 6GB anschaffen. Leistungstechnisch natürlich wenig sinnvoll, aber Single statt MultiGPU ;)

Ja habe die Nachricht eben erst gelesen. Hat EVGA es also doch geschafft nVidia breit zu schlagen :cool: Ich wette die wird Titan ersetzen. Also auch vom aktuellen Preispunkt her (~850 Euro).

Blaire
2014-03-25, 09:13:59
Die Skalierung ist auf der AMD-Folie genauso dämlich, da hast du völlig recht. Hier gibts nur einen kleinen aber feinen Unterschied. Auf der NV-Folie versucht Nvidia ihre angeblich überlegene DX11-API-Effizienz in Thief und Star Swarm Demo als solche zu verkaufen was völlig absurd ist. Fondness trifft es genau auf den Punkt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10156641&postcount=5068

Quelle Kaffeesatz ? In naher Zukunft werden noch reichlich DX11 Games erscheinen von WatchDogs über Assassins Creed: Unity, Batman: Arkham Knight , Project Cars, The Division, The Witcher3 usw. Was liegt da näher, als die DX11-Effizienz weiter zu optimieren?
Prima für uns GeForce-Owner und darum geht es, das Gaming-Erlebnis weiter zu steigern, das Optimum zu erreichen. Wie im Falle von Battlefield4 bereits geschehen.

PS: Verstehe die Aufregung nicht. Ihr habt doch euer Mantle, somit kaum Draw-Call Limits zu fürchten, ungeahnte Sphären usw. und das "StarSwarmen" nicht zu vergessen, zumindest solange noch Zeit dafür bleibt. :comfort:

dildo4u
2014-03-25, 10:19:14
Ja... man sieht besonders hier eindrucksvoll wieviel das implementierte DX11 Multithreading Nvidia tatsächlich bringt. :rolleyes:
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/#diagramm-thief-1280-720-fxaa-16xaf

Und die Schwäche vom NV-Treiber bei weniger als 4 Threads wurde offenbar auch schon schnell vergessen. Wo ist da die Wunderwaffe von Nvidia geblieben?
Das Game nutzt kein DX11 Multithreading das muss extra eingebaut werden es ist z.b bei Project Cars drinn.

http://www.computerbase.de/2013-11/amd-radeon-r9-290-test/4/#diagramm-project-cars-1920-1080

Außerdem ist Cars das weltweit zweite Spiel, das auf DX11-Multithreading-Support setzt

http://www.pcgameshardware.de/Project-CARS-PC-238576/News/Project-Cars-Release-2013-und-DX11-Multithreading-Support-907019/

Wenn AMD das auch seit 2011 unterstützt hätte könnten mehr Entwickler drauf setzen aber nein AMD muss ja ihre eigene Suppe kochen und DX11 vernachlässigen.

dargo
2014-03-25, 10:41:29
Quelle Kaffeesatz ?

Gesunder Menschenverstand.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10156318&postcount=5033

Tief ist eindeutig im GPU-Limit getestet worden.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/

Frames sind einiges tiefer als in 1600p bei CB. In 720p sieht man sehr gut was passiert wenn die Szene im CPU-Limit liegt.


In naher Zukunft werden noch reichlich DX11 Games erscheinen von WatchDogs über Assassins Creed: Unity, Batman: Arkham Knight , Project Cars, The Division, The Witcher3 usw. Was liegt da näher, als die DX11-Effizienz weiter zu optimieren?

Spricht grundsätzlich nichts dagegen sollte irgendwo im Treiber noch brachliegende Leistung schlummern. Dann soll Nvidia das aber gefälligst entsprechend präsentieren und nicht mit GPU-Limits ablenken.


PS: Verstehe die Aufregung nicht. Ihr habt doch euer Mantle, somit kaum Draw-Call Limits zu fürchten, ungeahnte Sphären usw. und das "StarSwarmen" nicht zu vergessen, zumindest solange noch Zeit dafür bleibt. :comfort:
Wie du schon im ersten Link siehst sagen die avgs. von Star Swarm bei der aktuellen Version überhaupt nichts mehr aus da sie hochgradig gpu-limitiert sind. Es gibt in den 6 Minuten nur wenige einzelne stark cpu-limitierte Szenen die durch die ausgespuckten avgs. völlig unter gehen. Da hilft nur ein Frameverlauf um das zu zeigen.

Schaffe89
2014-03-25, 10:49:47
Verstehe die Aufregung nicht. Ihr habt doch euer Mantle, somit kaum Draw-Call Limits zu fürchten, ungeahnte Sphären usw. und das "StarSwarmen" nicht zu vergessen, zumindest solange noch Zeit dafür bleibt

Nvidia versucht die User schlichtweg zu belügen.
Ich verstehe zwar dass das Marketing ist, aber irgendwo hört es für mich auf, alles durch Merketing zu rechtfertigen.

Ich kann nicht von verringertem CPU Overhead sprechen und denn Benches im GPU Limit zu machen, das ist genau derselbe Blödsinn, den AMD damals mit Bulldozer gemacht hat, Benchmarks im GPU Limit anzufertigen und dann zu sagen Bulldozer ist schneller.

Nvidia denkt wirklich die User sind blöd und glauben den Hoax.

Iruwen
2014-03-25, 11:01:09
Schwere Anschuldigungen. Dafür würde ich erstmal etwas Konkreteres abwarten als eine PR-Folie.

Schaffe89
2014-03-25, 11:17:22
Sagt der Besitzer eine Nvidia GPU Grafikkarte.;D
Es ist wirklich witzig hier, alle Antworten die man darauf bekommt und vom wem sind schon vorher abschätzbar.:usad:

dargo
2014-03-25, 11:43:01
Das Game nutzt kein DX11 Multithreading das muss extra eingebaut werden es ist z.b bei Project Cars drinn.

http://www.computerbase.de/2013-11/amd-radeon-r9-290-test/4/#diagramm-project-cars-1920-1080

Was möchtest du mir jetzt mit dem Link beweisen? Schau nur mal was eine HD7970GE vs. HD7950 Boost oder R9 290X vs. R9 290 dort liefert. Wo siehst du da ein CPU-Limit? Das einzige was ich in diesem Test erkennen kann ist, dass im GPU-Limit die Software momentan Nvidia besser liegt. Das kann viele Ursachen haben. Zb. ist es immer noch eine Alpha und deshalb ist AMD an einer Optimierung für diese Software scheinbar im Moment wenig interessiert. Wenn das Game irgendwann mal final ist können wir gerne nochmal über die Performance sprechen.


http://www.pcgameshardware.de/Project-CARS-PC-238576/News/Project-Cars-Release-2013-und-DX11-Multithreading-Support-907019/

Wenn AMD das auch seit 2011 unterstützt hätte könnten mehr Entwickler drauf setzen aber nein AMD muss ja ihre eigene Suppe kochen und DX11 vernachlässigen.
:facepalm:

Dieses "-DX11MT" ist noch höchst experimentell.
http://forum.wmdportal.com/showthread.php?4194-dx11MT&p=621610&viewfull=1

Wo siehst du hier Vorteile bei den Frames? Das einzige was man erkennen kann ist, dass die Threadauslastung etwas höher ist. Nur leider ist die Implementierung momentan für den Popo. Was bringt mir eine höhere Auslastung wenn die Frames dabei sogar etwas tiefer liegen als ohne MT?

dildo4u
2014-03-25, 12:08:29
Es ist CPU limitiert mit AMD die 290X ist bei Projekt Cars 17% schneller als die 7970Ghz,im Schnitt aller Games sind es 22%.

http://www.computerbase.de/2013-11/amd-radeon-r9-290-test/3/

Darum bekommt das Game ja auch Mantle weil es extrem CPU limitiert ist,nur erreicht man denn selben Effekt wenn man DX11 Multithreading genutzt hätte.

gnomi
2014-03-25, 12:17:50
Der Vergleich selbst ist einfach PR und soll Mantle eben abwehren und kleinreden.
Prinzipiell stimmt jedoch, dass noch viele spannende DX 11 Titel mit nvidia Goodies kommen.
Auch die verbesserte Performance durch Treiber ist imho bei GK 104 & 110 absolut gegeben.
Es läuft zwar alles soweit OOTB, aber es gab schon für viele Engines weitreichende Optimierungen.
Ob der AMD Weg überhaupt besser ist, wenn jetzt tatsächlich DX 12 anrollt, wage ich auch zu bezweifeln. (DX 12 wäre eh gekommen und erscheint mit Ende 2015 nicht mal groß vorgezogen)

gedi
2014-03-25, 12:17:52
Pcars ist für den Moment ein schlechtes Beispiel, da seit letztem Patch die min-FPS um über 100% gestiegen sind und es sich so endlich sehr fluffig spielen lässt.

dargo
2014-03-25, 12:37:59
Es ist CPU limitiert mit AMD die 290X ist bei Projekt Cars 17% schneller als die 7970Ghz,im Schnitt aller Games sind es 22%.

http://www.computerbase.de/2013-11/amd-radeon-r9-290-test/3/

Darum bekommt das Game ja auch Mantle weil es extrem CPU limitiert ist,nur erreicht man denn selben Effekt wenn man DX11 Multithreading genutzt hätte.
Sorry dildo... aber du liegst völlig daneben. Mir fällt es auch schwer da einzeln drauf einzugehen. Und, dass pCars Mantle-Support bekommt wäre mir neu. Bisher hat sich afaik nur der Entwickler zu Mantle mal geäußert. Von einer gesicherten Implementierung habe ich bisher nichts gelesen.

Iruwen
2014-03-25, 14:34:26
Ich erinnere mich auch nur, dass er etwas zu Mantle allgemein gesagt hat, nicht zu einer Implementierung in pcars.

dildo4u
2014-03-25, 14:36:36
Es sollte besser kommen wenn sie ne Chance haben wollen.

dargo
2014-03-25, 15:48:21
Ich erinnere mich auch nur, dass er etwas zu Mantle allgemein gesagt hat, nicht zu einer Implementierung in pcars.
Jup... so war das.
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Project-Cars-AMD-Mantle-Draw-Call-Performance-1094387/

Pcars ist für den Moment ein schlechtes Beispiel, da seit letztem Patch die min-FPS um über 100% gestiegen sind und es sich so endlich sehr fluffig spielen lässt.
Hmm... muss ich mal wieder anschmeißen und schauen ob die CPU-Last wieder abgenommen hat. Meinst du zufällig das hier aus der Build 688?

* Material shader tracking: vastly reduces the amount of shader changes we issue. (saved approximately 2800 calls to DX11 with a full start grid)

http://forum.wmdportal.com/showthread.php?646

dargo
2014-03-25, 21:07:51
Dieses "-DX11MT" ist noch höchst experimentell.
http://forum.wmdportal.com/showthread.php?4194-dx11MT&p=621610&viewfull=1

Wo siehst du hier Vorteile bei den Frames? Das einzige was man erkennen kann ist, dass die Threadauslastung etwas höher ist. Nur leider ist die Implementierung momentan für den Popo. Was bringt mir eine höhere Auslastung wenn die Frames dabei sogar etwas tiefer liegen als ohne MT?
Übrigens... dieses "-DX11MT" ist auch auf AMD-Graka langsamer (gerade getestet). Ohne MT sind die Frames im CPU-Limit 8% höher als mit MT. Also ein ähnliches Verhalten wie bei Nvidia. Ich denke man kann sich ausmalen auf welchen Stand die Implementierung momentan ist. Da steckt noch jede Menge Arbeit für SMS an wenn sie eine höhere Framerate durch besseres Multithreading erreichen wollen. Aber immerhin stürzt das Game bei der Build 690 mit MT und AMD nicht mehr ab. Das war vor ein paar Builds noch ganz anders... direkt eine Fehlermeldung. Dürfte wohl damit zusammen hängen.
Build 689
Render:
* Fix for -DX11MT crash on boot
http://forum.wmdportal.com/showthread.php?646

aufkrawall
2014-03-26, 18:59:03
Habe nun die MSI 780 Ti Gaming da.
Muss ich bei nvflash (Windows) --updateuefi nutzen? Kann da beim unpassenden Command was schiefgehen?
Will die TDP per Bios-Flash hochsetzen. Die GPU scheint selbst ohne Vcore-Erhöhung sehr taktfreudig zu sein (1250Mhz und mehr) und bleibt dabei ziemlich kühl.

Raff
2014-03-26, 19:00:27
... die Wandler aber nicht.

MfG,
Raff

aufkrawall
2014-03-26, 19:14:49
Ohne Vcore-Erhöhung wichtig?

Thunder99
2014-03-26, 19:54:23
Ist nicht die max. VCore gelocket und fest wie bei der GTX680?

MartinRiggs
2014-03-26, 19:56:00
Habe nun die MSI 780 Ti Gaming da.
Muss ich bei nvflash (Windows) --updateuefi nutzen? Kann da beim unpassenden Command was schiefgehen?
Will die TDP per Bios-Flash hochsetzen. Die GPU scheint selbst ohne Vcore-Erhöhung sehr taktfreudig zu sein (1250Mhz und mehr) und bleibt dabei ziemlich kühl.

und bist du lautstärketechnisch genauso zufrieden wie ich mit meiner Non-Ti?
Warum bist du wieder weg von der R9 290? zu laut? Treiberprobleme?

Ohne Vcore-Erhöhung wichtig?

ohne V-Core Erhöhung werden die doch nur marginal wärmer.

Blaire
2014-03-26, 20:08:28
Gesunder Menschenverstand.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10156318&postcount=5033
Thief ist eindeutig im GPU-Limit getestet worden.
http://www.computerbase.de/2014-03/amd-mantle-thief-benchmarks/2/

Nicht ganz zu Ende gedacht, 1440p und 2xSS (Low-Setting) würde bereits ausreichen, hier vergleichbare Werte zu erreichen, diese Theorie platzen zu lassen, da eben kein vollständiges GPU-Limit gegeben ist. Vorausgesetzt, es kam tatsächlich der interne Benchmark zum Einsatz. Im SLI würde sich das bsplw. nur mehr verschärfen, dank höheren Verwaltungsaufwand für die CPU und somit niedrigerer GPU-Auslastung, was sich mit Anzahl der GPUs noch mehr verschärfen würde. Und wenn es NV gelang die Cores besser auszulasten bzw. CPU-Overhead zu reduzieren, ist das schon eine feine Sache.
Ich würde mich an deiner Stelle auch bei Star Swarm nicht zu sehr auf GPU-Limits versteifen.

aufkrawall
2014-03-26, 20:11:30
Ist nicht die max. VCore gelocket und fest wie bei der GTX680?
Kann man per Bios-Flash erhöhen. Scheint mir aber, wie schon bei GK104, relativ sinnfrei zu sein ohne Wasserkühlung.

und bist du lautstärketechnisch genauso zufrieden wie ich mit meiner Non-Ti?
Warum bist du wieder weg von der R9 290? zu laut? Treiberprobleme?
Das Ding wird wirklich nicht sehr laut, im Standardzustand kaum hörbar. Auch jetzt mit OC bei 1,25Ghz bei Anno mit SGSSAA bleibts recht leise.
Von den Radeons bin ich weg wegen Mischung aus schlechter Hardware, schlechtem OC-Potential und nervigen Treibern.
Fühlt sich einfach nur eklig an. Die MSI 780 Ti scheint mir kein schlechter Deal zu sein. Leider neigt sie etwas zu Spulenfiepen, worüber ich aber hinweg sehen kann, wenn der Rest stimmt.

Die Performance in Bf4 ist schon genial, da läuft sie momentan mit 1290Mhz. Da stinkt jede Radeon komplett gegen ab. Auch die Frametimes scheinen sehr gut zu sein, kann keine Stocker o.ä. bemerken. Kein Vergleich zum 2GB 670 SLI.


ohne V-Core Erhöhung werden die doch nur marginal wärmer.
Davon wär ich jetzt auch ausgegangen.

Habe btw. ohne jegliche gesonderten Parameter geflasht und hat geklappt. Trotzdem limitiert das PT in harten Situationen noch. Hoffentlich krieg ich das noch in den Griff.

aufkrawall
2014-03-26, 20:23:29
Doppelpost, weil wichtig: Wird wohl nichts mit dem TDP-Limit.
Gibts eine Möglichkeit, den Boost und das Bremsen durchs Powertarget komplett zu deaktivieren?
Wenn ja, wär es schön, wenn mir das jemand erklären könnte.

dargo
2014-03-26, 20:35:53
Nicht ganz zu Ende gedacht, 1440p und 2xSS (Low-Setting) würde bereits ausreichen, hier vergleichbare Werte zu erreichen, diese Theorie platzen zu lassen, da eben kein vollständiges GPU-Limit gegeben ist.

In Thief ist überhaupt kein vollständiges GPU-Limit notwendig. Wir reden hier von lächerlichen ~6% bei diesem Diagramm zu Gunsten vom neuen Treiber bei NV vs. AMD @Mantle.
http://www.pcper.com/image/view/38822?return=node%2F59855

Es gibt nicht nur die eine oder die andere Extreme was Limits angeht. Die Limits gehen fließend ineinander über. Das sieht man auch sehr gut beim Test von CB. Die GTX780TI @DirectX und R290X @Mantle nehmen sich bei 1600p nichts. Bei 1080p senkt sich die GPU-Last um Faktor X und somit kann sich AMD dank Mantle um 22% von der NV absetzen. Bei noch stärkeren Absenkung der GPU-Last dank 720p steigt der Vorteil von AMD durch Mantle weiter auf 42% bei den avgs.


Vorausgesetzt, es kam tatsächlich der interne Benchmark zum Einsatz.

Was glaubst du denn wie Nvidia das Ergebnis bei AMD @Mantle in Thief ermittelt hat? Wie war das nochmal mit dem "nicht zu Ende gedacht"? ;) Oder möchtest du mir jetzt erzählen Nvidia hat bei AMD den intergrierten Benchmark verwendet und bei sich selbst ein frei gewähltes Savegame? Sorry, aber für so dämlich schätze ich nicht mal Nvidia ein. :tongue:


Ich würde mich an deiner Stelle auch bei Star Swarm nicht zu sehr auf GPU-Limits versteifen.
Du musst dir schon etwas mehr Mühe geben wenn du mich vom Gegenteil überzeugen möchtest.

Rente
2014-03-26, 20:45:19
Doppelpost, weil wichtig: Wird wohl nichts mit dem TDP-Limit.
Gibts eine Möglichkeit, den Boost und das Bremsen durchs Powertarget komplett zu deaktivieren?
Wenn ja, wär es schön, wenn mir das jemand erklären könnte.
Es ist möglich, es gibt entsprechend angepasste Bios-Varianten bzw. du kannst das mit dem Kepler Bios Tweaker auch selbst machen (so weit ich weiß), hier gibt es aber verschiedene Varianten (die MSI-Gaming hat doch das Standard-PCB, oder?):
http://www.overclock.net/t/1438886/official-nvidia-gtx-780-ti-owners-club

€: Alternativ kannst du natürlich auch hier noch mal nachfragen: http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-700-600-serie-bios-files-932143-105.html, auf Seite 1 gibt es aber auch eine Anleitung für den Tweaker 1.27 inkl. TDP-Anpassungen.

Ach und alle GTX7xx haben UEFI-Unterstützung ootb, da musst du beim Flashen meines Wissens überhaupt nichts beachten (außer eben wenn der Vendor des Bios abweicht z.B.) - jedenfalls hab ich das bei meiner Gigabyte Ref-Ti nicht gemacht und Windows 8.1 läuft bei mir mit UEFI komplett ohne CSM oder ähnliches.

Ach und btw. @Dargo: Threadtitel gesehen? Macht dafür doch einen eigenen Thread auf...

MartinRiggs
2014-03-26, 20:49:21
Fühlt sich einfach nur eklig an. Die MSI 780 Ti scheint mir kein schlechter Deal zu sein. Leider neigt sie etwas zu Spulenfiepen, worüber ich aber hinweg sehen kann, wenn der Rest stimmt.

Die Performance in Bf4 ist schon genial, da läuft sie momentan mit 1290Mhz. Da stinkt jede Radeon komplett gegen ab. Auch die Frametimes scheinen sehr gut zu sein, kann keine Stocker o.ä. bemerken. Kein Vergleich zum 2GB 670 SLI.



Freut mich,

meine fiept auch minimal, aber nur wenn es Richtung 1000FPS geht.
Die Performance unter BF4 ist wirklich gut, vermisse da auch nix.

aufkrawall
2014-03-26, 21:31:07
Toller Post, Rente. Danke.
Ich hab noch etwas mit den Rail-Limits usw. rumgespielt (alles extrem hoch gestellt), nun kann ich jeden OC-Takt konstant halten.
Es scheint sogar die Taktreduktion des Boosts gleich mit abgestellt worden zu sein, bei 71 & 81°C wird der Takt nicht mehr reduziert.
Die Karte bleibt so bei Anno 1404 mit 4xSGSSAA (Post Effects aus) immerhin mit 1250/3850Mhz bei 78°C.

Martin, es fiept bei mir schon bei niedrigen fps etwas mehr. Hat mich aber beim Spielen bisher nicht gestört. Spulenfiepen kann ja auch noch leiser werden, mal abwarten.

MartinRiggs
2014-03-26, 22:27:08
naja solange es dich nicht zu sehr stört.
Leider fiepen (fast) alle GTX780TI etwas stärker.

Generell gilt wohl, je stärker die Graka desto stärker die Fiepneigung.
Ich hatte mal ne 7970 die hat mir selbst bei niedrigen FPS fast Lieder vorgesungen, war ein absolutes No-GO. :freak:

Rente
2014-03-26, 23:45:59
Gegen das Fiepen hilft undervolten ganz gut, meine läuft mit 1,1V bei 1230 MHz leiser als bei 1,15V bei 1200 MHz - mit 1,05V ist es quasi weg, dann schafft sie aber nur ca. 1150 MHz stabil (wird aber quasi überhaupt nicht heiß)...
Überhaupt ist Undervolten bei der Ti eigentlich ganz empfehlenswert, viele Karten schaffen mit 1,075-1,1V 1200 MHz, da muss die Kühllösung dann auch nicht so "schuften".

Mit Wakü ist das aber auch nerviger als mit Lüfter, ich hab mich nach dem Umbau vom lauten Ref-Kühler (bei OC) etwas erschrocken, vorher ist mir das fast nicht aufgefallen.
Ich hab dann sogar u.A. deswegen noch das Netzteil gewechselt, womit es noch ein bisschen weniger wurde. :freak:

Hoffentlich nimmt sich nVidia bei Maxwell auch dieser Geräuschquelle an, es scheint ja fast direkt mit dem Strombedarf zusammen zu hängen (senkt man das PT, ist das Fiepen quasi weg, kommt man über die 106% mit offenem Bios wird es störend).

Thunder99
2014-03-27, 00:10:17
Ist ja auch logisch, da die Spulen niedrigere Frequenz haben (um es einfach auszudrücken)

Blaire
2014-03-27, 00:42:36
In Thief ist überhaupt kein vollständiges GPU-Limit notwendig. Wir reden hier von lächerlichen ~6% bei diesem Diagramm zu Gunsten vom neuen Treiber bei NV vs. AMD @Mantle.
http://www.pcper.com/image/view/38822?return=node%2F59855

Zum Glück teste ich immer noch alles selbst. Muss mich dabei nicht auf irgendwelche Web-Scores stützen. Deine Aussage ist Unsinn, du behauptest ständig von GPU-Limit obwohl du weder die Settings welche zum Test herangezogen wurden kennst, noch wie sich der Ingame-Benchmark in der Praxis verhält.
Glücklicherweise verwende ich exakt diese CPU incl. Grafikkarte, welche auch bei den angegebenen Benchmarks zum Einsatz kam.
Sehr gerne würde ich dir eigene Vergleiche präsentieren, nur muss ich mich da an gewisse Regeln halten. Du machst es dir jedenfalls ziemlich einfach bei der Beurteilung , das ist der Punkt der mich hierbei stört, schalt einfach mal einen Gang runter.

Screemer
2014-03-27, 02:06:25
leere aussagen und völlig ohne inhalt. leg doch auf den tisch. dargo hat schon dargelegt, wie er zu der vermutung gpu-limit kommt. 2ghz cpu-takt unterschied machen bei ihm bei 6 kernen nur ein paar frames unterschied. er hat das amd grafikpendant dazu getestet. jetzt bist du dran.

Blaire
2014-03-27, 03:14:43
leere frasen ohne inhalt. pack auf den tisch. dargo hat schon dargelegt, wie er zu der vermutung gpu-limit kommt. 2ghz cpu-takt unterschied machen bei ihm bei 6 kernen nur ein paar frames unterschied. er hat das amd grafikpendant dazu getestet. jetzt bist du dran.

Lies nochmal richtig...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10157109&postcount=702
"Dann soll Nvidia das aber gefälligst entsprechend präsentieren und nicht mit GPU-Limits ablenken."
Es ist dabei völlig uninteressant, niedrige Auflösungen weniger CPU-limitiert sind oder nicht, daß weiß man eh. ;) In diesem speziellen Fall, 1440p + 2xSS trifft dies nicht zu, ob hier am Ende 2,3 oder 5fps zusätzlich bei rumkommen, ist doch völlig Schnuppe. So einfach hergehn und alles mit GPU-Limits abzutun, ist mir zu einfach, warum hab ich bereits erwähnt incl. der Verweis auf MultiGPU.

Screemer
2014-03-27, 03:42:27
Lies nochmal richtig...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10157109&postcount=702
"Dann soll Nvidia das aber gefälligst entsprechend präsentieren und nicht mit GPU-Limits ablenken."
Es ist dabei völlig uninteressant, niedrige Auflösungen weniger CPU-limitiert sind oder nicht, daß weiß man eh.
dein satz ist ziemlich unverständlich. 1440p + 2xSS soll bei thief kein überwiegendes gpu-limit erzeugen? das ist doch das auf was er hinaus möchte. die slides sind völlig sinnfrei. auch hat dargo dir schon erklärt, warum der 6 minuten starswarm-run für die katz ist. du scheinst das aber nicht verstehen zu wollen.

Blaire
2014-03-27, 08:21:40
1440p + 2xSS soll bei thief kein überwiegendes gpu-limit erzeugen?
Wow. Wie sich das wohl erst im SLI auswirkt? :o
das ist doch das auf was er hinaus möchte.
widewidewitt? Ich setze voraus das man sich die Slides vorher richtig anschaut und versteht, nicht gleich drauflos schreit. Zwischen DX11 Advancements und API-Effizienz-Steigerungen sollte man schon unterscheiden können.
die slides sind völlig sinnfrei.
Guten Morgen. Stay Tuned...
auch hat dargo dir schon erklärt, warum der 6 minuten starswarm-run für die katz ist. du scheinst das aber nicht verstehen zu wollen.
Du meinst die Tester schaffen es nicht, einen halbwegs akkuraten Frameverlauf mitzuloggen? Keine Sorge, zur Not bekomm ich das auch noch hin.

dargo
2014-03-27, 09:46:31
Wow. Wie sich das wohl erst im SLI auswirkt? :o

Was hat hier bei der Diskussion in Bezug auf dieses Diagramm SLI verloren?
http://www.pcper.com/image/view/38822?return=node%2F59855

Dort wurde eine GPU genommen und kein SLI. Dass sich Limits mit einer zweiten GTX780TI schlagartig verschieben können ist doch völlig logisch. Schließlich erhöhst du dadurch die GPU-Leistung deutlich.

Kriton
2014-03-27, 13:50:45
Du meinst die Tester schaffen es nicht, einen halbwegs akkuraten Frameverlauf mitzuloggen? Keine Sorge, zur Not bekomm ich das auch noch hin.

Nein, das bezog sich darauf, dass die Benchmarkszene ungeeignet ist. Also kein Problem der, sondern für die Tester.

Blaire
2014-03-28, 03:12:40
Was hat hier bei der Diskussion in Bezug auf dieses Diagramm SLI verloren?
http://www.pcper.com/image/view/38822?return=node%2F59855

Dort wurde eine GPU genommen und kein SLI. Dass sich Limits mit einer zweiten GTX780TI schlagartig verschieben können ist doch völlig logisch. Schließlich erhöhst du dadurch die GPU-Leistung deutlich.

Das war nur eine Anspielung, da du dich gern an diesen 6% aufhängst, scheinbar aber nicht bedacht hattest, daß dies im SLI Modus bei optimalerer Core-Lastverteilung und Synchronization zu deutlich höheren Werten führen kann, die GPUs besser ausgelastet werden können.
Mit den aktuellen R334 und Thief-Benchmark verhungert SLI regelrecht , dies könnte sich nun ändern.
Das müsste nur mal von den großen Hardware-Sites getestet werden, aber da habe ich so meine Zweifel ob das gelingt, siehe Battlefield4 und den ganzen "Benchmurks" der letzten Zeit...

dargo
2014-03-28, 15:01:44
Das war nur eine Anspielung, da du dich gern an diesen 6% aufhängst, scheinbar aber nicht bedacht hattest, daß dies im SLI Modus bei optimalerer Core-Lastverteilung und Synchronization zu deutlich höheren Werten führen kann, die GPUs besser ausgelastet werden können.
Mit den aktuellen R334 und Thief-Benchmark verhungert SLI regelrecht , dies könnte sich nun ändern.

Auch das ist völlig am Thema vorbei. SLI hat hier wirklich nichts verloren. Ursprünglich ging es um die Effizienz der DX11 API bei den NV-Folien. Effizienz von SLI ist ganz die Aufgabe vom IHV, jedenfalls @DirectX.

whtjimbo
2014-03-29, 12:49:58
Wird beim Referenzkühler durch die Anhebung des Temperaturtargets auf 95° die Drehzahl des Lüfters dadurch auch verringert (im Auto-Mode)? Bleibt dann der (durchschnittliche) Boost dann auch bei ca. 1Ghz oder geht er deutlich runter im Vergleich zum default-TT von 83°?

Rente
2014-03-29, 12:54:23
Im Gegenteil, der Lüfter dreht bis 83°C genauso, danach ansteigend schneller.
Der durchschnittliche Boost wird dann quasi nur noch durch das PowerTarget begrenzt (es sei denn, die Kühllösung ist am Ende), wenn du vorher 83°C erreichen konntest, wird er dann stabiler sein (der max. Boost wird aber nicht höher sein).

whtjimbo
2014-03-29, 13:23:22
Ah, das ist schade, ich dachte dass der höhere TT die Drehzahl reduziert. Es schien mir logisch, wenn die Ti bei ca. 1Ghz den Sweetspot von ca. 83° hat, dann könnte vielleicht sie auf 95° gehen, dort stabil bleiben und die Drehzahl wäre geringer, da sie nicht auf 83° runterkühlen muss.
Scheint also, dass der PT (bzw. der tatsächliche Verbrauchsleistung) priorisiert die Drehzahl steuert.
Hatte gehofft, dass ich mir die EVGA 780Ti Superclocked (sie boostet auf ca. 1100Mhz) mit dem Referenzkühler kaufen kann, den TT auf 95° setzen kann und ich dadurch zwar heissere aber leisere Karte haben kann.

Raff
2014-03-29, 13:30:47
Das kannst du natürlich – musst nur die Lüfterkurve im Afterburner oder Precision manuell zurechtzupfen. :)

MfG,
Raff

whtjimbo
2014-03-29, 13:34:04
Vielen Dank an Euch beide, stimmt das wäre die Lösung.
Schafft der Referenzkühler 1.1Ghz die 95° im normal belüfteten Gehäuse sagen wir mit 50% der Lüftergeschwindigkeit?

LSSJBroly
2014-03-29, 13:47:15
Schafft der Referenzkühler 1.1Ghz die 95° im normal belüfteten Gehäuse sagen wir mit 50% der Lüftergeschwindigkeit?

Ist abhängig der Spannung, die die Karte für 1,1GHz braucht. In der Regel sollte das beim Referenzdesign auch bei ~1,162V in etwa möglich sein. Ich schreibe gerade einen Artikel über den GPU-Boost (mit einer referenz GTX 780) und wie sich dieser bei verschiedenen PT- und TT-Einstellungen in einem Gehäuse verhält (danke PCGH für's erstellen von eigenen Artikeln:D)

aufkrawall
2014-03-30, 12:47:29
Bei Codas CSRT geht mit GK110 ohne Drosselung der Stromverbrauch durch die Decke, hier auf ~160% TDP. Das kann auch bei besserer VRM-Kühlung nicht gesund sein.
Habe deshalb das PT auf 130% begrenzt. So taktet sie immer noch über 1,2Ghz (bei BF4 sinds konstante 1260), aber der Stromverbrauch explodiert nicht mehr. Netter Nebeneffekt ist, dass es bei fast gleicher Performance auch noch deutlich leiser bleibt.
Gar nicht mal so sinnfrei, dieses Powertarget. :redface:
Ähnlich können auch Spiele mit forciertem SGSSAA heizen, Gothic 3 mit 8x kam auch schon auf 150%.

Ich weiß nicht, obs am Mod-Bios oder Treiber lag, aber bei Skyrim hatte ich manchmal das Problem, dass die Karte in den P2-State absackte und nicht mehr rausging. Habe das dadurch gelöst, dass ich per Inspector P2 als Max-State festgelegt und dann diesen übertaktet habe.

whtjimbo
2014-03-30, 12:54:44
@aufkrawall:
wie schnell dreht der Lüfter deiner MSI wenn sie auf Vollast ist?
Man hört manchmal, dass die MSI wirklich leise ist (also so. 1400-1600rpm, manchmal aber 1900rpm). Manche empfinden auch 2400rpm einer Gigabyte Windforce als leise, aber das ist in meinen Ohren nicht wirklich leise sondern noch gerade akzeptabel, die Windforce GHz soll sogar auf 3000rpm hochgehen, das ist dann eine echte Turbine.

aufkrawall
2014-03-30, 13:26:41
Ohne OC kann das bei guter Belüftung mit den 1500rpm schon hinkommen.
Ist aber auch mit 2k nicht laut.

whtjimbo
2014-04-11, 21:20:40
Seit 2 Tagen habe ich jetzt auch eine EVGA 780TI Superclocked. Da ich hier paar mal gefragt habe, vielleicht interessiert es einige, wie der Kühler im Vergleich zum Windoforce Kühler ist:

Wie erwartet läuft sie bei Unigine Valley, BF4 etc. mit ca. 1.1Ghz (genauergenommen liegt der Boost zwischen 1084-1111), dabei wird sie ca. 82-83 Grad heiss. Der Lüfter dreht dann bis auf 60% auf (gute 2500rpm). Die Lautstärke entspricht dann meiner alten Gigabyte 670 Windforce mit etwas über 2400rpm. Leise ist dann die Karte nicht, es ist aber akzeptabel.
Was aber etwas nervt ist das Spulenfiepen ...
Das ist manchmal deutlich zu hören, manchmal ist es eher leise. Dabei ist mir aufgefallen, dass gerade dann, wenn die Karte "kalt" ist (<80Grad), läuft sie dann mit ca. 1.175-1.15V mit eben 1.1Ghz und das Fiepen ist bei dieser Spannung deutlich zu hören.

Wenn man die Karte aber ein wenig mit AB anpasst:(Temperaturtarget: 80 Grad,
Coreclock: +91Mhz, Rest ist default) boostet sie weiterhin im 1.1Ghz Bereich, der Lüfter dreht im Automatikmodus dann mit max. 52% (unter 2200rpm), die Karte ist jetzt deutlich leiser und das Spulenfiepen vermidert sich stark, ist aber noch hörbar. Die Spannung bei dem 1.1Ghz Bereich liegt bei ca. 1.05V (schwankt manchmal zwischen 1.0375V bis 1.0625V).
Tatsächlich lässt sich meine Karte beim Temperaturtarget von 80 Grad und manueller Lüfterkurve auch problemlos mit 50% (ca. 2050rpm) stabil bei ca. 1.1Ghz halten.

In die andere Richtung geht sie bis ca. 1.175Ghz-1.2Ghz (1.175V), Lüfter läuft mit ca. 60%, Temperatur bleibt bei ca. 82-83Grad, was aber dann negativ auffällt ist das besagte Spulenfiepen bei 1.175V.

gedi
2014-04-12, 01:07:06
@ Krawall

ich wollte dir eine PN zukommen lassen, was allerdings fehlschlug.

Was mir auffällt ist, dass die Lüfter sich zischen einer 780-Gaming und einer 290-Gaming unterscheiden müssen, da auf der AMD die Lüfter ab 1700RPM unerträglich und vom BBA-Design nicht mehr zu unterscheiden sind.

whtjimbo
2014-04-12, 10:48:35
Vielleicht ist das eigene Empfinden der Lautstärke einfach nur unterschiedlich? Ich meine damit, dass 1700-1900rpm der Frozr Lüfter nicht von jedem als leise empfunden werden. Wenn ich bspw. die Windforce Lüfter auf 3000rpm einstelle, was der Lüftergeschwindigkeit einer Gigabyte 780Ti Ghz Edition entsprechen soll, dann kann ich mir gar nicht vorstellen, damit zu leben. Manche kaufen die Karte und sind trotzdem damit zufrieden.