PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 780: (P)Review-Thread


Seiten : [1] 2 3 4

Raff
2013-05-23, 15:02:30
Nvidia Geforce GTX 780 im Test: Wie viel Titan steckt in der 649-Euro-Grafikkarte? (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Geforce-GTX-780-Test-Review-1070700/)

Geforce GTX 780: Mit 4 oder 5 Graphics Processing Clusters - Die Hintergründe (http://www.pcgameshardware.de/Geforce-GTX-780-Hardware-257241/Specials/GTX-780-4-oder-5-Graphics-Processing-Clusters-1070833/)

MfG,
Raff

DiGiTaL
2013-05-23, 15:04:23
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/26376-test-nvidia-geforce-gtx-780.html

dildo4u
2013-05-23, 15:04:45
Techreport

http://techreport.com/review/24832/nvidia-geforce-gtx-780-graphics-card-reviewed

anandtech

http://www.anandtech.com/show/6973/nvidia-geforce-gtx-780-review

hardwarecanucks

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/61310-nvidia-geforce-gtx-780-review.html

Techpowerup mit Gigabyte 780 OC 1Ghz Boost

http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_780_OC/3.html

Schneller als Titan ab Werk.

Iruwen
2013-05-23, 15:10:45
HT4U

http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/

(del676)
2013-05-23, 15:14:44
- Verbraucht mehr als eine 7970 GHE
- ist unter Last lauter als eine 7970 GHE
+ ist 22% schneller als eine 7970 GHE
- mit ~650€ um 85% teurer als eine 7970 GHE -> Preis/Leistung also mies (und da rechne ich das Never Settle Bundle garnicht mit ein!)

john carmack
2013-05-23, 15:19:41
- Verbraucht mehr als eine 7970 GHE
- ist unter Last lauter als eine 7970 GHE
+ ist 22% schneller als eine 7970 GHE
- mit ~650€ um 85% teurer als eine 7970 GHE -> Preis/Leistung also mies (und da rechne ich das Never Settle Bundle garnicht mit ein!)


HT4U sagt zur Leistung was anderes:

"AMDs Radeon HD 7970 GHz Edition gibt es hingegen zu Preisen ab zirka 345 Euro. Gegenüber einer typischen GTX 780 liegt man hier etwa bis 5 Prozent in der Leistung zurück – oder eben bis zu 16 Prozent, wenn man die Limits der GeForce händisch aushebelt. In einer Preisrelation steht dies allerdings noch immer nicht."

(del676)
2013-05-23, 15:23:45
Ja merk ich auch grad. +22% Performancevorteil, finden nur die nvidia freundlichsten Reviewer. X-D

Iruwen
2013-05-23, 15:24:22
- Verbraucht mehr als eine 7970 GHE
- ist unter Last lauter als eine 7970 GHE

Wenn man sich aus den gegebenen Reviews die Worst Cases rauspickt kommt das natürlich hin.

boxleitnerb
2013-05-23, 15:25:17
HT4U fällt ja wie üblich etwas aus dem Muster. Bei Computerbase mit Vorheizen sind es schon 16% ohne Eingriff.

derguru
2013-05-23, 15:28:42
großes plus ist der selbe kühler. die rambeschneidung wird man eh nie bemerken und wenn es doch mal soweit kommen sollte wird sie wiederum zu langsam sein um damit was anfangen zu können.

und es gibt sogar schon customdesigns, für ~500€ würde es gar nichts mehr zu meckern geben.;)

Iruwen
2013-05-23, 15:29:14
Weiß nicht, bis ein würdiger Nachfolger für die 780 kommt gibts vielleicht schon die ersten Next-Gen Konsolenports die einem den VRAM gnadenlos vollballern.

HT4U fällt ja wie üblich etwas aus dem Muster. Bei Computerbase mit Vorheizen sind es schon 16% ohne Eingriff.

Dafür steht sie bei denen was Leistungsaufnahme und Lautstärke angeht auch sehr gut da. Bzw. die 7970 sehr schlecht.

fondness
2013-05-23, 15:29:18
HT4U fällt ja wie üblich etwas aus dem Muster. Bei Computerbase mit Vorheizen sind es schon 16% ohne Eingriff.

Vorheizen ist auch weitgehend sinnlos. Da reichen schon ein paar Sekunden idle und die Temperaturen sind im Keller. Entweder man fixiert den Takt oder man lässt es bleiben und geht anderweitig auf den Turbo ein.

prinz_valium
2013-05-23, 15:30:02
lauter als eine 7790 ghz?
was? ich dachte der titan kühler sei so gut und leise

mit dem preis lag ich ja gut bei 649 euro

(del676)
2013-05-23, 15:30:18
Wenn man sich aus den gegebenen Reviews die Worst Cases rauspickt kommt das natürlich hin.

War dasselbe Review, indem sie auch glorreiche 22% schneller ist, fuer nur 85% mehr Kohle. Wahrscheinlich duerfte der Verbrauch und die Lautstaerke, direkt mit dem Speed zusammenhaengen. ;) ;)

Peter Gräber
2013-05-23, 15:33:31
HT4U fällt ja wie üblich etwas aus dem Muster. Bei Computerbase mit Vorheizen sind es schon 16% ohne Eingriff.

Wenn ich mir unsere Abstände der GTX 680 zur 780 ansehe und die der 780 zur Titan, sehe ich prozentual die gleichen Abstände wie bei der Computerbase ;).

fondness
2013-05-23, 15:33:37
- Verbraucht mehr als eine 7970 GHE


Die Leistungsaufnahme der 7970Ghz Edition schwankt EXTREM von Review zu Review. Alle die noch immer das Referenzdesign als Maßstab nehmen haben viel zu hohe Werte, alle die custom-Design testen sehen die 7970Ghz sparsamer als die GTX780.

ShadowXX
2013-05-23, 15:39:46
Die Gigabyte 780 OC zieht aber ganz gut weg (besonders bei 1440p)....speziell da diese nicht teurer sein soll.

Raff
2013-05-23, 15:42:22
Die Leistungsaufnahme der 7970Ghz Edition schwankt EXTREM von Review zu Review. Alle die noch immer das Referenzdesign als Maßstab nehmen haben viel zu hohe Werte, alle die custom-Design testen sehen die 7970Ghz sparsamer als die GTX780.

Mit dem GHz-Edition-Referenzdesign hat sich AMD einfach keinen Gefallen getan. Es wurde von keinem Partner übernommen und wird trotz brüllender Lautstärke heiß. Das bleibt hängen.

MfG,
Raff

fondness
2013-05-23, 15:49:11
Mit dem GHz-Edition-Referenzdesign hat sich AMD einfach keinen Gefallen getan. Es wurde von keinem Partner übernommen und wird trotz brüllender Lautstärke heiß. Das bleibt hängen.

MfG,
Raff

Gerade da es nie verkauft wurde sollte man es als Redakteur nicht als Referenz nehmen. :)

boxleitnerb
2013-05-23, 15:50:58
Wenn ich mir unsere Abstände der GTX 680 zur 780 ansehe und die der 780 zur Titan, sehe ich prozentual die gleichen Abstände wie bei der Computerbase ;).

Ich weiß ja nicht, bei euch kommen Nvidia-Karten generell immer schlechter weg als in allen anderen Reviews, auch die, die den Boost differenzierter betrachten. Naja, die Vielfalt machts.

dildo4u
2013-05-23, 15:51:15
NV lässt noch massig Performance brach liegen.

http://www.abload.de/img/perf_ocpexhb.gif

http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_780_OC/29.html

Raff
2013-05-23, 15:56:16
Gerade da es nie verkauft wurde sollte man es als Redakteur nicht als Referenz nehmen. :)

Apples to apples. Custom-Designs gibt's bei der PCGH regelmäßig im Heft.

MfG,
Raff

ShadowXX
2013-05-23, 15:57:49
NV lässt noch massig Performance brach liegen.

http://www.abload.de/img/perf_ocpexhb.gif

http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_780_OC/29.html
Wohl um die Titan-Käufer nicht zu verärgern.....

Angiesan
2013-05-23, 15:58:51
Klasse Karte und zumindest etwas vernünftiger wie die Titan! Der Unterschied in der Performance ist wie bei der GTX 670 zur 680 im Alltag wird man davon eh nie was merken und das PT scheint auch nicht so gnadenlos eng gesteckt zu sein wie bei der Titan, erscheint mit als das rundere Paket wenn man wie bei der Titan mal den Preis ausklammert bzw. sich nur mehr in "Grünen" Lager umschaut da ist das PL eigentlich recht gut im Vergleich zur Titan und 680er. Auch hat man nicht das Gefühl was Beschnittenes zu bekommen denn die Titan ist ja auch nicht der Vollausbau also gefällt mir eigentlich recht gut.

Ab wann kann man das Ding eigentlich kaufen?

LSSJBroly
2013-05-23, 16:01:06
Tja, nun heißt's: willkommen EVGA GTX 780 :D
Nun ja, die sache mit den GPCs ist zwar nicht so schön, ich glaube aber nicht, dass das die Karte mehr als 2-5% beschleunigen würde; sonst hätte man ja volle Titan-power xD

Iruwen
2013-05-23, 16:03:24
Für 600-650€ würde ich eine 780 inkl. Wakü drauf kaufen.

Raff
2013-05-23, 16:08:04
Wohl um die Titan-Käufer nicht zu verärgern.....

Bei Titan gibt's doch ein ähnliches Potenzial. Die ohne Mod zu betreiben ist fast schon fahrlässig. ;)

MfG,
Raff

AnarchX
2013-05-23, 16:08:48
Was hat sich den EVGA da gedacht: http://eu.evga.com/articles/00746/#2780 :freak:

M4xw0lf
2013-05-23, 16:11:10
Was hat sich den EVGA da gedacht: http://eu.evga.com/articles/00746/#2780 :freak:

Die haben sich gedacht: eine edel aussehende 650€-Karte kann jeder - wir stoßen in die Marktlücke für teure Karten mit billigem Plastikcharme! ^^

boxleitnerb
2013-05-23, 16:15:28
Vorheizen ist auch weitgehend sinnlos. Da reichen schon ein paar Sekunden idle und die Temperaturen sind im Keller. Entweder man fixiert den Takt oder man lässt es bleiben und geht anderweitig auf den Turbo ein.

Nö. Computerbase hat in fast der Hälfte der Spiele den Basistakt gehabt. Und zwischen dem und dem 900 MHz Boosttakt liegen 2% Performanceunterschied bei HT4U. Das macht im Schnitt dann vielleicht 1% Unterschied zwischen dem CB und dem HT4U Review. Nur sprechen die Benchmarks eine andere Sprache. Nämlich 16% (780 vs 7970 GHz) bei CB und 5% bei HT4U, wobei die 7970 GHz nur mit 1000 MHz und nicht mit 1050 taktet. Also wäre es eigentlich sogar eher Gleichstand. Eine Diskrepanz von ca. 15% Prozentpunkten zwischen den Reviews also, die mit dem Turbo kaum was zu tun hat. 5% ok, bei 10% muss man schon ein Auge zudrücken, aber 15% bei sovielen Spielen, da ist was faul.

Wenn ich mir dann noch überlege, dass rechnerisch eher 4,5% zwischen 863 und 901 MHz liegen, sind die Ergebnisse von HT4U noch merkwürdiger. Bei CB skaliert die 780 mit mehr Takt in den Sondertests auch nicht perfekt, aber so miserabel wie bei HT4U absolut nicht.

Knuddelbearli
2013-05-23, 16:19:04
Peter macht sich deutlich mehr mühe passende Spielszenen herauszusuchen die das Spiel sogut wie möglich repräsentieren. Er sucht nicht nur in den ersten paar Levels danach sondern im ganzen Spiel. Im Zweifelsfall würde ich da eindeutig HT4U vertrauen.

Was passiert wenn man nur die ersten paar Level anguckt sah man ja zuletzt beim Crysis3 CPU Test von PCGH.

Peter Gräber
2013-05-23, 16:19:19
Ich weiß ja nicht, bei euch kommen Nvidia-Karten generell immer schlechter weg als in allen anderen Reviews, auch die, die den Boost differenzierter betrachten. Naja, die Vielfalt machts.
Und das beobachtest du genau seit wann? Nicht zufällig erst seit der GTX 680, bei welcher wir das Boostverhalten sehr differenziert betrachtet haben?

EDIT: Wo steht denn, dass CB mit den dort gelisteten Taktraten gebencht hat? Wolfgang schreibt doch lediglich irgendwo, dass sie mit Vorlaufzeit benchmarken?

EDIT2: Ich hab jetzt mal die prozentualen Abstände bei uns mit PCGH verglichen und das ist überwiegend deckungsgleich, abgesehen von MP3 und Dirt: Showdown.

derguru
2013-05-23, 16:21:33
ich finde es aus preislicher sicht noch im rahmen,650€ launchpreis heißt imo in paar tagen ~599€.wird jedenfalls kein ladenhüter im gegensatz zum großen bruder.

boxleitnerb
2013-05-23, 16:24:00
Und das beobachtest du genau seit wann? Nicht zufällig erst seit der GTX 680, bei welcher wir das Boostverhalten sehr differenziert betrachtet haben?

EDIT: Wo steht denn, dass CB mit den dort gelisteten Taktraten gebencht hat? Wolfgang schreibt doch lediglich irgendwo, dass sie mit Vorlaufzeit benchmarken?

Was soll "unser Takt" sonst sein? Ich gehe einfach mal davon aus, dass man beim Benchen protokolliert bzw. hingesehen hat (EVGA Precision o.ä.). Und selbst wenn das Ding bei CB konstant mit 900 MHz Turbo gelaufen wäre, gäbe es immer noch einen deutlichen Unterschied zwischen euren Ergebnissen. 900/863=4,3%. Nicht 16%.

Peter macht sich deutlich mehr mühe passende Spielszenen herauszusuchen die das Spiel sogut wie möglich repräsentieren. Er sucht nicht nur in den ersten paar Levels danach sondern im ganzen Spiel. Im Zweifelsfall würde ich da eindeutig HT4U vertrauen.

Was passiert wenn man nur die ersten paar Level anguckt sah man ja zuletzt beim Crysis3 CPU Test von PCGH.

Und du weißt, dass CB das anders macht, woher? Ich argumentiere wenigstens anhand von den veröffentlichen Ergebnissen und behaupte nicht irgendwas, was ich nicht belegen kann.

M4xw0lf
2013-05-23, 16:25:45
ich finde es aus preislicher sicht noch im rahmen,650€ launchpreis heißt imo in paar tagen ~599€.wird jedenfalls kein ladenhüter im gegensatz zum großen bruder.

Ladenhüter? Alle 3 Titans haben sich doch glänzend verkauft (Achtung: Hyperbel.) :wink:

maximus_hertus
2013-05-23, 16:29:04
Für 600-650€ würde ich eine 780 inkl. Wakü drauf kaufen.

+1

Bei 499 Euro für die GTX + ca. 100 Euro für den Wasserkühler könnte man schwach werden. Allerdings wird es wohl noch dauern, bis die 780er im Preis etwas nachgibt und dann ist es auch schon zu spät (ich gehe mal davon aus, dass die HD 8970 wohl schneller werden wird und noch 2013 erscheinen wird).

Knuddelbearli
2013-05-23, 16:31:00
Und du weißt, dass CB das anders macht, woher? Ich argumentiere wenigstens anhand von den veröffentlichen Ergebnissen und behaupte nicht irgendwas, was ich nicht belegen kann.

zB den Mist den CB öfters bencht zB Skyrim Indoor :freak:
Aber ist schon klar dir gefällt das HT4u Ergebnis nichts das weiss man ja schon vorher ^^

boxleitnerb
2013-05-23, 16:33:29
zB den Mist den CB öfters bencht zB Skyrim Indoor :freak:
Aber ist schon klar dir gefällt das HT4u Ergebnis nichts das weiss man ja schon vorher ^^

Beleg? Und in Dungeons hält man sich ja auch gar nicht auf, nein.
Mir ist klar, dass du wieder mal keine vernünftigen Argumente hast, das wusste ich ja schon vorher.

Frech von HT4U ist übrigens auch, dass sie ja zeigen, dass nach 15 Minuten im Spiel höhere Taktraten anliegen als der Basistakt, sogar teilweise als der Durchschnittsboost - aber in den Benchmarks selbst beschränkt man die Karte dann maximal auf 901 MHz und gibt noch das 863 MHz-Ergebnis dazu, obwohl dieser Takt nur in einem einzigen Spiel der ganzen Testsuite anliegt (Anno 2070). Und das soll seriös sein???

Gipsel
2013-05-23, 16:39:36
Leute, geht Euch doch nicht gleich an die Kehle darüber. Sonst hole ich noch die Benchmarks von hardware.fr raus. ;)

fondness
2013-05-23, 16:42:51
Nö. Computerbase hat in fast der Hälfte der Spiele den Basistakt gehabt.

Ja am Ende des Benchs haben sie den Basistakt, am Anfang wohl kaum. Genau das ist ja der Punkt warum der Turbo zweifelhaft ist.

derguru
2013-05-23, 16:44:02
Leute, geht Euch doch nicht gleich an die Kehle darüber. Sonst hole ich noch die Benchmarks von hardware.fr raus. ;)

gib doch gleich den link. (http://www.hardware.fr/articles/894-1/nvidia-geforce-gtx-780-test-gk110-tous-ou-presque.html) :popcorn:

boxleitnerb
2013-05-23, 16:45:17
Ja am Ende des Benchs haben sie den Basistakt, am Anfang wohl kaum. Genau da ist ja der Punkt warum der Turbo zweifelhaft ist.

Beweis? Siehe HT4U, die haben mit Aufwärmen im Spiel und dem Protokollieren der Taktraten nur einmal von 15 Spielen den Basistakt erreicht nach 15 Minuten (ohne deine vermutete Idle-Pause!). Könnt ihr vielleicht mal erst dann etwas behaupten, wenn ihr es auch belegen könnt? Wäre echt hilfreich für eine vernünftige Diskussion.

fondness
2013-05-23, 16:47:09
Beweis? Siehe HT4U, die haben mit Aufwärmen im Spiel und dem Protokollieren der Taktraten nur einmal von 15 Spielen den Basistakt erreicht nach 15 Minuten (ohne deine vermutete Idle-Pause!). Könnt ihr vielleicht mal erst dann etwas behaupten, wenn ihr es auch belegen könnt? Wäre echt hilfreich für eine vernünftige Diskussion.

Das war deine Aussage:

Nö. Computerbase hat in fast der Hälfte der Spiele den Basistakt gehabt.

ShadowXX
2013-05-23, 16:48:55
Bei Titan gibt's doch ein ähnliches Potenzial. Die ohne Mod zu betreiben ist fast schon fahrlässig. ;)

MfG,
Raff
Das ist klar....aber wir müssen in dem Fall ja von Titan Referenz ausgehen, was anderes kann nV ja nicht machen.
Und Sie müssen dann halt mit der 780 unter der Titan bleiben.

Und das beobachtest du genau seit wann? Nicht zufällig erst seit der GTX 680, bei welcher wir das Boostverhalten sehr differenziert betrachtet haben?

Schon immer. Ich konnte noch nie ein einziges Benchmarkergebnis von HT4U nachvollziehen.....egal ob nun nV oder ATI.

boxleitnerb
2013-05-23, 16:50:14
Das war deine Aussage:

Ja, und weißt du auch warum? Weil CB aufgewärmt hat. Hätten sie das nicht, würde ich dir zustimmen. Ich denke, Wolfgang ist kompetent genug zu merken, ob das Aufwärmen was bringt oder nicht. Sonst wär die Arbeit nämlich für die Katz.

Am Besten wäre, die Reviewer würden die anliegenden Taktraten einfach mitprotokollieren während dem Benchen und dann unter den Ergebnissen veröffentlichen. Das Festklemmen auf einen Wert ist wenig Arbeit, aber praxisnah ist es nicht.

Peter Gräber
2013-05-23, 16:51:44
Beweis? Siehe HT4U, die haben mit Aufwärmen im Spiel und dem Protokollieren der Taktraten nur einmal von 15 Spielen den Basistakt erreicht nach 15 Minuten (ohne deine vermutete Idle-Pause!). Könnt ihr vielleicht mal erst dann etwas behaupten, wenn ihr es auch belegen könnt? Wäre echt hilfreich für eine vernünftige Diskussion.

Wir stützen uns dabei hierauf und hierauf:
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index10.php
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index9.php

Darüber hinaus weiß ich nicht was du willst. Wenn du dir das hier in Ruhe anschaust, kommt die NVIDIA doch überhaupt nicht schlecht weg:
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_780_review/index47.php?dummy=&advancedFilter=false&prod[]=AMD+Radeon+HD+7970+GHz+[1000+MHz]&prod[]=NVIDIA+GeForce+GTX+780+[863+MHz]&filter[0][]=1680&filter[0][]=1920&filter[0][]=2560&filter[2][]=1&filter[2][]=2&filter[2][]=2+x+2+SSAA&filter[2][]=2x2+SSAA&filter[2][]=4&filter[2][]=8&filter[2][]=SSAA&filter[3][]=16&aa=all

Es sind die Menge der Resultate und das daraus gezogene Mittel, welches letzten Endes den Index ausmacht. Wenn du magst, dann zieh lediglich deine Lieblingstitel zu Rate und gut ist.

gedi
2013-05-23, 16:53:55
CB hat mit 13.2b6 gebencht, HT4U mit 13.5b2 ;)

fondness
2013-05-23, 16:54:13
Ja, und weißt du auch warum? Weil CB aufgewärmt hat. Hätten sie das nicht, würde ich dir zustimmen. Ich denke, Wolfgang ist kompetent genug zu merken, ob das Aufwärmen was bringt oder nicht. Sonst wär die Arbeit nämlich für die Katz.

Du vermischt hier Kraut und Rüben. Das ist der Takt der nach 15 Minuten "Aufheizen" anliegt. Das heißt noch lange nicht das dieser Takt auch zum Start des Benchmarks anliegt. Wenn man konsequent wäre müsste man den "Aufheiztakt" bei jeden Spiel fix festpinnen. Aber klar ist aufheizen besser als nichts. Das ändert nichts daran das schon wenige Sekunden idle reichen um die Temps deutlich zu drücken. Der positive Benchmarkeffekt der Turbos wird so vielleicht abgeschwächt, aber sichert nicht eliminiert.

aufkrawall
2013-05-23, 16:56:32
Mit OC Custom Design nette Karte, macht Titan imho relativ überflüssig (die Kuh ist wohl auch abgemolken?).
Für 550€ wärs akzeptabel.

boxleitnerb
2013-05-23, 17:04:55
Du vermischt hier Kraut und Rüben. Das ist der Takt der nach 15 Minuten "Aufheizen" anliegt. Das heißt noch lange nicht das dieser Takt auch zum Start des Benchmarks anliegt. Wenn man konsequent wäre müsste man den "Aufheiztakt" bei jeden Spiel fix festpinnen. Aber klar ist aufheizen besser als nichts. Das ändert nichts daran das schon wenige Sekunden idle reichen um die Temps deutlich zu drücken. Der positive Benchmarkeffekt der Turbos wird so vielleicht abgeschwächt, aber sichert nicht eliminiert.

Es heißt aber ebensowenig, dass dieser Takt nicht anliegt bei Benchmarkbeginn. Man weiß es schlicht nicht. Und durch das Festpinnen wird ebenfalls nicht berücksichtigt, dass es im Spiel durchaus Phasen gibt, in denen die GPU auch höher takten kann. Auch wäre wichtig, wie der Aufheiztakt überhaupt ermittelt wird. Rumstehen bei einer extrem fordernden Szene oder bei einer mittleren Szene? Oder Gameplay (szenenabhängig und daher eher nicht reproduzierbar).

Ich bleibe dabei - Takt festpinnen ist Unsinn. Vielmehr sollte man wenn man so sehr auf Praxisnähe fixiert ist, spielen und dann zu benchen anfangen ohne Unterbrechung durch Ladezeiten etc. Wenn der Takt dabei höher ist ok, wenn er niedriger ist auch ok.

Raff
2013-05-23, 17:06:40
Mit OC Custom Design nette Karte, macht Titan imho relativ überflüssig (die Kuh ist wohl auch abgemolken?).
Für 550€ wärs akzeptabel.

Pro Takt ist Titan 16,7 Prozent schneller, dazu gibt's den doppelten Grafikspeicher. Das muss jeder selbst entscheiden, welche der zu teuren Karten er kauft. :D Was für die GTX 780 spricht, kommt erst noch: hoffentlich geile Designs, die bei Titan verboten wurden.

MfG,
Raff

derguru
2013-05-23, 17:10:47
die gigabyte ist doch schon mal ein anfang,~ 10°C kühler als die referenz.

MechWOLLIer
2013-05-23, 17:23:09
Peter macht sich deutlich mehr mühe passende Spielszenen herauszusuchen die das Spiel sogut wie möglich repräsentieren. Er sucht nicht nur in den ersten paar Levels danach sondern im ganzen Spiel. Im Zweifelsfall würde ich da eindeutig HT4U vertrauen.
Stell dir vor: Wir spielen das Spiel vorher auch durch, nehmen uns dann in etwa zehn Savegames und schauen, welches sich am besten eignet ;)

EDIT: Wo steht denn, dass CB mit den dort gelisteten Taktraten gebencht hat? Wolfgang schreibt doch lediglich irgendwo, dass sie mit Vorlaufzeit benchmarken?
Wir benchen natürlich auch mit den Taktraten, die wir bei den Turbo-Tests herausgefunden habe. Wäre anonsten ja auch ein wenig sinnlos, das ganze.

zB den Mist den CB öfters bencht zB Skyrim Indoor
Wir benchen kein Skyrim Indoor ;)

aufkrawall
2013-05-23, 17:32:08
Pro Takt ist Titan 16,7 Prozent schneller, dazu gibt's den doppelten Grafikspeicher. Das muss jeder selbst entscheiden, welche der zu teuren Karten er kauft. :D Was für die GTX 780 spricht, kommt erst noch: hoffentlich geile Designs, die bei Titan verboten wurden.

Dafür bekommt man den Takt unter Luft aber auch stabil höher, zumindest bei der Windforce.
Von der Titan war ja auch eine Windforce angekündigt. Frage mich, was daraus geworden ist.

Spasstiger
2013-05-23, 17:32:12
Geile Karte, lässt kaum Wünsche offen. Nur sind 640€ immer noch einige Euros zu viel, damit ich eine uneingeschränkte Kaufempfehlung aussprechen kann. In meinem Warenkorb würde am Ende wahrscheinlich immer noch eine Radeon HD 7970 GHz Edition liegen.
Aber wer jetzt noch Titan kauft, dem ist nicht zu helfen. ^^

Godmode
2013-05-23, 17:37:52
Für Leute die von ner 580 und drunter kommen interessant, für 680 User total langweilig. Als Titan User musste man ja fast mit sowas rechnen, daher ist mir der Preisunterschied auch egal. Wer den längsten haben will zahlt entsprechend.

Loeschzwerg
2013-05-23, 17:38:37
Mal ne Frage, fällt die Sache mit den 4 bis 5 GPC bzw. die daraus resultierenden, theoretisch unterschiedlich Pixelfüllrate ins Gewicht? Ich meine eher nicht, NV wird sich hier schon Gedanken gemacht haben, sonst würden drei aktive SMX ja eh in einen Flaschenhals laufen und der Aufbau des GK110 wäre dann folglich Mist.

Edit:
Zitat von HT4U:
Zur Umsetzung der GeForce GTX Titan hatte NVIDIA einen der 15 Streaming-Multiprozessoren deaktiviert. Bei der GeForce GTX 780 deaktivierte der Hersteller zwei weitere SMX, so dass nun lediglich noch 12 SMX zur Verfügung stehen. Dies führt jedoch nicht automatisch dazu, dass eine GeForce GTX 780 mit lediglich vier Graphics Proccessing Clusters (GPC) daherkommt. Wie der Hersteller uns auf Nachfrage hin erklärte, ist man im Design so flexibel, dass man SMX-Blöcke in unterschiedlichen GPCs deaktivieren kann. Damit ist es also möglich, dass manche GTX-780-GPUs mit fünf GPCs ausgestattet sind, während bei anderen der fünfte Graphics Proccessing Cluster komplett deaktiviert ist. Das wirft selbstverständlich auch die Frage auf, ob diese Unterschiede auch zu unterschiedlichem Verhalten in der Performance führen können. Auch dazu haben wir den Hersteller befragt und die Auskunft erhalten, dass nach eigenen Tests die Unterschiede zu vernachlässigen seien und gegen Null gingen.

Warum wird hier bei PCGH so ein Wind darum gemacht? Angenommen wir haben ein GPC mit nur 1x SMX und ein GPC mit 2x SMX. Wie soll das einzelne SMX einen Vorteil von der theoretischen Füllrate ziehen? Oder was verstehe ich hier falsch?

aufkrawall
2013-05-23, 17:40:14
Für Leute die von ner 580 und drunter kommen interessant, für 680 User total langweilig.
So kann ich wenigstens weiter behaupten, dass ich NVs Preispolitik nicht unterstützen will. :freak:
Ich hoffe mal, es wird nen preislich nicht ganz so unattraktiven Gamer-Maxwell geben.

Godmode
2013-05-23, 17:49:56
So kann ich wenigstens weiter behaupten, dass ich NVs Preispolitik nicht unterstützen will. :freak:
Ich hoffe mal, es wird nen preislich nicht ganz so unattraktiven Gamer-Maxwell geben.

Sie werden wohl 2014 einen GM104 oder sowas bringen und der wird auch wieder 500-600 Euro kosten. Ein Jahr später - also 2015 :facepalm: - dann vielleicht GM100 als Top Dog. Man kann nur auf AMD hoffen, aber ich denke die werden das Spiel eher mitspielen, als hier einen Konkurrenzkampf zu starten.

gnahr
2013-05-23, 17:53:17
Ich bleibe dabei - Takt festpinnen ist Unsinn. Vielmehr sollte man wenn man so sehr auf Praxisnähe fixiert ist, spielen und dann zu benchen anfangen ohne Unterbrechung durch Ladezeiten etc. Wenn der Takt dabei höher ist ok, wenn er niedriger ist auch ok.
aber das lässt sich schwer automatisieren. einige werdens nicht zugeben und andere nicht einsehen wollen, dass die praxis eben doch bunter ist als ein messkeller. :)

Ätznatron
2013-05-23, 17:53:42
Stell dir vor: Wir spielen das Spiel vorher auch durch, nehmen uns dann in etwa zehn Savegames und schauen, welches sich am besten eignet ;)

Wie ist das zu verstehen, bzw. was zeichnet ein Savegame aus, um sich zu eignen?

Ich hoffe mal nicht, dass ein besonders langer Benchmarkbalken das Ziel der Auswahl ist. ;)

Spasstiger
2013-05-23, 18:03:04
Mal ne Frage, fällt die Sache mit den 4 bis 5 GPC bzw. die daraus resultierenden, theoretisch unterschiedlich Pixelfüllrate ins Gewicht? Ich meine eher nicht, NV wird sich hier schon Gedanken gemacht haben, sonst würden drei aktive SMX ja eh in einen Flaschenhals laufen und der Aufbau des GK110 wäre dann folglich Mist.
Die Peak-Pixelfüllrate spielt eh nur eine theoretische Rolle. Sobald MSAA oder SSAA und HDR-Pixelformate ins Spiel kommen, limitieren eh schon wieder andere Dinge den Pixeldurchsatz (ROPs, Speicherbandbreite). Sowieso bringt man 30 GPixel/s nie an den Monitor.

Loeschzwerg
2013-05-23, 18:12:03
Ok, danke für die Erklärung. Also wie vermutet nur unnötig heiße Luft um das Thema ^^

maximus_hertus
2013-05-23, 19:00:14
Viel interessanter als die Benchmark-Balken wäre doch ein Spielbarkeits-Review. Quasi sowas hier:

Ultra-Details (ergo nicht zwanghaft gleiches AA etc., einfach ingame Ultra und sonst nix einstellen)
VGA-Karte#1
Spiel 1 - max. Auflösung für 30 fps Durchschnitt, subjektiv flüssig ja/nein
Spiel 1 - max. Auflösung für 60 fps Durchschnitt, "
Spiel 1 - max. Auflösung für 120 fps Durchschnitt, "
Spiel 2 - max. Auflösung für 30 fps Durchschnitt, subjektiv flüssig ja/nein
Spiel 2 - max. Auflösung für 60 fps Durchschnitt, "
Spiel 2 - max. Auflösung für 120 fps Durchschnitt, "

30 fps mögen zwar erstmal niedrig sein, aber es gibt einige Games (Strategie, RPGs), die auch mit 30 fps gut spielbar sind, vor allem in Singleplayer. Und fps sind ja nicht gleich fps, je nach Engine / Game gibt es ja unterschiedliche Ergebnisse, ab welcher fps-Zahl das Game butterweich rennt.

@MechWOLLIer

Erstmal Danke für die 5760x1080 Benchmarks. Diese sind ja nicht überall selbstverständlich (ok, ist ein Nischenbereich ;) ), aber warum zwanhaft mit AA? Selbst die Titan ist ja fast nirgendwo "flüssig" und krebst, wenn überhaupt, im niedrigen 30er fps-Bereich. In vielen Spielen sogar unter 20 fps. Die GTX 6x0 sowie Radeon HD 7x00 sind fast komplett unspielbar.
Gerade bei dieser Riesenauflösung wären Benchmarks ohne MSAA doch wesentlich sinnvoller, um die Spielbarkeit zu zeigen?

135i
2013-05-23, 19:17:49
Pro Takt ist Titan 16,7 Prozent schneller, dazu gibt's den doppelten Grafikspeicher.

MfG,
Raff

Bloß was bringt's, 300€ mehr auszugeben, wenn ich bei ansprechender BQ-Einstellung in 30" - Format, weiterhin nicht an tearingfreie FPS rankomme...

mczak
2013-05-23, 19:23:48
Ich weiß ja nicht, bei euch kommen Nvidia-Karten generell immer schlechter weg als in allen anderen Reviews, auch die, die den Boost differenzierter betrachten. Naja, die Vielfalt machts.
hardware.fr kommt z.B. auch auf sehr ähnliche Verhältnisse (hat übrigens auch nette Werte mit Zusatzkühlung). Kommt halt immer auf den Benchmark-Mix an da kann dann der Durschnittswert schon mal ein paar Prozent abweichen.

Johnny Rico
2013-05-23, 19:39:21
Geile Karte, lässt kaum Wünsche offen. Nur sind 640€ immer noch einige Euros zu viel, damit ich eine uneingeschränkte Kaufempfehlung aussprechen kann. In meinem Warenkorb würde am Ende wahrscheinlich immer noch eine Radeon HD 7970 GHz Edition liegen.
Aber wer jetzt noch Titan kauft, dem ist nicht zu helfen. ^^
Genau! Wann bringt AMD endlich was, ich krepel noch mit ner 480 und wollte dieses Jahr eigentlich AMD wieder etwas gönnen.

Mal ne Frage, fällt die Sache mit den 4 bis 5 GPC bzw. die daraus resultierenden, theoretisch unterschiedlich Pixelfüllrate ins Gewicht? Ich meine eher nicht, NV wird sich hier schon Gedanken gemacht haben, sonst würden drei aktive SMX ja eh in einen Flaschenhals laufen und der Aufbau des GK110 wäre dann folglich Mist.

Edit:
Zitat von HT4U:


Warum wird hier bei PCGH so ein Wind darum gemacht? Angenommen wir haben ein GPC mit nur 1x SMX und ein GPC mit 2x SMX. Wie soll das einzelne SMX einen Vorteil von der theoretischen Füllrate ziehen? Oder was verstehe ich hier falsch?

PCGH "Nvidia gibt selbst an, dass die Geforce GTX 780 entweder mit 4 oder 5 Graphics Processing Clusters (GPCs) ausgeliefert wird.
Das bedeutet jetzt nicht, dass Sie eine GTX 780 mit mehr oder weniger Rechenwerken erhalten können"
?

Raff
2013-05-23, 19:46:39
Bloß was bringt's, 300€ mehr auszugeben, wenn ich bei ansprechender BQ-Einstellung in 30" - Format, weiterhin nicht an tearingfreie FPS rankomme...

Ich sag's mal so: Würde die Titan nur 50 Euro mehr als die GTX 780 kosten, stellte sich diese Frage gar nicht. Fakt ist: GPU-Leistung kann man nie genug haben. :cool:

MfG,
Raff

Knacki99
2013-05-23, 19:55:53
Die 780er ist sicher eine attraktive Karte. Allerdings ist es immer noch die Kepler Architektur. Ich habe eine GTX 680 mit 4 GByte. Und keine Probleme performance wise in Crysis 3, Tomb Raider 2013, Metro LL etc. bei Max. Einstellungen oder annähernd solchen. Von daher werde ich mich entspannt zurücklehnen und die ersten Next Gen Spiele abwarten. Dann entscheide ich mich welche neue Karte ins Haus kommt. AMD wird vermutlich die 8xxx Karten bis dahin marktreif haben und über Nvidia Maxwell wird man dann auch mehr wissen.

Marty98
2013-05-23, 19:59:27
gib doch gleich den link. (http://www.hardware.fr/articles/894-1/nvidia-geforce-gtx-780-test-gk110-tous-ou-presque.html) :popcorn:

Hardware.fr ist sehr vertrauenswürdig. Das sollte die Referenz sein. Ht4u befindet sich ja im Krieg mit Nvidia, also kein Wunder dass sie beim Benchen den Takt manipulieren. Würde ich ja genauso machen.

Peter Gräber
2013-05-23, 20:06:51
Hardware.fr ist sehr vertrauenswürdig. Das sollte die Referenz sein. Ht4u befindet sich ja im Krieg mit Nvidia, also kein Wunder dass sie beim Benchen den Takt manipulieren. Würde ich ja genauso machen.

Du redest hier ganz schönen Unsinn ;). Krieg mit NVIDIA? Takt manipulieren? PCGH ist ja dann sicher auch im Krieg mit NVIDIA und hat den Takt manipuliert. Ich mach dir den Vorschlag dir für 900 Euro ne Titan zu kaufen, so wie ich das tat, und dann schau dir in Ruhe an, was sie tut. Und dann kannst du ganz objektiv ein Fazit ziehen. Hoff dann nur, dass sich jemand die Mühe macht, deine ganzen Ausführungen zu lesen.

Knuddelbearli
2013-05-23, 20:21:40
was ist den das maximale PT in Prozent bei der 780?

dildo4u
2013-05-23, 20:22:35
was ist den das maximale PT in Prozent bei der 780?
106.

Die gelbe Eule
2013-05-23, 20:22:39
Verfügbarkeit ist übrigens bei uns (Atelco - hwv - anobo) blendend mit einigen Brands. Aber bisher keine eVGA SSC oder classified.

Disconnected
2013-05-23, 20:29:59
Schon deutlich interessantern als Titan. Preislich liegt sie genau in der Mitte zwischen 680 und Titan und leistungsmäßig ist sie wesentlich näher an der Titan als an der 680. Ich ziehe einen Kauf durchaus in Betracht, vor allem weil sich der Sprung von meiner jetzigen besonders bei DX11-Titeln bemerkbar macht.

Cubitus
2013-05-23, 20:33:27
Denke der Preis wird noch fallen.
Die Karte ist ebenfalls pfeilschnell, bisschen OC und gut ist! Also wenn ich nicht schon zwei Titanen hätte, würde ich mir überlegen für das gleiche Geld 3x780er anzuschaffen :freak:

Auf die 3 Gig mehr Vram kann man wirklich noch verzichten!

aufkrawall
2013-05-23, 20:44:18
vor allem weil sich der Sprung von meiner jetzigen besonders bei DX11-Titeln bemerkbar macht.
Warst das nicht schon einmal du, der da irgendwie was von 680 bei DX11 kaum schneller erzählt hatte?
Das war Unsinn. ;)

samm
2013-05-23, 21:25:52
Coole Karte, sollte einfach 680 heissen und sich zu deren Preis verkaufen ;) Ne, Leistung und Features klingen durchaus ansprechend, aber die Preisentwicklung und das Boost-Feature wollen mir einfach nicht gefallen. Mal sehen, ob zwei Grafikkarten-Generationen daran was ändern, denn dann steht wieder ein Kauf an...

aufkrawall
2013-05-23, 21:32:37
Boost ist bei Custom Designs mit ordentlicher Kühlung und großzügigerem Powertarget doch nicht schlimm.
Der macht auch OC dann nicht wirklich schwieriger, sofern man die Spannung erhöhen kann. In der Praxis hat man so keine Nachteile gegenüber einer Karte ohne Boost (die 10Mhz weniger bei 10°C mehr merkt doch niemand).

samm
2013-05-23, 21:36:20
Mich stört das Wissen darum :freak: und dass es wie eine *positive* Eigenschaft behandelt wird. Nach wie vor attraktiv finde ich, dass er bei nVidia auch nach unten funktioniert, sodass beim Spielen alter Spiele, was ich oft tue, merklich Hitzeentwicklung und Stromzähler und Gewissen weniger belastet werden.

Spasstiger
2013-05-23, 22:05:27
Um nochmal auf die Sache mit der Peak-Pixelfüllrate zurückzukommen:
Wie es hardware.fr korrekt beschreibt (http://www.hardware.fr/articles/894-5/performances-theoriques-pixels.html), gibt es bei der GTX 780 drei mögliche Durchsatzvarianten, nämlich 32 Pixel pro Takt, 36 Pixel pro Takt oder 40 Pixel pro Takt. Warum? Ein GPC hat einen Durchsatz von 8 Pixeln pro Takt, ein SMX aber nur 4 Pixel pro Takt. Wenn einem GPC also nur ein SMX zugewiesen ist und den restlichen vier GPCs aber 2-3 SMX, dann liegt der Durchsatz bei 4*8+1*4=36 Pixeln pro Takt.
Die Füllratenmessung von hardware.fr deutet genau auf die Variante mit 36 Pixeln pro Takt hin, daher kann sich auch Titan nochmal absetzen (40 Pixel pro Takt, dazu kommen evtl. noch Boost-Ungereimtheiten).

dildo4u
2013-05-23, 23:11:14
Guru 3D Gigabyte Geforce gtx 780 windforce

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_780_windforce_oc_review,21.html

Wundert mich echt das NV Werk's OC zulässt.

Disconnected
2013-05-24, 00:13:31
Warst das nicht schon einmal du, der da irgendwie was von 680 bei DX11 kaum schneller erzählt hatte?
Das war Unsinn. ;)

Keine Ahnung, was Du meinst. Ein Upgrade auf eine 680 lohnt sich für mich jedenfalls nicht so recht, da vieles auf meiner jetzigen Karte noch hervorragend läuft. Sollte ich sie aber mal für unter 250 EUR sehen, werde ich natürlich zuschlagen. Kann dann eben noch etwas SSAA hinzufügen. Ansonsten würde ich eh frühestens im Herbst umsteigen.

Mancko
2013-05-24, 00:44:34
Gerade da es nie verkauft wurde sollte man es als Redakteur nicht als Referenz nehmen. :)

Aber natürlich sollte man das. AMD hat die Karte schließlich so vorgestellt. Im Endeffekt muss sich AMD einfach mal angewöhnen an dem Punkt bessere Arbeit abzuliefern. Nvidia kann es ja nach der Kritik mit der GTX 480 damals offensichtlich auch. Ich sehe nicht wieso man AMD hier schonen muss.

AffenJack
2013-05-24, 00:52:37
An sich find ich das Ding schon ne gute Karte die mich schon sehr reizt, aber bei dem Preis ists mir doch zu teuer.
Das so schlechte Preis/Leistungsverhältnis hat die Karte aber auch nur hier in Deutschland oder Europa, in USA wird die 7970 genauso wie die 680 bei 450$ und mehr verkauft. Da hat man dann für 20% mehr Performance etwa 40% höheren Preis was als High-End Aufschlag noch ok ist.
Mich wundert eigentlich schon die ganze Zeit, wieso AMD in Deutschland son Preisdumping betreibt, während sie in anderen Märkten höhere Preise haben.

MadManniMan
2013-05-24, 01:06:09
Erstaunlich, wie gut die Preis-Leistung der 780 doch bewertet wird, weil die Titan noch maßloser übertrieben teuer ist :usad:

StefanV
2013-05-24, 01:14:49
Guru 3D Gigabyte Geforce gtx 780 windforce

http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_780_windforce_oc_review,21.html

Wundert mich echt das NV Werk's OC zulässt.
Was mich mehr wundert ist, dass GB immer noch die Lüfter so scheiße positioniert wie bei der 7970. Dort ist der Windforce 3X Kühler mal voll fürn EImer. Eben weil die Lüfter so blöde angeeordnet sind, dass die Hälfte vorbei bläst...

cR@b
2013-05-24, 02:58:36
Hmm hätte ich das Endergebnis der 780er im März gehabt, hätte ich die Titan ausgelassen. Echt guter Preis für die Leistung aber als 680er Besitzer nach wie vor fragwürdig.

schreiber
2013-05-24, 03:11:21
Erstaunlich, wie gut die Preis-Leistung der 780 doch bewertet wird, weil die Titan noch maßloser übertrieben teuer ist :usad:
und es wird auch so getan, dass das nur auf Titan zutrifft oder nur auf nvidia. dabei ist nach wie vor alle 28nm Hardware übertrieben teuer. das muss sich noch gewaltig ändern.

ZipKaffee
2013-05-24, 07:29:11
Erstaunlich, wie gut die Preis-Leistung der 780 doch bewertet wird, weil die Titan noch maßloser übertrieben teuer ist :usad:

Anscheinend kann es sich nvidia das kosten lassen, siehe auch Geforce 680.
AMD Grafikkarten sind günstiger und haben sogar noch ein großes Spiele Bundle mit dabei, aber das scheint wohl die "Masse" nicht so recht zu interessieren!

Hut ab NVIDIA. :smile:

fondness
2013-05-24, 08:08:35
Das so schlechte Preis/Leistungsverhältnis hat die Karte aber auch nur hier in Deutschland oder Europa, in USA wird die 7970 genauso wie die 680 bei 450$ und mehr verkauft. Da hat man dann für 20% mehr Performance etwa 40% höheren Preis was als High-End Aufschlag noch ok ist.
Mich wundert eigentlich schon die ganze Zeit, wieso AMD in Deutschland son Preisdumping betreibt, während sie in anderen Märkten höhere Preise haben.

Nicht in allen Märkten wurde jahrelang so getan als würde man von AMD-Karten Augenkrebs oder schlimmeres bekommen. Manche NV-Fanboys versuche ja das selbst heute noch fortzuführen. Sowas setzt sich eben in den Köpfen der Leute fest. Es ist logisch das ein Hersteller dort wo er Probleme mit der Marktakzeptanz hat konkurrenzfähigere Preise anbietet. Man braucht sich ja nur anzusehen was ein Mercedes oder BMW in D kostet und was er wo anders tw. kostet.

Knuddelbearli
2013-05-24, 08:18:55
Naja Steam Survey sagt da was anderes da scheint es für AMD schon globale Probleme zu geben

gibt mehr 680 als alle 79x0 zusammen ... und das sind 4 Karten, die alle ein deutlich besseres P/L bieten ( und 2 davon sogar gleiche oder höhere Leistung als die 680 )

schreiber
2013-05-24, 08:38:25
zu preisleistung gehört mehr als fps. es gibt schon noch ein paar unterschiede.
ich denke, gerade sli hat großen Einfluss. Freaks kaufen sli und sagen ihren Freunden, dass nvidia besser ist.

Dr.Doom
2013-05-24, 08:41:18
GTX 780: zu hoher Stromverbrauch + zu teuer = weiter warten, schade.

Raff
2013-05-24, 09:00:47
GTX 780: zu hoher Stromverbrauch + zu teuer = weiter warten, schade.

Der Stromverbrauch entspricht dem einer GTX 480 oder GTX 580 bei deutlich höherer Spieleleistung.

MfG,
Raff

(del676)
2013-05-24, 09:02:46
Ja und?
Ist das etwa eine grossartige Leistung? Auf ne 3 JAHRE ALTE Gpu, eine deutlich hoehere Spieleleistung bei gleichem Verbrauch zu bieten?

Die ganze Situation sieht eher aus, als wuerde nvidia seit einem Jahr auf der Stelle treten.
Nochmal gleichen Chip releasen, paar Einheiten mehr freigeschalten, zwar schneller als eine 680er, aber eben auch deutlich mehr Verbrauch (50W bei Battlefield 3!!!!!!!!). Das haetten sie auch vor einem Jahr praesentieren koennen, mit ner 680 Ultra. :lol:

Loeschzwerg
2013-05-24, 09:09:47
Es gab ja keinen grund den GK110 zu releasen :D *Stichel Stichel*

Wenn der Preis sich mal bei 500-550€ eingependelt hat, liegen wir von der Tendenz bei einer 8800 Ultra (damals). Ergo alles ok aus meiner Sicht. Zum Kauf wird ja keiner gezwungen und das Portfolio ist schön nach unten abgerundet.

MadManniMan
2013-05-24, 09:12:02
Der Stromverbrauch entspricht dem einer GTX 480 oder GTX 580 bei deutlich höherer Spieleleistung.

MfG,
Raff

Halt im Rahmen der Erwartungen, nich? 28 nm vs. 40 nm ahoi!

Ich freue mich immer wieder darüber, dass ich nur ein Display mit 1680 px x 1050 px habe :D

V2.0
2013-05-24, 09:12:46
Seit wann brachte ein Refresh bitte gewaltige Mehrleistung. Aber die Zeiten bei denen man jede neue Karte mitnehmen musste sind lange vorbei. Wer noch ne 480 und älter hat, der wird mit der 680 gut bedient. (oder eben der gleichwertigen 7970 GE)

Raff
2013-05-24, 09:18:18
Das haetten sie auch vor einem Jahr praesentieren koennen, mit ner 680 Ultra. :lol:

Eine solche kommt ja noch. ;)

MfG,
Raff

(del676)
2013-05-24, 09:29:55
Dafuer wird die 770er zuwenig Vorsprung haben.

Dr.Doom
2013-05-24, 09:35:14
Der Stromverbrauch entspricht dem einer GTX 480 oder GTX 580 bei deutlich höherer Spieleleistung.Ich schrieb ja "zu hoher Stromverbrauch" und nicht "zu hoher Stromverbrauch bei zu wenig gebotener Spieleleistung".

Es gibt halt Leute, für die Hardware uninteressant wird, wenn der Preis x oder Strombedarf y überschritten wird.

Wenn eine Grafikkarte ein sensationelles Preis/Leistungs-Verhältnis hätte, aber 600€ kosten würde, dann würde ich mir diese dennoch nicht kaufen - absolut vs relativ.
Vergleichbares gilt für Stromverbrauch (und Lautstärke).

Skysnake
2013-05-24, 09:39:34
An sich find ich das Ding schon ne gute Karte die mich schon sehr reizt, aber bei dem Preis ists mir doch zu teuer.

/sign

nVidia hält die Preise richtig gut hoch... :down:


Das so schlechte Preis/Leistungsverhältnis hat die Karte aber auch nur hier in Deutschland oder Europa, in USA wird die 7970 genauso wie die 680 bei 450$ und mehr verkauft. Da hat man dann für 20% mehr Performance etwa 40% höheren Preis was als High-End Aufschlag noch ok ist.
Mich wundert eigentlich schon die ganze Zeit, wieso AMD in Deutschland son Preisdumping betreibt, während sie in anderen Märkten höhere Preise haben.
Dem kann ich zustimmen. AMD leidet schon sehr stark unter den BQ-Nazis aus Deutschland :ugly:

Ich konnte es ja zur HD5k/6k Zeit ja teilsweise echt noch verstehen, aber inzwischen geht mein Verständnis gegen Null. Da wird nVidias Lösung als Referenz (100% perfekte Lösung) angesehen, obwohl Sie es nicht immer ist, und alles was davon abweicht ist gleich schlecht :ugly:

Ich finde die geben sich eigentlich in keinem Bereich mehr irgend etwas. Mal hat der eine ein paar Problemchen, mal der andere.

Aktuell hat nVidia aber einen Vorteil bei der Effizienz, verspielt diesen aber in meinen Augen gleich wieder durch hohe Preise....

Erstaunlich, wie gut die Preis-Leistung der 780 doch bewertet wird, weil die Titan noch maßloser übertrieben teuer ist :usad:
Ja, das finde ich auch "lustig" :ugly:

Die GTX780 ist völlig überteuert...

Es ist eine "NEUE" Generation, und bietet ein schlechteres Preis/Leistungsverhältnis... Äh... ja...

Wann gabs denn das schon mal, dass über eine Generation hinweg, das Preis/Leistungsverhältnis schlechter geworden ist? Also von High-End<->High-End

Vor allem bleibt das Preis/Leistungsverhältnis abseits des Topdogs auch genau so schlecht wie bisher auch :ugly:

und es wird auch so getan, dass das nur auf Titan zutrifft oder nur auf nvidia. dabei ist nach wie vor alle 28nm Hardware übertrieben teuer. das muss sich noch gewaltig ändern.
Naja, also inzwischen finde ich die 28nm Preise annehmbar. Zumindest bei AMD durch das Spielebundle. Ich würde sogar sagen ziemlich gut sogar.

Bei nVidia ist es noch etwas hoch in meinen Augen für GK104, einfach weil es so ein kleiner Chip ist, und auch nichts dazukommt im großen und Ganzen. Oder liegt Metro2033 inzwischen schon dabei? Wenn ja, ist es gerade so ok.

Alle GK110 Chips sind aber fürterlich bzgl Preis/Leistung :down:

Raff
2013-05-24, 09:46:04
Ich schrieb ja "zu hoher Stromverbrauch" und nicht "zu hoher Stromverbrauch bei zu wenig gebotener Spieleleistung".

Es gibt halt Leute, für die Hardware uninteressant wird, wenn der Preis x oder Strombedarf y überschritten wird.

Wenn eine Grafikkarte ein sensationelles Preis/Leistungs-Verhältnis hätte, aber 600€ kosten würde, dann würde ich mir diese dennoch nicht kaufen - absolut vs relativ.
Vergleichbares gilt für Stromverbrauch (und Laustärke).

Ich verstehe die Argumentation nur bedingt, denn: Die Leerlaufmodi von Kepler sind sehr gut – 15 bis 25 Watt je nach Lastzustand (Idle/Blu-ray/2-LCD) sind supersparsam, wenn man das mit Fermi vergleicht. Und in diesem Zustand ist selbst ein Zockrechner öfter als unter 200-Watt-Volllast. :)

Ich habe für mich mittlerweile mehrere Gründe gefunden, eine Titan oder GTX 780 zu kaufen (ausgehend von einer "customized" Radeon HD 7970 OC).

- ~10 Watt weniger Idle-Verbrauch
- ~30 Watt weniger Verbrauch beim Blu-raying bei 2 angeschlossenen Displays
- Downsampling über 2.560x1.600 (und die Leistung dafür)
- Nvidia-Gimmicks: GPU-PhysX, AA-Bits, Sample-Mischmodi
- Höhere Energieeffizienz auch unter Last
- Enormes OC-Potenzial

... wenn der Preis nicht wäre ...

MfG,
Raff

Dural
2013-05-24, 09:47:29
@Skysnake

8800GTX - 8800Ultra zb.

Marty98
2013-05-24, 10:00:29
AMD Grafikkarten sind günstiger und haben sogar noch ein großes Spiele Bundle mit dabei, aber das scheint wohl die "Masse" nicht so recht zu interessieren!

Das Spielebundle gibt es leider nur von wenigen Händlern und bei diesen nur für wenige (~10%) der verfügbaren Radeon Grafikkarten. Als ich vor einem Monat zwei Radeons bestellte war die Situation so: Mindfactory hatte sehr günstige Preise, aber gar keine Gutscheine mehr. Hoh war teurer, hatte dazu aber Never Settle noch im Angebot. Von den 20 angebotenen 7950 u. 7970 Modellen war bei ganzen 2 (!) Grakas Never Settle Bundle dabei. Sollte bei der 7950 die ich bestellt hab dann dabei sein, wurde aber nicht geliefert. Nach meiner Nachfrage hat sich herausgestellt die Codes bei Hoh sind nun auch alle, und wenn ich will kann ich die Karte zurückschicken.

Ich lese hier im Forum in 100 Beiträgen dass man das Spielebundle bei AMD mit in die Preisbetrachtung einbeziehen soll. Das ganze ist jedoch ein Märchen! Die breite Masse der Radeon Käufer bekommt kein Spiel mitgeliefert.

Knuddelbearli
2013-05-24, 10:03:00
Ich schrieb ja "zu hoher Stromverbrauch" und nicht "zu hoher Stromverbrauch bei zu wenig gebotener Spieleleistung".

Es gibt halt Leute, für die Hardware uninteressant wird, wenn der Preis x oder Strombedarf y überschritten wird.


dann kauf halt ne klasse kleiner

sry aber über stromverbrauch aufregen ist sowas von lächerlich.

Hauptsache das Topmodell verbraucht dann nur mehr 150W bei entsprechend geringerer Leistung damit ihr nicht eine Klasse kleiner kaufen müsst
das die anderen dann gar nichts mehr passendes kaufen können interessiert euch nicht ...

fondness
2013-05-24, 10:07:18
Das Spielebundle gibt es leider nur von wenigen Händlern und bei diesen nur für wenige (~10%) der verfügbaren Radeon Grafikkarten. Als ich vor einem Monat zwei Radeons bestellte war die Situation so: Mindfactory hatte sehr günstige Preise, aber gar keine Gutscheine mehr. Hoh war teurer, hatte dazu aber Never Settle noch im Angebot. Von den 20 angebotenen 7950 u. 7970 Modellen war bei ganzen 2 (!) Grakas Never Settle Bundle dabei. Sollte bei der 7950 die ich bestellt hab dann dabei sein, wurde aber nicht geliefert. Nach meiner Nachfrage hat sich herausgestellt die Codes bei Hoh sind nun auch alle, und wenn ich will kann ich die Karte zurückschicken.

Ich lese hier im Forum in 100 Beiträgen dass man das Spielebundle bei AMD mit in die Preisbetrachtung einbeziehen soll. Das ganze ist jedoch ein Märchen! Die breite Masse der Radeon Käufer bekommt kein Spiel mitgeliefert.

Mittlerweile bekommt man das Bundle bei Mindfactory wieder. Und Hoh sind AFAIK die einzigen welche das Bundle nur für gewisse Karten anbieten. Also so ist es dann auch nicht. Klar bietet es nicht jeder Händler an, aber das weiß man ja vorher.

Marty98
2013-05-24, 10:09:23
Dem kann ich zustimmen. AMD leidet schon sehr stark unter den BQ-Nazis aus Deutschland :ugly:

Ich konnte es ja zur HD5k/6k Zeit ja teilsweise echt noch verstehen, aber inzwischen geht mein Verständnis gegen Null. Da wird nVidias Lösung als Referenz (100% perfekte Lösung) angesehen, obwohl Sie es nicht immer ist, und alles was davon abweicht ist gleich schlecht :ugly:

Ich finde die geben sich eigentlich in keinem Bereich mehr irgend etwas. Mal hat der eine ein paar Problemchen, mal der andere.

Ich spiele nun seit 1 Monat mit einer 7970 statt eier 560 Ti und Nvidia hat immer noch zwei große Vorteile.

1. Kombimodis bei DX9 (4x MSAA + 4X SSAA). Diese vermisse ich am meisten, besonders bei World of Warcraft. SSAA only ist einfach einen Level schlechter in der BQ.

2. Mein Monitor ist nicht mehr kalibriert weil die Huey Kalibrierer mit CCC nicht kompatibel sind (CCC überschreibt das Farbprofil des Kalibrators nach jedem Reboot).

Ich habe mich trotz dieser zwei großen Schwächen dafür entschieden die 7970 zu behalten, weil eine 4GB 680 einfach zu teuer ist. Wäre Nvidia günstiger, gebe es überhaupt keinen Grund sich für AMD zu entscheiden.

fondness
2013-05-24, 10:12:32
1. Kombimodis bei DX9 (4x MSAA + 4X SSAA). Diese vermisse ich am meisten, besonders bei Word of Worldcraft. SSAA only ist einfach einen Level schlechter in der BQ.

Schonmal EQAA probiert? Ist auch ein Kombimodi, sogar mit guter Sampleverteilung. ;)

Marty98
2013-05-24, 10:13:10
Mittlerweile bekommt man das Bundle bei Mindfactory wieder. Und Hoh sind AFAIK die einzigen welche das Bundle nur für gewisse Karten anbieten. Also so ist es dann auch nicht. Klar bietet es nicht jeder Händler an, aber das weiß man ja vorher.

Ich hab durchaus Händler gefunden wo das Spielebundle für mehr Karten angeboten wurde, allerdings waren die DEUTLICH teurer als Mindfactory. Dann geht die tolle Preis/Leistung flöten. Man kann ja auch nicht eine beliebige 7970 bestellen, die meisten sind schon sehr laut. Nur Asus, PowerColor und Sapphire hatten eine brauchbare Lautstärke, damit meine ich laut statt sehr laut unter Last.

Marty98
2013-05-24, 10:15:22
Schonmal EQAA probiert? Ist auch ein Kombimodi, sogar mit guter Sampleverteilung. ;)

Wie schalte ich den ein? Sehe in RadeonPro MLAA, FXAA, SMAA, CFAA.

2phil4u
2013-05-24, 10:20:23
Bei der Titan sind ha auch Einheiten deaktiviert.
Scheint wohl so aufgebaut zu sein, dass sich defekte Einheiten deaktivieren lassen.
Jetzt verkaufen sie noch kaputtere Karten, die früher auf dem Müll gelandet waeren für 600 Euro, nachdem sie mit Der Profikarte richtig abgesahnt haben und die Titan auch übertrieben teuer war.
Oder gehen die Einheiten teilweise noch und wurden nur abgeschaltet, um einen Grund zu haben die Karte in einem weiteren Preissegment abzusetzen, nachdem sie die Kunden, die 1000 Euro bereit sind zu zahlen bereits durch haben.
Auf jeden Fall werden einige Karten dabei sein, die nicht zur Titan taugen, sogesehen würds mich nicht wundern, wenn irgendwann noch halbdeaktivierte Schrottkarten angeboten werden.
Der Preis waere einermassen o.k., wenn sie nicht unverschaemterweise den Speicher halbiert haetten.
Für 600 Euro kann man auch 6gb erwarten, schliesslich merkt man das bald, spaetestens wenn die Konsolenspiele portiert werden, da die Konolen ja viel Speicher haben und der auch genutzt wird durch z.B. sehr hoch aufgelöste Texturen.
Wenn man dann 2500x1600 spielt oder höher reichen 3 gb nicht mehr aus und das bei 600 Euro.

fondness
2013-05-24, 10:22:57
Wie schalte ich den ein? Sehe in RadeonPro MLAA, FXAA, SMAA, CFAA.

Hm, bin gerade nicht bei meinen SpielePC, weiß ich ehrlich gesagt nicht auswendig. Im CCC kannst du jedenfalls neben der Anzahl der Samples (2x, 4x, 8x) auch immer noch (2xEQ, 4xEQ, 8xEQ) auswählen. Das bedeutet zB bei 4xEQ 4 Farb- plus 4 Coverage-Samples.

Marty98
2013-05-24, 10:23:42
5GByte@320Bit hätten viel mehr Sinn gemacht. Ich erachte 3GB als auch zu wenig für 2014. 6GByte@384Bit hätten aber marktwirtschaftlich 0 Sinn gemacht, man hätte fast eine Titan für 300 Euro weniger bekommen.

Marty98
2013-05-24, 10:25:03
Hm, bin gerade nicht bei meinen SpielePC, weiß ich ehrlich gesagt nicht auswendig. Im CCC kannst du jedenfalls neben den Anzahl der Samples (2x, 4x, 8x) auch immer noch (2xEQ, 4xEQ, 8xEQ) auswählen. Das bei zB 4xEQ 4 normale plus 4 Coverage Samples.

Das ist aber dann ohne SuperSampling!? Kann leider ohne nicht spielen, weil ich Shaderflimmern als extrem störend wahrnehme. Da bleibe ich lieber bei SSAA only.

fondness
2013-05-24, 10:27:20
Das ist aber dann ohne SuperSampling!? Kann leider ohne nicht spielen, weil ich Shaderflimmern als extrem störend wahrnehme. Da bleibe ich lieber bei SSAA only.

Das sollte genau so mit SSAA gehen. Sind ja ganz normale Farbsamples nur halt zusätzlich "billige" Coverage Samples.

Marty98
2013-05-24, 10:32:17
Das sollte genau so mit SSAA gehen. Sind ja ganz normale Farbsamples nur halt zusätzlich "billige" Coverage Samples.

Wäre nett wenn du mir später sagst wo ich es in RadeonPro finde (gerne per PM). CCC nehme ich für Einstellungen nicht mehr, weil es sehr unzuverlässig ist (VSync lässt sich z.B. dort nicht einschalten).

Godmode
2013-05-24, 10:36:19
Erstaunlich, wie gut die Preis-Leistung der 780 doch bewertet wird, weil die Titan noch maßloser übertrieben teuer ist :usad:

IMO ist der hohe Preis von Titan genau der Grund dafür. Biete was teures an und stelle was noch viel teureres daneben, dann sieht das teure gar nicht mehr so teuer aus. Siehe Premium Currency Pakete in diversen Pay2Win Games.

GTX 780: zu hoher Stromverbrauch + zu teuer = weiter warten, schade.

Wenn dir die Karten zuviel verbrauchen, dann kannst du immer noch eine Midrange Karte kaufen. Wenn du 1.000h im Jahr spielst macht das bei 250W Lastverbrauch 250 kWh für die GPU was bei einem Preis von 0,25€/kWh 62 € macht. 62 Euro/Jahr ist wohl vernachlässigbar.

Skysnake
2013-05-24, 10:45:12
Ich spiele nun seit 1 Monat mit einer 7970 statt eier 560 Ti und Nvidia hat immer noch zwei große Vorteile.

1. Kombimodis bei DX9 (4x MSAA + 4X SSAA). Diese vermisse ich am meisten, besonders bei World of Warcraft. SSAA only ist einfach einen Level schlechter in der BQ.

WoW DX9? :ugly:

Das ist doch inzwischen DX11 oder nicht? :confused:

Warum zockst du es dann noch in DX9???


2. Mein Monitor ist nicht mehr kalibriert weil die Huey Kalibrierer mit CCC nicht kompatibel sind (CCC überschreibt das Farbprofil des Kalibrators nach jedem Reboot).

Ich habe mich trotz dieser zwei großen Schwächen dafür entschieden die 7970 zu behalten, weil eine 4GB 680 einfach zu teuer ist. Wäre Nvidia günstiger, gebe es überhaupt keinen Grund sich für AMD zu entscheiden.
Also den einzigen Bericht über diesen Bug über google hat mich auf einen Post von dir verwiesen :ugly: http://www.forum-3dcenter.org/vbulletin/archive/index.php/t-540906.html

Huey hat doch bestimmt ein Supportforum. Ich würde mich mal an die wenden, oder einfach mal den CCC mit AMDs CCC-cleaner deinstallieren, und nochmal aufsetzen. Vielleicht klappts ja inzwischen. ;)

Es scheint auf jeden Fall kein bekanntes Problem zu sein

ShadowXX
2013-05-24, 10:53:50
Wenn man dann 2500x1600 spielt oder höher reichen 3 gb nicht mehr aus und das bei 600 Euro.
Das ist quatsch....was auch alle vorliegenden Benchmarks zeigen.
Selbst Downsampling funktioniert auf 3GB noch völlig Problemlos.
(Mindstens) Die nächsten 2 Jahre werden 3 GB locker reichen.

Ich würde die 8GB der Konsolen auch nicht überwerten....lt. den neusten Gerüchten kann z.B. bei ein XBox One nur 5 GB Ram überhaupt für Games verwendet werden.

Wäre nett wenn du mir später sagst wo ich es in RadeonPro finde (gerne per PM). CCC nehme ich für Einstellungen nicht mehr, weil es sehr unzuverlässig ist (VSync lässt sich z.B. dort nicht einschalten).
Das VSync nicht so funktioniert wie man sich das manchmal vorstellt, liegt daran das ab DX10 VSync nicht mehr von Treiber draufgedrückt werden kann.
Das Problem tritt aber auch bei nV auf. Rate mal warum die da das Framelimiter-Zeug & Co. mit eingebaut haben.

Marty98
2013-05-24, 11:01:39
WoW DX9? :ugly:

Das ist doch inzwischen DX11 oder nicht? :confused:

Warum zockst du es dann noch in DX9???
Huey hat doch bestimmt ein Supportforum. Ich würde mich mal an die wenden, oder einfach mal den CCC mit AMDs CCC-cleaner deinstallieren, und nochmal aufsetzen. Vielleicht klappts ja inzwischen. ;)

Einige Spiele sind ja DX9 only, bei einigen kann man zwischen DX9 und 10/11 auswählen, die NVidia Kombi Modi gehen ja nur mit DX9. Diese bringen auf jeden Fall mehr Bildqualität als der Unterschied zwischen einem DX9 und DX11 Renderpfad.

Die wenigsten Leute haben ja einen Hardware-Kalibrator und eine Radeon-Grafikkarte. Und nein, Pantone hat kein Supportforum und nach einer Email-Anfrage wusste der Support auch nicht weiter. Ich habe das ganze an einem neu aufgesetzten PC mit der 7950 (für einen Freund) getestet und das Problem trat auch dort sofort auf. CCC lässt einfach keine anderen Farbprofile als die eigenen zu. Ich kann Kalibrieren und die Farben ändern sich, wenn ich neu boote kommen immer noch die kalibrierten Farben, aber ~10 Sekunden nach dem erscheinen des Desktops gibt es die im CCC eingestellten Farben.

Marty98
2013-05-24, 11:03:00
Das VSync nicht so funktioniert wie man sich das manchmal vorstellt, liegt daran das ab DX10 VSync nicht mehr von Treiber draufgedrückt werden kann.
Das Problem tritt aber auch bei nV auf. Rate mal warum die da das Framelimiter-Zeug & Co. mit eingebaut haben.

RadeonPro kann VSync immer erzwingen (genauso wie der Nvidia Panel).

Iruwen
2013-05-24, 11:07:45
WoW DX9? :ugly:

Das ist doch inzwischen DX11 oder nicht? :confused:

Warum zockst du es dann noch in DX9???

Um ordentliches MSAA+SSAA erzwingen zu können vermutlich.

/e: ups, da kam noch 'ne Seite :o

aufkrawall
2013-05-24, 11:32:29
Das sollte genau so mit SSAA gehen. Sind ja ganz normale Farbsamples nur halt zusätzlich "billige" Coverage Samples.
Ich hab schon zig Mal geschrieben, dass EQAA mit SGSSAA die Texturfilterung übelst versaut, aber das will in deinem roten Schädel wohl partout nicht hängen bleiben. Der Modus ist, genau wie Edge Detect-Filter, ne reine Luftnummer.

fondness
2013-05-24, 11:39:01
Ich hab schon zig Mal geschrieben, dass EQAA mit SGSSAA die Texturfilterung übelst versaut, aber das will in deinem roten Schädel wohl partout nicht hängen bleiben. Der Modus ist, genau wie Edge Detect-Filter, ne reine Luftnummer.

Mit deinen üblichen Beleidigungen machst du dich eh nur selbst lächerlich. Nein, das habe ich noch nicht gelesen, mag aber auch daran liegen das ich deine Beiträge aufgrund der ständigen persönlichen Anmache höchstens noch sporadisch wahrnehme.

aufkrawall
2013-05-24, 11:42:18
Lächerlich ist eher, dass du einfach irgendwelche AA-Modi empfiehlst, die du offenbar selbst noch nie wirklich ausprobiert hast.

matty2580
2013-05-24, 11:42:55
Es gab ja keinen grund den GK110 zu releasen :D *Stichel Stichel*

Wenn der Preis sich mal bei 500-550€ eingependelt hat, liegen wir von der Tendenz bei einer 8800 Ultra (damals). Ergo alles ok aus meiner Sicht. Zum Kauf wird ja keiner gezwungen und das Portfolio ist schön nach unten abgerundet.
500€ sind doch sehr unwahrscheinlich wenn man die Preisentwicklung mit der 680 vergleicht. Ich habe hier einmal eine beliebte 680 herausgesucht:
http://geizhals.de/?phist=763135&age=9999
Gestartet ist sie bei ca. 530€, war dann recht lange stabil bei ~470€, bis sie sich dann bei ca. 430€ einpegelte. Also ca. 100€ Differenz zum Startpreis bis heute. Aber es dauerte viele Monate bis dahin. Wahrscheinlich ist, dass sich nach 6 Monaten die 780 auch bei 550€ einpegeln wird. Dann wird aber schon die nächste Gen in greifbarer Nähe sein mit einer neuen Architektur.

fondness
2013-05-24, 11:46:49
Lächerlich ist eher, dass du einfach irgendwelche AA-Modi empfiehlst, die du offenbar selbst noch nie wirklich ausprobiert hast.

Ich habe gefragt ob er den Modi schon probiert hat, nicht mehr und nicht weniger. Sinnerfassendes lesen und so.

aufkrawall
2013-05-24, 11:47:58
Ich habe gefragt ob er den Modi schon probiert hat, nicht mehr und nicht weniger. Sinnerfassendes lesen und so.

Siehe:
Das sollte genau so mit SSAA gehen. Sind ja ganz normale Farbsamples nur halt zusätzlich "billige" Coverage Samples.

Verarschen kann ich mich alleine.

fondness
2013-05-24, 11:49:22
Siehe:


Verarschen kann ich mich alleine.

Aha. Wo ist hier die Empfehlung? Sinnerfassendes lesen. Aber das hat mit dir ohnehin keine Sinn, ich bin raus. Viel Spaß noch.

Iruwen
2013-05-24, 11:50:45
War heute wieder früher Schluss im Kindergarten?

Nightspider
2013-05-24, 11:51:14
Das ist quatsch....was auch alle vorliegenden Benchmarks zeigen.
Selbst Downsampling funktioniert auf 3GB noch völlig Problemlos.
(Mindstens) Die nächsten 2 Jahre werden 3 GB locker reichen.

Ich würde die 8GB der Konsolen auch nicht überwerten....lt. den neusten Gerüchten kann z.B. bei ein XBox One nur 5 GB Ram überhaupt für Games verwendet werden.

Trollst du? Selbst wenn bei der Xbox One a, Ende nur 1,5-2GB für die GPU übrig bleiben sind das mehr als 6 bis 8 mal so viel wie bei den alten Games.

Und nur weil die Xbox One weniger speicher hat, wird man deswegen nicht bei der PS4 mit besseren Texturen geizen.

Spiele werden 2014 unter Garantie kommen, die dir locker 3GB und mehr in den VRAM ballern. Wer da mit Titan oder 780 in 1080p oder 1200p spielen will wird definitiv mehr als 3GB brauchen für die NextGen-HighEnd Games.

Man kann nur hoffen das im Frühjahr Maxwell mit 4GB im Performance-Markt kommt und 4-6GB bei allen Enthusiast-Karten.

Zumal am PC eh immer mehr VRAM benötigt wird als bei den Konsolen, selbst bei gleicher Texturauflösung.

Das wird für einige noch eine böse Überaschung geben, die dachten mit ihrer 680 2GB ein paar Jahre aushalten zu können.

Dr.Doom
2013-05-24, 12:05:18
dann kauf halt ne klasse kleiner

sry aber über stromverbrauch aufregen ist sowas von lächerlich.

Hauptsache das Topmodell verbraucht dann nur mehr 150W bei entsprechend geringerer Leistung damit ihr nicht eine Klasse kleiner kaufen müsst
das die anderen dann gar nichts mehr passendes kaufen können interessiert euch nicht ...Wer regt sich denn auf? Ich war und bin ganz gelassen.
Hab nur gesagt, dass mir Stromverbrauch und Preis zu hoch sind und ich sowas nicht kaufen werde.
Ich weiss nicht, was daran so schlimm ist, das mal einfach kundzutun und dazu noch vollkommen sachlich.

Angiesan
2013-05-24, 12:13:27
Trollst du? Selbst wenn bei der Xbox One a, Ende nur 1,5-2GB für die GPU übrig bleiben sind das mehr als 6 bis 8 mal so viel wie bei den alten Games.

Und nur weil die Xbox One weniger speicher hat, wird man deswegen nicht bei der PS4 mit besseren Texturen geizen.

Spiele werden 2014 unter Garantie kommen, die dir locker 3GB und mehr in den VRAM ballern. Wer da mit Titan oder 780 in 1080p oder 1200p spielen will wird definitiv mehr als 3GB brauchen für die NextGen-HighEnd Games.

Man kann nur hoffen das im Frühjahr Maxwell mit 4GB im Performance-Markt kommt und 4-6GB bei allen Enthusiast-Karten.

Zumal am PC eh immer mehr VRAM benötigt wird als bei den Konsolen, selbst bei gleicher Texturauflösung.

Das wird für einige noch eine böse Überaschung geben, die dachten mit ihrer 680 2GB ein paar Jahre aushalten zu können.
Die Glaskugel hätte ich auch gerne und ja natürlich wird endlich mal Schluß sein mit 720P ansonsten erschließt sich mir gerade nicht warum Texturen bei gleicher Auflösung bei einem PC mehr Grafikram verbrauchen sollen? Vielleicht deswegen weil der Pc dann nicht permanent am Streamen ist? Es gibt heute schon Spiele die belegen so viel Ram wie vorhanden ist, das heißt aber nicht das deswegen 2 GB oder gar 3GB nicht ausreichen, es sagt nur das der belegt wurde:wink:Ein sehr gutes Beispiel ist da Hitman, das Spiel haut selbst die 6 GB der Titan voll, läuft aber erstaunlich gut auch mit 1,5, 2 und 3 GB und nun??? Aber los los PS4 kaufen wie sie verfügbar ist und dann voller Frust festzustellen, das im Konsolenmarkt bei 2 gleichwertigen Anbietern immer die schwächere Basis der gemeinsame Nenner sein wird:freak: Ich bin mir absolut sicher, dass die Grafik der PS4 nur in den exklusiven PS4 Titeln wenn überhaut einen leichten Vorteil gegenüber der Xbox haben wird und nie und nimmer gegenüber dem PC es sei denn man macht es mit Absicht.

Sorry für OT.

Nightspider
2013-05-24, 12:40:55
Die ersten Karten sind auf 594,xx Euro gerutscht:

http://geizhals.at/de/?cat=gra16_512&sort=p&xf=132_2048~1439_GTX+780#xf_top

Hoffentlich rutschen sie Richtung 550€

Loeschzwerg
2013-05-24, 12:43:50
500€ sind doch sehr unwahrscheinlich wenn man die Preisentwicklung mit der 680 vergleicht. Ich habe hier einmal eine beliebte 680 herausgesucht:
http://geizhals.de/?phist=763135&age=9999
Gestartet ist sie bei ca. 530€, war dann recht lange stabil bei ~470€, bis sie sich dann bei ca. 430€ einpegelte. Also ca. 100€ Differenz zum Startpreis bis heute. Aber es dauerte viele Monate bis dahin. Wahrscheinlich ist, dass sich nach 6 Monaten die 780 auch bei 550€ einpegeln wird. Dann wird aber schon die nächste Gen in greifbarer Nähe sein mit einer neuen Architektur.

http://geizhals.de/palit-geforce-gtx-780-ne5x780010fb-p2083f-a950034.html

Wir sind schon unter 600€ ;)

Edit: Zu Langsam ^^ Und ja, hoffe ich auch.

Spasstiger
2013-05-24, 12:46:54
Mit 550€ wäre es ein relativ normaler Preispunkt für die Leistungsklasse. Allerdings, 3 Jahre seit der GTX 480 sind wirklich eine lange Zeit für eine Leistungsverdoppelung in dieser Preisklasse. Die Zyklen werden immer länger.

Matrix316
2013-05-24, 12:56:05
Die 3 GB VRAM machen mir auch ein wenig sorgen. Hätte man ruhig mit 6 GB oder 12 anfangen können, zumal es ja auch schon AMD und Nvidia Karten mit mehr als 3 GB gibt.
http://geizhals.de/sapphire-vapor-x-radeon-hd-7970-ghz-edition-11197-05-40g-a830128.html
http://geizhals.de/zotac-geforce-gtx-680-zt-60106-10p-a912364.html

Die Leistung an sich ist aber IMO OK und ein Aufrüsten von einer GTX680 oder 7970 sollte sich auch lohnen, vor allem, wenn man einen großen Monitor hat.

matty2580
2013-05-24, 12:58:36
Die einzige "Schwäche" der 780 ist der Preis, der "Rest" stimmt.
Der Preis ist aber auch eine relative Größe.
Wenigen Käufern, denen Geld fast egal ist, bekommen hier eine tolle Karte, aber die haben dann mit der Titan die bessere Karte schon seid Monaten.
Vielen Käufern ist schon 200€ zu viel, und diese Kunden werden mit großer Wahrscheinlichkeit keine 600€ für eine 780 ausgeben. Da ist die kommende 760ti mit ca. 300$ deutlich interessanter.

Spasstiger
2013-05-24, 13:01:53
Wenn 780er mit Werks-OC kommen, warum sollte es dann nicht auch 780er mit 6 GiB VRAM geben? Ich halte die Sorge, dass 3 GiB zu wenig sein könnten, trotzdem für unberechtigt, auch wenn die Playstation 4 mit 8 GiB GDDR5-RAM kommt. Die Demo vom neuen Killzone benötigt z.B. auch "nur" 3 GiB VRAM: http://www.ps4-magazin.de/shooter/710-killzone-shadow-fall-ps4-meeting-demo-ben%C3%B6tigte-nur-3-gb-an-grafikspeicher/.
Enthusiasten werden sowieso 2014 auf die 20-nm-Generation gehen. Wer unbedingt jetzt 6 GiB VRAM braucht, bekommt die auch.

Die Leistung an sich ist aber IMO OK und ein Aufrüsten von einer GTX680 oder 7970 sollte sich auch lohnen, vor allem, wenn man einen großen Monitor hat.
Von der HD 7970 aus lohnt sich das kaum, bei hohen Auflösungen hinkt sie auch nicht so hinterher wie die GTX 680. Ist definitiv keine Aufrüstempfehlung, die ich aussprechen würde.

Raff
2013-05-24, 13:31:55
Ich hab schon zig Mal geschrieben, dass EQAA mit SGSSAA die Texturfilterung übelst versaut, aber das will in deinem roten Schädel wohl partout nicht hängen bleiben. Der Modus ist, genau wie Edge Detect-Filter, ne reine Luftnummer.

Leider stimmt das. EQAA ist mit SGSSAA unbrauchbar, ED funktioniert kaum mehr und die anderen Tent-Filter wurden vor Jahren gestrichen.

Wenn 780er mit Werks-OC kommen, warum sollte es dann nicht auch 780er mit 6 GiB VRAM geben?

Weil Nvidia vermutlich etwas dagegen hat, wenn eine GTX 780/6G OC die Titan abzieht.

MfG,
Raff

derguru
2013-05-24, 13:41:52
als ob der speicher irgendeine performancerelevanz hat,nur auf dem papier.

Spasstiger
2013-05-24, 13:41:56
Die Titan hat zumindest noch den Vorteil des unbeschnittenen Double-Precision-Modus.

Raff
2013-05-24, 13:44:41
als ob der speicher irgendeine performancerelevanz hat,nur auf dem papier.

Och, mithilfe von Downsampling in 4K baue ich dir schnell 1-2 Fälle, wo 6 statt 3 GiB toll sind. :ulol: In "normalen" Auflösungen genügen 3 GiB natürlich dicke, auch mit SSAA und Grafikmods.

MfG,
Raff

robbitop
2013-05-24, 13:53:20
Der Modus ist, genau wie Edge Detect-Filter, ne reine Luftnummer.
Bitte um Begründung.
Ich habe den Edge Detect leider nur 2006 mit der R600 unter MSAA testen können. Das Ergebnis war extremst genial. Die Abstufungen auf Kanten waren extremst gut. So sehr, dass ich mir auch custom downsampling filter von NV wünschte.

aufkrawall
2013-05-24, 14:01:45
Leider stimmt das. EQAA ist mit SGSSAA unbrauchbar, ED funktioniert kaum mehr und die anderen Tent-Filter wurden vor Jahren gestrichen.

Sehr schade, hatte beides auch reportet. :(

Bitte um Begründung.
Ich habe den Edge Detect leider nur 2006 mit der R600 unter MSAA testen können. Das Ergebnis war extremst genial. Die Abstufungen auf Kanten waren extremst gut. So sehr, dass ich mir auch custom downsampling filter von NV wünschte.
Wie Raff schon sagte, funktioniert ED seit GCN quasi überhaupt nicht mehr (Bug).

ShadowXX
2013-05-24, 14:08:48
Spiele werden 2014 unter Garantie kommen, die dir locker 3GB und mehr in den VRAM ballern. Wer da mit Titan oder 780 in 1080p oder 1200p spielen will wird definitiv mehr als 3GB brauchen für die NextGen-HighEnd Games.

Kleiner Hint....man muss nicht alle Grafikdaten auf einmal im Grafikkarten-Speicher haben.


Von der HD 7970 aus lohnt sich das kaum, bei hohen Auflösungen hinkt sie auch nicht so hinterher wie die GTX 680. Ist definitiv keine Aufrüstempfehlung, die ich aussprechen würde.
Da sprechen die Benchmarks (auch gemittelt ohne Rosinenpickerei) aber eine ganz andere Sprache.
Selbst eine Referenz 780 ist da locker 20++% über der 7970 GHz. Und in dem FPS-Bereich in dem man sich bei 2560*1440/1600 auch mit einer 7970 GHz bewegt, können selbst diese 20% schon den Unterschied zwischen gut spielbar und nicht so doll Spielbar ausmachen.

Und wenn ich dann sogar eine OC-Version der 780 nehme, dann sind das schnell 30-35% Performaceunterschied.
Guck die mal den Test von der Gigabyte 780 OC Windforce an (ist mit von Leo verlinkt). Da siehst du verdammt viele Games die auf der 7970 GHz in 2560x1440/1600 gerade eben noch so laufen (oftmal mehr schlecht als recht), auf der 780 OC dann aber im gut (teilweise sogar sehr gut) spielbaren bereich liegen.

Spasstiger
2013-05-24, 14:14:06
Die HD 7970 GHz Edition kann man auch noch übertakten ...
Schau doch mal diese Review-Übersicht an, es sind im Mittel je nach Settings gerade mal 10% bis 20% Vorteil für die GTX 780, auch bei extrem hohen Auflösungen: http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-780/launch-analyse-nvidia-geforce-gtx-780-seite-2.
Wenn man halbwegs aufs Geld schaut, ist das einzig sinnvolle Upgrade von einer HD 7970 aus eine zweite HD 7970.

Knuddelbearli
2013-05-24, 14:16:49
20% kommt wohl eher auf den Test an

Habe bisher 25% bis 5% gesehen Mittelwert also 15%

und 15% sind 40 vs 34 das merken maximal Professionelle Spieler.
Mehr kommt es da drauf an was für Spiele man spielt.

Nem Sc2 Spieler der unbedingt AA will kann man eine AMD nicht empfehlen ebenso wenig wie man einem Dirt Showdown oder Preisbewusstem BF3 Spieler eine NV empfehlen kann.

Oder ganz extrem
Skyrim ohne dicke Mods ---> NV
Skyrim mit Mods wenn man keine 640€ ausgeben will ---> AMD wegen 3GB

Knuddelbearli
2013-05-24, 14:18:21
zweite 7970 und sinnvoll? :freak:

Eher würde ich da ne WAKÜ sinnvoll nennen ^^

gilt aber für NV das selbe

nur weill SLI besser ist als CF ist es noch lange nicht gut.

oder ist Brustkrebs gut nur weill ein Hirntumor schlimmer wär? ^^

Raff
2013-05-24, 14:22:04
Wenn man halbwegs aufs Geld schaut, ist das einzig sinnvolle Upgrade von einer HD 7970 aus eine zweite HD 7970.

Crossfire ist weder sinnvoll noch ein Upgrade. ;) IMO.

MfG,
Raff

Spasstiger
2013-05-24, 14:23:52
Mehr Geld für eine GTX 780 auszugeben, ist noch weniger sinnvoll. Der Performancezuwachs ist auch gefühlt noch deutlich geringer bis gar nicht vorhanden. Die Wahrnehmungsschwelle liegt ca. bei 20%, das sind z.B. 30 fps gegen 25 fps.

derguru
2013-05-24, 14:27:20
entscheidend ist imo das die kleinere titan auch in den spielen deutlich schneller ist als die üblichen 15-20% wo auch performance gebraucht wird wie z.b. crysis 3 (http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_780_windforce_oc_review,21.html) oder far cry 3 (http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_780_windforce_oc_review,11.html) ect.

Knuddelbearli
2013-05-24, 14:29:54
also ich sehe da auch nur 20%

36 zu 30 oder 44 zu 54, und das wo sie soweit ich sehe ohne vorwärmen testen man also gut 5% abziehen kann

oder vergleichst du ernsthaft oc gegen non oc? Den dan suche ich mal Tests der Toxic raus ^^

dildo4u
2013-05-24, 14:33:19
Crossfire ist keine Option wäre schön wenn solche Empfehlungen nich mehr auftauchen bis es gefixt ist.

http://www.pcper.com/image/view/24763?return=node%2F57296

Wobei ich zustimme von na 7970Ghz lohnt es nich dafür von einer 680 2GB@ 2560*1440.Das war das einzige Ziel was NV erfüllen musste,weil die 780 bei dem Preis ganz klar an NV Fans gerichtete ist.


http://www.pcper.com/image/view/24855?return=node%2F57299

NV hat dann ne ideale Karte für 1080p(GTX770) und zwei für über 1080p.

derguru
2013-05-24, 14:34:59
oder vergleichst du ernsthaft oc gegen non oc? Den dan suche ich mal Tests der Toxic raus ^^

na sicher denn realistisch betrachtet haben für den alltag die gigabyte oc und die 7970 ghz ca. 10% oc potenzial.also wird das abscheiden wie in etwa beim guru3d test ablaufen.

Dural
2013-05-24, 14:46:22
Die 3 GB VRAM machen mir auch ein wenig sorgen. Hätte man ruhig mit 6 GB oder 12 anfangen können, zumal es ja auch schon AMD und Nvidia Karten mit mehr als 3 GB gibt.


also ich hätte mir eine mit 24GB gewünscht ;D

dildo4u
2013-05-24, 14:55:33
EVGA GeForce GTX 780 SC ACX review

http://www.guru3d.com/articles_pages/evga_geforce_gtx_780_sc_acx_review,2.html

1.2Ghz angeblich einfach zu erreichen.

derguru
2013-05-24, 15:01:36
also ich hätte mir eine mit 24GB gewünscht ;D
;D

EVGA GeForce GTX 780 SC ACX review

http://www.guru3d.com/articles_pages/evga_geforce_gtx_780_sc_acx_review,2.html

1.2Ghz angeblich einfach zu erreichen.

der kühler scheint ganz i.o. zu sein, nur 63°C und das als oc variante.wohl besser als die von gigabyte. kein wunder das man die 1,2 locker erreicht.;)

Nightspider
2013-05-24, 15:41:03
In "normalen" Auflösungen genügen 3 GiB natürlich dicke, auch mit SSAA und Grafikmods.

MfG,
Raff

Ja aber wie lange noch? Solltet ihr als Hardware-Redakteure nicht etwas weitsichtigere Aussagen tätigen? ;)

Was wenn ein paar PS4 Games mehr als 3GiB VRAM beanspruchen? Es wird sicherlich Spiele geben, wo man keine riesige Welt hat und die das reine Gameplay weniger RAM benötigt als Spiele wie GTA und Co.
Gerade durch die verbauten Festplatten und die viel stärkeren CPUs wird das Streaming noch deutlich besser werden.

Es wird zwar vielleicht nicht oft vorkommen aber ich kann mir schon vorstellen, das manche Entwickler in die vollen gehen und 3-4GB RAM als Videospeicher belegen.

Oder nehmen wir einen anderen Worstcase: die PS4 Spiele werden nicht in 1080p gerendert sondern zB. nur in 1440*8xx oder 1600*900. Dann werden die Entwickler für diese Auflösung 3GiB belegen und am PC wird man mehr als 3GiB benötigen, wenn man die Auflösung auf 1080p oder 1200p stellt.

Ganz abgesehen davon das man mit SLI und Auflösungen von 2560*1440 und höher gar nicht mehr um mehr als 3GB herumkommen wird.

Vielleicht werden die Performance Einbrüche in diesen Szenarien nur klein bzw. es macht optisch nur einen kleinen Unterschied, wenn die Gamer die Texturen statt auf Ultra nur auf High stellen aber ich finde man sollte das Ganze trotzdem nicht als unsinnig abtun.

Erwähnt werden sollte es zumindest, wenn in einem halben Jahr die neue Generation den Markt erobert.

Knuddelbearli
2013-05-24, 15:48:29
abgesehen davon aktuele konsolen ahben auch nur 256MB VRAM trotzdem laufen spiele mit weniger als 1GB selten wirklich gut

selbst bei 1:1 Ports wie zB Dark Souls

dildo4u
2013-05-24, 15:55:59
Ja aber wie lange noch? Solltet ihr als Hardware-Redakteure nicht etwas weitsichtigere Aussagen tätigen? ;)

Was wenn ein paar PS4 Games mehr als 3GiB VRAM beanspruchen? Es wird sicherlich Spiele geben, wo man keine riesige Welt hat und die das reine Gameplay weniger RAM benötigt als Spiele wie GTA und Co.
Gerade durch die verbauten Festplatten und die viel stärkeren CPUs wird das Streaming noch deutlich besser werden.

Es wird zwar vielleicht nicht oft vorkommen aber ich kann mir schon vorstellen, das manche Entwickler in die vollen gehen und 3-4GB RAM als Videospeicher belegen.

Oder nehmen wir einen anderen Worstcase: die PS4 Spiele werden nicht in 1080p gerendert sondern zB. nur in 1440*8xx oder 1600*900. Dann werden die Entwickler für diese Auflösung 3GiB belegen und am PC wird man mehr als 3GiB benötigen, wenn man die Auflösung auf 1080p oder 1200p stellt.

Ganz abgesehen davon das man mit SLI und Auflösungen von 2560*1440 und höher gar nicht mehr um mehr als 3GB herumkommen wird.

Vielleicht werden die Performance Einbrüche in diesen Szenarien nur klein bzw. es macht optisch nur einen kleinen Unterschied, wenn die Gamer die Texturen statt auf Ultra nur auf High stellen aber ich finde man sollte das Ganze trotzdem nicht als unsinnig abtun.

Erwähnt werden sollte es zumindest, wenn in einem halben Jahr die neue Generation den Markt erobert.
Der PC bekommt keine PS4 Exklsuives sondern Multiplattform Games,daher wird sich das an der Xbox One orientierten,die weniger Speicher für Games zu Verfügung hat.Ich bezweifele das sich überhaupt viele Hersteller die Mühe machen auf dem Level von Crysis 3 Texturen zu produzieren,imo wird das schon der extreme Fall sein.

Spasstiger
2013-05-24, 16:03:30
Ganz abgesehen davon das man mit SLI und Auflösungen von 2560*1440 und höher gar nicht mehr um mehr als 3GB herumkommen wird.
Die Auflösungen treiben den Speicherbedarf nicht so exorbitant nach oben.
Für 2560x1440 Pixel mit 4xMSAA/SGSSA und fp16-Pixelformat braucht man nach meinem Verständnis für die vier MSAA/SSAA-Buffer rund 113 MiB und für die drei Framebuffer in Truecolor (Triple Buffering) nochmal rund 32 MiB an Grafikspeicher, zusammen also 145 MiB. Das sind nichtmal 5% von 3 GiB VRAM.

LSSJBroly
2013-05-24, 16:39:10
@Raff
mit welchen synthetischen Messungen habt ihr denn bestimmt, dass euer sample nur 4 GPCs besitzt? Würde nächste woche meine 780 gerne auch damit testen :)

robbitop
2013-05-24, 16:57:32
Wie Raff schon sagte, funktioniert ED seit GCN quasi überhaupt nicht mehr (Bug).
Wie schade. Das war dermaßen Qualitätssteigernd, dass es eine Schande ist, das nicht weiterzuführen. Zumindest für "alte" Spiele, die noch mit echtem AA umgehen können. :)

Nightspider
2013-05-24, 17:23:59
EVGA GTX 780 lieferbar für 562,- Euro. Sicherlich nur ein kurzes Schnäppchen:

http://www.hardwareversand.de/articledetail.jsp?adp=0&aid=80213&agid=1670&apop=3

Versandkosten: 4,99 Euro
10-Euro-Rabattcode "VXUUE3H93V" (für Neukunden)

V2.0
2013-05-24, 17:42:08
http://hexus.net/tech/reviews/graphics/55725-evga-geforce-gtx-780-superclocked-acx/?&key=1369403657

Zeigt, dass es Sinn macht Referenzkarte gegen Referenzkarte zu vergleichen.

maximus_hertus
2013-05-24, 17:44:17
Schade, haben sie wohl schnell gemerkt ;) Wieder auf 649 gestiegen :/

Matrix316
2013-05-24, 19:05:53
Die einzige "Schwäche" der 780 ist der Preis, der "Rest" stimmt.
Der Preis ist aber auch eine relative Größe.
Wenigen Käufern, denen Geld fast egal ist, bekommen hier eine tolle Karte, aber die haben dann mit der Titan die bessere Karte schon seid Monaten.
Vielen Käufern ist schon 200€ zu viel, und diese Kunden werden mit großer Wahrscheinlichkeit keine 600€ für eine 780 ausgeben. Da ist die kommende 760ti mit ca. 300$ deutlich interessanter.
Aber die 760TI wird noch langsamer sein, als die 780 und wenn du eine GTX680 oder 7970 hast, lohnt sich das Update ja noch weniger bis garnicht.

Die Titan ist wiederum zu teuer. Aber wenn man eine GTX 680 z.B. verkaufen kann, kostet eine 780 auch nicht mehr die 650 sondern vielleicht nur noch 350 Euro. Ist zwar immer noch viel Holz... aber immerhin.

Schon bekannt?

http://www.youtube.com/watch?v=3gB9-eIPLzM
http://www.youtube.com/watch?v=HQQdE02jbh4

2phil4u
2013-05-24, 19:16:09
Mit 1200 mhz ist die Evga genauso schnell wie eine Titan OC, offensichtlich ist das Titandesign zu breit für eine High End Grafikkarte, weniger Shader und höherer Takt waeren besser gewesen.
Aber es war ja eine Profikarte und da kommt es mehr auf Performance/Watt an als auf Performance/Dollar.

Oder besser gesagt bei den extremen Kosten der Profikarten spielt der Herstellungspreis keine so grosse Rolle mehr.
Sicher ist Titan auch sehr teuer in der Produktion und für 28 nm wirklich extrem gross.

Trotzdem wird die Karte keinen Shrink mehr mitmachen, dann kommt schon die Maxwell.
Wenn AMD ein bischen Finanzen haette könnten sie mal drauf antworten, aber deren Roadmap besteht ja nur aus dem Allernötigsten und irgendwelchem Lowendgram.

Nightspider
2013-05-24, 20:08:15
Das ist doch Blödsinn. Nvidia könnte auch die Taktraten bei der Titan ein ganzes Stück höher schrauben. Erst recht mit besseren Custom-Design Kühlkörpern. Einen zu breiten Chip gibt es nicht, solange die Speicherbandbreite nicht limitiert. Und das ist auch noch lange nicht der fall bei GK110.

Theoretisch könnte Nvidia noch den vollen GK110 Chip, welcher NOCH "breiter" ist, mit dauerhaft konstanten 1050-1100 Mhz auf den Markt werden. Diese wäre dann aber heißer und zumindest im Referenz-Design deutlich lauter.

Kühler und leiser hört sich eben besser an und lässt sich besser verkaufen. Zudem hält sich Nvidia eben die Option noch oben hin offen.

Man spart eben am Kühler erhöht lieber die Marge. ;)

Skysnake
2013-05-24, 20:24:05
Und was soll das Ding dann verbrauchen???

400W? :ugly:

Knuddelbearli
2013-05-24, 20:30:40
wayne?

wenns dir zuviel verbraucht kannst ja immer noch die 780 kaufen

Nightspider
2013-05-24, 20:37:17
Ich hab wakü, mir wär egal wieviel so ein Teil verbraten würde. :ulol:

Skysnake
2013-05-24, 20:39:33
:facepalm:

Es gibt nicht ohne Grund Specs....

Das Ding würdest du einfach nicht losbekommen... Außer son paar Verrückten wie wir hier kannste so was einfach nicht andrehen.

Nightspider
2013-05-24, 20:45:39
Glaubst du es interessiert die Gamer, ob die Karte am Ende 300 oder 400 Watt frisst? ^^
Ich kenne genug denen das scheiß egal wäre. (Jetzt mal den Preis außen vor gelassen)

Und stärkere Kühler könnte man immer verbauen. Ich frage mich eh warum Nvidia nicht mal so einen Kühler wie zB. den von EVGA oder Gigabyte als Referenz Design auf den Markt schmeißt und dann die Taktraten anhebt.

dildo4u
2013-05-24, 20:51:43
Glaubst du es interessiert die Gamer, ob die Karte am Ende 300 oder 400 Watt frisst? ^^
Ich kenne genug denen das scheiß egal wäre. (Jetzt mal den Preis außen vor gelassen)

Und stärkere Kühler könnte man immer verbauen. Ich frage mich eh warum Nvidia nicht mal so einen Kühler wie zB. den von EVGA oder Gigabyte als Referenz Design auf den Markt schmeißt und dann die Taktraten anhebt.
Sie setzten so schon 900€ Karten ab und im normalen High-End haben sie jetzt den Preis mal ebend um 100€ angehoben mit der 780.Ist wie bei Intel man macht nur so viel wie man muss.

Raff
2013-05-24, 20:56:10
Und was soll das Ding dann verbrauchen???

400W? :ugly:

Für 1 GHz Basistakt bräuchte es höchstens eine TDP von 300 Watt.

MG,
Raff

Godmode
2013-05-24, 21:00:42
Und was soll das Ding dann verbrauchen???

400W? :ugly:

Ist doch egal, Hauptsache die Leistung stimmt. 1400 MHz und 1.3 Volt 15 SMX und ab geht die Post. ;D

Marty98
2013-05-24, 21:17:40
Wenn man halbwegs aufs Geld schaut, ist das einzig sinnvolle Upgrade von einer HD 7970 aus eine zweite HD 7970.

Du meinst falls/wenn irgendwann ein AMD Treiber kommt der die zwei 7970 schneller macht als eine.

Blediator16
2013-05-24, 22:06:06
Du meinst falls/wenn irgendwann ein AMD Treiber kommt der die zwei 7970 schneller macht als eine.

Mit dem neuen Treiber wurden bereits Tests gemacht, falls du diese noch nicht gesehen haben solltest gibts einen Beitrag dafür im HWluxx Forum.

phoenix887
2013-05-24, 22:12:23
Ich verstehe die Argumentation nur bedingt, denn: Die Leerlaufmodi von Kepler sind sehr gut – 15 bis 25 Watt je nach Lastzustand (Idle/Blu-ray/2-LCD) sind supersparsam, wenn man das mit Fermi vergleicht. Und in diesem Zustand ist selbst ein Zockrechner öfter als unter 200-Watt-Volllast. :)

Ich habe für mich mittlerweile mehrere Gründe gefunden, eine Titan oder GTX 780 zu kaufen (ausgehend von einer "customized" Radeon HD 7970 OC).

- ~10 Watt weniger Idle-Verbrauch
- ~30 Watt weniger Verbrauch beim Blu-raying bei 2 angeschlossenen Displays
- Downsampling über 2.560x1.600 (und die Leistung dafür)
- Nvidia-Gimmicks: GPU-PhysX, AA-Bits, Sample-Mischmodi
- Höhere Energieeffizienz auch unter Last
- Enormes OC-Potenzial

... wenn der Preis nicht wäre ...

MfG,
Raff

Sind auch meine Argumente und 3DVison, was viel besser funktioniert und leichter zu handeln ist als dieses Tridef ( ja ich hatte kurz mal eine AMD letztes Jahr).

Da bin ich dann auch gern bereit einen Aufpreis zu bezahlen für Nvidia, aber man wird ja dann gleich als Fanboy hier angemacht.

Deswegen schreibe ich eigentlich zu solchen Diskussionen kaum etwas.

akuji13
2013-05-25, 08:58:45
Wie ist eigentlich Stand der Dinge hinsichtlich Titan + PhysX Karte?

Läuft das inzwischen mit einer Fermi Karte oder muss doch die GTX 780 der neue Titan Partner werden? =)

gnomi
2013-05-25, 10:35:57
Trollst du? Selbst wenn bei der Xbox One a, Ende nur 1,5-2GB für die GPU übrig bleiben sind das mehr als 6 bis 8 mal so viel wie bei den alten Games.

Und nur weil die Xbox One weniger speicher hat, wird man deswegen nicht bei der PS4 mit besseren Texturen geizen.

Spiele werden 2014 unter Garantie kommen, die dir locker 3GB und mehr in den VRAM ballern. Wer da mit Titan oder 780 in 1080p oder 1200p spielen will wird definitiv mehr als 3GB brauchen für die NextGen-HighEnd Games.

Man kann nur hoffen das im Frühjahr Maxwell mit 4GB im Performance-Markt kommt und 4-6GB bei allen Enthusiast-Karten.

Zumal am PC eh immer mehr VRAM benötigt wird als bei den Konsolen, selbst bei gleicher Texturauflösung.

Das wird für einige noch eine böse Überaschung geben, die dachten mit ihrer 680 2GB ein paar Jahre aushalten zu können.

Bei Erscheinen der neuen Konsolen sind GTX 680 Karten ja schon etwa 20 Monate im Einsatz. ;)
Und ich glaube schon, dass viele der Multimediafunktionen eben sehr viel Speicher auf den Konsolen auffressen. (Xbox One mit lediglich 5 GB für Spiele und wohl nur 6 Cores CPU Nutzung)
Auf PC hat man zusätzlich zum Grafikkartenspeicher ja in der Regel auch noch seine 8 - 16 GB Ram plus SSD und einen dicken Quad Core.
Also mich würde es selbst bei der stärkeren PS 4 wundern, wenn die tatsächlich was im Gesamteindruck grafisch Stärkeres als Crysis 3 raushaut. (sehr wahrscheinlich nur in Teilbereichen Dank 1st Party Studios, Optimierungen und massig Produktionsbudget)
6 GB wie bei Titan sind schon die sichere Bank, aber 3-4 GB sind für jetzt neu gekaufte Grafikkarten denke ich in Ordnung und werden noch 2,3 Jahre für gehobene Ansprüche OK sein.

Raff
2013-05-25, 11:24:02
Wie ist eigentlich Stand der Dinge hinsichtlich Titan + PhysX Karte?

Läuft das inzwischen mit einer Fermi Karte oder muss doch die GTX 780 der neue Titan Partner werden? =)

Das läuft nicht? Im Treiber kann man doch den Physiker auswählen? :confused: Klingt nach einem Treiber-Bug.

MfG,
Raff

Knuddelbearli
2013-05-25, 11:29:17
ja aber er will nix außer eine 2te titan annehmen, zumindest wars beim release so

Raff
2013-05-25, 11:31:27
Ich würd's mal auf den 319er-Branch schieben. ;) Hier im Forum und darüber hinaus beklagen sich gerade überdurchschnittlich viele Leute über die Treiber. Aber vielleicht hat's ja schon jemand mit dem 320.18 WHQL erfolgreich getestet.

MfG
Raff

Iruwen
2013-05-25, 14:54:11
:facepalm:

Es gibt nicht ohne Grund Specs....

Das Ding würdest du einfach nicht losbekommen... Außer son paar Verrückten wie wir hier kannste so was einfach nicht andrehen.

Specs sind für Mädchen. Guck mal was eine 4870 X2 gezogen hat oder aktuell eine 7990. Power Containment ist schön und gut, aber nur wenn man es optional abschalten kann.

Raff
2013-05-25, 14:57:14
Die offizielle HD 7990 (Malta) "zieht" im Rahmen der PCI-E-Spec.

MfG,
Raff

Skysnake
2013-05-25, 15:03:59
Specs sind für Mädchen. Guck mal was eine 4870 X2 gezogen hat oder aktuell eine 7990. Power Containment ist schön und gut, aber nur wenn man es optional abschalten kann.
Die Ref Designs halten sich aber immer! an die Specs. Von ganz ganz ganz wenigen Ausnahmen wie der GTX480 mal abgesehen.

Die Probleme, die man sich damit einfängt, weil die Teile bei den Kunden nicht reibeungslos funktioniert, weil NT zu schwach, MB PCI-E Versorgung zu schwach/schwankend usw usw. rechtfertigen das einfach nicht.

Und es ist eben nicht so, dass die meisten Leute der Verbrauch nicht interessiert....

Es muss alles im Rahmen bleiben. Muss ich an Thermi erinnern?

Da ist Leistung und Verbrauch auch völlig auseinander gedriftet...

Sorry, aber wegen paar hundert (niedriger dreistelliger Bereich) Leuten auf der ganzen Welt macht man so nen Mist nicht.

Wer bock hat kann das selber machen, und damit seine Karte riskieren.

Ein Hersteller wie nVidia wird aber einen Teufel tun. Dafür sind ihnen die Ausfallraten dann viel zu hoch.

Iruwen
2013-05-25, 15:09:50
Die Ref Designs halten sich aber immer! an die Specs.
Abgesehen von der 480, der 4870x2, der 7990... wenn man Karten für Enthusiasten baut soll man auch Karten für Enthusiasten verkaufen, und keine halbgaren Krüppel. Da das in der Vergangenheit offensichtlich kein Problem war ist es eine Sauerei so einen Dreck jetzt schon im normalen High-End abzuziehen.

Knuddelbearli
2013-05-25, 15:43:02
wo läuft eine 400W Titan aus dem Ruder ? 400W für nicht ganz doppelte 680 Leistung ist doch absolut im Rahmen

nur muss halt der Preis trotzdem deutlich runter so auf 600-650€

GTX 8800 Ultra preise würde ich für SOWAS akzeptieren

Skysnake
2013-05-25, 15:56:48
Und wieviel SMX bei wieviel Takt hat Sie dabei?

Wir haben hier gerade von >>1GHz und 15 SMX geredet...

Nightspider
2013-05-25, 16:48:22
Also mich würde es selbst bei der stärkeren PS 4 wundern, wenn die tatsächlich was im Gesamteindruck grafisch Stärkeres als Crysis 3 raushaut.

Ich denke da wirst du dich noch sehr wundern. :)

Knuddelbearli
2013-05-25, 17:02:37
war doch die rede von 1200 Mhz und 15 SMX oder?

also gute 50% über der normalen Titan

Skysnake
2013-05-25, 18:02:06
ja, und jetzt schau dir mal an, wo nen SB/IB beim Verbrauch liegt, wenn du das Ding um 50% OC est...

Vor allem skaliert dir ne GPU in diesen Bereichen verdammt schlecht bzgl Leistungsaufnahme.

Bei ~1100 MHz und 15 SMX würde ne Titan >>300W verbrauchen.

Wenn jemand lustig ist, kann er ja mal schauen, was ne Titan bei 1GHz verbraucht. Ich tippe bereits da auf >300W

Knuddelbearli
2013-05-25, 18:04:06
das sind aber eigen oc werte also ohne den üblichen puffer usw

Godmode
2013-05-25, 19:26:28
ja, und jetzt schau dir mal an, wo nen SB/IB beim Verbrauch liegt, wenn du das Ding um 50% OC est...

Vor allem skaliert dir ne GPU in diesen Bereichen verdammt schlecht bzgl Leistungsaufnahme.

Bei ~1100 MHz und 15 SMX würde ne Titan >>300W verbrauchen.

Wenn jemand lustig ist, kann er ja mal schauen, was ne Titan bei 1GHz verbraucht. Ich tippe bereits da auf >300W

Ich betreibe meine Karten mit 1163 MHz und 1.2 V. In die nähe von 300W komme damit allerdings noch nicht.

Raff
2013-05-25, 19:29:24
Öhm, eigentlich schon. :biggrin: Da bewegen sich die Dinger üblicherweise im ~120er-Target.

MfG,
Raff

Godmode
2013-05-25, 19:34:50
Öhm, eigentlich schon. :biggrin: Da bewegen sich die Dinger üblicherweise im ~120er-Target.

MfG,
Raff


Ja hast recht, hab vorher nur mit Default gemessen. Also mein System braucht jetzt 830 W inkl Benq XL2420 Display. In Metro an einer Stelle gemessen, die die GPU Power auf 120% jagt.

OC_Burner
2013-05-25, 21:18:05
Ich betreibe meine Karten mit 1163 MHz und 1.2 V. In die nähe von 300W komme damit allerdings noch nicht.

Werf doch mal was forderndes an. OCCT ist extrem was das anbelangt, selbst FurMark kommt nicht in die Nähe. 1110MHzGPU/3454MHzMEM@1.187V sorgen für eine PT-Auslastung von annähernd 140%. Das müssten ca. 350W für die GPU und nochmals grob 50W für PCB und RAM sein, sprich 400W.

boxleitnerb
2013-05-25, 21:23:11
Ich bin nach wie vor nicht überzeugt, dass das Powertarget nur für die GPU gilt.
Bei 100% bzw. 106% misst HT4U 250 bzw. 266W - und nicht nochmal was dazu für PCB und VRAM:
http://ht4u.net/reviews/2013/nvidia_geforce_gtx_titan_asus_gigabyte_test/index19.php

Raff
2013-05-25, 21:29:30
AFAIK bezieht sich das – messbar und sicher – auf die gesamte Karte. Sonst würde sich die Lüftergeschwindigkeit auch nicht auf die Taktung auswirken. Das heißt:

100 % Powertarget: 250 Watt für die ganze Karte
106 % Powertarget: 265 Watt für die ganze Karte
120 % Powertarget: 300 Watt für die ganze Karte
140 % Powertarget: 350 Watt für die ganze Karte

GK110 schätzt sich sehr präzise ein. Mehr als 125 Prozent habe ich in Spielen selbst mit einem Mod-BIOS übrigens noch nicht gesehen. :)

MfG,
Raff

boxleitnerb
2013-05-25, 21:34:16
Das hab ich zwar auch festgestellt, aber das kann auch ein Bug sein. Ich habe die Leistungsaufnahme mit maximalem und minimalem Lüfterspeed gemessen, der Unterschied beträgt läppische 5W. Das sollte keine oder kaum Auswirkungen auf die Taktraten haben.

matty2580
2013-05-25, 21:41:29
Aber die 760TI wird noch langsamer sein, als die 780 und wenn du eine GTX680 oder 7970 hast, lohnt sich das Update ja noch weniger bis garnicht.
Genau, für die Masse der potentiellen Kunden ist die 780 viel zu teuer.
Und für eine im Preis attraktive 670ti lohnt sich das Aufrüsten erst bei einer GTX 5xx, oder HD 6xxx. Und selbst da würde ich persönlich meine 580 immer noch nicht austauschen wollen.
Interessant dazu ist heute auch die Umfrage auf der Main: http://www.3dcenter.org/
Fast 80% der Befragten ist das Ding zu teuer...

Godmode
2013-05-25, 22:04:56
Interessant dazu ist heute auch die Umfrage auf der Main: http://www.3dcenter.org/
Fast 80% der Befragten ist das Ding zu teuer...

Was auch irgendwie verständlich ist. Wäre die Karte 50 schneller als ne 680 gäbe es überhaupt nichts zu meckern. Ich hab mir jetzt erstmal die Reviews angesehen und dachte mir die ganze Zeit: "man ist das ein geringes Leistungsplus, gerade gegenüber eine Radeon". Ich denke wir werden uns damit abfinden müssen, dass es es immer langsamer vorwärts geht. Die Herstellung wird nicht einfacher und der Markt schrumpft bzw. stagniert.

Raff
2013-05-25, 22:39:10
Das hab ich zwar auch festgestellt, aber das kann auch ein Bug sein. Ich habe die Leistungsaufnahme mit maximalem und minimalem Lüfterspeed gemessen, der Unterschied beträgt läppische 5W. Das sollte keine oder kaum Auswirkungen auf die Taktraten haben.

Ich habe gerade den neuen MSI Afterburner 3 Beta 10 gecheckt. Das Teil zeigt viel höhere Prozente an als früher, aber das erklärt wenigstens, warum Titan scheinbar grundlos herumtaktet ...

MfG,
Raff

Ailuros
2013-05-26, 08:48:14
Was auch irgendwie verständlich ist. Wäre die Karte 50 schneller als ne 680 gäbe es überhaupt nichts zu meckern. Ich hab mir jetzt erstmal die Reviews angesehen und dachte mir die ganze Zeit: "man ist das ein geringes Leistungsplus, gerade gegenüber eine Radeon". Ich denke wir werden uns damit abfinden müssen, dass es es immer langsamer vorwärts geht. Die Herstellung wird nicht einfacher und der Markt schrumpft bzw. stagniert.

Nebenbei ist die Versteurung hier bei uns so brutal dass die erste Palit GTX780 bei bruellenden 710 Euros ankam; im Gegensatz XFX 7970@1GHz bei 375 und XFX 7970GE@1.05GHz bei 404 Euros :frown:

Skysnake
2013-05-26, 09:10:33
AFAIK bezieht sich das – messbar und sicher – auf die gesamte Karte. Sonst würde sich die Lüftergeschwindigkeit auch nicht auf die Taktung auswirken. Das heißt:

100 % Powertarget: 250 Watt für die ganze Karte
106 % Powertarget: 265 Watt für die ganze Karte
120 % Powertarget: 300 Watt für die ganze Karte
140 % Powertarget: 350 Watt für die ganze Karte

GK110 schätzt sich sehr präzise ein. Mehr als 125 Prozent habe ich in Spielen selbst mit einem Mod-BIOS übrigens noch nicht gesehen. :)

MfG,
Raff
Und bei welchen Taktraten, UND vor allem bei welcher Kühlung?

Und dann müssen wir ja noch immer ~7-15% nochmal draufrechnen, weil wir von 15 SMX ausgegangen sind, und nicht "nur" 14. Der 15 SMX ist aber tendenziell ja eher der schlechteste, weil man ja den schlechtesten SMX normal abschaltet, wenn man denn etwas abschaltet.

Ergo ist die Spannung tendenziell für gleiche Taktrate auch wieder nen taken höher. ~7-15% halte ich daher für sehr angemessen.

Dazu kommt dann noch ein etwas wärmerer DIE, was nochmals den Verbrauch etwas steigen lässt. Sind dann nochmal einige (10)Watt mehr.

Das ist total bekloppt.

So ne Karte müsstest du zwingend mit WaKü ausrüsten.

Godmode
2013-05-26, 12:47:11
Nebenbei ist die Versteurung hier bei uns so brutal dass die erste Palit GTX780 bei bruellenden 710 Euros ankam; im Gegensatz XFX 7970@1GHz bei 375 und XFX 7970GE@1.05GHz bei 404 Euros :frown:

Ich denke mit der Zeit wird sich das sicher etwas weiter unten einpendeln. Eventuell bekommst ne gebrauchte Titan? Ich denke sogar das die GTX 780 auch die Titan Preise fallen lässt, da die 950 Euro jetzt noch weniger Sinn machen, also vorher.

Godmode
2013-05-26, 12:50:19
Und bei welchen Taktraten, UND vor allem bei welcher Kühlung?

Und dann müssen wir ja noch immer ~7-15% nochmal draufrechnen, weil wir von 15 SMX ausgegangen sind, und nicht "nur" 14. Der 15 SMX ist aber tendenziell ja eher der schlechteste, weil man ja den schlechtesten SMX normal abschaltet, wenn man denn etwas abschaltet.

Ergo ist die Spannung tendenziell für gleiche Taktrate auch wieder nen taken höher. ~7-15% halte ich daher für sehr angemessen.

Dazu kommt dann noch ein etwas wärmerer DIE, was nochmals den Verbrauch etwas steigen lässt. Sind dann nochmal einige (10)Watt mehr.

Das ist total bekloppt.

So ne Karte müsstest du zwingend mit WaKü ausrüsten.

Ja Wakü würde man dazu schon benötigen, oder einen extrem starken Luftkühler. Also ich hätte nichts gegen ein wirkliches Highend Produkt mit sehr hohem Stromverbrauch und alternativen Kühler. Allerdings wird der Kundenkreis hier so klein, dass sich das für den Hersteller wohl nicht auszahlt. Wir müssen einfach mit dem zufrieden sein, was sie uns jetzt anbieten und sowas aus meinem Munde. :wink:

Skysnake
2013-05-26, 13:09:35
Ihr könnt ja noch immer OC´en ;)

Was nur zu kritisieren ist, ist nVidia "Green Light" Program, oder wie der Dreck auch immer genau heisen mag :down:

Damit wird euch die Möglichkeit nämlich genommen, auf eigenes Risiko das letzte aus der Hardware raus zu holen...

Knuddelbearli
2013-05-26, 13:25:23
tja das ja eben teilweise das Problem bei NV die maximale Spannungen sind unter WaKü so lächerlich gering ...

boxleitnerb
2013-05-26, 13:27:13
Also bei 1150/3400@1.2V komme ich in Spielen nicht über 120% raus mit Wakü.

gnahr
2013-05-26, 13:33:41
Was nur zu kritisieren ist, ist nVidia "Green Light" Program, oder wie der Dreck auch immer genau heisen mag :down:
immer wenn man denkt die letze halluzination wär bei ihm wieder hinten über gefallen, holt er die nächste räuberpistole raus.

für die 780 sind custom-designs absolut präsent im verkauf, was hat der blödsinn also hier zu suchen?

Skysnake
2013-05-26, 13:45:17
Verfolg die Diskussion, dann weißt du es auch :P

boxleitnerb
2013-05-26, 13:51:08
Du scheinst nicht zu verstehen, dass es jedem AIB freisteht, nicht beim Greenlight Programm mitzumachen. Eben Garantiefälle dann auf eigene Kosten zu bearbeiten. Aber Nvidia ist natürlich Schuld, gell? Versuch doch wenigstens mal, objektiv zu sein, kriegst du das irgendwie mal hin, wenn es um Nvidia geht?

gnahr
2013-05-26, 13:53:08
das nützt nix in dem fall des "blödsinns erzählens und andeutends".
leg doch die komplette korrespondenz mit evga bzgl. des einzelfalls offen und versuch nicht wieder sinnlos irgendwem miesepeter anzudichten. traditionell haben medallien immer 2 seiten, was aber nicht jeder schnallt und dann solche scharfgerichte ausruft.

Nightspider
2013-05-26, 14:29:13
Bei den 780 Karten gibt es Custom Designs aber nicht bei den Titans und falls eine Titan Ultra kommt dann sicherlich auch nicht bei ihr.
Also könnte man dann eine GK110 Karte mit vollen 15 SMX nicht extrem übertakten mit wakü.

Das meinte Skysnake sicherlich damit.

boxleitnerb
2013-05-26, 14:35:20
Was er meinte, ist schon klar. Nur liegt die Schuld daran nicht automatisch an Nvidia. Die AIBs haben ebenso die Wahl. Solche Details fallen halt bei ihm gerne mal unter den Tisch, damit er wieder über Nvidia meckern kann.

Nightspider
2013-05-26, 14:41:54
Wenn NV aber Custom Designs bei Titan und Titan Ultra verbietet und damit keine höheren Spannungen möglich sind, dann liegt das Problem doch aber schon bei Nvidia oder? :uconf2:

aufkrawall
2013-05-26, 14:43:16
Titan Ultra gibts nur im Land der Fantasie.
Sich über Dinge aufregen, die es gar nicht gibt, aua...

Knuddelbearli
2013-05-26, 14:50:59
er schrieb Titan und Titan Ultra das du aber nur Titan Ultra liest ist ja wie immer klar ...

aufkrawall
2013-05-26, 14:54:48
Dass ich Titan mit seinen Macken, insbesondere in Anbetracht der 780, blöd finde, habe schon unlängst zum besten gegeben.
Ist Nvidia halt selbst schuld, wenn sie so weniger Titans verkaufen.

Dein Vorwurf ist also ebenso falsch wie übrigens auch ziemlich langweilig zu lesen.

Skysnake
2013-05-26, 15:28:22
Wenn NV aber Custom Designs bei Titan und Titan Ultra verbietet und damit keine höheren Spannungen möglich sind, dann liegt das Problem doch aber schon bei Nvidia oder? :uconf2:
Vergiss es, nVidia ist da natürlich komplett raus zu halten. Die AIBs haben ja alle "Freiheiten" der Welt. Sollen Sie sich halt über nVidias Vorgaben hinweg setzen. :rolleyes:

Wenn dann jemand plötzlich schlechter Bedacht wird seitens nVidia, dann ist das ja reiner Zufall....

Wer glaubt, dass sich AIBs über nVidias Vorgaben hinweg setzt, der glaubt auch noch an den Weihnachtsmann... Die sind einfach viel zu abhängig von nVidia, und nVidia hat bzgl Presse usw auch schon in der Vergangenheit gezeigt, dass Sie ihre "Partner" durchaus verstehen an der kurzen Leine zu halten...

boxleitnerb
2013-05-26, 15:28:33
Wenn NV aber Custom Designs bei Titan und Titan Ultra verbietet und damit keine höheren Spannungen möglich sind, dann liegt das Problem doch aber schon bei Nvidia oder? :uconf2:

Nein, denn den AIBs steht es immer noch frei, was anderes zu machen. Nvidia verbietet nichts, sie knüpfen Bedingungen an die Garantie für die GPUs bzw. Karten, die sie den AIBs verkaufen. Das ist etwas völlig anderes.
Nur weil die AIBs zu feige sind bzw. zu geizig, ist es jetzt Nvidia's Schuld? Zudem gibt es keine Beweise, dass den AIBs Nachteile entstehen, die über das finanzielle Stemmen der Garantiefälle hinausgehen. Das ist pure Spekulation. Fantasien sollten nicht angeführt werden in einer Diskussion.

Skysnake
2013-05-26, 16:23:43
Wie stellst du dir denn vor, dass ein einzelner AIB das handhaben soll?

Stell dir mal sowas wie Bump-Gate vor oder oder oder.

Daran würde jedweder Boardpartner zugrunde gehen.

Übertrag das mal überspitzt auf andere Bereiche:

Autohersteller: "Wir gehen auf das gesamte Auto gar keine Garantie, wenn Sie ein Bodykit am Fahrzeug montieren"

Es ist ja nicht so, das bei OC die Garantie seitens nVidia/Boardpartner nicht eigentlich eh erlischt...

nVidia setzt da den Boardpartnern aber voll auf bewusst das Messer auf die Brust. Die wissen nämlich auch SEHR genau, dass das so ablaufen wird. Die sind ja auch nicht dumm...

Wenn Sie nen Problem mit OC haben, sollen Sie die Karten halt darauf testen, ob OC durchgeführt wurde....

ABER NEIN, dann leidet ja das: "Ach OC schon, das ist ok, wenn was passiert, dann schick die Karte ein, die bekommste eh ersetzt, weils keine Nachprüfen kann"-Image....

Nein, dann lieber gleich das OC´en praktishc unmöglich machen...

Captain Future
2013-05-26, 16:31:36
Autohersteller: "Wir gehen auf das gesamte Auto gar keine Garantie, wenn Sie ein Bodykit am Fahrzeug montieren"

Richtig wäre:
"Wir geben auf das Getriebe keine Garantie, wenn es über den roten Bereich hinaus betrieben wird." :eek:

In was für einer Welt lebst du eigentlich? Denkst du allen Ernstes, Nvidia solle die Garantiefälle für all die Extrem-Übertakter, die jenseits der Durchschlagspannung arbeiten zahlen?

Knuddelbearli
2013-05-26, 16:54:33
OC ist so oder so nicht von der Garantie gedeckt ...

boxleitnerb
2013-05-26, 17:09:07
Wie stellst du dir denn vor, dass ein einzelner AIB das handhaben soll?

Stell dir mal sowas wie Bump-Gate vor oder oder oder.

Daran würde jedweder Boardpartner zugrunde gehen.

Übertrag das mal überspitzt auf andere Bereiche:

Autohersteller: "Wir gehen auf das gesamte Auto gar keine Garantie, wenn Sie ein Bodykit am Fahrzeug montieren"

Es ist ja nicht so, das bei OC die Garantie seitens nVidia/Boardpartner nicht eigentlich eh erlischt...

nVidia setzt da den Boardpartnern aber voll auf bewusst das Messer auf die Brust. Die wissen nämlich auch SEHR genau, dass das so ablaufen wird. Die sind ja auch nicht dumm...

Wenn Sie nen Problem mit OC haben, sollen Sie die Karten halt darauf testen, ob OC durchgeführt wurde....

ABER NEIN, dann leidet ja das: "Ach OC schon, das ist ok, wenn was passiert, dann schick die Karte ein, die bekommste eh ersetzt, weils keine Nachprüfen kann"-Image....

Nein, dann lieber gleich das OC´en praktishc unmöglich machen...

Wie nennt man das, was du da immer machst? Plenken ist es nicht. Achte doch mal auf eine vernünftige Formatierung deiner Posts - gehaltvoller werden sie nicht, wenn du sie mit Leerzeilen streckst.

Bumpgate hat nichts mit OC zu tun.
Und die AIBs können immer noch extra OC-Modelle herausbringen und die Vorgaben von Greenlight nur für diese Karten ignorieren. Daran würde niemand zugrunde gehen, im Gegenteil kann man für diese Modelle noch einen kleinen Aufschlag verlangen. Immerhin kann man Modifikationen auch in vernünftigen Bereichen erlauben, wo das Risiko eines Defekts vertretbar ist. Du wirfst Sachen in einen Topf, die miteinander nichts zu tun haben und übertreibst wie immer maßlos. Komm wieder, wenn du richtige Argumente hast.

Skysnake
2013-05-26, 17:16:20
Was für ein Problem hast du damit?

Lass dir mal durch den Kopf gehen, was Knuddelbearli gepostet hat:


OC ist so oder so nicht von der Garantie gedeckt ...
Fällt dir was auf?

Wo ist also das Argument, es den Boardpartnern so unschmackhaft zu machen, dass Sie die Karten zu noch mehr OC fähig machen?

Ach ja richtig, es könnte schlechte Presse geben, die auf einen zurück fällt, oder die nächste Generation wird zu sehr bedrängt....

Captain Future
2013-05-26, 17:22:24
Egal wer die Spannung hochtreibt - sobald eine vom Prozess abhängige Schwelle überschritten wird, steigen die Ausfälle überproportional.

Wenn du es - wie du ja mitgequotet hast - als normal empfindest, dass OC nicht von der Garantie abgedekt ist, wieso sollte es eine Spannungserhöhung dann sein?

boxleitnerb
2013-05-26, 17:25:20
Was für ein Problem hast du damit?

Lass dir mal durch den Kopf gehen, was Knuddelbearli gepostet hat:


Fällt dir was auf?

Wo ist also das Argument, es den Boardpartnern so unschmackhaft zu machen, dass Sie die Karten zu noch mehr OC fähig machen?

Ach ja richtig, es könnte schlechte Presse geben, die auf einen zurück fällt, oder die nächste Generation wird zu sehr bedrängt....

Stimmt beides - und dennoch ist es immer noch den Boardpartnern möglich, ihr eigenes Ding zu machen auf eigene Kosten. Selbst Schuld, wenn man die Möglichkeit nicht wahrnimmt und damit Differenzierungspotential zur Konkurrenz brach liegen lässt.

Und dass deine Postingweise Qualität mit Quantität ersetzt, sollte dir klar sein. Wie gesagt, das macht deine Posts nicht besser. Konstruktive Kritik und so.

Knuddelbearli
2013-05-26, 18:19:54
Und die AIBs können immer noch extra OC-Modelle herausbringen und die Vorgaben von Greenlight nur für diese Karten ignorieren. Daran würde niemand zugrunde gehen, im Gegenteil kann man für diese Modelle noch einen kleinen Aufschlag verlangen. Immerhin kann man Modifikationen auch in vernünftigen Bereichen erlauben, wo das Risiko eines Defekts vertretbar ist. Du wirfst Sachen in einen Topf, die miteinander nichts zu tun haben und übertreibst wie immer maßlos. Komm wieder, wenn du richtige Argumente hast.

Eine Titan damit würde dann aber 1500€ kosten ...

PHuV
2013-05-26, 18:29:36
Frage: Gibt es durch die abgeschaltetenDouble-Precision-Leistung bei der 780er irgendwie ein Nachteil, z.B. bei der Videoberechnung oder anderweitigen CUDA-Berechnungen?

Captain Future
2013-05-26, 18:31:55
Eine Titan damit würde dann aber 1500€ kosten ...
Wieso? Laut Skysknake wird doch die Garantie nur wegen der Boshaftigkeit von Nvidia nicht gegeben. Kosten entstehen dadurch doch keine. :freak:


BTW: Sowohl OC als auch OV sind doch möglich. Nur halt nicht "open end". Wenn das so eine kleine Geschichte wäre (erinnert euch: Nur Boshaftigkeit abziehen, dann geht alles von allein), dann würden die AIBs da doch haufenweise drauf abfahren... oder etwa nicht?

Skysnake
2013-05-26, 19:03:43
Dir ist der Unterschied zwischen GTX780 und GTX Titan schon aufgefallen ;)

Allein durch nen besseren Kühler holt man einiges raus beim GK110.

Das will nVidia aber nicht. Mich wunderts ja, das man die GTX780 so hoch treiben kann, aber da würde ich in 1-2 Monaten lieber nochmal schauen, nicht das sich nVidia die Sache nochmal anders überlegt.

Und nein, es ist natürlich nicht umsonst, aber gerade so Sachen wie Customkühler machen ja direkt nichts bzgl OC aus.

Und wie schon gesagt, OC bedeutet Garantieverlust in JEDEM! Fall. Es ist also ne beschneidene Ausrede.

Man zieht sich damit nur eine gewisse Klientel heran, indem man inoffiziell praktisch doch ne "Garantie" auf OC gibt. Das zahlt der normale Kunde aber komplett mit...

Das ist in meinen Augen unehrlich, und btw bei AMD nicht besser... Man sollte da wirklich ehrlicher agieren. Sprich keine Grenzen, wenn etwas aber abraucht, auch nur bei 1MHz OC, dann haste halt Pech gehabt.

Knuddelbearli
2013-05-26, 19:21:45
Wieso? Laut Skysknake wird doch die Garantie nur wegen der Boshaftigkeit von Nvidia nicht gegeben. Kosten entstehen dadurch doch keine. :freak:


BTW: Sowohl OC als auch OV sind doch möglich. Nur halt nicht "open end". Wenn das so eine kleine Geschichte wäre (erinnert euch: Nur Boshaftigkeit abziehen, dann geht alles von allein), dann würden die AIBs da doch haufenweise drauf abfahren... oder etwa nicht?

boshaftigkeit würde ich es nicht nennen aber ja sie werden so teuer weill NV das will

Titan kostet 950€, RAM PCB usw kostet vielleicht 200€ seien wir extrem!!! großzügig und sagen 250€.
Also verlangt NV für den Chip 700€, und da der Hersteller die Garantie dann selber stemmen muss aber mit ziemlicher Sicherheit keinerlei Rabatt von NV dafür bekommt das NV nix mit der Garantie zu tun hat kann man die nochmal draufschlagen.

Und jetzt kommt das Henne Ei Problem, dadurch das diese Karte so teuer ist wird sie kaum gekauft werden und dadurch das sie so selten gekauft wird geht der AIB extremes Risiko ein ( ein deutlich überdurchschnittlicher Ausfall innerhalb der Garantiezeit ist bei 1.000 Karten deutlich Wahrscheinlicher als bei 50.000 )
Andere Möglichkeit wäre natürlich das die AIBs OC Kontrollen einführen aber dann möchte ich das Geschrei hier nicht hören ...
Wenn ich sehe wie sogar mit BIOS flashen hier umgegangen wird ...
*

Skysnake übertreibt ein wenig aber hat durchaus recht mit seiner Aussage, die aussage das NV doch nichts dafür kann das es kein AIB macht, ist dagegen lächerlich und zeigt das die Leute sich keinerlei Gedanken machen, sondern der Reflex gegen Skynsnake und oder pro NV überwiegt.

* Wobei das sowieso der nächste Logische Schritt von Seiten NV nach dem Green Programm wäre.

pest
2013-05-26, 21:10:54
ein deutlich überdurchschnittlicher Ausfall innerhalb der Garantiezeit ist bei 1.000 Karten deutlich Wahrscheinlicher als bei 50.000

Das macht keinen Sinn.

Knuddelbearli
2013-05-26, 22:04:31
Es kann nie etwas Sinn machen höchstens Sinn ergeben ;-)

Und doch das ergibt Sinn, einfache Stochastik, je höher der Umfang desto unwahrscheinliche Statistische Ausreißer.

Skysnake
2013-05-26, 22:54:11
Das macht keinen Sinn.
1 von 10.000 ist mehr als 1 von 50.000

;)

Und wie Knuddelbearli schon richtig andeutet, die statistische Schwankung wird für kleine Zahlen größer.

Gesetz der großen Zahlen und so ;)

Captain Future
2013-05-26, 23:22:52
boshaftigkeit würde ich es nicht nennen aber ja sie werden so teuer weill NV das will
Wer redet denn von teuer? Ich denk es geht darum, wie gemein NVs Greenlight Programm ist. Das Programm gilt aber nicht für teure Karten sondern für alle aktuellen - und es ist eben nichts mehr als eine Garantiebedingung.

Garantie nur bis Defaultspannung + X.

Und das finde ich absolut nicht ungewöhnlich und ist auch in anderen Bereichen absolut üblich: Der Hersteller legt Grenzwerte und Toleranzen fest, innerhalb derer er Garantie übernimmt. Alles andere ist vollkommener Schwachsinn, den kein denkender Mensch bei seinen eigenen Produkten anders handhaben würde.

Dir ist der Unterschied zwischen GTX780 und GTX Titan schon aufgefallen ;)
Allein durch nen besseren Kühler holt man einiges raus beim GK110.
Das will nVidia aber nicht. Mich wunderts ja, das man die GTX780 so hoch treiben kann, aber da würde ich in 1-2 Monaten lieber nochmal schauen, nicht das sich nVidia die Sache nochmal anders überlegt.
Und nein, es ist natürlich nicht umsonst, aber gerade so Sachen wie Customkühler machen ja direkt nichts bzgl OC aus.
Und wie schon gesagt, OC bedeutet Garantieverlust in JEDEM! Fall. Es ist also ne beschneidene Ausrede.
Man zieht sich damit nur eine gewisse Klientel heran, indem man inoffiziell praktisch doch ne "Garantie" auf OC gibt. Das zahlt der normale Kunde aber komplett mit...
Das ist in meinen Augen unehrlich, und btw bei AMD nicht besser... Man sollte da wirklich ehrlicher agieren. Sprich keine Grenzen, wenn etwas aber abraucht, auch nur bei 1MHz OC, dann haste halt Pech gehabt.
Oh mann, checkst du es echt nicht?
Wenn Nvidia das nicht wollen würde, warum gibt es dann Titans mit Werks-Wakü??? GERADE da geht ja noch einiges.

Es geht da drum, dass Greenlight den AIBs gewisse Grenzen setzt für die Spannungen, die bei deren Karten ab Werk anliegen und per Tool anwählbar sind.
So. Wenn die Spannung nun 1,15 Volt sind, die AIBs dann noch 0,05 Volt draufpacken dürfen und gut ist, aber AIB A meint, er muss die tollste Karte anbieten und dafür eben Spannungen von 1,5 Volt anlegen (übertrieben, aber es geht ja drum, dass es überhaupt Vorschriften gibt). Von den Karten gehen dann viele frühzeitig drauf und der AIB hat nicht nur eine tolle RMA Quote, er beschädigt auch den Ruf (Skysnake-Postin: "Nvidia-Karten rauchen reihen Weise ab") und er will dann Ersatzchips von Nvidia haben.

Da muss doch jeder von selbst drauf kommen, dass das so nicht geht.

gnahr
2013-05-26, 23:36:38
ja? ja, polizei, ich möchte 2 klare fälle von drogenmissbrauch melden.


die beiden taschenspieler ziehen hier jetzt ne große zigeuner-nummer ab damit.
einfach mal absolute zahlen und relative werte in einen topf haun und hausieren gehen...
der letzte versicherungsexperte (um nix anderes geht es hier) mit so desolaten realitätsbezügen hieß "stromberg".
selbst wenn ihr noch fünf mal ungünstige granulierungsfälle für ein und der selben glockenfunktion vorbetet und euch gemeinsam zuprostet ändert das nix an der n-fach kleineren fläche unter der ausfall-wahrscheinlichkeitsfläche als maß des schadens.

Iruwen
2013-05-27, 07:22:34
Titan kostet 950€, RAM PCB usw kostet vielleicht 200€ seien wir extrem!!! großzügig und sagen 250€.
Also verlangt NV für den Chip 700€

Richtig, weil R&D, Marketing usw. nämlich nichts kosten. Und bei einer Tesla K20X kostet das PCB 1000€ und der Chip 3500€. Passt alles.

/e: eine einfache Lösung wäre doch eine Sicherung irgendwo einzubauen die bei Spannungserhöhung durchbrennt. Spannungserhöhung ist nur über ein zweites BIOS möglich das per manuellem Schalter aktiviert werden muss. Haftung liegt beim Kunden, Ende. Alles Technik die es schon längst gibt und praktisch nichts kostet.

Skysnake
2013-05-27, 09:26:31
Das will man aber nicht, obwohl es wohl laut Aussage eines Herstellers, unter der Hand, bei einem der beiden großen wohl sogar bereits so ist, dass die das in ihre Chips integrieren, und bei RMA sehr wohl wissen, was Sache ist, nur anscheinend es zumindest aktuell nicht/so gut wie nicht nutzen.

nVidia und AMD leben doch teils auch vom "OC-Image".

Wobei es bei der Titan ja ziemlich seltsam ist, da man erst mit MOD-BIOS wirklich richtig übertackten kann wies scheint.

Wie sieht das eigentlich bei der GTX780 genau aus? Die gleichen Einschränkungen, aber etwas weniger Schlitt, da bessere Luftkühler?

bzgl Kühler noch:
Ja, es gibt genau einen anderen Kühler @Werkszustand, und das ist von EVGA die Hydro-Copper, das wars...

Und selbst da rennt man eben ziemlich schnell in die 106% TDP.

Warum ist das überhaupt so tief, wenn es bisher nie so tief war, und 106% auch ziemlich knapp bemessen ist. Sehr ihr dafür etwa auch "rationale Gründe"?

Also abgesehen davon, dass man die Karte "künstlich" klein halten will.

Iruwen
2013-05-27, 09:39:17
Grün, grün, grün sind alle meine Karten, also nicht nur die Corporate Identity sondern auch ökologisch. Geringe Leistungsaufnahme im Idle und Boostgedöns meinetwegen, aber wenn ich Leistung brauch will ich die auch abrufen können. Ich hab mir keine Wakü zugelegt um damit Kinderkacke wegzukühlen.

Botcruscher
2013-05-27, 10:56:05
Was für ein beschissenes Preis/Leistungsverhältnis für einen Stück Resteverwertung. Ja nicht mit 570, 470, 2xx vergleichen. Ich frage mich wo die Stimmen bleiben, dass AMD Preisdumping betreibt.:freak: Ansonsten ist es ja ein nettes Kärtchen.

mit 4 oder 5 Graphics Processing Clusters (GPCs)

WTF?!?

Marty98
2013-05-27, 11:22:37
Da von AMD nichts mehr kommt kann man nicht von Preisdumping sprechen. Die 7970 GE ist nicht billig. Nur nicht so teuer wie NVidia. Zu 680 gibt es 50 Euro Differenz.

Cyphermaster
2013-05-27, 11:54:29
nVidia und AMD leben doch teils auch vom "OC-Image".Das ist leider sogar im steigenden Umfang so! Vor allem deshalb "leider", weil es sich nicht nur um einen schwer objektiv zu fassenden Faktor handelt (Solche Legenden werden ja von der Masse der Käufer teils von einer Chipgeneration auf die nächste tradiert, obwohl technischer Unsinn), sondern obendrein die Firmen ihrerseits durch immer stärker schwankende Leistungen ihrer Karten (Powertargeting, Boost,...) diese Uneinschätzbarkeit noch ausweiten, was pure Marketingabteilungs-Propaganda und anhaltspunktlose Hypes begünstigt.

Man sieht doch auch and den Diskussionen hier im Thread, daß mittlerweile alleine dadurch in Tests schon Varianzen erzeugt werden, die nahezu im zweistelligen Prozentbereich liegen. Das sind Differenzen, die beinahe schon so groß sind, wie manchmal der Schritt zur nächsthöheren/-niedrigeren Karte. Das macht es viel schwieriger als früher, eine Karte wirklich klar einzuordnen.