PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Hmmm... Warum sind fast keine GTX680 zu bekommen?


Gast
2012-05-16, 21:04:58
was ist das los, weiss jemand wann sich die Lage wieder entspannt? Und wird die Karte noch deutlich im Preis sinken weil irgendwie ist die ja ned viel schneller als die 670...

Harley Berlin
2012-05-16, 21:16:56
weil irgendwie ist die ja ned viel schneller als die 670...
na dann brauchste ja nicht warten und kaufst eine GTX 670, Chiptakt: ab 1000MHz
http://geizhals.at/de/?do_compare=+Vergleichen+&cmp=776907&cmp=774003&cmp=774962&cmp=776592&cmp=776848&cmp=776903

xxMuahdibxx
2012-05-16, 21:53:43
Wenn nix da ist kann der Preis doch egal sein es warten genügend Kunden die ihn bezahlen . Also wozu etwas "billig" anbieten und gar keinen Gewinn machen mit der geringen Ausbeute .

Wer das Flagschiff braucht solls sich kaufen egal wann wer Preislich attraktiv kaufen will
sollte noch warten .

Käsetoast
2012-05-16, 23:41:12
Gerüchteweise sieht's so aus, dass die Produktion der 680er Karten nicht sooo bombig läuft. Teildefekte Chips die auf den 670ern eingesetzt werden sind da schon etwas leichter zu ergattern. An großartige Preissenkungen in nächster Zeit glaube ich nicht - von daher die Karte wählen die entweder ausreichend Leistung liefert, oder schlichtweg noch ins Budget passt. Ein Preis-/Leistungswunder sollte man bei der GTX680 als Flagschiff aber sowieso nicht erwarten... :wink:

Gast
2012-05-17, 11:38:20
na dann brauchste ja nicht warten und kaufst eine GTX 670,

Naja, da hat man ja dann immer das Gefühl den Abfall zu bekommen, der es zur 680 halt ned geschafft hat...

hardtech
2012-05-17, 12:07:01
Der abfall rechnet nur verdammt schnell und ist auch noch günstiger. Wo liegt denn nun dein problem?

Harley Berlin
2012-05-17, 13:08:54
Naja, da hat man ja dann immer das Gefühl den Abfall zu bekommen, der es zur 680 halt ned geschafft hat...
das ist oft (immer) so bei Grafikarten und auch bei CPUs das abwärts aussortiert und dem entsprechend Umgelabelt wird ;)
dann darfst du gar nix mehr kaufen :)

mfg

Gast
2012-05-17, 15:07:55
Hmmm... Kommt dieses Jahr eigentlich noch ne schnellere Single GPU (egal ob AMD oder nV) oder bleibt alles beim alten?

Harley Berlin
2012-05-17, 15:29:48
mal 2 Artikel zum lesen

GeForce GTX 690 - Die "Ultra-Enthusiasts Gaming Karte"
http://www.tweakpc.de/hardware/tests/grafikkarten/nvidia_geforce_gtx_690/s01.php

Gainward GeForce GTX 670 Phantom - Beurteilung
http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_geforce_gtx_670_phantom/s17.php

Wums
2012-05-19, 11:13:56
Keine Ahnung wieso du meinst das keine 680er zu bekommen sind, wenn ich auf GH schaue kann man eine Gigabyte, MSI, Palit, Gainward nicht referenz karte bei mehreren Shops kaufen.

Zergra
2012-05-19, 11:43:38
Keine Ahnung wieso du meinst das keine 680er zu bekommen sind, wenn ich auf GH schaue kann man eine Gigabyte, MSI, Palit, Gainward nicht referenz karte bei mehreren Shops kaufen.
Fast keine ;)

Hmmm... Kommt dieses Jahr eigentlich noch ne schnellere Single GPU (egal ob AMD oder nV) oder bleibt alles beim alten? Ob GK110 dieses Jahr kommt ? Ich bezweifle das (jedenfalls fürs Gaming) Ob AMD dieses Jahr noch was schnelleres Rausbringt ? Der Tahiti Refresh wird wohl noch kommen und dann irgentwann im 1Q 2013 kommt dann der Kepler Refresh vllt sogar mit Gk110.

Gast
2012-05-19, 11:47:30
Was meint ihr, wie wird diese GK110 GPU dann genannt?

GTX 680 - schon besetzt
GTX 685 - das wird der neuen GraKa wohl kaum gerecht
GTX 690 - DoppelGPU schon besetzt
GTX 695 - unlogisch
GTX 7xx - unlogisch weil keine neue Technologie

Wenn sie den GK110 wirklich als GamerGPU bringen wollen war die Benennung des 104 als "680" doch selten blöd?

Zergra
2012-05-19, 11:53:38
Was meint ihr, wie wird diese GK110 GPU dann genannt?

GTX 680 - schon besetzt
GTX 685 - das wird der neuen GraKa wohl kaum gerecht
GTX 690 - DoppelGPU schon besetzt
GTX 695 - unlogisch
GTX 7xx - unlogisch weil keine neue Technologie

Wenn sie den GK110 wirklich als GamerGPU bringen wollen war die Benennung des 104 als "680" doch selten blöd?
Die wird vllt in den 700Serie Refresh eingebracht, also GT780 und die 680 wird dann zur 770GTX, die 500Serie war auch keine neue Technologie :rolleyes:.
Ob Gk110 wirklich als GamerGPU kommt ? Viele hoffen es aber eine 100%tige Sicherheit wird es nicht geben.

UlcerousVomitus
2012-05-19, 11:54:08
Auf Lager heißt in den seltensten Fällen auch wirklich auf Lager.

Gast
2012-05-19, 11:55:38
Vor allem wenns irgendwelche dubiose Shops sind bei denen keine Sau jemals was bestellt hat.

akuji13
2012-05-19, 12:08:44
Also in Shops die es schon lange gibt und die sich einen Namen gemacht haben, kann man sich (Fehler mal außen vor) doch auch auf die Angaben verlassen.

Gast9t99
2012-05-20, 17:18:59
Was meint ihr, wie wird diese GK110 GPU dann genannt?

GTX 680 - schon besetzt
GTX 685 - das wird der neuen GraKa wohl kaum gerecht
GTX 690 - DoppelGPU schon besetzt
GTX 695 - unlogisch
GTX 7xx - unlogisch weil keine neue Technologie

Wenn sie den GK110 wirklich als GamerGPU bringen wollen war die Benennung des 104 als "680" doch selten blöd?

[x] GTX 680 Ti

Die GTX 560 Ti gibts ja auch in zwei Versionen. ;)

dargo
2012-05-20, 17:25:21
[x] GTX 680 Ti

Garantiert nicht. Dafür wird GK110 zu schnell sein. Sie wird einfach GTX 780 heißen.


GTX 7xx - unlogisch weil keine neue Technologie

Welche neue Technologie brachte die GTX580 gegenüber der GTX480? ;)

Gast9t99
2012-05-21, 06:43:43
Garantiert nicht. Dafür wird GK110 zu schnell sein. Sie wird einfach GTX 780 heißen.
In 1-2 Jahren redet vielleicht schon keiner mehr vom GK110.

Als Vergleich:
Hätte man den unbeschnittenen GF 100 zwei Jahre zurückgehalten (Release war März 2010), wäre er vom GF 110 (Release war November 2010) glatt überholt worden. Die GTX 480 wäre niemals erschienen, weil sie einfach niemand gekauft hätte. Das gleiche gilt auch für den unbeschnittenen GF110, der dann vom aktuellen GK104 überholt worden wäre (wenn dieser sich nicht verzögert hätte).

Da sich die Entwicklungszyklen bei nVidia nicht geändert haben, sehen wir jetzt ein ähnliches Szenario. Nur das man diesmal nicht mit dem Highend-Produkt, sondern gleich mit der Mainstream-Variante startet. Grund werden möglicherweise die schlechten Geschäftsergebnisse mit den GF100 und GF110 -Chips gewesen sein. Mit den GF104 und GF114 hat man imho ein Vielfaches an Umsatz machen können.
Mich beschleicht daher immernoch das Gefühl, daß es keinen GK110 in einer GTX-Version geben wird. Klar wird das im Moment nicht so deutlich ausgesprochen. Aber doch nur, um den Shitstorm aus dem eigenen Fanboy-Lager zum Release der GTX680 zu verhindern. Mitte bis Ende 2013 erinnert sich doch kein Mensch mehr an den ollen GK110.

Ich rechne immernoch damit, daß der GK110 in der GTX-Version möglicherweise komplett flachfällt. Es kann mir keiner erzählen, daß man bei nVidia nicht schon vor Monaten damit angefangen hat am Kepler-Nachfolger zu arbeiten. Der Name steht ja auch schon quasi fest: 'Newton'. Der abgespeckte Newton (GTX 780) wird dann wiederum eine GTX 680 um 50-100% und den Kepler im Vollausbau um etwa 25%-50% hinter sich lassen. Wenn das der neue Entwicklungsrythmus wird, wird es im Gaming-Bereich keine für den Hersteller unbequemen Prototypen-GPUs mit Vollausbau mehr geben. Man wird sich auf einen bestimmten prozentualen Leistungszuwachs einschießen und dann jeweils nur noch Chips auf den Markt bringen, welche exakt die Leistung bringen, welche notwendig ist, um die Mehrzahl der Casual-Gamer zu einem Upgrade zu bewegen.

Die Zeiten, daß man sich mit vollausgefahrener Architektur selbst das Leben zur Hölle macht nur um eine Handvoll Enthusiasten zu beglücken, sind wohl vorbei. Auch scheint es keinerlei Druck von Seiten der Konkurrenz zu geben. Das ATi/AMD-Flagschiff in Form der 7970 ist imho alles andere als auf Augenhöhe mit dem kastrierten Kepler. Wäre die Performance der 7970 besser gewesen, wäre man Seitens nVidia genötigt gewesen eine bessere CPU als den aktuellen GK 104 zu präsentieren. Aber da hat man sich wohl auch intern abgesprochen. Auch von Seiten der Spielehersteller gibt es keine Probleme. Wenn man sich Spiele wie Diablo 3 anschaut, dann fragt man sich zunehmend, warum man überhaupt eine neue Grafikkarte kaufen soll. Der Unterschied zwischen minimalen und maximalen Grafiksettings ist quasi NULL:
http://www.gamesaktuell.de/Diablo-3-PC-27763/News/Diablo-3-Minimale-und-maximale-Grafik-Einstellungen-im-interaktiven-Vergleich-884129/

Werewolf
2012-05-21, 09:40:47
Mich juckt's auch aber der Sprung von einer GTX 570 ist derzeit nicht sonderlich weit.

V2.0
2012-05-21, 11:16:17
Gerüchteweise sieht's so aus, dass die Produktion der 680er Karten nicht sooo bombig läuft. Teildefekte Chips die auf den 670ern eingesetzt werden sind da schon etwas leichter zu ergattern. An großartige Preissenkungen in nächster Zeit glaube ich nicht - von daher die Karte wählen die entweder ausreichend Leistung liefert, oder schlichtweg noch ins Budget passt. Ein Preis-/Leistungswunder sollte man bei der GTX680 als Flagschiff aber sowieso nicht erwarten... :wink:

Ist doch Quark. Die deaktivierte Diefläche bei der 670 ist unbedeutend und von den Takten gehen auch fast alle 670 auf 680 Niveau. Ich vermute einhach, dass die IHV mehr 670 geordert haben.

desert
2012-05-21, 11:37:13
Mich juckt's auch aber der Sprung von einer GTX 570 ist derzeit nicht sonderlich weit.

Kommt auf das spiel an, ich bin von einer 480gtx gewechselt und in manchen spielen ist schon ein heftiger schub zu spüren.

Gast
2012-05-21, 11:40:50
Naja, warte mal besser noch ne Weile. Ob der VSync-Bug behoben wird, bzw. überhaupt richtig behoben werden kann und ned möglicherweise nen Hardwarefehler ist...

Gast9t99
2012-05-21, 18:26:03
Mich juckt's auch aber der Sprung von einer GTX 570 ist derzeit nicht sonderlich weit.
Angeblich bietet die GTX 680 im Mittel 100% mehr Performance als eine GTX 560 Ti. Der Preis der GTX 560 Ti liegt inzwischen etwa bei 180,-€. Der Preis der GTX 680 von teils immernoch deutlich über 500,-€ richtet sich eindeutig an Hardware-'Besessene'. Was tut man nicht alles, damit man nachts in Ruhe schlafen kann (ohne daß man im Traum ständig vor einem leeren Regal mit dem Schildchen: 'GTX 680 vorbestellt - voraussichtlicher Termin: August/September 2012' ankommt)... und dann wacht man auf... und der Albtraum ist Wirklichkeit!! - Aber wenigstens ist das Geld noch da. :biggrin:

Wenn man sich die Texelrate einer GTX 680 im Vergleich zu einer GTX 570 anschaut, dann kann man schon ins Grübeln kommen:
http://www.hwcompare.com/12367/geforce-gtx-570-vs-geforce-gtx-680/

Und es ist schon brutal, wie stark die Texelrate in manchen Szenarios auf die Ingame-Performance durchzuschlagen scheint. Das ist schon beeindruckend - besonders wenn die GTX 570 nochmal mit auflaufen muß. nVidia hat seine Hausaufgaben bei der GTX 680 gemacht. Da gibt es keine Zweifel. Das bekommt nicht nur die Konkurrenz, sondern auch die bisherigen nVidia-Kunden zu spüren:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22405-te.html?start=12

Wenn du Spiele wie Crysis 2 oder Crysis 3 mit bester Grafik in FullHD spielen möchtest, dann sind die Tage deiner GTX 570 imho gezählt. Wenn du eher der Diablo3-Spielertyp bist, dann ist die GTX 570 Overkill und du könntest wahrscheinlich sogar noch mehrere Chipgenerationen downgraden ohne jegliche grafische Einbußen.

Immerhin wird die GTX 570 überhaupt noch in aktuellen Benchmarks mit angegeben (wenn auch am untersten Rand). Es hängt jetzt alles von deiner Leidensfähigkeit ab..... du mußt jetzt ganz stark sein:

'Here it is':
http://www.youtube.com/watch?v=YAWIbhMQz94

:D

Gast9t99
2012-05-21, 18:39:26
Naja, warte mal besser noch ne Weile. Ob der VSync-Bug behoben wird, bzw. überhaupt richtig behoben werden kann und ned möglicherweise nen Hardwarefehler ist...
Der VSYNC-Bug ist bei vielen ja erst mit dem neuen Treiber aufgetreten. Es ist imho unwahrscheinlich, daß es ein Hardwareproblem ist. Jedenfalls nichts, was sich über den Treiber fixen lassen würde.

"Inzwischen konnte NVIDIA das Problem nachvollziehen und auch eine Lösung scheint gefunden. Diese müsse allerdings erst ausgiebig getestet werden, so dass sie erst mit dem Treiber-Update im Juni zur Verfügung stehen wird."
http://www.tweakpc.de/news/24384/geforce-gtx-600-v-sync-bug-treiber-update-und-workaround/

Werewolf
2012-05-22, 18:27:07
30-50% sind mir zuwenig, 100% müssen's schon sein.

Gast
2012-05-22, 21:20:30
Kann es eigentlich irgendwie ne Treibersache sein dass die 670 kaum langsamer ist als die 680? So dass vielleicht in späteren Treibern der Abstand deutlich grösser wird? :confused:

Weil so isses ja irgendwie witzlos den Mehrpreis für die 680 zu zahlen...

Zergra
2012-05-22, 21:29:32
Kann es eigentlich irgendwie ne Treibersache sein dass die 670 kaum langsamer ist als die 680? So dass vielleicht in späteren Treibern der Abstand deutlich grösser wird? :confused:

Weil so isses ja irgendwie witzlos den Mehrpreis für die 680 zu zahlen...
nö.... der Turbo der 670GTX kommt besser zu greifen, die 680GTX Limitiert wohl Hardwareseitig.

Gast9t99
2012-05-22, 22:49:50
Kann es eigentlich irgendwie ne Treibersache sein dass die 670 kaum langsamer ist als die 680? So dass vielleicht in späteren Treibern der Abstand deutlich grösser wird? :confused:
Du witterst eine Verschwörung?

Mal sehen, was wir haben: 2 Chips - einer davon teildefekt mit einer defekten Rasterengine. Der Abstand zwischen den Launches: 4 Wochen. Ob der Hersteller hier bewußt die GTX 680 (über den Treiber oder sonstwie) eingebremst hat?

Möglich - aber ich glaube es eher nicht. Da werden wohl eher die Grafikkartenhersteller dahinter stecken, die mit den maßlos überteuerten GK104 und der geringen Stückzahl nur schlechte Geschäfte machen können.
Nimm dir mal die EVGA GTX 670 Superclocked vs die EVGA GTX 680. Ein Blick auf die Temps der Wandler zeigt dir sofort, wo der Hase im Pfeffer liegt:

GTX 680 - 72,7 °C
GTX 670 - 104,3 °C
http://ht4u.net/reviews/2012/evga_geforce_gtx_670_superclocked_im_test/index10.php

Unter solchen Bedingungen wird mancher keine lange Freude haben an seiner GTX 670 - besonders im Sommer. Die 104,3 °C wurden wahrscheinlich bei optimalen Bedingungen gemessen. Zur Info: Es gab/gibt bei Wandlern so eine ominöse Grenze von 120 °C. Und zwar sind das afaik nicht die Wandler, sondern die Steuerchips, die bei diesen Temps abschalten. Für diese Chips ist meines Wissen auch keine passive Kühlung vorgesehen.
Aber wer weiß - die neuen Karten sind ja recht 'intelligent' geworden. Vermutlich werden die Karten im Sommer dann aus 'unerfindlichen' Gründen bei dem ein oder anderen unbemerkt(?) in der Leistung etwas zurückfallen. :D