PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Wer von euch kauft Geforce Titan aka GK110?


Seiten : [1] 2

Godmode
2013-01-26, 23:51:19
Das ist eine Umfrage wie viele hier wirklich an Geforce Titan für 800 € interessiert sind.

Specs sagen wir mal:
14-15 SMX
6 GB RAM
384 Bit SI
800-850 MHz
Preis 800 €
und im Schnitt 50% über GTX 680

[] Ja klar, werde direkt beim Launch 1 Karte kaufen
[] Ja klar, werde direkt beim Launch 2 Karten kaufen
[] Ja klar, werde direkt beim Launch 3 Karten kaufen
[] Ja klar, werde direkt beim Launch 4 Karten kaufen
[] Nein, warte auf GK104 Refresh
[] Nein, werde SI von AMD abwarten
[] Nein lasse diese Generation aus bzw. werde diese Jahr keine neue GPU kaufen
[] Unschlüssig, keine Ahnung

aufkrawall
2013-01-26, 23:54:49
[x] Unschlüssig, keine Ahnung

Das Ding muss schon voll aktiviert sein, dann wirds interessant.
800€ werd ich aber definitiv nicht zahlen, also wohl erst später kaufen und wenns nicht nennenswert billiger wird, vielleicht auch gar nicht.

Schrotti
2013-01-27, 00:41:50
Hab zu Weihnachten erst meine 480 durch eine 680 ersetzt und die bleibt locker 2 Jahre in der Kiste.

Backet
2013-01-27, 00:48:48
Dieses Jahr steht auf jeden Fall ein GraKaKauf an.
Aber ganz bestimmt nicht für 800 europäische Einheiten.
Da wart ich mal ab was AMD zu bieten hat.

kunibätt
2013-01-27, 00:51:52
Kann nicht so recht glauben, dass sie dort standardmäßig 6GB verbauen.
Default wird eher 3, mit Option auf später 6.
Bock hätte ich schon, allerdings wenn ich mir die aktuellen Grakapreise ansehe denke ich mir nur " am A....". Da ich aber beim Kaufen nicht so viel denke, würde es mich schon sehr wundern, wenn ich mir keine kaufe.
Im Prinzip mache ich den Kauf von 2 Sachen abhängig:

1.) Man kann im Standard-Design nen Accelero verbauen und dabei die originale Backplate verwenden. Mit diesem Klebeschrott bin ich durch, mit den Customdesigns auch--> Accelero + Backplate, FTW, besonders bei der wohl hohen Verlustleistung.

2.) 6 GB und OC möglich.

Kane02
2013-01-27, 01:14:58
Ich frage mich - wozu?
Soviel Geld für eine Karte die ich nicht ausreizen kann und es IMO keine Notwendigkeit (für mich) gibt.
Meine 5850 langt noch immer...

Hugo78
2013-01-27, 01:17:00
Der Spielemarkt ist aktuell so ernüchternd, dass ich dieses Jahr Null Komma Nix investieren werden, was Gaming HW angeht ...

Mich würde es aber freuen, wenn wir einen 15 SMX GK110 in nächster Zeit zusehen bekommen.
Geld hin oder her, andere Leute verballern 80000 in ein Motorrad oder Auto, mit dem sie nicht umgehen können.
Dagegen sind 800€ für ne Graka Kinderkram.

Knuddelbearli
2013-01-27, 01:43:23
[x] eventuell wenn Straßenpreis eher Richtung 700€ liegt sie sich richtig gut ocen lässt und min 4GB Ram hat ( also vermutlich 6 ^^ )

LSSJBroly
2013-01-27, 01:46:42
[x] Unschlüssig, keine Ahnung - eigentlich hatte ich ja vor, ne GTX 780 - "Titan" gefällt mir nicht:P mit nem GK110 zu kaufen, allerdings...

800€ werde ich für einen GK110 nicht bezahlen, schließlich wird das wohl kein G80 werden, der Kreise um die Konkurenz ziehen wird. Selbst jetzt ist die GTX 680 schon maßlos zu teuer im Verhältnis zu AMDs Karten. Wenn dann etwa 300-400€ zwischen der "Titan" und einer HD 8970 liegen, die AMD aber nur etwa 15-20% langsamer ist, kann nVidia so einen Preis niemals rechtfertigen. Ich hoffe dann inständig, dass sich das Teil sogut wie nicht verkaufen lässt. Schließlich leben wir in einer Marktwirtschaft...:rolleyes:

Naja, meine Alternative ist weiterhin ne zweite GTX 680, welche wohl nach Lauch doch günstiger werden. Ich bleibe aber weiterhin dabei, dass 800€ nichts weiter als ein gerücht ist.

Neosix
2013-01-27, 02:37:27
[x] Hab erst seit kurzem eine GTX660, aktuell reicht es für absolut alles auf high. Vielleicht wenn ich auf ein größeres Monitor wechsle, wird es einen Bedarf für mehr. Dann eher in Richtung GTX760-770

G 80
2013-01-27, 02:44:52
Unschlüssig.


Titan ja gerne, aber nicht zu dem Preis. Auch sonnst kann mich NV gerne haben falls die Preise für Performance so bleiben, dann wird eben GAR NICHTS gekauft.

Darkman.X
2013-01-27, 02:59:53
Ich wollte eigentlich meine 580er gegen Titan austauschen, aber der Preis...

Konami
2013-01-27, 03:00:38
Die Umfrage bietet vier Antwortmöglichkeiten für "Ja, direkt beim Launch", drei für "Nein", aber keine einzige für "Ja, wenn (falls) sie billiger wird"?

derpinguin
2013-01-27, 03:05:31
Eher nein. Die 560Ti tut ihren Dienst wunderbar, wenn die nicht mehr ausreicht seh ich weiter.

=Floi=
2013-01-27, 03:08:05
ich warte auf maxwell!
800$/€ finde ich aber schon gesalzen.

Mr.Magic
2013-01-27, 03:42:35
[x] Unschlüssig, keine Ahnung

Die Umfrage ist komplett nutzlos.
Die 580 und 680 wurden von mir ausgelassen, und ich will eine neue Karte. Ich will aber auch eine praktisch lautlose Karte. Daher kaufe ich eine, sobald es große Kühler gibt.

Sonyfreak
2013-01-27, 04:04:24
[x] Nein, die Karte befindet sich weit außerhalb meines Preisrahmens

mfg.

Sonyfreak

boxleitnerb
2013-01-27, 06:58:07
Zwei zum Launch, eine dritte, wenn sie billiger wird.

StefanV
2013-01-27, 08:12:09
Eigentlich ist es ziemlich unsinnig, sich 'ne High End Grafikkarte zu kaufen, da die HW Anforderungen aktueller Games nicht soo groß sind. Es sei denn man möchte gern mit 3 Schirmen zocken, dann schaut es anders aus...

=Floi=
2013-01-27, 08:18:25
wieder mal nur bla bla von dir. mit (TS/SS)AA geht jede karte in die knie.

edit
nur weil du unfähig bist die einstellungen entsprechend der verfügbaren leistung anzupassen muß das nicht für andere gelten.
mit diversen mods und twaks bekommt man auch so alles problemlos klein.

boxleitnerb
2013-01-27, 08:29:53
Jo, ich freu mich auf den optischen Genuss von Spielen in 2880x1620 bis 3840x2160 und je nach Performance noch mit 2-4x SGSSAA. Und generell 60fps möglichst durchgängig sowieso.

AYAlf
2013-01-27, 09:34:21
Hier fehlt noch die Antwortmöglichkeit... Warte auf neue Konsolen-Generation, dann kauf ich wieder PC Hardware (GPUs).

Radeonfreak
2013-01-27, 09:39:29
Hab erst vor 8 Wochen meine 680 GTX für 550 € gekauft, also nein.

raumfahrer
2013-01-27, 09:45:15
Mir ist die Karte etwa 500 Euro zu teuer.

Der Knopf für "Nicht meine Preisregion" fehlt.

M4xw0lf
2013-01-27, 09:57:21
Zu teuer - daher definitiv kein Kauf.

Gunslinger
2013-01-27, 10:14:26
Was bringt die Umfrage ohne Fakten? Der Preis ist doch derzeit auch nur Spekulation.

Cubitus
2013-01-27, 10:15:44
Direkt nach dem Start die erste +- ein bis zwei Wochen bis der Preis etwas gesunken ist. Im Monat drauf dann die zweite ^^

Allerdings muss die Karte für den Preis mir schon was bieten können.

Pirx
2013-01-27, 10:34:13
[x] Nein, die Karte befindet sich weit außerhalb meines Preisrahmens

mfg.

Sonyfreak
und wahrscheinlich auch des Leistungsaufnahme-/Hitzeentwicklungsrahmens (Lautstärke?)

Raff
2013-01-27, 10:58:46
[x] Unschlüssig

Das Teil müsste voll ausgebaut sein, mit 1 GHz arbeiten, 6 GiB haben und noch dazu nicht 6,66 Sone laut sein. Das packt Nvidia bestimmt nicht beim ersten Anlauf. Und selbst wenn all das möglich ist, liegt der Preis mindestens 300 Euro über meiner Schmerzgrenze.

MfG,
Raff

Match-Maker
2013-01-27, 11:02:57
[x] Nein, lasse diese Generation aus bzw. werde dieses Jahr keine neue GPU kaufen.

Iceman346
2013-01-27, 11:10:11
Die teuerste Grafikkarte die ich bishe gekauft hab hat mich knapp 500€ gekostet. Mehr als das bin ich definitiv nicht bereit für eine Karte auszugeben.

gnomi
2013-01-27, 11:22:37
[x] Unschlüssig, keine Ahnung

Spannend ist eine neue GPU immer, aber der Preis klingt schon äußerst überzogen.
Für den Preis könnte man sich auch gleich beide zukünftigen Konsolen von Sony und Microsoft zulegen.
Zudem komme ich mit der GTX 680 noch sehr gut zurecht.
Da müsste schon auch mehr Software kommen, die abgesehen von kostenintensiverem AA so einiges bietet.
Crysis 3 und Metro 2034 könnten dahingehend ja einen Vorgeschmack geben.
Ich tippe trotzdem, dass beide Spiele weniger anspruchsvoll beziehungsweise besser skalierbar als angenommen werden.

V2.0
2013-01-27, 11:27:12
Wenn der EIZO 4k Monitor da ist, werde ich wohl 2 SI Topmodelle kaufen.

Botcruscher
2013-01-27, 11:30:04
Wenn NV endlich mal wieder Leistung rausballert fallen bei AMD die Preise.

[x] Warten auf SI

Ansonsten einfach nix tun.

Godmode
2013-01-27, 16:56:35
Also wenn Titan wirklich 50% schneller im Schnitt ist, könnte ich mir durchaus vorstellen 2 Karten zu kaufen. Allerdings bin ich dann wohl nicht schneller als mit den zwei 690ern, somit müssten es dann schon drei werden. Wenn ich die andere GTX 690 auch noch verkaufe, muss ich nicht mehr soviel draufzahlen, auf ein neues SLI.

Spasstiger
2013-01-27, 17:11:33
Nein, ich kaufe generell nicht in dieser Preisregion und ob ich dieses Jahr einen neuen PC hole, weiß ich auch noch nicht.
Wahrscheinlich ist meine nächste GPU aus der 20-nm-Generation.

derguru
2013-01-27, 17:16:12
Was bringt die Umfrage ohne Fakten? Der Preis ist doch derzeit auch nur Spekulation.
dito!

falls doch was dran sein sollte bedeutet das,~35% schneller als eine 7970 ghz edition.das bekommt amd auch für die hälfte des preises hin,also:wink:

[x] Warten auf SI

fondness
2013-01-27, 17:30:56
dito!

falls doch was dran sein sollte bedeutet das,~35% schneller als eine 7970 ghz edition.das bekommt amd auch für die hälfte des preises hin,also:wink:

[x] Warten auf SI

Wenn man davon ausgeht das die 7970GHz Edition 15% schneller ist als eine GTX680 bzw. Titan 50% schneller als eine GTX680 wäre Titan ziemlich genau 30% schneller als eine 7970 Ghz Edition: 1,15*1,3=1,495. ;)

Thunder99
2013-01-27, 17:40:54
Meine Schmerzgrenze liegt bei 300€, was damals eine GTX470SOC bedeutete.

Daher warte ich lieber auf GK104 Refresh aka 760Ti oder so. Wenn der Preis einer GTX670 von ASUS/MSI aber sehr attraktiv wird (+/- 250€) kann es auch so eine werden

MartinRiggs
2013-01-27, 17:49:19
Solange alles noch Spekulation ist macht die Umfrage doch kaum Sinn.

Wenn der Preis stimmt dann würde ich sie definitiv nicht kaufen, zumal ich eh kein Spiel wüsste das die Leistung braucht.

Thunderburne
2013-01-27, 18:31:25
Vollausbau?
Letzendlich Leistung?
Preis?
Was macht AMD?
Also unschlüssig .

ZipKaffee
2013-01-27, 18:55:44
Nö, da ich mir gerade eine 680 gekauft habe. Ich bin zufrieden wenn ich im Spiel alles auf max + 4msaa stellen darf und die "58fps" eingemeiselt sind.

Coda
2013-01-27, 19:34:39
Unschlüssig bisher. Falls das Ding >=50% schneller ist eine GTX 680 werd ich's mir überlegen müssen.

HarryHirsch
2013-01-27, 20:25:13
ich hab kein problem mit 1000€ cpus, aber 800€ für eine graka. :ucrazy3:
erst mal sehen was von ati kommt. :D

dargo
2013-01-27, 20:30:25
[x] Nein lasse diese Generation aus bzw. werde diese Jahr keine neue GPU kaufen

Das Ding wird für den gebotenen Speed viel zu teuer sein.

Nightspider
2013-01-27, 20:30:29
Unschlüssig, falls >50% und <800 Euro kauf ich mir vielleicht zwei.

Das SLI wird dann so extram lange HighEnd bleiben da 20nm noch schwieriger zu handlen wird und sicherlich noch später kommt.

Knuddelbearli
2013-01-27, 21:26:33
ich hab kein problem mit 1000€ cpus, aber 800€ für eine graka. :ucrazy3:
erst mal sehen was von ati kommt. :D


ne 1000€ cpu wird halt auch noch in 4 Jahren top sein ne 1k€ gpu eher nicht ^^ da haben wir dann ja schon 16nm

HarryHirsch
2013-01-27, 21:42:00
in 4 jahren wäre meine cpu 5 jahre alt...
ich denke wenn ich ihr 2 gebe reicht das. ;)

Tesseract
2013-01-27, 21:45:48
interesse hätte ich schon, aber der preis wird wohl in keiner relation zum gebotenen stehen, daher erstmal nein.

ne 1000€ cpu wird halt auch noch in 4 Jahren top sein ne 1k€ gpu eher nicht ^^ da haben wir dann ja schon 16nm
dafür bekommt man vergleichbares zu einer 1000€-CPU auch für ~250€ + OC, eine graka mit größerem chip, dickerem speicherinterface usw. hingegen nicht.

HarryHirsch
2013-01-27, 21:53:45
wenn man videos decodiert eben nicht. cuda spart 5 min lebenszeit sieht aber total kacke aus.
die neuen konsolen werden mmn die "nachfrage" an mehr cores noch erhöhen.
hoff ich zumindest.

samm
2013-01-27, 21:56:51
Ne, Preis hin oder her (wär mir zwar zu teuer, auch für High-End, aber momentan bin ich sowieso zufrieden mit der vorhandenen und frisch leise und kühl gemachten). Erst die nächste Generation wird studiert, wenn sowohl nVidia als auch AMD ihre Karten raus haben, und dann potentiell angeschafft, je nach Stand der Spielelandschaft ;)

Tesseract
2013-01-27, 22:21:58
wenn man videos decodiert eben nicht. cuda spart 5 min lebenszeit sieht aber total kacke aus.
die neuen konsolen werden mmn die "nachfrage" an mehr cores noch erhöhen.
hoff ich zumindest.

videos kann auch ein raspberry pi für <35€ decodieren. ich habe keine ahnung was du damit meinst. :confused:

Nightspider
2013-01-27, 22:29:45
Wahrscheinlich encodieren ^^

HarryHirsch
2013-01-27, 22:33:13
das weiß ich selbst nicht so genau.
vielleicht ging es mir ja darum das eine 1000€ cpu 5 minuten länger braucht aber das wesentlich bessere resultat liefert.
selbst wenn ein gk110 10 min weniger braucht ist er (für mich) immer noch unnütz.
und wo die wirklich schnellen gpus herkommen brauch ich dir sicher nicht zu erklären. /[fanboy_off]

edit:

schnauze nightspider, jeder weiß was gemeint ist.

aufkrawall
2013-01-27, 22:36:16
Hat Nvidia CUDA dafür mit NVEnc nicht eh abgeschrieben?
Beim Dekodieren ist CUDA jedenfalls langsamer als software.

Tesseract
2013-01-27, 22:40:35
Wahrscheinlich encodieren ^^
wer viele videos encodiert (wieviele leute machen das?) ist aber wohl besser damit beraten die 1000€ lieber in ein paar billige zweit/dritt-systeme zu investieren an die man die jobs deligieren kann als so viel geld in eine prestige-CPU zu buttern.

HarryHirsch
2013-01-27, 22:44:06
du vergisst den aufwand für die dritt nts, dritt mbs und dritt lizenzen.
es sei denn man verbaut china ware.

Duplex
2013-01-27, 22:45:44
[x] Nein, werde SI von AMD abwarten

Sollte die HD8970 z.b. 20% schneller als HD7970 Ghz werden, dann hat Geforce Titan (GK110) nur noch 15% Vorsprung, dann wird man auch sehen ob die 800 € für die Geforce gerechtfertigt sind, ich denke AMD wird die HD8970 zwischen 400-500 € vermarkten, wer dann wegen 15% 800 € bezahlt ist selber schuld, die GTX770 @320 Bit SI wird dann mit der 8970 wahrscheinlich gleichauf sein.

Tesseract
2013-01-27, 22:50:52
du vergisst den aufwand für die dritt nts, dritt mbs und dritt lizenzen.
es sei denn man verbaut china ware.
die vergesse ich nicht, die sind nur ganz einfach nicht besonders teuer wenn die einzige anforderung ausgelagerte transcoding-jobs sind und aus china kommen die teile so gut wie alle, egal welcher preisbereich.

außerdem habe ich keine ahnung was du dir da genau vorstellst, daher kann ich sowieso nix konkretes sagen.

Nightspider
2013-01-27, 23:00:52
schnauze nightspider

Geht's noch? Mach mal dein Fenster auf, du brauchst frische Luft um runter zu kommen.

HarryHirsch
2013-01-27, 23:04:45
das ist doch im grunde eine ganz einfache rechnung.
mir fehlt gerade die muße. eine inzwischen nur noch 800€ teure intel cpu kann es nur besser.
gerade undervoltet bei 4.5ghz.

uweskw
2013-01-27, 23:08:54
Eigentlich ist es ziemlich unsinnig, sich 'ne High End Grafikkarte zu kaufen, da die HW Anforderungen aktueller Games nicht soo groß sind. Es sei denn man möchte gern mit 3 Schirmen zocken, dann schaut es anders aus...

ist man da nicht besser bei AMD aufgehoben?

HarryHirsch
2013-01-27, 23:17:22
Geht's noch? Mach mal dein Fenster auf, du brauchst frische Luft um runter zu kommen.

sorry! ich reagiere derweil öfter über.
job und so.
alles wird gut.

Edgecrusher86
2013-01-27, 23:34:18
[x] Ja klar, werde direkt beim Launch 2 Karten kaufen.

GK110 SLI war ja bei mir schon für letztes Jahr geplant - leider kam es aber anders. :freak:

Der Preis ist nebensächlich - ich würde auch über 1000€ zahlen, sofern man dafür den Vollausbau samt 6GB GDDR5 spendiert kriegen würde - zumindest letzteres ist aber aktuell für ein Referenzdesign unrealistisch.
Eventuell werden wir so etwas bei Maxwell sehen, kommt halt auch darauf an, wieviel AMD ihren Top-Dogs spendieren wird.

Da es vermutlich keine Non-Referenz-Modelle wie die Classified mit doppeltem VRAM geben wird, werde ich dann wohl beim Launch zuschlagen. Um die 50% Mehrleistung zum aktuellen 680er Gespann + 1 GB VRAM mehr (sofern man keine 13 SMX Version mit 320 Bit SI als Titan veröffentlicht, was ich aber auch nicht recht glauben mag) wären schon nett. Mal schauen. :)

Langenscheiss
2013-01-28, 01:40:49
Werde definitiv nicht soviel Geld für eine Karte ausgeben, dessen Wert ein halbes Jahr später schon drastisch gefallen ist. Hoffe stattdessen, dass NV die GTX670/80 endlich mal zu einem angemessenen Preis anbieten kann, wenn sie ihre Refresh-Karten bringen. Will endlich meine alten Spiele mit 8xSSAA zoggn, ohne dabei von Grafikfehlern, mangelhaft geglätteten Winkeln oder zu schlechter Performance genervt zu werden.

Wer allerdings immer noch behauptet, dass es sich nicht lohnen würde, solch leistungsfähige Karten einzubauen, sollte sich entweder mal von seiner 1024x768 CRT Röhre verabschieden oder sich mal ne Brille anschaffen, damit er das unerträgliche Flimmern sieht, was in Spielen herrscht, die nicht sauber und aufwändig in Echtzeit geglättet werden (mit welcher AA-Variante auch immer)! Ich kann jedenfalls Shader-Aliasing und Treppenkanten nicht mehr sehen und würde mich freuen, wenn man, angesichts des mangelnden Fortschrittes bei Konsolen, sowohl in Software als auch Hardware noch mehr dafür tut, dass man auf dem PC wenigstens ein glattes Bild in annehmbaren FPS bekommt.

VooDoo7mx
2013-01-28, 02:15:14
Wenn GeForce Titan mit mindestens:
- 15SMX Vollausbau
- 900MHz Chiptakt
- 6GiB 7gbps GDDR5
- ordentlich OC Potential und ohne die DAU Turbo Funktionen,
Dann würde ich mir den Kauf überlegen.
Ich will eine Karte wo man wieder alles selber einstellen kann. Eine Karte die wirklich für Enthusiasten ist. Wäre mir auch die 800 €ier wert.

An der Umfrage nehme ich nicht Teil, weil sie einfach hrinverbrannt ist.
Zu keiner der Auswahlmöglichkeiten gibt es fertige Produktspezifikationen. Wie soll man denn eine Kaufentscheidung zu einen Produkt treffen was nicht angekündigt ist und wo man auch nicht weiß was man eigentlich bekommt?

Godmode
2013-01-28, 09:22:40
An der Umfrage nehme ich nicht Teil, weil sie einfach hrinverbrannt ist.
Zu keiner der Auswahlmöglichkeiten gibt es fertige Produktspezifikationen. Wie soll man denn eine Kaufentscheidung zu einen Produkt treffen was nicht angekündigt ist und wo man auch nicht weiß was man eigentlich bekommt?

Die angenommene Spezifikation steht im ersten Post. Bei der Umfrage ging es mir primär um die Kaufbereitschaft an einer 800 € Graka hier in diesem Forum.

TobiWahnKenobi
2013-01-28, 09:26:03
ich entscheide es spontan.. wie immer.


(..)

mfg
tobi

boxleitnerb
2013-01-28, 09:31:44
Blaires Stimme fehlt noch, da wüssten wir gleich was er gewählt hat :D

Godmode
2013-01-28, 09:36:26
Blaires Stimme fehlt noch, da wüssten wir gleich was er gewählt hat :D

Ich hab auch noch nicht abgestimmt und möchte eher 3 und 4 auswählen, aber irgendwie ist mir das dann doch zu extrem.

boxleitnerb
2013-01-28, 09:40:35
Für 650-700 und wirklich 50%, vielleicht sogar 55-60% Plus zur 680 würde ich sofort drei nehmen.

Godmode
2013-01-28, 10:02:34
Für 650-700 und wirklich 50%, vielleicht sogar 55-60% Plus zur 680 würde ich sofort drei nehmen.

Der Preis würde auch zu den 85% der 690 passen, die momentan auch schon für 850 Euro zu kaufen ist. Bin leider in der SLI-Falle und wenn ich eine Performance Steigerung will, muss ich mindestens 3 Karten kaufen.

(del676)
2013-01-28, 11:02:46
[x] sicher nicht. Da warte ich lieber auf AMD Karten.

Um 800 Euro muesste diese Karte eine GTX690 oder HD7990 in Grund und Boden stampfen. In Performance und in Sparsamkeit, und nichtmal dann, wuerde ich sidegraden.

N0Thing
2013-01-28, 11:37:11
Für den bisher gemunkelten Preis werde ich mir sicher keine Grafikkarte kaufen. Sollte die Karte aber bei 500€ starten, würde ich vielleicht nach der ersten Preissenkung über eine Kauf nachdenken.

Primär warte ich aber sowohl AMDs SI als auch Nvidias Kepler-Refresh ab, ob dann etwas für meinen Preisleistungs-sweet spot zu haben sein wird.

Iruwen
2013-01-28, 14:45:30
Passe. Hab gerade erst über 1000€ in Wakü fürs komplette System und GTX 670 gesteckt die für meine Zwecke auch völlig ausreicht, da fahr ich dieses Jahr lieber zwei Wochen für in Urlaub.

Godmode
2013-01-29, 21:46:47
Jetzt nach dem Crysis 3 MP Test ist mir klar geworden dass ich wohl 4 GK110 brauchen werde. Das sollte dann mit 2x2 DS gut flutschen.

fondness
2013-01-29, 21:48:55
Jetzt nach dem Crysis 3 MP Test ist mir klar geworden dass ich wohl 4 GK110 brauchen werde. Das sollte dann mit 2x2 DS gut flutschen.

Abwarten. Da wird noch viel durch die Treiber und durch bessere Optimierung des Spielcodes drinnen sein.

Godmode
2013-01-29, 23:31:19
Abwarten. Da wird noch viel durch die Treiber und durch bessere Optimierung des Spielcodes drinnen sein.

Natürlich, aber wenn ich mehr Leistung will als mit 2x690 dann machen nur 3 oder 4 GK110 Sinn.

Frank1974
2013-01-30, 04:12:24
[x] Nein lasse diese Generation aus bzw. werde dieses Jahr keine neue GPU kaufen

mfg
Frank

kmf
2013-01-31, 15:49:40
[x] Unschlüssig, keine Ahnung

... und wenn dann kauf ich mir ganz bestimmt keine Karte bei Launch.

Dural
2013-01-31, 16:33:42
voller GK110 wird sofort gekauft.

wenn teildeaktivert lasse ich die finger davon.

boxleitnerb
2013-01-31, 16:35:23
Wegen 5% weniger Leistung (14 SMX)würdest du auf den Kauf verzichten? Lol.

Dural
2013-01-31, 16:44:44
es geht mir ums prinzip, wieso 800.- für einen "halben" chip zahlen? nein danke!

und brauchen tue ich die karte schon mal so wie so nicht wirklich, viel mehr fasziniert mich die technik.

boxleitnerb
2013-01-31, 17:01:17
Na dann. Einerseits versteh ich es, andererseits ist es aber auch ein bisschen plemplem ;)

TheRaven666
2013-02-02, 11:44:02
Der Spielemarkt ist aktuell so ernüchternd, dass ich dieses Jahr Null Komma Nix investieren werden, was Gaming HW angeht ...


Signed.

iceman.s
2013-02-02, 12:50:33
[x] Ja klar, werde direkt beim Launch 2 Karten kaufen

Der Erwerb von GK110 ist schon lange geplant, schließlich muss aktuell 2560x1600 gefüttert werden und in naher Zukunft(innerhalb der nächsten 12 Monate) steht 3840x2160 oder besser gleich 3840x2400 auf der Agenda. Nächsten Monat kommt der 4k 32" Sharp Monitor, noch preislich außerhalb von dem, was ich gewillt bin auszugeben, aber die werden schnell deutlich günstiger.

Ob ich mir gleich zum launch 1/2 holen werde weis ich noch nicht. Hängt stark vom Einführungspreis und Speicherausbau ab. Im September letzten Jahres hatte ich mir einen neuen PC zusammengebaut für SLI + PhysX. Und als 'Übergangslösung' für GK110 steckt eine 4GB GTX 680 drin. Möglich das ich einen Monat warte mir eine Karte hole und 1-2 Monate später die zweite. Mein Dual CPU System soll endlich mal ausgereizt werden. :-)

HisN
2013-02-02, 13:31:36
Meine GTX690 wartet seit ihrer Anschaffung auf diese Ablösung. 3240x1920 will ausreichend Leistung haben :-)

iceman.s
2013-02-02, 16:03:53
Meine GTX690 wartet seit ihrer Anschaffung auf diese Ablösung. 3240x1920 will ausreichend Leistung haben :-)

Für mich sind die 3840 auch nur Zwischenstufe. Mein idealer Monitor sollte 5120x3200 als Auflösung haben oder gleich 7680x4800.:biggrin: Also 30" 16:10. Die Sahne oben drauf wäre Pol 3D Fähigkeit. Da sind 3840 bei 30-32" zu wenig in meinen Augen.
Aber vermutlich wird 3D bei mir dann eh mehr Richtung Oculus Rift gehen.

Thomas Gräf
2013-02-02, 19:19:41
Na Leute bei Euren Wunschauflösungen besorgt Euch mal lieber ne Kälteschlafkammer.
Kann ja sein das die deftige sagenumwobene Namensgebung von nV einen triftigen Grund hat.
Nämlich den, das nach Titan lange Zeit nix besseres mehr kommen wird.
Sooogesehen könnte die Rift für einige von uns wirklich für Entspannung sorgen, zumindest
was enorme Auflösungen betrifft.
Ähem, mir fällt jetzt noch ein zweiter Grund ein, von wegens dem Titan, aber..ok. ;)

boxleitnerb
2013-02-02, 19:23:09
Nvidia trifft es mit den Codenamen aber auch immer schlecht, die kann man alle so schön veräppeln.
Thermi, Crappler, Titanic... :D

HisN
2013-02-02, 19:33:40
Bei mir steht die Wunschauflösung aufm Tisch, und ich warte nur darauf EINE Graka zu kaufen die mehr Leistung als

http://www.abload.de/thumb/bf3_2012_09_27_00_03_1kdkl.jpg (http://www.abload.de/image.php?img=bf3_2012_09_27_00_03_1kdkl.jpg)

die 690 hinbekommt. Und sollte sich das bewahrheiten ..... SLI willkommen.

TobiWahnKenobi
2013-02-02, 19:35:04
mit ein bisschen aktueller astronomie im hinterkopf finde ich die namen toll..

@hisn
willste das echt für so'ne kamelle wie battlefield?


(..)

mfg
tobi

Hatstick
2013-02-02, 20:38:59
x Nein, kaufe dieses Jahr keine neue Grafikkarte.

Meine GTX580 hat noch Leistung satt und mein Limit für eine Grafikkarte liegt bei grob 200€. (gebraucht)
Damit fällt eine GK110 eh flach und zur GTX680 ist mir der Leistungszuwachs auch zu wenig und selbst die ist noch ein ganzes Stück von 200€ weg. (AMD kommt für mich nicht in Frage)

Damit werde ich höchstwahrscheinlich dieses Jahr die GPU nicht tauschen.

mugger
2013-02-03, 00:39:49
Ich nicht.

gedi
2013-02-03, 02:22:58
Würde ich nur unter anderem Namen kaufen, denn wer will schon nen Bohlen in seinem Case?

iceman.s
2013-02-03, 09:17:53
Na Leute bei Euren Wunschauflösungen besorgt Euch mal lieber ne Kälteschlafkammer.
Kann ja sein das die deftige sagenumwobene Namensgebung von nV einen triftigen Grund hat.
Nämlich den, das nach Titan lange Zeit nix besseres mehr kommen wird.
Sooogesehen könnte die Rift für einige von uns wirklich für Entspannung sorgen, zumindest
was enorme Auflösungen betrifft.
Ähem, mir fällt jetzt noch ein zweiter Grund ein, von wegens dem Titan, aber..ok. ;)

So abwegig sind diese Auflösungen gar nicht. Von der Panelherstellung aus gesehen, sind sie auch kein großes Problem. Das Problem sind noch Treiber und Ansteuerung.
Im TV Bereich sind ja langfristig 8k geplant und Intel hatte auf einer Roadmap für 30" Monitore auch Auflösungen projiziert die deutlich über 4k hinaus gehen. Das wird deutlich früher kommen als du denkst. Sobald offiziell über DisplayPort höhere Auflösungen als 4k unterstützt werden, kommen sie auch. Denn im Prinzip sind 4k für 30" Monitore zu wenig. Spätestens wenn sie anfangen 4k im 24" Bereich einzuführen, muss was größeres kommen. Also spätestens 2015. Also maximal noch 2 1/2 Jahre grob. Das kann dann Maxwell SLI befeuern.

Godmode
2013-02-03, 11:24:13
Würde ich nur unter anderem Namen kaufen, denn wer will schon nen Bohlen in seinem Case?

Was? :confused:

Nightspider
2013-02-03, 11:32:34
Der redet von Dieter Bohlen, dem Pop-Titan. :rolleyes:

Godmode
2013-02-03, 11:40:44
Der redet von Dieter Bohlen, dem Pop-Titan. :rolleyes:

:facepalm:

Cyv
2013-02-03, 16:14:45
Meine 2x 6950@6970 sind bei aktuellen Spielen der 2560x1600 Auflösung nicht mehr gewachsen, daher werde ich auch auf Titan umsteigen, sollte die Leistung passen.

Knuddelbearli
2013-02-03, 16:55:30
naja frage ist halt wie gut titan auch noch bei so hohen Auflösungen performt

NV hat ja eine HiRes schwäche ( bzw AMD eine HiRes stärke )

wenn Titan in 4k 50% vor der 680 ist heißt das noch lange nicht das er auch 30% vor der 7970Ghz ist

Deshalb warte ich auch noch ab

HisN
2013-02-03, 17:26:00
@TobiWahnKenobi
Zur Zeit zocke ich (fast) nur MWO. Und da ist auch das VRAM zu klein und die Rohleistung nicht ausreichend.

http://www.abload.de/thumb/mwoclient_2012_11_06_qwei4.jpg (http://www.abload.de/image.php?img=mwoclient_2012_11_06_qwei4.jpg) <-- das sind medium Settings.
Stelle ich die Settings hoch, breche ich auf 24 FPS ein solange das VRAM ausreicht. Danach gehts noch weiter in den Keller.

TobiWahnKenobi
2013-02-03, 17:43:42
@TobiWahnKenobi
Zur Zeit zocke ich (fast) nur MWO. Und da ist auch das VRAM zu klein und die Rohleistung nicht ausreichend.

http://www.abload.de/thumb/mwoclient_2012_11_06_qwei4.jpg (http://www.abload.de/image.php?img=mwoclient_2012_11_06_qwei4.jpg) <-- das sind medium Settings.
Stelle ich die Settings hoch, breche ich auf 24 FPS ein solange das VRAM ausreicht. Danach gehts noch weiter in den Keller.

wenn das spiel eine solche aufrüstung wert ist -> DANN LOS! ich finde das jetzt nicht sonderlich hübsch und mechgames sind auch nicht so meine baustelle. hab heute nacht vermeer portable für mich entdeckt - aber als ich noch saber rider geguckt habe, fand ich auch rembrot toll.. hoch damit und raus mit ihnen.. :-)


(..)

mfg
tobi

Finch
2013-02-03, 18:18:04
Also ich würde den Titan in Erwägung ziehen, jedoch nur bis 500€ und darauf kann ich wohl nicht hoffen. Ich bin einfach nicht bereit mehr für eine Grafikkarte auszugeben.

Duplex
2013-02-03, 18:37:26
Wenn AMDs Top Modell nur 15% langsamer als Titan ist, dann wird Titan irgendwann keine 500 € mehr kosten!

AlSvartr
2013-02-03, 18:41:19
Bin mal gespannt, wie das Ding mit OptiX performt...wenn es beeindruckt, dann werden vermutlich zwei Karten gekauft, allerdings nicht privat ;)

VooDoo7mx
2013-02-03, 19:14:28
@TobiWahnKenobi
Zur Zeit zocke ich (fast) nur MWO. Und da ist auch das VRAM zu klein und die Rohleistung nicht ausreichend.
Das liegt auch daran das MWO ein dilettantisch zusammengeschusteter Haufen Softwareabfall ist. Grafik von 2005, braucht Hardware von 2015.
Nur weil ein schlecht programmiertes Spiel nicht gut läuft sollte man dies nicht allgemein gültiges Beispiel heranziehen.

kunibätt
2013-02-03, 19:42:19
Ich werde sie wohl kaufen, aber nicht (primär) zum Gamen und dewegen auch nur mit 6GB.

Iruwen
2013-02-04, 11:47:33
Titan assoziier ich mit Titan AE, hervorragender Film. Banausen.

HisN
2013-02-04, 11:59:11
@VooDoo7mx
Die Cryengine3 ist von 2005?

Und ich zieh es nicht generell heran, sondern für mich speziell. Ich (persönlich) möchte dieses Stück Software (geile Scheiße) auf meinem System mit (für mich persönlich) maximalen Settings mit (für mich persönlich) annehmbaren FPS zocken. Und dabei ist es mir relativ egal was es kostet, und was andere von dieser Software halten. Meine Posting war ja eine Antwort auf eine speziell an mich gerichtete Frage.

TurricanM3
2013-02-06, 20:33:37
Ich kaufe mir min. eine sobald es Wasserkühler gibt. Der Preis ist aber ziemlich hart, wenn er denn stimmt. :(

Weiß man schon ob ein gutes 850er NT für zwei reichen würde?

VMod würde ich auch sofort machen, falls vielversprechend. :smile:

Godmode
2013-02-06, 20:49:19
Ich kaufe mir min. eine sobald es Wasserkühler gibt. Der Preis ist aber ziemlich hart, wenn er denn stimmt. :(

Weiß man schon ob ein gutes 850er NT für zwei reichen würde?

VMod würde ich auch sofort machen, falls vielversprechend. :smile:

Wenn die Karte nicht viel mehr als 300 W braucht dürfte das kein Problem sein. Hab mein Quad-SLI mit zwei 690ern auch mit nem Corsair AX850 ohne Probleme betrieben. Dazu ein stark übertakteter i7-3930k mit 1.45v VCore und alle vier GPUs ebenfalls am Anschlag. Am Netzteil selber, also am Stecker zur Steckdose hab ich über 1000W gemessen.

TurricanM3
2013-02-06, 21:23:28
Ok, danke dir! :smile:
Ich hatte damals mit Triple-SLI ein 1kW Zalman, weil es hieß darunter wärs Glückssache. Ich hoffe die Karten ziehen nicht so viel mehr wie erhofft.

Godmode
2013-02-06, 21:28:57
Ok, danke dir! :smile:
Ich hatte damals mit Triple-SLI ein 1kW Zalman, weil es hieß darunter wärs Glückssache. Ich hoffe die Karten ziehen nicht so viel mehr wie erhofft.

Ich möchte ja vier Titan Karten kaufen, aber die Kühlung bereitet mir noch Kopfzerbrechen. Netzteil müsste dann auch mindestens 1.5 kW haben und das ist schon etwas knapp, falls die Karten übertaktet mehr als 300W benötigen.

TobiWahnKenobi
2013-02-06, 21:32:39
dann kauf dir zwei. vllt. gibts ja auch wieder irgendwann später ne MPGU-lösung, die weniger rumheizt.


(..)

mfg
tobi

Godmode
2013-02-06, 21:47:18
dann kauf dir zwei. vllt. gibts ja auch wieder irgendwann später ne MPGU-lösung, die weniger rumheizt.


(..)

mfg
tobi

Mit zwei Titan hab ich nicht mehr Leistung, als ich mit meinen zwei 690ern schon hatte, und du weißt ja wie das ist mit der Leistung. ;D

Blaire
2013-02-06, 21:54:20
Ich hab dich gewarnt, garnicht erst mit vier GPUs anzufangen, man gewöhnt sich zu schnell daran. :D

Raff
2013-02-06, 21:56:35
Ich möchte ja vier Titan Karten kaufen, aber die Kühlung bereitet mir noch Kopfzerbrechen. Netzteil müsste dann auch mindestens 1.5 kW haben und das ist schon etwas knapp, falls die Karten übertaktet mehr als 300W benötigen.

Ich glaube nicht, dass Titan im Quartett laufen kann. Wenn, dann Triple. Das jedoch ohne Gewähr. :biggrin:

Ich hab dich gewarnt, garnicht erst mit vier GPUs anzufangen, man gewöhnt sich zu schnell daran. :D

Respekt. Nein, fast schon Neid für diese Gabe der Gewöhnung, denn: Ich habe in den vergangenen Tagen viel mit Four-Way-Schlitten hantiert und fand es nie beeindruckend. Das Mikroruckeln ist ekelhaft, aber die Eingabelatenz bei "normalen" Fps ist völlig inakzeptabel. Hinzu kommen kuriose Slowdowns oder Abstürze, die bei Single- oder Dual-GPU-Rendering ausbleiben. Speziell Quad-Crossfire ist IMO nicht mehr als eine Machbarkeitsstudie für die längsten Balken, aber zum ernsthaften Spielen reiner Unfug. Will sagen: Ich kann mich an die Restriktionen einfach nicht gewöhnen. Das spart Geld, verwehrt einem jedoch die beste Bildqualität.

MfG,
Raff

Godmode
2013-02-06, 21:59:01
Ich hab dich gewarnt, garnicht erst mit vier GPUs anzufangen, man gewöhnt sich zu schnell daran. :D

Ja trotz einiger Probleme die ich hatte, wars trotzdem lustg.

Ich glaube nicht, dass Titan im Quartett laufen kann. Wenn, dann Triple. Das jedoch ohne Gewähr. :biggrin:

MfG,
Raff

WTF? Willst du mich ärgern? :eek:

Nightspider
2013-02-06, 21:59:26
Mit zwei Titan hab ich nicht mehr Leistung, als ich mit meinen zwei 690ern schon hatte, und du weißt ja wie das ist mit der Leistung. ;D

Abwarten, Tombman blieb der Einzige, der bemerkte das ein Nachfolger SLI-System mit weniger Karten schnell ein altes Gespann schlägt, obwohl das alte theoretisch mehr Rechenleistung hat.
Ich wette mir dir um 10 Mäuse, das sich 3 GK110 Karten deutlich flüssiger anfühlen werden als 4 GK104Karten und das selbst 2 Karten kaum fühlbar langsamer und manchmal sogar schneller sind (bei DS und 4K).

WTF? Willst du mich ärgern? :eek:

So weit ich mich erinnern kann gab es erst 1 oder 2 mal von EVGA Quad-SLI Lösungen auf Single-Karten Basis. Und wenn erscheinen diese deutlich später. Falls es bei GK110 Karten restriktionen bezüglich des Designs gibt wird es die gar nicht geben.

Gewöhn dich schon mal an den Gedanken.

Aber wie gesagt, selbst 3 Karten werden dein altes Quad vernichten.

Godmode
2013-02-06, 22:06:45
Abwarten, Tombman blieb der Einzige, der bemerkte das ein Nachfolger SLI-System mit weniger Karten schnell ein altes Gespann schlägt, obwohl das alte theoretisch mehr Rechenleistung hat.
Ich wette mir dir um 10 Mäuse, das sich 3 GK110 Karten deutlich flüssiger anfühlen werden als 4 GK104Karten und das selbst 2 Karten kaum fühlbar langsamer und manchmal sogar schneller sind (bei DS und 4K).



So weit ich mich erinnern kann gab es erst 1 oder 2 mal von EVGA Quad-SLI Lösungen auf Single-Karten Basis. Und wenn erscheinen diese deutlich später. Falls es bei GK110 Karten restriktionen bezüglich des Designs gibt wird es die gar nicht geben.

Gewöhn dich schon mal an den Gedanken.

Aber wie gesagt, selbst 3 Karten werden dein altes Quad vernichten.

Ja damals war aber SLI nicht so gut wie heute. Und ja vor allem in 4k mit AA wird der GK104 vernichtet werden, das ist klar.

Ähm Blaire hat mit 680ern ein Quad!

gnahr
2013-02-06, 22:07:45
WTF? Willst du mich ärgern? :eek:
dacht ich mir auch gerade...
warum soll man darauf verzichten? evga hat doch damals mit der 285 classi das 4way eingeführt und nvidia es übernommen und jetzt sollte man das limit hier wieder senken? :confused:
ich warte eher darauf 3 dual-karten im verbund zu sehen und jetzt flüstert der raff genau was in die andere richtung...

Godmode
2013-02-06, 22:09:40
dacht ich mir auch gerade...
warum soll man darauf verzichten? evga hat doch damals mit der 285 classi das 4way eingeführt und nvidia es übernommen und jetzt sollte man das limit hier wieder senken? :confused:
ich warte eher darauf 3 dual-karten im verbund zu sehen und jetzt flüstert der raff genau was in die andere richtung...

Lustig dass du 6-Way-SLI ansprichst, weil ich hatte vorher geraden den selben Gedanken. Die Probleme (AFR-Lag, Microruckler) werden dadurch natürlich nicht besser.

aufkrawall
2013-02-06, 22:13:03
Ich frag mich, wie das beim neuen AFR-Vsync ist.
Mit 2-Way sind Input-Lag und Frametimes genau so gut wie bei sGPU. Wie ist das bei 4-Way?

TobiWahnKenobi
2013-02-06, 22:28:50
@raff

vier kaufen kann er ja trotzdem.. ;-)


(..)

mfg
tobi

Godmode
2013-02-06, 22:31:43
@raff

vier kaufen kann er ja trotzdem.. ;-)


(..)

mfg
tobi

Macht natürlich viel Sinn, quasi als zusätzliche Heizung. ;D

Das Bestellen wird wieder eine hässliche Zockerei. Jeder Händler wird wieder Status auf verfügbar haben und in Wirklichkeit hat sie niemand. Und vier Karten auf einmal schickt mir sowieso niemand.

Peter Gräber
2013-02-06, 22:48:01
Und erneut lässt NVIDIA HT4U bei der Vorstellung von Titan außen vor. Warum hat man uns bislang nicht erklärt. Es sieht also so aus, dass wir wohl eine kaufen müssen um abermals Klarheit zu haben, was zwischen Launch-Muster und Handels-Muster Wahrheit darstellt. Damit geht unser Vote wohl klar auf "ich kaufe eine"

Raff
2013-02-06, 22:48:53
Hm, eine vierte Titan als PhysX-Knecht? :ulol:

MfG,
Raff

Godmode
2013-02-06, 22:49:48
Und erneut lässt NVIDIA HT4U bei der Vorstellung von Titan außen vor. Warum hat man uns bislang nicht erklärt. Es sieht also so aus, dass wir wohl eine kaufen müssen um abermals Klarheit zu haben, was zwischen Launch-Muster und Handels-Muster Wahrheit darstellt. Damit geht unser Vote wohl klar auf "ich kaufe eine"

Tut mir echt leid für euch ;(
Bei der 690 habt ihr ja auch schon keine bekommen, oder?

boxleitnerb
2013-02-06, 22:54:17
Was ist denn da vorgefallen, die 590 habt ihr ja noch testen können.

TobiWahnKenobi
2013-02-06, 22:59:40
Macht natürlich viel Sinn, quasi als zusätzliche Heizung. ;D

Das Bestellen wird wieder eine hässliche Zockerei. Jeder Händler wird wieder Status auf verfügbar haben und in Wirklichkeit hat sie niemand. Und vier Karten auf einmal schickt mir sowieso niemand.

AFAIR habe ich von GK104 auch drei kaufen müssen, um wenigstens mit zweien zu sehen, dass ich lieber die GTX690 haben will :-)

und wenn du vier gute samples kriegst, gibst du mir eine ab und wir haben beide drei..

aber mal im ernst.. ich werde es aussitzen.. bin eh arm und muss sparen.. ausserdem freue ich mich zur zeit sehr über ein gut arbeitendes system.


(..)

mfg
tobi

derguru
2013-02-06, 23:00:49
Godmode kann dem Peter eine leihen,für paar tage werden ihm auch 3 reichen.:biggrin:

M4xw0lf
2013-02-06, 23:02:58
Und erneut lässt NVIDIA HT4U bei der Vorstellung von Titan außen vor. Warum hat man uns bislang nicht erklärt. Es sieht also so aus, dass wir wohl eine kaufen müssen um abermals Klarheit zu haben, was zwischen Launch-Muster und Handels-Muster Wahrheit darstellt. Damit geht unser Vote wohl klar auf "ich kaufe eine"

Aha, die anderen stehen jetzt also schon unter NDA und du nicht ^^

Godmode
2013-02-06, 23:09:20
Godmode kann dem Peter eine leihen,für paar tage werden ihm auch 3 reichen.:biggrin:

Das bringt nichts, weil wenn ich die Karten kaufen kann, habt ihr sie schon. In AT sind wird immer ein paar Tage hintendran, darum bestelle ich meistens in DE mit Express. ;D

Blaire
2013-02-06, 23:09:46
Respekt. Nein, fast schon Neid für diese Gabe der Gewöhnung, denn: Ich habe in den vergangenen Tagen viel mit Four-Way-Schlitten hantiert und fand es nie beeindruckend. Das Mikroruckeln ist ekelhaft, aber die Eingabelatenz bei "normalen" Fps ist völlig inakzeptabel.

Bis 3-Way SLI ist es akzeptabel, alles darüber hinaus wird von NV nur experimentell unterstützt und genauso seh ich das auch. 4-Way SLI kann gut funktionieren, muss es aber nicht. Ich würde es nicht unbedingt empfehlen.
Störendes Lagging ist eher selten, natürlich merkt man den Unterschied von 2-Way auf 4-Way AFR z.b. bei den Minfps welche sich spürbar träger anfühlen, aber das es jetzt so extrem wäre oder gar unspielbar, kann ich nicht sagen. Man braucht bei 4-Way SLI ein paar mehr FPS das ist sicher, aber das lässt sich ja alles perfekt anpassen. Das ist von Game zu Game verschieden, während sich ein Crysis noch mit 40fps zufrieden gibt, sollten es beim Nachfolger schon 55-60fps sein usw.

Hinzu kommen kuriose Slowdowns oder Abstürze, die bei Single- oder Dual-GPU-Rendering ausbleiben.

Dann liegts bestimmt an den Profilen, Abstürze etc. kenn ich von 4-Way SLI nicht, lief eigentlich immer stabil.

robbitop
2013-02-07, 12:47:41
Nächsten Monat kommt der 4k 32" Sharp Monitor, noch preislich außerhalb von dem, was ich gewillt bin auszugeben, aber die werden schnell deutlich günstiger.

Hat der 4K Monitor von Sharp nicht auch die 30Hz Begrenzung für 4K? Es gibt ja noch kein standartisiertes Interface, dass mehr kann. Damit ist der Monitor eigentlich zum Spielen nutzlos.

Finch
2013-02-07, 13:15:23
Wie würde er dann bei PCGH getestet? Oder war das nicht der Sharp?

robbitop
2013-02-07, 13:39:23
Der lief bei der PCGH AFAIK nur mit 30 Hz. Haben sie ja auch in den Videos öfters gesagt.

Rente
2013-02-07, 14:14:02
Hat der 4K Monitor von Sharp nicht auch die 30Hz Begrenzung für 4K? Es gibt ja noch kein standartisiertes Interface, dass mehr kann. Damit ist der Monitor eigentlich zum Spielen nutzlos.Ehm, DisplayPort? Das hat eine mehr als doppelt so hohe Bandbreite als HDMI1.4a...
Oder meinst du jetzt ein internes Interface für die Ansteuerung des Panels?

Wenn man wollte würde das auch jetzt schon, zumindestens am PC funktionieren.
wenn thuderbolt endlich durch ist...
Bis das jemanden interessiert/es sich verbreitet gibt es längst HDMI2.0 (bzw. es wird eben DisplayPort genutzt), in den meisten anderen Bereichen wird nicht mehr als USB3.0 benötigt.

gnahr
2013-02-07, 14:15:02
wenn thuderbolt endlich durch ist...

Godmode
2013-02-07, 14:18:35
Der 4k Monitor wurde über zwei Anschlüsse versorgt.

Skysnake
2013-02-07, 14:33:49
Displayport schafft schon bis zu 17.9 GBit/s Symbolrate, also praktisch gleich viel wie Thunderbolt. Ist ja auch so verwunderlich, da die ja auch gar nicht ähnlich zueinander sind :rolleyes:

Sorry, aber Thunderbolt ist da gar keine Alternative... Vor allem nicht, weil Thunderbolt Bidirektional ist. Du bist also eigentlich sogar noch langsamer als maximal mit Displayport...

Ich versteh echt nicht, warum die Leute Thunderbolt oder auch Lightpeak so nachrennen... Als ob Intel da was revolutionäre Neues gemacht hätte...

gnahr
2013-02-07, 14:41:37
Bis das jemanden interessiert/es sich verbreitet gibt es längst HDMI2.0 (bzw. es wird eben DisplayPort genutzt), in den meisten anderen Bereichen wird nicht mehr als USB3.0 benötigt.
aber zotac hat bereits ne gtx660 als thunderbolt-edition aufgelegt, auf diversen highend-mobos ist es regulär vertretten, so viel wartezeit braucht es da nicht mehr.
und dass sich specs in der nächsten generation nicht überraschend ändern können... über ddr3 brauchen wir nicht reden, die haben sich mittelfristig doch komplett ins aus geschoßen mit dem "nicht fisch, nicht fleisch"-specs.

Godmode
2013-02-07, 14:42:26
Displayport schafft schon bis zu 17.9 GBit/s Symbolrate, also praktisch gleich viel wie Thunderbolt. Ist ja auch so verwunderlich, da die ja auch gar nicht ähnlich zueinander sind :rolleyes:

Sorry, aber Thunderbolt ist da gar keine Alternative... Vor allem nicht, weil Thunderbolt Bidirektional ist. Du bist also eigentlich sogar noch langsamer als maximal mit Displayport...

Ich versteh echt nicht, warum die Leute Thunderbolt oder auch Lightpeak so nachrennen... Als ob Intel da was revolutionäre Neues gemacht hätte...

Also beim Macbook finde ich die Port ganz praktisch. Hab da meine 2 externen Monitore angeschlossen oder bei manchmal einen GBit Ethernet Adapter. Später dann vielleicht mal externe Festplatten.

Skysnake
2013-02-07, 14:51:29
Natürlich ist es "praktisch" wobei der Teufel zum Teil im Detail liegt, aber darum gehts gar nichts. Intel hat sich mit Thunderbolt einfach total übernommen. Kosten/Nutzen stimmen hier absolut nicht. Und genau deswegen wird es sich auch nicht durchsetzen. Es ist einfach viel zu aufwendig für das was es kann. Wenn da jetzt die doppelte oder dreifache Bandbreite drüber gehen würde bei gleichem Aufwand würde es komplett anders aussehen, aber so ist es einfach nur ein "mit Ressourcen um sich geschmeise um ein Problem zu lösen"

Mit dem Aufwand der da betrieben wird, muss einfach mehr bei rumkommen. 10/40 GBit Karten sind deutlich schneller, aber nicht in dem maße komplexer. Vor allem sind Sie in so vielen Bereichen so viel besser, das es eigentlich erschreckend ist, wieviel Aufwand Intel für die gegebene Leistung bringen muss.

Kane02
2013-02-07, 15:26:35
Autsch:
http://www.computerbase.de/news/2013-02/erste-listung-der-geforce-gtx-titan-fuer-rund-900-euro/

robbitop
2013-02-07, 15:28:50
Stimmt. DP 1.2 schafft 4K bei 60 Hz. Es gibt noch keine Displays mit DP 1.2. Aber die werden dann sicher schnell kommen.

Raff
2013-02-07, 15:31:05
Wer schon mal Geforce-Downsampling an einem Full-HD-TV ausprobiert hat, wird feststellen, dass man dort 3.840x2.160 auch mit 50 Hz nutzen kann (vermutlich total "überfahren"). :D

MfG,
Raff

PS: Könnte bitte endlich jemand Fähiges das "kauft kauft" aus der Überschrift nehmen? :ugly:

robbitop
2013-02-07, 15:50:43
kauft, kauft, kauft .... :D

Das ist aber auch etwas anderes, Raff. Dort wird ja bereits auf der Grafikkarte downgesampelt und nur noch FullHD übertragen. Oder irre ich hier?

Ich kann über HDMI problemlos 4K @50 Hz an meinen 2010er 37" Sony LCD (Downsampling) übertragen. Das spricht dafür, dass das Downsampling nicht der LCD übernimmt.

aufkrawall
2013-02-07, 15:51:03
PS: Könnte bitte endlich jemand Fähiges das "kauft kauft" aus der Überschrift nehmen? :ugly:
Das ist so ein Fall für den Verleser-Thread, mir ist es bislang gar nicht falsch aufgefallen. :freak:

Godmode
2013-02-07, 15:58:46
Das ist so ein Fall für den Verleser-Thread, mir ist es bislang gar nicht falsch aufgefallen. :freak:

Lol der Fehler ist von mir. Kauft kauft kauft ^^

M4xw0lf
2013-02-07, 17:18:42
Es gibt doch nur ca 5 Karten, die reichen nicht für alle hier :tongue:

Matrix316
2013-02-07, 17:42:58
Bei 400 Euro bin ich vielleicht dabei. ;) Obwohl die GTX680 ist eigentlich für meine Zwecke schon noch ausreichend. Aber mal Crysis 3 abwarten. ;)

Godmode
2013-02-07, 18:54:03
Es gibt doch nur ca 5 Karten, die reichen nicht für alle hier :tongue:

Das geht sich dann nicht aus, wenn Tobi und ich schon je 4 davon haben wollen. ;D

M4xw0lf
2013-02-07, 19:34:03
Das geht sich dann nicht aus, wenn Tobi und ich schon je 4 davon haben wollen. ;D

Wie es gute kapitalistische Tradition ist, werdet ihr einen Kampf auf Leben und Tod darum führen :freak:

Godmode
2013-02-07, 19:43:05
Wie es gute kapitalistische Tradition ist, werdet ihr einen Kampf auf Leben und Tod darum führen :freak:

^^

Meine zweite GTX 690 is gerade auf den Markt gekommen, als falls wer will, einfach PN.

Schaffe89
2013-02-07, 19:56:59
Sollte die Karte 25% schneller sein als meine HD 7970 ghz auf 1150/1500 dann werd ich mir sicherlich auch eine gönnen.

derguru
2013-02-07, 19:59:28
wird eng:biggrin:

Lard
2013-02-07, 20:02:26
Ich habe schon lange eine "Titan" im Rechner:
Meine übertaktete HD 7970! :freak:

Falls die Performance-Schätzung von 85% der GeForce GTX 690 stimmt, ist die Titan nur 15% schneller als die 7970 GHz Edition.
Schon ca. 1220/1700 1300/1750MHz reichen aus, um den Abstand einzuholen.

horn 12
2013-02-07, 20:32:37
Denke da hast dich verrechnet...

Raff
2013-02-07, 20:47:42
Wenn die Kiste echt (fast) im Vollausbau kommt, hat eine HD 7970 GHz Edition keine Chance. Klar, wenn man die auf 1.200+ MHz keult, ist der Abstand nicht mehr riesig, aber ~30 Prozent sind's bestimmt. Zumal Titan gewiss nicht die erste Grafikkarte mit OC-Sperre ist. ;) Ich bin brutal gespannt, aber nicht gewillt, die völlig wahnsinnigen Gerüchtepreise auszugeben.

MfG,
Raff

derguru
2013-02-07, 20:50:43
wenn der titan noch 30% schneller als eine 7970@1200 ist hat sie den namen verdient.:)

rofl oc-sperre ist aber fu..

Skysnake
2013-02-07, 21:47:47
Kann aber sehr gut sein, das man kein Risiko eingehen will bei dem Chip.

Knuddelbearli
2013-02-07, 22:17:10
wann agbs die letzte GTX ohne ox sperre ? die spannung meiner referenz 480 kann man auch nicht aansatzweise soweit anheben wie es so eienr karte unter wakü würdig wäre

robbitop
2013-02-08, 08:12:25
Es ist schon traurig, wie Leute +30-40 % abfeiern und als wahren "Titan" bezeichnen. Bis vor kurzem haben wir alle 18 Monate ~Faktor 2 bekommen. Und zwar für max. 500 €.
Heute soll man 800 € für so etwas latzen? Und sich drüber freuen? :facepalm:

Wenn das Ding Anfang 2012 gekommen wäre für 500 €. Dann wäre es der übliche Faktor 2 ggü der GTX580 gewesen und damit auch 500 € wert gewesen...

Palpatin
2013-02-08, 08:36:48
Wenn das Ding Anfang 2012 gekommen wäre für 500 €. Dann wäre es der übliche Faktor 2 ggü der GTX580 gewesen und damit auch 500 € wert gewesen...
Den "üblichen Faktor 2" ? Den gab es nur zweimal bei der 8800 und der 6800. Meist waren es eher um die 50-60%.

boxleitnerb
2013-02-08, 08:38:49
Du vergisst die Refreshes. Es war schon Faktor 2.

Palpatin
2013-02-08, 08:53:28
Du vergisst die Refreshes. Es war schon Faktor 2.
Ich bin jetzt von 480 vs 280 und 280 vs 8800 ausgegangen. Die 8800 war Faktor 2,5 auf die 7800 und Faktor 3 auf die 6800. Die 5800 dürfte in etwa Faktor 2 gewesen sein aber oft gab es den nicht? Oder überseh ich da was?
Außerdem war ja klar das es deutlich langsamer vorran gehen wird sobald die TDP ein stark limitierender Faktor ist was im Prinzip erst so richtig mit der 480 das erste mal eingetreten ist.

robbitop
2013-02-08, 08:54:39
Den "üblichen Faktor 2" ? Den gab es nur zweimal bei der 8800 und der 6800. Meist waren es eher um die 50-60%.
60...80 % zumindest. Es gab halt 384 /512 Bit Karten mit 5xx sqmm diesize alle 18 Monate. Für 500 €. Mit 60..80..100 % Speedbump. Wenn man die Refreshes jetzt mal weglässt, war es praktisch Faktor 2. Jetzt liefert man eine ~500 sqmm GPU 1 Jahr zu spät und will auf einmal das 1,5 fache dafür haben? Und das soll man feiern? :|
Sowas müsste man eher boykottieren. 500 € ist die Karte wert.
Klar ist sie schneller als die alte Karte - aber man will ja auch Innovationen haben. Die neue Karte hat einfach schneller zu sein als die alte.

boxleitnerb
2013-02-08, 09:06:30
580 vs 275 (fast so schnell wie 285), Faktor 2.04:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index29.php

Von der 8800 gab es keinen Refresh, da müsste man eigentlich 8800 und 285 vergleichen, damit es zwei Schritte sind. Und auch da ist es ungefähr Faktor 2.

Viele Tests sind zumindest teilweise CPU-limitiert, was die Unterschiede dann natürlich schmälert. Das mit der Leistungsaufnahme stimmt aber. Ich kann mich nicht erinnern, dass eine Karte die Performance zu ihrem Vorgänger (inkl. Refresh) verdoppelt und den Verbrauch nicht erhöht hat.

M4xw0lf
2013-02-08, 09:12:10
580 vs 275 (fast so schnell wie 285), Faktor 2.04:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_580_test/index29.php

Meiner Meinung nach sollte man schon die jeweils aktuellen Highend-Modelle vergleichen. Das heißt GTX285 vs. GTX480, sowie 8800 Ultra vs. GTX280.

robbitop
2013-02-08, 09:17:39
Das spielt doch fast keine Rolle. Das ändert nichts am Fakt, dass GF Titan zu spät und zu teuer ist verglichen mit der Vergangenheit.

boxleitnerb
2013-02-08, 09:21:06
Meiner Meinung nach sollte man schon die jeweils aktuellen Highend-Modelle vergleichen. Das heißt GTX285 vs. GTX480, sowie 8800 Ultra vs. GTX280.

Ich sagte ja, die 275 ist fast so schnell wie die 285 - die war bei ht4u leider nicht dabei. Und die Vergleiche sind auch nicht dasselbe wie Titan vs 580. Die 8800 Ultra war ein Sondermodell mit hohem Takt, davon gehe ich bei Titan nicht aus. Da wird uns nur der "normale" Nachfolger als was Besonderes verkauft mMn. Und warum sollte man neuen Prozess mit reifem Prozess vergleichen, nur damit der Abstand kleiner wird? Solche Vergleiche sollten schon fair ablaufen. 280/480 oder eben 285 vs "485" (580) etc. Ich betrachte das eher als Generationenvergleich.

AnarchX
2013-02-08, 09:22:08
Wenn das Ding Anfang 2012 gekommen wäre für 500 €. Dann wäre es der übliche Faktor 2 ggü der GTX580 gewesen und damit auch 500 € wert gewesen...
Wenn man überlegt, dass es bei GeForce 500 und HD 6000 einen kaum spürbaren Preisverfall gegeben hat, wäre eine >500mm² 28nm GPU und 6GiB GDDR5 für 500€ schon ein ziemlich überragendes Angebot gewesen.

Aber wenn die Preise pro Waferfläche deutlich steigen und man im Verbrauchslimit operiert ist eben nicht mehr viel möglich. Insgesamt ist Titan wohl kein überragendes Angebot, sondern etwas, was der Gesamtsituation der GPUs angemessen ist.
Mit der 8800 Ultra hat man sich schon mal in einen ähnlichen Preisbereich mit einer Single-GPU vorgewagt und dort gab es sogar noch günstigere SKUs auf der gleichen Basis.

Eine konsequente Enthusiasten-Strategie wäre jetzt natürlich den Partnern (EVGA z.B.) zu erlauben GK110 auf >400W PCBs zu setzen, hier vielleicht auch 7Gbps GDDR5 zu verbauen und Bundles mit WaKühler zu schnürren.

gnahr
2013-02-08, 09:25:03
ist sowiso egal, wenn robbi gern boykotieren möchte kann er das still und heimlich tun.
weder nvidia noch amd wirken so als ob sie eben nie wieder nach 18monaten faktor 2,5 für 300€ aus dem hut zaubern können. aber nicht aus bosshaftigkeit, sondern physikalischen schranken.

warum immer alte vergleiche hochkommen müssen... 8800, 480,... am besten noch gf2ultra.
das waren nicht nur andere chips, sondern auch ein ganz anderer markt auf den diese karte traf.
heute sind highend-grakas allüberall in der werbung, viele leute spielen an konsolen/pcs, ...

robbitop
2013-02-08, 09:30:27
Wenn man überlegt, dass es bei GeForce 500 und HD 6000 einen kaum spürbaren Preisverfall gegeben hat, wäre eine >500mm² 28nm GPU und 6GiB GDDR5 für 500€ schon ein ziemlich überragendes Angebot gewesen.
3 GiB hätten auch gereicht.

Aber wenn die Preise pro Waferfläche deutlich steigen und man im Verbrauchslimit operiert ist eben nicht mehr viel möglich.
Iwo. Die 7970 kostet 300 €. 150 sqmm mehr Kernfläche können es jetzt auch nicht sein (für > doppelten Preis). (und der zusätzliche GDDR5)

Insgesamt ist Titan wohl kein überragendes Angebot, sondern etwas, was der Gesamtsituation der GPUs angemessen ist.
Mit der 8800 Ultra hat man sich schon mal in einen ähnlichen Preisbereich mit einer Single-GPU vorgewagt und dort gab es sogar noch günstigere SKUs auf der gleichen Basis.
Kunden mit so einer Einstellung wünscht sich jeder Hersteller...

Die Titan ist verglichen mit seinen echten Vorgängern nichts besonderes. Kein Monster. 5xx sqmm auf dem jeweiligem Prozess und 384 bit SI. Big whoop. Gab es schon etliche male.

Natürlich steigen die Waferkosten. Aber doch nicht von einem Kalenderjahr aufs nächste mit voller Brutalität auf einmal. Ich glaube eine weitere Teilursache liegt darin dass, NV merkt, dass AMD sowieso mangels Ressourcen nicht mehr all zu sehr pushen möchte und selbst macht man sich nur die Margen kaputt, wenn man zu sehr aufdreht.

Ich gehe jede Wette ein, dass wenn AMD ein 500 sqmm High End Geschoss für 500 € anbieten würde, wäre auch eine solche Karte von NV eher und für weniger Geld gekommen. Der Druck im GPU Markt sank einfach. Kombiniert mit höheren Waferpreisen, Economy Crysis und dem schrumpfenden Desktopmarkt.
Interessieren sollte das einen Kunden IMO jedoch nicht. Gleichbleibende Erwartungen sind IMO nichts unübliches.

Hier schreien so viele nach 4K. Das bedeutet, wir brauchen Faktor 4 an GPU Leistung. Und am besten noch mehr, da das Grafiklevel mit den neuen Konsolen steigen wird. Also Faktor >8.
Fermi kam 2010. Titan bringt jetzt 2013 - 3 Jahre später - etwas mehr als Faktor 2 ggü der GTX480. Jetzt extrapolier mal wie lange es dauern wird, bis wir unser 4K mit neuem grafischen Detail bekommen.... :(

AnarchX
2013-02-08, 09:48:29
Iwo. Die 7970 kostet 300 €. 150 sqmm mehr Kernfläche können es jetzt auch nicht sein (für > doppelten Preis). (und der zusätzliche GDDR5)
Fragt sich nur wie rentabel die 7900er sind. Zusammen mit den Never Settle Gamebundles sieht das teilweise doch schon sehr verzweifelt aus, überhaupt Umsatz zu generieren.


Die Titan ist verglichen mit seinen echten Vorgängern nichts besonderes. Kein Monster. 5xx sqmm auf dem jeweiligem Prozess und 384 bit SI. Big whoop. Gab es schon etliche male.

Natürlich steigen die Waferkosten. Aber doch nicht von einem Kalenderjahr aufs nächste mit voller Brutalität auf einmal. Ich glaube eine weitere Teilursache liegt darin dass, NV merkt, dass AMD sowieso mangels Ressourcen nicht mehr all zu sehr pushen möchte und selbst macht man sich nur die Margen kaputt, wenn man zu sehr aufdreht.
Nach der HD 7970/GTX 680 für 500€ konnte man so etwas aber schon erwarten.
Im Endeffekt will man vielleicht auch mit Titan nicht besonders hohe Umsätze erzielen, es soll ein limitiertes Stück Supercomputer für Enthusiasten sein.

Aber wenn man nur 14 SMX liefern sollte, wäre das für fast 1000€ schon etwas arm.


Ich gehe jede Wette ein, dass wenn AMD ein 500 sqmm High End Geschoss für 500 € anbieten würde, wäre auch eine solche Karte von NV eher und für weniger Geld gekommen. Der Druck im GPU Markt sank einfach. Kombiniert mit höheren Waferpreisen, Economy Crysis und dem schrumpfenden Desktopmarkt.
Interessieren sollte das einen Kunden IMO jedoch nicht. Gleichbleibende Erwartungen sind IMO nichts unübliches.

Das lässt sich leider auch in anderen Preisbereichen beobachten: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9233743#post9233743

robbitop
2013-02-08, 09:58:21
Die 7970 ist ja mit ihrem 384 bit SI und 3 GiB RAM (auch wenn sie leider nur selten daraus einen Vorteil schlägt) zumindest schonmal auf halbem Wegen zu einer High End Karte. GK104 war Mainstream zum High End Preis.
IMO hat man alles Recht der Welt mit der Situation unzufrieden zu sein. Sowohl im CPU als auch GPU Markt stellt sich einfach kein so richtiger Druck mehr ein, der NV/Intel zu guten P/L zwingt.
Immerhin baut AMD noch schnelle GPUs. Müssen diese - warum auch immer - zu niedrigen Preisen verkaufen. Das hat wohl Imagegründe. Die 7970 GE ist die schnellste kaufbare Karte im Moment. Sie ist aber billiger als die 680.

Raff
2013-02-08, 12:39:32
Es gibt immer noch zu viele "Meine Rage machte anno 1956 nur Probleme! Nie wieder Ati!"-Leute, die auf andere abfärben.

MfG,
Raff

TobiWahnKenobi
2013-02-08, 12:42:38
die alten hasen, die die ATI-geschichte seit anbeginn miterleben durften, werden irgendwann aussterben. hab mir sagen lassen, dass die heute schon im mittel an den 40 lenzen kratzen.



(..)

mfg
tobi

Angiesan
2013-02-08, 13:06:16
OMG danke das du mich daran erinnerst hast :wink:

Iruwen
2013-02-08, 13:26:04
Da gibt es genug Nachwuchs der parallel auch die Probleme im "gegnerischen Lager" komplett ausblendet (gerade wieder Coldboot Bug, Installer Bug usw.)

Godmode
2013-02-08, 14:33:23
3 GiB hätten auch gereicht.



Also ich finde die 6 GiB bei so einer Karte sehr angemessen, was nett wär, wäre eine 3 GiB Version. Die 6 GiB sehe ich als sinnvoll an, wenn man mehrere Karten verwendet und dann in 4k+ spielt mit AA und Mods. Ich denke alle SLI-User werden die 6 GiB begrüßen.

robbitop
2013-02-08, 15:52:54
Dann ja.

Thomas Gräf
2013-02-11, 19:15:25
die alten hasen, die die ATI-geschichte seit anbeginn miterleben durften, werden irgendwann aussterben. hab mir sagen lassen, dass die heute schon im mittel an den 40 lenzen kratzen.
(..)

mfg
tobi

Kannst ruhig'ne 50 aus der 40 machen...

Im übrigen finde ich das robbitop Recht hat.
Klar ist es keine Absicht, und selbst eine "Friedens-Absprache" zwischen AMD und nV würde ich gerade jetzt auch verstehen...aber die Umstände der derzeitigen Entwicklung sind recht arg.
Als ich das mit dem Titan las hab ich mir gleich'ne 7970GE besorgt...sonst werd ich Tatsache noch 900 Onken los ;)

Spike2
2013-02-14, 19:01:48
Mal eine kurze Zwischenfrage (sorry, wenns im Thread schon mal auftauchte): Warum fährt nVidia bei der Titan (aber auch bei der größeren Tesla-Karte) den GK110 nicht voll aus, also alle Einheiten aktiviert? Yield-Probleme? Auf der anderen Seite hätten die doch jetzt auch genügend Zeit zur Selektion für die Titan gehabt, oder? Die teil-deaktivierten, weil teil-defekten, GK110 hätte man dann für die Tesla nutzen können, die 100%igen für die Titan - oder mache ich hier einen Denkfehler bzw. ist der Yield selbst dafür zu schlecht?

TobiWahnKenobi
2013-02-15, 11:21:00
kann am yield liegen oder einfach daran, dass die zusätzliche einheit weniger bringt als sie kostet (energetisch).

schon ein unterschied zwischen 3 vs. 6GiB VRAM kann schnell 30W ausmachen.


(..)

mfg
tobi

Spike2
2013-02-15, 17:59:38
Stimmt, den Punkt Energieverbrauch hatte ich jetzt noch nicht bedacht. Wobei - wenn das so stimmt, was in den letzten Tagen an Gerüchten zur TDP auf der Main zu lesen war, würde die letzte Einheit mehr jetzt auch nicht so schlimm werden... naja, auf der anderen Seite hat nVidia auf diese Art dann noch etwas für den Refresh in der Hinterhand ;)

Hübie
2013-02-17, 00:33:50
nVidia kann mich langsam mal am Arsch lecken. Die Preistreiberei ist doch zum Kotzen. Ich kauf mir ne Playse 4. Dann is Ruhe im Laden. Was soll der scheiß mit Titan? :|
Wenn AMD nicht so ätzend wäre hätte ich schon längst eine von denen drin.

Grestorn
2013-02-17, 01:02:30
Wer zwingt Dich denn zum Kauf einer Titan? Ich denke, für den Normalo, der problemlos alles zocken können möchte, reicht eine 670 oder 680 voll aus.

Ich werde die Titan auf jeden Fall auslassen. Sie ist sicher toll, aber nicht für das Geld. Mit WaKü komme ich sicher über 1000€, und das muss nicht sein.

Hübie
2013-02-17, 01:21:34
Meine Anforderungen an die Bildqualität sagt ich bräuchte leistungstechnisch eine Titan. Es gibt aber an die 900 Faktoren welche dagegen sprächen :freak:
Ich hab ne gammelige 580er und seit 5 Stunden noch eine 8800 GTS für PhysX. Ich habe mir letzte Nacht stundenlang Grakas rausgesucht, aber die wären alle kein sinnvolles upgrade. :(

G 80
2013-02-17, 10:00:45
Außerdem ist es nicht nur Titan. :rolleyes:

*Hier beliebige NV 28 nm Karte einfügen* ist, von seltensten Schnäpchen abgesehen, einfach einfach unverschämt bepreist. :mad:

Und dann wird halt gar nichts gekauft, auch nichts billigeres.

M4xw0lf
2013-02-17, 10:12:00
*Hier beliebige NV 28 nm Karte einfügen* ist, von seltensten Schnäpchen abgesehen, einfach einfach unverschämt bepreist. :mad:

Und dann wird halt gar nichts gekauft, auch nichts billigeres.

Naja, ab knapp 320 Talerchen für eine 7970 ( http://geizhals.at/de/?cat=gra16_512&sort=p&bpmax=&asuch=&v=l&plz=&dist=&xf=1440_HD+7970 ) kann man nicht gerade als unverschämt teuer bezeichnen - meine 6970 hat ungefähr so viel gekostet vor zwei Jahren.

fondness
2013-02-17, 10:54:25
Meine Anforderungen an die Bildqualität sagt ich bräuchte leistungstechnisch eine Titan. Es gibt aber an die 900 Faktoren welche dagegen sprächen :freak:
Ich hab ne gammelige 580er und seit 5 Stunden noch eine 8800 GTS für PhysX. Ich habe mir letzte Nacht stundenlang Grakas rausgesucht, aber die wären alle kein sinnvolles upgrade. :(

Selbst Schuld wenn man sich von NV verarschen lässt. Und nein, seit der HD7 und dem RadeonPRO-Tool gibt es für mich keinen plausiblen Grund mehr warum ich für eine langsamere NV-Karte mit weniger RAM und Ausstattung mehr bezahlen sollte.

Raff
2013-02-17, 10:59:25
Interessenten sollten einfach die Füße still halten. Alle. Dann regelt sich das mit dem Preis von selbst. Allerdings kennt hier noch niemand den tatsächlichen Marktpreis.

MfG,
Raff

dargo
2013-02-17, 12:05:44
Meine Anforderungen an die Bildqualität sagt ich bräuchte leistungstechnisch eine Titan. Es gibt aber an die 900 Faktoren welche dagegen sprächen :freak:

Es ist schon lustig zu lesen, dass dich NV am Allerwertesten mit der Titan-Karte wegen dem hohen Preis lecken kann und auf der anderen Seite sagst du du hättest hohe Ansprüche an die Bildqualität und gleichzeitig erwähnst du dabei eine Konsole @PS4. ;D

Sven77
2013-02-17, 12:41:39
Meine Anforderungen an die Bildqualität sagt ich bräuchte leistungstechnisch eine Titan. Es gibt aber an die 900 Faktoren welche dagegen sprächen :freak:

Wat? Bildqualität ist doch inzwischen gleichauf und das Treibergelaber war schon immer purer Fanboyism...

aufkrawall
2013-02-17, 12:43:18
Wat? Bildqualität ist doch inzwischen gleichauf und das Treibergelaber war schon immer purer Fanboyism...
Jeder hat halt andere Ansprüche bzw. lebt in seiner eigenen Welt.
Manche kommen auch mit nem 180€ Monitor zurecht und sagen, ihnen fällt bei dem nix negatives auf.
Da dreht sich etwas pingeligeren Leuten natürlich der Magen um.

Mancko
2013-02-17, 12:43:34
Konsolen sind doch eh der Witz schlechthin. Für ein paar Funspiele am Fernseher relaxed auf der Couch ok aber für ernsthaftes Spielen taugen die doch nun wirklich nicht. Ich habe auch eine PS3 aber ich spiele da nur ganz bestimmte Spiele, die einem nichts abverlangen. Die ganzen Shooter, Flusis usw. spiele ich aber grundsätzlich auf dem PC. Ich werde mir eine Titan gönnen. Zwar nicht direkt nach Launch aber so im April / Mai. Bis dahin hat sich der Erstanstrum auch gelegt.

Cubitus
2013-02-17, 12:45:16
Einfach etwas warten. Keine VÖ-Deppen Preise zahlen. Zudem sind die Treiber dann auch wieder besser. Und man kann entspannt die Reviews bis ins letzte Detail verfolgen...

Konsolen sind doch eh der Witz schlechthin. Für ein paar Funspiele am Fernseher relaxed auf der Couch ok aber für ernsthaftes Spielen taugen die doch nun wirklich nicht.


Och auf der PS3 gibts schon das ein oder andere Game, welches ich mir dringend für den PC wünschen würde.

Wie z.b God of War, Heavy Rain, Gran Tourismo oder Infamous. Bei der Xbox gäbe es auch noch ein paar Topp-Titel..

Grestorn
2013-02-17, 13:12:17
Einfach etwas warten. Keine VÖ-Deppen Preise zahlen. Zudem sind die Treiber dann auch wieder besser. Und man kann entspannt die Reviews bis ins letzte Detail verfolgen...

Ich weiß, ich nerve gleich wieder...

Aber das nervt einfach MICH. Wieso kann man nicht mal eine Meinung sagen, ohne andere gleich zu beleidigen?

Es gibt Leute, die WOLLEN etwas sofort, WISSEN auch, dass sie dafür einen hohen Preis zu bezahlen haben. Und sie sind deswegen ganz bestimmt keine DEPPEN, sondern für sie ist der höhere Preis sie verkürzte Wartezeit einfach WERT.

Bin ich in diesem Forum eigentlich nur von Menschen pubertären Gemüts umgeben? Denn nur solche können sich nicht artikulieren ohne ihr Gegenüber dabei gleich zu beleidigen.

boxleitnerb
2013-02-17, 13:21:11
Das gilt aber nur dann, wenn nicht sowas wie bei der GTX280 passiert ;)

Ich glaube allerdings, dass Titan recht wertstabil bleibt mangels Konkurrenz und weil die erste Charge vermutlich recht flott ausverkauft sein wird.

Cubitus
2013-02-17, 13:22:25
Ich weiß, ich nerve gleich wieder...

Aber das nervt einfach MICH. Wieso kann man nicht mal eine Meinung sagen, ohne andere gleich zu beleidigen?

Es gibt Leute, die WOLLEN etwas sofort, WISSEN auch, dass sie dafür einen hohen Preis zu bezahlen haben. Und sie sind deswegen ganz bestimmt keine DEPPEN, sondern für sie ist der höhere Preis sie verkürzte Wartezeit einfach WERT.

Bin ich in diesem Forum eigentlich nur von Menschen pubertären Gemüts umgeben? Denn nur solche können sich nicht artikulieren ohne ihr Gegenüber dabei gleich zu beleidigen.

Ahhh ja :freak: Ich glaube du bekommst da was in den ganz falschen Hals.
Whooosaaa einatmen und ausatmen....... ;D

Beim G80 war es ja so, kann mich erinnern Preise bis zu 750 Euro gesehen zu haben, nach einer Woche kosteten die gleichen Modelle 550 Euro. Wenn man, so wie ich, zwei Karten will ist es schon ein Unterschied von 400 Euro.
Zudem deutet sich eh ein Papertiger an. Die ersten Shops welche dann Karten vorrätig haben, wollen eben extra Kohle und das muss ja nicht sein!
Und dazu sagt man eben im Allgemeinen Deppen-Preise. Aber eine böse Absicht, steckt eigl nicht hinter diesem Ausdruck ;)

Das gilt aber nur dann, wenn nicht sowas wie bei der GTX280 passiert ;)

Ich glaube allerdings, dass Titan recht wertstabil bleibt mangels Konkurrenz und weil die erste Charge vermutlich recht flott ausverkauft sein wird.

Bei der GTX690 war es doch genau so, am VÖ teilweise Preise bis zu 1100 Euro und ein paar Tage später konnte ich mein Exemplar für 970 Euro erwerben...

Knacki99
2013-02-17, 13:25:58
Ich frag mich eher (neben der Preissituation) wie es mit der Verfügbarkeit der Grafikkarten nach dem morgigen Launch aussehen wird. Gibt es dazu schon Infos?

Gunslinger
2013-02-17, 13:26:08
Ich habe meine Radeon 5870, die GTX 580 und die GTX 680 alle bei Release gekauft. Soweit ich mich erinnere sind in keinem der Fälle die Preise kurz danach merklich gefallen. Die 5870 wurde sogar wesentlich teurer. Ob das Teil einen Zwanziger günstiger wird ist mir wurscht.

Dural
2013-02-17, 13:42:19
ich verstehe so wie so nicht wie so ständig über die grafikkarten preise gejammert wird aber im gleichem atemzug CPU preise von 1000.- als normal hinimmt. :freak:

ein titan ist für 1000.- zu so einer CPU dagegen ja ein richtiges schnäppchen :P :rolleyes:

high end hat ihren preis und grafikkarten haben gegenüber CPUs ein richtig gutes preis/leistungs verhältnis.

Hübie
2013-02-17, 14:50:24
Wat? Bildqualität ist doch inzwischen gleichauf und das Treibergelaber war schon immer purer Fanboyism...

Eben nicht! Wo ich noch SSAA applizieren kann geht es auf einer Radeon öfter mal nicht. Und HQ AF ist immer noch ein ticken besser (Placebo). Dann einfach noch kleinere Dinge (siehe aufkrawalls Thread). Aber hauptsächlich hab ich kein Bock auf deren Treiber-gedöns. Ich hab jetzt auch gar kein Bock da näher drauf einzugehen weil dann eh jeder AMD-Besitzer sagt "bei mir geht ALLES!". Also lassen wir das. Mein Bruder hat ne 7970 und ist happy. Weil er aber auch nix anderes kennt. Ich kenne beide Seiten. :rolleyes:

@Raff: Du kennst doch die Spinner im HWL. Die legen sich nicht mehr schlafen sondern auf die Lauer:crazy: Die sagen dass es erst ab 1200€ weh täte...:redface:
@fondness: Da sag ich ja mal gar nix zu! :facepalm:
@dargo: Ja ich habe hohe Ansprüche an BQ. Die habe ich damals für 520€ (Karte+Custom Kühler) auch erhalten. Jetzt plötzlich soll ich mglw. 800 Tacken zahlen:confused: Ach komm... da gibt es einfach keine Relation zum Zugewinn.
Die PS4 ist dann einfach der Notnagel und sollte meinen Frust verdeutlichen. Dachte das ist klar genug ;)

Lowkey
2013-02-17, 14:53:32
Ab wieviel Uhr fällt das NDA?

Skysnake
2013-02-17, 14:55:20
Um 5 Uhr soll ja die Vorstellung kommen, wenn ich das richtig im Kopf habe.

Aber irgendwie hab ich ein ungutes Gefühl, das man Titan nur am Rande was erfährt, und sich 90% der Zeit um Project Shield-Mist dreht -.-

dargo
2013-02-17, 14:58:01
@dargo: Ja ich habe hohe Ansprüche an BQ. Die habe ich damals für 520€ (Karte+Custom Kühler) auch erhalten. Jetzt plötzlich soll ich mglw. 800 Tacken zahlen:confused: Ach komm... da gibt es einfach keine Relation zum Zugewinn.

Zustimm. :)


Die PS4 ist dann einfach der Notnagel und sollte meinen Frust verdeutlichen. Dachte das ist klar genug ;)
Ich habe mich nur köstlich über den Downgrade @PS4 amüsiert. :D Zumal da auch ne AMD-GPU drin steckt. ;)

TobiWahnKenobi
2013-02-17, 15:04:02
Wat? Bildqualität ist doch inzwischen gleichauf und das Treibergelaber war schon immer purer Fanboyism...
:ucrazy:


(..)

mfg
tobi

Godmode
2013-02-17, 15:59:52
Einfach etwas warten. Keine VÖ-Deppen Preise zahlen. Zudem sind die Treiber dann auch wieder besser. Und man kann entspannt die Reviews bis ins letzte Detail verfolgen...



Och auf der PS3 gibts schon das ein oder andere Game, welches ich mir dringend für den PC wünschen würde.

Wie z.b God of War, Heavy Rain, Gran Tourismo oder Infamous. Bei der Xbox gäbe es auch noch ein paar Topp-Titel..

Werde es wohl doch auch so machen, auch wenn der Habenwill-Faktor dieses mal extrem groß ist. Wenn wir wirklich 1000 € bezahlen, gehen sie sie das nächste mal gleich auf 1200 € und so weiter.
Für 1k können sie den Krempel behalten.

Raff
2013-02-17, 16:00:24
:ucrazy:

(..)

mfg
tobi

Was genau ist an seiner Aussage falsch?

MfG,
Raff

Dural
2013-02-17, 16:21:26
naja der treiber support ist bei NV schon besser und das ist auch kein fanboy gelabber, die die das nicht sehen, wollen es einfach schlicht nicht sehen :wink:

wie oft liefen neue games auf den AMD nicht so rund wärend die NV karten schon von beginn an gut liefen. AMD liefert danach zwar meisten verbesserte treiber, die sind mir dann aber herzlich egal da ich das game auf einer NV karte schon längst durchgespielt habe :wink:

zb. ist die open gl performence nach wie vor ein schlechter witz :rolleyes:

http://www.computerbase.de/news/2013-02/huebscher-valley-benchmark-von-unigine-erschienen/

TobiWahnKenobi
2013-02-17, 16:22:20
guckt mal über den tellerrand der "videospiele" - die woche besteht nicht nur aus zocking.



(..)

mfg
tobi

Sven77
2013-02-17, 16:23:16
Was genau ist an seiner Aussage falsch?

MfG,
Raff

Ich fand leider euren Artikel nicht (BQ-Vergleich GTX5xx vs. HD7xxx).. hätte den gerne verlinkt..

Cubitus
2013-02-17, 16:32:37
Werde es wohl doch auch so machen, auch wenn der Habenwill-Faktor dieses mal extrem groß ist. Wenn wir wirklich 1000 € bezahlen, gehen sie sie das nächste mal gleich auf 1200 € und so weiter.
Für 1k können sie den Krempel behalten.

So ist es, haben will ist ja bei mir zu Zeit auch sehr groß.
Aber ich bekomme wohl den vollen Preis für meine 690er vergütet.
Also war es noch Glück im Unglück. :) Aber auf die Gutschrift draufzahlen will ich bei der Titan auch nicht! Also warte ich eben 1-2 Wochen wenn es sein muss!

Ich vermute die 690er hat sich wohl besser verkauft als angenommen und nun versucht Nvidia den Preis nochmals höher zu setzen, so lange bis er stagniert ^^

M4xw0lf
2013-02-17, 17:09:36
guckt mal über den tellerrand der "videospiele" - die woche besteht nicht nur aus zocking.



(..)

mfg
tobi

Ja die Desktopdarstellung meiner minderwertigen Radeon lässt häufig meine Augen bluten, das stimmt.

TobiWahnKenobi
2013-02-17, 17:21:07
Ja die Desktopdarstellung meiner minderwertigen Radeon lässt häufig meine Augen bluten, das stimmt.

..aber als fan erträgt man das tapfer, verstehe.

btw,
ich hab keinen nerv für diesen schwachsinn - lesen uns wieder, wenn meinen titanen stecken. wer sich für "meine" hintergründe zu AMDs treibermacken interessiert, wird sie finden - hab das genug gepostet und myriaden videos geuppt (luxx, p3d und hier). das fängt irgendwo bei 120Hz-sorgen an, zieht sich über stereoskopie und endet bei falschen farbformaten und crappy HDMI-sound. wer da nicht mitreden kann, weil das equipment fehlt -> sparen und solange bedeckt halten. bin echt nicht hier, um jedem 100€-TFTs-spieler die welt zu erklären.

edit:
einiges ist auch bei youtube gelandet (TWK666 suchen).


(..)

mfg
tobi

Hübie
2013-02-17, 17:23:56
Ich habe mich nur köstlich über den Downgrade @PS4 amüsiert. :D Zumal da auch ne AMD-GPU drin steckt. ;)

Deren Hardware ist sehr gut. Aber das drum herum... Mit einer AMD-GPU in der PS4, WiiU oder XBOX 3 hab ich kein Problem. Und besser als meine PS3 wird die garantiert.

@tobiwahnkenobi: Die meisten hier sind Zocker und wollen auch nur so ein Dickschiff um zu zocken. Wenn du was anderes vor hast geht das in den Bereich wo man wahrscheinlich Geld damit verdient irgendwelche lustigen Berechnungen zu machen und dann zahlt man halt Quadro-Plex Preise...
Edit: Ach das meintest du. Das solltest du vielleicht auch mal (weniger überheblich) dazu schreiben. Nicht jeder scheißt Geld und investiert in Hardware/Entertainment. Deine Art anderen gegenüber ist manchmal echt zum Kotzen.

@Godmode: 1000€ sind deine Schmerzgrenze? :freak: Autsch! Eine kastrierte Karte können die bei alles über 700 Euro behalten. Vollausbau wäre was wert, aber so. Pff.

TobiWahnKenobi
2013-02-17, 17:29:25
komm wieder runter. ich bin nicht die nutte, die irgendwem was säuseln muss - auch wenn ich für geld mächtigST den arsch bewege. von nix kommt nämlich nix.


(..)

mfg
tobi

Hübie
2013-02-17, 17:47:32
Ist mir klar, aber mein Job ist auch nicht gerade ein Spaziergang und trotzdem schreibe ich niemandem vor er müsse sich dies und das kaufen um mitzureden. Stell das nächstes Mal einfach deutlicher heraus was du meinst und du vermeidest so ein unsinnigen Kommentar wie von Maxwolf in Zukunft.

Schönen Sonntag.

Ach ja: nVidia->:ufinger:

Black-Scorpion
2013-02-17, 17:56:04
guckt mal über den tellerrand der "videospiele" - die woche besteht nicht nur aus zocking.



(..)

mfg
tobi
Dann sollte man sich bei AMD auch auch die richtigen Karten kaufen und keine Karten für Spieler. Aber da wird ja gespart und hinterher gemeckert. Das ist ja auch viel einfacher.

TobiWahnKenobi
2013-02-17, 18:02:32
Dann sollte man sich bei AMD auch auch die richtigen Karten kaufen und keine Karten für Spieler. Aber da wird ja gespart und hinterher gemeckert. Das ist ja auch viel einfacher.

die 7970er (drei stück waren es; für je 550€) sind auch auch zum spielen angeschafft worden. montag oder dienstag kann ich mich dann nochmal auf spielchen mit ner pitcairn-karte einlassen. mal gucken wie das so wird.

@hübie
irgendwann ist die luft raus und dann spule ich das auch nicht immer wieder von vorn ab - hab damit im letzten jahr wirklich genug zeit ans bein gebunden - 2013 wird hier ein herzschonendes jahr :-)


(..)

mfg
tobi

Hübie
2013-02-17, 18:32:51
Ja wir werden nicht jünger ;) Wenn mir was zu blöd wird schreibe ich gar nicht mehr. ;D

Sven77
2013-02-17, 19:05:56
guckt mal über den tellerrand der "videospiele" - die woche besteht nicht nur aus zocking.

Mein PC schon.. ernste Sachen mach ich an was anständigem..

Reneeeeeee
2013-02-17, 19:17:16
Bin noch unschlüssig

Meine 5870 tut es eigentlich noch recht gut und so richtig reizt mich irgendwie keine.

Nach meiner langen AMD-Phase wird es vielleicht mal wieder eine Nvidia werden aber wann, dass steht noch nicht fest. Kann auch erst in 2 Jahren werden.

MartinRiggs
2013-02-17, 19:25:58
Für den Preis werde ich mich hüten, zumal ich den Namen schon total Gay finde.:freak: Vermutlich spätestens in einem Jahr ist Titan nicht mehr die schnellste Karte, dann ist es nur noch ein Titanchen.

G 80
2013-02-17, 19:52:06
Sry nochmal kurz zu vorher:

Naja, ab knapp 320 Talerchen für eine 7970 ....


daher auch:



*Hier beliebige NV 28 nm Karte einfügen* ist, ...



Ich möchte mal bischen meine Sicht dazu Posten, wen ich langweile der soltes überspringen. Außerdem wird die Sache eh lange genug und ich will nicht alles immer wieder runterbeten, daher wenn ich schreibe X war Crap und y war Crap kann udn wird das wohl unterschiedliche, bekannte, Gründe haben.

Also zur 7970 bzw. eigentlich 7950 den das war/ist die genial Karte: Für den Preis sollte man ATI echt nicht ans Bein Pinkeln.
- Daher, Pisse wem Pisse gebührt - Das wird noch öfter vorkommen.

Sie haben zwar hoch angefangen aber der Preis ging immer weiter runter. Um den Preis denn du erwähnst hätte ich sicher schon MGPU.
Leistung satt, 3 GB Vram, custom Design erträglich, AF Gefixt, BQ Spielereien kommen auch .... alles Sachen die die Grafik Schlampe in mir Ansprechen.

Ab hier muss ich mal weiter aushohlen: Ich bin schon wirklich lange dabei, und kann Nachtragend sein, da ist Skysnake nicht der einzige. Wenn ich an das scheiß gecheate von früher denke dürfte ich eigentlich überhaupt von niemanden etwas kaufen ..... aber ok zurück zu Gegenwart:

Ich habe GF 5-7 sowas von gehasst und bin froh das der Dreck mit dem Ende der PS 3 endgültig verschwinden wird. Dafür kann man NV gar nicht genug vollpinkeln. R9000, X800 oder X1800/1900 DAS sind Karten.

Dann noch ATI Vliw -> Stirb, das ist ATIs CineFX. LEDIGLICH Cypres/40 war ok weil Thermi 1 kaputt war. Und ok heißt hier Tradeoff.

So nun bleiben Karten, wie die letzten beiden Zeigen, bei mir auch mal länger drin wenns keinen attraktiven Optionen gibt. Zudem verteile ich auch Karten im Umfeld bei Usern mit nicht so hohen Ansprüchen; schonmal gesehn für was ein uralter G 80 heute noch alles reicht? Und solange keine neuen Konsolen herausen sind wird das auch so bleiben.

So natürlich muss man der anderen Seite auch mal wieder eine Chance geben. Ich hab zB ne 55nm 4650 im NB.
Damal war die HW auch goil - als FPS Schlampe: Sparsam, billig, relativ schnell. Und so hab ich nun mehr als ein solches ATI 55nm NB im Umfeld, mit i7en, mit Wolfdales, HP, Acer, Toshiba, Dell etc.

Und wisst ihr was der gemeinsame Nenner ist? Der ATI Treiber. Alte Sachen laufen nicht/schlecht. Neue Sachen laufen nicht/schlecht. Va der Legacy Treiber war ein grandioser abschließender Tritt zwischen die Beine.
Auf NV? Läuft.

Zu CineFX Zeiten hab ich mich auch nicht von billig/schnell und trotzdem crap einlullen lassen. Die Zeiten sind zwar vorbei und die Umstände waren anders aber es will doch zB heute keiner ernsthaft den G 70 Mist gegen X1 ATI von damals stellen?
Und jetzt, obwohl GCN nicht so schlecht aussieht, bin ich nicht bereit die von ATI so mühsam aufgebauten und ständig gepflegten Vorurteile einfach zu vergessen.

Ab vom Preis wäre Kepler schon gekauft. Sehe auch keine weiteren Probleme am Horizont, sondern im Gegenteil viel positives, auch nach dem Verkaufsende der G 80er .
GCN wäre rein von der Preis/Leistung schon gekauft. Sehe aber am Beispiel der Vegangenheit und auch heute noch massiven Handlungsbedarf und anpiss-Potential.



Rückblickend ...... hätte ich die Zotac/Shaman 480er Amps kaufen sollen. 2 davon im SLI wären auch nicht teurer gekommen als 680 Rev bzw. 670 mit 680 PCB und CC wie die D2C UND egal wie starke MR-Verluste trotzdem besser/leistungsfähiger/flüssiger.
Kepler hat zwar alle meine Hoffnungen erfüllt, nachdem ich dank NICHT BF-3 warten konnte, nur, mit dem Preis trotz billigsdorfer HW wie der 670 Rev, die selbe Stelle wie ATI getroffen - nur mit nem anderen Tritt.


Endergebnis und aktueller Status (hab falls was neues zu GK 110/Titan gibt Zeit dieser Post noch nicht gelesen) frei nach Southpark: Lekt mich Leute (ATI/NV), ich bleib bei G 80.
Und wenns gar nicht mehr geht und der PC Schlappmacht, nen billigen neuen mit ner gebrauchten billigen Fermi.

€: @ MW: NP geht uns allen mal so. ;)

M4xw0lf
2013-02-17, 19:58:00
Sry nochmal kurz zu vorher:

Ah, lesen ist halt Glücksache ne ^^

Hübie
2013-02-17, 20:05:09
Ich hab neulich auch überlegt mir zwei HD 7870 LE zu kaufen. Für 390 Euro bekommt man massig Performance. Aber dann besann ich mich auf meine CFX-Zeiten, dachte an den Treibermist und schloß das Browser-Fenster :freak: ;D
Tja. Und so dümpel ich weiter mit meiner GTX 580 rum und muss einsehen dass es zum Kotzen ist wie andere das Geld für so einen Stuss verpulvern - damit erhält man den Markt. Wenn man es so macht wie Raff sagt würden die Preise auch mal auf ein Niveau fallen das dem Produkt angemessen ist. Aus dem Bauch heraus sage ich das Titan 500 Euro wert ist. Alles darüber ist dämlich. Aber ich habe vielleicht einen anderen Bezug zu dem Geld was ich so verdiene (nicht bekomme!!).

derguru
2013-02-17, 22:43:38
wozu auch 2 x 7870 LE? eine 7970 gut gekühlt auf 1200 takten und viel spass damit.

Marty98
2013-02-18, 00:25:06
wozu auch 2 x 7870 LE? eine 7970 gut gekühlt auf 1200 takten und viel spass damit.

Ohne die Mikroruckler hätte ich vielleicht eine gekauft, aber so nicht. Hoffen wir auf bessere Treiber mit dem neuen Speichermanagement.

Schaffe89
2013-02-18, 02:06:25
Jaja, die µruckler, bei AMD sind die zwar je nach Spiel etwas öfter da, bei Nvidia gibt es jene aber genauso, besonders bei schnellen Bildwechseln.

Tesseract
2013-02-18, 03:22:45
Jaja, die µruckler, bei AMD sind die zwar je nach Spiel etwas öfter da, bei Nvidia gibt es jene aber genauso, besonders bei schnellen Bildwechseln.
es gibt halt leute, die wollen mit ihrem system auch spielen und nicht nur benchmarken. vor allem das experimentelle ARF-smoothing mit dem geringeren input lag ist da pures gold wert.

boxleitnerb
2013-02-18, 06:35:27
Jaja, die µruckler, bei AMD sind die zwar je nach Spiel etwas öfter da, bei Nvidia gibt es jene aber genauso, besonders bei schnellen Bildwechseln.

Behauptest du. Dazu müsstest du erstmal Messwerte präsentieren UND die müssten von neutraler Seite nochmal bestätigt werden.

Bisher haben techreport, nordichardware, alienbabeltech und computerbase diese Probleme bei AMD festgestellt, jeweils mehr oder weniger ausgeprägt je nach Umfang der Untersuchung.
Nix für ungut, aber vier Hardwareredaktionen sind ein anderes Kaliber als ein kleiner schaffe89 ;)
Zumal ich ganz offen und ehrlich gesagt deinen Werten nicht trauen würde - genauso wie du wohl AMD-Werten von mir nicht trauen würdest. Hast mich ja neulich als biased beschimpft, das kannst du gerne zurückhaben, wenn du willst :D

Knuddelbearli
2013-02-18, 06:53:36
naja so oder so lässt sich das kaum beweisen, schnelle Bildwechsel sind in sogut wie keinen Spiel reproduzierbar und damit nicht vergleichbar benchbar ;-)

boxleitnerb
2013-02-18, 07:18:40
Och, ob das jetzt komplett vergleichbar ist zwischen mehreren Drehungen, ist glaub ich nicht so wichtig. Savegame laden, Maus nach rechts schubsen - wenn es ruckelt, ruckelt es. Da wäre es mir egal, ob es sehr stark ruckelt oder mittelstark, beides ist doof und würde ein Problem darstellen.

fondness
2013-02-18, 07:39:06
Behauptest du. Dazu müsstest du erstmal Messwerte präsentieren UND die müssten von neutraler Seite nochmal bestätigt werden.

Bisher haben techreport, nordichardware, alienbabeltech und computerbase diese Probleme bei AMD festgestellt, jeweils mehr oder weniger ausgeprägt je nach Umfang der Untersuchung.
Nix für ungut, aber vier Hardwareredaktionen sind ein anderes Kaliber als ein kleiner schaffe89 ;)
Zumal ich ganz offen und ehrlich gesagt deinen Werten nicht trauen würde - genauso wie du wohl AMD-Werten von mir nicht trauen würdest. Hast mich ja neulich als biased beschimpft, das kannst du gerne zurückhaben, wenn du willst :D

Also wenn ich mir die Messwerte ansehen gibt es da auch bei NV genug µRuckler. BF3 ruckelt sogar bei NV definitiv stärker als bei AMD.
Es ist richtig das es im Schnitt bei AMD häufiger auftritt, aber so zu tun als ob NV eine perfekte Frameverteilung hätte ist doch leicht lächerlich.

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

boxleitnerb
2013-02-18, 07:43:19
Also wenn ich mir die Messwerte ansehen gibt es da auch bei NV genug µRuckler. BF3 ruckelt sogar bei NV definitiv stärker als bei AMD.
Es ist richtig das es im Schnitt bei AMD häufiger auftritt, aber so zu tun als ob NV eine perfekte Frameverteilung hätte ist doch leicht lächerlich.

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

Was ist vorhanden?
Auch bei Nvidia zeigen sich hier einige spikes, aber computerbase schreibt ja klar und deutlich:
Jedoch lässt sich nicht generell sagen, dass die aufgezeigten Schwächen bei den Framelatenzen immer spürbar sind und das Spielgeschehen somit negativ beeinflussen.

Ob es also ruckelt oder ob es nur so aussieht, bedarf zusätzlich zu den Messwerten noch einer Person, die auch wirklich selbst hinschaut bzw. spielt. Da muss man nichts schönreden, bei AMD sieht es momentan deutlich schlechter aus, was das betrifft.

Und bitte hör auf, Sachen zu erfinden. Nirgendwo habe ich so getan, als ob die Framezeiten bei Nvidia perfekt wären. Wenn du es aber ansprichst: Solange keiner belegt, dass sie es nicht sind bzw. dass es auch wirklich irgendwo ruckelt oder stockt, kann man durchaus annehmen, dass hier keine Probleme vorliegen.

fondness
2013-02-18, 07:51:51
Was ist vorhanden?
Auch bei Nvidia zeigen sich hier einige spikes, aber computerbase schreibt ja klar und deutlich:



Ob es also ruckelt oder ob es nur so aussieht, bedarf zusätzlich zu den Messwerten noch einer Person, die auch wirklich selbst hinschaut bzw. spielt. Da muss man nichts schönreden, bei AMD sieht es momentan deutlich schlechter aus, was das betrifft.

Und die NV-Spikes merkt man natürlich niemals nicht ist klar. ;)
Ich habe schon gesagt das es bei AMD schlechter aussieht, aber auch bei NV ist es sicherlich nicht perfekt so wie du das ständig versuchst darzustellen. Da muss man nichts schön reden. ;)

Und das BF3 aktuell auf NV zu µRucklern neigt habe ich in diesem Forum schon mehrmals gelesen, scheint also nicht nur theoretisch zu sein und ist inzwischen durch mehrere Messwerte bestätigt.
Auch Alan Wake gegen Ende der Messreihe oder Hitman am Anfang zeigt deutliche Ruckler auf NV bei CB.

boxleitnerb
2013-02-18, 07:56:40
Bitte lüg nicht, ich kann dich nur nochmal dazu auffordern!

Ich versuche nichts "ständig darzustellen", ich beziehe mich auf die Tests und deren Beobachtungen. Von irgendeinem Ruckeln bei Nvidia habe ich z.B. in dem aktuellen Computerbasetest nichts gelesen. Jetzt behauptest du sicher gleich, die sind von Nvidia geschmiert worden, um das unter den Tisch fallen zu lassen, wetten? Wenn dir irgendwelche Messwerte (samt subjektiven Eindrücken) bekannt sind, kannst du sie ja gerne verlinken im entsprechenden Thread. Aber Sachen einfach erfinden und keine Belege zu bringen, geht einfach nicht. Und Unwahrheiten über andere zu verbreiten ebenso nicht.

fondness
2013-02-18, 08:08:48
Bitte lüg nicht, ich kann dich nur nochmal dazu auffordern!

Sag mal willst du mich jetzt für dumm verkaufen? Deine Antwort auf schaffe89, der davon sprach das diese µRuckler auch bei NV auftreten können ist wenige Beiträge alt. Du hast das mit einem lapidaren "Behauptest du." abgestritten. Ziemlich Schwach mich jetzt der Lüge zu bezichtigen.


Ich versuche nichts "ständig darzustellen", ich beziehe mich auf die Tests und deren Beobachtungen. Von irgendeinem Ruckeln bei Nvidia habe ich z.B. in dem aktuellen Computerbasetest nichts gelesen. Wenn dir irgendwelche Messwerte (samt subjektiven Eindrücken) bekannt sind, kannst du sie ja gerne verlinken im entsprechenden Thread.

Tja dann mach die Auge auf, die Graphen sind öffentlich zugänglich. Das sich die Tester auf die Werte mit den größeren rucklern stürzen ist klar, das bedeutet noch lange nicht das bei NV alles perfekt ist.

Aber bitte hier exklusiv für dich der subjektive Eindruck von 2 Personen das in BF3 bei NV selbst bei 60fps sichtbare µRuckler auftreten:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9620132&postcount=98

Wenn dir das nicht reicht kann du gerne noch mehr Beiträge haben. ;)

soLofox
2013-02-18, 08:12:39
habt ihr beide schlecht geschlafen? :confused:

boxleitnerb
2013-02-18, 08:16:22
Sag mal willst du mich jetzt für dumm verkaufen? Deine Antwort auf schaffe89, der davon sprach das diese µRuckler auch bei NV auftreten können ist wenige Beiträge alt. Du hast das mit einem lapidaren "Behauptest du." abgestritten. Ziemlich Schwach mich jetzt der Lüge zu bezichtigen.


Du legst es dir hin, wie es dir gerade passt. Ich habe in dem Beitrag erwähnt, dass ich ihm nicht unbedingt traue - das heißt aber definitiv nicht, dass ich einer Untersuchung von fähigen Hardwareredaktionen ebenfalls skeptisch gegenüberstehen würde. Entweder kannst du also nicht richtig lesen oder du sagst nicht die Wahrheit.


Tja dann mach die Auge auf, die Graphen sind öffentlich zugänglich. Das sich die Tester auf die Werte mit den größeren rucklern stürzen ist klar, das bedeutet noch lange nicht das bei NV alles perfekt ist.


Das habe ich auch nie behauptet. Ich bin sicher, wenn Wolfgang auch bei Nvidia ein ungewöhnliches Ruckeln abseits zu niedrigen fps festgestellt hätte, hätte er das auch erwähnt.


Aber bitte hier exklusiv für dich der subjektive Eindruck von 2 Personen das in BF3 bei NV selbst bei 60fps sichtbare µRuckler auftreten:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9620132&postcount=98

Wenn dir das nicht reicht kann du gerne noch mehr Beiträge haben. ;)

Siehste, es geht doch, warum nicht gleich so?

@soLofox:
Ne, sogar sehr gut. Ich lass mir nur nichts Unwahres unterstellen, da hört der Spass auf.

@Mods:
Könnte jemand diese Diskussion bitte in den anderen Thread verschieben, wo es um die Ruckler geht? Hier geht es eigentlich um Titan und wer ihn kaufen würde.

fondness
2013-02-18, 08:23:59
Du legst es dir hin, wie es dir gerade passt. Ich habe in dem Beitrag erwähnt, dass ich ihm nicht unbedingt traue - das heißt aber definitiv nicht, dass ich einer Untersuchung von fähigen Hardwareredaktionen ebenfalls skeptisch gegenüberstehen würde. Entweder kannst du also nicht richtig lesen oder du sagst nicht die Wahrheit.


Ich habe dir nie unterstellt das du einer Untersuchung von fähigen Hardwareredaktionen skeptisch gegenüberstehst. Entweder kannst du also nicht richtig lesen oder du sagst nicht die Wahrheit. ;)


Das habe ich auch nie behauptet.

Du hast es vorhin jedenfalls abgestritten das diese ruckler auf bei NV auftreten.


Siehste, es geht doch, warum nicht gleich so?


Ich wusste nicht das man bei dir für jedes schon längst bekannte Detail Beweise vorlegen muss. Wir sind doch nicht im Kindergarten...

boxleitnerb
2013-02-18, 08:28:12
Doch hast du. Es ging nie um die Ruckler generell, sondern um die Quelle der Untersuchung, was ich auch deutlich erklärt habe.

Also hör bitte endlich auf zu lügen, dann kommen wir auch miteinander aus. Und benutz deine eigenen Worte, dazu bist du sicher fähig.

fondness
2013-02-18, 08:30:28
Doch hast du. Es ging nie um die Ruckler generell, sondern um die Quelle der Untersuchung, was ich auch deutlich erklärt habe.

Also hör bitte endlich auf zu lügen, dann kommen wir auch miteinander aus. Und benutz deine eigenen Worte, dazu bist du sicher fähig.

Mir ist das ehrlich gesagt zu blöd sich hier persönlich anzumachen, deshalb bin ich raus hier. Wenn ich dich falsch verstanden haben sollte sorry. Ich habe aber sicher nicht gelogen und finde es ziemlich dreist von dir das ständig zu behaupten. Wenn du es nicht schaffst zu diskutieren ohne persönlich zu werden dann lass es.

Jedenfalls hast du jetzt deinen Beweis das diese Ruckler auch bei NV aftreten. ;)

aufkrawall
2013-02-18, 10:37:20
Aber bitte hier exklusiv für dich der subjektive Eindruck von 2 Personen das in BF3 bei NV selbst bei 60fps sichtbare µRuckler auftreten:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9620132&postcount=98

Da gings um SLI & adaptives Vsync.

TobiWahnKenobi
2013-02-18, 10:45:46
BF3 ist bei mir das ausnahmespiel, das "subjektiv" überhaupt keinen sync benötigt.. *schulterzuck* das teart kein stück.


(..)

mfg
tobi