PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX Titan: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9

Spasstiger
2013-02-23, 13:51:37
Ah ok gut für AMD das sie den PS4 und Xbox 3 Deal bekommen haben.
Für FullHD @ 30 fps (60 Mio. Pixel pro Sekunde) reichen 500 Mio. tessellierte Dreiecke pro Sekunde schon dicke aus. ;)

gnahr
2013-02-23, 13:57:16
Link selber angeschaut? Es wird nur von Gaming geredet und nicht von Gpgpu.
nächste frage: wer redet da? das ist third-party-werbung, weg damit.
vielleicht trifft es die aussage "forumscharlie" (in anlehnung an den niedlichen star vom zdf) ja doch, dass so etwas durcheinander kommt.

mir will es eh nicht in den kopf, langsam sollte auch der letzte wissen, dass boykott-aufrufe aus blosser selbstgefälligkeit erwachsen jetzt laut krawall machen zu können und morgen das nächste dorf voller inbrunst für 24stunden abbrennen zu können. nur weil es der top-dog ist evaluiert jeder seine optionen ihn zu kaufen und macht dann stunk wenn es außerhalb der eigenen comfort zone ist... ja und? wir sind doch keine 12 mehr und kaufen alles was uns die werbung zeigt. es ist ein angebot, da muss man sich doch nun nicht aufs blut beleidigt geben und rumzettern als drama-queen.

Godmode
2013-02-23, 14:07:08
Den link angeklickt und angeschaut? :ugly:

Und die volle DP-Leistung sagt auch was anderes...

Ja, du anscheinend aber nicht. Das Ding wird als Gaming Karte vermarktet und nichts anderes. Das Supercomputer blabla soll ja nur ne Aufwertung sein, damit die Leute denken "Goil alda, isch hab jetzt Super Computer Hardware in meiner Kiste"...

Spasstiger
2013-02-23, 14:09:38
Witzig finde ich dabei, dass der Titan-Supercomputer mehr Rechenleistung bietet als alle Titan-Grafikkarten zusammen. Titan ist doch auf 10.000 Karten limitiert, oder?

boxleitnerb
2013-02-23, 14:11:33
Nein, das war ein Gerücht und es stimmt nicht. Nvidia hat es ggü. Anandtech explizit dementiert.

dildo4u
2013-02-23, 14:12:01
Witzig finde ich dabei, dass der Titan-Supercomputer mehr Rechenleistung bietet als alle Titan-Grafikkarten zusammen. Titan ist doch auf 10.000 Karten limitiert, oder?
Nein.

Iruwen
2013-02-23, 14:19:05
Witzig finde ich dabei, dass der Titan-Supercomputer mehr Rechenleistung bietet als alle Titan-Grafikkarten zusammen.
Und die Marco Polo hat die Motorleistung von 1500 Kleinwagen :eek:

Ronny145
2013-02-23, 14:22:49
GAR NICHT!
RIESEN Fail hingelegt hat.
Hallo?
failen die so derbe
Hallo gehts noch???
Das ist eh die absolute Frechheit...:down:
Da bekommste als Kunde ECHT das Kotzen bei dieser Überheblichkeit einer Firma....
nVidia sollte echt von diesem Trip runter kommen
auf lange Sicht echt noch das Genick brechen...
NICHTS aus ihrem durch Überheblichkeit verhunzten China-Deal gelernt...
Bei nVidia stehts auf der Kippe.
Kack-GPGPU-Treiber :
DAS ist so hirnverbrannt....



Nvidia Hasser at its best. Das toppt alles. Ich würde es mit noch mehr Kraftausdrücken versuchen damit es auch wirklich jeder mitbekommt. Dass Nvidia OpenCL stiefmütterlich behandelt, ist nicht erst seit dem Titan launch bekannt.

Iruwen
2013-02-23, 15:24:54
Ich sag ja, der wird nicht alt mit den cholerischen Zügen :D

Skysnake
2013-02-23, 15:32:20
Ich frage mich gerade, warum für jemanden, der die Titan aus Entwickler- und GPGPU-Sicht sieht, das vernachlässigte (aber nicht funktionslose) OpenCL so wichtig ist.

Ganz einfach, weil du dich damit nicht auf Gedeih und Verderben an einen Hersteller bindest. Muss ich an Fermi erinnern?

So was kann JEDEM Hersteller passieren. Wenn du propritäre Sachen nutzt, haste dann verloren und schaust in die Röhre. Wenn du offene Standard nutzt, kannst du "recht einfach" zu was anderem wechseln. Ich behaupte gar nicht, dass das immer sonderlich einfach ist, oder geschweige denn ohne Aufwand, aber es geht.

Man stelle sich das mal bei CPUs vor. Da wäre man in jüngster Vergangenheit sowohl bei AMD als auch bei Intel gekniffen gewesen, wo ihre Xeons/Opterons jeweils zeitweise schlecht/gar nicht verfügbar waren aus den unterschiedlichsten Gründen.

Wer da als Entwickler nach geschlossenen Standardsschreit, hat den Knall nicht gehört, oder bekommt direkt oder indirekt Geld dafür...


Wenn du wirklich Performance willst, nimmst du für so ein Ding doch eh Cuda, oder?

Ja, weil nVidias OpenCL-Treiber nicht wirklich knalle sind...

Das machst du aber auch nur, wenn du weißt, dass du genau auf eine Platform/System hin optimierst, und sich daran auch nichts ändern wird. Also z.B. Forschungsprojekt XY, welches 3 Jahre geht, und Rechner Z verwendet, welches neu angeschafft wird. Da wird man selbst bei einer Verlängerung noch den gleichen Rechner verwenden.

Ich kenn aber auch genug Leute, die "schwer bereuen", alles auf CUDA laufen zu haben. Einfach deshalb, weil man mit Fermi sehr böse auf die Schnauze gefallen ist, und auch mit Kepler nicht wirklich 100% zufrieden ist. Man hat aber gar keine Wahl, etwas anders zu machen, da den Code an zu passen zich mal so viel kosten würde...

Bzgl Langzeitprojekten wird aber schon sehr genau überlegt, ob man jetzt CUDA nutzt oder nicht. Aktuell fällt die Wahl meistens noch in Richtung CUDA, einfach weil der Verlust am Funktionsumfang zu groß wäre, und AMD/OpenCL aktuell eben noch keine Alternative ist. Auf den nächsten OpenCL Treiber und GCN schielen die Leute aber schon sehr. Es müsste halt nur einfacher zu nutzen sein...



Ich meine, einige GK110-exklusive Sachen außer Hyper-Q muss man ja direkt anprogrammieren, oder?

Ja. Man könnte es aber auch als OpenCL-Extension einbringen, oder wenn sich nVidia und AMD mal an einen Tisch setzen würden sogar direkt als eine API-Funktion what ever einbinden. Wenn man sich nVidias Treibersupport anschaut, weiß man allerdings, wie realistisch diese Hoffnung ist...

Dabei verliert nVidia komplett aus den Augen, das OpenCL/OpenGL/HSA sehr wichtig für Sie sind (SFF<->Tegra). Da bleibt zu hoffen, dass Sie ihre Ideologie doch noch ändern werden. Immer gegen den kompletten restlichen Markt zu arbeiten ist einfach ne dumme Idee...

Vor allem bremst man damit aber die Entwicklung der offenen Standards aus, was dann für alle ein Nachteil ist.



Geht das unter OpenCL im Standard-Pfad oder nur über proprietäre Extensions - wo wir ja schon fast wieder dabei wären, dass man genausogut Cuda nutzen könnte, wenn man nicht gerade eine religiöse Abneigung gegen sowas hegt.
Jaein. Große teile des Codes könnte man dann ja noch immer nutzen, und wenn man von Anfang an bedenkt, das man unterschiedliche Architekturen hat, kann man auch "selbstoptimierenden" Code schreiben. Ist am Anfang halt viel mehr aufwand, lohnt sich aber auf Dauer (siehe viele Fortran/HPC Bilbiotheken). Davon würden halt alle profitieren.

Und genau da kommen wir zu einem springenden Punkt. Wäre nVidia nicht so gott verdammt darauf versessen, die Sachen propritär zu halten, könnte die gesamte Community viel mehr mit machen, und auch im Lowlvl-Bereich mehr machen. Da schiebt aber nVidia eben einen Riegel vor, und macht ihr eigenes Ding. Keine Frage, nVidia buttert da richtig viel Geld rein, und bringt gute Lösungen, es ginge aber durchaus noch besser.... Mehr sag ich dazu aber nicht.

Ja, du anscheinend aber nicht. Das Ding wird als Gaming Karte vermarktet und nichts anderes. Das Supercomputer blabla soll ja nur ne Aufwertung sein, damit die Leute denken "Goil alda, isch hab jetzt Super Computer Hardware in meiner Kiste"...
Wenn ich da z.B. in den nVidia Newsletter reinschaue, der mir die Tage wieder ins Postfach geflattert ist, dann versuchen Sie einem aber was ganz anderes zu suggerieren, und dann darf man das auch kritisieren.

Nvidia Hasser at its best. Das toppt alles. Ich würde es mit noch mehr Kraftausdrücken versuchen damit es auch wirklich jeder mitbekommt. Dass Nvidia OpenCL stiefmütterlich behandelt, ist nicht erst seit dem Titan launch bekannt.
Und nicht erst seid da kritisiere ich das....

Und noch ein Punkt, der ziemlich schwer zu vermitteln ist, aber je mehr man mit nVidia zu tun hat, desto mehr kotzen einen gewisse Dinge an. Insbesondere das man immer wieder gegen Wände/verschlossene Türen rennt, auf denen "Propritär" drauf steht...

Ich sag ja, der wird nicht alt mit den cholerischen Zügen :D
Ich werd bald 30 und leb noch immer, entgegen der Voraussage mancher...

Totgesagte leben länger :P

PCGH_Carsten
2013-02-23, 15:59:07
Man bindet sich an einen Hersteller, ja. Aber genau das tut man auch, wenn man seine Algorithmen an herstellerspezifische Extensions bindet. Da ist dann bloß der Funktionsaufruf plattformunabhängig, die eigentliche Arbeit und der schwierige Teil der Programmierung bleibt proprietär.

Wofür nutze ich denn GPU-Compute? Um Algorithmen, die genügend parallel sind, eine Größenordnung von einer CPU zu beschleunigen. Und wenn ich das erreichen will, nutze ich keine naive One-Click-Autocompiler-Option, sondern muss meinen Algorithmus anpassen - an Cachegrößen, Register-File-Besonderheiten, Scheduling-Optimierungen und am Ende noch an Treiberbefindlichkeiten. Sonst kann ich's gleich bleiben lassen und lieber einfach 2x soviel CPUs hinstellen, wenn ich „nur“ etwas schneller sein will; das ist billiger.

Ich glaube, dir geht es mehr um OpenCL um OpenCL willen. Doch das kann ich auch prima „proprietarisieren“. Beispiele? Winzip 16.5 - als Open CL Support neu war, ging das nur mit einer Radeon. oCL Hashcat Lite. Das hat einen Cuda-Pfad und einen OpenCL-Pfad. Was passiert, wenn ich den OpenCL-Pfad auf der CPU oder einer Nvidia-Karte starten will? "No AMD GPU found"…

OpenCL ist gut, richtig und wichtig, aber eines sollte es ganz sicher nicht werden: Ein Selbstzweck.

Ich erinnere mich noch gut an Ende der Neunziger, als DX OpenGL immer mehr den Rang als #1-Spiele-API ablief. SKANDAL! Damit hat Microsoft alles in einer Hand! Mit OpenGL kann man alles prima selbst machen... Ja, musste man auch. Einen Nv-Pfad, einen Ati-Pfad, einen Matrox-Pfad und und und. Und heute? Ja, OpenGL gibt's noch. Es hat mit Jahren Abstand sogar den technischen Rückstand zu DX einholen können, inzwischen, aufgrund der Langsamkeit, der Zersplitterung und Uneinigkeit des Chronos-Konsortiums aber viele seiner Befürworter eingebüßt.

Skysnake
2013-02-23, 16:53:49
Carsten, deswegen sag ich auch, wenn man es richtig implementiert ;)

Die Größe von Registern, Caches, Workgroups usw muss man halt parametrisieren. Das ist VIEL Aufwand, wenn man es aber einmal gemacht hat, dann kann man es immer und immer wieder verwenden. Deswegen habe ich ja auch die Fortran Bibkiotheken usw auch als Beispiel genannt. Da wird ja genau so etwas auch gemacht. ;)

Und bzgl deinen OpenCL-Beispielen, so was gehört dem Entwickler um die Ohren geschlagen... Und wenns nur in Testberichten ist. So was geht völlig am eigentlichen Konzept vorbei, und ist sehr schade. Wenn ich mich recht erinnere, hatte da AMD ja damals ihre Finger mit drin, damit der Port kommt. OpenCL, und dann so was ist total daneben :down: Wenns nicht mit voller Performance läuft ok, aber es sollte eigentlich immer laufen...

Und ja, natürlich bevorzuge ich OpenCL einfach, weil es OpenCL, und damit ein offener Standard ist. Es müssen halt nur alle mit ziehen, und genau das ist leider wieder mal nicht wirklich der Fall :(

Nehmen wir mal allein GPUDirect. Es wäre doch echt toll, wenn man einen gemeinsamen Adressrau (oder gleich HSA) und dazu noch GPUDirect hätte. Und so gibts halt echt viele Beispiele. Da will ich aber nicht für jeden Pups ne eigene Implementierung von Hand stricken, sondern mächtige Bibliotheken. Da zahl ich den Herstellern auch gern "viel" Geld für die Bibliotheken, wenn die richtig gut sind.

So muss ich aber OpenCL nutzen, um praktisch beide Hersteller an zu sprechen, für nvidia sollte ich dann aber doch noch nen extra CUDA-Pfad implementieren...

Und ja, das geht, aber macht ab einem gewissen Punkt echt keinen Spaß mehr...

Und genau deswegen ist Intel mit ihrem XeonPhi echt extrem charmant... Offene Treiber/Code, Standardtools, dies debugging recht simple machen und und und.

Ganz ehrlich, je mehr ich mit dem Ding arbeite, um so mehr frag ich mich, warum ich mir den Stress mit GPGPU gebe... Und ich denke du weißt, wie sehr ich eigentlich auf GPGPU stehe, und wie sehr es mir eigentlich widerstrebt, das Intel sich hier auch noch breit macht. Zu nem gewissen grad hänge ich dann nämlich auch wieder an ner Intel-CPUs, und ihrem Compiler... Und ich glaub wir wissen, wie sehr ich so was hasse... Vor allem gibts da gar keine Konkurrenz zu Intel...

Und das alles nur, weil nVidia und AMD es nicht gebacken bekommen vernünftig zusammen zu arbeiten.... :down:

Allein wenn ich den Witz mit DX11.1 sehe bekomme ich nen Brechreiz. Man kann sich gegenseitig auch echt das Leben unnötig schwer machen...

Da frag ich mich echt immer nur: "WARUM...???"

PCGH_Carsten
2013-02-23, 17:05:16
„… um beide Hersteller anzusprechen.“

Aber wer macht das? Das ist doch die Frage. Und die zweite Frage ist: Wieviel Arbeit ist, es, zwischen Nv-OpenCL und AMD-OpenCL zwei vernünftig optimierte Pfade zu entwerfen und wieviel mehr (oder weniger, siehe „installed user base“) Aufwand, einfach einen Pfad auf Cuda zu lassen.

Die Leute, die wirklich High-Performance-Computing betreiben, werden eben genau auf die Zielhardware optimieren und nicht durch verschlafene Versionierung und langsame Beschlussfassungsgremien etliches an Performance liegen lassen.

Bei Intel ist auch nicht alles nur „einen Knopfdruck entfernt“; auch wenn dabei i.d.R. lauffähiges Kompilat herauskommt, ist es von echter Performanceoptimierung noch weit entfernt.

Natürlich hätten wir in einer idealen Welt sowas wie DirectX für Compute. Upps - gibt's ja. Aber das nutzt außerhalb von Spielen, dem Compute Mark und Codas Raytracer auch irgendwie niemand.

fondness
2013-02-23, 19:15:48
Gibt es eigentlich irgend welche offiziellen Aussagen das die Karten bald lieferbar sein werden, oder war das erstmal nur ein Paperlaunch?

boxleitnerb
2013-02-23, 19:20:03
Ab Montag soll es soweit sein, der 25.2. wurde schon öfters erwähnt. Ich weiß von einem deutschen Shop, der bereits Karten hat.

Godmode
2013-02-23, 19:43:16
Im AT Land wirds wohl etwas länger dauern, aber Mitte nächster Woche hoffe ich mal auf Verfügbarkeit. Und nicht das die ganzen Forscher die Titan wegkaufen und für schäbiges GPU Computing missbrauchen. ;D

gnahr
2013-02-23, 19:49:48
evga liefert doch schon in den usa montag aus laut aussagen.

Skysnake
2013-02-23, 20:01:10
„… um beide Hersteller anzusprechen.“

Aber wer macht das? Das ist doch die Frage. Und die zweite Frage ist: Wieviel Arbeit ist, es, zwischen Nv-OpenCL und AMD-OpenCL zwei vernünftig optimierte Pfade zu entwerfen und wieviel mehr (oder weniger, siehe „installed user base“) Aufwand, einfach einen Pfad auf Cuda zu lassen.

Die Leute, die wirklich High-Performance-Computing betreiben, werden eben genau auf die Zielhardware optimieren und nicht durch verschlafene Versionierung und langsame Beschlussfassungsgremien etliches an Performance liegen lassen.

Die Architekturen sind aber so ähnlich wie noch nie. So lange man nicht Sachen wie GPUDirect nutzt, kann man den Code super parametrisieren. Genau das will man ja eigentlich, und versucht nVidia mit ihren CUDA-XY (sorry, der Name ist mir entfallen) ja auch, wo man hauptsächlich über pragmas arbeitet.

Ansonsten kann man wirklich den Großteil des Codes wiederverwenden, so lange man halt nicht anfängt Assembler zu schreiben, aber das machen wirklich die aller aller aller wenigsten.


Bei Intel ist auch nicht alles nur „einen Knopfdruck entfernt“; auch wenn dabei i.d.R. lauffähiges Kompilat herauskommt, ist es von echter Performanceoptimierung noch weit entfernt.

Man ist aber schon ganz ok ;)

Und das "lauffähiges Kompilat" sollte man auf keinen Fall unterschätzen. Vor allem, wenn man bedenkt, wie viel leicht das Debugging ist. Wenn ich dran denke, wie lange ich brauch, um nen 0815 CUDA/OpenCL programm zu schreiben, selbst wenn ich nen fertiges Grundgerüst für die Initialisierung habe, dann komme ich echt schnell ins Grübeln... Und da gehe ich jetzt nicht mal davon aus, das ich was debuggen muss...

Und ja, ich hab schon ne Anwendung mit GPU-Direct zusammen mit jemand anderem geschrieben, und es war der reinste graus das zu debuggen.... Ok, wir haben einige "spezielle Sachen" gemacht, aber da hätten wir dennoch mehrere Tage für gebraucht, wo ich rein vom Computeteil her mit XeonPhi in 10 min fertig gewesen wäre :ugly:

Blaire
2013-02-23, 22:12:55
Im AT Land wirds wohl etwas länger dauern, aber Mitte nächster Woche hoffe ich mal auf Verfügbarkeit. Und nicht das die ganzen Forscher die Titan wegkaufen und für schäbiges GPU Computing missbrauchen. ;D

Willst nun doch kaufen? :D

Godmode
2013-02-23, 23:04:14
Willst nun doch kaufen? :D

Ja.

135i
2013-02-23, 23:07:37
Ja.

Crysis 3 war der Appetithappen- sehr gutes Timing von Nvidia.:wink:

Godmode
2013-02-23, 23:29:04
Crysis 3 war der Appetithappen- sehr gutes Timing von Nvidia.:wink:

Total, ich wollte vorher echt nicht kaufen, aber mit C3 hat sich das schnell geändert. Hab es mittlerweile durchgespielt und fange gerade neu an. Dann kommt noch dazu, dass ich für meine beiden 690 1.400€ bekomme, da kann man dann wirklich ohne Problem auf Titan upgraden, auch wenn es teuer ist.

135i
2013-02-24, 00:03:55
Total, ich wollte vorher echt nicht kaufen, aber mit C3 hat sich das schnell geändert. Hab es mittlerweile durchgespielt und fange gerade neu an. Dann kommt noch dazu, dass ich für meine beiden 690 1.400€ bekomme, da kann man dann wirklich ohne Problem auf Titan upgraden, auch wenn es teuer ist.

Ist doch ok.

Mich "juckt's" schon gewaltig , 2 Titanen einzubauen.
Werde mich aber beherrschen und bis zum nächsten X-Chipsatz abwarten.

Godmode
2013-02-24, 00:10:36
Ist doch ok.

Mich "juckt's" schon gewaltig , 2 Titanen einzubauen.
Werde mich aber beherrschen und bis zum nächsten X-Chipsatz abwarten.

Mit 3x480@OC bist du ja nicht so schlecht dabei. :)

135i
2013-02-24, 01:18:53
Mit 3x480@OC bist du ja nicht so schlecht dabei. :)


Naklar, die heissen Prügel aus 2010 schlagen sich noch tapfer, doch der Reiz an Neuem nagt schon.
Aber für Multigpu mit den Titanen ist mein derzeitiges X58-Gerüst, nebst cpu, "zu lahm".

DavChrFen
2013-02-24, 01:23:12
Die Architekturen sind aber so ähnlich wie noch nie. So lange man nicht Sachen wie GPUDirect nutzt, kann man den Code super parametrisieren. Genau das will man ja eigentlich, und versucht nVidia mit ihren CUDA-XY (sorry, der Name ist mir entfallen) ja auch, wo man hauptsächlich über pragmas arbeitet.

Ansonsten kann man wirklich den Großteil des Codes wiederverwenden, so lange man halt nicht anfängt Assembler zu schreiben, aber das machen wirklich die aller aller aller wenigsten.

Naja, Code wiederverwenden ist schön und gut, aber auf der GPU läuft doch sowieso nur optimierter Code. Und wenn die neue Hardware Funktion XY unterstützt, womit man nun manche Dinge machen kann, die früher nicht gingen, und nun daher die Idee hinter dem Code veraltet ist, dann hat man nun langsamen Code auf der GPU. Halte ich nicht für sinnvoll.

Man ist aber schon ganz ok ;)

Und das "lauffähiges Kompilat" sollte man auf keinen Fall unterschätzen. Vor allem, wenn man bedenkt, wie viel leicht das Debugging ist. Wenn ich dran denke, wie lange ich brauch, um nen 0815 CUDA/OpenCL programm zu schreiben, selbst wenn ich nen fertiges Grundgerüst für die Initialisierung habe, dann komme ich echt schnell ins Grübeln... Und da gehe ich jetzt nicht mal davon aus, das ich was debuggen muss...

Und ja, ich hab schon ne Anwendung mit GPU-Direct zusammen mit jemand anderem geschrieben, und es war der reinste graus das zu debuggen.... Ok, wir haben einige "spezielle Sachen" gemacht, aber da hätten wir dennoch mehrere Tage für gebraucht, wo ich rein vom Computeteil her mit XeonPhi in 10 min fertig gewesen wäre :ugly:[/QUOTE]
Also ich fand Debugging bei CUDA recht angenehm. Naja, vielleicht wars doch recht "speziell", was ihr gemacht habt.

DavChrFen
2013-02-24, 01:23:49
Die Architekturen sind aber so ähnlich wie noch nie. So lange man nicht Sachen wie GPUDirect nutzt, kann man den Code super parametrisieren. Genau das will man ja eigentlich, und versucht nVidia mit ihren CUDA-XY (sorry, der Name ist mir entfallen) ja auch, wo man hauptsächlich über pragmas arbeitet.

Ansonsten kann man wirklich den Großteil des Codes wiederverwenden, so lange man halt nicht anfängt Assembler zu schreiben, aber das machen wirklich die aller aller aller wenigsten.

Naja, Code wiederverwenden ist schön und gut, aber auf der GPU läuft doch sowieso nur optimierter Code. Und wenn die neue Hardware Funktion XY unterstützt, womit man nun manche Dinge machen kann, die früher nicht gingen, und nun daher die Idee hinter dem Code veraltet ist, dann hat man nun langsamen Code auf der GPU. Halte ich nicht für sinnvoll.

Man ist aber schon ganz ok ;)

Und das "lauffähiges Kompilat" sollte man auf keinen Fall unterschätzen. Vor allem, wenn man bedenkt, wie viel leicht das Debugging ist. Wenn ich dran denke, wie lange ich brauch, um nen 0815 CUDA/OpenCL programm zu schreiben, selbst wenn ich nen fertiges Grundgerüst für die Initialisierung habe, dann komme ich echt schnell ins Grübeln... Und da gehe ich jetzt nicht mal davon aus, das ich was debuggen muss...

Und ja, ich hab schon ne Anwendung mit GPU-Direct zusammen mit jemand anderem geschrieben, und es war der reinste graus das zu debuggen.... Ok, wir haben einige "spezielle Sachen" gemacht, aber da hätten wir dennoch mehrere Tage für gebraucht, wo ich rein vom Computeteil her mit XeonPhi in 10 min fertig gewesen wäre :ugly:
Also ich fand Debugging bei CUDA recht angenehm. Naja, vielleicht wars doch recht "speziell", was ihr gemacht habt.

Unterstützt OpenCL XeonPhi?

fulgore1101
2013-02-24, 08:07:31
Mal zur Info für mich Unwissenden: Titan ist der Vollausbau von der GTX 680? Wann gibts denn Karten der neuen Generation? Also 7XX?

Skysnake
2013-02-24, 08:10:11
Theoretisch? Ja das sollte gehen.

Praktisch? Wayne interessiert ob das Ding OpenCL kann? :ugly:

Auf dem Ding läuft stink normaler Code, und so ziemlich alles ist Open Source. Wenn Intel dann noch z.B. Fortran Bibkliotheken portiert dann :usweet: Ansonsten kann man da aber eh drauf warten, dass die Community anfängt langsam die Sachen zu portieren.

Für OpenCL gibts ja inzwischen auch für alle möglichen Programmiersprachen ne API. Es könnte aber nochmehr sein. CUDA "frisst" halt aber auch noch viele Ressourcen. So ne Parallelentwicklung ist halt echt unvorteilhaft.

Und bzgl CUDA Code Debuggen:
Ganz normale API-Calls bekommt man recht leicht gedebuggt. Aber Kernel, in denen mit GPUDirect noch den Shared Memory ausnutzt und allgemein ja eh DoubleBuffering verwendet, wirds schnell zum Graus... Da hat man dann nämlich mehr als genug Offsets zu berechnen... Und ich denke du weist wie schnell man sich da dann mal verrechnet, und dann läuft der Kernel gar nicht, oder baut kompletten scheis, und debuggen konnte man da eigentlich nur, indem man sich die grafische Ausgabe dann angeschaut hat. Das muss aber auch erstmal funktionieren -.- Und dann muss man auch erkennen, wo der Fehler ist, in der Ausgabe, oder in der Berechnung.. Wenn in beidem nen Fehler drin ist, dann gz, da sitzte dann ewig dran.... Vor allem, wenn du dann wie wir in den Treibern "rum pfuschst"... Und nein, ich sag dazu nichts weiter

EDIT:
@über mir:
Nein, ist er nicht.
GTX680 -> GK104 mit 8 von 8 SMX und 256 von 256 Bit Interface
K20 -> GK110 13 von 15 SMX und 320 von 384 Bit Interface
GTX Titan -> GK110 14 von 15 SMX und 384 von 384 Bit Interface

GK104 hat mit GK110 nicht wirklich was zu tun, außer, dass Sie eben beide auf die "Kepler" Architektur von nVidia setzen.

Ailuros
2013-02-24, 08:45:05
Godmode,

Du weisst dass es mich freut. Ich denke Anfragen fuer spezifische Test-Anfragen sind willkommen wenn Du Zeit hast?

Skysnake,

Bis zu einem Punkt ja, aber irgendwo hast Du schon die alberne Tendenz es IMHO zu weit zu treiben. Kritik ist eine wundervolle Sache solange sie nicht einseitig ist.

Alle,

Waere es wirklich so schwer zumindest es zu versuchen die persoenlichen Anspielungen wegzulassen und so stark wie moeglich sachlich beim Thema zu bleiben? Ich will ernsthaft bezweifeln dass Euch die Argumente ausgehen und es wirklich so weit kommen muss. Ich kann als Mod gegen sachliche Punkte nichts anrichten nur als User gegen-dementieren, sollte aber bei jeglicher Form persoenlicher Angriffe eingreifen. Zu guter letzt und verdammt vereinfacht: Geduld gewinnt immer; merci bien.

Godmode
2013-02-24, 10:08:45
Godmode,

Du weisst dass es mich freut. Ich denke Anfragen fuer spezifische Test-Anfragen sind willkommen wenn Du Zeit hast?



Natürlich ;)

Kein Problem, wenn ich die gewünschten Spiele habe, jederzeit.

Skysnake
2013-02-24, 10:48:30
Skysnake,

Bis zu einem Punkt ja, aber irgendwo hast Du schon die alberne Tendenz es IMHO zu weit zu treiben. Kritik ist eine wundervolle Sache solange sie nicht einseitig ist.

Kann sein, das will ich auch gar nicht abstreiten.

Ich weiß halt das nVidia es besser könnte :( Das wurmt mich dann ziemlich, und vielleicht ziehe ich deswegen auch zu hart mit ihnen ins Gericht. Keine Ahnung, das müssen andere beurteilen.

Dural
2013-02-24, 14:51:42
die GTX Titan erinnert etwas an die 7800GTX 512MB

der refresh gab es 6 monate später zum halben preis, bei Titan könnte das auch zu treffen :rolleyes:

aufkrawall
2013-02-24, 14:53:22
der refresh gab es 6 monate später zum halben preis, bei Titan könnte das auch zu treffen :rolleyes:
Falls überhaupt, würde ich nicht von weniger als 10 Monaten ausgehen und der Preis wäre sicherlich immer noch höher als der einer möglichen 8970.

Dural
2013-02-24, 15:02:56
so wird es wahrscheinlich schon nicht eintreten, aber 9 monate später für 650.- + 10-20% mehr leistung halte ich für gut möglich.

4Fighting
2013-02-24, 15:11:32
Ich hatte schon meine 670er verkauft in der Hoffnung, dass Titan doch "vernünftiger" wird (vorallem was den Preis betrifft).

Kaufe ich mir halt wieder eine 670er und packe diesmal noch eine dazu. Für ca. 550-600€ (gebraucht) eine sehr performante Lösung=).

Bis Titan bei 600€ angelangt ist, gibts eh wieder was neues.

Ailuros
2013-02-25, 10:27:02
Kann sein, das will ich auch gar nicht abstreiten.

Ich weiß halt das nVidia es besser könnte :( Das wurmt mich dann ziemlich, und vielleicht ziehe ich deswegen auch zu hart mit ihnen ins Gericht. Keine Ahnung, das müssen andere beurteilen.

Alle IHVs koennte um einiges besseres liefern wenn engineers nicht Tonnenweise Begrenzungen von etlichen Seiten haetten. Muessen sie teilweise beim chalk board design einer Architektur heftig mitraten was gebraucht werden wird? Ja. Haben sie unendliche Zeit N zu entwickeltn? Nein. Unendliche resourcen? Wieder nein. Und das sind lediglich nur ein paar Beispiele.

Nochmal ATI/AMD hat es sich verdammt leicht gemacht in dem sie sich nach R600 nicht mehr auf single high end chips konzentriert haben; je problematischer Prozesse werden, desto groesser wird der Kopfschmerz diesbezueglich fuer NV werden. Woran aber AMD damit verliert sind die Profi-Maerkte und obwohl diese weiterhin low volume - high margin bleiben werden sind es vielleicht die einzigen Anteile fuer standalone GPUs die die sicherste Zukunft haben momentan.

Wo es womoeglich witzig werden koennte ist wenn NV irgendwann gezwungen sein wird dank der Prozess-Problematik die single die Strategie aufzugeben und endlich auf mGPU auch fuer Profi-Maerkte zu steigen.

Dural
2013-02-25, 11:08:53
das sagst du schon seit GT200 :wink:

Iruwen
2013-02-25, 12:17:42
EVGA Precision 4.0 Final mit Boost 2.0 Control ist jetzt auch offiziell raus.
http://www.evga.com/precision/#VersionHistory
Und:
Added frametime graph to hardware monitoring module. The graph is displaying the maximum frame time on each sampling period and it is useful for detecting microstutters, which are invisible on averaged framerate graph.
Es greift um sich :D

Spasstiger
2013-02-25, 13:47:08
Kann man Boost 2.0 eigentlich nicht völlig umgehen beim Overclocking oder zumindest das Boost-Limit wesentlich anheben? Im Schnitt 10% mehr Performance bei über 30% mehr Takt sind schon etwas enttäuschend: http://www.guru3d.com/articles_pages/geforce_gtx_titan_overclock_guide,1.html.
Die Leistungsaufnahme steigt auch kaum an, bleibt deutlich unter 300 Watt.

BigKid
2013-02-25, 13:52:47
PC Planet - 869.- Euro lt. Geizhals... :eek:
Sollte der Preis so schnell sinken ?

cR@b
2013-02-25, 16:56:38
PC Planet - 869.- Euro lt. Geizhals... :eek:
Sollte der Preis so schnell sinken ?

Sagen wir mal so... alles andere wäre ein Fehler ;)

boxleitnerb
2013-02-25, 17:01:26
Kann man Boost 2.0 eigentlich nicht völlig umgehen beim Overclocking oder zumindest das Boost-Limit wesentlich anheben? Im Schnitt 10% mehr Performance bei über 30% mehr Takt sind schon etwas enttäuschend: http://www.guru3d.com/articles_pages/geforce_gtx_titan_overclock_guide,1.html.
Die Leistungsaufnahme steigt auch kaum an, bleibt deutlich unter 300 Watt.

Woher weiß man, dass Titan ohne OC nicht auch schon bis 1000 MHz geboostet hat? Nur weil sie die Standardtaktraten hingeschrieben haben? Zweifelhaft.

Spasstiger
2013-02-25, 17:25:05
Woher weiß man, dass Titan ohne OC nicht auch schon bis 1000 MHz geboostet hat? Nur weil sie die Standardtaktraten hingeschrieben haben? Zweifelhaft.
Ok, im originalen Review (http://www.guru3d.com/articles_pages/geforce_gtx_titan_review,4.html) hat die Titan bei Guru3D tatsächlich schon mit 980 MHz geboostet. Und mir ist jetzt auch aufgefallen, dass das TDP-Limit egal war (104%), da man beim OC-Test die Temperaturbegrenzung (90°C) priorisiert hat und die Temperatur beim Spielen der begrenzende Faktor war. Den Lüfter hat man fix auf 60% eingestellt. Das genügte, da für über 1200 MHz die maximal einstellbare Spannung von 1,2 Volt ohnehin nicht reichte.

Wenn man die Titan ans Limit treiben will, muss man also erstmal stärker an der Spannungsschraube drehen können. Danach kann man schauen, ob Boost 2.0 eher behindert als nützt.

boxleitnerb
2013-02-25, 17:28:21
Ok, im originalen Review (http://www.guru3d.com/articles_pages/geforce_gtx_titan_review,4.html) hat die Titan bei Guru3D tatsächlich schon mit 980 MHz geboostet. Und mir ist jetzt auch aufgefallen, dass das TDP-Limit egal war (104%), da man beim OC-Test die Temperaturbegrenzung (90°C) priorisiert hat und die Temperatur beim Spielen der begrenzende Faktor war. Den Lüfter hat man fix auf 60% eingestellt. Das genügte, da für über 1200 MHz die maximal einstellbare Spannung von 1,2 Volt ohnehin nicht reichte.

Wenn man die Titan ans Limit treiben will, muss man also erstmal stärker an der Spannungsschraube drehen können. Danach kann man schauen, ob Boost 2.0 eher behindert als nützt.

Ich denke mit Wakü sollte auch die Leistungsaufnahme etwas sinken, so dass man die 1100 MHz halten kann. Knapp 1 GHz ging ja schon bei Computerbase.

dildo4u
2013-02-25, 17:34:42
Braucht Metro massig Vram?Wenn ich das richtig lese ohne 4XMSAA da müsste doch 2GB reichen.

http://www.guru3d.com/articles_pages/geforce_gtx_titan_review,17.html

PHuV
2013-02-25, 17:51:42
PC Planet - 869.- Euro lt. Geizhals... :eek:
Sollte der Preis so schnell sinken ?

Das ist nur ein Shop, und schau Dir dort mal die Bewertungen an, hier würde ich nichts bestellen.

Cubitus
2013-02-25, 17:53:19
Das ist nur ein Shop, und schau Dir dort mal die Bewertungen an, hier würde ich nichts bestellen.

Komische an dem Shop ist auch das 2008 nen cut kam..

Ronny145
2013-02-25, 17:57:59
Braucht Metro massig Vram?Wenn ich das richtig lese ohne 4XMSAA da müsste doch 2GB reichen.

http://www.guru3d.com/articles_pages/geforce_gtx_titan_review,17.html


Ich denke schon.

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660-ti/34/

In 1600p 4xAA ist Metro das einzige Spiel im CB Test, die der 3GB 660 Ti einen Vorteil gegenüber der 2GB Version bescheinigt (oder den größten Vorteil aller getesteten Spiele besser gesagt). Das deutet auf hohen VRAM Verbrauch hin. Je nach gewählter Testszene braucht Metro vielleicht noch mehr.

dildo4u
2013-02-25, 18:02:40
Bei Guru liest sich das aber so das sie nur das Post AA nutzen daher wundert mich das.

Schaffe89
2013-02-26, 08:45:03
Die Anbindung des V-ram ist bei der GTX 660 Ti krumm, je nach Belastung könnte es auch daran liegen.

hellibelli
2013-02-26, 12:47:34
Ich frage mich die ganze Zeit, wie die Performance der evtl. zum Jahresende kommenden Grafikkarten aussieht?!
Wir die schlechter ausfallen dafür aber wieder auf dem preislichen Nieveu von 500-600 EURO liegen oder wird die Performance besser sein als die Titan?

Gibt es da schon irgendwelche Spakulationen?!

G3cko
2013-02-26, 14:04:16
Ein bisschen von beidem.
Der Vorsprung vom Titan beträgt auch nur 20% zur 7970 GHz. Auch wird eine 680 bald dort ankommen wo sie schon immer sein müsste nämlich bei unter 250€. Titan wird dann folgen müssen.

Aber vielleicht hat Nvidia auch wieder Ihre eigenen unabhängigen Preise. Die 7970 ist ja auch deutlich günstiger trotz mehr Vram und Dx11.1 und trotzdem scheint es Nvidia und viele Käufer nicht zu interessieren.

Tzunamik
2013-02-26, 14:22:52
An den AMD Karten stört mich der massive Stromverbrauch, den Sie haben.

Innerlich hoffe ich ja, das nVidia bei der Titan noch mal mehr Leistung "freischaltet" sobald AMD die HD 8xxx released.
Aber hoffen darf man ja :D

Wenn es die Titan für unter 650€ geben würde wäre ich echt bereit den Wechsel von der GTX680 zu machen, weil ich die Leistung bei 2560x1440 einfach gebrauchen kann...
Und noch bin ich nicht so weit das ich SLI oder Crossfire haben will... Die Nachteile überwiegen einfach zu sehr!

Effe
2013-02-26, 14:37:31
An den AMD Karten stört mich der massive Stromverbrauch, den Sie haben.
Der massive Stromverbrauch ist ein Merkmal der 7970Ghz und der 7950Boost, der durch erhöhte Spannungen für höhere Taktraten verursacht wurden.
Sonst in der Stromverbrauch durchweg gleichauf mit Nvidia.
So pauschal ist das Argument falsch.

yamo
2013-02-26, 14:47:36
An den AMD Karten stört mich der massive Stromverbrauch, den Sie haben.

Innerlich hoffe ich ja, das nVidia bei der Titan noch mal mehr Leistung "freischaltet" sobald AMD die HD 8xxx released.
Aber hoffen darf man ja :D

Wenn es die Titan für unter 650€ geben würde wäre ich echt bereit den Wechsel von der GTX680 zu machen, weil ich die Leistung bei 2560x1440 einfach gebrauchen kann...
Und noch bin ich nicht so weit das ich SLI oder Crossfire haben will... Die Nachteile überwiegen einfach zu sehr!

Bei der Auflösung mußt Du ja ganz bestimmte Spiele im Auge haben. AAA Titel brauchen auch da noch Sli. Und SLI (selbst tri) skaliert wirklich gut in Bezug auf fametimes. Obwohl bei Titan 2x langen dürfte.

akuji13
2013-02-26, 15:17:12
Lange habe ich auf Titan gewartet...um mir jetzt ne 690 zu holen. :D

yamo
2013-02-26, 15:28:01
Lange habe ich auf Titan gewartet...um mir jetzt ne 690 zu holen. :D

Mit 4 GiB pro Gpu wär das ein Renner!

Raff
2013-02-26, 15:28:26
Video: Geforce GTX Titan SLI gegen Radeon HD 7970 Toxic Crossfire (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/News/Video-Geforce-GTX-Titan-SLI-gegen-Radeon-HD-7970-Toxic-Crossfire-1057539/)

"Geforce GTX Titan SLI gegen Radeon HD 7970 Toxic Crossfire: PC Games Hardware versammelt die derzeit schnellsten Single-GPU-Grafikkarten zum Schlagabtausch - allein und im Duett. Wie schnell, laut und stromhungrig die Geschichte ausgeht, verraten wir im Video! Schon morgen gibt es den dazu passenden Test-Artikel auf PCGH.de."

MfG,
Raff

hellibelli
2013-02-26, 15:31:15
Also ich habe ja 2x 680 GTX 4GB momentan laufen. Und spiele sehr gerne Rollenspiele wir Skyrim aber auch Edelshooter bzw. wie viele sagen Grafikshoot wie Crysis oder andere Games.

Allerdings muss ich immer noch viele Kompromisse eingehen was die Garfikkqualität angeht. Crysis 3 alles auf Very High ausser Schatten auf Medium und AA Modus habe ich 2xTXAA und es ruckelt hier und da doch erheblich!!! OK Crysis 3 folgen vielleicht noch einige Patches um die Performance zu verbessern. Ich könnte ja auch ein anderen AA Modi nehmen allerdings ist mein größer Nachteil, das ich auf meinen 65Zoll Plasma spiele und dort selbstverständlich das Kantenflimmer extrem mehr auffällt als auf einen 24 Zoll Monitor.

Skyrim in der Vanilla Version ist natürlich super flüssig Spielbar selbst mit 4xSGSSAA.
Sobald ich aber ENB + Texturmods Installiere, geht die Leistung teilweise ganz schön unter die 30FPS was dann einfach nicht mehr Spielbar ist. Grund ist unter anderem natürlich auch das AA was ich auf dem TV einfach benötige da ich sonst Augenkrebs bekomme!

Auch wenn sich viele Leute jetzt an den Kopf packen, aber ich bin echt am überlegen, ob ich mir nicht ein dreier SLI gespann von Titanen hole!! Damit ich endlich ohne Kompromisse und Kantenflimmern zocken kann.

Aber der Preis ist einfach zu heftig. 3000€ nur für Grafikkarten. Das ist das wichtigste Argument was noch dagegen hält. Hoffe nur, das die Preisentwicklung tief in den Keller geht bis ende diesen Jahres damit man sich so ein Projekt auch ohne schlechtes Gewissen kaufen kann.

LSSJBroly
2013-02-26, 15:32:44
Schon erstaunlich, wie flott zwei HD 7970 sein können - Aber die Lautstärke geht ja mal gar nicht -> Fakt ist weiterhin, das Gesamtpaket, was die Ware angeht, ist bei der Geforce GTX Titan einfach nur spitze... wenn eben der Preis nicht wäre. Sind nur mal eben schlanke 58% mehr für zwei GK110...

Reizen tut mich das ding aber immer noch:D

derguru
2013-02-26, 15:42:46
die kühler müssten eigentlich deutliche reserven haben,muss ja nicht zwingend auf weiss der geier auf ~70°C gehalten werden.
ist bei meiner dc2 jedenfalls so,manuell den lüfter eingestellt und man bekommt es deutlich leiser hin.
aber in einem geschlossenem gehäuse kann man dualfan-lüfter für sli/cf eh in die tonne kloppen.

dildo4u
2013-02-26, 15:45:08
Vieleicht sind nich alle Chip's stabil beim Werk OK mit zu hohen Temps?Das Problem ist ja um so wärmer die Karten werden um so mehr Strom wird gezogen.

akuji13
2013-02-26, 15:58:32
Also ich habe ja 2x 680 GTX 4GB


Skyrim in der Vanilla Version ist natürlich super flüssig Spielbar selbst mit 4xSGSSAA.
Sobald ich aber ENB + Texturmods Installiere, geht die Leistung teilweise ganz schön unter die 30FPS was dann einfach nicht mehr Spielbar ist.

Als Besitzer einer 4Gb 680 kann ich das in nur FullHD nicht so recht glauben.
Ok, ich hab kein ENB, dafür aber andere shader mods.

Sicher das da nicht irgendwas hakt?

LSSJBroly
2013-02-26, 15:59:39
Vieleicht sind nich alle Chip's stabil beim Werk OK mit zu hohen Temps?Das Problem ist ja um so wärmer die Karten werden um so mehr Strom wird gezogen.

Vor allem Radeons (GCN) sollen ja bei zu hohen Temps deutlich instabilier werden, bzw. soll das ja ein Grund sein, wieso der AMD Referenzlüfter der 7970 so brüllt...


Ok, ich hab kein ENB, dafür aber andere shader mods.

Sicher das da nicht irgendwas hakt?
Frage ich mich auch gerade. Selbst mit "nur" einer 2GiB 680 + Hi-res Texturen und 4x SGSSAA + ENB (alle Effekte) komme ich minimal auf rund 25-30Fps, bei zwei dürfte das deutlich besser laufen...

fondness
2013-02-26, 16:06:50
Die Toxic hält die Temperturen AFAIK im 60°C-Bereich, kein Wunder dass das laut wird. Ansonsten finde ich es schon interessant das auch in BF3 die beiden Toxic-Karte offensichtlich die Performance von zwei Titans @1Ghz erreichen. Und einee Toxic ist nicht so viel schneller wie eine "normale" und deutlich preiswertere Ghz-Edition.

dildo4u
2013-02-26, 16:08:56
70°

http://www.techpowerup.com/reviews/Sapphire/HD_7970_Toxic_6_GB/32.html

Die Ghz Edition ist einfach Müll lieber auf 10% Performance verzichten dafür hätte man wenigsten leise Karten,selbst mit Custom Kühler kommt nur Müll raus.

Ronny145
2013-02-26, 16:11:00
Video: Geforce GTX Titan SLI gegen Radeon HD 7970 Toxic Crossfire (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/News/Video-Geforce-GTX-Titan-SLI-gegen-Radeon-HD-7970-Toxic-Crossfire-1057539/)

"Geforce GTX Titan SLI gegen Radeon HD 7970 Toxic Crossfire: PC Games Hardware versammelt die derzeit schnellsten Single-GPU-Grafikkarten zum Schlagabtausch - allein und im Duett. Wie schnell, laut und stromhungrig die Geschichte ausgeht, verraten wir im Video! Schon morgen gibt es den dazu passenden Test-Artikel auf PCGH.de."

MfG,
Raff


Was ist mit Frametimes? Möchte sich die PCGH nicht weiterentwickeln und auch mal Frametimes anbieten? Gerade in so einem Vergleich mit 2 Karten?

dildo4u
2013-02-26, 16:13:13
Den Test macht Raff da wird schon stehen das Crossfire immer noch Müll ist.

boxleitnerb
2013-02-26, 16:13:22
Sie schildern ja immerhin ihre subjektiven Ruckeleindrücke, das reicht mir eigentlich. Besonders seit wir von PCPER wissen, dass das was Fraps ausspuckt, nichtmal ansatzweise die Realität sein muss. Kann, aber nicht muss :)

Raff
2013-02-26, 16:13:35
Was ist mit Frametimes? Möchte sich die PCGH nicht weiterentwickeln und auch mal Frametimes anbieten? Gerade in so einem Vergleich mit 2 Karten?

PCGH bietet schon ewig Frametimes, lange bevor viele andere Websites darauf kamen. Man müsste nur mal ins Heft schauen. ;)

MfG,
Raff

fondness
2013-02-26, 16:13:54
Die Ghz Edition ist einfach Müll lieber auf 10% Performance verzichten dafür hätte man wenigsten leise Karten,selbst mit Custom Kühler kommt nur Müll raus.

Bitte was? Es gibt durchaus leise 7970Ghz-Edition Karten. Zumindest leiser als eine GTX-TITAN, aber das ist hier OT.

Ronny145
2013-02-26, 16:14:56
PCGH bietet schon ewig Frametimes, lange bevor viele andere Websites darauf kamen. Man müsste nur mal ins Heft schauen. ;)

MfG,
Raff


Davon erwähnst du im Video nichts.

yamo
2013-02-26, 16:20:55
PCGH bietet schon ewig Frametimes, lange bevor viele andere Websites darauf kamen. Man müsste nur mal ins Heft schauen. ;)

MfG,
Raff
+1:wink:

dildo4u
2013-02-26, 16:21:25
Bitte was? Es gibt durchaus leise 7970Ghz-Edition Karten. Zumindest leiser als eine GTX-TITAN, aber das ist hier OT.
250 Watt sind einfach zu viel für Lukü,daher nutzt NV das auch nich aus bei Titan.Wundert mich eh wie leise Titan ist,wenn man überlegt was für Klopper Kühler man bei CPU's für weit weniger Verbrauch nutzen muss um leise zu sein.

Skysnake
2013-02-26, 16:22:18
Sie schildern ja immerhin ihre subjektiven Ruckeleindrücke, das reicht mir eigentlich. Besonders seit wir von PCPER wissen, dass das was Fraps ausspuckt, nichtmal ansatzweise die Realität sein muss. Kann, aber nicht muss :)
Und vor allem wird das Speilgefühl durch die Messung an sich stark beeinflusst...

Ich hab mit FRAPS eher schlechte Erfahrunge gemacht in meinen Tests. Das Spielgefühl mit Fraps ist deutlich schlechter als ohne. Selbst AIDA64 oder Afterburner haben einen kleinen Einfluss auf die Wiedergabe.

Das ist halt das Problem an solchen Messungen. Die Messung beeinflusst das Ergebnis :(

Wenn müsste man mit nem 120+ HZ Monitor die Sachen ausgeben, und dann die einzelnen Frames analysieren :freak:

boxleitnerb
2013-02-26, 16:26:22
Das hab ich nun noch nie erlebt, pauschalisieren kann man das sicher nicht.

fondness
2013-02-26, 16:27:02
250 Watt sind einfach zu viel für Lukü,daher nutzt NV das auch nich aus bei Titan.

Auch die 7970 Ghz-Edition Karten bleiben da darunter. Es waren nur die Referenzdesigns, welche AFAIK nie verkauft wurden aber ungeschickterweise getestet wurden, welche deutlich lauter, heißer sind und mehr Strom schlucken.


Wundert mich eh wie leise Titan ist,wenn man überlegt was für Klopper Kühler man bei CPU's für weit weniger Verbrauch nutzen muss um leise zu sein.

NV beweist immer wieder sehr viel know-how im Kühlerdesign, sie müssen nur wollen. ;)

Iruwen
2013-02-26, 16:33:15
Es waren nur die Referenzdesigns, welche AFAIK nie verkauft wurden aber ungeschickterweise getestet wurden

Ungeschickterweise veröffentlicht wurden ;)

yamo
2013-02-26, 16:35:47
AMD ist zu schlampig. Jedenfalls weniger als Nvidia. Das können wir uns doch nicht wünschen

derguru
2013-02-26, 17:02:23
bin mal gespannt wie man das in den griff kriegen will mit der jahr für jahr immer weiter in die höhe gekommenen verbrauchs,bald kommt als referenzkühler ne wakü wie beim ares2.;D

Raff
2013-02-26, 17:04:24
Den Fermi-OC-Versionen begegnete man mit Triple-Slot-Kühlern und tatsächlich ersten Kompakt-WaKüs, wie bei der PNY XLR8 GTX 580 Liquid Cooled. Ist ja kein Wunder bei Verbrauchswerten bis 300 Watt.

MfG,
Raff

Marty98
2013-02-26, 17:07:06
Und vor allem wird das Speilgefühl durch die Messung an sich stark beeinflusst...

Ich hab mit FRAPS eher schlechte Erfahrunge gemacht in meinen Tests. Das Spielgefühl mit Fraps ist deutlich schlechter als ohne. Selbst AIDA64 oder Afterburner haben einen kleinen Einfluss auf die Wiedergabe.

Das ist halt das Problem an solchen Messungen. Die Messung beeinflusst das Ergebnis :(

Wenn müsste man mit nem 120+ HZ Monitor die Sachen ausgeben, und dann die einzelnen Frames analysieren :freak:

Es ist nur eine Frage der Zeit bis alle die ernstgenommen werden wollen auf die PCPer Messmethode umstellen. Frametimes mit Fraps können komplett verfäscht sein (bis zu 30% Fehlerrate).

yamo
2013-02-26, 17:11:44
Hier stand Unsinn...

dildo4u
2013-02-26, 17:38:10
Der Test mit BF3 ist imo noch nix,Crysis 3 drückt bei meiner Karte den Takt weiter runter weil es deutlich GPU intensiver ist.Wäre auch ein guter Test für alle möglich Werk OC Karte ob sie noch stabil sind,vorallem im SLI/ Crossfire im Gehäuse.

Sunrise
2013-02-26, 17:54:36
Video: Geforce GTX Titan SLI gegen Radeon HD 7970 Toxic Crossfire (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/News/Video-Geforce-GTX-Titan-SLI-gegen-Radeon-HD-7970-Toxic-Crossfire-1057539/)

"Geforce GTX Titan SLI gegen Radeon HD 7970 Toxic Crossfire: PC Games Hardware versammelt die derzeit schnellsten Single-GPU-Grafikkarten zum Schlagabtausch - allein und im Duett. Wie schnell, laut und stromhungrig die Geschichte ausgeht, verraten wir im Video! Schon morgen gibt es den dazu passenden Test-Artikel auf PCGH.de."

MfG,
Raff
Sehr geil, danke für das Video und den Test!

Das Ende des Videos ist übrigens (wenn über euren Web-Player abgespielt) leicht abgehakt, man sollte dich doch der Höflichkeit halber am Ende auch aussprechen lassen. Darauf solltet ihr in Zukunft noch Rücksicht nehmen (z.B. den Fadeout des Videos am Ende etwas verlängern).

PS: Übrigens ein großes Lob, dass ihr nun auch bei Videos ordentlich auf die Tube drückt, das war ein intelligenter Schachzug. Technisch versiert und tiefgründig seit ihr ja sowieso. Nicht umsonst ist die PCGH das von mir am liebsten gelesene Heft. Die Grafikkarten-Vergleichstests sind einfach unverzichtbar und einmalig.

N0Thing
2013-02-26, 19:06:19
Vor allem Radeons (GCN) sollen ja bei zu hohen Temps deutlich instabilier werden, bzw. soll das ja ein Grund sein, wieso der AMD Referenzlüfter der 7970 so brüllt...


Wo findet man denn Informationen darüber? Daß die aktuellen Radeons von Instabilitäten geplagt seien, lese ich gerade zum ersten Mal.

LSSJBroly
2013-02-26, 19:56:46
Wo findet man denn Informationen darüber? Daß die aktuellen Radeons von Instabilitäten geplagt seien, lese ich gerade zum ersten Mal.

Instabil nicht im wahrsten Sinne, sondern eher, dass die Karten kühle Temperaturen für hohe Taktraten brauchen. Raff hatte ja auch mal ne 7970 mit 1,3V und 1300MHz gebencht (video) Da hat das ding auch erst ab etwa 60-65°C Bildfehler ausgespuckt, davor war noch nichts zu sehen. Es hat auch einen Grund, wieso die Toxic die Temp auf unter 65°C halten will;)

boxleitnerb
2013-02-26, 20:10:29
Ob das auf alle Radeonkarten übertragbar ist, ist doch eher zweifelhaft. Da hat er halt zuviel OC drauf gegeben - wenn man es übertreibt, produzieren die Dinger immer Bildfehler, egal bei welchen Temps.

HarryHirsch
2013-02-26, 20:13:35
mit oc und vcore erhöhung ist hier bei ca. 63°c ende.
da gibt es dann keine bildfehler sondern einen absturz vom ganzen rechner.

derguru
2013-02-26, 20:16:42
Instabil nicht im wahrsten Sinne, sondern eher, dass die Karten kühle Temperaturen für hohe Taktraten brauchen. Raff hatte ja auch mal ne 7970 mit 1,3V und 1300MHz gebencht (video) Da hat das ding auch erst ab etwa 60-65°C Bildfehler ausgespuckt, davor war noch nichts zu sehen. Es hat auch einen Grund, wieso die Toxic die Temp auf unter 65°C halten will;)
wat für eine schlussfolgerung.;D
wenn überhaupt ist das für die toxis übertragbar weil 1200mhz nicht ohne sind aber für die ghz edtion oder normale 7970 ist es vollkommen latte.bis 1125mhz braucht es keine kühlen temperaturen.

Armaq
2013-02-26, 20:58:52
Ich hab mit dem neuen MSI Tool meine VaporX 7970 auf leise getrimmt, indem der Kühler einfach viel weniger agressiv arbeitet. Sind nur 1050 Mhz, aber dafür stört die Karte nicht mehr. Instabil ist sie in Crysis 3 nicht. Die 1200 Mhz sind sicherlich empfindlicher, aber gerade die VaporX kann man auch in leise haben.

LSSJBroly
2013-02-26, 21:18:30
wat für eine schlussfolgerung.;D
wenn überhaupt ist das für die toxis übertragbar weil 1200mhz nicht ohne sind aber für die ghz edtion oder normale 7970 ist es vollkommen latte.bis 1125mhz braucht es keine kühlen temperaturen.


Ich kann nur sagen, was ich gelesen und gesehen habe :biggrin:. Oder nennt mir doch einfach einen Grund, wieso AMD Ihre Referenzkühler so extrem laut eingestellt hat? Ich meine, darunter ist ne Vapor Chamber und selbst mit nem Furmark kommen die Karten kaum über 80°C...
Ich glaube ja weniger, dass das AMD aus spaß so macht... (Stromverbrauch scheidet auch aus -> Da tut sich nicht allzuviel, vllt max. 10 Watt zwischen 70°C und 80°C)

Aber darum geht es hier nicht -> Titan:D Und die Karte ist trotz 80°C grenze schön leise^^

Megamember
2013-02-26, 21:23:31
Wer hat noch nicht, wer will nochmal? ;)

http://www.abload.de/img/vieletitanite4f1dul2.jpg (http://www.abload.de/image.php?img=vieletitanite4f1dul2.jpg)

LSSJBroly
2013-02-26, 21:28:05
Ich würde wohl zwei nehmen (mein Mainboard lässt nicht mehr zu :freak:)

horn 12
2013-02-26, 23:48:12
http://www.youtube.com/watch?v=tU6VPHsArII

Bei Einigen Spielen startet der TITAN echt gut durch!
Zumal auch nur 1920 x 1080 gebecnht wurde.

Farcry 3 zeigt was mit OC Machbar ist, teils 20% mehr Fps.

HarryHirsch
2013-02-26, 23:56:16
ich sehe da keine werte die nicht auch eine über ein jahr alte gpu packt.

dildo4u
2013-02-27, 00:01:46
FC3 und Crysis 3 erreichst du nich OC vs OC.Manche Benches sind eh für die Tonne da CPU limitiert.Titan wird Ende 2013 interessanter wenn die neuen Konsolen kommen,die Multiplattform Games werden dann wesentlich GPU intensiver und scalen vermutlich eher wie Crysis 3 und FC3.

HarryHirsch
2013-02-27, 00:12:55
hmmkay, cpu limit.

dildo4u
2013-02-27, 00:13:47
Skyrim,Borderlands sind klar im CPU Limit.Rest ist ne Mischung AC3 ist z.b auch sehr CPU intensiv.

Dural
2013-02-27, 09:33:38
ich sehe da keine werte die nicht auch eine über ein jahr alte gpu packt.


also ich sehe in c3 rund 50% mehr FPS und das bringt man mit OC nicht zusammen.

in crysis läuft titan extrem gut, die karte hat einfach schon was drauf =)


es juckt mich extrem so eine karte zu kaufen, NV wie so keine 15 SMX?!? ich hätte schon lange eine...

BigKid
2013-02-27, 10:32:39
Hmpf... Ich habe mir ja jetzt eine zweite Asus DC2 geholt und bin irgendwie nicht so richtig zufrieden...

Grund - zu laut... Die erste DC2 pustet die heisse Luft auf die zweite... Die Zweite wird 15 Grad wärmer und die Lüfter gehen auf 70%+ hoch und das ist mir zu laut...
Ich experimentiere noch mit dem Lüfter setup rumm, aber ich fürchte da ist nicht viel zu machen... Man müsste bei der zweiten fast schon den Luftstrom umkehren...

In FarCry 3 ist der FPS gewinn zwar gut (fast doppelt soviele FPS im Schnitt) aber schon das zuschalten von 4xMSAA anstelle von 2xMSAA macht das wieder zunichte... Mehr habe ich noch nicht probiert und was ich gelesen habe ich FC3 da auch kein gutes Beispiel...

Dazu kommt dass ich wohl mit meiner ersten Karte viel Glück hatte und sie mit Spannungsabzug, Base +200Mhz und 115% Powertarget schön stabil bei 1200Mhz+ rumboostet ohne laut zu werden...
Wohingehend die zweite keine 1200MHz schafft und mehr Spannung braucht...


Wenn Titan verfügbar wäre, wäre ich akut gefährdet... Wenn er innerhalb von 10 Tagen verfügbar wird und der Preis noch unter 900 Euro rutscht dann weiss ich nicht was ich tun werde :(

2 Asus DC2 a 375.- Euro sind auch 750 Euro...
Gut für die "alte" werde ich nicht mehr soviel bekommen...
Trotzdem...

Raff
2013-02-27, 10:49:24
Geforce GTX Titan (SLI) gegen Radeon HD 7970 Toxic (Crossfire): Duell der Giganten (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/GTX-Titan-SLI-vs-HD-7970-Crossfire-Test-1057382/)

Titan-SLI skaliert derzeit noch recht mau, während Tahiti-Crossfire sehr gut zulegt. Dafür tut Nvidia etwas gegen das Mikroruckeln und liegt damit in der Gesamtbetrachung praktisch immer vorn.

MfG,
Raff

(del676)
2013-02-27, 10:57:19
Was ich dem Review entnehme
Eine 7970 Toxic ist
in Max Payne schneller
in Anno gleich schnell
in Dort Showdown schneller
in Metro langsamer
in Skyrim langsamer
in BF3 knapp langsamer
als eine Titan und das in 2560x1600 mit hohen Settings :rolleyes:

ergo? Titan ->Fail ;)
Preis wie bei der Toxic ansetzen oder untergehen.

BigKid
2013-02-27, 11:16:14
Was ich dem Review entnehme
Eine 7970 Toxic ist
in Max Payne schneller
in Anno gleich schnell
in Dort Showdown schneller
in Metro langsamer
in Skyrim langsamer
in BF3 knapp langsamer
als eine Titan und das in 2560x1600 mit hohen Settings :rolleyes:

ergo? Titan ->Fail ;)
Preis wie bei der Toxic ansetzen oder untergehen.

Bist du nur auf der Suche nach einem Grund Fail zu schreien oder an einer ernsthaften Diskussion interessiert ?

Der Titan-SLI wurde auf 876MHz eingebremst um Boostschwankungen durch Temperatur auszuschliessen.
Der Titan-SLI hat weniger Probleme mit Mikro-Rucklern (auch das kann FPS kosten)...
Der Titan-SLI ist vermutlich deutlich leiser...

Und dann ist da noch die Frage nach einer CPU Limitierung bei den einzelnen Titeln...

Und ja - der PREIS ist ein Fail... Und nur der...

Geforce GTX Titan (SLI) gegen Radeon HD 7970 Toxic (Crossfire): Duell der Giganten (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/GTX-Titan-SLI-vs-HD-7970-Crossfire-Test-1057382/)

Titan-SLI skaliert derzeit noch recht mau, während Tahiti-Crossfire sehr gut zulegt. Dafür tut Nvidia etwas gegen das Mikroruckeln und liegt damit in der Gesamtbetrachung praktisch immer vorn.

MfG,
Raff
Habt ihr euch die Mühe gemacht mal zu schauen ob 876Mhz tatsächliche das Ende der Fahnenstange ist bzw. meint ihr dass da eventuell Leistung verloren ging oder schliesst ihr das aus...

(del676)
2013-02-27, 11:18:06
Ich rede von Einzelkarten.
eine 550 Euro Karte die einer 950 Euro Karte absolut ebenbuertig ist. Warum darf ich die 400 Euro teurere Karte nicht als FAIL bezeichnen? Warum darf ich als Loesungsvorschlag nicht nennen, dass man den Preis auf dasselbe Niveau senken MUSS.

Wenn man sowas macht, wird man sofort von Nvidia Marketing Opfern angeflamt. Wie bescheuert muss man sein, eine OFFENSICHTLICH VIEL ZU TEURE Karte auch noch zu verteidigen? Mit rationellem Denken hat das jedenfalls nix zu tun!

BigKid
2013-02-27, 11:23:52
Ich rede von Einzelkarten.
eine 550 Euro Karte die einer 950 Euro Karte absolut ebenbuertig ist. Warum darf ich die 400 Euro teurere Karte nicht als FAIL bezeichnen? Warum darf ich als Loesungsvorschlag nicht nennen, dass man den Preis auf dasselbe Niveau senken MUSS.

Wenn man sowas macht, wird man sofort von Nvidia Marketing Opfern angeflamt. Wie bescheuert muss man sein, eine OFFENSICHTLICH VIEL ZU TEURE Karte auch noch zu verteidigen? Mit rationellem Denken hat das jedenfalls nix zu tun!
Also angeflamed hab ich dich sicher nicht...
Im übrigen: Ich stimme dir beim Preis zu (und werde langsam Müde das wieder und wieder zu wiederholen...)
Aber den Preis kann man ändern... Einen FAIL der Hardware jedoch nicht... Daher versuche ich das eine getrennt vom anderen zu Diskutieren...

Übrigens wenn du von EINZEL Karten redest - wieso tust du das dann unter einem SLI Benchmark ?

...und ein Marketing Opfer - weiss nicht... Habe immer wieder einen Ausflug zu AMD gemacht und hatte nur Ärger... Das prägt halt... Ich kaufe auch nicht unkritisch alles...
Um die GTX470 und 480 habe ich z.B. einen Bogen gemacht und stattdessen die Zeit mit der GTX460 überbrückt...

Für mich sieht es aktuell halt so aus als gäbe es zur Titan keine Alternative (2560x1440 mit Full-Details und 2-4x AA) wenn ich keine AMD Karte haben will... Mit SLI experimentiere ich grade - werde aber glaube ich nicht happy...

Übrigens wirst du mich selten bis nie in AMD Threads rummhüpfen und "Fail" schreien hören bzw. lesen...

Skysnake
2013-02-27, 11:46:13
Habt ihr euch die Mühe gemacht mal zu schauen ob 876Mhz tatsächliche das Ende der Fahnenstange ist bzw. meint ihr dass da eventuell Leistung verloren ging oder schliesst ihr das aus...
Ja haben Sie, und da hat der ach so tolle Titan teils nicht mal die 876MHz gehalten... http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/5/

Bei manchen Anwendungen haste aber auch mehr als die 876 MHz, das muss man dazu sagen.

Ebenso muss man aber auch dazu sagen, dass das ne komplett neue Karte ist. Mit der Zeit wird Sie sich zwangsläufig leicht mit Staub zusetzen, und weniger gut kühlen. Dann wird Sie also eher noch langsamer. Wirklich sauber bekommte man die Karten nur, wenn man sie auseinander baut.

BigKid
2013-02-27, 12:12:17
Ebenso muss man aber auch dazu sagen, dass das ne komplett neue Karte ist. Mit der Zeit wird Sie sich zwangsläufig leicht mit Staub zusetzen, und weniger gut kühlen. Dann wird Sie also eher noch langsamer. Wirklich sauber bekommte man die Karten nur, wenn man sie auseinander baut.
Und das gilt für AMD Karten nicht ?

Marty98
2013-02-27, 12:13:59
Ich rede von Einzelkarten.
eine 550 Euro Karte die einer 950 Euro Karte absolut ebenbuertig ist. Warum darf ich die 400 Euro teurere Karte nicht als FAIL bezeichnen?

Weil die 550 Euro Karte wegen Lautstärke und Microrucklern (siehe PCPer) völlig unbrauchbar ist. 90 Fps sind durch Mikroruckler gefühlte 45. 50 sind gefühlte 25.
http://www.pcper.com/files/imagecache/article_max_width/review/2013-02-22/fr-1.png
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-3-First-Results-New-GPU-Performance-Tools

Mr. Lolman
2013-02-27, 12:19:14
Weil die 550 Euro Karte wegen Lautstärke und Microrucklern (siehe PCPer) völlig unbrauchbar ist. 90 Fps sind durch Mikroruckler gefühlte 45. 50 sind gefühlte 25.
http://www.pcper.com/files/imagecache/article_max_width/review/2013-02-22/fr-1.png
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-3-First-Results-New-GPU-Performance-Tools

Blödsinn. Das bezieht sich nur auf SLI...

BigKid
2013-02-27, 12:19:58
Für mich noch nicht klar ist:
- Werden nun Custom-Kühler Titans kommen oder nicht?
- Gibt es nun Klahrheit bezüglich Stückzahlen ?
- Hat irgend jemand einen Vergleich Titan v.s GUTEN Custom GTXen DC2, Windforce 3 Whatever...

Übrigens zum Thema "Einzelkarte":
http://www.bjorn3d.com/2013/02/gtx-titan-single-card-performance/
Hier schlägt Titan die Toxic IMMER...

Skysnake
2013-02-27, 12:22:44
Und das gilt für AMD Karten nicht ?
Haben die nen Temperaturabhängigen Turbo wie die Titan?:rolleyes:

Ätznatron
2013-02-27, 12:24:00
Weil die 550 Euro Karte wegen Lautstärke und Microrucklern (siehe PCPer) völlig unbrauchbar ist. 90 Fps sind durch Mikroruckler gefühlte 45. 50 sind gefühlte 25.
http://www.pcper.com/files/imagecache/article_max_width/review/2013-02-22/fr-1.png
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-3-First-Results-New-GPU-Performance-Tools

Ulukay redet von "Einzelkarten".

Und da sieht man hier einen wunderbaren gleichmäßigen Frameverlauf bei der HD 7970.

BigKid
2013-02-27, 12:27:44
Haben die nen Temperaturabhängigen Turbo wie die Titan?:rolleyes:
Dafür werden sie dann unerträglich laut oder stürzen ab ?
Thermal throttling werden die wohl auch haben - oder rauchen die dann ab ?

Sorry aber für mich zählen grade nicht die letzten 5% Leistung...
Ich möchte 2560x1440 mit High-Details und 2-4x AA mit >30fps haben...
Meine GXT670 DC2 schafft das obige nicht mehr immer... Leise iss sie...
Und zwar so dass ich die Karte nicht aus meinem eher auf leise getrimmten System raushöhre...

Und ine AMD Karte mag ich nicht - da bin ich biased - ich sage aber nicht AMD ist fail - ich habe nur zu oft schlechte Erfahrungen gemacht... Das ist eine persönliche Meinung ohne Anspruch auf Richtigkeit oder Allgemeingültigkeit. Es mag gute Custom Toxics geben...

Mit SLI scheint das nicht machbar, das probier ich grade...
Mich juckts in den Bestell-Fingern...

Marty98
2013-02-27, 12:31:04
Blödsinn. Das bezieht sich nur auf SLI...

Das PCGH Video was hier besprochen wird testet doch die Toxic Crossfire gegen die Titan SLI!!

Bei beiden Konfigurationen zeigt Fraps > 90 fps an, nur dass bei der Toxic Crossfire es in Wirklichkeit 45-50 fps sind und der von Fraps angezeigte Wert nichts mit der Realität zu tun hat. Der Fazit des Videos sollte also sein: Titan SLI ist meist fast doppelt so schnell wie Toxic Crossfire, um die Hälfte leiser, und deutlich teurer. Von gleichauf kann gar keine Rede sein.

Raff
2013-02-27, 12:34:55
Das ist jetzt übertrieben, speziell in Battlefield 3, da ist's erträglich. Crysis mit Downsampling und Skyrim mit SGSSAA jedoch .. gruselig. Crossfire kommt hier nicht aus dem Sumpf heraus, auch wenn da 60 Fps stehen. Da hilft nur ein Framelimit.

MfG,
Raff

Marty98
2013-02-27, 12:46:53
Das ist jetzt übertrieben, speziell in Battlefield 3, da ist's erträglich. Crysis mit Downsampling und Skyrim mit SGSSAA jedoch .. gruselig. Crossfire kommt hier nicht aus dem Sumpf heraus, auch wenn da 60 Fps stehen. Da hilft nur ein Framelimit.

MfG,
Raff

Wieso ist es übertrieben?

Schau dir mal den Battlefiield 1440p Wert bei Sekunde 45 an:

http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-3-First-Results-New-GPU-Performance-Tools

Fraps zeigt an bei Toxic Crossfire: 120 fps
Framecapture zeigt bei der Toxic Crossfire: 60 fps

Also die Hälfte! Auch wenn 60 Fps gut spielbar sind, es gibt sicherlich Spiele und Einstellungen die statt der angezeigten 40 FFps (Fraps Fps) mit 20 RFps (Real Fps) laufen.

Das ist schlichtweg Betrug am Kunden. Man gibt für Toxic Crossfire 1100 Euro aus und hat oft die Performance von 400 Euro Karten. Es gibt sicher Leute die aufgrund eures Videos eine Kaufentscheidung für Toxic Crossfire treffen, und eigentlich voll verarscht werden.

Knuddelbearli
2013-02-27, 13:22:33
Und das gilt für AMD Karten nicht ?


nein da die da nicht eingebremst wird. AMD wird maximal lauter ;-) ^^

BigKid
2013-02-27, 13:43:57
nein da die da nicht eingebremst wird. AMD wird maximal lauter ;-) ^^
Das ist für mich halt genauso ein No-Go. Ich finde Boost 2.0 nämlich gar nicht schlecht. So kann ich Lüftersteuerung und Throttling meinen Bedürfnissen anpassen und ich möchte maximale Leistung bei einem fixen Lautstärke-Cap.

(Und einfach weil manche Lesefaul sind: Ich finde die Titan TECHNISCH gut nur PREISLICH daneben (und das gilt IMHO für die gesammte 28nm Generation beider Hersteller!).

derguru
2013-02-27, 13:44:05
mit der überarbeitung des speichermanagments wird imo das mikoruckler auf sli niveau kommen,die frage ist ob das überhaupt noch machbar ist zu fixen.
was mich dazu interessieren würde ob z.b. die 6er serie ähnlich mikroruckelt wie die 7ner denn dieses speichermanagmentproblem soll angeblich nur auf der 7ner serie sein.

Sunrise
2013-02-27, 13:49:21
Für mich noch nicht klar ist:
- Werden nun Custom-Kühler Titans kommen oder nicht?
- Gibt es nun Klahrheit bezüglich Stückzahlen ?
- Hat irgend jemand einen Vergleich Titan v.s GUTEN Custom GTXen DC2, Windforce 3 Whatever...

Übrigens zum Thema "Einzelkarte":
http://www.bjorn3d.com/2013/02/gtx-titan-single-card-performance/
Hier schlägt Titan die Toxic IMMER...
Ja, die werden wohl kommen, das dauert aber immer etwas. Zumindest laut http://videocardz.com/39721/nvidia-geforce-gtx-titan-released

Auszug:

In the first batch, only ASUS and EVGA will launch the GeForce GTX Titan. This will be followed by Colorful, Gainward, Galaxy, Gigabyte, Inno3D, MSI and Palit with more models to come. NVIDIA did not forbid modifying the cards, meaning, manufactures are free to introduce custom models, maybe even with custom cooling. The MSRP is not yet officially confirmed, but it seems that $999 mark is the final price.

Vor allem Karten mit custom-PCB dauern relativ lange. Ich würde mal mit min. 2-3 Monaten rechnen, wenn nicht mehr. Ich bin mir aber recht sicher, dass dort dann nochmal eine ordentliche Schippe draufgelegt wird.

Die eigentlich entscheidende Frage für dich ist aber:
Brauchst du die Karte jetzt schon (u.a. aufgrund deiner Anforderungen) unbedingt? Warten kann man immer. Und wenn ich deine Beiträge so lese, irritiert dich wirklich nur der Preis (was bei mir ebenso zutrifft). Bevor du aber weitere Experimente eingehst, würde ich Nägel mit Köpfen machen.

Ich bin froh, hier derzeit noch zu stark CPU-limitiert zu sein, sodass ich da absolut keinen Zugzwang habe. Auch sind mir die aktuellen Spiele es nicht wirklich Wert, da Unmengen an Geld reinzustecken. Da reicht mir mein Setup völlig aus. Ende des Jahres wird das aber garantiert anders aussehen.

Nächster Kauf wird ein Haswell oder Ivy-E werden, und da brauche ich dann auch ordentlich Dampf.

Marty98
2013-02-27, 14:11:28
mit der überarbeitung des speichermanagments wird imo das mikoruckler auf sli niveau kommen,die frage ist ob das überhaupt noch machbar ist zu fixen.
was mich dazu interessieren würde ob z.b. die 6er serie ähnlich mikroruckelt wie die 7ner denn dieses speichermanagmentproblem soll angeblich nur auf der 7ner serie sein.

Das ist eben die HOFFNUNG. Ich dümpele noch mit einer 560 Ti herum, und will eigentlich eine neue Graka für max 400 Euro kaufen. In Frage kommen eine 7970 GED oder eine 670 mit 4GB. Ich warte auf das neue Speichermanagement. Fixt es die Mikroruckler (oder bringt sie auf NV Niveau) dann wird es die AMD, ansonsten eine NVIDIA. Ich hoffe nur der Treiber kommt in den nächsten Wochen, und nicht im halben Jahr.

Edit: Ich meine in dem Fall die Single-GPU Mikroruckler, die zwar bei weitem nicht so schlimm wie bei CrossFire sind, aber trotzdem ein großes Problem.

BigKid
2013-02-27, 14:21:12
Die eigentlich entscheidende Frage für dich ist aber:
Brauchst du die Karte jetzt schon (u.a. aufgrund deiner Anforderungen) unbedingt? Warten kann man immer. Und wenn ich deine Beiträge so lese, irritiert dich wirklich nur der Preis (was bei mir ebenso zutrifft). Bevor du aber weitere Experimente eingehst, würde ich Nägel mit Köpfen machen.

Ich werde noch das kommende Wochenende mit der zweiten GTX670 im SLI Verbund rummexperimentieren. Sollte ich das irgendwie noch "leise" bekommen ohne zuviel Leistung zu verlieren (untervolten, weniger Boost) dann bleibe ich ggF beim SLI und wenn nicht - dann bleibt mir nix anderen übrig als a) noch 2-3 Monate warten und dann Titan oder b) gleich Titan...

Angiesan
2013-02-27, 14:31:14
Ja, die werden wohl kommen, das dauert aber immer etwas. Zumindest laut http://videocardz.com/39721/nvidia-geforce-gtx-titan-released

Auszug:


Vor allem Karten mit custom-PCB dauern relativ lange. Ich würde mal mit min. 2-3 Monaten rechnen, wenn nicht mehr. Ich bin mir aber recht sicher, dass dort dann nochmal eine ordentliche Schippe draufgelegt wird.

Die
Ich würde mal mit nie rechnen denn die Stückzahlen werden das nie rechtfertigen ;-) zumindest solange der Preis in diesen Regionen bleibt. Die Basis die so oder so kauft, kauft gerade oder hat gekauft der Markt wird eher kleiner wie größer in Zukunft.

dargo
2013-02-27, 14:51:42
Geforce GTX Titan (SLI) gegen Radeon HD 7970 Toxic (Crossfire): Duell der Giganten (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/GTX-Titan-SLI-vs-HD-7970-Crossfire-Test-1057382/)

Titan-SLI skaliert derzeit noch recht mau, während Tahiti-Crossfire sehr gut zulegt. Dafür tut Nvidia etwas gegen das Mikroruckeln und liegt damit in der Gesamtbetrachung praktisch immer vorn.

MfG,
Raff
Was bricht der Titan in Dirt Showdown eigentlich so das Genick? Dass selbst die Titan noch knapp hinter der HD7970 GE liegt ist schon recht ungewöhnlich.

Raff
2013-02-27, 14:59:14
Das Spiel nutzt "Forward Plus": Dirt Showdown: DX11-Benchmarks zur erweiterten Beleuchtung (http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/)

... was auch in AMDs Leo-Demo genutzt wird.

MfG,
Raff

derguru
2013-02-27, 15:05:19
Edit: Ich meine in dem Fall die Single-GPU Mikroruckler, die zwar bei weitem nicht so schlimm wie bei CrossFire sind, aber trotzdem ein großes kleines Problem.
fixed!

dargo
2013-02-27, 15:07:17
Das Spiel nutzt "Forward Plus": Dirt Showdown: DX11-Benchmarks zur erweiterten Beleuchtung (http://www.pcgameshardware.de/Dirt-Showdown-PC-238936/Tests/Dirt-Showdown-Grafikkarten-Benchmarks-zur-Erweiterten-Beleuchtung-1018360/)

... was auch in AMDs Leo-Demo genutzt wird.

MfG,
Raff
Wenn ich es richtig verstanden habe wird das MSAA inkl. Forward+ und GI über Direct Compute realisiert. Wenn wir jetzt ehrlich sind und in neueren Spielen vermehrt Sachen über Direct Compute realisiert werden sehe ich auf Dauer für Kepler schwarz. Ich weiß jetzt nicht wie aussagekräftig eure min.fps sind aber +48% gegenüber der GTX680 ist schon heftig. :eek: Und dabei ist es sogar nur die normale HD7970. Liegt das jetzt am Treiber von Kepler oder wo liegt das eigentliche Problem?

aufkrawall
2013-02-27, 15:12:44
Verwundert es dich wirklich, dass AMD-Features auf AMD-Karten schneller laufen?

dargo
2013-02-27, 15:15:37
Verwundert es dich wirklich, dass AMD-Features auf AMD-Karten schneller laufen?
In dem Ausmaß schon. Wenn ich jetzt nämlich die 7970 GE nehme sind wir schon bei +~68%. Wenn das jetzt 10-20% schneller wäre ok, aber das finde ich schon sehr heftig.

PS: was mich halt interessieren würde... Treiberprobleme oder starke Hardwarelimitierung bei Kepler. Wenn letzteres, was genau?

pest
2013-02-27, 15:16:57
Edit: Ich meine in dem Fall die Single-GPU Mikroruckler, die zwar bei weitem nicht so schlimm wie bei CrossFire sind, aber trotzdem ein großes Problem.

Reden wir eigentlich noch von den selben Mikrorucklern? Im Mehrkartenverbund bezeichnen Mikroruckler die typischen Sägezahnbilder die eben dadurch entstehen, dass die Karten abwechselnd rendern.
Das habe ich auf Single-Karten so noch nicht gesehen ;)

BigKid
2013-02-27, 15:17:01
Verwundert es dich wirklich, dass AMD-Features auf AMD-Karten schneller laufen?
O.K. und was heisst das jetzt für Kepler im Allgemeinen und Titan im speziellen ?
- Könnte NV da über Treiber-Optimierungen was machen ?
- Sollte es dann Titan nicht besser liegen als dem kleinen Kepler da mehr Computer Power ?

fondness
2013-02-27, 15:19:23
Verwundert es dich wirklich, dass AMD-Features auf AMD-Karten schneller laufen?

Forward+ ist eine Renderingtechnik und nicht unbedingt ein "AMD-Feature". AMD hat einfach bei GPGPU unter bestimmten Bedingungen nach wie vor eine deutlichen Vorteil, auch ggü. GK110 und den nützen sie natürlich aus wo es geht.

BigKid
2013-02-27, 15:20:10
Forward+ ist eine Renderingtechnik und nicht unbedingt ein "AMD-Feature". AMD hat einfach bei GPGPU unter bestimmten Bedingungen nach wie vor eine deutlichen Vorteil, auch ggü. GK110 und den nützen sie natürlich aus wo es geht.
Aber eventuell hat nur AMD schon dafür optimierte Treiber ? Oder die Implementiereung ist bei DIRT halt besonders AMD freundlich bzw. Kepler unfreundlich...

fondness
2013-02-27, 15:20:52
- Sollte es dann Titan nicht besser liegen als dem kleinen Kepler da mehr Computer Power ?

Titan ist in punkte GPGPU nicht wirklich anders aufgebaut als GK104, er hat "nur" mehr Einheiten.

fondness
2013-02-27, 15:22:32
Aber eventuell hat nur AMD schon dafür optimierte Treiber ?

AMD hat dafür eine optimierte Hardware. ;)
Man hat bei AMD nicht schlecht geschaut als man bemerkte das NV mit Kepler GPGPU kaum beachtet, dazu gab es mehrere Aussagen. Das AMD das versucht auszunutzen sollte klar sein.

aufkrawall
2013-02-27, 15:25:36
Forward+ ist eine Renderingtechnik und nicht unbedingt ein "AMD-Feature". AMD hat einfach bei GPGPU unter bestimmten Bedingungen nach wie vor eine deutlichen Vorteil, auch ggü. GK110 und den nützen sie natürlich aus wo es geht.
Dirt SD wurde aber von AMD extrem promotet, da haben die Entwicklerteams sicherlich eng zusammen gearbeitet.
Es ist nur ein Spiel bisher, wie sich das in Zukunft in der Breite auswirkt bleibt abzuwarten.
Was ist denn so toll an der Grafik? AA war mittelmäßig & Deferred Lösungen sind immer noch sehr populär.
In der UE4-Vorstellung klaffte immerhin ein dickes Nvidia-Logo. ;)

dargo
2013-02-27, 15:34:41
Was ist denn so toll an der Grafik?

Liegt imho größtenteils am Content.


AA war mittelmäßig & Deferred Lösungen sind immer noch sehr populär.

Was ist denn so schlecht an dem MSAA in Showdown? Ich finde die Implementierung sogar sehr gut. Schau dir mal MSAA in Crysis 3 oder Max Payne 3 an. X-D Und gerade weil MSAA bei Forward+ sehr gut greift könnte das immer mehr an Bedeutung in zukünftigen Spielen gewinnen.

Blaire
2013-02-27, 15:35:44
Wenn ich es richtig verstanden habe wird das MSAA inkl. Forward+ und GI über Direct Compute realisiert. Wenn wir jetzt ehrlich sind und in neueren Spielen vermehrt Sachen über Direct Compute realisiert werden sehe ich auf Dauer für Kepler schwarz.

Dirt Showdown ist nun wahrlich keine Vorzeigetitel, als das NV dafür größere Ressourcen aufwenden sollte. ;) Aktuelle Games zeigen eher, das die GTX 680 immer noch sehr gut mithalten kann, bei relevanten spielbaren Settings und sich nicht mit FPS-Latency-Problemen rühmen muss.

fondness
2013-02-27, 15:36:21
Dirt SD wurde aber von AMD extrem promotet, da haben die Entwicklerteams sicherlich eng zusammen gearbeitet.
Es ist nur ein Spiel bisher, wie sich das in Zukunft in der Breite auswirkt bleibt abzuwarten.

Klar muss man abwarten, aber mit Bioshock: Infiniti und dem neuen Tomb Raider sind schon zwei potentielle Titel in der Pipeline die massiv auf Compute setzen.
Und zumindest langfristig macht es eben schon Sinn bestimmte Dinge über Compute-Shader zu lösen.

dargo
2013-02-27, 15:37:37
Dirt Showdown ist nun wahrlich keine Vorzeigetitel, als das NV dafür größere Resourcen aufwenden sollte. ;)
Ich werde dich nochmal daran erinnern wenn mehrere Spiele Gebrauch von Forward+ und Direct Compute machen.

Klar muss man abwarten, aber mit Bioshock: Infiniti und dem neuen Tomb Raider sind schon zwei potentielle Titel in der Pipeline die massiv auf Compute setzen.

Da bin ich schon mal auf Benchmarks gespannt.

derguru
2013-02-27, 15:38:06
nunja,mal schauen wie es bei kommenden tomb raider und bioshock demnächst aussieht.

Klar muss man abwarten, aber mit Bioshock: Infiniti und dem neuen Tomb Raider sind schon zwei potentielle Titel in der Pipeline die massiv auf Compute setzen.
Und zumindest langfristig macht es eben schon Sinn bestimmte Dinge über Compute-Shader zu lösen.

genau und es werden immer mehr.:)

aufkrawall
2013-02-27, 15:38:51
Was ist denn so schlecht an dem MSAA in Showdown?

Es greift nicht toll, aufgewertet zu SGSSAA gibts auch noch ständig Aliasing zu sehen.


Ich finde die Implementierung sogar sehr gut. Schau dir mal MSAA in Crysis 3 oder Max Payne 3 an. X-D Und gerade weil MSAA bei Forward+ sehr gut greift könnte das immer mehr an Bedeutung in zukünftigen Spielen gewinnen.
Es greift bisher eben nicht sehr gut. Schau dir mal die Leo-Demo an, da gibts auch noch hässliches Geflimmer.
Auch eher so "besser als nichts".

M4xw0lf
2013-02-27, 15:40:08
Next-Gen Konsolen. GCN. Wenn ich diese beiden Summanden summiere, komme ich auf steigende Wichtigkeit der Compute-Leistung in der Zukunft :freak:

fondness
2013-02-27, 15:40:27
Es greift nicht toll, aufgewertet zu SGSSAA gibts auch noch ständig Aliasing zu sehen.


Es greift bisher eben nicht sehr gut. Schau dir mal die Leo-Demo an, da gibts auch noch hässliches Geflimmer.
Auch eher so "besser als nichts".

Zeig mir eine DX11-Engine mit Deferred-Rendering wo MSAA besser greift als in AMDs Leo-Demo. :)

dildo4u
2013-02-27, 15:42:33
Das AA zieht nicht die Leistung sondern die erweitere Beleuchtung,Titan ist in jedem Fall deutlich besser als die Vorgänger erreicht z.b eine 690.Die 690 ist dann besser wenn diese Beleuchtung abgeschaltet wird.

http://www.hardware.fr/articles/887-20/benchmark-dirt-showdown.html

derguru
2013-02-27, 15:44:15
Zeig mir eine DX11-Engine mit Deferred-Rendering wo MSAA besser greift als in AMDs Leo-Demo. :)
wie soll er das machen? aa- bits funzen doch nicht mit dx11.;D

dargo
2013-02-27, 15:44:21
Es greift nicht toll...

Was ist für dich nicht toll? Es greift um Welten besser als bei den üblichen Deferred Lösungen. Der Performanceeinbruch bei MP3 ist dabei nahezu lachhaft. Und dann greift MSAA sogar noch katastrophal schlecht. In Crysis 3 ist der Einbruch zwar nicht völlige Katastrophe, die Glättung dagegen aber schon.

M4xw0lf
2013-02-27, 15:45:11
Das AA zieht nicht die Leistung sondern die erweitere Beleuchtung,Titan ist in jedem Fall deutlich besser als die Vorgänger erreicht z.b eine 690.

http://www.hardware.fr/articles/887-20/benchmark-dirt-showdown.html

Der interessantere Punkt: sie erreicht ("erreichen" wie in "nicht überholen") eine 7970.

derguru
2013-02-27, 15:46:11
Was ist für dich nicht toll? Es greift um Welten besser als bei den üblichen Deferred Lösungen. Der Performanceeinbruch bei MP3 ist dabei nahezu lachhaft. Und dann greift MSAA sogar noch katastrophal schlecht. In Crysis 3 ist der Einbruch zwar nicht völlige Katastrophe, die Glättung dagegen aber schon.
komsich aber cb attestiert msaa in crysis 3 als bestes aa verfahren.:biggrin:

dildo4u
2013-02-27, 15:46:52
Der interessantere Punkt: sie erreicht ("erreichen" wie in "nicht überholen") eine 7970.
Interessant ist das die 690 besser ist wenn man die Beleuchtung abschaltet,Titan kann also die Shaderleistung erst dann durchdrücken wenn sie gefordert wird.Wie ich schon öfter erwähnt hatte Titan wird erst in Zukunft zeigen was sie kann,Crysis 3 ist nur der erste Hinweis.

Raff
2013-02-27, 15:48:04
Aktuelle Games zeigen eher, das die GTX 680 immer noch sehr gut mithalten kann, bei relevanten spielbaren Settings und sich nicht mit FPS-Latency-Problemen rühmen muss.

Die GTX 680 ist in den Top 3 auf Platz 3. Das ist natürlich angenehm schnell. Woher dieser Latenz-Rummel kommt, weiß ich immer noch nicht. Wenn man das wirklich in mehr als einem (warum auch immer) zuckenden Spiel fühlen könnte, wäre die Geschichte längst aufgeflogen. Das ist ein ganz anderes Kaliber als SLI-/Crossfire-Mikroruckeln vor ein paar Jahren, das nur 1.337 Leute weltweit bemerken konnten. ;)

MfG,
Raff

dargo
2013-02-27, 15:48:08
komsich aber cb attestiert msaa in crysis 3 als bestes aa verfahren.:biggrin:
Fielmann? :|

Raff
2013-02-27, 15:50:21
8x MSAA glättet viele Objekte und vor allem die Vegetation prächtig. Das Problem ist nur, dass es ein paar Kanten auslässt. Dagegen wirkt 4x SMAA (oder TXAA) klar besser.

MfG,
Raff

boxleitnerb
2013-02-27, 15:50:28
Ach auf einzelne Spiele würde ich nicht soviel geben. Sonst könnte man auch Shogun 2 anführen, wo ein Titan ne 7970 GE mit 50+% Vorsprung nass macht. Die Engine dürfte in Rome 2 gegen Ende des Jahres modifiziert weiterverwendet werden.
Solche Fälle gibt es immer, auf beiden Seiten.

dargo
2013-02-27, 15:51:57
Interessant ist das die 690 besser ist wenn man die Beleuchtung abschaltet,Titan kann also die Shaderleistung erst dann durchdrücken wenn sie gefordert wird.Wie ich schon öfter erwähnt hatte Titan wird erst in Zukunft zeigen was sie kann,Crysis 3 ist nur der erste Hinweis.
Verstehe den Zusammenhang jetzt nicht. Warum sollte man in Zukunft auf die erweiterte Beleuchtung in Spielen verzichten? Nur weil Titan dort schwächelt? :tongue:

derguru
2013-02-27, 15:53:10
Fielmann? :|
das mssa soll tmsaa sein,wenn das stimmt müsste es auch locker das beste verfahren sein.ich habe es bis jetzt noch gar nicht ausprobiert weil ich eh jede fps brauche.:biggrin:

aufkrawall
2013-02-27, 15:53:11
Was ist für dich nicht toll?

Toll ist für mich keines oder so gut wie kein Geflimmer.


Es greift um Welten besser als bei den üblichen Deferred Lösungen.

Kommts denn grafisch ansonsten bisher an Deferred ran?


Der Performanceeinbruch bei MP3 ist dabei nahezu lachhaft. Und dann greift MSAA sogar noch katastrophal schlecht.

Ja, schlimm.
Ich träume auch davon, dass Nvidia einfach mal auf Microdoofs Meinung scheißt und ihr Treiber-AA nach DX11 portiert. :freak:
Bei MP3 DX9 kann man nämlich perfektes SGSSAA zu nem akzeptablen Preis erzwingen, bei CE3 auch.
Offenbar kann es der Treiber besser als die Anwendung. Was der Unsinn dann soll, dass die Anwendung alles selber machen soll...
Einen wichtigen BQ-Vorteil vom PC gekillt. :(


In Crysis 3 ist der Einbruch zwar nicht völlige Katastrophe, die Glättung dagegen aber schon.
4xSMAA geht so.

dargo
2013-02-27, 15:54:25
das mssa soll tmsaa sein,wenn das stimmt müsste es auch locker das beste verfahren sein.ich habe es bis jetzt noch gar nicht ausprobiert weil ich eh jede fps brauche.:biggrin:
Also ich habe 8xMSAA in C3 noch nicht probiert (weil 4xMSAA schon recht teuer ist), aber 4xMSAA glättet mehr schlecht als recht.

M4xw0lf
2013-02-27, 15:55:20
Interessant ist das die 690 besser ist wenn man die Beleuchtung abschaltet,Titan kann also die Shaderleistung erst dann durchdrücken wenn sie gefordert wird.Wie ich schon öfter erwähnt hatte Titan wird erst in Zukunft zeigen was sie kann,Crysis 3 ist nur der erste Hinweis.

Ich glaube ja trotzdem aus irgendeinem Grund, dass Entwickler in der Zukunkt ihren Fokus auf verbreitete Hardware setzen werden und nicht auf ein paar hundert Titans. Hat da jemand GCN in next-gen Konsolen gesagt?

derguru
2013-02-27, 15:58:00
Ich glaube ja trotzdem aus irgendeinem Grund, dass Entwickler in der Zukunkt ihren Fokus auf verbreitete Hardware setzen werden und nicht auf ein paar hundert Titans. Hat da jemand GCN in next-gen Konsolen gesagt?
das wird nv noch heftig bereuen das sie gar nicht mehr vertreten sind und das für jahre.

Also ich habe 8xMSAA in C3 noch nicht probiert (weil 4xMSAA schon recht teuer ist), aber 4xMSAA glättet mehr schlecht als recht.
smaa reicht mir vollkommen und frisst auch nicht so. wie gesagt,bei 1440p habe ich eh nicht viel auswahl.:biggrin:

dildo4u
2013-02-27, 16:00:21
Verstehe den Zusammenhang jetzt nicht. Warum sollte man in Zukunft auf die erweiterte Beleuchtung in Spielen verzichten? Nur weil Titan dort schwächelt? :tongue:
Ich hab geschrieben das sie sich dort besser macht als der Vorgänger,daher nur her damit.Die nästen Games werden nicht mehr auf einer Uralt Engine wie die von Dirt basieren,sondern wie z.b Crysis 3 auch noch viele Polys nutzen.Das in Verbindung mit aufwändigen Shadern zeigt wie viel besser,die Karte als die alten Karten ist.

http://www.abload.de/img/cerrbpud.jpg

dargo
2013-02-27, 16:02:03
Kommts denn grafisch ansonsten bisher an Deferred ran?

Was hat jetzt die allgemeine Grafik mit dem Greifen von MSAA zu tun? Es ging mir in erster Linie um eine bessere Bildglättung bei DX11 Games.


Ja, schlimm.
Ich träume auch davon, dass Nvidia einfach mal auf Microdoofs Meinung scheißt und ihr Treiber-AA nach DX11 portiert. :freak:
Bei MP3 DX9 kann man nämlich perfektes SGSSAA zu nem akzeptablen Preis erzwingen, bei CE3 auch.
Offenbar kann es der Treiber besser als die Anwendung. Was der Unsinn dann soll, dass die Anwendung alles selber machen soll...
Einen wichtigen BQ-Vorteil vom PC gekillt. :(

Wir sind hier nicht bei wünsch dir was. :D Man muss sich damit abfinden, dass spätestens 2014/15 wir überwiegend nur noch DX11 Games sehen werden. Und da fände ich es aus Sicht der Bildglättung nicht verkehrt wenn wir vermehrt Forward+ Games sehen. Eben weil MSAA besser greift.


4xSMAA geht so.
Es ging um reines MSAA. SMAA matscht das Bild etwas auf wodurch wieder Sharpening nötig ist.

derguru
2013-02-27, 16:03:40
für sharpening haben wir doch sweet fx.:biggrin:

dargo
2013-02-27, 16:06:42
für sharpening haben wir doch sweet fx.:biggrin:
Sharpening ist bei C3 schon intergriert. Ich finds halt nur etwas albern erst das Bild zu zermatschen um es dann wieder zu schärfen. :freak: Da sollte es wirklich bessere Lösungen geben. Die momentane Situation ist halt ne Notlösung.

Raff
2013-02-27, 16:07:58
Das ist doch nur Film Grain. Sweet FX' LumaSharpen macht das cooler.

MfG,
Raff

aufkrawall
2013-02-27, 16:08:58
Was hat jetzt die allgemeine Grafik mit dem Greifen von MSAA zu tun? Es ging mir in erster Linie um eine bessere Bildglättung bei DX11 Games.

Weniger Features bei Licht, Schatten... = weniger Aufwand fürs AA.


Wir sind hier nicht bei wünsch dir was. :D Man muss sich damit abfinden, dass spätestens 2014/15 wir überwiegend nur noch DX11 Games sehen werden. Und da fände ich es aus Sicht der Bildglättung nicht verkehrt wenn wir vermehrt Forward+ Games sehen. Eben weil MSAA besser greift.

Man kann Nvidia dann bashen, wenn es so weit ist und mehr als ein einzelnes AMD-Spiel auf der Hardware lahm läuft.
Ist momentan noch reine Zukunftsmusik.


Es ging um reines MSAA. SMAA matscht das Bild etwas auf wodurch wieder Sharpening nötig ist.
Sicher, dass das auf die Lösung bei C3 zutrifft?

derguru
2013-02-27, 16:10:09
Das ist doch nur Film Grain. Sweet FX' LumaSharpen macht das cooler.

MfG,
Raff
jup,ich nutze zur zeit sweet fx bei jedem spiel und imo ist es immer ein mehrwert vor allem mit sgssaa.

dargo
2013-02-27, 16:12:20
Sicher, dass das auf die Lösung bei C3 zutrifft?
Natürlich. Sharpening steht bei C3 @Standard auf 0,25. Allerdings nicht nur wegen SMAA, sondern auch wegen dem zusätzlichen PP-Zeugs welches das Bild weiter zermatscht.

Das ist doch nur Film Grain.
Sharpening in C3 ist nur Film-Grain? Muss ich mir mal genauer anschauen.

derguru
2013-02-27, 16:17:10
btt:biggrin:

aufkrawall
2013-02-27, 16:18:00
Natürlich. Sharpening steht bei C3 @Standard auf 1.25. Allerdings nicht nur wegen SMAA, sondern auch wegen dem zusätzlichen PP-Zeugs welches das Bild weiter zermatscht.

"Natürlich" war irgenwie nicht die erhoffte, fundierte antwort. ;)
Ich würds ja selber ausprobieren, aber ich muss den Boss noch killen und wenn ich nen anderen Level starte, ist ja der Level-Fortschritt futsch. :rolleyes:

Blaire
2013-02-27, 16:20:03
Die GTX 680 ist in den Top 3 auf Platz 3. Das ist natürlich angenehm schnell. Woher dieser Latenz-Rummel kommt, weiß ich immer noch nicht.

Wirklich neu ist das Thema ja nicht...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9288609&postcount=3

Wenn man das wirklich in mehr als einem (warum auch immer) zuckenden Spiel fühlen könnte, wäre die Geschichte längst aufgeflogen. Das ist ein ganz anderes Kaliber als SLI-/Crossfire-Mikroruckeln vor ein paar Jahren, das nur 1.337 Leute weltweit bemerken konnten. ;)


Nunja... SLI und CF dürfte man genau genommen auch nicht miteinander vergleichen, trotzdem wirds gemacht. ;) Während NV eher auf das bessere Gaming-Erlebnis abzielt, ist es für AMD die pure Balkenlänge. Wie du siehst, ist mit dem Auffliegen nicht weit her...:wink:

Raff
2013-02-27, 16:22:41
Wirklich neu ist das Thema ja nicht...
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9288609&postcount=3

Nunja... SLI und CF dürfte man genau genommen auch nicht miteinander vergleichen, trotzdem wirds gemacht. ;) Während NV eher auf das bessere Gaming-Erlebnis abzielt, ist es für AMD die pure Balkenlänge. Wie du siehst, ist mit dem Auffliegen nicht weit her...:wink:

Mir ist klar, dass immer wieder Messungen auftauchen, die es nahelegen, eine Radeon am besten in die Mülltonne statt in einen PC zu stecken. ;) Der Rummel wegen solcher Ausreißer ist aber IMO völlig übertrieben. Beim Mikroruckeln hingegen sind die Probleme derart eklatant, dass ich jeden beneide, der das "nicht sieht" (bzw. einfach nicht sehen will).

MfG,
Raff

fondness
2013-02-27, 16:24:49
Das AMD in Witcher 2 zu µRucklern neigt, welche man bei niedrigen fps auch bemerkt ist richtig. Warum das dort so ist keine Ahnung. So zu tun als wäre das bei anderen Spielen auch so ist lächerlich. Witcher 2 ist hier ein absolutes Extrembeispiel.

Iruwen
2013-02-27, 16:25:23
Mich hat das Mikroruckeln bei meiner GTX 295 schon genervt bevor ich den Begriff kannte :freak:

dargo
2013-02-27, 16:29:13
Um nochmal auf das Thema Sharpening in C3 zu kommen. Mit Film-Grain hat das nichts zu tun. Das gesamte Bild wird einfach nachgeschärft.

r_sharpening = 0
http://s7.directupload.net/images/130227/temp/j9zjsvz4.png (http://s7.directupload.net/file/d/3179/j9zjsvz4_png.htm)

r_sharpening = 0.25 (standard)
http://s7.directupload.net/images/130227/temp/d9ecnd46.png (http://s7.directupload.net/file/d/3179/d9ecnd46_png.htm)

r_sharpening = 1
http://s14.directupload.net/images/130227/temp/xszquh7i.png (http://s14.directupload.net/file/d/3179/xszquh7i_png.htm)

Das ganze in 1920x1080 SMAA 2Tx/16xAF. Sorry, hab leider kein besseres Save aktuell parat. Und sorry nochmal für OT. :redface:

Marty98
2013-02-27, 16:29:40
Reden wir eigentlich noch von den selben Mikrorucklern? Im Mehrkartenverbund bezeichnen Mikroruckler die typischen Sägezahnbilder die eben dadurch entstehen, dass die Karten abwechselnd rendern.
Das habe ich auf Single-Karten so noch nicht gesehen ;)

Hier mal mit Fraps.

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

http://pics.computerbase.de/4/7/3/3/1/diagramme/113.1361284463.svgz

Ein Mikroruckler von 120ms ist definitiv kein kleines Problem. Wenn man das ganze mit Framecapturing statt Fraps messen würde, verstärkt sich das Problem sicherlich, bzw wird erst dann wirklich ernst.

pest
2013-02-27, 16:35:34
Ein Mikroruckler von 120ms ist definitiv kein kleines Problem.


Das ist für mich einfach ein Ruckler. Das kann zufällig auftreten oder eben am Speichermanagement liegen. Ich würde das nicht als Mikroruckler bezeichnen weil es den Kern der Sache nicht trifft. Aber nun gut. Vorteil ist, wenn man Frappo (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=537679) auf der Zeit-Skala verwendet und z.B. das 50%-Interquartile angibt, schlägt sich so ein Ruckler massiv auf die Ergebnisse nieder! Zwei Werte statt einem Avg-Wert ist ein Anfang!


Wenn man das ganze mit Framecapturing statt Fraps messen würde, verstärkt sich das Problem sicherlich, bzw wird erst dann wirklich ernst.

Das habe ich nicht so richtig verstanden. Ich muss allerdings zugeben, dass ich das Ganze nur überflogen habe. Es wirkt aber so als ob da zuviele Dinge wie VSync reinspielen und/oder Frametimes weggelassen werden weil der Tester das für richtig findet.

derguru
2013-02-27, 16:40:46
Das AMD in Witcher 2 zu µRucklern neigt, welche man bei niedrigen fps auch bemerkt ist richtig. Warum das dort so ist keine Ahnung. So zu tun als wäre das bei anderen Spielen auch so ist lächerlich. Witcher 2 ist hier ein absolutes Extrembeispiel.
tja,bei pcgh ist das wiederrum die bessere variante.:wink:

http://www.abload.de/img/powercolor-hd-7990-deuwr9g.png

fondness
2013-02-27, 16:44:00
tja,bei pcgh ist das wiederrum die bessere variante.:wink:

http://www.abload.de/img/powercolor-hd-7990-deuwr9g.png
Das hängt natürlich alles von der Szene ab. :)

Angiesan
2013-02-27, 16:46:10
Hier mal mit Fraps.

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

http://pics.computerbase.de/4/7/3/3/1/diagramme/113.1361284463.svgz

Ein Mikroruckler von 120ms ist definitiv kein kleines Problem. Wenn man das ganze mit Framecapturing statt Fraps messen würde, verstärkt sich das Problem sicherlich, bzw wird erst dann wirklich ernst.
Sorry Marty wenn ich das jetzt mal so hart sage, aber Du hast das Problem nicht verstanden und mir kommt es nur so vor als ob du was nachblabberst. Schau Dir mal die anderen Bilder an und dann reden wir noch mal drüber ich habe beides hier und es gibt auch Spiele wo das immer da ist egal bei welcher Karte, FC3 ist so ein Ding da helfen nur mehr fps um es zu verdecken und ein Ausreiser :wink: aber wie schon gesagt das ist der Titan Thread

cR@b
2013-02-27, 16:47:17
Mich hat das Mikroruckeln bei meiner GTX 295 schon genervt bevor ich den Begriff kannte :freak:

Ging mir ähnlich mit meinen 7950 GT´s und der 7950GX2. Lang bevor Tombman das Unwort erfunden hat, hat mir das Thema förmlich die Augen ausgestochen...
Einmal und nie wieder mGPU!

Aber so nen teueren Titanen wüll ich auch nicht :freak:

Angiesan
2013-02-27, 16:48:19
Ich schon will ihn aber nicht bezahlen :biggrin:

M4xw0lf
2013-02-27, 16:55:38
Ich schon will ihn aber nicht bezahlen :biggrin:
Da sagst du was ^^

derguru
2013-02-27, 17:04:11
Das hängt natürlich alles von der Szene ab. :)
deshalb am besten multigpu meiden.dann ist es auch vollkommen egal ob es hier oder da mal mehr oder weniger ruckelt.:biggrin:

Marty98
2013-02-27, 17:21:48
Sorry Marty wenn ich das jetzt mal so hart sage, aber Du hast das Problem nicht verstanden und mir kommt es nur so vor als ob du was nachblabberst. Schau Dir mal die anderen Bilder an und dann reden wir noch mal drüber ich habe beides hier und es gibt auch Spiele wo das immer da ist egal bei welcher Karte, FC3 ist so ein Ding da helfen nur mehr fps um es zu verdecken und ein Ausreiser :wink: aber wie schon gesagt das ist der Titan Thread

Ich habe doch nirgendwo gesagt dass NVidia das Problem nicht hat. Nur ist es bei AMD eklatant, bei Nvidia hält es sich in Grenzen (ist aber nicht optimal). Es gibt sogar Spiele wo diese Ruckler bei Nvidia schlimmer sind, das sind aber Ausnahmen.

Marty98
2013-02-27, 17:30:04
Mir ist klar, dass immer wieder Messungen auftauchen, die es nahelegen, eine Radeon am besten in die Mülltonne statt in einen PC zu stecken. ;) Der Rummel wegen solcher Ausreißer ist aber IMO völlig übertrieben. Beim Mikroruckeln hingegen sind die Probleme derart eklatant, dass ich jeden beneide, der das "nicht sieht" (bzw. einfach nicht sehen will).

MfG,
Raff

Die meisten User die im Review einen Balken von 80 Fps sehen erwarten ein perfektes Spielerlebnis. Nur ein einziger (reproduzierbarer) Ruckler (egal ob bei AMD oder Nvidia) bei Single-GPU Karten ist ein Problem, welches behoben werden sollte. Wenn man als Tester versucht es unter den Teppich zu kehren werden die Hersteller nicht viel dagegen tun.

Bei den CrossFire Tests ist die Geschichte ganz anders. Wer da von 50 FPS berichtet, obwohl er weiß dass diese mit dem Spielgefühl nichts zu tun haben (sind ja reale 25 Fps oder sogar weniger) der ist ein Mittäter bei dem Crossfire-Betrug. Und die meisten Testseiten tun es leider. Es werden nur average FPS gepostet. Vielleicht noch minimale dazu. Fraps Frametimes zeigen nur eine Handvoll von Tests. Reale Fps nur PC Perspective.

PHuV
2013-02-27, 17:36:49
deshalb am besten multigpu meiden.dann ist es auch vollkommen egal ob es hier oder da mal mehr oder weniger ruckelt.:biggrin:
Es gibt Situationen, da kann man es nicht meiden. Früher hat eine normale Karte für ein 30" mit 2560x1600 nicht ausgereicht. Das selbe Spiel geht los, wenn man in 3D spielt. Metro2033 ist zum Erscheinungstermin mit einer Karte für 3D nicht spielbar gewesen. Mir ist aktuell sonst keine weitere Methode bekannt, die GPU-Leistung zu erhöhen.

In meinen Augen ist das MR-Thema zu überbewertet. Im praktischen Spielen fällt es nur an gewissen Stellen auf. Die Alternative wäre eine sehr geringe FPS-Rate, und das ist IMHO viel schlimmer als MRs. Sobald die Framerate über 50-60 FPS liegen, ist MR nicht so ein großes Problem, wie es von machen hier aufgebauscht wird. Bei 30-50 FPS ist es, je nach Spiel, mehr oder weniger störend. Unter 30 FPS wird es markant bemerkbar, aber dann ist die Alternative noch viel übler, 10-15 FPS macht kein Spaß.

Marty98
2013-02-27, 17:47:47
PHuV, man muss natürlich alles im Verhältnis sehen. Ich las hier im Forum schon mehrmals die Aussage dass sich eine GTX690 mehr lohnt als eine Titan, weil der Balken länger ist bei einem günstigeren Preis. In der Realität dürfte die Titan aber bei der Mehrheit der Spiele das deutlich bessere Spielgefühl bieten. (ich finde sie viel zu teuer, aber es ist schon ok dass sie teurer als eine 690 ist, bzw die 690 ist schon zu teuer für die gebotene Leistung).

Sunrise
2013-02-27, 18:13:18
Ich würde mal mit nie rechnen denn die Stückzahlen werden das nie rechtfertigen ;-) zumindest solange der Preis in diesen Regionen bleibt. Die Basis die so oder so kauft, kauft gerade oder hat gekauft der Markt wird eher kleiner wie größer in Zukunft.
Der aktuelle Preis schließt ja so oder so schon die Massen aus. Wenn wir mal ehrlich sind, würde sicher fast jeder gerne so eine Karte im Rechner haben, der auch mit der Leistung etwas anzufangen weiß. Das mit den Stückzahlen stimmt aber so nicht, denn auch eine Ares2 wird produziert und verkauft (http://www.mindfactory.de/product_info.php/info/p834907/pid/geizhals) (10 Stück alleine bei Mindfactory). Und von einer Ares2 gibt es mit Sicherheit geringere Stückzahlen als bei einer Titan, die noch unter der 1000 EUR-Schwelle liegt.

Bei dem Punkt mit dem Interesse der Käufer magst du zwar Recht haben - dem kann ich auch teilweise folgen (early adopter, dann tröpfelt es nur noch vor sich hin) - aber gegen eigene Modelle der Board-Partner spricht das überhaupt nicht. Es gibt auch viele Käufer, die möchten nichts "von der Stange" für 950 EUR, auch wenn das Gesamtpaket bei der Titan durchaus stimmig ist.

MartinRiggs
2013-02-27, 18:18:58
Ich bin mittlerweile froh über Titan, dadurch konnte sehr günstig an ne GTX680 kommen.

Verrückte High-End Käufer sind schon was feines:)

PHuV
2013-02-27, 18:30:27
Ich bin mittlerweile froh über Titan, dadurch konnte sehr günstig an ne GTX680 kommen.
Jedoch würde sich für mich der Wechsel von 3 580er auf 3 680 auch nicht so richtig lohnen, weshalb ich die 680er bewußt ausgelassen habe. Ich habe beispielsweise die 480er auch übersprungen. Man muß nicht jeden Schritt mitmachen. Jedoch ist der Preis für die Titan für mich momentan zu abartig.

boxleitnerb
2013-02-27, 18:41:46
Kann man bei Titan den Takt mit dem NV Inspector-Trick auch festpinnen? Weiß jemand, wie PCGH das gemacht hat? Würde gern ein paar Untersuchungen zum Verbrauch bei verschiedenen Temperaturen machen.

Edgecrusher86
2013-02-27, 18:45:34
P2-State-Trick. ;)


Du hast die Möglichkeit mit dem Inspector den P2-Lock (samt manuellem Setzen der Taktraten) zu fahren, da kannst du auch vom P0 ne feste Voltage nutzen.
Zumindest sollte es dann gehen, dass du zwei Verknüpfungen baust, einmal mit dem Lock und einmal normal.

http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-680-faq-oc-benches-bei-fragen-erste-seite-lesen-880765-41.html#post18662033

Du kannst das auch über Verknüpfungen mit der Inspector.exe machen - häng dann im Ziel für den P2-Lock hinter

...\nvidiaInspector.exe" -setPStateLimit:0,2 an.
Für eine Verknüpfung mit P0 -> -setPStateLimit:0,0

Dann im Inspector:

Im P0 VCore und Power-Target einstellen.
Dann im P2 oben im Inspector auf "Unlock Max", um höhere Taktraten fahren zu können.

Zumindest kannst du so hin und her switchen. :)

MfG
Edge

boxleitnerb
2013-02-27, 18:49:29
Thx.
Also P0 und danach P2 auf den gewünschten Takt setzen? Warum eigentlich zweimal?

Edgecrusher86
2013-02-27, 18:50:20
Siehe Edit - musste auch nochmal nach suchen. ;)

boxleitnerb
2013-02-27, 18:54:35
Muss der P2-Takt gleich dem P0-Takt sein oder nur höher liegen?
D.h. ich habe effektiv nur idle-Takt und den fixen Takt, nichts dazwischen, korrekt?

Edgecrusher86
2013-02-27, 19:00:02
Ja, wenn man den P2-Trick mit festen Taktraten - ohne Boost - haben möchte, dann muss hier der P0 gesetzt sein. :)
Nun ja, den P5 sollte es dazwischen (oberhalb P8) ja auch noch geben bei TITAN.

boxleitnerb
2013-02-27, 19:04:33
Da steige ich grad nicht durch. Was ist P2 und was ist P0?
Kann ich damit auch Taktraten unterhalb von P0 einstellen? Also P2 und P0 beide auf z.B. 700 MHz stellen?

Angiesan
2013-02-27, 20:12:35
Ich habe doch nirgendwo gesagt dass NVidia das Problem nicht hat. Nur ist es bei AMD eklatant, bei Nvidia hält es sich in Grenzen (ist aber nicht optimal). Es gibt sogar Spiele wo diese Ruckler bei Nvidia schlimmer sind, das sind aber Ausnahmen.

Das Thema ist eher was ist schlimm?
Wir haben die Möglichkeit es zu messen und das macht es erst schlimm, früher sagte man halt das spiel fühlt sich irgendwie ruckelig an und man konnte es nicht so richtig zuordnen.Und ja mal trifft es den einen und mal den anderen Hersteller, bei CF und Sli ist die Sache ja wohl klar und da kann ich dann ab kommender Woche auch nach über 3 Jahren MGPU freier Zeit wieder mitreden, aber bei einer GPU trifft es bis auf wenige Spiele meiner Meinung nach beide. Das Nvidia da vielleicht durch die Erfahrung in M GPU Bereich besser und schneller Reagieren können möchte ich ja nicht bestreiten , aber es zu pauschalisieren AMD hat auch im S GPU Bereich immer MR ist einfach nicht richtig.
Jetzt hast Du es ja relativiert, z.B. Hitman, läuft auf der HD 7950 @1100 vollkommen MR frei komischerweise nicht im Benchmarktool:confused: da muss man nicht messen, dass sieht man, dafür aber viel schneller wie eine GTX 670 @1200 MHz die dort optisch überhaupt nicht zuckt:cool: Dafür ist der Performance Vorteil den der Benchmark für die HD 7950 gerne sehen will in Game deutlich kleiner:wink: ein Schuft der Böses dabei denkt:biggrin:

Angiesan
2013-02-27, 20:14:48
@ Boxi sind deine 2 Fetten etwa schon da??? Da bin ich aber mal auf dein Userbericht gespannt, nervös F5 drück:biggrin:

boxleitnerb
2013-02-27, 20:18:58
Heute ging das Paket raus, Freitag sind sie auf jeden Fall da, evtl. schon morgen.

Angiesan
2013-02-27, 20:30:19
Heute ging das Paket raus, Freitag sind sie auf jeden Fall da, evtl. schon morgen.
Du Glücklicher ich darf wohl noch bis kommende Woche Dienstag auf mein Paket aus USA warten und dann ist nur eine GTX 690 drin, trotzdem Vorfreude ist da :ujump2:

boxleitnerb
2013-02-27, 20:32:53
Ich werde aber nicht den 08/15 Kram benchen, das hat man ja alles schon in Reviews gesehen. Eher ein paar exotische Sachen wie DS+AO, mehr SGSSAA usw. Für Vorschläge bin ich natürlich offen.

Angiesan
2013-02-27, 20:38:56
Och ich glaube da wirste nicht arbeitslos :biggrin: Setzt Du die eigentlich unter Wasser oder bleiben die an der frischen Luft?
Das mit dem DS interessiert mich sehr, ich habe mir die GTX gekauft weil die GTX 670 bei 2560 x 1080 im Vergleich zu 1920x1080 schon mal gerne 30 % ihrer FPS verloren hat und dann war das eben nicht mehr immer flüssig und wenn ich den Test auf HT4u mir angeschaut habe ist die GTX 690 mit zunehmender Auflösung den Single Karten immer mehr weggelaufen und die Skalierung geht zudem deutlich nach oben, in dem ein oder anderen Test hat da eine Titan nicht immer so gut abgeschnitten und deshalb ist es eine 690 er bei mir geworden. natürlich hätte ich auch gerne 2 von den Dingern aber ähhhh das war mir dann doch etwas zu viel des Guten:biggrin:

boxleitnerb
2013-02-27, 20:41:30
Wasser natürlich, Kühler sind bestellt aber noch nicht lieferbar.

Angiesan
2013-02-27, 20:46:09
was frag ich überhaupt:D

Godmode
2013-02-27, 21:03:17
Ich werde aber nicht den 08/15 Kram benchen, das hat man ja alles schon in Reviews gesehen. Eher ein paar exotische Sachen wie DS+AO, mehr SGSSAA usw. Für Vorschläge bin ich natürlich offen.

Genau dafür sind diese Karten doch da. Was mich etwas verwundert hat, waren die schlechten Leistungen in der PCGH von Titan mit DS in Crysis3, verglichen mit einer Radeon Toxic.

135i
2013-02-27, 21:14:59
Ich werde aber nicht den 08/15 Kram benchen, das hat man ja alles schon in Reviews gesehen. Eher ein paar exotische Sachen wie DS+AO, mehr SGSSAA usw. Für Vorschläge bin ich natürlich offen.

Haste Du Deine CPU auf mindestens5000Mhz getaktet, sonst kannste SLi vergessen.
Selbst wenn Du mit 'ner lahmen CPU auf SGSSAA spielst-die Min FPS steigen trotzdem nicht :D

Godmode
2013-02-27, 21:16:44
Haste Du Deine CPU auf mindestens5000Mhz getaktet, sonst kannste SLi vergessen.
Selbst wenn Du mit 'ner lahmen CPU auf SGSSAA spielst-die Min FPS steigen trotzdem nicht :D

Ich hoffe aus Ivy-E, vor allem dass er nicht so wird wie der normale Ivy. :freak:

derguru
2013-02-27, 21:18:03
Genau dafür sind diese Karten doch da. Was mich etwas verwundert hat, waren die schlechten Leistungen in der PCGH von Titan mit DS in Crysis3, verglichen mit einer Radeon Toxic.

Kepler schwäche halt oder radeon stärke,wie man es halt sehen will.:-)

boxleitnerb
2013-02-27, 21:18:19
50-60fps min reichen mir, ich spiele eh mit VSync. Wenn die CPU ein paar Sekündchen mal limitiert ist mir das ziemlich egal ;)
Ich dreh die Qualität halt entsprechend hoch, dass ich die meiste Zeit GPU-limitiert bin. Ich muss das nicht aufs Allerletzte ausreizen.

135i
2013-02-27, 21:20:19
Ich hoffe aus Ivy-E, vor allem dass er nicht so wird wie der normale Ivy. :freak:
Bis dahin gibt's die Titan für "lau" :) , aber ohne DX11.1 weiterhin uninteressant :(

Godmode
2013-02-27, 21:21:25
Bis dahin gibt's die Titan für "lau" :) , aber ohne DX11.1 weiterhin uninteressant :(

Also ich bin mir da nicht mehr so sicher. Klar sie wird auf 750-800 Euro fallen, aber lau ist das IMO immer noch nicht. GTX 690 läuft auch eher aus, als das sie noch viel billiger werden würde.

Btw. das haben sie schlau gemacht, das sie der 690 nur 2 Gb verpasst haben...

135i
2013-02-27, 21:25:46
Also ich bin mir da nicht mehr so sicher. Klar sie wird auf 750-800 Euro fallen, aber lau ist das IMO immer noch nicht. GTX 690 läuft auch eher aus, als das sie noch viel billiger werden würde.

Btw. das haben sie schlau gemacht, das sie der 690 nur 2 Gb verpasst haben...

Deswegen auch die die Gänsefüschen.
Ich möchte derzeitige Kaufentscheidungen nicht schlecht reden, ich selbst war für 'nen gewissen Moment begeistert , aber (für mich) nüchtern betrachtet - mittlerweile nicht lohnenswert.

Godmode
2013-02-27, 21:41:24
Deswegen auch die die Gänsefüschen.
Ich möchte derzeitige Kaufentscheidungen nicht schlecht reden, ich selbst war für 'nen gewissen Moment begeistert , aber (für mich) nüchtern betrachtet - mittlerweile nicht lohnenswert.

Begeistert bin ich auch nicht. Die Leistungssteigerung finde ich ehrlich gesagt lächerlich. Aber meine Theorie sagt mir trotzdem, das es für mich jetzt das beste ist diese überteuerte Karte zu kaufen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539344

Hätte ich beide 690er noch, würde ich wohl nichts machen.

Orbmu2k
2013-02-27, 21:51:07
Da steige ich grad nicht durch. Was ist P2 und was ist P0?
Kann ich damit auch Taktraten unterhalb von P0 einstellen? Also P2 und P0 beide auf z.B. 700 MHz stellen?

Das sind die Performance States
P12/8 = Idle
P5 Bluray etc.
P2 Multimonitor (seit Kepler ab 3 Displays)
P0 = Volle Pulle,

Keine Ahnung mit dem P2 Trick bei Titan (meine liegt bei der Post) aber bei der 680 wars so:

Nachdem du P2 gelockt hast, musst du im P0 das Offset hochziehen egal wie hoch, also von mir aus auch +400, es muss nur höher sein als du takten willst. Passiert ja nix er ja nicht mehr in den P0 darf. Du brauchst das weil der P2 sich sonst nur bis zum P0 Offset hochtakten lässt (Est.Max).

Voltage würd ich aktuell mal die Finger vom Inspector lassen das sieht komisch aus beim Titan, nimm dafür Precision X.

Dann kannst du ganz normal takten wie bei Fermi, nur halt im P2 statt P0.

Allerdings ist das Powerlimit damit nicht zu umgehen das greift IMMER!

Alternativ kannst du auch K-Boost nehmen, das ist son Hack vom Precision X wo er dem Treiber in der Registry erzählt es wäre ne Mobile Karte mit PowerMizer und die darf nicht mehr runtertakten. Aber dafür brauchste nen Treiber/Rechner Neustart und die bleibt dann immer auf Boost kein Idle mehr.
Powerlimit greift dort aber genauso.

boxleitnerb
2013-02-27, 21:54:30
Thx für die Erklärung.
Was ist, wenn ich die Spannung nicht anfasse? Welchen Wert würde er dann nehmen?

Orbmu2k
2013-02-27, 21:58:55
Thx für die Erklärung.
Was ist, wenn ich die Spannung nicht anfasse? Welchen Wert würde er dann nehmen?

Spannung und Speichertakt ist bei P2 und P0 immer gleich. Bei GPU Boost nimmt er also automatisch die passende Spannung zum Takt, analog zur Offset Variante.

boxleitnerb
2013-02-27, 22:02:15
Wieso hast du dann die Spannung erwähnt? Um in noch höhere Boostregionen zu kommen? Das wollte ich eh nicht, ich will ja so nicht übertakten, sondern nur den Takt für ein paar Tests festpinnen.

akuji13
2013-02-27, 23:35:49
So ich habs getan...und ne Titan geordert. :freak:
Halb so schlimm, hab sofort nen guten Preis für meine 680 bekommen.

Nach einem Abend spielen mit einer 690 muss ich sagen...SLi ist für mich nix.
Dann lieber weniger Leistung und garantiert keine MR.

Außerdem bin ich immer noch skeptisch, ob bei der 690 in der Zeit in die ich sie nutze, nicht vielleicht doch irgendwann der VRAM limitiert.

135i
2013-02-27, 23:46:10
Laut Usertest Crysis3 in 2560x1440 8xMSAA, Titan 2waySLI , massig unter 60FPS. :rolleyes:

http://www.computerbase.de/forum/showthread.php?t=1177730&p=13571261#post13571261

dildo4u
2013-02-27, 23:47:32
Performance Bug im ersten Level.

http://maldotex.blogspot.de/2013/02/performance-bug-in-crysis-3-first-level.html

derguru
2013-02-27, 23:55:02
Laut Usertest Crysis3 in 2560x1440 8xMSAA, Titan 2waySLI , massig unter 60FPS. :rolleyes:

http://www.computerbase.de/forum/showthread.php?t=1177730&p=13571261#post13571261
lustig,was haste dir bei den settings vorgestellt? unter 60fps sollten ganz normal sein.

schaumal da rein.;)
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/17/

dildo4u
2013-02-27, 23:57:57
Die scheinen noch Luft zu haben,viel höher als bei CB.

http://www.3dmark.com/3dm/302983


http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/25/

Körschgen
2013-02-28, 04:06:24
Noch ne Frage bzgl. der Diskussion vor ein paar Seiten, obwohl sie eigentlich ein wenig offtopic ist/war:

Es wird ja immer wieder gesagt, dass wegen GCN + Konsolendeals seitens AMD Direct-Compute mehr Einzug in Games erhalten wird.

Jetzt frage ich mich, ob das so der Fall sein wird, da in den Konsolen (vor allem PS4) ja keine 7900er , sondern eher eine Pitcairn-ähnliche Lösung verbaut werden wird, die ja technisch gesehen das Pendant zum GK104 ist.

Nun ist Pitcairn ja auch nicht so überragend in der Compute-Leistung, wenn ich mich recht entsinne...

Sehe ich das richtig oder müssen die NV-Karten-Besitzer (z.B. ich ;) ) doch Angst vor künftigen Entwicklungen haben?

boxleitnerb
2013-02-28, 06:18:02
Ich bin gerade am Vorbereiten meines Userreviews, eins ist mir noch unklar bzgl. Spannungen:

Sehe ich das richtig, dass es nicht möglich ist trotz P2-State Trick bei fixem Takt die Spannung explizit einzustellen?

Ich würde nämlich gerne die Leistungsaufnahme in Abhängigkeit des Takts messen, aber eben bei konstanter Spannung. Also z.B.
700 MHz@1.175V
800 MHz@1.175V
900 MHz@1.175V

Raff
2013-02-28, 08:54:43
Nimm doch einfach Precision X 4.0 und dort den "K-Boost".

MfG,
Raff

boxleitnerb
2013-02-28, 10:01:29
Ich möchte den Neustart lieber umgehen, deshalb wende ich schon den P2-Trick an. Aber ich lass glaub ich diesen Teil meiner Messungen weg, weil praxisrelevant ist das nicht wirklich, da der Boost ja die Spannungen bestimmt.

BigKid
2013-02-28, 10:19:24
Ich halte auch seit heute Morgen den Titanen in den Händen...
Fasst sich gut an das Ding...
War ein Versehen... :redface:
Ich sah bei Alternate gestern "verfügbar in 1-3 Tagen" und dachte - ok - jetzt stellst du dich einfach schonmal an - dann kannst du noch 1-2 Tage mit dem SLI spielen und dich dann entscheiden...

Und heute Morgen klingelt der Postpote... Ich konnte mein Konto in dem Moment echt aufschreien hören... :eek:

Nu egal... Ich werde sicher kein professionelles Review bieten - dazu fehlt mir einfach die Zeit- aber ich werde in dem Thread http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539294 trotzdem heute Nachmittag ab 16:00 Uhr ein paar laienhafte Vergleiche anstellen...

Am Ende will ich ja eine Entscheidung treffen...
Und ja - irgendwie hat das Kind jetzt gesiegt ! Aber ich gebe mich noch nicht ganz geschlagen ;)

akuji13
2013-02-28, 10:58:51
War ein Versehen... :redface:

Schon fast schade das meiner Freundin die Hardwarekäufe egal sind, ich hätte zu gerne gesagt "Schatz, der Kauf war ein Versehen!". :biggrin:

Raff
2013-02-28, 11:03:19
Gut gemacht, Jungs. Wenn sich die Dinger zum Wahnpreis verkaufen, hält Nvidia an diesem Wahnplan fest. :ugly: Wie gut, dass ich auch mit AMD-Grafikkarten glücklich sein kann. :D

MfG,
Raff

BigKid
2013-02-28, 11:05:08
Gut gemacht, Jungs. Wenn sich die Dinger zum Wahnpreis verkaufen, hält Nvidia an diesem Wahnplan fest. :ugly: Wie gut, dass ich auch mit AMD-Grafikkarten glücklich sein kann. :D

MfG,
Raff
:redface:
Ja ich weiss doch...
Ist bei mir auch noch nicht entschieden...

Schon fast schade das meiner Freundin die Hardwarekäufe egal sind, ich hätte zu gerne gesagt "Schatz, der Kauf war ein Versehen!". :biggrin:
Erinner mich nur daran nicht... Meiner Lebensgefährtin ist das sicher nicht ganz egal... Wir sind zwar nicht Verheiratet aber seit 12 Jahren zusammen...
Allerdings werde ich da sicher keine Ausrede bringen... Wenn SLI sich Titan (Für meine Bedürfnisse) geschlagen geben muss - dann wird das ein "ich WOLLTE es haben" - Punkt.

Godmode
2013-02-28, 11:05:18
Gut gemacht, Jungs. Wenn sich die Dinger zum Wahnpreis verkaufen, hält Nvidia an diesem Wahnplan fest. :ugly: Wie gut, dass ich auch mit AMD-Grafikkarten glücklich sein kann. :D

MfG,
Raff

Das würde auch passieren wenn hier nicht gekauft werden würde. Es gibt genug Leute denen es egal ist, was das Zeug kostet. Ein Boykott funktioniert bei so etwas nie.

akuji13
2013-02-28, 11:12:33
Wie gut, dass ich auch mit AMD-Grafikkarten glücklich sein kann. :D

Ja, so anspruchslos war ich auch mal! :D

Spaß. ;)

Gut gemacht, Jungs. Wenn sich die Dinger zum Wahnpreis verkaufen, hält Nvidia an diesem Wahnplan fest. :ugly:

Das würde auch passieren wenn hier nicht gekauft werden würde. Es gibt genug Leute denen es egal ist, was das Zeug kostet. Ein Boykott funktioniert bei so etwas nie.

Ich behaupte sogar, NV macht das selbst wenn sich im Endkundenbereich nix verkaufen würde.

Es wird genug im Profibereich abgesetzt und es geht auch nicht allzu knapp ums Prestige: ein solches Produkt floppt nicht, niemals. ;)

Und Raff: das ist unfair...du durftest das Teil schon anfassen und testen, ohne Kauf habe ich nie die Möglichkeit meine Neugierde zu befriedigen! :D

Gibts irgendwo exakte Maße des Kartenhecks? Möchte einen Lufttunnel bauen. :)

Skysnake
2013-02-28, 11:52:43
Das würde auch passieren wenn hier nicht gekauft werden würde. Es gibt genug Leute denen es egal ist, was das Zeug kostet. Ein Boykott funktioniert bei so etwas nie.
Mit der Einstellung definitiv ;)

Es gibt durchaus Beispiele, das man etwas bewegen kann. Ich sag nur AGB bei verschiedenen Diensten ;)

Godmode
2013-02-28, 12:08:27
Mit der Einstellung definitiv ;)

Es gibt durchaus Beispiele, das man etwas bewegen kann. Ich sag nur AGB bei verschiedenen Diensten ;)

Wie gesagt, wir könnten uns schon zusammenreisen im 3DC aber dann gibt es noch: CB, PCGH, LUXX, ....

Du müsstest jeden Meschen mit Kaufabsicht überzeugen. Der Großteil der Kundschaft kauft sowas nicht, aber die 5% kaufen dafür umso lieber.

BigKid
2013-02-28, 12:09:52
Mit der Einstellung definitiv ;)

Es gibt durchaus Beispiele, das man etwas bewegen kann. Ich sag nur AGB bei verschiedenen Diensten ;)
Es wäre einfacher wenn es eine Alternative gäbe...
In meinem Fall ist das schwer weil ich halt nicht zu AMD will (wie gesagt persönlicher Bias): Es gibt eigentlich nur SLI... Und wenn Titan das schlägt (bezogen auf meine Präferenzen)...

akuji13
2013-02-28, 12:26:13
Ich finde diese ganze Preisdiskussion arg lächerlich.
Luxus ist und wahr schon immer zu teuer und schon immer nicht seinen Preis wert.

2001 habe ich ne Geforce 2 Ultra für fast 1400 DM erstanden, umgerechnet auf heute ist der Titan Preis ok.

Ist ja nicht so, das irgendeiner kaufen müsste, geschweige denn einen Rechner besitzen um damit etwas völlig überflüssiges (=spielen) zu machen...

Godmode
2013-02-28, 12:28:42
Ich finde diese ganze Preisdiskussion arg lächerlich.
Luxus ist und wahr schon immer zu teuer und schon immer nicht seinen Preis wert.

2001 habe ich ne Geforce 2 Ultra für fast 1400 DM erstanden, umgerechnet auf heute ist der Titan Preis ok.

Aber wenn du ehrlich bist zu dir: Ist Titan wirklich Luxus? Wenn du den 560 mit ner 580 vergleichst, könntest du genau so eine 680 mit ner Titan vergleichen, mit dem Unterschied im Preis. Für Luxus will ich luxuriöse Leistung und keinen Kompromiss. Titan ist aber ein Kompromiss aus Ausbeute, Leistung, Lautstärke, Stromverbrauch.

Der Preis ist deshalb nicht ok, weil seit 28nm Performance zu Highend Preisen verkauft wird und Highend zu kranken Preisen verkauft wird. Es kann mir niemand erzählen, das die Chips jetzt so überproportional teurer geworden sind. IMO will Nvidia die zurückgehenden Stückzahlen mit höheren Preis abfedern.

BigKid
2013-02-28, 12:34:20
IMO will Nvidia die zurückgehenden Stückzahlen mit höheren Preis abfedern.
Was irgendwo auch legitim wäre... Wenn in Maßen gemacht...
Bei Titan finde ich es irgendwie unanständig (mal unabhänig davon dass ich gerade schon halb eingeknickt bin...)

MartinRiggs
2013-02-28, 13:20:42
Jedoch würde sich für mich der Wechsel von 3 580er auf 3 680 auch nicht so richtig lohnen, weshalb ich die 680er bewußt ausgelassen habe. Ich habe beispielsweise die 480er auch übersprungen. Man muß nicht jeden Schritt mitmachen. Jedoch ist der Preis für die Titan für mich momentan zu abartig.

Naja das stimmt wohl, für mich lohnt es sich von ner GTX480 auf ne GTX680.
Den Neupreis für eine GTX680 hätte ich nie bezahlt, aber man muss ja auch mal Glück haben.:)

akuji13
2013-02-28, 13:21:32
Aber wenn du ehrlich bist zu dir: Ist Titan wirklich Luxus?

Ja,

Zu wenig Leistung für den Preis, ein Produkt was man nicht braucht, so definiere ich Luxus.

Dinge, die man sich aus irrationalen Gründen gönnt. :D


Für Luxus will ich luxuriöse Leistung und keinen Kompromiss. Titan ist aber ein Kompromiss aus Ausbeute, Leistung, Lautstärke, Stromverbrauch.

Bekommst du so weder bei Autos, noch Uhren, noch Häusern, noch Essen. ;)
Autos schneiden noch am Besten ab, ansonsten bezahlt man vor allem den Namen.

Im Vergleich mit den anderen Dingen kommt Titan sogar noch sehr gut weg.

Godmode
2013-02-28, 13:23:22
Ja,

Zu wenig Leistung für den Preis, ein Produkt was man nicht braucht, so definiere ich Luxus.

Dinge, die man sich aus irrationalen Gründen gönnt. :D



Bekommst du so weder bei Autos, noch Uhren, noch Häusern, noch Essen. ;)

Autos schneiden noch am Besten ab, ansonsten bezahlt man vor allem den Namen.

Wenn ich mir ne luxxus Karre kaufe, dann ist die auch doppelt so leistungsfähig wie eine Mainstream Karre. Bei Titan sehe ich das nicht.

BigKid
2013-02-28, 13:38:37
Wenn ich mir ne luxxus Karre kaufe, dann ist die auch doppelt so leistungsfähig wie eine Mainstream Karre. Bei Titan sehe ich das nicht.
Naja... Du zahlst auch für bessere Materialien und Verarbeitung neue Features die die Massenwahre nicht hat... Und den Namen...
Und du zahlst auch MEHR als das 2-3 fache um das zu bekommen. Und auch die dicksten Luxus Karren müssen Kompromisse eingehen - die Gesetze der Physik setzen die auch nicht ausser Kraft - auch wenn manche das glauben - aber die nächste Kurve kann einen da schon endgültig eines besseren belehren...
(Nehmen wir mal nen Passat als GTX670 (gehobene Mittelklasse) und die Titan wie nen Porsche...)

Und ähnliches wurde bei Titan schon alles auch irgendwo versucht...
- eigene "Marke"
- Mehr compute Power freigegeben
- Monitor OC
- DEUTLICH besserer Kühler als andere non Custom Karten
- und Titan IST vermutlich die schnellste Single-GPU... Du müsstest sie also mit dem schnellsten Auto mit Zulassung vergleichen (und das kriegste nicht zum 2x3 fachen Preis)...

Beim Lüfter ist man IMHO nicht weit genug gegangen - aber ich habs auch noch nicht selbst gehört... Werd ich aber die Tage mal in Ruhe in meinem Rechner testen...

akuji13
2013-02-28, 14:08:21
Wenn ich mir ne luxxus Karre kaufe, dann ist die auch doppelt so leistungsfähig wie eine Mainstream Karre. Bei Titan sehe ich das nicht.

Ne Uhr für 35.000€ zeigt die Zeit auch nicht 2x (Nachlauf ect.) so genau an wie eine für 500€, lediglich genauer.
Meistens haben die teuren, handgemachten Uhren sogar einen Nachteil:
Es sind meistens Automatiklaufwerke, die wenn die Uhr nicht so oft getragen wird stehenbleibt.

Eine Luxus Karre ist doch meistens ein Sportwagen...wenig Platz im Fahrgastraum, ohne richtigen Kofferraum und mit unkomfortablem Fahrwerk.
Dazu laut und sprit-schluckend. ;)

Vertu-Handys für bis zu 80.000€ können nichts mehr oder besser als Geräte bis 1000€.
Selbst die Verarbeitung ist strittig, von Hand gebaut heißt nicht automatisch besser als das ein Roboter macht. ;)

Luxus und perfektes Produkt, das geht ganz selten zusammen.
Ich bleibe dabei: im Verhältnis macht die Titan ne Menge richtig.

Naja... Du zahlst auch für bessere Materialien und Verarbeitung neue Features die die Massenwahre nicht hat...

Wenn du überhaupt bessere Materialen/Verarbeitung bekommst.
Wir haben auf der Arbeit häufiger Ferraris zu Gast, was man da so sieht ist erschreckend.

Man bezahlt zu einem großen Teil den Namen.

Marty98
2013-02-28, 14:29:27
Wenn ich mir ne luxxus Karre kaufe, dann ist die auch doppelt so leistungsfähig wie eine Mainstream Karre. Bei Titan sehe ich das nicht.

Ist ein Sportwagen für 100.000 doppelt so leistungsfähig wie einer für 50.000? Das bezweifle ich stark.

Scose
2013-02-28, 14:40:54
Solche Vergleiche haben immer einen kleinen Hacken, speziell mit Fahrzeugen.

Wenn ich die Titan mit Intels Extreme CPU's vergleiche, sieht das dann plötzlich völlig anders aus.

Bei Titan erhalte ich wenigstens einen echten Mehrwert, schnellste sGPU, jede Menge Speicher und vielleicht aus das gute Gewissen etwas Spezielles aka E-Penis zu besitzen.

Bei den Extremes kann ich für einen Bruchteil des Preises das identische Stück Silizium kaufen und ebenso bis zum Anschlag übertakten.

Ich bin jedenfalls eher bereit für eine GPU um die 800€ auszugeben als für eine CPU. Als GTX690 Besitzer stellt sich für mich die Frage nicht aber ansonsten wär das Teil schon eingebaut.

Godmode
2013-02-28, 15:00:57
Ne Uhr für 35.000€ zeigt die Zeit auch nicht 2x (Nachlauf ect.) so genau an wie eine für 500€, lediglich genauer.
Meistens haben die teuren, handgemachten Uhren sogar einen Nachteil:
Es sind meistens Automatiklaufwerke, die wenn die Uhr nicht so oft getragen wird stehenbleibt.

Eine Luxus Karre ist doch meistens ein Sportwagen...wenig Platz im Fahrgastraum, ohne richtigen Kofferraum und mit unkomfortablem Fahrwerk.
Dazu laut und sprit-schluckend. ;)

Vertu-Handys für bis zu 80.000€ können nichts mehr oder besser als Geräte bis 1000€.
Selbst die Verarbeitung ist strittig, von Hand gebaut heißt nicht automatisch besser als das ein Roboter macht. ;)

Luxus und perfektes Produkt, das geht ganz selten zusammen.
Ich bleibe dabei: im Verhältnis macht die Titan ne Menge richtig.



Wenn du überhaupt bessere Materialen/Verarbeitung bekommst.
Wir haben auf der Arbeit häufiger Ferraris zu Gast, was man da so sieht ist erschreckend.

Man bezahlt zu einem großen Teil den Namen.

Ka vielleicht habe ich zu hohe Ansprüche. Das Beispiel mit der Uhr gefällt mir gar nicht. Gerade eine teure Uhr kaufe nicht nicht wegen der Uhrzeit, sonder weil sie schön ist. Titan kaufe ich aber nicht weil er leise und schön ist, sondern weil er schneller ist, als die anderen Karten. Naja egal, jeder hat da seine eigenen Vorstellungen ich will das Thema hier nicht noch mehr strapazieren.