PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12

dargo
2015-03-21, 16:18:59
Interessant ist aber, wie empfindlich Du darauf reagierst, weil Du den Eindruck hattest, ich würde Deine Ausgaben im Audiophilen Bereich kritisieren.
Empfindlich? Lol... du interpretierst viel zu viel in meinen Post was dort gar nicht steht. Bin total relaxt. :) Ob du jemand meine Ausgaben kritisierst oder nicht ist mir schnurz egal.

Rente
2015-03-21, 16:21:17
Das mache ich doch gar nicht. Gerade im Gegenteil. Du solltest mal lernen zu lesen! Wirklich.

Im Gegenteil dazu all diejenigen, die durch die Zeilen durchblicken lassen, dass sie *mich* als Spinner sehen, weil ich mir ne Titan X hole.

Interessant ist aber, wie empfindlich Du darauf reagierst, weil Du den Eindruck hattest, ich würde Deine Ausgaben im Audiophilen Bereich kritisieren. Im Austeilen dann beim Thema "Ausgaben für extreme Grafikkarten" bist Du dann aber wieder weit vorne... Der Audio-Vergleich hinkt trotzdem weil die technische Entwicklung in diesem Bereich überhaupt nicht vergleichbar mit der technischen Entwicklung bei Grafikkarten und Monitoren ist.
Die Zeiträume sind viel länger und die Qualitätssteigerung über die Jahre sehr viel geringer.

Smartphones wären aus meiner Sicht passender, aber auch dort ist die Preissteigerung (sicherlich dank der großen Auswahl) bei weitem nicht so extrem, die Entwicklungszeiträume aber ähnlich kurz.

Man könnte also meinen du müsstest dir deine Investition schön reden. ;)

Edit: Und bevor mir irgendwas unterstellt wird: Ich gönn' dir die X, ich hätte auch gern eine.

Simon Moon
2015-03-21, 16:22:40
Du, ich und ein Großteil aus dem Forum sind informiert genug, das einzuschätzen. Aber wir sind ein Bruchteil eines Marktes. Die Masse wird nunmal sehr sehr stark von den Meinungsmultiplikatoren getrieben. Wenn es da ordentlich Gegenwind gäbe, würde sich vermutlich auch ein besseres P/L einstellen, weil weniger Leute überzeugt davon sind und zugreifen. (das müsste natürlich global passieren, was nicht realistisch ist)


Die Masse kauft aber auch nicht Titans. Dort werden eher LowCost Modelle mit viel RAM abgesetzt - in der Masse gilt immer noch viel RAM = viel Leistung.

Die Titan-Käufer schätze ich so ein, dass die eh genug Kohle haben und sie der Preis nicht schärt oder sich mit der Materie schon befassen.

Grestorn
2015-03-21, 16:23:26
Empfindlich? Lol... du interpretierst viel zu viel in meinen Post was dort gar nicht steht.

"Du kannst mich gerne einen Spinner nennen..."

:tongue:

Dafür dass ich das gar nicht gemacht habe, hast Du mein Posting schon recht empfindlich interpretiert.

Der Audio-Vergleich hinkt trotzdem weil die technische Entwicklung in diesem Bereich überhaupt nicht vergleichbar mit der technischen Entwicklung bei Grafikkarten und Monitoren ist.
Die Zeiträume sind viel länger und die Qualitätssteigerung über die Jahre sehr viel geringer.
EBEN. Danke für die Argumentationshilfe.

Man könnte also meinen du müsstest dir deine Investition schön reden. ;)
Sicher nicht :)

Ich mag es nur nicht, wenn man mir unterstellt, ich würde a) sinnlos Geld ausgeben und b) damit auch noch generell für steigende Preise im Segment sorgen.

aufkrawall
2015-03-21, 16:24:18
Abgesehen davon ist dein Argument Augenwischerei.
Mehr als voll aktivierte Highend-GPU mit irsinnig viel Speicher geht eben nicht.
Ansonsten ist eine WK in großer Serienfertigung auch nicht mehr sehr teuer, wo soll die Preissteigerung für den Konsumer herkommen?

Ist eben die schnellste GPU und vom Preis her offenbar genau richtig, markttechnisch gesehen.
Ich finds nur schade, dass so viele Leute dieses Modell unterstützen, welches so furchtbar einfach zu durchschauen und eigentlich unehrlich ist.

mironicus
2015-03-21, 16:25:51
Jeder hier im Forum der sich eine Titan X holen will muss sich erst mal eine Genehmigung einholen. Dann wird darüber diskutierst ob man das überhaupt besitzen darf und abschließend berät ein Kommitee und der muss den Antrag einstimmig annehmen. Dann erst kann der Kauf getätigt werden. :D

cR@b
2015-03-21, 16:27:29
Pure und typische Konsumsucht halt...
Jeder Mensch hat so seine Gründe warum, weshalb und wieso.
Ich leb halt nur einmal und kanns mir leisten, deswegen ist es mir wurscht. Ne Zeit lang (in jüngeren Jahren) habe ich das aus Prinzip schon nicht unterstützt aber man wird halt älter und ich will mitnehmen was im Bereich des machbaren ist :ugly:

Grestorn
2015-03-21, 16:27:48
Ich finds nur schade, dass so viele Leute dieses Modell unterstützen, welches so furchtbar einfach zu durchschauen und eigentlich unehrlich ist.

Und wieder der Vorwurf, ich wäre a) nicht in der Lage irgend etwas zu durchschauen und würde b) ein unehrliches Modell unterstützen.

Es beginnt zu nerven. Wirklich.

Ich leb halt nur einmal und kanns mir leisten, deswegen ist es mir wurscht. Ne Zeit lang (in jüngeren Jahren) habe ich das aus Prinzip schon nicht unterstützt aber man wird halt älter und ich will mitnehmen was im Bereich des machbaren ist :ugly:

Als junger Mensch ist man oft idealistisch und sowohl in der Lage als auch bereit mit einem Minimum an Komfort und Luxus auszukommen. Und das ist auch ok so.

Irgendwann merkt man, dass man nur das eine Leben hat, und dass man einfach das für sich beste daraus machen muss. Wenn das heißt, sich ein schönes Häuschen zu bauen, viel in Urlaub zu fahren und dabei bequem und luxuriös zu reisen oder eben die neueste, überteuerte GraKa zu kaufen, weil man nie wieder zu wenig VRAM haben will, dann ist das gut so.

Andere stecken all ihr Geld und all ihre Arbeit in ihre Kinder oder in irgendein Unternehmen oder was auch immer. Das ist genauso ok. Ich möchte mich nicht hinstellen, über den Lebensentwurf irgendeines Menschen zu urteilen, nur weil es nicht der meine ist.

Orbmu2k
2015-03-21, 16:28:38
Redet sich nicht jeder seine Investionen irgendwie schön? Dabei spielt es noch nicht mal eine Rolle ob es um nun Luxusprodukt oder den Preisleistungssieger geht. Am Ende kann man immer dagegen halten wie notwendig die Anschaffungen generell sind.

Wer die Titan X kauft wird seine Gründe haben, jedwede Kritik an der persönlichen Bereitschaft zu dieser Investition ist überflüssig.

cR@b
2015-03-21, 16:29:37
Und wieder der Vorwurf, ich wäre a) nicht in der Lage irgend etwas zu durchschauen und würde b) ein unehrliches Modell unterstützen.

Es beginnt zu nerven. Wirklich.

Nehms doch nicht so persönlich. Ich werde für meine Titan heute noch belächelt. Ja und? Ich bin damit zwei Jahre verdammt zufrieden gefahren und der Rest interessiert mich nicht...

dargo
2015-03-21, 16:30:03
Und wieder der Vorwurf, ich wäre a) nicht in der Lage irgend etwas zu durchschauen und würde b) ein unehrliches Modell unterstützen.

Es beginnt zu nerven. Wirklich.
Siehst du... dir fehlt das Quäntchen Gleichgültigkeit.

mironicus
2015-03-21, 16:31:30
dargo und seine Psychospielchen. :D

aufkrawall
2015-03-21, 16:31:45
Und wieder der Vorwurf, ich wäre a) nicht in der Lage irgend etwas zu durchschauen und würde b) ein unehrliches Modell unterstützen.

Es beginnt zu nerven. Wirklich.
Du nimmst aber auch alles persönlich und auf dich bezogen, liebe Güte..

Grestorn
2015-03-21, 16:37:02
Du nimmst aber auch alles persönlich und auf dich bezogen, liebe Güte..

ah ich vergaß, Du meintest natürlich alle Käufer der Titan außer mich, mit Deinem Satz, stimmts? :)

aufkrawall
2015-03-21, 16:42:57
Nein. Ich habe einfach gesagt, dass die Titan kein erstrebenswertes Geschäftsgebaren von NV ist.
Du hast das automatisch als Vorwurf an alle Käufer verstanden. So war das aber nicht gemeint. Ich finde es schade, weil NV so natürlich weiterhin auf diesen Zug setzt, anstatt wie früher auch ganz normale Highend GPUs zu ganz normalen Highend Preisen zu bringen.

Godmode
2015-03-21, 16:46:42
Hat jetzt eigentlich schon jmd. eine Titan X bestellt? Gibt es irgendwo welche lagernd, auf Geizhals finde ich bisher nichts.

THUNDERDOMER
2015-03-21, 16:48:08
Ich brauch kein Grafikkarte mit 12 GB. Wozu?

Ich habe 2GB und keins der Spiele die ich habe, kann voll ausgelastet werden. Hab nur PC-Spiele bis 2011. Ich spiele ja auch kein 4K :biggrin:

Mein alte Grafikkarte Geforce 8600GT hatte 512 MB und hat auch immer gereicht. Hat 8 Jahre lang überlebt :ugly:

OC_Burner
2015-03-21, 16:52:44
Das öffentliche Bekunden des haben und das haben wollen, wird immer jemanden auf den Tisch springen lassen. Wer A sagt muss auch B sagen oder man sagt garnichts.

AnarchX
2015-03-21, 17:03:56
Ja, entweder mit nur 6GB (bei 384bit) oder mit nur 256bit (bei 8GB). Das ist mir durchaus klar (der Preis dürfte aber eher Richtung €700 gehen, je nach dem wie sich Fiji platziert).
320-Bit 10GiB wäre auch möglich, wenn man Fiji mit 8GiB generell übertreffen will.


Jeder, der sich eine Titan X kauft weiß doch aber, was er bekommt. In der vorhergehenden Generationen standen die Titans eben für doppelten Speicher bei moderater Mehrleistung gegenüber den jeweils aktuellen Standardmodellen (die DP Leistung war für Spieler irrelevant).

Jetzt bekommt man den 3-fachen Speicher bei moderater Mehrleistung.

Ohne künstliche Limitierung der 980/970er wären es nur 1,5-facher Speicher.

Und wenn man sich die Aufpreise der 770 4GiB in 2013 anschaut, wären die (7GiB)/8GiB 970/980er, wohl rein von den Kosten vernachlässigbar.

mironicus
2015-03-21, 17:16:16
Ich brauch kein Grafikkarte mit 12 GB. Wozu?

Status. Kaufst du dir eine Titan X bist du am oberen Ende der Nahrungskette. Das ist wie ein Podest auf dem du dann sitzt und du kannst über alle hinwegblicken. Ist nur etwas einsam da oben. :freak:

aths
2015-03-21, 17:28:29
NV ist ein gewinnorientiertes Unternehmen. Die machen aus BWL-Sicht alles richtig. Aber die Presse muss zumindest, wenn es aus dem Ruder läuft, auch mal kritisch sein. Ein Gegenspieler, kein Jubelperser. Natürlich braucht es auch einen guten Marktbegleiter. Besser mehrere.

Titan wäre ein Titan wenn er etwas Außergewöhnliches leisten würde. Tut er aber nicht. +50 % in 2 Jahren sind ein Witz. Ich bin der letzte der was sagt, wenn eine richtig geniale HW rauskommt, die auch kostet. Die 8800 GTX wäre eine würdige Titan. >2 schneller als ihr Vorgänger. R300 wäre eine würdige Titan gewesen. Titan war IMO auch noch so halbwegs eine würdige Titan. Titan X -> IMO nicht. IMO nutzt man es hier aus, dass 1.000 € jetzt akzeptiert werden und man verdient schlicht mehr Geld. Sieht man an den Quartalszahlen. Da hat NV einen sehr guten Job gemacht. AMD nicht und die Presse war zu servil. IMO.
Mit der jetzigen Technologie ist nicht mehr drin, also packen die massig Speicher rauf und belassen den Preis im Absurden. Mit "Titan X" wird der etablierte Name ausgeschlachtet. Man bekommt praktisch eine 980 Ti mit irre viel Speicher und leider deutlich hörbarem Lüfter.

Das könnte man schon etwas kritischer sehen in der Presse. Bevor wir darüber sprechen, würde ich es allerdings gerne sehen, wenn der Schmu bei der 970 in der Presse kritisch betrachtet würde. Also nicht nur bisschen mit dem Finger wackeln um im nächsten Atemzug das Preisleistungsverhältnis der 970 loben. Sondern selbstkritisch eingestehen, die Speicherbeschneidung nicht erkannt zu haben und im nächsten Atemzug Nvidia die Leviten lesen sowie konkrete Änderungen im Presse-Unternehmensverhältnis ankündigen und einhalten.

Redet sich nicht jeder seine Investionen irgendwie schön? Dabei spielt es noch nicht mal eine Rolle ob es um nun Luxusprodukt oder den Preisleistungssieger geht. Am Ende kann man immer dagegen halten wie notwendig die Anschaffungen generell sind.

Wer die Titan X kauft wird seine Gründe haben, jedwede Kritik an der persönlichen Bereitschaft zu dieser Investition ist überflüssig.
Nicht nur das. Wer jemanden kritisiert, macht das zur Freude des Kritisierten, der eine Bühne geboten bekommt, klarzustellen, wer wie viel Geld wofür zur Verfügung hat und wer nicht.

Mancko
2015-03-21, 17:28:45
Wettbewerb und Druck verbessern das P/L. Wären die Randbedingungen anders (starkes aMD, kritische Presse), würde NV das gleiche leisten aber weniger verlangen. Und da ich Kunde bin und kein Investor von NV, bewerte ich das eben aus Kundensicht.


Dir steht es zu aus Kundensicht zu bewerten ob das Produkt für Dich preislich attraktiv ist oder nicht und das machst du mit einem Kauf oder eben keinem Kauf deutlich. Dir steht es aber nicht zu von der Presse oder anderen zu verlangen Deine Meinung kund zu tun oder dafür zu sorgen dass der Preispunkt eines Produkts Deinen Vorstellungen entspricht. Tut mir leid aber das ist nicht Dein Recht als Kunde, um das mal klar und deutlich zu sagen.


Und eine Grafikkarte ist nicht wirklich ein Prestigeobjekt wie eine Handtasche oder ein Auto. Insfern ist der Premiumeffekt hier IMO etwas kritischer zu sehen.

Für Dich ist eine Grafikkarte kein Prestigeobjekt. Für mich und andere eben schon. Jede Produktkategorie kann Prestigeobjekte enthalten, Möbel, Autos, Kleidung, Essen, Computerhardware, Taschen, Uhren. Ich fliege auch Business Class. Der Preispunkt dort beim Flug in den Urlaub steht auch in keinem Verhältnis zur Economy Class und ist ein wahrlich kurzes Vergnügen und schnell vergänglich. Nach 8 Stunden in die USA ist der Produktgenuss schon vorbei und der Aufpreis zur Economy wird Minimum dem von 2 Titans entsprochen haben. An der Titan hast aber länger Freude als an einem 8 Stunden Business Class Flug. Aber ich kann es mir leisten und es macht mir Spass das Leben auf diese Art zu genießen. Und genauso macht es mir Spass Premium Hardware zu eben Premiumpreisen zu kaufen.

Grestorn
2015-03-21, 17:33:05
Status. Kaufst du dir eine Titan X bist du am oberen Ende der Nahrungskette. Das ist wie ein Podest auf dem du dann sitzt und du kannst über alle hinwegblicken. Ist nur etwas einsam da oben. :freak:
Davon hab ich ja viel, "ganz oben" auf der "Nahrungskette" zu sein. Yeay.

Wenn es alleine der Status ist, wonach man strebt, dann sollte man sich nen großen BMW oder Porsche SUV kaufen - damit es auch jeder sieht!

robbitop
2015-03-21, 17:39:58
Davon hab ich ja viel, "ganz oben" auf der "Nahrungskette" zu sein. Yeay.

Wenn es alleine der Status ist, wonach man strebt, dann sollte man sich nen große BMW oder Porsche SUV kaufen - damit es auch jeder sieht!
This! :up:

mironicus
2015-03-21, 17:44:59
Wenn es alleine der Status ist, wonach man strebt, dann sollte man sich nen große BMW oder Porsche SUV kaufen - damit es auch jeder sieht!

Kunstwerke sind bessere Status-Symbole, die verlieren auch nicht an Wert.

aufkrawall
2015-03-21, 17:48:31
Wenn es alleine der Status ist, wonach man strebt, dann sollte man sich nen großen BMW oder Porsche SUV kaufen - damit es auch jeder sieht!
Aber es sieht doch hier auch jeder, wenn man es sich in die Signatur packt. :)

Grestorn
2015-03-21, 17:48:42
Kunstwerke sind bessere Status-Symbole, die verlieren auch nicht an Wert.

Da muss man auch Leute in die Wohnung lassen, damit das wirkt.

Kleidung, Schmuck, Autos, Häuser... das sind pragmatische Statussymbole.

Das Heimkino im Keller, die Soundanlage und die Grafikkarte wirken ja leider nur auf Geeks im Freundeskreis.
Der Picasso an der Wand ist dann für den engeren Geschäftspartner bei der Cocktailparty in den eigenen bescheidenen Hallen... :)

Aber es sieht doch hier auch jeder, wenn man es sich in die Signatur packt. :)
Hah, endlich. Darauf warte ich schon den ganzen Nachmittag :)

Die Titan X - Dein Statussymbol für die 3DCenters dieser Welt.

Und vorallem: SUPER preisgünstig. Bytes sind bekanntlich geduldig!

SamLombardo
2015-03-21, 17:51:28
Edit

aufkrawall
2015-03-21, 17:52:20
Hm, nimmt jetzt aber auch langsam PoWi-hafte Züge an, hier. :frown:

THUNDERDOMER
2015-03-21, 17:53:02
Mein GTX970 hat keinerlei Statussymbol, nur weil ich mickrige 2 GB habe...einfach billigen Standard. Brauche ich auch nichts zum Angeben. Auch kein Smartwatches, kein Mac und kein iPhone.

Hab hier niemanden, die mein ollen schwarzen PC interessiert hat, was drin läuft. Guckt eh keiner drauf. Es läuft alles Standard wie jeder anderen Standard-PCs :ugly:

Nur der Bildschirm hat tolle billigen Designobjekt, das ist alles. Dünne Rahmen sieht besser aus als breite. :biggrin:

cR@b
2015-03-21, 17:58:36
Hat jetzt eigentlich schon jmd. eine Titan X bestellt?

Jo logo, die für 1066.- aber ich glaube nicht, dass ich sie jemals erhalte :ugly:

mironicus
2015-03-21, 17:58:42
Erwerb von Glückseligkeit durch Konsum sollte nicht das Maßgebliche im Leben sein. ;D

Grestorn
2015-03-21, 18:06:57
Erwerb von Glückseligkeit durch Konsum sollte nicht das Maßgebliche im Leben sein. ;D

Wenn man den Konsum verweigert, dann aber bitte konsequent. Dann muss man auch auf die Dinge verzichten, die man sich locker leisten kann.

Und nicht nur dann den Konsum verurteilen, wenn er sich auf Dinge bezieht, die man sich nicht leisten kann oder will. Dann hat Dein Satz nämlich eine ganz andere Motivation :)

Godmode
2015-03-21, 18:24:55
Kann diesen Mist-Bullshit bitte jemand löschen, das hält ja keinet aus. :mad: 3 Seiten gelabere, ihr nervt einfach nur...manchmal denke ich, besser wäre es den Foren einfach fern zu bleiben.

Simon Moon
2015-03-21, 18:57:15
Ich versteh jetzt die Aufregung hier effektiv nicht ganz. Die Geforce 2 Ultra war auch schon 500$ bei Einführung - hatte aber nur 90mm^2 Die Size. Der GM200 hat gut die doppelte Grösse und Die Fläche ist soweit ich weiss die letzten Jahre relativ konstant im Preis geblieben. Dabei war die GF2U heute nur noch eine MidRange Karte mit einem Verbrauch von "nur" 37Watt. Da müssen die aktuellen Platinen ganz andere Dimensionen an Ampere vertragen und entsprechend auch viel mehr Wärme abführen. Kommt noch die Inflation der letzten 15 Jahre hinzu, sind das mMn. gar keine grossen Unterschiede mehr zur Titan X für 1000$.

Schnoesel
2015-03-21, 19:27:13
Nun ja bei dem Preis kann man imo eine rundum perfekte Karte erwarten sprich ein absolutes High End Produkt. aber genau das ist die Titan X doch gar nicht:

@ Referenz (und nur die gibt es zu kaufen) ist die Karte schon wieder so dermaßen eingeschränkt dass es ein Jammer ist.

1. Der Kühler ist schon mit den normalen default Frequenzen überfordert. Auf CB sieht man deutlich dass Titan X mit dem Kühler nicht einmal die max Boost Taktraten halten kann ohne zu drosseln (ohne OC!) --> für 1150€?
2. Die Kühlung ist dabei noch so laut und schaltet noch nicht mal im idle ab so wie die kleineren Maxwells --> für 1150€?
3. Das PT wurde gleich mal so zusammengeschrumpft das vernünftiges OC damit nicht möglich ist. Sprich möchtest du die Karte ausreizen bleibt dir nix anderes als ein Biosmod übrig (=Garantieverlust und zwar bei jedem Hersteller!)+ Kühlerwechsel. Ohne Wakü quasi nicht möglich. Einen Accelero auf 100% laufen zu lassen ist für mich keine Option --> Für 1150€?
4. Mit dem Biosmod + PT Erhöhung geht zwangsläufig auch ein übertreten der PCI-E Spezifikationen einher da nur 1x6 Pin und 1x8 Pin verbaut --> Auch das wieder für 1150€?

1150€ Ok dann bitte aber auch die eierlegende Wollmilchsau mit richtiger Kühlung und bei der der Kunde alle Freiheiten hat. Alles andere ist Mumpitz bei dem Preis. Titan X ist vieles aber kein High End, sie hat lediglich einen High End Preis.

Mal sehen ob es AMD besser macht.

Grestorn kann ich hier noch verstehen und auch Godmode. Der Airplex und das Aquaduct werden mit dem Ding keine Probleme haben. Bleibt immer noch der Mist mit dem Biosmod und der Stromzufuhr.

HarryHirsch
2015-03-21, 19:38:14
dieser thread brauch eindeutig mehr konsumzombies

mironicus
2015-03-21, 19:40:05
Das ist halt die Frage... kommen noch bessere Versionen auf dem Markt mit >2x8 Pin, Custom-Kühlern, höherem Power-Level? Wenn Fiji gut wird dürfte NVidia reagieren...

Grestorn
2015-03-21, 19:46:24
Natürlich werden bessere Versionen folgen. Das war immer so, und so lange der Markt existiert wird es auch so bleiben.

Schnoesel
2015-03-21, 19:58:07
Ich denke das nicht. Titan Classic war nicht Vollausbau, da ging das noch. Was soll man großartig machen? Titan XY mit besserer Stromversorgung, besserem Kühler, höherem PT, also alles was man jetzt schon hätte machen können eine Titan X done right oder wie? Das wäre an Peinlichkeit ja gar nicht mehr zu überbieten. Von Titan Z gabs auch nix besseres mehr, Imo wars das.

Grestorn
2015-03-21, 20:03:26
Ich denke das nicht. Titan Classic war nicht Vollausbau, da ging das noch. Was soll man großartig machen? Titan XY mit besserer Stromversorgung, besserem Kühler, höherem PT, also alles was man jetzt schon hätte machen können eine Titan X done right oder wie? Das wäre an Peinlichkeit ja gar nicht mehr zu überbieten. Von Titan Z gabs auch nix besseres mehr, Imo wars das.

Spätestens mit Pascal wird eine bessere Karte kommen. Eventuell ist auch Fiji objektiv besser.

Und eine 980Ti wird zumindest ein deutlich besseres Preis/Leistungsverhältnis haben. Und wenn sie über 8GB verfügt, hätte sie auch genügend VRAM für mich.

Aber ich weiß was Du meinst: Für einen Nachfolger im Sinne einer Titan Black ist in der Tat wenig Platz.

Raff
2015-03-21, 20:30:31
Ehrlich, nachdem ich die gekeulte Titan X nochmal etwas mit DSR bearbeitet habe, finde ich 6 GiByte schon irgendwie zu wenig. Je nachdem, wie stark Nvidia bei den Rechenwerken drüberlasert, wird das aber gewiss die interessantere Karte für "die Masse" (der Enthusiasten).

MfG,
Raff

mironicus
2015-03-21, 20:44:39
Ehrlich, nachdem ich die gekeulte Titan X nochmal etwas mit DSR bearbeitet habe, finde ich 6 GiByte schon irgendwie zu wenig

Sind die Redaktionsräume der PCGH eigentlich gut gegen Einbrüche geschützt? ;D

Knuddelbearli
2015-03-21, 22:58:08
Ja, das sehe ich auch so. Witzig das PhysX immer wieder genannt wird, was in fast keinem Spiel verwendet wird.

Positiv bei NV ist allerdings, dass sie fast immer die ersten sind, was neue coole Features angeht.

Das kommt dir nur so vor


Trueform als tess Vorläufer
DSP
Mantle
DX X.1+.2
ZeroCore
TressFX

usw usf AMD/ATI und NV nimmt sich da nix und habe sicher jede Menge vergessen

hasebaer
2015-03-21, 23:27:36
Auf den NV1 Boards anno 1995 gab es auch schon einen DSP. :D

Knuddelbearli
2015-03-22, 00:08:37
ok dann Streich DSP und nimm dafür Eyefinity ^^

Ging ja einfach darum das auch AMD Massenweise Sachen als erster brachte aber irgendwie bleiben die komischerweise nicht so hängen bei den Leuten

cR@b
2015-03-22, 01:17:56
ok dann Streich DSP und nimm dafür Eyefinity ^^

Ging ja einfach darum das auch AMD Massenweise Sachen als erster brachte aber irgendwie bleiben die komischerweise nicht so hängen bei den Leuten

Zumindest einschlägige Sachen brachte nV... ich kann mich mit der Geforce 3 noch an AF erinnern, allerdings erstmal nur via Reg Eintrag. Endlich in Counterstrike und Co. keine ausgewaschene Bodentexturen mehr. Das hat die Bildquali auf ein anderes Level angehoben!

T&L der geforce 256 in black n white ist auch hängen geblieben. Bump Mapping kam zwar nicht von nV, wurde aber durch nV Shading Rasterizer im Spiel Evolva revolutioniert! Man das waren Zeiten... man konnte verschiedene Bump Mapping Arten wählen und eine sah besser aus als die andere :ugly:

aths
2015-03-22, 01:21:47
Nun ja bei dem Preis kann man imo eine rundum perfekte Karte erwarten sprich ein absolutes High End Produkt. aber genau das ist die Titan X doch gar nicht:

@ Referenz (und nur die gibt es zu kaufen) ist die Karte schon wieder so dermaßen eingeschränkt dass es ein Jammer ist.

1. Der Kühler ist schon mit den normalen default Frequenzen überfordert. Auf CB sieht man deutlich dass Titan X mit dem Kühler nicht einmal die max Boost Taktraten halten kann ohne zu drosseln (ohne OC!) --> für 1150€?Der Baseclock ist dazu da, gehalten zu werden, nicht der Boostclock.

dildo4u
2015-03-22, 01:36:25
Crysis 3 in 4k mit Titan X SLI.

http://www.neogaf.com/forum/showpost.php?p=156885784&postcount=778

Schnoesel
2015-03-22, 10:05:59
Wer zahlt 1150€ für den Baseclock? Nene was ich geschrieben habe passt.

Ist ja auch nur meine Meinung. Wer denkt die Kühlerkrücke wäre der Karte gerecht und die 1150€ wert bitte schön.

horn 12
2015-03-22, 10:53:23
Nun, wenn Wasserkühlung und dann aber 1300 Euro berappen
Dann wohl besser auf DIE KONKURRENZ WARTEN BEI WOMÖGLICH 500 EURO BILLIGER
und AMD´s Ziel sind wohl unter 4K die 60fps so gut wie immer zu halten.

dildo4u
2015-03-22, 10:57:45
Die Preise sind so hoch weil der Euro Schwach ist dafür kann Nvidia nix und genau das selbe wird auch AMD Treffen.

horn 12
2015-03-22, 11:00:58
In 1 bis 2 Monaten kann dies schon besser aussehen, bei NV ebenfalls
und AMD wird sich hüten über 1000 Euro zu kommen bei der AIO Lösung!

BlacKi
2015-03-22, 12:20:07
Wer zahlt 1150€ für den Baseclock? Nene was ich geschrieben habe passt.

Ist ja auch nur meine Meinung. Wer denkt die Kühlerkrücke wäre der Karte gerecht und die 1150€ wert bitte schön.
wenn man es auf die referenz 980 runterreduziert steht die X nur in einem groß nach, nämlich der lautstärke. der rest der karte entspricht doch eigentlich allem. hohes OC potential ist doch nichts was einer referenzkarte entsprechen muss.

das die karte nur im referenzdesign verkauft wird schreckt aber viele käufer ab, das kann man verstehen.

wenn ich mir so ein nettes stück hardware leisten wollte würde ich es nicht im referenzdesign kaufen, hauptsächlich wegen der lautstärke. ich würde mich wohl für eine wassergekühlte entscheiden, oder auf custom designs warten.

Kriton
2015-03-22, 12:53:55
Kunstwerke sind bessere Status-Symbole, die verlieren auch nicht an Wert.

Der Wert eines Statussymbols kann höher sein wenn es an Wert verliert, weil es zeigen kann, dass Du es dir leisten kannst mit dem Wertverlust zu leben. IMHO einer der Gründe warum wir Männer letztlich Blumen schenken (ohne uns die Gründe üblicherweise bewusst zu machen).

Der Baseclock ist dazu da, gehalten zu werden, nicht der Boostclock.

Womit wir wieder bei der Frage des Werts des Boostclocks wären. :freak:

Grestorn
2015-03-22, 13:02:40
Womit wir wieder bei der Frage des Werts des Boostclocks wären. :freak:

Der Boostclock ist der höchste Takt, den die Karte ohne manuellem OC im optimalen Fall erreichen kann. Der Baseclock ist der Takt, den die Karte auf jeden Fall erreicht, egal welcher Belastung sie ausgesetzt ist, so lange sie nicht in den Überhitzungsschutz geht.

Kriton
2015-03-22, 13:16:32
Danke für die Erklärung. Ich habe mich aber mißverständlich ausgedrückt. Gemeint war der Wert im Hinblick auf die Frage der Sinnhaftigkeit.

Grestorn
2015-03-22, 13:22:03
Danke für die Erklärung. Ich habe mich aber mißverständlich ausgedrückt. Gemeint war der Wert im Hinblick auf die Frage der Sinnhaftigkeit.

Ja mei. Ist halt wie bei den Intel Prozessoren der Turbo Boost Takt. Man kann ihn in aller Regel erwarten, bekommt aber keine Garantie darauf.

aufkrawall
2015-03-22, 13:23:18
Bei der Titan X ist das exakte Gegenteil der Fall.

Grestorn
2015-03-22, 13:23:43
Bei der Titan X ist das exakte Gegenteil der Fall.
Wie meinst Du das?

aufkrawall
2015-03-22, 13:27:39
Wie meinst Du das?
Komm jetzt bitte nicht damit, dass nur fast nie der maximale Boostclock gehalten würde, der Takt aber immer noch etwas höher als mit dem Baseclock wäre.
Er ist nämlich nur einen Furz höher.

Grestorn
2015-03-22, 13:30:53
Komm jetzt bitte nicht damit, dass nur fast nie der maximale Boostclock gehalten würde, der Takt aber immer noch etwas höher als mit dem Baseclock wäre.
Er ist nämlich nur einen Furz höher.

Wie meinen? Bei meinen GTX980 erreiche ich den Boosttakt praktisch immer und er wird nur ganz selten unterschritten. Ich denke nicht, dass es bei der Titan X anders sein wird.

Ist nur eine Frage der Kühlung.

aufkrawall
2015-03-22, 13:35:27
Der Boostclock wird mit der Titan X default eben garantiert nie ausgefahren:
http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/2/
Kühlerwechsel zählt nicht. Du hast das allgemeine Beispiel mit den CPUs gebracht und das einfach so auf Titan X übertragen, was eben nicht passt.

Grestorn
2015-03-22, 13:37:55
Wenn man CPUs unzureichend kühlt, erreichen die ihren Turbo Takt auch nicht.

Intel ist nur weitaus konservativer was ihre Taktraten und TDP angeht als nVidia und AMD.

GPUs haben im engen Gehäuse allgemein das Problem, dass sie sich per Luft nicht ausreichend kühlen lassen und eigentlich immer überhitzen, wenn man sie richtig fordert. Alleine auch deswegen, weil der Platz für die Kühlkörper VIEEEL beschränkter ist verglichen mit den bei CPUs üblichen Kühltürmen.

Deswegen macht AMD wohl auch den einzig richtigen Schritt mit der WCE.

Knuddelbearli
2015-03-22, 14:31:41
Es geht um gsync da brauchst keinen Framelimiter.

doch! und den setzt man am besten 5-6 fps unter der maximalen frequenz des Monitors, oder mit ausprobieren auch 1-2 darunter, damit man nicht ab 60/120/144 in vsync reinrennt

Knuddelbearli
2015-03-22, 14:57:10
Sehe ich auch so. Wenn jemand das Geld hat und PC sein Hobby ist, warum sollte er die Karte nicht kaufen? Das ist doch grade das schöne an einer Leidenschaft: Man gibt nüchtern betrachtet sinnlos Geld aus und es bereitet einem auch noch Freude!

Seltsamerweise gibt es die Diskussion nur bei PC Hardware. Ich hab im Bekanntenkreis einige Schrauber die deutlich mehr Geld in ihre Autos und Motorräder pumpen und da sagt niemand wie dumm das ist und das sündhaft teure Gewindefahrwerk doch gar keinen fühlbaren Mehrwert gegenüber dem Original hat.

Für deine Freunde sind die Autos bzw Motorräder halt Penisverlängerungen für dich scheinbar die PC Hardware

100% agree.

Denke die meisten haben halt ein Problem damit, dass es jetzt absolutes Highend wieder gibt aber zu einem Preis, der für sie selbst inakzeptabel ist. Wie war das damals. Kenne kaum Jemanden, der sich für 1000DM ne Geforce1 Annihilator mit DDR oder ne Geforce3 geleistet hat. Die meisten fuhren mit einer Variante tiefer und haben sich aber nicht beschwert. Für mich sind 1000€ wie 1000DM fast... kaum Unterschied.

Btw. http://www.evga.com/Products/ProductList.aspx?type=0&family=GeForce+TITAN+Series+Family


An der 970 sah man ja super wie HEUTE NV mit den Leuten umgeht die eine Stufe niedriger kaufen wollen ...

aths
2015-03-22, 15:03:52
Wer zahlt 1150€ für den Baseclock? Nene was ich geschrieben habe passt.

Ist ja auch nur meine Meinung. Wer denkt die Kühlerkrücke wäre der Karte gerecht und die 1150€ wert bitte schön.
Hä? Der Baseclock ist dazu da gehalten zu werden, nicht der Boostclock. Das ist so, unabhängig davon wie du es siehst.


Wie meinen? Bei meinen GTX980 erreiche ich den Boosttakt praktisch immer und er wird nur ganz selten unterschritten. Ich denke nicht, dass es bei der Titan X anders sein wird.

Ist nur eine Frage der Kühlung.
Ich bin mit Referenz-Kühlung im 3D-Dauerbetrieb bei voller Auslastung meistens einen Takt-Schritt (13 MHz) unterhalb des Boostclocks. Boostclock sehe ich unter dem Strich als Trollen des Kundens: Die Presse testet oft vereinzelte Benchmarks und kann hier aus dem kalten PC ein paar MHz mehr rausholen. Und die Presse könnte mit handselektierten Karten beliefert werden, die generell höher "boosten". Der Kunde kauft dann eine Karte die noch innerhalb der Specs ist, aber eben nicht ganz so schnell wie in den Balkendiagrammen der offiziellen Tests.

Boost hin, Boost her, mich interessiert die Realleistung bei möglichst leiser Kühlung und möglichst einfacher Wartung (womit Kühlerumbau oder Wasser flachfällt.) Hier ist für aths-Bedürfnisse die 980 einfach der Sweet Spot: Souveräne Leistung, Lüfter kaum hörbar.

Ärgerlich sind die jedoch noch nicht vollständig behobenen Probleme bei der Erkennung von zwei Monitoren beim Windows-Start.

Grestorn
2015-03-22, 15:05:46
Für deine Freunde sind die Autos bzw Motorräder halt Penisverlängerungen für dich scheinbar die PC Hardware

Was soll das? Darf man nicht etwas kaufen, weil man einfach nur Spaß daran hat?

Oder meinst Du, Leute sammeln nur deswegen Briefmarken, um einer neuen Flamme zu imponieren, weil das halt das übliche Klischee ist?! :)

Godmode
2015-03-22, 15:08:15
Das kommt dir nur so vor


Trueform als tess Vorläufer
DSP
Mantle
DX X.1+.2
ZeroCore
TressFX

usw usf AMD/ATI und NV nimmt sich da nix und habe sicher jede Menge vergessen

Die Betonung lag auf "coole" Features. Das einzige was ich da oben jetzt als wirklich toll bezeichnen würde, wäre Mantle. Alles andere sind halt eher so Nebensachen, die zwar nett sind, aber sicher keine Kaufentscheidung bewirken. Das ist natürlich nur meine Meinung, für einen anderen ist vielleicht DX11.1 ein must have oder ZeroCore.

Schnoesel
2015-03-22, 15:09:50
Hä? Der Baseclock ist dazu da gehalten zu werden, nicht der Boostclock. Das ist so, unabhängig davon wie du es siehst.

Und ich sage es ist unwürdig für eine angebliche High End Karte dass lediglich der Basetakt gehalten werden kann. Das ist meine Meinung ob dich das interessiert oder nicht.

Ich glaube wir reden aneinander vorbei. Diese ganze Boost Geschichte ist ganz großer Käse und findet seinen Höhepunkt bei der TitanX. Was nützt mir die Angabe eines Taktes der theoretisch die ersten paar Sekunden anliegt bevor er gleich wieder gesenkt werden muss, weil er in irgendeine Beschränkung läuft?

BTW kann oftmals nicht mal der offizielle „typische Boost-Takt“ gehalten werden. Ohne PT Erhöhung geht das runter bis auf 1002 MHZ, ganze 2 MHZ mehr als Basetakt.

Godmode
2015-03-22, 15:17:01
Was soll das? Darf man nicht etwas kaufen, weil man einfach nur Spaß daran hat?

Oder meinst Du, Leute sammeln nur deswegen Briefmarken, um einer neuen Flamme zu imponieren, weil das halt das übliche Klischee ist?! :)

Im Endeffekt ist es doch so: Wir könnten einfach nichts zu unserer Hardware schreiben und daheim alleine Spaß mit unseren Anschaffungen haben. Da wir aber soziale Wesen sind, wollen wir unserer Erfahrungen mit anderen austauschen, genau darum sind wir auch in diesem Forum angemeldet.

Sunrise
2015-03-22, 15:29:01
100% agree.

Denke die meisten haben halt ein Problem damit, dass es jetzt absolutes Highend wieder gibt aber zu einem Preis, der für sie selbst inakzeptabel ist. Wie war das damals. Kenne kaum Jemanden, der sich für 1000DM ne Geforce1 Annihilator mit DDR oder ne Geforce3 geleistet hat. Die meisten fuhren mit einer Variante tiefer und haben sich aber nicht beschwert. Für mich sind 1000€ wie 1000DM fast... kaum Unterschied.

Btw. http://www.evga.com/Products/ProductList.aspx?type=0&family=GeForce+TITAN+Series+Family
Ich hatte beide.

Die Geforce 256 DDR (Creative Labs Annihilator Pro) hat mich damals 429 DM gekostet, sofern mich mein Gedächtnis nicht trügt. Zusammen mit dem Samsung 17GLsi war das ein ordentlicher Sprung nach vorne.

Wenn man sich mal überlegt, dass 2001 bereits die Geforce 3 kam mit Geforce 2 und Ultra dazwischen, dann sind das heute allerdings auch keine kurzlebigeren Vergnügen. Und weil die Geforce 3 so schön schnell in höheren Auflösungen war, gabs dann noch einen Iiyama VisionMaster Pro 510 dazu.

NV hatte da damals auch schon Schlag auf Schlag GPUs rausgehauen. Das ist für mich persönlich weniger ein Problem. Ich habe damals aber auch bewusst solche Spielchen wie die Geforce 2 Ultra ausgelassen, das war einfach nur Geldverschwendung für geringen Mehrwert.

Der Titan X haftet eben jetzt schon veraltete Technik an und das stört mich immens. Die GM206 ist technisch sogar weiter, weil mit fixed-function H.265 ausgestattet. Titan X ist einfach ein um 50% erweiterer GM204. Wirklich sensationell!

Maxwell generell ist spitze, aber mit HBM und deutlich besseren Prozessen, die schon zum Greifen nahe sind, ist das Ding nicht mehr Wert als maximal 799-899 EUR und selbst dafür würde ich das Ding nicht kaufen.

Ich sehe wirklich nicht, was ich mit einer Titan X spielen könnte, was eine gute 980er nicht kann.

Grestorn
2015-03-22, 15:44:53
Im Endeffekt ist es doch so: Wir könnten einfach nichts zu unserer Hardware schreiben und daheim alleine Spaß mit unseren Anschaffungen haben. Da wir aber soziale Wesen sind, wollen wir unserer Erfahrungen mit anderen austauschen, genau darum sind wir auch in diesem Forum angemeldet.

Klar wollen wir drüber reden, Erfahrungen austauschen und sicher auch etwas damit prahlen.

Ich kauf mir aber doch keine Karte für 1000€ um mein Ego aufzubessern, und genau das impliziert das Wort "Penisverlängerung". Ich hätte die Karte auch bestellt, wenn ich nicht in Foren aktiv wäre. Es gab ja immer wieder lange Phasen, in denen ich mich bewusst aus Foren fern gehalten habe, weil sie mich manchmal nerven und viel zu viel Zeit in Anspruch nehmen. Deswegen kauf ich mir dann aber trotzdem die Hardware, die ich mir leisten kann und will, auch wenn es außer mir keiner mitbekommt.

Godmode
2015-03-22, 15:55:02
Klar wollen wir drüber reden, Erfahrungen austauschen und sicher auch etwas damit prahlen.

Ich kauf mir aber doch keine Karte für 1000€ um mein Ego aufzubessern, und genau das impliziert das Wort "Penisverlängerung". Ich hätte die Karte auch bestellt, wenn ich nicht in Foren aktiv wäre. Es gab ja immer wieder lange Phasen, in denen ich mich bewusst aus Foren fern gehalten habe, weil sie mich manchmal nerven und viel zu viel Zeit in Anspruch nehmen. Deswegen kauf ich mir dann aber trotzdem die Hardware, die ich mir leisten kann und will, auch wenn es außer mir keiner mitbekommt.

Mir geht es genau so und es nervt einfach, immer wieder, dieses sinnlose Argument hören zu müssen.

mironicus
2015-03-22, 15:58:48
Ich kauf mir aber doch keine Karte für 1000€ um mein Ego aufzubessern

Du besitzt bereits 2 GTX 980 im SLI. Bis vor kurzem war die GTX 980 die schnellste Single-GPU Karte, die du jetzt ersetzen möchtest durch eine Titan. Du willst stets das schnellste besitzen was es gibt, du hast auch einen 5960x. Du brauchst das um glücklich zu sein, das musst du gar nicht leugnen. :biggrin:

aufkrawall
2015-03-22, 16:01:13
Maaan, hört das mal auf hier?

aths
2015-03-22, 16:01:37
Der Boostclock ist der höchste Takt, den die Karte ohne manuellem OC im optimalen Fall erreichen kann.Auch das stimmt nicht.

Der Boostclock ist der Takt, der in einem typischen Szenario zu 50% der Zeit erreicht oder überschritten werden soll.

aufkrawall
2015-03-22, 16:03:50
Wie kann der Boostclock überschritten werden?

TurricanM3
2015-03-22, 16:05:25
Macht jemand einen Thread parallel auf indem Preisdiskussionen & Co. nicht erwünscht sind?

PHuV
2015-03-22, 16:06:11
Einiges wird sich hier wohl nie ändern. :rolleyes:

Das man vielleicht eine höhere Performance wegen UHD, DNR oder sonstwas auch brauchen kann, auf die Idee kommt keiner von den Neidern? :rolleyes:
Der Titan X haftet eben jetzt schon veraltete Technik an und das stört mich immens. Die GM206 ist technisch sogar weiter, weil mit fixed-function H.265 ausgestattet. Titan X ist einfach ein um 50% erweiterer GM204. Wirklich sensationell!
Echt jetzt? :confused: Maxwell ist doch gerade mal 7 Monate auf dem Markt.

aths
2015-03-22, 16:07:23
Und ich sage es ist unwürdig für eine angebliche High End Karte dass lediglich der Basetakt gehalten werden kann. Das ist meine Meinung ob dich das interessiert oder nicht.

Ich glaube wir reden aneinander vorbei. Diese ganze Boost Geschichte ist ganz großer Käse und findet seinen Höhepunkt bei der TitanX. Was nützt mir die Angabe eines Taktes der theoretisch die ersten paar Sekunden anliegt bevor er gleich wieder gesenkt werden muss, weil er in irgendeine Beschränkung läuft?

BTW kann oftmals nicht mal der offizielle „typische Boost-Takt“ gehalten werden. Ohne PT Erhöhung geht das runter bis auf 1002 MHZ, ganze 2 MHZ mehr als Basetakt.
Der Boostclock war von Anfang an eine Taktik, um zum Launch in Bechmarks besser abzuschneiden. Jede Karte seit Erfindung des Boostclocks kann lediglich den Baseclock halten und in Furmark nicht mal den.

Die Titan X verhält sich beim Boosttakt so wie andere Boostkarten auch. Hier speziell eine Ausnahme zu fordern wäre willkürlich und nur möglich, in dem Nvidia den offziellen Boostclock geringer angesetzt hätte. Dann wäre die Karte in deinen Augen formal nicht mehr "unwürdig", obwohl sie keinen MHz schneller wäre.

sth
2015-03-22, 16:10:37
Klar wollen wir drüber reden, Erfahrungen austauschen und sicher auch etwas damit prahlen.

Ich kauf mir aber doch keine Karte für 1000€ um mein Ego aufzubessern, und genau das impliziert das Wort "Penisverlängerung". Ich hätte die Karte auch bestellt, wenn ich nicht in Foren aktiv wäre. Es gab ja immer wieder lange Phasen, in denen ich mich bewusst aus Foren fern gehalten habe, weil sie mich manchmal nerven und viel zu viel Zeit in Anspruch nehmen. Deswegen kauf ich mir dann aber trotzdem die Hardware, die ich mir leisten kann und will, auch wenn es außer mir keiner mitbekommt.
Ja, das nimmt schon komische Züge an hier im Forum. Allen ist klar, dass die Karte ein schlechtes Preis-/Leistungs-Verhältnis hat. Trotzdem ist es doch jedem selbst überlassen was man kauft (und nicht jeder kauft etwas um damit nach außen hin anzugeben).

Ich dachte das hier wäre ein Forum für 3D-Enthusiasten und plötzlich werden hier Leute angegriffen, die auch nur in Erwägung ziehen, die aktuell schnellste GPU auf dem Markt zu kaufen. Das ist schon ganz schön absurd, gerade wo es derzeit mit 4K/5K und VR genug Dinge gibt, mit denen man selbst High-End-Karten wie die Titan X an ihre Grenzen bringen kann.

aths
2015-03-22, 16:25:02
Du besitzt bereits 2 GTX 980 im SLI. Bis vor kurzem war die GTX 980 die schnellste Single-GPU Karte, die du jetzt ersetzen möchtest durch eine Titan. Du willst stets das schnellste besitzen was es gibt, du hast auch einen 5960x. Du brauchst das um glücklich zu sein, das musst du gar nicht leugnen. :biggrin:
Nehmen wir aus Spaß an, dass es Leute gibt, die in der Tat nur deshalb von 980-SLI auf Titan X "auf"rüsten, um mit der Ausgabe von Geld die Anerkennung eines sozialen Status zu bewirken. Dann sind es genau die Postings, die so eine Ausgabe als unsining oder als Ego-Boost beschreiben, auf welche der Titan-Käufer gehofft hat.

Grestorn
2015-03-22, 16:25:11
@sth +1!

Grestorn
2015-03-22, 16:26:12
Nehmen wir aus Spaß an, dass es Leute gibt, die in der Tat nur deshalb von 980-SLI auf Titan X "auf"rüsten, um mit der Ausgabe von Geld die Anerkennung eines sozialen Status zu bewirken. Dann sind es genau die Postings, die so eine Ausgabe als unsining oder als Ego-Boost beschreiben, auf welche der Titan-Käufer gehofft hat.

Zumal eine TitanX ja unterm Strich schwächer ist als 2 980er (was dein "auf"rüsten wohl auch implizieren soll).

Godmode
2015-03-22, 16:31:45
Nehmen wir aus Spaß an, dass es Leute gibt, die in der Tat nur deshalb von 980-SLI auf Titan X "auf"rüsten, um mit der Ausgabe von Geld die Anerkennung eines sozialen Status zu bewirken. Dann sind es genau die Postings, die so eine Ausgabe als unsining oder als Ego-Boost beschreiben, auf welche der Titan-Käufer gehofft hat.

Ich rüste von 980OC-SLI auf Titan X oder Fiji auf, aber erstmal ohne SLI/CF. Der Ego-Boost wird unglaublich sein, vor allem mit fetter roter Schrift in der Signatur. :freak:

aths
2015-03-22, 16:31:52
Ich hatte beide.

Die Geforce 256 DDR (Creative Labs Annihilator Pro) hat mich damals 429 DM gekostet, sofern mich mein Gedächtnis nicht trügt. Zusammen mit dem Samsung 17GLsi war das ein ordentlicher Sprung nach vorne.

Wenn man sich mal überlegt, dass 2001 bereits die Geforce 3 kam mit Geforce 2 und Ultra dazwischen, dann sind das heute allerdings auch keine kurzlebigeren Vergnügen. Und weil die Geforce 3 so schön schnell in höheren Auflösungen war, gabs dann noch einen Iiyama VisionMaster Pro 510 dazu.

NV hatte da damals auch schon Schlag auf Schlag GPUs rausgehauen. Das ist für mich persönlich weniger ein Problem. Ich habe damals aber auch bewusst solche Spielchen wie die Geforce 2 Ultra ausgelassen, das war einfach nur Geldverschwendung für geringen Mehrwert.

Der Titan X haftet eben jetzt schon veraltete Technik an und das stört mich immens. Die GM206 ist technisch sogar weiter, weil mit fixed-function H.265 ausgestattet. Titan X ist einfach ein um 50% erweiterer GM204. Wirklich sensationell!

Maxwell generell ist spitze, aber mit HBM und deutlich besseren Prozessen, die schon zum Greifen nahe sind, ist das Ding nicht mehr Wert als maximal 799-899 EUR und selbst dafür würde ich das Ding nicht kaufen.

Ich sehe wirklich nicht, was ich mit einer Titan X spielen könnte, was eine gute 980er nicht kann.
Wenn man sieht was der GM204 bringt, würde ich "ein um 50% erweiterte GM204" würde ich eher im positiven Licht sehen, anstatt es ironisch mit "sensationell" zu kommentieren.

Mit dem Takt sieht es natürlich nicht mehr ganz so gut aus. Wenn ich das richtig sehe, bringt die 980 out-of-the-box 75% der Titan-X-Leistung, mit Übertaktung und wahrscheinlich noch immer leiserem Lüfter als die Titan bringt es die 980 auf 83% der Titan X, welche dann zu 100% mehr Kosten nur 20% schneller ist (die Vorteile durch Mehrspeicher nicht mitgerechnet.) Die Titan lässt sich natürlich auch übertakten, wobei die Frage ist, ob man das ohne Wasserkühlung möchte.

Trotzdem sehe ich die Titan jetzt als sinnvolles Produkt. Denn wer in 4K zocken will, braucht jedes Fitzelchen Leistung, da sind auch die 34% (Vergleich der Werkseinstellungen) noch spürbar. Das ist der Unterschied zwischen 45 fps und 60 fps. Mit dem irren Speicher von 12 GB lassen sich auch Games je nach Leistung auch noch mit Downsampling fahren. Und egal wie viele Texturmods man in Skyrim hat, da zuckelt nichts.

Natürlich bestehend noch Lücken im Angebot: GM204 mit 8 GB, GM200 mit 6 GB. Die Auswahl wird jetzt erst mal künstlich knapp gehalten. Imo Marktversagen wegen mangelnder Konkurrenz in diesem Segment. Bereits die 980 wird nirgends eingeholt, da ist Nvidia nicht unter Zugzwang, zwischen 980 und Titan abzustufen.

Schnoesel
2015-03-22, 16:42:24
@ aths

Ich will hier gar keine Diskussion vom Zaun brechen ob Boosttakt sinnvoll blah.

Du hast eines meiner Punkte warum ich der Meinung bin, dass Titan X nicht das aufgerufenen Geld wert ist aus dem Zusammenhang gerissen. Ich bin eben nach wie vor der Meinung, dass man für einen außergewöhnlichen Preis auch außergewöhnliche Maßstäbe setzen kann und darf und für mich nicht die gleichen Maßstäbe gelten wie bei einer 0815 Karte, die eben nur halb so teuer ist. Das ist alles andere als willkürlich. Und bei der Meinung bleibe ich auch. Das ist nichts um zu diskutieren.

Nochmal in Kurzform: Meiner Meinung nach sollten man für das Geld, das die Titan X eben kostet eine Karte bekommen, die keine Wünsche offen lässt. Tut sie das nicht ist sie das Geld meiner Meinung nach nicht wert. Wer anderer Meinung ist, soll das sein, hab ich nix dagegen.

Godmode
2015-03-22, 16:52:25
@ aths

Ich will hier gar keine Diskussion vom Zaun brechen ob Boosttakt sinnvoll blah.

Du hast eines meiner Punkte warum ich der Meinung bin, dass Titan X nicht das aufgerufenen Geld wert ist aus dem Zusammenhang gerissen. Ich bin eben nach wie vor der Meinung, dass man für einen außergewöhnlichen Preis auch außergewöhnliche Maßstäbe setzen kann und darf und für mich nicht die gleichen Maßstäbe gelten wie bei einer 0815 Karte, die eben nur halb so teuer ist. Das ist alles andere als willkürlich. Und bei der Meinung bleibe ich auch. Das ist nichts um zu diskutieren.

Nochmal in Kurzform: Meiner Meinung nach sollten man für das Geld, das die Titan X eben kostet eine Karte bekommen, die keine Wünsche offen lässt. Tut sie das nicht ist sie das Geld meiner Meinung nach nicht wert. Wer anderer Meinung ist, soll das sein, hab ich nix dagegen.

Da widerspricht ja auch niemand so wirklich, oder? Ich finde auch dass die Karte, so wie sie verkauft wird, total langweilig ist. Fährt man sie voll aus, muss man den Kühler wechseln, am besten gleich einen Wasserkühler drauf. Nicht schön bei einer 1.150 Euro Karte, aber es gibt momentan keine Alternative, die kommt eventuell erst im Juni von AMD.

Bestes Beispiel ist der Intel i7 5960X, der einen geringeren Turbotakt hat als die kleineren Modelle. Die zwei extra Kerne kosten 50% Aufpreis. Im absoluten Highend-Bereich bekommt man selten wirklich was ohne Kompromisse. Stromverbrauch, Abwärme, etc. schränken dort zu sehr ein und der Nutzer muss dann wieder Hand anlegen und die OCing Fesseln entfernen.

Sunrise
2015-03-22, 16:56:13
Echt jetzt? :confused: Maxwell ist doch gerade mal 7 Monate auf dem Markt.
Ja, leider. GM107 brachte den verbesserten H.264 mit, den auch alle GM2xx bekommen haben, aber nur GM206 hat HW FF H.265. Das ist zwar nichts Ungewöhnliches bei NV, da die HTPC-Karten immer aktueller sind, aber wenn man das Ding etwas länger nutzen möchte, stört mich das.

Und durchgehend 4K ist mir mit der Titan X zu stark am Limit. Da muss man schon stark nachhelfen mit Takt und Kühlung und selbst dann überzeugt es mich nicht, da helfen auch keine 12GB VRAM. Auch wenn das allemal besser ist als nur 6GB.

Wenn ich nämlich für 4K einen neuen Monitor brauche, dann will ich da keine Kompromisse. Nur mal eben so an 4K schnuppern ist nichts für mich. Und wenn ich hauptsächlich auf 1440p oder 1600p bin reicht auch eine 980er noch.

Godmode
2015-03-22, 17:01:10
Ja, leider. GM107 brachte den verbesserten H.264 mit, den auch alle GM2xx bekommen haben, aber nur GM206 hat HW FF H.265. Das ist zwar nichts Ungewöhnliches bei NV, da die HTPC-Karten immer aktueller sind, aber wenn man das Ding etwas länger nutzen möchte, stört mich das.

Und durchgehend 4K ist mir mit der Titan X zu stark am Limit. Da muss man schon stark nachhelfen mit Takt und Kühlung und selbst dann überzeugt es mich nicht, da helfen auch keine 12GB VRAM. Auch wenn das allemal besser ist als nur 6GB.

Für durchgehend 4K braucht man dann schon 2 Titan X und dann ist plötzlich auch der 12 GB VRAM recht sinnvoll.

Sunrise
2015-03-22, 17:11:43
Für durchgehend 4K braucht man dann schon 2 Titan X und dann ist plötzlich auch der 12 GB VRAM recht sinnvoll.
Eben und da ich eigentlich vor hatte, mir min. den Philips zu kaufen (evtl. gibts bald noch bessere Nachfolger), sollte da möglichst alles auf 4K laufen, aber bitte mit Single-GPU.

Traxx
2015-03-22, 17:35:20
Macht jemand einen Thread parallel auf indem Preisdiskussionen & Co. nicht erwünscht sind?

+1

Oder dieser Thread wird (bitte) aufgesplittet in:

1. Titan X: (P)Review-Thread (Tec only, no cash-gelaber)

2. Titan X: Ethisch/soziale Grundsätze zum Kauf einer Grafikkarte oder anderer Luxusgüter...

Ich würde mich gerne bei Ersterem auch beteiligen oder für mich wichtige Infos lesen... Aber so :(

Godmode
2015-03-22, 17:48:49
Hab jetzt mal einen Wasserkühler von EKWB bestellt, falls ich mir doch eine Titan hole. :tongue:

Mit dem OCing von Raff, würde die Karte genug leisten und ich könnte sogar nur eine Karte nehmen, die dann mein 980-SLI ersetzen würde. Ich werde mal die weitere Verfügbarkeit abwarten.

mironicus
2015-03-22, 17:50:43
Nehmen wir aus Spaß an, dass es Leute gibt, die in der Tat nur deshalb von 980-SLI auf Titan X "auf"rüsten, um mit der Ausgabe von Geld die Anerkennung eines sozialen Status zu bewirken. Dann sind es genau die Postings, die so eine Ausgabe als unsining oder als Ego-Boost beschreiben, auf welche der Titan-Käufer gehofft hat.

Sehr gute Annahme! Volle Zustimmung! Schon die Namensgebung der Karte spricht für eine Statusanhebung, die NVidia seinen Kunden damit in Aussicht stellt: "Titan". ;D:freak:

Mach nur Spaß! :)

Raff
2015-03-22, 17:58:11
Hab jetzt mal einen Wasserkühler von EKWB bestellt, falls ich mir doch eine Titan hole. :tongue:

Mit dem OCing von Raff, würde die Karte genug leisten und ich könnte sogar nur eine Karte nehmen, die dann mein 980-SLI ersetzen würde. Ich werde mal die weitere Verfügbarkeit abwarten.

Bedenke bitte, dass "nur" 1.500 MHz wirklich stabil nutzbar sind. Aber ich hab's auch nicht mit weniger als DCI-4K probiert. :naughty:

Wir sollten alle warten. Das Ding sollte wie Blei in der Regalen liegen. Dann senkt Nvidia die Preise und wir können loslegen. Aber es wird natürlich anders kommen. ;) Ich werde auf jeden Fall auf niedrigere Preise warten.

MfG,
Raff

Godmode
2015-03-22, 18:01:35
Bedenke bitte, dass "nur" 1.500 MHz wirklich stabil nutzbar sind. Aber ich hab's auch nicht mit weniger als DCI-4K probiert. :naughty:

Wir sollten alle warten. Das Ding sollte wie Blei in der Regalen liegen. Dann senkt Nvidia die Preise und wir können loslegen. Aber es wird natürlich anders kommen. ;) Ich werde auf jeden Fall auf niedrigere Preise warten.

MfG,
Raff

Ja 1.500 reicht ja dicke. Meine 980er schaffen auch nur 1450 wirklich stabil. Schafft es der Test eigentlich in die nächste PCGH?

Ich warte auch ab. Solange die Karten nicht breitflächig verfügbar sind, macht die ganze bestellerei eh keinen Sinn.

Nightspider
2015-03-22, 18:18:24
Ein Freund hat 8GB RAM und will sich die Titan X einbauen. Das ist kein Problem das die Grafikkarte 12GB VRAM hat. 50% mehr VRAM als RAM ist irgendwie = :ugly:

gnomi
2015-03-22, 18:23:58
Also ich wette, die Karte wird sich schon für High End Verhältnisse prima verkaufen.
1000-1200 Euro sind schließlich nicht für jeden Interessierten ein Hindernis.
Wer auf WQHD und 4k geht, braucht eben Leistung & Speicher satt.
Und um die 40% mehr Leistung gegenüber der 980 plus 3x so viel Speicher sind nicht zu verachten, wenn man die Leistung in einem Single Chip will.
Etwas dekadent ist so eine Karte natürlich trotzdem.
Ich persönlich finde ja schon eine 980 sehr fett und puren Luxus.
Die meisten Vielspieler spielen mit viel Älterem oder auf PS4. :wink:

fondness
2015-03-22, 18:28:05
Bedenke bitte, dass "nur" 1.500 MHz wirklich stabil nutzbar sind. Aber ich hab's auch nicht mit weniger als DCI-4K probiert. :naughty:

Wir sollten alle warten. Das Ding sollte wie Blei in der Regalen liegen. Dann senkt Nvidia die Preise und wir können loslegen. Aber es wird natürlich anders kommen. ;) Ich werde auf jeden Fall auf niedrigere Preise warten.

MfG,
Raff

Wie stabil sind die 1500Mhz wirklich bzw wie ausführlich getestet? Bei der GTX980 hatten am Anfang fast alle 1550Mhz oder mehr, am Schluss sind viele auf 1450Mhz oder weniger runter gegangen. Das sich Gm200 höher takten lässt als Gm204 wäre zudem ziemlich ungewöhnlich.

aufkrawall
2015-03-22, 18:32:49
Anhand einer Karte kann man wohl kaum statistische Behauptungen anstellen.
1450 sind aber immer noch ein sehr guter Wert.

Wobei sicher so einige Maxwell-Karten mit vermeintlich stabilem OC in Risen 3 artefakten.

Raff
2015-03-22, 18:42:43
Wie stabil sind die 1500Mhz wirklich bzw wie ausführlich getestet? Bei der GTX980 hatten am Anfang fast alle 1550Mhz oder mehr, am Schluss sind viele auf 1450Mhz oder weniger runter gegangen. Das sich Gm200 höher takten lässt als Gm204 wäre zudem ziemlich ungewöhnlich.

Realistisch betrachtet "hatten am Anfang" einfach nur die wenigsten Tester ordentlich Last draufgegeben. ;) PCGH spricht seit Anfang von ~1.500 MHz als Rockstable-Grenze für GM204-Karten, mit Ausnahmen nach oben und unten. Die Titan X habe ich durch IIRC acht Spiele unter 4.096 × 2.160 mit AA/AF gescheucht und zwei sind mit 1.550 MHz nach einiger Zeit abgeschmiert, sodass die mit 1.500 MHz getestet wurden. Natürlich dauerten die Tests keine Stunde und wenn der Kühler nicht mit maximaler Leistung läuft kommt es möglicherweise doch zu Abstürzen, aber das sah ziemlich stabil aus.

MfG,
Raff

aufkrawall
2015-03-22, 18:44:16
Alle GM204-Karten liefen hier mit zu viel OC stabil, haben aber in Risen 3 Artefakte gebracht.
Stabil != crasht nicht

horn 12
2015-03-22, 19:08:59
@Raff

Zumal die Karte dann stolze 1250+ Euro kostet mit Garantieverluft, oder erlaubt NV einen Kühlerwechsel von Haus aus ?
Dann wohl lieber gleich bei Caseking die Wassekühlung für 1300 Euro ordern.
Aber solange die Karte verkauft werden wird, wird NV nix ändern und bis Fiji in den Regalen steht sind es exakt noch 2 Monate solange NV verkaufen kann.

Grestorn
2015-03-22, 19:14:49
Zumal die Karte dann stolze 1250+ Euro kostet mit Garantieverluft, oder erlaubt NV einen Kühlerwechsel von Haus aus ?

Das ist nicht nVidias Entscheidung sondern die des Kartenherstellers. Deswegen bekommt man von EVGA auch Garantie wenn der Kühler getauscht wurde.

StefanV
2015-03-22, 20:09:28
Das ist nicht nVidias Entscheidung sondern die des Kartenherstellers. Deswegen bekommt man von EVGA auch Garantie wenn der Kühler getauscht wurde.
richtig, weil nVidia ja die Custom Designs bei der Titan X ja auch absolut zulässt...

Knuddelbearli
2015-03-22, 20:56:13
G80 -> GT200: 90nm -> 65nm, 681M ->1400M Transistoren
GT200 -> GF100: 65nm -> 40nm, 1400M ->3000M Transistoren
GF100 -> GK110: 40nm -> 28nm, 3000M ->7100M Transistoren
GK110 -> GM200: 28nm -> 28nm, 7100M ->8000M Transistoren

Man darf nicht vergessen das GM200 keinen neuen Prozess und dadurch ein kaum höheres Transistorbudget hat. Das da überhaupt soviel Mehrleistung herauskommt, ist schon ein halbes Wunder – wann gab es zuletzt eine solche Steigerung der Leistung pro Transistor? Das es unter 28nm keine Verdoppelung ggü. GK110 geben kann, stand von vornherein fest.

Wie alle vergessen das dafür DP rausgeflogen ist ...
Sehe da absolut kein halbes Wunder ...

Godmode
2015-03-22, 21:19:52
Wie alle vergessen das dafür DP rausgeflogen ist ...
Sehe da absolut kein halbes Wunder ...

Mit DP wäre das Ding entweder noch größer geworden oder es wären nur mehr 20% Vorsprung zur GTX 980 herausgekommen. So gesehen bin ich froh, dass sie DP Units gestrichen haben.:freak: Jeder Nachteil kann auch in anderer Weise ein Vorteil sein.

Soll aber keine Schönrederei sein. Die Karte ist zur gebotenen Leistung zu teuer. Kaufen werde ich so aber aus Mangel an Alternativen wohl trotzdem.

Knuddelbearli
2015-03-22, 21:27:25
Mit DP wäre das Ding entweder noch größer geworden oder es wären nur mehr 20% Vorsprung zur GTX 980 herausgekommen. So gesehen bin ich froh, dass sie DP Units gestrichen haben.:freak: Jeder Nachteil kann auch in anderer Weise ein Vorteil sein.

Soll aber keine Schönrederei sein. Die Karte ist zur gebotenen Leistung zu teuer. Kaufen werde ich so aber aus Mangel an Alternativen wohl trotzdem.

Eher sogar weniger da GM104 einfach zu fett wurde ( Vergleich einfach mal DIE Größe GK104 zu Gk200 und wieviel Mehrleistung dort herausgekommen ist ) Aber ja genau darauf wollte ich hinaus!

Wie man dann so eine Aussage machen kann

Das da überhaupt soviel Mehrleistung herauskommt, ist schon ein halbes Wunder
ist mir ein Rätsel außer man hat mal wieder die beschnittene DP Fähigkeit vergessen

Godmode
2015-03-22, 21:40:07
Eher sogar weniger da GM104 einfach zu fett wurde ( Vergleich einfach mal DIE Größe GK104 zu Gk200 und wieviel Mehrleistung dort herausgekommen ist ) Aber ja genau darauf wollte ich hinaus!

Wie man dann so eine Aussage machen kann

ist mir ein Rätsel außer man hat mal wieder die beschnittene DP Fähigkeit vergessen

Das wird sicherlich gerne vergessen, weil der 0815 Spieler davon nichts hat, bzw. mitbekommt. Ich habe meine DP Units kein einziges mal produktiv verwendet, außer für ein paar CUDA Tutorials.

Knuddelbearli
2015-03-22, 21:49:41
Ja nur wenn man schon mit Transistorenanzahl um sich wirft ist die DP Fähigkeit auch wichtig

Thunder99
2015-03-22, 22:29:51
Es ist in meinen Augen die derzeit perfekte Gamer Karte welche nur viel zu teuer ist.

GM200 im Vollausbau mit 6GB wäre da als Custom Lösung ideal :)

Grestorn
2015-03-22, 22:31:19
Ja nur wenn man schon mit Transistorenanzahl um sich wirft ist die DP Fähigkeit auch wichtig

Ist das so? Für mich wäre jeder Transistor, der für DP verwendet wird, pure Verschwendung.

PHuV
2015-03-22, 22:51:55
Wenn ich mir die Benchmarks von vor 2 Jahren ansehe, als die erste Titan rauskam, war sie im Unterschied zur 680 ebenfalls um die 30-35% schneller, und kostete über 900-1000 €. Wenn der Dollarkurs nicht wäre, dann haben wir doch im Prinzip heute nur eine Wiederholung von Steigerung 680 GTX ->Titan (1) zu heute 980 > Titan X. Preislich und leistungsmäßig sind sie (auf den $ bezogen) an sich auf dem gleichen Leistungsniveau. Damals haben schon viele sich über den Preis der Titan ausgelassen, dennoch hat es anscheinend den Markt gefunden. Einige haben ja gemunkelt, daß die erste Titan von Nvidia nur ein Marktest ist, um die Akzeptanz zu prüfen. Wie man sehen kann, hat er funktioniert, sonst würde es jetzt garantiert keine Titan X geben.

Knuddelbearli
2015-03-22, 23:31:47
Ist das so? Für mich wäre jeder Transistor, der für DP verwendet wird, pure Verschwendung.

Ok 1 mal Versuche ich es noch. Es ging dort ja um die technische Betrachtung, unter anderem der Transistoren und das so betrachtet die Steigerung mit Titan X ein halbes Wunder sei. Dem habe ich widersprochen da das weglassen der DP ja eine Menge Transistoren einspart und deshalb das gar kein halbes Wunder ist.

Egal ob der Spieler sie dann benötigt oder nicht.
Falls AMD es mit Fiji schafft Titan X anzugreifen oder gar zu überflügeln, und wie erwartet DP von 1:2 oder 1:3 hat dann muss man einfach zugeben das AMD den bessere Chip / Architektur hat mit Fiji.

aths
2015-03-22, 23:47:25
@ aths

Ich will hier gar keine Diskussion vom Zaun brechen ob Boosttakt sinnvoll blah.

Du hast eines meiner Punkte warum ich der Meinung bin, dass Titan X nicht das aufgerufenen Geld wert ist aus dem Zusammenhang gerissen. Ich bin eben nach wie vor der Meinung, dass man für einen außergewöhnlichen Preis auch außergewöhnliche Maßstäbe setzen kann und darf und für mich nicht die gleichen Maßstäbe gelten wie bei einer 0815 Karte, die eben nur halb so teuer ist. Das ist alles andere als willkürlich. Und bei der Meinung bleibe ich auch. Das ist nichts um zu diskutieren.

Nochmal in Kurzform: Meiner Meinung nach sollten man für das Geld, das die Titan X eben kostet eine Karte bekommen, die keine Wünsche offen lässt. Tut sie das nicht ist sie das Geld meiner Meinung nach nicht wert. Wer anderer Meinung ist, soll das sein, hab ich nix dagegen.
Auch ich noch mal in Kurzform: Mit einer kleinen Änderung der Specs wäre deiner Meinung nach deine Erwartung erfüllt, obwohl die Karte exakt das gleiche leisten würde wie jetzt. Ich sehe nicht den Sinn darin, bei einer teuren Karte zu erwarten dass sie ständig den Boostclock hält. Das wäre dann kein Boostclock, sondern Baseclock. Würde man den Baseclock der Titan nun Boostclock nennen, wärst du auf einmal zufrieden obwohl die Leistung identisch ist ...

Schnoesel
2015-03-23, 00:28:19
Vielleicht liest du mal meinen gesamten Post bei dem einen Punkt aus dem Zusammenhang gerissen hast. Ist doch nicht so schwer.

Ich habe in mehreren Punkten ausgeführt warum ich denke dass die Karte ihr Geld nicht wert ist. Du betrachtest diesen einen Punkt völlig losgelöst und behauptest ich würde mich nur daran stören.

Würde man den Baseclock der Titan nun Boostclock nennen, wärst du auf einmal zufrieden obwohl die Leistung identisch ist ...

Nein! siehe oben. Da gibts noch einige Punkte mehr die ich kritisiere. Das Beispiel mit den Taktraten habe ich auch nur genommen um aufzuzeigen dass der Kühler @ Stock schon hart an der Grenze ist.

Hier noch mal mein Post:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10562159&postcount=1036

dargo
2015-03-23, 06:19:48
Es ist in meinen Augen die derzeit perfekte Gamer Karte GPU welche nur viel zu teuer ist.

fixed

Für Karte ist der Kühler einfach zu schlecht.

Grestorn
2015-03-23, 08:03:51
Ok 1 mal Versuche ich es noch. Es ging dort ja um die technische Betrachtung, unter anderem der Transistoren und das so betrachtet die Steigerung mit Titan X ein halbes Wunder sei. Dem habe ich widersprochen da das weglassen der DP ja eine Menge Transistoren einspart und deshalb das gar kein halbes Wunder ist.

Egal ob der Spieler sie dann benötigt oder nicht.
Falls AMD es mit Fiji schafft Titan X anzugreifen oder gar zu überflügeln, und wie erwartet DP von 1:2 oder 1:3 hat dann muss man einfach zugeben das AMD den bessere Chip / Architektur hat mit Fiji.

Wenn es Dir darum geht, das Gefühl zu haben, dass AMD die besseren und fähigeren Ingenieure hat, dann möchte ich Dir das nicht nehmen.

Ich, für meinen Teil, habe lieber möglichst viel der verbauten Transistoren für mich im Einsatz, als dass ein guter Teil grundsätzlich brach liegt.

Und, wie schon öfter geschrieben, es ist meine ehrliche Hoffnung, dass Fiji dem Maxwell ernsthaft etwas entgegensetzen kann und das Spitzenmodell 390WCE, oder wie auch immer es heißen mag, tatsächlich die Leistung einer Titan X in den Schatten stellt. Denn nur dann ist auch Gewährleistet, dass sich auch nVidia wieder so richtig ins Zeug legt und der Preis nicht zu sehr durch die Decke geht.

Orbmu2k
2015-03-23, 08:06:05
fixed

Für Karte ist der Kühler einfach zu schlecht.

Warum wird der Kühler eigentlich schon so schlecht geredet? Subjektiv kann man das erst beurteilen wenn man die Karte hat. Dass der Kühler lauter sein wird als die Referenzkühlung der 980 sollte klar sein bei über 70W mehr TDP.

Ich denke er wird nicht besser oder schlechter sein als bei der Titan Classic, und das ist gar nicht mal so schlecht für einen Radialkühler. Dieser hat auch wieder die Vapor Chamber, und ist damit nicht die günstige Variante von der 980.

Klar gibt es bessere Luftkühler als Custom Design, diese sind aber ausnahmslos Axialkühler. Das kann zu massiven Problemen führen wenn keine ausreichende Gehäusekühlung vorhanden ist da geht NVIDIA halt auf Nummer sicher.

Ich persönlich bin bei der Titan Classic zufrieden mit dem Kühler, da man in weniger anspruchsvollen Spielen durch das Temptarget trotzdem seine Ruhe hat.

Die Karte ist zu teuer ohne Frage, aber ein besserer Kühler würde daran auch nichts ändern.

dargo
2015-03-23, 08:09:38
Warum wird der Kühler eigentlich schon so schlecht geredet?
Weil er laut ist.

Godmode
2015-03-23, 08:11:16
Warum wird der Kühler eigentlich schon so schlecht geredet? Subjektiv kann man das erst beurteilen wenn man die Karte hat. Dass der Kühler lauter sein wird als die Referenzkühlung der 980 sollte klar sein bei über 70W mehr TDP.

Ich denke er wird nicht besser oder schlechter sein als bei der Titan Classic, und das ist gar nicht mal so schlecht für einen Radialkühler. Dieser hat auch wieder die Vapor Chamber, und ist damit nicht die günstige Variante von der 980.

Klar gibt es bessere Luftkühler als Custom Design, diese sind aber ausnahmslos Axialkühler. Das kann zu massiven Problemen führen wenn keine ausreichende Gehäusekühlung vorhanden ist da geht NVIDIA halt auf Nummer sicher.

Ich persönlich bin bei der Titan Classic zufrieden mit dem Kühler, da man in weniger anspruchsvollen Spielen durch das Temptarget trotzdem seine Ruhe hat.

Die Karte ist zu teuer ohne Frage, aber ein besserer Kühler würde daran auch nichts ändern.

Ich denke die meisten erwarten, bei einer 1150 Euro Karte, auch den besten Kühler, den es zu kaufen gibt.

Orbmu2k
2015-03-23, 08:16:32
Weil er laut ist.

Lauter als Axialkühler XY, mag ja sein. Aber er ist weit weg von den Luftkühlern beim AMDs Referenz Topdogs in der Vergangenheit.

Ich denke die meisten erwarten, bei einer 1150 Euro Karte, auch den besten Kühler, den es zu kaufen gibt.

Ich würde behaupten es ist der beste Radialkühler den es zu kaufen gibt. ;)

Godmode
2015-03-23, 08:19:48
Ich würde behaupten es ist der beste Radialkühler den es zu kaufen gibt. ;)

Ich bin mir da nicht so sicher, schließlich ist dieser Kühler nun auch schon über 2 Jahre alt.

robbitop
2015-03-23, 08:21:13
Wenn ich mir die Benchmarks von vor 2 Jahren ansehe, als die erste Titan rauskam, war sie im Unterschied zur 680 ebenfalls um die 30-35% schneller, und kostete über 900-1000 €. Wenn der Dollarkurs nicht wäre, dann haben wir doch im Prinzip heute nur eine Wiederholung von Steigerung 680 GTX ->Titan (1) zu heute 980 > Titan X. Preislich und leistungsmäßig sind sie (auf den $ bezogen) an sich auf dem gleichen Leistungsniveau. Damals haben schon viele sich über den Preis der Titan ausgelassen, dennoch hat es anscheinend den Markt gefunden. Einige haben ja gemunkelt, daß die erste Titan von Nvidia nur ein Marktest ist, um die Akzeptanz zu prüfen. Wie man sehen kann, hat er funktioniert, sonst würde es jetzt garantiert keine Titan X geben.
Erzähl keinen Unsinn.

GK104: 1536 SPs
GK110: 2880 SPs

-> 87 % mehr Recheneinheiten.

GM204: 2048 SPs
GM200: 3072 SPs

-> 50 % mehr Recheneinheiten.

Der taktnormierte Sprung bei Kepler war klar größer. Und da man GK110 und GM200 sehr gut takten kann - nahezu vergleichbar wie die 04 Version (man benötigt nur orderntliche Kühlung) - schlägt das auch voll durch.

cR@b
2015-03-23, 08:24:08
Ach der Kühler wurde zu Classic Zeiten schon gebasht. Ich habe ihn immer drauf lassen und ja ab 83 Grad regelt die Karte eine Stufe runter aber das macht sie auch mit Accelero ohne Mod Bios. Denke der Kühler ist durchaus einer der besten Luftkühler im Referenzdesign aber wenn man nicht den Preis noch bashen kann, dann kommt halt der Kühler dran und danach die geringfügige Mehrleistung gegenüber einer 980 usw. Irgendwas findet man immer...

StefanV
2015-03-23, 08:24:43
Lauter als Axialkühler XY, mag ja sein. Aber er ist weit weg von den Luftkühlern beim AMDs Referenz Topdogs in der Vergangenheit.
Und jetzt zeig uns doch bitte mal aktuelle AMD Karten, die du wirklich mit Referenzkühler kaufen kannst.
Also EINE KArte, die bei mindestens 5 Händlern auf Lager ist (mehr als 1-5 Stück).

Genau das ist eben der Punkt!
Es gibt so gut wie gar keine AMD Referenz Karten mehr im Handel, das was du aktuell kaufen kannst, ist schlicht Restbestand vom Release...

Und jetzt zeige mir bitte mal 5 (angekündigte) Custom Titan X Karten!
Ich bin schon gespannt...


Ich würde behaupten es ist der beste Radialkühler den es zu kaufen gibt. ;)
Auch das ist er nicht. Dazu hast einfach einen zu großen Luftwiderstand bei dem Kühler...

Aber ich werde auch nie verstehen, warum dieser DHE Mist von einigen Leuten so sehr verehrt wird...
Das Zeugs macht in einem halbwegs brauchbar belüfteten halbwegs aktuellem Gehäuse einfach mal 0 Sinn.

Einzig bei 15 Jahre alten Gehäusen, die auch nie für High End konzipiert waren, macht das vielleicht noch Sinn.

Aber wer bitte schön klatscht eine High End Grafikkarte in ein 15 Jahre altes Gehäuse??

Aber selbst hier wären gute Custom Karten z.T. noch besser, sofern man gescheite Lüfter verbaut..

AnarchX
2015-03-23, 08:29:04
Erzähl keinen Unsinn.

GK104: 1536 SPs
GK110: 2880 SPs

-> 87 % mehr Recheneinheiten.
[...]

Bei Titan 1 (14SMX) waren es zwar nur +75%. Und dann gab es noch 4GiB Versionen von 680/670, die für die damalige Zeit keine Speicherprobleme aufkamen ließen. Die Situation war von beiden Seiten etwas anders.

Schlussendlich hatte man mit Titan 1 eine High-End-Lösung, die mit Enthusiasten-Modding, durchaus 2 Jahre oben mitgespielt hat und auch in den nächsten Monaten wohl noch mit >$399 Karten mithält.
Titan X hingegen hat das Problem, dass in weniger als 12 Monaten ein neuer Fertigungsprozess vor der Tür steht und gleichzeitig HBM2 vielleicht eine Option für $299+ werden könnte. Ebenso die Sache mit den 16-Bit Ops, die wenn man Coda glaubt, wohl durchaus Sinn macht auch für kommende Spiele.

akuji13
2015-03-23, 08:32:38
Ach der Kühler wurde zu Classic Zeiten schon gebasht. Ich habe ihn immer drauf lassen und ja ab 83 Grad regelt die Karte eine Stufe runter aber das macht sie auch mit Accelero ohne Mod Bios.

Wobei ich noch meine Zweifel habe das du damit je 83° erreichen wirst (bezogen auf die GPU Temps in den screenshots bei PCGH).

anddill
2015-03-23, 08:34:47
Aber wer bitte schön klatscht eine High End Grafikkarte in ein 15 Jahre altes Gehäuse??

Aber selbst hier wären gute Custom Karten z.T. noch besser, sofern man gescheite Lüfter verbaut..

Zählt auch ein Gehäuse dessen Konzept 20 Jahre alt ist?
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=46393&d=1375822043

Wahrscheinlich passiert das häufiger als Du denkst.

cR@b
2015-03-23, 08:36:34
Wobei ich noch meine Zweifel habe das du damit je 83° erreichen wirst (bezogen auf die GPU Temps in den screenshots bei PCGH).

Bei dene sind aber noch zwei zusätzliche Lüfter hinten dran also ich weiß nicht aber 10-15 Grad Unterschied wird der Accelero auch nicht alleine schaffen, zumal 83 Grad generell schnell erreicht sind, wenn ein Game die Karte richtig burnt.

uweskw
2015-03-23, 08:43:22
Ja 1.500 reicht ja dicke. Meine 980er schaffen auch nur 1450 wirklich stabil. Schafft es der Test eigentlich in die nächste PCGH?

Ich warte auch ab. Solange die Karten nicht breitflächig verfügbar sind, macht die ganze bestellerei eh keinen Sinn.

Gibt es eigentlich irgendwo einen Taktnormalisierten Vergleichstest?
Mich würde mal interessieren wie Keppler, Maxwell, GM200 und HawaiiXt bei 1000MHz liegen.
Da müsste Keppler doch vor Maxwell, und fast auf Höhe des GM200 liegen. Und HawaiiXT nur knapp hinter dem GM200???

Greetz
U.S.

akuji13
2015-03-23, 08:46:35
Bei dene sind aber noch zwei zusätzliche Lüfter hinten dran also ich weiß nicht aber 10-15 Grad Unterschied wird der Accelero auch nicht alleine schaffen, zumal 83 Grad generell schnell erreicht sind, wenn ein Game die Karte richtig burnt.

Die Lüfter kühlen in der Hautsache die backplate bzw. diese die VRM´s runter.

Ich kann es zwar nur mit der Titan Classic beurteilen aber da wird es schwer die 83° zu erreichen mit dem Kühler.

56°, 43°, 50° sind schon ne Ansage.
Ist zwar bei 100% aber da ist noch Luft nach unten.

AnarchX
2015-03-23, 08:50:57
Gibt es eigentlich irgendwo einen Taktnormalisierten Vergleichstest?
Mich würde mal interessieren wie Keppler, Maxwell, GM200 und HawaiiXt bei 1000MHz liegen.
Da müsste Keppler doch vor Maxwell, und fast auf Höhe des GM200 liegen. Und HawaiiXT nur knapp hinter dem GM200???

2880 sind aber weniger als 3072. Zudem hat Kepler das Problem, dass er superskalar ausführt und zu wenig Cache/Register in den GK1xx-Varianten hatte. Da kann ein voller GK110 meist nicht mehr als ~2000SPs auslasten, weswegen GM204 ihn auch übertrifft. Maxwell hat nahezu immer vollen Durchsatz.

dargo
2015-03-23, 09:00:34
Lauter als Axialkühler XY, mag ja sein. Aber er ist weit weg von den Luftkühlern beim AMDs Referenz Topdogs in der Vergangenheit.
Nur weil AMD noch einen schlechteren Referenzkühler verbaut wird der von NV für mich nicht automatisch besser. Auch der Ref. Kühler der GTX980 ist für mich schon Grütze.

BlacKi
2015-03-23, 09:03:32
Egal ob der Spieler sie dann benötigt oder nicht.
Falls AMD es mit Fiji schafft Titan X anzugreifen oder gar zu überflügeln, und wie erwartet DP von 1:2 oder 1:3 hat dann muss man einfach zugeben das AMD den bessere Chip / Architektur hat mit Fiji.

genau das ist der grund warum ich denke das fiji deutlich langsamer sein wird als gm200, die hohe DP fähigkeit behindert den chip große höhenflüge zu machen im gaming sektor.

cR@b
2015-03-23, 09:11:34
Die Lüfter kühlen in der Hautsache die backplate bzw. diese die VRM´s runter.

Ich kann es zwar nur mit der Titan Classic beurteilen aber da wird es schwer die 83° zu erreichen mit dem Kühler.

56°, 43°, 50° sind schon ne Ansage.
Ist zwar bei 100% aber da ist noch Luft nach unten.

Hmm ok klingt natürlich krass. Wie unnötig heizt er denn die Umgebung mit? Umbau ist auch bissl doof, gerade wenn man nicht wie bei Evga abgesichert ist.
Mein CPU Kühler hat ca. 2mm Luft zur Graka Rückenseite :D Ziemlich ungünstig auch! Glaube irgendwann wechsel ich von meinem Lancool K7 auf nen gscheites Wakü Gehäuse. Bis Dato bin ich ziemlich Retro unterwegs :ugly:

Dural
2015-03-23, 09:12:12
Auch das ist er nicht. Dazu hast einfach einen zu großen Luftwiderstand bei dem Kühler...


Zeig mir einen einzigen besseren Radialkühler für Grafikkarten.

Und ja, auch wenn es einige bis heute nicht war haben wollen, diese Kühler haben bei schlechter Gehäuse Belüftung deutliche Vorteile.
Und überhaupt, zwischen diesem Kühler und denen von AMD liegen WELTEN.

Schnoesel
2015-03-23, 09:19:26
Wen interessieren denn Radiallüfter. Es ist doch einzig und allein Nvidias Entscheidung keine Customdesigns zuzulassen. Wer von euch würde ernsthaft den lauten Referenzkühler kaufen, wenn sich die Boardpartner ausleben dürften?

Wer?

Klar AMD Hawaii Referenz war scheiße aber da hat man wenigstens die Wahl.

Dural
2015-03-23, 09:22:07
Ich kaufe immer nur Referenzkarten. Zudem für mich das Optische auch wichtig ist, und da ist NV so wie so Meilenweit vor allen anderen.

Gerade wer Grafikkarten Sammelt, will doch nur Referenz.

Und noch mal, es ist eine TITAN, es ist nicht die Standard Version vom GM200 wie zb. die 780Ti.

Schnoesel
2015-03-23, 09:23:04
Das Marketing schlägt voll durch was. Es ist eine Titan ;D

Dural
2015-03-23, 09:31:36
Was für Noobs hier... High End Karten gab es noch nie von Partner direkt! Das wollte ich mit Titan sagen. Weder Ultra noch sonst was.

Diese Diskussion kommt mir hier schon seit mehreren Seiten vor "Ich will eine haben, habe keine 1000.- deswegen muss ich alles schlecht reden"

Wie Armselig! :rolleyes:

Schnoesel
2015-03-23, 09:36:30
"Ich will eine haben, habe keine 1000.- deswegen muss ich alles schlecht reden"

Ernsthaft Jetzt? :biggrin: Gott ist ja niedlich. Ehrlich Titan ist genau das was sie deiner Meinung nach nicht ist. Eine Standard Referenzkarte deren Preispunkt man exorbitant gesetzt hat und mit einem Titansticker versehen, damit Leute wie du glauben das Ding wäre etwas besonderes. Sowas nennt man Marketing-Opfer. Eigentlich unglaublich sowas.

robbitop
2015-03-23, 09:40:08
Bei Titan 1 (14SMX) waren es zwar nur +75%. Und dann gab es noch 4GiB Versionen von 680/670, die für die damalige Zeit keine Speicherprobleme aufkamen ließen. Die Situation war von beiden Seiten etwas anders.

Schlussendlich hatte man mit Titan 1 eine High-End-Lösung, die mit Enthusiasten-Modding, durchaus 2 Jahre oben mitgespielt hat und auch in den nächsten Monaten wohl noch mit >$399 Karten mithält.
Titan X hingegen hat das Problem, dass in weniger als 12 Monaten ein neuer Fertigungsprozess vor der Tür steht und gleichzeitig HBM2 vielleicht eine Option für $299+ werden könnte. Ebenso die Sache mit den 16-Bit Ops, die wenn man Coda glaubt, wohl durchaus Sinn macht auch für kommende Spiele.
Spiel keine Rolle, ob es deaktiviert war. Die SPs waren vorhanden. Und selbst wenn ist selbst bei 14 SMs der Sprung immernoch deutlich größer.

mironicus
2015-03-23, 09:41:51
Diese Diskussion kommt mir hier schon seit mehreren Seiten vor "Ich will eine haben, habe keine 1000.- deswegen muss ich alles schlecht reden"

Red nicht! Kauf dir eine! Am besten gleich zwei. Weil... das macht dich so richtig... GLÜCKLICH! ;D:biggrin::devil:

PHuV
2015-03-23, 09:43:49
Erzähl keinen Unsinn.

GK104: 1536 SPs
GK110: 2880 SPs

-> 87 % mehr Recheneinheiten.

GM204: 2048 SPs
GM200: 3072 SPs

-> 50 % mehr Recheneinheiten.

Der taktnormierte Sprung bei Kepler war klar größer. Und da man GK110 und GM200 sehr gut takten kann - nahezu vergleichbar wie die 04 Version (man benötigt nur orderntliche Kühlung) - schlägt das auch voll durch.
Wo den? Wenn ich mir die praktischen Benchmarks ansehe

http://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/6/

sehe ich bei Titan Max 34% zu einer 680. :P

Godmode
2015-03-23, 09:43:54
1080,44 ist mal der niedrigste Preis den ich bisher gesehen habe:

http://abload.de/img/screenshot2015-03-23alru2x.png

mironicus
2015-03-23, 09:46:22
Dreistellig sollte der Preis sein. Dazu noch ein 10%-Gutschein von MeinPaket.de. :)

AnarchX
2015-03-23, 09:47:16
Spiel keine Rolle, ob es deaktiviert war. Die SPs waren vorhanden. Und selbst wenn ist selbst bei 14 SMs der Sprung immernoch deutlich größer.
GK104 war aber auch deutlich kleiner, sozusagen, hatte der Performance-Käufer hier weniger von NV bekommen. ;)

Wo den? Wenn ich mir die praktischen Benchmarks ansehe

http://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/6/

sehe ich bei Titan Max 34% zu einer 680. :P
Es geht wohl um den Enthusiasten-Betrieb mit Wasser und Mod-BIOS, wo man Taktgleichheit schafft und der Einheitenunterschied durchschlägt.

Godmode
2015-03-23, 09:47:38
Dreistellig sollte der Preis sein. Dazu noch ein 10%-Gutschein von MeinPaket.de. :)

Dreistellig wird beim aktuellen Eurokurs schwierig.

cR@b
2015-03-23, 09:48:18
Meine hab ich für 1066 bestellt. Bin gespannt, ob bzw. wann sie raus geht.

Grestorn
2015-03-23, 09:49:21
genau das ist der grund warum ich denke das fiji deutlich langsamer sein wird als gm200, die hohe DP fähigkeit behindert den chip große höhenflüge zu machen im gaming sektor.

Korrigiert mich, wenn ich falsch liege, ich bin ja kein Fiji-Experte...

Aber ich dachte gelesen zu haben, dass Fiji in der Lage ist, 2 SP Einheiten zu 1 DP Einheit zusammenzuschließen, oder? Zumindest Pascal wird das ja angeblich können ("Mixed Precision").

Wenn dem so wäre, dann hätte man Best of Both Worlds.

akuji13
2015-03-23, 09:51:36
Hmm ok klingt natürlich krass. Wie unnötig heizt er denn die Umgebung mit? Umbau ist auch bissl doof, gerade wenn man nicht wie bei Evga abgesichert ist.
Mein CPU Kühler hat ca. 2mm Luft zur Graka Rückenseite :D Ziemlich ungünstig auch! Glaube irgendwann wechsel ich von meinem Lancool K7 auf nen gscheites Wakü Gehäuse. Bis Dato bin ich ziemlich Retro unterwegs :ugly:

Die Umgebung wird immer aufgheizt, ist nur die Frage um wieviel.
Ich habe generell eine gute Durchlüftung, deshalb macht das bei mir nur einen geringen Unterschied aus.

Das Problem was du hast mit dem Abstand hatte ich auch, deshalb bin ich auf AiO´s gewechselt.

Da würde ich von so einer Lösung abraten, selbst wenn es passen würde (bei 2mm geht der IV sicher nicht), das heizt sich ordentlich gegenseitig auf.

uweskw
2015-03-23, 09:51:58
Naja, ich erwarte für den saftigen "Enthusiasten-Zuschlag" eine Karte die das in Großserie technisch machbare umsetzt. Und was bietet mir die TitanX? Eine Karte die aus politischen Erwägungen weit unter ihren Möglichkeiten läuft. So was passt zur Mittelklasse. Da fühle ich mich verarscht.
Hätte meine 780Ti gerne augemustert...

greetz
U.S.

AnarchX
2015-03-23, 09:54:22
Korrigiert mich, wenn ich falsch liege, ich bin ja kein Fiji-Experte...

Aber ich dachte gelesen zu haben, dass Fiji in der Lage ist, 2 SP Einheiten zu 1 DP Einheit zusammenzuschließen, oder? Zumindest Pascal wird das ja angeblich können ("Mixed Precision").

DP(64-Bit) mit halben SP(32-Bit)-Durchsatz kann auch schon Hawaii.
Neu bei Pascal und auch schon Tegra X1 ist das man die 32-Bit ALUs in 2x 16-Bit splitten kann und so bei 16-Bit den doppelten Durchsatz gegenüber 32-Bit erhält, bei anderen aktuellen GPUs ist das der gleiche Durchsatz wie bei 32-Bit.

Die 32-tel Durchsatz für 64-Bit bei GM200 ist möglicherweise ein Design-Problem, was man sich mit den dedizierten DP-ALUs seit Kepler ins Haus geholt hat. Rein von der Transistorkosten, wäre ein 1/4 bzw. 1/8 Modus wohl mit minimalen Aufwand implementierbar gewesen.

mironicus
2015-03-23, 09:56:51
Dreistellig wird beim aktuellen Eurokurs schwierig.

Es gibt häufig starke Preisschwankungen bei Amazon (manchmal auch Preisfehler). Bei Keepa.com kann man Produkte von allen relevanten Amazon-Seiten (fr, uk, it, es, de) verfolgen und einen Preisalarm aktivieren. Das hat mir schon manches Schnäppchen ermöglicht. Zum Beispiel letztens 16 GB DDR4-RAM für 150 Euro bei Amazon Italien (kostet sonst 330 Euro). :)

PHuV
2015-03-23, 10:03:40
t. Zum Beispiel letztens 16 GB DDR4-RAM für 150 Euro bei Amazon Italien (kostet sonst 330 Euro). :)
Watt? :confused: Was soll das für Speicher sein? Ich habe vor ca. 2 Monaten für 32 GB 350 € DDR4 2400 ausgegeben.

robbitop
2015-03-23, 10:07:50
Wo den? Wenn ich mir die praktischen Benchmarks ansehe

http://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/6/

sehe ich bei Titan Max 34% zu einer 680. :P
Ich sagte Taktnormiert. Welcher Titankäufer lässt denn bitte eine Titan (black) auf default? Gerade Titan Classic war lächerlich tief getaktet und ließ sich massiv höher takten. (Insbesondere mit anständigem Kühler und Modbios)
GK110 gehen je nach dem ob Classic oder Black zwischen 1200-1300 Mhz Chiptakt. GK104 in etwa ähnlich.

GK110 wurde nur wegen der TDP und der Kühlerrestriktion gefesselt. GM200 geht es genauso.

http://www.computerbase.de/2014-03/nvidia-geforce-gtx-titan-black-test/5/

Hier ist eine Titan Black 54 % schneller als die GTX770. Taktnormiert kannst du nochmal 10 % draufpacken.

GK104 war aber auch deutlich kleiner, sozusagen, hatte der Performance-Käufer hier weniger von NV bekommen. ;)

So kann man es auch sehen. Tue ich aber nicht. Die Differenz zwischen GK104 und GK110 war größer als bei Maxwell. Einfach weil noch 28 nm genutzt werden muss. -> blöde Stagnation der Fertigungsprozesse.

Grestorn
2015-03-23, 10:18:12
Die Taktnormierung musst Du der Titan X dann aber auch zugestehen!

Und dass die Titan Black vs. 770 (aka 680) mehr als 50% hat, ist ja klar. Wenn vergleichen dann bitte in der gleichen Generation, also Titan Classic gegen 680 und Titan Black gegen 780 oder 780Ti.

robbitop
2015-03-23, 10:19:01
Tue ich ja.

GM200 geht es genauso.


-----------------------

GM200 schafft taktnormiert ca. 50 % zu GM204.
GK110 schafft taktnormiert je nach Bottleneck und Benchmark 65-70 % zu GK104.

Grestorn
2015-03-23, 10:23:55
Tue ich ja.



-----------------------

GM200 schafft taktnormiert ca. 50 % zu GM204.
GK110 schafft taktnormiert je nach Bottleneck und Benchmark 65-70 % zu GK104.

Der Vollausbau der GK110 schafft gegen die GK104 evtl. maximal 70%. Aber die Classic war bekanntermaßen kein Vollausbau.

robbitop
2015-03-23, 10:27:49
Bei der Classic kann man 5...8 % abziehen. Die Differenz ist trotzdem größer.
(Für die Betrachtung der GPUs zählt für mich außerdem nur Vollausbau.)

uweskw
2015-03-23, 11:14:47
Der Vollausbau der GK110 schafft gegen die GK104 evtl. maximal 70%. Aber die Classic war bekanntermaßen kein Vollausbau.

780Ti ist bei gleichem Takt oftmals schneller als die 980er

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/32753-geforce-gtx-980-im-taktvergleich-mit-der-geforce-gtx-780-ti.html?start=1

Ultron
2015-03-23, 11:28:24
Die 780 Ti und die 980 sind bei max OC Takt quasi gleich schnell. Die 980 braucht 1500MHz damit sie mit einer 780Ti @ 1300MHz mitkommt, und viel mehr machen die meisten 980 nicht.

Die 780Ti war aufgrund der TDP stark gedrosselt, jeder Highend-Käufer der die Karten unter Wasser betreibt und da nochmal 40-50% rausholt weiß das. Die 980 ist nur ab Werk leicht schneller und hat 1GB mehr VRam...

Ich warte auf Fiji und steig dann von 780 Ti SLI um :)

Schrotti
2015-03-23, 12:08:09
Warum wird der Kühler eigentlich schon so schlecht geredet? Subjektiv kann man das erst beurteilen wenn man die Karte hat. Dass der Kühler lauter sein wird als die Referenzkühlung der 980 sollte klar sein bei über 70W mehr TDP.

Ich denke er wird nicht besser oder schlechter sein als bei der Titan Classic, und das ist gar nicht mal so schlecht für einen Radialkühler. Dieser hat auch wieder die Vapor Chamber, und ist damit nicht die günstige Variante von der 980.

Klar gibt es bessere Luftkühler als Custom Design, diese sind aber ausnahmslos Axialkühler. Das kann zu massiven Problemen führen wenn keine ausreichende Gehäusekühlung vorhanden ist da geht NVIDIA halt auf Nummer sicher.

Ich persönlich bin bei der Titan Classic zufrieden mit dem Kühler, da man in weniger anspruchsvollen Spielen durch das Temptarget trotzdem seine Ruhe hat.

Die Karte ist zu teuer ohne Frage, aber ein besserer Kühler würde daran auch nichts ändern.

Ich hatte meine beiden 980er zu Beginn auch nur mit dem Referenzkühler im SLi. Es ist etwas lauter geworden ja aber nie das man jetzt von richtig Laut hätte reden müssen.

Es reagiert ja jeder anders auf diesen "Lärm".

Loeschzwerg
2015-03-23, 14:18:55
http://www.inno3d.com/products_detail.php?refid=192

Schon bekannt?

Anscheinend lässt Nvidia schon ein wenig "mehr" zu, nur eben bei den normalen Luftkühlern nicht (zumindest noch).

akuji13
2015-03-23, 14:35:40
Watt? :confused: Was soll das für Speicher sein? Ich habe vor ca. 2 Monaten für 32 GB 350 € DDR4 2400 ausgegeben.

Unterschiedliche Modulanzahl vielleicht?

32 Gb gibts ja mit 4 oder 8 Modulen.

http://www.inno3d.com/products_detail.php?refid=192

Sieht zumindest schon deutlich besser aus als die Titan Fassung.

Grestorn
2015-03-23, 14:49:20
Die 780 Ti und die 980 sind bei max OC Takt quasi gleich schnell. Die 980 braucht 1500MHz damit sie mit einer 780Ti @ 1300MHz mitkommt, und viel mehr machen die meisten 980 nicht.

Wenn es die 780Ti mit 6 GB gegeben hätte, hätte ich sie auch letzten Herbst der 980 vorgezogen. Auch heute noch. Aber die gibt's ja nicht, und die Titan Black war mir zu teuer für's gebotene.

Sunrise
2015-03-23, 16:30:51
http://www.inno3d.com/products_detail.php?refid=192

Schon bekannt?

Anscheinend lässt Nvidia schon ein wenig "mehr" zu, nur eben bei den normalen Luftkühlern nicht (zumindest noch).
Nice, endlich mal wieder welche "out of the box" mit Arctic-Kühlern. Interessant, dass man da jetzt mehr zulässt als bei der original Titan, da spürt man wohl Fiji im Nacken. :D
Sowas steht und fällt aber mit dem Preis, die Titan X ist einfach noch zu teuer.

Hier gibts übrigens eine Performance-Einschätzung bei 4K von Fiji (anhand der geleakten Folien):
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10564244#post10564244

cR@b
2015-03-23, 19:21:48
Geht scho gut ab die Matz. Könnte mir auch eine bei EVGA holen aber ich versuch günstiger ran zu kommen :ugly:

http://www.hardwareluxx.de/community/f305/nvidia-geforce-gtx-titan-x-gm200-sammelthread-faq-1056418-18.html#post23311314

4Fighting
2015-03-23, 19:28:00
http://www.inno3d.com/products_detail.php?refid=192

Schon bekannt?

Anscheinend lässt Nvidia schon ein wenig "mehr" zu, nur eben bei den normalen Luftkühlern nicht (zumindest noch).

Gab es schon bei der Titan Black - auch von inno.

Wunderte mich damals schon, warum sie als einzige custom Kühler (neben EVGA) verbauen durften:confused:

Raff
2015-03-23, 20:06:57
Jetzt mit Benchmarks und etwas mehr Prosa:

GTX Titan X mit Arctic Accelero Xtreme IV: Bis zu 1.550 MHz dank Mod-BIOS (http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/)

Man beachte die Fps der Titan Classic mit konservativem Boost im Vergleich.

MfG,
Raff

aufkrawall
2015-03-23, 20:12:00
Warum SMAA 4x und nicht 2xT?
Ergibt in 4k wenig Sinn mit den fps.

Raff
2015-03-23, 20:19:10
Der Nächste sagt, dass man "in 4K eh kein AA braucht". Darum 4x SMAA: maximale Qualität. MSAA leistet das nicht, das ist einfach nur teuer.

MfG,
Raff

aufkrawall
2015-03-23, 20:49:26
Da ist 2xMSAA mit drin, und das ist komplett unverünftig mit teurem Deferred Rendering, 4k und eh schon niedrigen fps wie in diesem Fall.
Dann hat der nächste halt einfach unrecht. ;)
4x bringt auch gar nichts gegen das Aliasing, das 2xT bei dem Spiel nennenswert übersieht (Specular Flimmern).

Außerdem wäre weniger Effekthascherei bei den Taktraten wünschenswert.
Realistische Werte bei GM204 & 200 wären ~1450Mhz gewesen. Dann hätte man auch gleich noch einen exakten pro Mhz-Vergleich mit OC. Also genau das, was eigentlich die meisten Enthusiasten-Käufer wirklich interessieren wird.

Godmode
2015-03-23, 22:42:45
Jetzt mit Benchmarks und etwas mehr Prosa:

GTX Titan X mit Arctic Accelero Xtreme IV: Bis zu 1.550 MHz dank Mod-BIOS (http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Arctic-Xtreme-IV-Mod-BIOS-1154063/)

Man beachte die Fps der Titan Classic mit konservativem Boost im Vergleich.

MfG,
Raff

Schön zu sehen was das Ding Leisten kann, wenn man es nur lässt. :smile:

Wäre Nvidia gleich mit 1400 MHz an den Start gegangen, wäre das viel enthusiastischer gewesen.

135i
2015-03-23, 22:58:21
Der Nächste sagt, dass man "in 4K eh kein AA braucht". Darum 4x SMAA: maximale Qualität. MSAA leistet das nicht, das ist einfach nur teuer.

MfG,
Raff

Gibt aber auch noch interessante Mischmodis im Inspektor einzustellen.
Mehr als Diashow wird's da nicht geben, bei 4k. Selbst 28,5 FPS bei 4xSMAA , wie in Euren interessanten Artikel/Bench ersichtlich , ist ja nicht wirklich zu gebrauchen.

aufkrawall
2015-03-23, 23:01:32
Seit DX10 gibt es meist nicht mehr viel interessantes einzustellen.

PHuV
2015-03-23, 23:30:42
Finde ich - ehrlich gesagt - auch gut so. Zu viel Einstellerei hält einem vom Spielen ab. Ich will heute ein Spiel anwerfen und spielen, und nicht stundenlang nach "optimalen Einstellungen" rumpfimeln.

Grestorn
2015-03-23, 23:45:27
Finde ich - ehrlich gesagt - auch gut so. Zu viel Einstellerei hält einem vom Spielen ab. Ich will heute ein Spiel anwerfen und spielen, und nicht stundenlang nach "optimalen Einstellungen" rumpfimeln.

Och, das find ich eigentlich das spannende am PC Gaming... Einfach nur mit Null-Acht-Fuffzehn Einstellungen zocken kann man problemloser auf der Konsole :)

HisN
2015-03-24, 00:24:31
Die Zeit fehlt aber beim Zocken, besonders die Familienväter in einer Vollzeitbeschäftigung würden eventuell lieber Zocken als popeln. Ein Grund warum das SLI jetzt endgültig verschwindet.

135i
2015-03-24, 00:27:18
del.

135i
2015-03-24, 00:27:55
Finde ich - ehrlich gesagt - auch gut so. Zu viel Einstellerei hält einem vom Spielen ab. Ich will heute ein Spiel anwerfen und spielen, und nicht stundenlang nach "optimalen Einstellungen" rumpfimeln.

Systemübertaktung nimmt bedeutend mehr Zeit in Anspruch ;)

135i
2015-03-24, 00:30:40
Die Zeit fehlt aber beim Zocken, besonders die Familienväter in einer Vollzeitbeschäftigung würden eventuell lieber Zocken als popeln. Ein Grund warum das SLI jetzt endgültig verschwindet.

Was gibt's denn heutzutage noch bei SLI zu popeln? Vielleicht mit angedachten TitanX -SLI in der Brieftasche ? :D

HisN
2015-03-24, 06:53:13
https://www.youtube.com/watch?v=pNqEQIqPF24
https://www.youtube.com/watch?v=yBcOBhTEmZY
https://www.youtube.com/watch?v=QE-o3gFxods
Das gleiche wie schon 2006, warum sollte sich da was ändern HEUTE Deiner Meinung nach? Weil es HEUTE kein AFR mehr ist wie schon 2006?

akuji13
2015-03-24, 07:51:08
Systemübertaktung nimmt bedeutend mehr Zeit in Anspruch ;)

Kommt darauf an wo man hin will.

Mein CPU OC hat sage und schreibe 60 Sekunden gedauert.

Sunrise
2015-03-24, 09:55:53
Systemübertaktung nimmt bedeutend mehr Zeit in Anspruch ;)
Wer das nicht zum ersten Mal macht, der investierst aber nur einmalig, macht sich gründlich Notizen, zurrt das dann fest und gut ist. Es gibt heutzutage garkeine Gründe mehr, da permanent am OC rumzufrickeln.

Ich habe da auch keine Lust mehr, weil es heutzutage kaum mehr was bringt. Ob ich jetzt 4,4GHz oder 4,5GHz fahre ist doch komplett egal, wichtig ist eigentlich nur, dass du das mit möglichst wenig Volt erreichst oder dir direkt ein sparsames aber ausreichendes Setting suchst.

Maximal baust du dir eben zwei Einstellungen, eine für den alltäglichen Betrieb und eine für maximale Leistung, das wars dann auch schon.

Ich will auch spielen können und nicht erst an 100.000 Einstellungen rumfrickeln müssen, daher bin ich auch immer schon exklusiv Single-GPU affin, kaufe dafür aber auch meist die größte und schnellste Lösung. Was der Markt eben hergibt.

PC ist für mich immernoch hauptsächlich Flexibilität und nicht Frickelei. Wenn ich frickeln will, dann kauf ich mir Android und installiere mir Linux und studiere mein Leben lang irgendwas. Wem's gefällt.

robbitop
2015-03-24, 10:12:32
@SGSSAA/Optimierung von Spielen
Als wenn jemand einer dazu zwingt, AA-Modi / Detailgrade für Spiele zu tweaken. :rolleyes:
Man kann, wenn man keine Zeit/Lust hat auch das Spiel out of the box spielen. Für andere Leute, die Zeit haben, sind mehr Optionen immer gut.

Ich schaue bei jedem Spiel, ob es SGSSAA Bits gibt (die BQ ist einfach überhaben), ob es SLI bits gibt (Titan SLI) und ob es SSAO bits gibt.
Je nach Fall prüfe ich auch ob Injectors oder Mods noch mal aufhübschen können.

Alles kein Muss! Sondern ein Kann. (insofern hätte ich gern SGSSAA zurück :D)

Was SLI/CF angeht: AFR Müll. Geht manchmal entweder nicht, oder wird kaputt gepatcht oder ist mit Bildfehlern/Texturflimmern verbunden oder oder oder... weil die Spieleentwickler es meist nicht interessiert. (ist eine zu schmale Nische in einem eh schon Nischenmarkt (PC).

Prominente Beispiele:

- Shadows of Mordor (SLI funktionierte zum Launch NICHT - dann gab es ewig später einen Patch und ein Bit. Dann wurde es kaputt gepatcht. Geht also auf neustem Patch mWn nicht richtig)
- Cities Skylines (SLI funktioniert nicht - wird sich wohl auch nicht ändern laut Blaire)
- Assassins Creed Unity (ging erst wunderbar und im vorletzten Patch sind Flackerprobleme hinzugekommen)
- Watch Dogs (SLI skaliert schlecht - ist irgendwie kaputt)
- Dragon Age Inquisition (Texturen flimmern)

Wenn es denn mal einwandfrei geht:

- 3x Kosten (teureres Netzteil, 2x GPUs, idealerweise Wakü!, besseres Board mit mehr PCIe Lanes/PCIe Switch)
- doppelte Leistungsaufnahme
- Laut oder Wakü notwenig
- es passen keine PCIe 1x Karten mehr, ohne die Rückseite einer der Karte zu blockieren (Wärmestau)

Was man dafür bekommt:
- ca. 50 % mehr gefühlte Leistung (Frametimes sind ungleichmäßiger als sGPU - Benchmark FPS mGPU != sGPU)

AFR ist halt was für Leute, die trotz dessen jedes Fitzelchen an Leistung brauchen (4K) und auch damit leben können, dass es mal gar nicht funktioniert.

Sunrise
2015-03-24, 11:07:11
Was SLI/CF angeht: AFR Müll. Geht manchmal entweder nicht, oder wird kaputt gepatcht oder ist mit Bildfehlern/Texturflimmern verbunden oder oder oder... weil die Spieleentwickler es meist nicht interessiert. (ist eine zu schmale Nische in einem eh schon Nischenmarkt (PC).
Mal gespannt, was AMD da mit Fiji für zwei neue Modi für uns hat. Eventuell (sogar IMHO recht sicher) wird NV mit Pascal/Volta auch neue Modi einführen.

robbitop
2015-03-24, 11:11:53
Naja - solange man keine latenzarme sehr breite Verbindung zwischen 2 GPUs hat, ist alles andere immer mit Kompromissen verbunden. Und mit expliziter Unterstützung durch den Entwickler.
Ich sehe da ehrlich gesagt keine Besserung.

Sunrise
2015-03-24, 11:26:20
Naja - solange man keine latenzarme sehr breite Verbindung zwischen 2 GPUs hat, ist alles andere immer mit Kompromissen verbunden. Und mit expliziter Unterstützung durch den Entwickler.
Ich sehe da ehrlich gesagt keine Besserung.
Ließe sich spätestens mit NVLink nicht eine Karte mit 2 GPUs bauen, bzw. über zwei oder mehr Karten hinweg? Da sind wir ja jetzt nichtmehr soweit weg.

Godmode
2015-03-24, 11:28:57
Mal gespannt, was AMD da mit Fiji für zwei neue Modi für uns hat. Eventuell (sogar IMHO recht sicher) wird NV mit Pascal/Volta auch neue Modi einführen.

Ließe sich spätestens mit NVLink nicht eine Karte mit 2 GPUs bauen, bzw. über zwei oder mehr Karten hinweg? Da sind wir ja jetzt nichtmehr soweit weg.

Die Entwickler müssen das trotzdem alles manuell erledigen, siehe Mantle Dokumentation. Also ich erhoffe mir jetzt nicht soviel davon.

Grestorn
2015-03-24, 11:30:48
Für VR macht SLI m.E. schon sehr viel Sinn, wenn man dediziert für jedes Auge eine Karte rechnen lassen kann. Ich denke, wesentlich effizienter skalieren geht nicht. Und ich sehe auch nicht, wo dabei große Hürden bei der Kompatibilität sein sollten (abgesehen von Problemen, die durch VR / 3D selbst entstehen).

robbitop
2015-03-24, 11:32:08
Wie gesagt: wenn es transparent - also unabhängig der Unterstützung durch den Entwickler - laufen soll, müssen beide GPUs auf auf dem gleichen Träger - am besten per Interposer verbunden sein.

NVLINK ist einfach nur ein neues Interface, welches hier nicht hilft. Was bei den neuen Low Level APIs etwas einfacher gehen als vorher, sind z.B. Dinge wie SFR. Da hat man zwar kein µ-Ruckeln - aber dafür ist die Skalierung bescheiden.

Ich erwarte mittelfristig keine echte Besserung.

Für VR macht SLI m.E. schon sehr viel Sinn, wenn man dediziert für jedes Auge eine Karte rechnen lassen kann. Ich denke, wesentlich effizienter skalieren geht nicht. Und ich sehe auch nicht, wo dabei große Hürden bei der Kompatibilität sein sollten (abgesehen von Problemen, die durch VR / 3D selbst entstehen).
Für VR macht es Sinn. Muss aber - wie VR selbst - auch vom Entwickler vorgesehen sein.

Godmode
2015-03-24, 11:43:31
Für VR macht SLI m.E. schon sehr viel Sinn, wenn man dediziert für jedes Auge eine Karte rechnen lassen kann. Ich denke, wesentlich effizienter skalieren geht nicht. Und ich sehe auch nicht, wo dabei große Hürden bei der Kompatibilität sein sollten (abgesehen von Problemen, die durch VR / 3D selbst entstehen).

Es gibt genug Probleme. In dem Papier ist einiges davon aufgezählt (VR-SLI, Multiview Rendering ab ca. der hälfte das PDFs). Also einfach ist leider erstmal gar nichts.

http://www.reedbeta.com/talks/VR_Direct_GDC_2015.pdf

Dimitri Mayakovsky
2015-03-24, 11:44:16
Den Modus die beiden 3D-Bilder über zwei Karten zu rendern gibt es schon ewig für OpenGL.

Chris Lux
2015-03-24, 12:12:35
Den Modus die beiden 3D-Bilder über zwei Karten zu rendern gibt es schon ewig für OpenGL.
Nope.

sth
2015-03-24, 12:20:36
OpenGL hat kein Konzept von mehreren Grafikkarten. Man kann nicht einfach sagen "Karte 1 rendere den Teil, Karte 2 rendere den Teil". Der ganze SLI/CF-Kram passiert über Treiber-Magie und die ist leider auch nur begrenzt.

Natürlich gibt es unter OpenGL die Möglichkeit herstellerspezifischer Extensions, aber das sind dann auch nur Workarounds, die das Grundproblem nicht lösen.

Vulkan ist in dieser Beziehung anders aufgestellt – hier ist die direkte Adressierung mehrerer GPUs direkter Teil der API (oder zumindest zeichnet es sich so ab, ist ja noch nicht final).

Dimitri Mayakovsky
2015-03-24, 12:23:35
Nope.
Selbstverständlich. Schon x-fach bei diversen 3D-Caves gesehen.

sth
2015-03-24, 12:52:41
Wie gesagt: Mit speziellen Extensions oder anderweitigen Workarounds mag das gehen.
Und natürlich kann man bei Caves jeden verfügbaren Trick ausnutzen, da man ohnehin nur ein einziges Hardware-Target zu supporten hat.

Mir ist derzeit nichts bekannt, wie man das im Consumer-Bereich anstellen kann (abgesehen von dem was AMD/nVidia derzeit vorbereiten). Die API bringt von Haus aus jedenfalls nichts derartiges mit.

Selbst wenn man sowas "zu Fuß" macht (was sicherlich irgendwie machbar ist) bekommt man vermutlich Probleme mit der Latenz (bei Caves nicht ganz so problematisch wie bei HMDs).

Chris Lux
2015-03-24, 13:08:01
Selbstverständlich. Schon x-fach bei diversen 3D-Caves gesehen.
da wurden die verschiedenen wände oder tiles von verschiedenen GPUs getrieben. eine wand/oder tile aber meist von einer GPU mit quad buffer für das stereo.

also bitte nicht solche dummen aussagen wie es geht schon immer mit OpenGL.

Dimitri Mayakovsky
2015-03-24, 13:11:52
Mir ist derzeit nichts bekannt, wie man das im Consumer-Bereich anstellen kann (abgesehen von dem was AMD/nVidia derzeit vorbereiten).
Schon alleine, dass ich von OpenGL spar sollte doch zeigen, dass ich nicht über den Consumer-Bereich spreche :)

da wurden die verschiedenen wände oder tiles von verschiedenen GPUs getrieben. eine wand/oder tile aber meist von einer GPU mit quad buffer für das stereo.
Nein, im Gegenteil, meist nutzt man zwei Projektoren im Tandem für 3D (einer rechter, einer linkes Auge). Alleine nur damit man mehr Lichtleistung hat.

Also zumindest wenn wir über *richtige* Caves reden.

Chris Lux
2015-03-24, 13:22:36
Schon alleine, dass ich von OpenGL spar sollte doch zeigen, dass ich nicht über den Consumer-Bereich spreche :)


Nein, im Gegenteil, meist nutzt man zwei Projektoren im Tandem für 3D (einer rechter, einer linkes Auge). Alleine nur damit man mehr Lichtleistung hat.

Also zumindest wenn wir über *richtige* Caves reden.
da du dich ja ein wenig auszukennen scheinst weisst du sicher auch, was es für ein aufwand ist ein solches setup zu betreiben (allein das syncen der ganzen karten ist eine wissenschaft für sich).

was nvidia mit dem VR-SLI vor hat wird mit sicherheit nicht diesen aufwand benötigen. dazu kommt, dass es auch nur mit den teuren Quadro-karten funktioniert. also wieder: "schon ewig" geht das auch mit OpenGL nicht... so einfach und für jedermann ;).

Dimitri Mayakovsky
2015-03-24, 13:36:14
da du dich ja ein wenig auszukennen scheinst weisst du sicher auch, was es für ein aufwand ist ein solches setup zu betreiben (allein das syncen der ganzen karten ist eine wissenschaft für sich).
Ja, das ist mir völlig klar. Ich habe mich auch null über den Aufwand ausgelassen, sondern nur, dass es schon lange diese Möglichkeiten für VR gibt.

was nvidia mit dem VR-SLI vor hat wird mit sicherheit nicht diesen aufwand benötigen. dazu kommt, dass es auch nur mit den teuren Quadro-karten funktioniert. also wieder: "schon ewig" geht das auch mit OpenGL nicht... so einfach und für jedermann ;).
Ich sehe leider keinen Zusammenhang zwischen einer zeitlichen Komponenten (meine Aussage) und dem dafür nötigen Aufwand (deine Aussage). Das sind für mich zwei Paar Schuhe.

sth
2015-03-24, 16:49:39
Schon alleine, dass ich von OpenGL spar sollte doch zeigen, dass ich nicht über den Consumer-Bereich spreche :)
Ich habe auch in keinem Satz DirectX erwähnt. ;)

Fakt bleibt (und das war der Ursprung der Diskussion): Will ich ein aktuelles HMD wie Rift oder Vive effizient mit zwei GPUs ansteuern (und das ohne zusätzliche Latenz), dann habe ich derzeit extakt 0 Möglichkeiten, dies zu tun. Egal mit welcher API, egal auf welchem OS, egal ob Quadro, FireGL oder Consumer-Karten. Verschiedenste Lösungen sind in Arbeit, aber noch nichts davon ist schon öffentlich verfügbar und selbst wenn es soweit ist, wird es erstmal Engine-Anpassungen erfordern.

mironicus
2015-03-24, 16:51:31
Hier (http://www.amazon.co.uk/gp/product/B00UXOGCP0/) gibt es die Titan X für nur 889,99! :D :D :D

Isen
2015-03-24, 16:59:58
Haha ^^ .. stolze 1200 - lecker für son Flughafen, wie Berlin.

M4xw0lf
2015-03-24, 17:02:35
Hier (http://www.amazon.co.uk/gp/product/B00UXOGCP0/) gibt es die Titan X für nur für 889,99! :D :D :D
Du Schelm :unono:

Malabolge
2015-03-24, 17:37:30
Hier (http://www.amazon.co.uk/gp/product/B00UXOGCP0/) gibt es die Titan X für nur 889,99! :D :D :D

Gott segne Dich (und die Queen):biggrin::biggrin::biggrin:

135i
2015-03-24, 20:24:29
Kommt darauf an wo man hin will.

Mein CPU OC hat sage und schreibe 60 Sekunden gedauert.

Ich schrieb von System und da gehört ein bissl mehr Zeit dazu. ERAHRENE Übertakter wissen, dass es da nicht bei oberflächlichen 60s verbleibt .
Sei denn man betreibt kurzrunnige Benches , um sein "Können" zu beweisen .

https://www.youtube.com/watch?v=pNqEQIqPF24
https://www.youtube.com/watch?v=yBcOBhTEmZY
https://www.youtube.com/watch?v=QE-o3gFxods
Das gleiche wie schon 2006, warum sollte sich da was ändern HEUTE Deiner Meinung nach? Weil es HEUTE kein AFR mehr ist wie schon 2006?

Erste Tabelle und Dir wird zeitsparend geholfen. Du brauchst Du ja nicht mehr teilzunehmen, gibt noch genug Members ,inclusive meiner Wenigkeit, die an ihren Lieblingsgame gerne frickeln und somit dem Familienvater einen zeitintensiven Grafikgenuss :D bescheren .
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=509912

Übrigens, selbst SingleKarten sind nicht gefeit:
http://www.pcgames.de/Panorama-Thema-233992/Specials/PC-Flops-des-Jahres-2013-1101512/
https://www.youtube.com/watch?v=otCMTMbbidw
Heutzutage umsomehr reines Glücksspiel , ohne Mehrfachnachfolgepatches in Spielgenuss zu kommen.
Vielleicht Hobby ändern?

akuji13
2015-03-24, 21:17:51
Ich schrieb von System und da gehört ein bissl mehr Zeit dazu. ERAHRENE Übertakter wissen, dass es da nicht bei oberflächlichen 60s verbleibt .
Sei denn man betreibt kurzrunnige Benches , um sein "Können" zu beweisen .

Die wissen aber auch, das alles abseits des CPU OC im Bereich Spiele kaum was bringt. ;)

Übrigens ist auch die CPU Teil eines "Systems".

HisN
2015-03-24, 21:52:03
@135i
ich kenne die Tabelle, da sind Einträge von mir mit drinne.
Aus Frickeltagen. Hab ich keinen Bock mehr drauf.
Aber steht da auch drinne das man für einen SLI-Genuss in Untiy ein paar Dateien im Unity-Verzeichnis löschen muss?
Ich glaub nicht.
Und weißt Du welche Dateien das sind? Ich nicht, ich müsste mir das hier im Forum zusammensuchen (gibts nen Thread für).
NO WAY.
Und das hält genau bis zum nächsten Patch.

Das Schattenflackern ist übrigens aus DA:I von Bioware rausgepatched worden. Jetzt läuft an den Stellen die 2. GPU einfach nicht mit. Toller Fix. Ein GENUSS :-)

135i
2015-03-24, 21:54:39
Die wissen aber auch, das alles abseits des CPU OC im Bereich Spiele kaum was bringt. ;)

Übrigens ist auch die CPU Teil eines "Systems".

Gibt auch Games, die von Speicherdurchsatz und Latenzen profitieren. :rolleyes:

Ich schrieb nicht von Teilsystemoverclock

Aber nun besser BTTT....

135i
2015-03-24, 22:18:18
@135i
ich kenne die Tabelle, da sind Einträge von mir mit drinne.
Aus Frickeltagen. Hab ich keinen Bock mehr drauf.
Aber steht da auch drinne das man für einen SLI-Genuss in Untiy ein paar Dateien im Unity-Verzeichnis löschen muss?
Ich glaub nicht.
Und weißt Du welche Dateien das sind? Ich nicht, ich müsste mir das hier im Forum zusammensuchen (gibts nen Thread für).
NO WAY.
Und das hält genau bis zum nächsten Patch.

Das Schattenflackern ist übrigens aus DA:I von Bioware rausgepatched worden. Jetzt läuft an den Stellen die 2. GPU einfach nicht mit. Toller Fix. Ein GENUSS :-)

Ok, aber für viele andere Games gibt es Lösungen. Hat man eben in die Sch**sse gegriffen. Bei diversen Games , müssen sich das auch die User von Singlekarten zugestehen. Und dann noch der Zeitaufwand, Patches installieren, Spielstände gelöscht, blabla.

HisN
2015-03-24, 22:54:12
Jupp, und bei SLI kommt halt der zusätzliche Aufwand noch obendrauf.
Vermeidbarer Aufwand.

135i
2015-03-24, 23:03:03
Jupp, und bei SLI kommt halt der zusätzliche Aufwand noch obendrauf.
Vermeidbarer Aufwand.

Das Du das nun gerade vor der Preis-leistungskarte schlechthin, in Betracht ziehst? Dein 4k Monitor lechzt doch geradezu nach 4 mal TitanX , denn Du hast doch sicher nicht nur Problemspiele.

TurricanM3
2015-03-25, 00:02:25
Das beste an SLI ist das man es ausschalten kann.

PS: Karten sind ja nun lagernd, aber immernoch keine Wasserkühler. :/

Trill
2015-03-25, 07:05:55
Als wenn man mit einer einzelnen Titan X vernünftig in UHD zocken könnte, selbst mit hohem OC nicht! Für UHD braucht man nach wie vor mindestens zwei Titan X, also SLI - als wenn die Titan sooooo viel mehr Leistung hätte. Das Schlechtreden von SLI bringt im Grunde ja auch keinen weiter. Ich wette, dass alle, die nen 980er SLI auflösen, zum Beispiel bestehend aus zwei 980er die auf 1450/2000 laufen, und sich ne einzelne Titan X rein bauen, nicht lange zufrieden sein werden. Das SLI hat dann doch wesentlich mehr bums, als die einzelne Titan X und das wird man schnell feststellen, da helfen dann auch keine 12GB Speicher - wohlbemerkt auf zocken in UHD bezogen. :wink:

akuji13
2015-03-25, 07:06:31
Gibt auch Games, die von Speicherdurchsatz und Latenzen profitieren. :rolleyes:

In einem nicht nennenswerten Bereich.
Gut, wenn man Erbsenzähler ist vielleicht.

Dein 4k Monitor lechzt doch geradezu nach 4 mal TitanX , denn Du hast doch sicher nicht nur Problemspiele.

4-fach SLI ist die Steigerung von Ineffizienz.

Es gibt etliche Spiele die damit langsamer laufen als mit 3 Karten.

Das Schlechtreden von SLI bringt im Grunde ja auch keinen weiter.

Da braucht man nix schlechtreden wenn man es jahrelang hatte.
Nach Titan SLI und GTX980 SLI habe ich die Nase voll von den Nachteilen.

Im übrigen spiele ich nicht nur die aktuellsten Grafikkracher, sondern auch ganz viele ältere Titel die sogar @8K mit hohen fps laufen.

Und mehrere Monitore habe ich auch zur Auswahl.

@topic

So, die X ist geordert. :)
Hoffe der Lagerbestand wurde auch noch korrekt angezeigt! :D

Trill
2015-03-25, 07:21:30
Ja, ich hatte auch ein SLI bestehend aus zwei 680er, dann hatte ich die Schnauze voll von SLI. Dann hatte ich eine einzelne Titan, danach eine einzelne Black, dann eine einzelne 980er und jetzt wieder ein SLI bestehend aus zwei 980er und ich bin zufrieden, bei mir laufen alle Games, ich habe keine Probleme. Für viele Games, ich zocke nur in 2560x1440 gesynct auf 60, reicht sogar ne einzelne 980er vollkommen aus, ich brauche nicht immer das SLI.

Wie gesagt, eine einzelne Titan X ist doch viel zu schwach für UHD, man bracht nach wie vor zwei, die Erfahrung werden wie gesagt aber alle selber machen, ich bin mir sicher, die ersten User-Benchmarks in den Foren zeigen das doch deutlich!

horn 12
2015-03-25, 07:24:56
Für Ultra HD wird es wohl die R9 390X richten, AMD will wohl hingehend 50 bis 60 fps schaffen durch HBM Speicher und Optimierung des Treibers.

Godmode
2015-03-25, 07:35:39
Ja, ich hatte auch ein SLI bestehend aus zwei 680er, dann hatte ich die Schnauze voll von SLI. Dann hatte ich eine einzelne Titan, danach eine einzelne Black, dann eine einzelne 980er und jetzt wieder ein SLI bestehend aus zwei 980er und ich bin zufrieden, bei mir laufen alle Games, ich habe keine Probleme. Für viele Games, ich zocke nur in 2560x1440 gesynct auf 60, reicht sogar ne einzelne 980er vollkommen aus, ich brauche nicht immer das SLI.

Wie gesagt, eine einzelne Titan X ist doch viel zu schwach für UHD, man bracht nach wie vor zwei, die Erfahrung werden wie gesagt aber alle selber machen, ich bin mir sicher, die ersten User-Benchmarks in den Foren zeigen das doch deutlich!

Was mich an SLI momentan ziemlich nervt ist, das GSYNC mit DSR und SLI nicht gleichzeitig funktioniert. Wenn SLI richtig funktioniert ist es toll, keine Frage. Ich habe jetzt auch erstmal nur eine X bestellt, aber wie du schon schreibst, wird mir das bald wieder zuwenig sein...

akuji13
2015-03-25, 07:36:01
bei mir laufen alle Games, ich habe keine Probleme.

Dann spielst du die problematischen Titel nicht. :wink:

Wie gesagt, eine einzelne Titan X ist doch viel zu schwach für UHD, man bracht nach wie vor zwei, die Erfahrung werden wie gesagt aber alle selber machen

Deine Aussage ist viel zu pauschal.

Du weißt gar nicht wer welche Titel spielt oder in welchen Qualitätseinstellungen.
Zusätzlich nicht wer sich mit welchen fps zufrieden gibt.

Ich persönlich will ja auch nur den Philips 40" mit einer 21:9 Auflösung befeuern.

Trill
2015-03-25, 08:30:54
Genau so kann man SLI eben nicht pauschal einfach schlecht machen. ;) Ich habe doch auch nichts gegen die Titan X. Zwei Spiele zum Beispiel, die ich sehr mag, Alien Isolation und The Vanishing of Ethan Carter, kann ich sogar mit einer einzelnen 980@1500-2000 in UHD mit maximalen Details in UHD gesynct mit 60 durchgehend zocken, ist doch klar, dass es immer Gameabhängig ist und wer wie viel Frames braucht.

SamLombardo
2015-03-25, 08:34:43
Als wenn man mit einer einzelnen Titan X vernünftig in UHD zocken könnte, selbst mit hohem OC nicht! Für UHD braucht man nach wie vor mindestens zwei Titan X, also SLI - als wenn die Titan sooooo viel mehr Leistung hätte. Das Schlechtreden von SLI bringt im Grunde ja auch keinen weiter. Ich wette, dass alle, die nen 980er SLI auflösen, zum Beispiel bestehend aus zwei 980er die auf 1450/2000 laufen, und sich ne einzelne Titan X rein bauen, nicht lange zufrieden sein werden. Das SLI hat dann doch wesentlich mehr bums, als die einzelne Titan X und das wird man schnell feststellen, da helfen dann auch keine 12GB Speicher - wohlbemerkt auf zocken in UHD bezogen. :wink:

Na dann schau dir mal eine Titan X tatsächlich im UHD Einsatz an KLICK (https://m.youtube.com/watch?v=xsCIdqIqbgM).

Es ist nun mal die aktuell einzige Karte, die in UHD sehr gut spielbare Frameraten liefert. Das kann man noch so sehr versuchen klein zu reden, es ist nunmal eine Tatsache.

akuji13
2015-03-25, 08:44:43
Genau so kann man SLI eben nicht pauschal einfach schlecht machen. ;)

Doch, denn Mikroruckler (ob sie nun stören oder nicht), 2x Platz, 2x Kosten (wobei dieser Punkt sehr subjektiv ist), 2x Stromaufnahme, 2x Wärmeabgabe habe ich immer. ;)
Ok, außer wenn SLI nicht funktioniert, dann läuft 1 Karte ja nur im idle. :D

Solche Punkte sind objektiv gesehen nunmal "schlecht" und lassen sich auch nicht wegreden.

Wer SLI haben will bitte, ich bin der letzte der anderen vorschreiben will was sich sich kaufen.
Ich lasse mir den Kauf oder nicht-Kauf der X ja auch nicht vorschreiben. :wink:

Für mich ist es nur nix mehr weil mir zu oft was damit mißfällt.

robbitop
2015-03-25, 09:22:21
Mein Tip ist aktuell: UHD noch aufzuschieben. UHD geht sicher oft auch mit einer Titan X oder einem 980 SLI Setup. Aber es gibt bei den allerneusten Spielen genug Stellen, wo @max Details eben keine vernünftigen FPS erreicht werden. Man kann dann natürlich ein paar Regler runterstellen und/oder sich mit weniger FPS zufrieden geben.

Ich will nicht < 40...50 fps @G-Sync.

UHD hat 2,25x so viele Pixel wie 1440p. Es sieht sicher nochmal etwas besser aus - aber es frisst halt Leistung zum Frühstück. Eine Titan X @SLI packt das sicher fast immer kompromisslos. Aber dafür ist der Kompromiss, dass einige Spiele mit SLI (unbehebar - egal wie viel man bastelt) rumspacken oder die 2. Karte gar nicht nutzen.

Wer unbedingt jetzt, hier und heute auf Krampf ein UHD Display mit hohen Frameraten und max Details befeuern will - der hat keine andere Wahl.

Allen anderen kann ich nur empfehlen, ein Auge auf die 21:9 Displays zu legen. Das braucht massiv weniger Leistung und bietet mehr immersion als ein 16:9 UHD Display.

Wenn jetzt noch innerhalb diesen Jahres ein 34" IPS 144 Hz G-Sync Display kommt, wäre das eine sehr gute Wahl.

Angeblich will man von 21:9 wohl (zum Zocken) nie mehr zurück auf 16:9. > Immersion und so.

Am Ende muss das jeder selbst wissen. Aber im SLI Fall sollte jeder Wissen, dass einige Games halt nicht vernünftig laufen - egal wie viel man frickelt.

Trill
2015-03-25, 09:23:34
Na dann schau dir mal eine Titan X tatsächlich im UHD Einsatz an KLICK (https://m.youtube.com/watch?v=xsCIdqIqbgM).

Es ist nun mal die aktuell einzige Karte, die in UHD sehr gut spielbare Frameraten liefert. Das kann man noch so sehr versuchen klein zu reden, es ist nunmal eine Tatsache.

Sorry, lächerlich, sehr gut spielbare Frameraten! Dann habe ich das ja schon hier und brauche gar keine Titan X. Eine meiner 980er läuft@1570-2050 Ram 100 Prozent Gamestable, die ist ja fast genau so schnell, wie das, was der Typ da macht und an Benches präsentiert und das ist Tatsache. :wink: Und mich interessier UHD sowieso nicht die Bone!

HisN
2015-03-25, 09:29:30
Wie gesagt, eine einzelne Titan X ist doch viel zu schwach für UHD, man bracht nach wie vor zwei, die Erfahrung werden wie gesagt aber alle selber machen, ich bin mir sicher, die ersten User-Benchmarks in den Foren zeigen das doch deutlich!

Für Deine Software-Auswahl und Deine Präferenzen in BQ.
Bei mir geht sich das aus.
Und deshalb kommt man bei der Diskussion auch nie auf einen Nenner, weil die Leute das eigentliche vergessen.
CPU-Leistung? Graka-Leistung?
Nein ... Software-Auswahl, BQ/Detail-Settings, FPS-Ziel.
Und das sind so viele Unbekannte, dass man es einfach nicht unter einen Hut bekommt.

Wenn jemand sagt: er braucht für UHD UNBEDINGT ein SLI, ist es genau so richtig als wenn einer sagt er braucht KEIN SLI.

@Video
Der Typ ist ein geschickter Lügner. Ihr habt schon genau hingeschaut? BF4 in LOCKER (also die Map, wo man nach 2m immer eine Wand hat auf die man starren kann) und 50° FOV, was gegenüber einen "normalen" 90° FOV immer noch mal ordentlich FPS bringt.
Man muss nur wissen wie man es dreht.

robbitop
2015-03-25, 09:30:14
Sorry, lächerlich, sehr gut spielbare Frameraten! Dann habe ich das ja schon hier und brauche gar keine Titan X. Eine meiner 980er läuft@1570-2050 Ram 100 Prozent Gamestable, die ist ja fast genau so schnell, wie das, was der Typ da macht und an Benches präsentiert und das ist Tatsache. :wink: Und mich interessier UHD sowieso nicht die Bone!

Jap. Man schaue sich die Assassins Creed Unity Benchmarks @UHD bei CB an. 18 fps auf einer 980. -> 33 µ-Ruckel fps im SLI. Da kannst du entweder die Regler runterzerren um die 980 SLI auf halbwegs erträgliche 40 fps zu bekommen, oder mit 33 SLI-fps (@max) leben oder mit der Titan X SLI dann auf 45 fps bei maximalen Details kommen.

Man muss dazu sagen, dass nicht das ganze Spiel so niedrige FPS hat. Aber es ist halt eine Szene wo die FPS im Keller sind. (ich bin so eingestellt, dass mich ein Spiel aus der Immersion reißt, sobald es mal ruckelt - die Stelle sollte also sauber abgedeckt sein - geht aber jedem anders).

PCGH hatte letztes Jahr nach 980 Launch einen Artikel zu UHD-Gaming @980 SLI. Das Fazit war ernüchternd. (bezogen auf High End Games in Benchmarkszenen und maximale Details -> Regler kann man natürlich runterziehen).

Titan X SLI sollte das packen.

akuji13
2015-03-25, 09:30:25
Aber es gibt bei den allerneusten Spielen genug Stellen, wo @max Details eben keine vernünftigen FPS erreicht werden. Man kann dann natürlich ein paar Regler runterstellen und/oder sich mit weniger FPS zufrieden geben.

http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/5/#diagramm-duell-der-titanen-3840-2160

Wenn man mit medium details zufrieden ist (Texturen kann man ja aufgrund des Speichers @ultra belassen) und ggf. noch OC einbringt ginge es.

Allen anderen kann ich nur empfehlen, ein Auge auf die 21:9 Displays zu legen. Das braucht massiv weniger Leistung und bietet mehr immersion als ein 16:9 UHD Display.

Und genau deshalb ist der Philips BDM4065UC interessant für viele.

UHD wenn das Spiel genügsam ist und sonst eine relativ schonende 21:9 Auflösung@38".

robbitop
2015-03-25, 09:33:57
Und genau deshalb ist der Philips BDM4065UC interessant für viele.

UHD wenn das Spiel genügsam ist und sonst eine relativ schonende 21:9 Auflösung.

Reines IMO (mein eigener Geschmack):

Dafür

- bekommste AFAIK kein DSR/VSR im 21:9 (weil Custom Resolution) -> bäh
- zweiter Monitor wird schwierig vom Platz (ich kann nicht mehr ohne 2 Monitore)
- nur 60 Hz
- kein G/A-Sync
- @16:9 fehlt die Übersicht beim Spielen - die Augen müssen ständig von Ecke zu Ecke wandern und man übersieht UI/Minimaps ständig - für mich wäre das nix
- im 21:9 Mode sicher aber sehr gut da wieder bessere Übersicht - aber die obigen Nachteile würden es mir persönlich verhageln.

akuji13
2015-03-25, 09:36:11
Abzüglich der Mängel die der Swift oder der Predator bietet. ;)
So wie du nicht mehr ohne sync spielen möchtest habe ich glow und miese Schwarzwerte satt.

Ich schrieb nicht umsonst für "viele" statt "alle".

robbitop
2015-03-25, 09:37:30
Nein ... Software-Auswahl, BQ/Detail-Settings, FPS-Ziel.
Und das sind so viele Unbekannte, dass man es einfach nicht unter einen Hut bekommt.
Softwareauswahl: die neusten Games!
BQ/Details: Maximum!
FPS-Ziel: Butterweich! (ausnahmslos - kein Ruckler - kein Mauslag - flüssige und direkte Bewegung) -> minFPS/AVG: >45 fps @G-/ASync

Was brauchen wir da? *TimTaylorGrunzen*

Mehr POWER!!! :D

Spaß beiseite: mit etwas älteren Games und/oder niedirgen BQ/FPS Erwartungen geht UHD auch mit weniger.

Allerdings bin ich persönlich leider auf oberes getrimmt: immer vom Feinsten :D (aber dank der vielen SLI Nachteile verzichte ich lieber vorerst auf UHD)

HisN
2015-03-25, 09:37:41
Die Augen müssen ständig wandern, besonders wenn man zwei Monitore benutzt.
Warum ist das dann plötzlich ein Nachteil bei einem großen Monitor? *g*

Und vom feinsten ist auch wieder so ne definitions-Frage.
4K in High sieht SCHEISSE BESSER aus als FHD oder 1440p@Ultra.
Ob ich jetzt meine FPS in den Keller drücke weil ich in 1440p zocke und Weichmatscher-AA und Bildverbesserer wie beknackt dazudrücke oder in 2160p und auf den ganzen Quatsch verzichte .... wo ist da jetzt der Unterschied? 4K sieht einfach in jedem Fall besser aus. Ich hab mich letztens mal wieder an mein 3-Moni-Setup gesetzt und Elite Dangerous aufgemacht, nachdem ich da Wochenlang am 4K-Moni gesessen hatte....

gleich wieder ausgemacht. Sieht Scheiße aus.

robbitop
2015-03-25, 09:40:34
Spielen = 1 Monitor
Arbeiten = mehrere Monitore

Apfel - Birne ;)

Abzüglich der Mängel die der Swift oder der Predator bietet. ;)
So wie du nicht mehr ohne sync spielen möchtest habe ich glow und miese Schwarzwerte satt.

Ich schrieb nicht umsonst für "viele" statt "alle".
IMO hat der Swift weniger Nachteile. Etwas weniger gute Farben und etwas schlechtere Blickwinkel (VA ist hier auch nicht sooo toll). SW ist auf dem Swift IMO gut genug. Erstaunlich gut für TN.
Ist natürlich eine Frage, welche Punkte jeder wie gewichtet und empfindet.

HisN
2015-03-25, 09:42:59
^^ Aber nur in Deinen Augen :-)
Du gehörst aber nicht zu den ESL-CS-Profis die auf 17" in 800x600 zocken mit der Nase am Bildschirm damit sie ja nix verpassen?

Ist alles eine Ansichts-Sache :-)
Bzw. wieder eine Frage der Software-Auswahl und der eigenen Präferenzen. Wieder eine Sache die man nicht unter einen Hut bekommt.
Augen bewegen ist gut gegen trockene Augen^^

Godmode
2015-03-25, 09:44:35
Spielen = 1 Monitor
Arbeiten = mehrere Monitore

Apfel - Birne ;)



So habe ich das hier auch. Hier stehen zwei 27" 1440p Monitore. Beim Spielen nutze ich dann aber nur den Asus PG278Q.

robbitop
2015-03-25, 09:44:53
Und vom feinsten ist auch wieder so ne definitions-Frage.
4K in High sieht SCHEISSE BESSER aus als FHD oder 1440p@Ultra.
Ob ich jetzt meine FPS in den Keller drücke weil ich in 1440p zocke und Weichmatscher-AA und Bildverbesserer wie beknackt dazudrücke oder in 2160p und auf den ganzen Quatsch verzichte .... wo ist da jetzt der Unterschied? 4K sieht einfach in jedem Fall besser aus. Ich hab mich letztens mal wieder an mein 3-Moni-Setup gesetzt und Elite Dangerous aufgemacht, nachdem ich da Wochenlang am 4K-Moni gesessen hatte....

gleich wieder ausgemacht. Sieht Scheiße aus.
Mit sinnvollen Settings kommst du mit UHD niemals auf die fps von 1440p. Selbst wenn alle Regler auf LOW sind. Und dann sieht es richtig schlecht aus. Da liegt Faktor 2,25 dazwischen.

^^ Aber nur in Deinen Augen :-)
Du gehörst aber nicht zu den ESL-CS-Profis die auf 17" in 800x600 zocken mit der Nase am Bildschirm damit sie ja nix verpassen?
Was für ein Unsinn. Auf der Grundlage braucht man nicht zu diskutieren.

Deisi
2015-03-25, 09:46:31
Reines IMO (mein eigener Geschmack):

Dafür

- bekommste AFAIK kein DSR/VSR im 21:9 (weil Custom Resolution) -> bäh


Also DSR läuft in 21:9. Kann hier beim LG bis zu 6880x2880 einstellen.

robbitop
2015-03-25, 09:48:27
Also DSR läuft in 21:9. Kann hier beim LG bis zu 6880x2880 einstellen.
Du hast es nicht verstanden. Ich meine DSR für einen 16:9 Monitor der mittels Custom Resolution auf 21:9 arbeitet.

mironicus
2015-03-25, 09:50:17
Und genau deshalb ist der Philips BDM4065UC interessant für viele.

Weiterer Vorteil: Man muss nicht unbedingt skalieren da die Pixeldichte einem 27 Zoller mit 1440P entspricht. :)

robbitop
2015-03-25, 09:52:39
Scaling Issues sind wohl bald Vergangenheit. Es sieht wohl so aus als wenn Windows 10 deutlich besseres Scaling (gleich in Hinblick auf 8K) anbietet.

HisN
2015-03-25, 10:07:55
Was für ein Unsinn. Auf der Grundlage braucht man nicht zu diskutieren.

Warum ist es Unsinn? Ich versuche nur Deinen Tellerrand zu lockern. Es gibt Leute die so zocken.

mironicus
2015-03-25, 10:09:18
Scaling Issues sind wohl bald Vergangenheit. Es sieht wohl so aus als wenn Windows 10 deutlich besseres Scaling (gleich in Hinblick auf 8K) anbietet.

Werden alte Programme die unter Windows 8.1 nicht skalieren dann unter Windows 10 nutzbar sein?

robbitop
2015-03-25, 10:15:46
Ich kenne keine Details - leider. Vieleicht macht man es ja wie bei MacOS. Da sieht Legacy Zeugs auf die Displays mit hohen Auflösungen skaliert auch deutlich besser aus als in Windows 8.1.

Warum ist es Unsinn? Ich versuche nur Deinen Tellerrand zu lockern. Es gibt Leute die so zocken.
Weil 27" und 34" nicht 17" sind - bei weitem nicht. Und weil 3440x1440 bzw 2560x1440 auch nicht 800x600 sind. Das ist Blödsinn.

Ich habe alles probiert und habe es zumindest auf meinen eigenen Geschmack bezogen.

Ich kenne alles von 14" (4:3) bis 37" (16:9) auf meinem Schreibtisch, weil über die letzten 25 Jahre intensiv im Alltag genutzt. Kann mir meine Meinung dafür also selbst bilden und habe da keinen Tellerrand, über den ich noch nicht hinausgesehen hätte.

Grestorn
2015-03-25, 10:24:10
Der einzige Weg alte Apps, die nicht von sich aus skalieren, vom OS aus zu skalieren, ist eine Hochrechnung des Fensterinhalts.

Da alles, auch Images und Text dabei aber in der alten, geringeren Auflösung gerendert werden, ist das Ergebnis entsprechend unscharf.

Auf einem UHD Monitor ist das aber nicht so tragisch, da "unscharf" dann ja immer noch heißt "so detailliert, wie es auf einem gleich großen FullHD Monitor ausgesehen hätte".

HisN
2015-03-25, 10:24:39
Wobei ich da auch das eigentliche "Problem" nicht bei MS sehe.
Das Problem liegt doch bei den Software-Klitschen die mit einem starren Design arbeiten.
Also dort wo z.b. Schaltflächen eine Grafik sind, die sich nicht mit der Schriftgröße bewegen kann.
MS muss die Softwarebuden nur anhalten das zu ändern, und schon würde es funktionieren. Nix anderes macht Apple. Designrichtlinien.

mironicus
2015-03-25, 10:38:24
Das wird bestimmt noch lustig in Zukunft. Stellt euch vor ihr habt ein 27 Zoll 8K-Display, arbeitet mit Windows 8 und startet ein Programm was nicht skaliert. Das Programmfenster ist so groß wie eine Briefmarke und alles super fein und klein, nix zu erkennen. :D :D

akuji13
2015-03-25, 10:38:51
IMO hat der Swift weniger Nachteile.

Stimmt, eine Frage der Gewichtung.
Für mich hat er inzwischen mehr Nach- als Vorteile:

- schlechtere Farben
- schlechter Blickwinkel
- übler gamma-shift zwischen Bild Ober- und Unterhälfte resultierend in einer völligen Farbverfälschung (super zu sehen hier im Forum an den Balken)
- Schwarzwert nur mit ULMB ok (dann aber ziemlich dunkles Bild), ein VA Wert wird nicht nie erreicht
- 16:9 (hatte den 34" LG und den Swift zeitgleich aber der Swift wurde nie mehr benutzt)

Er war und ist der wohl beste TN, allerdings kein VA und schon lange kein IPS.
Das galt für mich auch schon als ich ihn hatte.

Früher (bitte nicht als Abwertung verstehen) war ich auch so wie du, ich wechselte auf TN wegen der Geschwindigkeit und LightBoost@1080p war ein Segen was fps und Bewegungsschärfe angeht.

4K in High sieht SCHEISSE BESSER aus als FHD oder 1440p@Ultra

Das kann man auch anders sehen. :D

@Titan

Statur "in Bearbeitung". :)

Könnte klappen bis zum Wochenende.