PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11 12

maximus_hertus
2015-03-15, 23:02:54
Ich kann ja mal gucken, ob bei uns in der Datenbank die TitanX gelistet sind. Falls es diese Woche einen Hardlaunch geben sollte, müsste spätestens morgen irgendwas drin stehen ;) Ich melde mich dann.

Godmode
2015-03-15, 23:10:55
Danke, halte uns auf dem Laufenden.

fondness
2015-03-16, 10:32:09
Angeblich die finalen Specs:
http://videocardz.com/55136/nvidia-geforce-gtx-titan-x-specifications

bertramfx
2015-03-16, 10:49:23
Hmmm die 390x wird 8 GB HBM + AIO Kuehler haben, das koennte auf ein echtes duell mit der Titan X hinauslaufen.

Rente
2015-03-16, 11:07:51
Hmmm die 390x wird 8 GB HBM + AIO Kuehler haben, das koennte auf ein echtes duell mit der Titan X hinauslaufen.
Wenn sie wirklich so kommt muss Nvidia mit dem Preis aber deutlich runter (aktuell geht man ja von >= 1000$ aus).

Dural
2015-03-16, 11:37:13
Glaube ich kaum, es ist immer noch eine Titan Karte, zudem die Titan min. 3 Monate früher auf dem Markt sein wird.

Gegen die 390 wird NV eine 6GB Version nachschieben, eventuell sogar mit mehr Takt als die Titan, 1100MHz ist für Maxwell ja nichts.
Wenn man sich eine Titan X Kauft könnte man dies schon schneller als normal bereuen, je nach dem was AMD liefert.

robbitop
2015-03-16, 11:38:35
AMD muss vor allem mal was für ihren Ruf tun. IMO ist der zu einem Großteil nicht durch die HW gesunken sondern durch die SW. NV investiert seit langem deutlich mehr in Treiberentwicklung und DevRel. Dadurch laufen NV Karten oftmals problemloser/schneller ohne auf Fixes warten zu müssen.
DX11 Performance, DSR, G-Sync, PhysX, Gameworks. NV versucht immer und überall zu liefern. Auch wenn es oftmals propertiärer Mist ist. Aber der Spieler hat das Gefühl, dass ständig was Neues kommt. Die Geforcetreiber sind idR wirklich gut.

AMD muss hier nachholen und ich hoffe, dass die Omegaoffensive da auch "dran" bleibt. Und zwar langfristig. Erst wenn das Image aufgebaut ist, kann man gleiche Preise verlangen. Wenn das weiter so passiert, geht AMD immer mehr die Luft aus und der Markt geht kaputt. Ein Monopol ist immer blöd, da dann Innovationen mit Salamitaktik zu Apotekenpreisen verkauft werden.

Dural
2015-03-16, 11:45:48
Irgend wie habe ich das Gefühl das es in Sachen Treiber immer wie schlimmer wird, seit 3 Monaten keine neuen Treiber bei AMD...

Ich war letzte Woche ganz erstaunt als ich ein Treiber Update tätigen wollte das es noch nicht mal einen neuen Beta gibt.

fondness
2015-03-16, 11:47:36
Die HW ist wichtiger als man denkt. Die small-Die Strategie von AMD war ein Fehler, dadurch gingen fast alle Enthusiasten zu NV. Der TopDog bekommt fast das ganze Prestige, NV konnte dadurch langfristig ein Image als Premiummarke aufbauen, obwohl man teilweise massiv mehr Silizium benötigte nur um knapp schneller zu sein. Das war vor G80 noch anders. Die Treiber von AMD waren schon immer besser als ihr Ruf IMO, nur wenn man mal den Ruf als ewiger zweiter hat wird es eben immer schwer Karten zu verkaufen.

dargo
2015-03-16, 11:50:12
DX11 Performance, DSR, G-Sync, PhysX, Gameworks. NV versucht immer und überall zu liefern. Auch wenn es oftmals propertiärer Mist ist. Aber der Spieler hat das Gefühl, dass ständig was Neues kommt.
Sorry, aber das einzige was hier wirklich heraussticht ist die DX11.x Performance. Den ganzen anderen Kram kann man vernachlässigen. Gegen DSR hat AMD VSR. Dieses ganze DSR/VSR Zeug wird imo völlig überbewertet. Das hätte man vor einigen Jahren liefern sollen und nicht jetzt wo der Trend langsam Richtung 4k geht. Für G-Sync hat AMD Freesync quasi ohne Mehrkosten beim Bildschirm. GPU-PhysX ist tot. Und bei Gameworks konnte ich nichts Sinnvolles finden, tut mir leid. Es wird mal wieder völlig übertrieben was irgendwelche Features von NV angeht.

Godmode
2015-03-16, 11:51:34
Sorry, aber das einzige was hier wirklich heraussticht ist die DX11.x Performance. Den ganzen anderen Kram kann man vernachlässigen. Gegen DSR hat AMD VSR. Dieses ganze DSR/VSR Zeug wird imo völlig überbewertet. Das hätte man vor einigen Jahren liefern sollen und nicht jetzt wo der Trend langsam Richtung 4k geht. Für G-Sync hat AMD Freesync quasi ohne Mehrkosten beim Bildschirm. PhysX ist tot. Und bei Gameworks konnte ich nichts Sinnvolles finden, tut mir leid. Es wird mal wieder völlig übertrieben was irgendwelche Features von NV angeht.

Ja, das sehe ich auch so. Witzig das PhysX immer wieder genannt wird, was in fast keinem Spiel verwendet wird.

Positiv bei NV ist allerdings, dass sie fast immer die ersten sind, was neue coole Features angeht.

4Fighting
2015-03-16, 11:54:16
Sorry, aber das einzige was hier wirklich heraussticht ist die DX11.x Performance. Den ganzen anderen Kram kann man vernachlässigen. Gegen DSR hat AMD VSR. Dieses ganze DSR/VSR Zeug wird imo völlig überbewertet. Das hätte man vor einigen Jahren liefern sollen und nicht jetzt wo der Trend langsam Richtung 4k geht. Für G-Sync hat AMD Freesync quasi ohne Mehrkosten beim Bildschirm. PhysX ist tot. Und bei Gameworks konnte ich nichts Sinnvolles finden, tut mir leid. Es wird mal wieder völlig übertrieben was irgendwelche Features von NV angeht.

Stimmt schon.

Letztlich ist aber der Stromverbrauch und die Abwärme auch nicht zu vergessen.

Da hat AMD wohl das größte Problem. Nicht, dass das im Enthusiast Bereich unbedingt relevant wäre - aber viele 08/15 User lassen sich dann von den Medien blenden mit Sätzen wie "deutlich kühler als das AMD-Pendant", "deutlich leiser...".
Das übertragen dann halt Unentschlossene auf die gesamte Marke und z.b. die letzte (Referenz-)Kühlung der 290x war nunmal nicht wirklich gut.

akuji13
2015-03-16, 11:56:52
Gegen DSR hat AMD VSR.

Was aktuell nicht einmal mit 21:9 Monitoren geht.
Ich persönlich finde es sehr wichtig um in Titeln wie Dying Light eine halbwegs ordentliche Glättung hinzubekommen.

Und AMD´s 3D ist ein Witz gegenüber 3DVision.

Witzig das PhysX immer wieder genannt wird, was in fast keinem Spiel verwendet wird.

Mir reicht es wenn es ein paar Spiele verwenden.

Ein Borderlands 2 hätte ich ohne PhysX und der damit völlig toten Welt sicher keine 300 Stunden gespielt.

Troyan
2015-03-16, 11:57:42
The Witcher 3 soll GPU-PhysX unterstützen. Batman:AK eventuell auch wieder. Zwei potentielle AAA Titel.

Sorry, aber das einzige was hier wirklich heraussticht ist die DX11.x Performance. Den ganzen anderen Kram kann man vernachlässigen. Gegen DSR hat AMD VSR. Dieses ganze DSR/VSR Zeug wird imo völlig überbewertet. Das hätte man vor einigen Jahren liefern sollen und nicht jetzt wo der Trend langsam Richtung 4k geht. Für G-Sync hat AMD Freesync quasi ohne Mehrkosten beim Bildschirm. GPU-PhysX ist tot. Und bei Gameworks konnte ich nichts Sinnvolles finden, tut mir leid. Es wird mal wieder völlig übertrieben was irgendwelche Features von NV angeht.

Es geht nicht nur um "Me too", sondern auch um etwas früher auf den Markt zu bringen. Eyefinity war sowas.

Freesync, VSR, Raptr, VR etc. Überall war nVidia früher auf dem Markt. Und wenn AMD etwas auf den Markt bringt, hängt immer wieder zuerst zurück. Das hinterlässt natürlich Eindrücke beim Konsumenten.

robbitop
2015-03-16, 12:00:20
Sorry, aber das einzige was hier wirklich heraussticht ist die DX11.x Performance. Den ganzen anderen Kram kann man vernachlässigen. Gegen DSR hat AMD VSR. Dieses ganze DSR/VSR Zeug wird imo völlig überbewertet. Das hätte man vor einigen Jahren liefern sollen und nicht jetzt wo der Trend langsam Richtung 4k geht. Für G-Sync hat AMD Freesync quasi ohne Mehrkosten beim Bildschirm. GPU-PhysX ist tot. Und bei Gameworks konnte ich nichts Sinnvolles finden, tut mir leid. Es wird mal wieder völlig übertrieben was irgendwelche Features von NV angeht.
Das Forum ist nicht repräsentativ, da hier 99 % der Leute extrem gut informiert sind. Die 0815 Normalos, die den Markt ausmachen, sehen halt konstant was an Features von NV kommt. Ob es das gleiche später günstiger bei AMD gibt, ist egal. Es kam ja zuerst bei NV.
Gameworks wird sehr gehypt - ist in den ganzen Massenspielen drin. Und die Leute fressen es halt. Egal ob TressFX besser aussieht als Hairworks. GPU PhysX gibt es auch jedes Jahr immer noch eine Hand voll Spiele, bei denen das funktioniert. Dass es nicht viel bringt, steht wieder auf der anderen Seite der Medaillie.

Es kommt für die Masse halt so rüber, dass bei NV doch mehr passiert in der Hinsicht.

VSR ist aktuell leider noch nicht so toll, weil auf schnellen Karten (R290) kaum sinnvoll nutzbar. Phase 2 wird hoffentlich damit aufräumen.

Die HW ist wichtiger als man denkt. Die small-Die Strategie von AMD war ein Fehler, dadurch gingen fast alle Enthusiasten zu NV. Der TopDog bekommt fast das ganze Prestige, NV konnte dadurch langfristig ein Image als Premiummarke aufbauen, obwohl man teilweise massiv mehr Silizium benötigte nur um knapp schneller zu sein. Das war vor G80 noch anders. Die Treiber von AMD waren schon immer besser als ihr Ruf IMO, nur wenn man mal den Ruf als ewiger zweiter hat wird es eben immer schwer Karten zu verkaufen.
Die HW war bei AMD schon fast immer sehr gut.

Die R290X war schneller als die Titan und dennoch musste sie billiger verkauft werden. Die 7970 war schneller als die 680 und hatte mehr VRAM. Und dennoch musste sie billiger verkauft werden. Die 4870 war genauso schnell wie die GTX 275 und hatte mehr VRAM. Musste billiger verkauft werden. Die 5870 lag zwischen GTX470 und GTX480 und musste billiger verkauft werden. Selbiges für Cayman.
AMD hatte bis auf R600 nie schlechte HW. Und dennoch muss man seit Langem billiger verkaufen. Einfach wegen des Images.

Crossfire war lange Zeit deutlich schlechter als SLI. Heute funktioniert es wohl sehr sehr gut. Interessiert jetzt aber keinen mehr. Ist halt schwierig nachträglich am Ruf nochmal was zu ändern. Leider.

Loeschzwerg
2015-03-16, 12:05:23
Die HW ist wichtiger als man denkt. Die small-Die Strategie von AMD war ein Fehler, dadurch gingen fast alle Enthusiasten zu NV. Der TopDog bekommt fast das ganze Prestige, NV konnte dadurch langfristig ein Image als Premiummarke aufbauen, obwohl man teilweise massiv mehr Silizium benötigte nur um knapp schneller zu sein. Das war vor G80 noch anders. Die Treiber von AMD waren schon immer besser als ihr Ruf IMO, nur wenn man mal den Ruf als ewiger zweiter hat wird es eben immer schwer Karten zu verkaufen.

Software verkauft Hardware, nur so läuft es mittlerweile.

Das Problem bei AMD: Es dauert immer zu lange von Ankündigung (Software und Features) bis zum Launch und danach passiert länger nichts oder es verschwindet wieder.

akuji13
2015-03-16, 12:05:41
Crossfire war lange Zeit deutlich schlechter als SLI. Heute funktioniert es wohl sehr sehr gut.

Was die MR angeht mMn sogar besser.

qu3x^
2015-03-16, 12:22:09
Mein NV Totschlagargument vom Wechsel von 4870 auf GTX 280 war damalig der Treiber. Keine Customres, somit war mit meinem noch damilgen CRT AMD immer ein Graus. Da hat sich auch heute nicht viel gebessert. Eine Auflösung außerhalb EDID Spec ist nach wie vor Vanilla mit dem Omega nicht möglich!

AMD ist im Jahr 2007 hängen geblieben was die Treiber/Bedienbarkeit und hardwaretechnisch die Stockkühler anbelangt.

Godmode
2015-03-16, 12:25:10
Was die MR angeht mMn sogar besser.

Oh das ist neu für mich? Ist das überall so oder nur in optimierten Titeln?

dargo
2015-03-16, 12:29:40
Was aktuell nicht einmal mit 21:9 Monitoren geht.
Ich persönlich finde es sehr wichtig um in Titeln wie Dying Light eine halbwegs ordentliche Glättung hinzubekommen.

Und AMD´s 3D ist ein Witz gegenüber 3DVision.

Beides Features die die Masse überhaupt nicht interessieren. Wenn dir das wichtig ist dann suchst du dir natürlich entsprechendes Produkt aus, spricht ja nichts gegen.

fondness
2015-03-16, 12:31:00
Die HW war bei AMD schon fast immer sehr gut.

Die R290X war schneller als die Titan und dennoch musste sie billiger verkauft werden. Die 7970 war schneller als die 680 und hatte mehr VRAM. Und dennoch musste sie billiger verkauft werden. Die 4870 war genauso schnell wie die GTX 275 und hatte mehr VRAM. Musste billiger verkauft werden. Die 5870 lag zwischen GTX470 und GTX480 und musste billiger verkauft werden. Selbiges für Cayman.
AMD hatte bis auf R600 nie schlechte HW. Und dennoch muss man seit Langem billiger verkaufen. Einfach wegen des Images.

Crossfire war lange Zeit deutlich schlechter als SLI. Heute funktioniert es wohl sehr sehr gut. Interessiert jetzt aber keinen mehr. Ist halt schwierig nachträglich am Ruf nochmal was zu ändern. Leider.

Wie schon gesagt: Das Prestige hat trotzdem NV eingesteckt weil sie stets die schnellste Karte hatten. Und genau deshalb hat die small-Die Strategie gefailed, da kann die HW noch so gut sein, es kam bei der Masse nicht an. Und genau deshalb will man jetzt auch wieder die Performacekrone. Natürlich liegt das am Image.

InsaneDruid
2015-03-16, 12:34:37
Nee, Speed ist den meisten Egal. DIe wollen nur einfahc nicht ewig frickeln, auf ihre neue >300 Euro karte keinen 3rd party kühler pappen und einen Treiber der einfach funzt. Wenn dazu noch die Speedkrone kommt, ok, nimmt man halt mit, aber die beeinflusst das System was man sich kauft ja nicht.

fondness
2015-03-16, 12:36:23
Oh das ist neu für mich? Ist das überall so oder nur in optimierten Titeln?

Frame Rate Consistency and Scaling

We experienced something with SLI we aren't use to at 4K gaming. We experienced some inconsistent frames, some low efficiency and poor SLI scaling. We were used to seeing this on AMD GPUs until AMD fixed their issues. AMD implemented a technology called Frame Pacing, and ultimately went the hardware route with XDMA on the AMD Radeon R9 290/X.

At the end of the day, what we find is that GeForce GTX 980 SLI performance is left wanting at 4K, not because Maxwell isn't fast, but because the current implementation of SLI is more inconsistent and less efficient compared to AMD's XDMA technology on the AMD Radeon R9 290X. This is a case of aging SLI actually hindering very capable GPUs. SLI needs an upgrade, it needs to evolve.

We do not think the true potential of the GeForce GTX 980 GPUs are being exploited with current 4K SLI gaming. It is being held back from its full potential. If GTX 980 could be fully and efficiently tapped, two GTX 980 GPUs have the potential to offer a better gameplay experience.

AMD hit NVIDIA hard with this new XDMA technology. Everyone was expecting NVIDIA would strike back with Maxwell by offering its own evolved SLI technology. However, it did not for this generation. That may end up biting NVIDIA in the butt as far as 4K gaming goes in the future.

The end result of this evaluation is a bit shocking, a bit unexpected. We thought we were going to be able to conclude praising GeForce GTX 980 SLI as the hands down best 4K gaming experience to date. However, our testing has revealed that this is not necessarily the case. GeForce GTX 980 SLI has stiff competition with its competition. AMD Radeon R9 290X CrossFire is hitting back hard and showing us that it can compete at 4K gaming.

We think this just ultimately comes down to AMD's better implementation of multi-GPU technology using its XDMA technology. Since the Radeon R9 290/X has been out its efficient and smooth CrossFire performance has been heralded. Ultimately, we think that Maxwell may be held back by its current implementation, at least at 4K gaming. Is it better than the previous Kepler generation? Oh hell yes, a lot better.

http://www.hardocp.com/article/2014/10/27/nvidia_geforce_gtx_980_sli_4k_video_card_review/11#.VQa_7OHfcXE

dargo
2015-03-16, 12:36:34
The Witcher 3 soll GPU-PhysX unterstützen. Batman:AK eventuell auch wieder. Zwei potentielle AAA Titel.

Wahnsinn... 1-2 Spiele. :eek:



Es geht nicht nur um "Me too", sondern auch um etwas früher auf den Markt zu bringen. Eyefinity war sowas.

Freesync, VSR, Raptr, VR etc. Überall war nVidia früher auf dem Markt. Und wenn AMD etwas auf den Markt bringt, hängt immer wieder zuerst zurück. Das hinterlässt natürlich Eindrücke beim Konsumenten.
Das sind alles Features von denen der 08/15 Spieler keinen blassen Schimmer hat was die überhaupt bedeuten. Ich teile nach wie vor die Meinung von fondness. AMD muss wieder anfangen die schnellste Single-GPU zu liefern. Hast du erstmal das erreicht zieht sich das durch Mundpropaganda bis in die langsamsten Produkte runter. Und natülich müssen sie deutlich mehr im Bereich Marketing tun.

Das Forum ist nicht repräsentativ, da hier 99 % der Leute extrem gut informiert sind. Die 0815 Normalos, die den Markt ausmachen, sehen halt konstant was an Features von NV kommt. Ob es das gleiche später günstiger bei AMD gibt, ist egal. Es kam ja zuerst bei NV.

Sehe ich anders. Denn wie schon gesagt wissen die "Normalos" gar nicht was die einzelnen Features bedeuten.


Gameworks wird sehr gehypt - ist in den ganzen Massenspielen drin. Und die Leute fressen es halt.
Das ist auch wieder so ein lustiger Fall. Die Masse kauft Grafikkarten im niedrigeren Preisbereich. Und gerade diese sind eigentlich zu langsam für Gameworks. Gleiches gilt auch für GPU-PhysX.

Pirx
2015-03-16, 12:39:32
Liegt auch daran, daß viele Medien pro nV berichten und kritikwürdiges nicht entsprechend gewürdigt wird.

SamLombardo
2015-03-16, 12:41:00
Mein NV Totschlagargument vom Wechsel von 4870 auf GTX 280 war damalig der Treiber. Keine Customres, somit war mit meinem noch damilgen CRT AMD immer ein Graus. Da hat sich auch heute nicht viel gebessert. Eine Auflösung außerhalb EDID Spec ist nach wie vor Vanilla mit dem Omega nicht möglich!
.
Bei AMD funktionieren keine benutzerdefinierten Auflösungen:eek:? Ist das wirklich so?

Troyan
2015-03-16, 12:42:20
Wahnsinn... 1-2 Spiele. :eek:

In den nächsten 2 1/2 Monaten.


Das sind alles Features von denen der 08/15 Spieler keinen blassen Schimmer hat was die überhaupt bedeuten. Ich teile nach wie vor die Meinung von fondness. AMD muss wieder anfangen die schnellste Single-GPU zu liefern. Hast du erstmal das erreicht zieht sich das durch Mundpropaganda bis in die langsamsten Produkte runter. Und natülich müssen sie deutlich mehr im Bereich Marketing tun.

Trotzdem kopiert AMD diese Features. Wäre sie so unwichtig, würde eine Firma wie AMD, die zur Zeit finanziell nicht so gut darstehen, kein Geld investieren.

Es bringt nVidia auch viel Aufmerksamkeit. Und Aufmerksamkeit erhöht wiederum den Bekanntheitsgrad.

fondness
2015-03-16, 12:43:47
Bei AMD funktionieren keine benutzerdefinierten Auflösungen:eek:? Ist das wirklich so?

Man muss es einmalig in der Registry einstellen, im CCC ist es nur bei der FirePRO verfügbar. Oder man nimmt halt ein externes Tool.

akuji13
2015-03-16, 12:48:28
Oh das ist neu für mich? Ist das überall so oder nur in optimierten Titeln?

Ups, ich meinte wohl die Skalierung:
http://www.computerbase.de/2013-12/geforce-gtx-780-ti-sli-vs-radeon-r9-290-x-cf/5/

Beides Features die die Masse überhaupt nicht interessieren. Wenn dir das wichtig ist dann suchst du dir natürlich entsprechendes Produkt aus, spricht ja nichts gegen.

Mir ist alles wichtig, weshalb ich mir den "Spaß" mit den unterschiedlichen Rechnern auch gönne. :wink:

Die Masse spricht eine Titan X aber auch nicht an! :D

Die kauft die Karten des Herstellers der A.die schnellsten Karten liefert (auch wenn sie selbst nur 150€ ausgeben) und der B.ein unfamgreiches featureset bietet (auch wenn sie das meist nie nutzen, aber sie könnten ja).

dargo
2015-03-16, 12:48:35
Nee, Speed ist den meisten Egal. DIe wollen nur einfahc nicht ewig frickeln, auf ihre neue >300 Euro karte keinen 3rd party kühler pappen und einen Treiber der einfach funzt. Wenn dazu noch die Speedkrone kommt, ok, nimmt man halt mit, aber die beeinflusst das System was man sich kauft ja nicht.
Ihr immer mit eurem Frickeln. Ich frage mich manchmal welche Leichen ihr da rauspickt? Seit GCN stehen die AMD-Treiber den Treibern von NV für den Normalo in nichts nach (ok der Blackscreen-Bug bei Hawaii war echt mies, ich war davon mit Tahiti zum Glück nicht betroffen, allerdings gabs was ähnliches damals bei Tahiti auch schon). Wenn ich an den Anfang der Treiber von Maxwell und mir denke, dann war das die einzige Katastrophe. Aber nun gut... mittlerweile läufts ja. Bei einer neuen Architektur muss man halt mit Kinderkrankheiten rechnen. Zum Kühler... vor dem Kauf richtig informieren, es gibt genug gute Customkühler die direkt vom Hersteller verbaut sind. Da muss man nichts frickeln.

Godmode
2015-03-16, 12:50:25
http://www.hardocp.com/article/2014/10/27/nvidia_geforce_gtx_980_sli_4k_video_card_review/11#.VQa_7OHfcXE

Coole Sache!


Und AMD´s 3D ist ein Witz gegenüber 3DVision.


Mir reicht es wenn es ein paar Spiele verwenden.

Ein Borderlands 2 hätte ich ohne PhysX und der damit völlig toten Welt sicher keine 300 Stunden gespielt.


Ich bin einer der größten 3DVision Fans hier im Forum. Leider muss ich sagen, dass es bei neueren Spielen meistens nicht mehr funktioniert.

SamLombardo
2015-03-16, 12:50:31
@fondness, danke für die Info.

fondness
2015-03-16, 12:51:21
Nee, Speed ist den meisten Egal. DIe wollen nur einfahc nicht ewig frickeln, auf ihre neue >300 Euro karte keinen 3rd party kühler pappen und einen Treiber der einfach funzt. Wenn dazu noch die Speedkrone kommt, ok, nimmt man halt mit, aber die beeinflusst das System was man sich kauft ja nicht.

Das finde ich schon etwas witzig jetzt, gerade bei NV musste man ja immer mit den AA-bit, etc. herumfrickeln, während man out-of-the-box häufig mit AMD besser dran war. Ich wüsste jedenfalls nicht was man bei AMD mehr frickeln müsste als bei NV. Und der Catalyst Omega ist ein extrem problemarmer Treiber, auch hier spielen wohl mehr Vorurteile eine Rolle als eigenen Erfahrungen.

akuji13
2015-03-16, 12:51:39
Ich bin einer der größten 3DVision Fans hier im Forum. Leider muss ich sagen, dass es bei neueren Spielen meistens nicht mehr funktioniert.

Wie SLI auch, zumindest nicht fehlerfrei.

Loeschzwerg
2015-03-16, 12:58:30
Zum Kühler... vor dem Kauf richtig informieren, es gibt genug gute Customkühler die direkt vom Hersteller verbaut sind. Da muss man nichts frickeln.

Stimmt schon, aber wie lange musste man gerade bei Hawaii auf Partnerkarten warten, bei denen man nicht irgendwo Kompromisse (die VRM Temperatur fällt mir da spontan ein) eingehen musste?

Das sind diese kleinen Zipperlein die sich in die Köpfe fressen.

Naja, mit Fiji heißt es "neue Runde neues Glück" und GM200 muss sich auch erst beweisen (Stichwort: rundes Produkt).

dargo
2015-03-16, 13:02:42
Stimmt schon, aber wie lange musste man gerade bei Hawaii auf Partnerkarten warten, bei denen man nicht irgendwo Kompromisse (die VRM Temperatur fällt mir da spontan ein) eingehen musste?

Schon putzig, dass du gerade die VRMs bei AMD ansprichst wo die GTX970 bei diversen Customkühlern gerade in dieser Disziplin sowas von glänzt. :tongue:

4Fighting
2015-03-16, 13:07:45
Das finde ich schon etwas witzig jetzt, gerade bei NV musste man ja immer mit den AA-bit, etc. herumfrickeln, während man out-of-the-box häufig mit AMD besser dran war. Ich wüsste jedenfalls nicht was man bei AMD mehr frickeln müsste als bei NV. Und der Catalyst Omega ist ein extrem problemarmer Treiber, auch hier spielen wohl mehr Vorurteile eine Rolle als eigenen Erfahrungen.

Das Gefrickel ist imo ein Bonus und kein Malus.

Die Liste der AA/SLI-kompatiblen Spiele ist doch bei NV deutlich höher als bei AMD. Und jemand der SLI betreibt hat idr auch genug Ahnung, wie er SLI Bits anwendet. Also so wirklich Gefrickel ist es dann auch nicht.
Wobei man natürlich fairerweise sagen muss, dass sich die AA Bits ohne DX11 Support natürlich erledigt haben.

Loeschzwerg
2015-03-16, 13:08:03
Schon putzig, dass du gerade die VRMs bei AMD ansprichst wo die GTX970 bei diversen Customkühlern gerade in dieser Disziplin sowas von glänzt. :tongue:

Kratzt nur "keinen" weil die GTX 980 als Vorzeigeprodukt entsprechend glänzt ;)

fondness
2015-03-16, 13:17:45
Das Gefrickel ist imo ein Bonus und kein Malus.

Die Liste der AA/SLI-kompatiblen Spiele ist doch bei NV deutlich höher als bei AMD. Und jemand der SLI betreibt hat idr auch genug Ahnung, wie er SLI Bits anwendet. Also so wirklich Gefrickel ist es dann auch nicht.
Wobei man natürlich fairerweise sagen muss, dass sich die AA Bits ohne DX11 Support natürlich erledigt haben.

Und CF-Profile kann man bei AMD ebenfalls im Treiber beliebig zuordnen.

dildo4u
2015-03-16, 15:22:59
Angeblich Finale Specs 1098mhz Boost 3072 Cores.

http://videocardz.com/55136/nvidia-geforce-gtx-titan-x-specifications

http://abload.de/img/nvidia-geforce-gtx-ti52ugn.jpg

akuji13
2015-03-16, 15:24:10
Ein link mit einer Quelle die liefern könnte wäre mir lieber. :D

Die specs sind jetzt ja nichts soooo überraschendes.

dildo4u
2015-03-16, 15:27:31
Naja einige gingen davon aus das erstmal ein kastrierter Chip kommt.

Godmode
2015-03-16, 15:30:42
Schon putzig, dass du gerade die VRMs bei AMD ansprichst wo die GTX970 bei diversen Customkühlern gerade in dieser Disziplin sowas von glänzt. :tongue:

Wen interessieren den VRMs? Der Hersteller muss sich darum kümmern, dass die Karte lange genug lebt, oder?

Angeblich Finale Specs 1098mhz Boost 3072 Cores.

http://videocardz.com/55136/nvidia-geforce-gtx-titan-x-specifications

http://abload.de/img/nvidia-geforce-gtx-ti52ugn.jpg

Schade das die Referenzplatinen immer so schwachbrüstig sind. Customs wirds ja von der Titan eher nicht geben.

dargo
2015-03-16, 15:34:03
Wen interessieren den VRMs?

Frag nicht mich, frag Loeschzwerg. :wink:

Loeschzwerg
2015-03-16, 15:56:04
Die Motzerei kam u.A. von hier "Da werden aber die VRM sehr warm wenn man die Drehzahl reduziert um die Karte leise zu bekommen" ;D Und dann wurde weiter gewartet. Aber Sapphire hats ja letztendlich gerichtet :)

SamLombardo
2015-03-16, 16:00:19
Sollte die Karte morgen vorgestellt werden, wann denkt ihr geht es denn morgen los? Gegen Nachmittag deutscher Zeit? Oder erst Abends?

Troyan
2015-03-16, 16:04:51
Keynote der GTC fängt um 17 Uhr an. Soll ca. 2h gehen. Ich denke, dass NDA fällt um 19 Uhr.

maximus_hertus
2015-03-16, 16:10:48
Ich habe das Gefühl, dass es keinen Launch geben wird (morgen) oder nur einen Peperlaunch (eher unwahrscheinlich).

Oder aber einen "halben" Paperlaunch - Reviews morgen Nachmittag, kaufbare Produkte in ca 1 Woche.

Troyan
2015-03-16, 16:15:50
Die Reviewer haben doch alle schon Karten. Viele seit über einer Woche.
Reviews werden morgen kommen. Wüsste auch nicht, wieso das NDA erst frühsten Mittwoch fallen sollte...

4Fighting
2015-03-16, 17:29:13
Nix neues, aber ich bin mal so frei

3D Mark 11 - X9438

http://www.3dmark.com/3dm11/9553020

3D Mark FS Ultra - 4034

http://www.3dmark.com/fs/4300442

Raff
2015-03-16, 20:05:27
Nix neues, aber ich bin mal so frei

3D Mark 11 - X9438

http://www.3dmark.com/3dm11/9553020

3D Mark FS Ultra - 4034

http://www.3dmark.com/fs/4300442

*Gähn* Tests über 30 Sekunden zeigen mal wieder den Bestfall. Was wirklich zählt, ist, welche Boosts Platine und Kühler dauerhaft - beim Spielen - halten können und wie laut das Ding dabei wird. GPU Boost = 3D-Mark-Optimierung. ;)

MfG,
Raff

Godmode
2015-03-16, 20:07:15
*Gähn* Tests über 30 Sekunden zeigen mal wieder den Bestfall. Was wirklich zählt, ist, welche Boosts Platine und Kühler dauerhaft - beim Spielen - halten können und wie laut das Ding dabei wird. GPU Boost = 3D-Mark-Optimierung. ;)

MfG,
Raff

Wenn interessiert der Boost wenn man Wakü hat. ^^

Raff
2015-03-16, 20:15:20
Dann interessiert in erster Linie das Powertarget. ;) Mit was liefen denn deine Titan Classics (Auto-Boost mit Wakü)? Die Karte war ja beispiellos "angekettet".

MfG,
Raff

4Fighting
2015-03-16, 20:17:25
Dann interessiert in erster Linie das Powertarget. ;) Mit was liefen denn deine Titan Classics? Die Karte war ja beispiellos "angekettet".

MfG,
Raff

265W entsprach iirc 100% bei der Titan. Ich meine man konnte bis 106% gehen.

Raff
2015-03-16, 20:21:34
Nope, die liefen ab Werk mit 250 Watt und 106 % ergibt dann 265 Watt. :)

MfG,
Raff

Godmode
2015-03-16, 20:21:47
Dann interessiert in erster Linie das Powertarget. ;) Mit was liefen denn deine Titan Classics? Die Karte war ja beispiellos "angekettet".

MfG,
Raff

Weiß ich gar nicht mehr. Meinst du das es dieses mal wieder keine Mod BIOSe geben wird?

Raff
2015-03-16, 20:23:01
Wieso wieder? Bislang kann man doch jede GeForce modden. Es bleibt zu hoffen, dass das mit GM200 nicht anders wird.

MfG,
Raff

Godmode
2015-03-16, 20:32:52
Wieso wieder? Bislang kann man doch jede GeForce modden. Es bleibt zu hoffen, dass das mit GM200 nicht anders wird.

MfG,
Raff


Dann war die Titan ja nicht angekettet oder was meinst du nur "out-of-the-box angekettet"

IIRC bin ich bei den Titans bie 106% PT geblieben, da ich den Originalkühler verwendet habe. Jetzt ist natürlich alles anders mit Wasser. (ja ich weiß das nervt ;D)

Grestorn
2015-03-16, 20:37:12
Wieso wieder? Bislang kann man doch jede GeForce modden. Es bleibt zu hoffen, dass das mit GM200 nicht anders wird.

Man kann zwar das BIOS modden, aber das PowerTarget, das wichtigste Element, ist doch bei fast allen Maxwell Karten per Hardware limitiert. Es will ja nicht jeder rumlöten oder warten, bis eine Classified auf den Markt kommt.

Woklbokl
2015-03-16, 20:38:18
Man kann zwar das BIOS modden, aber das PowerTarget, das wichtigste Element, ist doch bei fast allen Maxwell Karten per Hardware limitiert. Es will ja nicht jeder rumlöten oder warten, bis eine Classified auf den Markt kommt.

Falsch, einige GTX 970 sind Hardware Gelockt, Titanen waren das nie.

4Fighting
2015-03-16, 20:39:19
Falsch, einige GTX 970 sind Hardware Gelockt, Titanen waren das nie.

...weil Titanen bis dato immer Kepler Karten waren.

M4xw0lf
2015-03-16, 20:57:05
Ich habe das Gefühl, dass es keinen Launch geben wird (morgen) oder nur einen Peperlaunch (eher unwahrscheinlich).

Oder aber einen "halben" Paperlaunch - Reviews morgen Nachmittag, kaufbare Produkte in ca 1 Woche.
Also noch keine Titäne in eurer Datenbank, ja? ;)

Raff
2015-03-16, 21:19:06
Dann war die Titan ja nicht angekettet oder was meinst du nur "out-of-the-box angekettet"

Die erste Titan war brutal angekettet. Sechs Prozent (15 Watt) mehr Energieverbrauch als Obergrenze. Das brachte 13 bis 26 MHz mehr. Armes Biest. Mit 100 Watt mehr (-> BIOS-Mod) lässt sich arbeiten. Die Titan X muss gerüchteweise mit der gleichen TDP auskommen wie die Titan C, weshalb davon auszugehen ist, dass die Kiste ähnlich oft an die Mauer rennt, obwohl der Kern viel mehr könnte. Kühlung hin oder her, am Ende reden wir von vielleicht 50 MHz zwischen dem Referenzkühler und Wakü bei Dauerlast. Insofern steht und fällt die "Geilheit" auch dieser Karte mit der Möglichkeit, Mods durchzuführen. svl7 & Co. sollten schon mal in die Startlöcher steigen. :D

MfG,
Raff

horn 12
2015-03-16, 21:27:48
Da ist das PowerTune bei AMD besser gelöst und NV sieht sich wohl dem R9 390X diesesmal nicht wirklich gewachsen.
Habe ich doch recht @Raff

Diese Runde könnte nach extrem langer Durststrecke echt wieder einmal an AMD gehen :-)

Woklbokl
2015-03-16, 21:30:46
Die erste Titan war brutal angekettet. Sechs Prozent (15 Watt) mehr Energieverbrauch als Obergrenze. Das brachte 13 bis 26 MHz mehr. Armes Biest. Mit 100 Watt mehr (-> BIOS-Mod) lässt sich arbeiten. Die Titan X muss gerüchteweise mit der gleichen TDP auskommen wie die Titan C, weshalb davon auszugehen ist, dass die Kiste ähnlich oft an die Mauer rennt, obwohl der Kern viel mehr könnte. Kühlung hin oder her, am Ende reden wir von vielleicht 50 MHz zwischen dem Referenzkühler und Wakü bei Dauerlast. Insofern steht und fällt die "Geilheit" auch dieser Karte mit der Möglichkeit, Mods durchzuführen. svl7 & Co. sollten schon mal in die Startlöcher steigen. :D

MfG,
Raff


Ich würde nicht auf unseren Freund aus der Schweiz hoffen, der is recht busy, daher gab es auch nichts für die kleinen Maxwell Karten.
Ist aber nicht weiter schlimm denn mit dem Maxwell Editor konnte man bis auf Undervolting unter die festgelegte Standard Vcore alles wie gehabt einstellen.

Raff
2015-03-16, 21:35:59
Da ist das PowerTune bei AMD besser gelöst und NV sieht sich wohl dem R9 390X diesesmal nicht wirklich gewachsen.
Habe ich doch recht @Raff

Diese Runde könnte nach extrem langer Durststrecke echt wieder einmal an AMD gehen :-)

Bei AMDs Hawaii kann man +50 Prozent draufknallen, was prinzipiell wünschenswert ist, ja. Wie das bei Fiji aussieht, steht aber in den Sternen (andere AMD-GPUs bieten nur +20 %).

Ich würde nicht auf unseren Freund aus der Schweiz hoffen, der is recht busy, daher gab es auch nichts für die kleinen Maxwell Karten.

Crêpes. Dann hoffen wir mal, dass ihn die Titan X mehr interessiert als die langsamen GM204-Chips. :biggrin:

MfG,
Raff

Godmode
2015-03-16, 21:37:16
Die erste Titan war brutal angekettet. Sechs Prozent (15 Watt) mehr Energieverbrauch als Obergrenze. Das brachte 13 bis 26 MHz mehr. Armes Biest. Mit 100 Watt mehr (-> BIOS-Mod) lässt sich arbeiten. Die Titan X muss gerüchteweise mit der gleichen TDP auskommen wie die Titan C, weshalb davon auszugehen ist, dass die Kiste ähnlich oft an die Mauer rennt, obwohl der Kern viel mehr könnte. Kühlung hin oder her, am Ende reden wir von vielleicht 50 MHz zwischen dem Referenzkühler und Wakü bei Dauerlast. Insofern steht und fällt die "Geilheit" auch dieser Karte mit der Möglichkeit, Mods durchzuführen. svl7 & Co. sollten schon mal in die Startlöcher steigen. :D

MfG,
Raff

Sollte das nicht mehr gehen, ist diese Karte für mich ziemlich uninteressant. Wer will schon nur 30-35% auf eine GTX 980. :freak:

Troyan
2015-03-17, 01:23:34
M6000 kommt bei 1000MHz mit maximal 225W TDP aus:
http://wccftech.com/dual-nvidia-quadro-m6000-graphics-cards-pictured-gm200-professionals-heading-launch-gtc-titan/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Wccftechcom+%28WCCFtech.com%29

maximus_hertus
2015-03-17, 01:35:50
Also noch keine Titäne in eurer Datenbank, ja? ;)
Ja, noch nichts drin bzw. heute Mittag war noch kein Eintrag vorhanden. Warten wir mal auf morgen ;)

Godmode
2015-03-17, 09:51:24
Ich bin verwundert das es noch keine Leaks gibts. Normalerweise ist ja doch meistens ein schwarzes Schaf dabei. :)

M4xw0lf
2015-03-17, 09:53:26
Die paar Stunden (vermutlich) reißens halt nicht mehr raus. ;)

akuji13
2015-03-17, 09:55:46
Die erste Titan war brutal angekettet. Sechs Prozent (15 Watt) mehr Energieverbrauch als Obergrenze. Das brachte 13 bis 26 MHz mehr. Armes Biest. Mit 100 Watt mehr (-> BIOS-Mod) lässt sich arbeiten.

Kommt aber scheinbar auch auf die jeweilige Titan an.

Meine iChills erreichen mit deren stock-bios 1110 Mhz@1.136V.
Für die maximalen ~8% mehr (also 1202Mhz) muss ich Spannungen um 1.2V fahren.

Lohnt sich mMn nicht.

4Fighting
2015-03-17, 10:00:57
Ich bin verwundert das es noch keine Leaks gibts. Normalerweise ist ja doch meistens ein schwarzes Schaf dabei. :)

Wann fällt das NDA? 19 Uhr? Bis dahin sollte doch bestimmt noch was kommen:freak:

M4xw0lf
2015-03-17, 10:10:10
16 Uhr normalerweise. Evtl. 15 Uhr.

Dural
2015-03-17, 10:46:59
schon erstaunlich wie Effizienz die Maxwell Architektur ist.

1000MHz bei 200Watt ist mal eine Ansage.

Effe
2015-03-17, 11:44:24
Was für eine sinnlose Aussage. Der FX9590 schafft sogar 5Ghz bei 220W!!!111einself

Schaffe89
2015-03-17, 11:55:21
1000MHz bei 200Watt ist mal eine Ansage.


Hä? Welche 200 Watt? Der Verbrauch vin GM200 war deutlich über 200 Watt in den Leaks...

akuji13
2015-03-17, 12:00:59
War nicht der/die M6000 gemeint?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10555801&postcount=318

16 Uhr normalerweise. Evtl. 15 Uhr.

15/16 Uhr fällt das NDA, bis 18 Uhr per Express bestellt, morgen da!

Soviel zur Theorie. :D

Dural
2015-03-17, 12:11:07
Kopfschütteln :rolleyes:

Godmode
2015-03-17, 12:12:22
War nicht der/die M6000 gemeint?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10555801&postcount=318



15/16 Uhr fällt das NDA, bis 18 Uhr per Express bestellt, morgen da!

Soviel zur Theorie. :D

Die Shops haben anscheinend noch keine Karten. :/

akuji13
2015-03-17, 12:12:27
Warum?

Frechheit! :D
Drecksladen NV! :D

fondness
2015-03-17, 13:45:01
Entweder NDA fällt doch später oder wahrscheinlicher NV macht den Hard-Launch erst später.

maximus_hertus
2015-03-17, 14:04:08
Bei uns ist immer noch nichts drin. Nada. Entweder Paperlaunch oder der "richtige" Launch kommt erst noch irgendwann Ende März.

horn 12
2015-03-17, 14:13:55
Rechne eher Nvidia MUSS den Preis nochmals überdenken nach dem Gestrigen Tag :-)

4Fighting
2015-03-17, 14:14:36
Rechne eher Nvidia MUSS den Preis nochmals überdenken nach dem Gestrigen Tag :-)

haben sie bei der Titan Z auch nicht gemacht:freak:;D

akuji13
2015-03-17, 14:32:04
Rechne eher Nvidia MUSS den Preis nochmals überdenken nach dem Gestrigen Tag :-)

Ich denke du kannst nicht richtig rechnen. :D

NV korrigiert den Preis höchstens nach oben weil es eine Titan ist. :freak:

4Fighting
2015-03-17, 14:49:52
http://geizhals.de/eu/geforce-gtx-titan-x-a1244574.html

so langsam startet wohl die Listung der Karten

Schaffe89
2015-03-17, 14:58:20
Launch in 2 MInuten^^

Effe
2015-03-17, 15:03:00
Nö.

Schaffe89
2015-03-17, 15:06:37
Das ist ja langweilig, wann kommen den nun die Testberichte?

Nightspider
2015-03-17, 15:10:08
When its done.

fondness
2015-03-17, 15:10:47
Ist überhaupt heute fix? Die GDC geht ja bis zum 20.

Loeschzwerg
2015-03-17, 15:12:25
Warten wir einfach mal um 17 Uhr die Eröffnung der GTC ab.

4Fighting
2015-03-17, 15:27:48
http://www.chiphell.com/thread-1256074-1-1.html

auf gehts

http://www.chiphell.com/data/attachment/forum/201503/17/215130sowh8kw7v53ng33v.jpg

http://www.chiphell.com/data/attachment/forum/201503/17/215131jpzcp6hk8hmr7mr8.png

http://www.chiphell.com/data/attachment/forum/201503/17/215132jn0vvy02rzl0yrgk.png

Loeschzwerg
2015-03-17, 15:37:53
http://www.chiphell.com/thread-1256074-1-1.html

auf gehts

http://www.chiphell.com/data/attachment/forum/201503/17/215130sowh8kw7v53ng33v.jpg

http://www.chiphell.com/data/attachment/forum/201503/17/215131jpzcp6hk8hmr7mr8.png

http://www.chiphell.com/data/attachment/forum/201503/17/215132jn0vvy02rzl0yrgk.png

Ich hab das mal hier hochgeladen... irgendwie zeigt es bei mir die Bilder über die langsame Verbindung zu Chiphell nicht an.

51405 51406 51407

Nightspider
2015-03-17, 15:40:52
601mm²?

fondness
2015-03-17, 15:41:21
GPU-Z ist nur eine Datenbank.

Dural
2015-03-17, 15:44:50
Die 600mm sind ja schon länger bekannt, spätestens seit dem ersten Die Foto.

Titan X ist so langweilig, alles schon bekannt und die Leistung kann man schön ausrechnen.

robbitop
2015-03-17, 16:02:51
Wie bescheuert diese Chinesen wirklich immer wieder sind. Jedes Mal leaken sie. Und was benchen sie? 3DMark. :facepalm:
Das ist aber auch schon vor > 10 Jahren so gewesen... :D

Loeschzwerg
2015-03-17, 16:16:42
Der 3DMark ist schnell durchgelaufen und man muss sich keinen Kopf um Einstellungen oder entsprechende Spielszenen machen :) Bei Leaks muss es doch immer schnell gehen ^^

Und stelle dir vor die würden gleich großartig alles testen, da könnten CB, PCGH und Co ja dicht machen :freak:

derguru
2015-03-17, 16:16:50
naja die benchmarks werden in spielen genau langweilig sein wie die 3d mark werte, um die +~35% zur gtx980, muss ich jetzt auch nicht zu jedem spiel ein bench sehen. interessanter ist der verbrauch, oc, lautstärke und preis.

Godmode
2015-03-17, 16:17:41
naja die benchmarks werden in spielen genau langweilig sein wie die 3d mark werte, um die +~35% zur gtx980, muss ich jetzt auch nicht zu jedem spiel ein bench sehen. interesanter ist der verbrauch, oc, lautstärke und preis.

Ja, sehe ich genau so. Die Karte wird nur mit OCing interessant, sonst ist sie so interessant wie ein Schwamm.

robbitop
2015-03-17, 16:19:49
Ist aber schon krass zu sehen, dass die Leute heute bereit sind, für +50% ggü GK110 1.000 € auszugeben, wo man bis vor ein paar Jahren für 600 €*+90...100 % bekam. :(

Godmode
2015-03-17, 16:21:05
Ist aber schon krass zu sehen, dass die Leute heute bereit sind, für +50% ggü GK110 1.000 € auszugeben, wo man bis vor ein paar Jahren für 600 €*+90...100 % bekam. :(

Naja was will man sonst machen? Den Speicherkrüppel alias GTX 980 noch länger behalten und auf GP204 warten? Ich weiß nicht...

Loeschzwerg
2015-03-17, 16:22:12
Die Diskussion darum hatten wir doch schon bei der ersten Titan ;)

TurricanM3
2015-03-17, 16:23:30
Wegen OC ist aber noch nichts durchgesickert oder?

Leonidas
2015-03-17, 16:35:45
Die Diskussion darum hatten wir doch schon bei der ersten Titan ;)


Und jene hatte ja auch nur +33% zur 680 ... und wurde trotzdem bejubelt.

4Fighting
2015-03-17, 16:37:48
The GeForce GTX Titan X will be available for retail at a price of $999 US which is the standard cost of Titan series graphics cards.

http://wccftech.com/nvidia-geforce-gtx-titan-x-official/

derguru
2015-03-17, 16:39:59
also bei uns um die 1100tacken, fuuu euro/dollar kurs.

robbitop
2015-03-17, 16:41:07
Naja was will man sonst machen? Den Speicherkrüppel alias GTX 980 noch länger behalten und auf GP204 warten? Ich weiß nicht...
Ich habs dir ja gesagt was GM204 angeht... ;)

Die Diskussion darum hatten wir doch schon bei der ersten Titan ;)
Die war wenigstens doppelt so schnell wie GF110.

Die 04 GPUs werden von mir gar nicht beachtet. Midrangekram der als High End vertickt wird... :D

Und jene hatte ja auch nur +33% zur 680 ... und wurde trotzdem bejubelt.
Äpfel und Birnen. Titan aka GK110 war der Nachfolger der GF110 nicht von GK104.
GK104 war der Nachfolger von GF104. Und jeweils waren sie fast 2x so schnell wie der Vorgänger.

GM200 hingegen ist nur 50 % schneller wie der Vorgänger GK110.

Godmode
2015-03-17, 16:46:55
Ich habs dir ja gesagt was GM204 angeht... ;)


I know. :frown:

Die 04 GPUs werden von mir gar nicht beachtet. Midrangekram der als High End vertickt wird... :D

Ja, sollte man eigentlich so machen als Highend Käufer.


GM200 hingegen ist nur 50 % schneller wie der Vorgänger GK110.

Tja, die Fertigung hat da einfach einen Strich durch die Rechnung gemacht. Allerdings könnte dafür GP200 mehr also 100% drauflegen. Das könnte eine neue GTX 8800 werden :)

robbitop
2015-03-17, 16:48:16
Nur blöderweise wird GP200 sicherlich noch eine ganze Weile auf sich warten lassen... IMO kann man damit in frühestens 18 Monaten rechnen. In 12 Monaten vermutlich erstmal GP204.

fondness
2015-03-17, 16:49:25
Äpfel und Birnen. Titan aka GK110 war der Nachfolger der GF110 nicht von GK104.
GK104 war der Nachfolger von GF104. Und jeweils waren sie fast 2x so schnell wie der Vorgänger.

GM200 hingegen ist nur 50 % schneller wie der Vorgänger GK110.

Darum ging es Leonidas ja gar nicht, es geht darum, dass man für 33% mehr Leistung auf die 680 bereit war 1000 EUR hinzulegen.

robbitop
2015-03-17, 16:51:45
Naja wer jede Salamischeibe mitnehmen muss (also Midrangekarte und Highendkarte der gleichen Generation) , ist selbst schuld. :D

Troyan
2015-03-17, 16:51:57
Es waren 33% bei Base-Clock. Titan lies sich bis zwischen 1150Mhz und 1200MHz übertakten. Das kombiniert mit 50% mehr Bandbreite und 6GB machte Titan wesentlich interessanter als Titan X.

fondness
2015-03-17, 16:52:17
Um 17 Uhr beginnt die GTC, hier ein Live-Stream:
http://www.ustream.tv/channel/gpu-technology-conference-2015

cR@b
2015-03-17, 16:52:44
Ist die erste Karte, die für mich seit der Classic interessant wird :ugly: Die 980 GTX war auch interessant aber irgendwie wars noch nicht so nötig mit 1080p. Jetzt steht mit dem Acer IPS G-Sync 1440p vor der Tür, da wäre mehr Leistung durchaus erstrebenswert und auf SLI steh ich nicht so...

robbitop
2015-03-17, 16:55:17
Es waren 33% bei Base-Clock. Titan lies sich bis zwischen 1150Mhz und 1200MHz übertakten. Das kombiniert mit 50% mehr Bandbreite und 6GB machte Titan wesentlich interessanter als Titan X.
Jede Grafikkarte läßt sich übertakten. GK110 sehr gut mit Modbios. GM204 generell recht gut. Und GM200 wird bestimmt auch Möglichkeiten bekommen.

Ist also ein (fast) konstanter (prozentualer) Offset, der auf alle Karten drauf kommt.

fondness
2015-03-17, 16:57:56
Sieht so aus als gehen um 17:00 Uhr die Reviews online...
Okay erst nach dem Webcast.

/Edit:

http://www.anandtech.com/show/9059/the-nvidia-geforce-gtx-titan-x-review

cR@b
2015-03-17, 17:02:07
Erste Review online :eek:

http://anandtech.com/show/9059/the-nvidia-geforce-gtx-titan-x-review

fondness
2015-03-17, 17:02:47
LOL wurde wieder entfernt^^

cR@b
2015-03-17, 17:03:24
LOL wurde wieder entfernt^^

Damn jo *g*

ChaosTM
2015-03-17, 17:03:40
Hehe, ich war auch gerade dort.

maximus_hertus
2015-03-17, 17:04:41
Jede Grafikkarte läßt sich übertakten. GK110 sehr gut mit Modbios. GM204 generell recht gut. Und GM200 wird bestimmt auch Möglichkeiten bekommen.

Ist also ein (fast) konstanter (prozentualer) Offset, der auf alle Karten drauf kommt.

Nein, bei GK104 war nicht viel mit Übertakten, da hat sehr oft das Powertarget dazwischengefunkt. Die Titan Classic war zwar etwas zu teuer, aber mit 700 Euro wäre sie eine zweite 8800 GTX geworden, ganz klar.

Leonidas
2015-03-17, 17:04:47
Jo, was ist da los? Geht es nun 17:00 los oder nicht?

AnandTech-Review erscheint mir unfertig (Google-Cache hat die erste Seite). Da fehlt sogar der Preispunkt. Könnte sein, das nicht nur noch dran gearbeitet wird, sondern daß das gar nicht so schnell was wird.

fondness
2015-03-17, 17:05:30
Erst nach dem Webcast, BTW hab die Seite im Cache:

http://s16.postimg.org/yyfl6iyud/Zwischenablage02.png (http://postimage.org/)

NV lässt den Preis offenbar noch offen^^

derguru
2015-03-17, 17:05:37
nach der technologie konferenz, sonst schaut die sich ja niemand an.

cR@b
2015-03-17, 17:06:45
Lol Launch Price -> a large number hrhr

Troyan
2015-03-17, 17:07:09
Laut dem Typen von PCper sollen die Karten heute in Amerika kaufbar sein:
http://www.overclock.net/t/1544560/gdc-15-nvidia-announces-titan-x/2200#post_23676535

Morgen dann wohl bei uns.

cR@b
2015-03-17, 17:09:15
Dort n Taunni bei und 1200 schätze ich...

fondness
2015-03-17, 17:09:50
In any case, if you’re reading this then it means we haven’t had a chance to update the price in our article yet. In a break from the usual procedure NVIDIA is not releasing GTX Titan X pricing to the press ahead of time (we typically get it the day before), instead opting to leave it a surprise for today’s GTC 2015 keynote speech from NVIDIA CEO Jen-Hsun Huang. So at the moment we do not know quite what the GTX Titan X will be priced at, though $1000 like the previous GTX Titans is a reasonable bet.

Das scheibt Anand.

Wake
2015-03-17, 17:12:04
Aus AT-Forum bzw. OCN:
- 33% faster than GTX 980
- $1000 (wohl nur Vermutung)
- No FP64 DP like the original Titan, straight up gaming card now

Leonidas
2015-03-17, 17:12:09
Spaßvögel auf allen Seiten.

fondness
2015-03-17, 17:14:16
"Finally, for launch availability this will be a hard launch. Reference cards should be available by the time this article goes live, or shortly thereafter. Since this is a GTX Titan card, all cards will be reference cards, capitalizing on the luxury status of the card and ensuring everyone is using NVIDIA’s metal shroud."

Godmode
2015-03-17, 17:15:09
Nur blöderweise wird GP200 sicherlich noch eine ganze Weile auf sich warten lassen... IMO kann man damit in frühestens 18 Monaten rechnen. In 12 Monaten vermutlich erstmal GP204.

Darum kauft man jetzt auch GM200 oder Fiji, damit hat man wieder zwei Jahre Ruhe. Ja kostet leider mehr als früher, ist aber so.

fondness
2015-03-17, 17:20:30
http://s28.postimg.org/s7r2htg59/CAT_ADo_U8_AAUEr5_jpg_large.jpg (http://postimage.org/)

Effe
2015-03-17, 17:22:28
Lenin? Lernen, Lernen nochmals Lernen...

Schaffe89
2015-03-17, 17:23:27
Bisher ist es mal ziemlich langweilig.
Die shield ist das unnötigste überhaupt, die sollen endlich die Titan vorstellen damit die Reviews kommen.

Effe
2015-03-17, 17:24:47
Erstmal schöne Selbstbeweihräucherung. AMAZING!!!
http://www.ustream.tv/channel/gpu-technology-conference-2015

Mancko
2015-03-17, 17:28:02
Ist doch super der Vortrag. Audience sind ja hier auch Entwickler und nicht der normale Endverbraucher. Auch der Rückblick auf das HPC Segment ist durchaus interessant. Da ist im Prinzip aus dem Nichts ein ordentliches Marktsegment entstanden. Selbstmarketing gehört natürlich auch dazu. Das müssen die Deutschen noch lernen wie das geht. Da sind wir ganz schlecht. Merke ich auch selber in der Firma, wenn wir gegen US Firmen antreten. Marketing und Sales ist dort dem typischen Unternehmen haushoch überlegen.

fondness
2015-03-17, 17:28:07
Inzwischen werden die Karten von den Boardpartner vorgestellt, alle default Takt, alle ident...

HisN
2015-03-17, 17:29:02
Prima. Gibts keine Probleme mit dem Wasserkühler :-)

Schaffe89
2015-03-17, 17:29:15
Der trägt auch eine Lederjacke, wenns 50 Grad im Schatten hat.

Effe
2015-03-17, 17:30:09
Hui jetzt gehts los. Titan ÄÄÄCHS!!!

Schaffe89
2015-03-17, 17:31:06
Bisschen verhalten der Applaus.^^

Schaffe89
2015-03-17, 17:31:52
"We still have Titan Z!"

Lol

fondness
2015-03-17, 17:32:05
TITAN Z is still the fastest double precision card we have ... :D

Ex3cut3r
2015-03-17, 17:32:23
Lederjacke for the win...verkauft der auch Zigaretten? ^^

4Fighting
2015-03-17, 17:32:45
http://www.overclock.net/content/type/61/id/2391908/width/500/height/1000/flags/LL

fondness
2015-03-17, 17:33:26
http://s28.postimg.org/cfnbmnx8d/CAUBp4_GUUAATSp_jpg_large.jpg (http://postimage.org/)

fondness
2015-03-17, 17:35:16
http://www.overclock.net/content/type/61/id/2391908/width/500/height/1000/flags/LL

Shadows of Mordor hängt bei den 4GB Karten in 4K völlig am VRAM....

Mancko
2015-03-17, 17:36:41
Lederjacke for the win...verkauft der auch Zigaretten? ^^

Er hat immer diese oder eine ähnliche Lederjacke an. Gehört bei ihm bei diesen Auftritten dazu, Markenzeichen sozusagen.

Ex3cut3r
2015-03-17, 17:40:36
999$ :ulol:

fondness
2015-03-17, 17:40:45
Preis von $999 bestätigt.

Effe
2015-03-17, 17:41:06
999$

PHuV
2015-03-17, 17:41:30
Preis von $999 bestätigt.
Du warst schneller.

Blediator16
2015-03-17, 17:44:59
Also hat man X für Y geopfert und einige haben AMD quasi die Fähigkeit abgesprochen ebenfalls effiziente Chips entwickeln zu können. Einige fressen ihre Scheisse gerade für den Scheiss, den sie gepostet haben.

Awrack
2015-03-17, 17:44:59
also etwa 950€ dann bei uns

Undertaker
2015-03-17, 17:45:05
Genug Preisspam ;)

akuji13
2015-03-17, 17:46:43
also etwa 950€ dann bei uns

Das kann ich mir kaum vorstellen.

Ich denke 1100€ + early adopter Zuschlag.

Schaffe89
2015-03-17, 17:47:08
In der Tschechei dann vermutlich sehr teuer.

maximus_hertus
2015-03-17, 17:48:31
999$ / 1,05 = ca. 950 Euro + Mwst (19%) => ca. 1130 Euro.

Nach den ersten Tagen gibt es vielleicht einen leichten "Preiskampf" der Händler => 1050-1080 Euro

robbitop
2015-03-17, 17:49:03
Unfassbar wie lange er auf dem langweiligem Learning Kram rumreitet... zzzzZZZZ

Awrack
2015-03-17, 17:49:40
Das kann ich mir kaum vorstellen.

Ich denke 1100€ + early adopter Zuschlag.


ach die 550dollar 980 gibts auch ab 500€, also abwarten....

maximus_hertus
2015-03-17, 17:49:40
Er muss halt Zeit füllen ^^ Gibt wohl sonst nicht viel was er sagen kann :D


Zum GTX 980 Preis: Die LAger wurden "gefüllt", als der Euro noch (deutlich) stärker war. Klar kann die Titan X irgendwann auf unter 1000 Euro fallen, aber ich würde zumindest am Anfang ein Preis über 1000 Euro, eher 1100 Euro erwarten.

Ex3cut3r
2015-03-17, 17:50:02
390X über 700€?

Titan X 1000€

Ich steig aus... =D

Godmode
2015-03-17, 17:51:44
Unfassbar wie lange er auf dem langweiligem Learning Kram rumreitet... zzzzZZZZ

Was habt ihr den erwartet, etwa das er 3DMark Balken herzeigt? Es ist eine GTC und keine Spielemesse. :rolleyes:

Schaffe89
2015-03-17, 17:52:10
Learning Depp

Bl@de
2015-03-17, 17:52:42
Titan X kommt für 1000$ ohne Double Precision.
AMD Radeon 390X zielt auf 700$+.

Und voila, der Preispunkt für High-End wurde verschoben.
Und damit dürfte sich wohl auch der Rest wohl auch bald anpassen.

Gefällt mir irgendwie nicht so sehr :/

Ex3cut3r
2015-03-17, 17:53:40
Titan X kommt für 1000$ ohne Double Precision.
AMD Radeon 390X zielt auf 700$+.

Und voila, der Preispunkt für High-End wurde verschoben.
Und damit dürfte sich wohl auch der Rest wohl auch bald anpassen.

Gefällt mir irgendwie nicht so sehr :/

Wenn, Apple...das kann, könne sie es anscheinend auch. ;D

Die Performance Chips gibts ja auch noch, nur das ist halt der VRAM oder sonstiges beschnitten. Was solls hol ich mir halt ne PS4... ^^

robbitop
2015-03-17, 17:53:45
Was habt ihr den erwartet, etwa das er 3DMark Balken herzeigt? Es ist eine GTC und keine Spielemesse. :rolleyes:
Keine Ahnung, wen du mit "ihr" meinst. Ich habe technische Details erwartet.

µ-Architektur
ein neues AA-Verfahren

Aber nicht den gleichen Learning Scheiß wie letztes Jahr - nur dass jetzt 50 % schneller gelearnt werden kann...

4Fighting
2015-03-17, 17:54:04
ist es denn definitv der Vollausbau? Oder lieber auf die Titan Black X warten? :D

Undertaker
2015-03-17, 17:54:55
Was habt ihr den erwartet, etwa das er 3DMark Balken herzeigt? Es ist eine GTC und keine Spielemesse. :rolleyes:

Bei einigen Kommentaren hier und im Maxwell-Thread habe ich auch den Eindruck, dass der Techno-Junkie zum Jazz-Konzert geht und sich dann über die schlechte Musik beschwert.

Wer nur die technischen Daten der Titan X bestätigt haben wollte, kann jetzt sicherlich abschalten. :)

Nightspider
2015-03-17, 17:56:08
Waren Nvidias letzte Präsentationen auch schon so schlecht? :ugly:

Blediator16
2015-03-17, 17:56:27
http://www.overclock.net/content/type/61/id/2391929/width/500/height/1000/flags/LL

robbitop
2015-03-17, 17:56:33
Davon ist auszugehen. 28 nm ist reif genug, Pascal ist für nächstes Jahr geplant - also kaum Platz für einen Zwischenschieber - und der Performancesprung ist jetzt nicht so groß, dass man da noch viel zurückhalten wird.
Die Zahl der SPs passt auch ganz gut zum Transistorcount.

aufkrawall
2015-03-17, 17:56:54
390X über 700€?

Titan X 1000€

Ich steig aus... =D
Die GTX 980 fühlt sich auf einmal nicht mehr wie Geldverbrennung an. :freak:

Ex3cut3r
2015-03-17, 17:57:58
Die GTX 980 fühlt sich auf einmal nicht mehr wie Geldverbrennung an. :freak:

;D Jo, da hast du irgendwie recht. :freak:

dargo
2015-03-17, 17:58:16
Die Performance Chips gibts ja auch noch, nur das ist halt der VRAM oder sonstiges beschnitten. Was solls hol ich mir halt ne PS4... ^^
Und was willst du mit dem Downgrade bezwecken? :tongue:

Schaffe89
2015-03-17, 17:58:38
http://www.overclock.net/content/type/61/id/2391929/width/500/height/1000/flags/LL

;D;D;D;D;D;D;D

The new CEO

Bl@de
2015-03-17, 17:58:56
Wenn, Apple...das kann, könne sie es anscheinend auch. ;D

Die Performance Chips gibts ja auch noch, nur das ist halt der VRAM oder sonstiges beschnitten. Was solls hol ich mir halt ne PS4... ^^

Wäre ich NVIDIA würd ichs natürlich auch machen. Die Leute fressen denen ja alles aus der Hand.
Die Titan war ja noch für viele Zielgruppen ne Alternative zur Quadro. Das ist nun gestrichen und es
geht primär um Spieleleistung.

Scheiße für mich, der gerne eine Stufe unter High-End gewildert hat. Mal gucken wie sich die Preise und Segmente
nun entwickeln werden.

Mancko
2015-03-17, 18:00:21
Waren Nvidias letzte Präsentationen auch schon so schlecht? :ugly:

Ich glaube eher du gehörst nicht zur Target Audience. Zudem zeig mir mal einen CEO von AMD - bis auf Jerry Sanders, den ich wirklich bewundere - der in der Lage ist und war solche Präsentationen zu halten. Da findest keinen einzigen. Die sehen dagegen einfach nur wie traurige Gestalten aus.

4Fighting
2015-03-17, 18:01:22
The embargo for reviews lifts at 12pm PST/ 7pm GMT/ 8pm CET

na mal sehen

robbitop
2015-03-17, 18:01:33
Bei einigen Kommentaren hier und im Maxwell-Thread habe ich auch den Eindruck, dass der Techno-Junkie zum Jazz-Konzert geht und sich dann über die schlechte Musik beschwert.

Wer nur die technischen Daten der Titan X bestätigt haben wollte, kann jetzt sicherlich abschalten. :)
Den aufgewärmten Kram von der letzten GDC zu erzählen ist also ein "Jazz-Konzert"? :|

Techfacts wären ein "Jazz-Konzert". Das hier ist eher eine Wiederholung von "GZSZ" vom Vorabend.

Ex3cut3r
2015-03-17, 18:03:01
Und was willst du mit dem Downgrade bezwecken? :tongue:

Keine Ahnung, von Nvidia war ich ja das gewöhnt mit der Titan, aber das AMD jetzt auch auf dem Zug springt. Wo soll das noch hinführen? :freak:

Wäre ich NVIDIA würd ichs natürlich auch machen. Die Leute fressen denen ja alles aus der Hand.
Die Titan war ja noch für viele Zielgruppen ne Alternative zur Quadro. Das ist nun gestrichen und es
geht primär um Spieleleistung.

Scheiße für mich, der gerne eine Stufe unter High-End gewildert hat. Mal gucken wie sich die Preise und Segmente
nun entwickeln werden.

So gehts mir ja auch. Für die Performance Karten wird man dann wohl, einfach die früheren Highend Preise zahlen.

Troyan
2015-03-17, 18:03:13
Was soll er über Titan X sonst erzählen?!

Die Leute dort wollen keine technischen Daten, sondern Lösungen.

tdon
2015-03-17, 18:03:56
Wann kommen die Tests? 19:00 Uhr?

Undertaker
2015-03-17, 18:06:23
Techfacts wären ein "Jazz-Konzert".

Auch wenn sich das mancher anders wünscht: Das Breittreten von GM200-Facts steht bei der Veranstaltung nun einmal nicht im Mittelpunkt. ;)

Was soll er über Titan X sonst erzählen?!

Die Leute dort wollen keine technischen Daten, sondern Lösungen.

Word.

HarryHirsch
2015-03-17, 18:06:32
20 uhr

aufkrawall
2015-03-17, 18:06:38
Keine Ahnung, von Nvidia war ich ja das gewöhnt mit der Titan, aber das AMD jetzt auch auf dem Zug springt. Wo soll das noch hinführen? :freak:

Doof für AMD ist, dass NVs Marge einfach deutlich höher sein wird.
Bei der Titan sowieso, aber wohl auch bei der normalen Variante mit 6GB.

Mancko
2015-03-17, 18:08:10
Auch wenn sich das mancher anders wünscht: Das Breittreten von GM200-Facts steht bei der Veranstaltung nun einmal nicht im Mittelpunkt. ;)
Word.

So ist es. Dort stehen Lösungen, Ansätze, Vorgehensweisen im Vordergrund.

Ex3cut3r
2015-03-17, 18:09:25
Doof für AMD ist, dass NVs Marge einfach deutlich höher sein wird.
Bei der Titan sowieso, aber wohl auch bei der normalen Variante mit 6GB.

Jo, daran hatte ich auch schon gedacht, naja vlt korrigiert AMD die Preise ja später wieder nach unten. Bei Nvidia habe ich seit der 970 einfach ein schlechtes Gefühl. Sieht man ja jetzt auch schon wieder, früher waren die 1000€ angeblich gerechfertigt, wegen der Double Presicsion, und was ist jezt mit der Titan X wo ist da DP? :wink:

Mancko
2015-03-17, 18:11:39
Keine Ahnung, von Nvidia war ich ja das gewöhnt mit der Titan, aber das AMD jetzt auch auf dem Zug springt. Wo soll das noch hinführen? :freak:


Dazu, dass hoffentlich auch AMD bald mal Geld mit dem Geschäft verdient und sich ein vernünftiges Preisniveau etabliert, so dass die Unternehmen eine ordentliche Rendite einfahren, die für dieses riskante Geschäft auch angemessen ist. Die Zeiten der Geiz ist Geil Mentalität sind da hoffentlich vorbei. Wenn AMDs Produkt gescheit abliefert, dann werden die hoffentlich endlich mal lernen und vernünftige Preise nehmen.

Dural
2015-03-17, 18:14:10
Wobei AMD natürlich erst mal liefern muss, schon viele GPU waren auf dem Papier ganz gut, NV war aber auf dem Bildschirm trotzdem besser.

aufkrawall
2015-03-17, 18:15:24
Ich glaub dem HBM-Hype auch noch nicht.
Nightspider und ich hatten 290X und 980 bei BF4 in 4k ohne MSAA verglichen, und die Radeon hatte trotz doppelt so großem Interface überhaupt keinen Vorteil im Vergleich zu 1440p.
1050Mhz wären auch echt nicht viel, ich ahne Übles für die Taktbarkeit.
Könnten gegen eine 980 unter Wasser nur +10-20% ohne MSAA sein (980 OC ist ~40% schneller als 290X OC).
Wohl wieder mit 100W mehr Verbrauch...

Thunder99
2015-03-17, 18:15:55
Titan X bietet 12GB, deshalb $999 :freak:

nvidia hat den Markt auf den Preis sensibilisiert, da kann AMD nur profitieren da ihr Produkt konkurrenzfähig sein wird aber weniger kostet oder im Vergleich zur GTX980 mehr kostet aber dramatisch schneller ist (Speku!)

Ansonsten nette Karte wo 50% mehr Einheiten im gleichem Herstellungsprozess eine Hausnummer ist. Man müsste die Karte ja mit Titan (Black) direkt vergleichen da die 980er ja nur "Performance" Segment ist

4Fighting
2015-03-17, 18:16:03
Gibt schon die Ankündigung für den Wasserkühler:freak:

http://videocardz.com/55193/ekwb-announces-titan-x-water-blocks

Christopher_Blair
2015-03-17, 18:16:28
Bedenklich in welche Richtung sich die Grafikkartenpreise entwickeln, die ~570 Euro für eine 980 wäre ich noch bereit zu zahlen gewesen, aber 1K Euro für eine Gamer Grafikkarte (DP) ist einfach pervers. Bei AMD siehts scheinbar ja auch nicht viel besser aus.

Nightspider
2015-03-17, 18:17:08
Nightspider und ich hatten 290X und 980 bei BF4 in 4k ohne MSAA verglichen, und die Radeon hatte trotz doppelt so großem Interface überhaupt keinen Vorteil im Vergleich zu 1440p.

Weißt doch selber, dass das Speicherinterface alleine nichts aussagt.

HarryHirsch
2015-03-17, 18:19:41
Gibt schon die Ankündigung für den Wasserkühler:freak:

http://videocardz.com/55193/ekwb-announces-titan-x-water-blocks

wo lässt denn evga seine wakühler herstellen? waren die bis jetzt von ekwb?
irgendwoher müssen die ja was vom layout wissen.

HisN
2015-03-17, 18:20:36
Bedenklich in welche Richtung sich die Grafikkartenpreise entwickeln, die ~570 Euro für eine 980 wäre ich noch bereit zu zahlen gewesen, aber 1K Euro für eine Gamer Grafikkarte (DP) ist einfach pervers. Bei AMD siehts scheinbar ja auch nicht viel besser aus.


Warum? Seit wann interessiert sich der Markt für die Preise die der Hersteller vorgibt? Was zu teuer ist, wird nicht gekauft (von den Leuten die nicht bereit sind es zu bezahlen). Regelt sich von selbst.
Die schauen nur bei Intel ab. Weil es bei Intel so gut klappt. Flaggschiff im Consumer-Markt: 999. IMMER. Kaufen dann halt entsprechend weniger Leute. Ich weiß gar nicht warum es da immer diese Aufregung gibt. Gibt doch genug "erschwingliche" Grafikkarten.

PHuV
2015-03-17, 18:24:05
Kann man mit der Devbox auch spielen? :freak: 50k $ ist eine Hausnummer.

4Fighting
2015-03-17, 18:24:47
review:

http://diy.pconline.com.cn/621/6214736_3.html

robbitop
2015-03-17, 18:41:52
Ich glaub dem HBM-Hype auch noch nicht.
Nightspider und ich hatten 290X und 980 bei BF4 in 4k ohne MSAA verglichen, und die Radeon hatte trotz doppelt so großem Interface überhaupt keinen Vorteil im Vergleich zu 1440p.
1050Mhz wären auch echt nicht viel, ich ahne Übles für die Taktbarkeit.
Könnten gegen eine 980 unter Wasser nur +10-20% ohne MSAA sein (980 OC ist ~40% schneller als 290X OC).
Wohl wieder mit 100W mehr Verbrauch...
Toller Vergleich. Auflösung kostet linear alles. Erst MSAA schiebt den Fokus stärker auf die Bandbreite als auf den Rest der GPU.

aufkrawall
2015-03-17, 18:46:38
Weißt doch selber, dass das Speicherinterface alleine nichts aussagt.
Die DCC stößt irgendwo auch an ihre Grenzen.

Toller Vergleich. Auflösung kostet linear alles. Erst MSAA schiebt den Fokus stärker auf die Bandbreite als auf den Rest der GPU.
Laut aths lässt sich mit MSAA mit am effektivsten komprimieren.

dargo
2015-03-17, 18:50:37
Keine Ahnung, von Nvidia war ich ja das gewöhnt mit der Titan, aber das AMD jetzt auch auf dem Zug springt. Wo soll das noch hinführen? :freak:

Bleib locker wie ich und genieße den Frühling/Sommer. Im Herbst/Winter kannst du dir in Ruhe die Preise anschauen und bis dahin sollte es auch einen für dich interessanten Freesync Bildschirm geben. :wink: Mal ehrlich... was kommt denn so Interessantes an Spielen bis dahin? Höchstens 1-2 Spiele.

robbitop
2015-03-17, 18:52:34
Das ist richtig - das funktioniert auch schon seit 2002 sehr gut (R300 hatte Color und Z Compression für MSAA).
Dennoch verschiebt MSAA den Bandbreitenbedarf nach oben, weil sich ja nur begrenzt komprimieren lässt. Je mehr Dreieckskanten zu rendern sind, desto öfter greift MSAA desto weniger kann komprimiert werden (weil unterschiedliche Samples pro Pixel). Mit den aktuellen Dreiecksraten ist das Verhältnis im Vergleich zu 2002 massiv gekippt.
Früher waren die meisten Pixel im Bild keine Geometriekanten. Heute ist es andersrum. Kostet also Bandbreite.

horn 12
2015-03-17, 18:54:36
Im Schnitt nur rund 30% schneller als GTX 980
Da sollte die R9 390X mit nicht mal 50% Mehrperformance gegenüber R9 290X schon auf Augenhöhe mit der Titan X sein.
Mit Wasserkühlung wird die Titan X wohl mit 20 bis 25% weggeblasen.

PS: Auch wenn es die EVGA Wasserkühlung für die Titan gegen wird, wird jene nicht unter 1300 Euro kosten.

boxleitnerb
2015-03-17, 18:56:49
Im Schnitt nur rund 30% schneller als GTX 980
Da sollte die R9 390X mit nicht mal 50% Mehrperformance gegenüber R9 290X schon auf Augenhöhe mit der Titan X sein.
Mit Wasserkühlung wird die Titan X wohl mit 20 bis 25% weggeblasen.

PS: Auch wenn es die EVGA Wasserkühlung für die Titan gegen wird, wird jene nicht unter 1300 Euro kosten.

Träum nicht - Titan X wird wie die Original-Titan im Power Target und insbesondere im Temperatur Target hängen. "Maximiert" und es kommen nochmal 10-15% drauf.

aufkrawall
2015-03-17, 18:59:01
Das ist richtig - das funktioniert auch schon seit 2002 sehr gut (R300 hatte Color und Z Compression für MSAA).
Dennoch verschiebt MSAA den Bandbreitenbedarf nach oben, weil sich ja nur begrenzt komprimieren lässt. Je mehr Dreieckskanten zu rendern sind, desto öfter greift MSAA desto weniger kann komprimiert werden (weil unterschiedliche Samples pro Pixel). Mit den aktuellen Dreiecksraten ist das Verhältnis im Vergleich zu 2002 massiv gekippt.
Früher waren die meisten Pixel im Bild keine Geometriekanten. Heute ist es andersrum. Kostet also Bandbreite.
Ok.
Trotzdem ist MSAA relativ unwichtig geworden und es wird hier gerne mal mit der Bandbreite argumentiert, wenn es um 4k geht.
Fiji ist extrem ambitioniert, aber irgendwo auch einfach eine Brechstangen-GPU.
Das aufgebohrte Frontend ist sehr begrüßenswert, aber es muss eine Antwort auf die Maxwell ALU-Effizienz kommen.

Ex3cut3r
2015-03-17, 18:59:03
Bleib locker wie ich und genieße den Frühling/Sommer. Im Herbst/Winter kannst du dir in Ruhe die Preise anschauen und bis dahin sollte es auch einen für dich interessanten Freesync Bildschirm geben. :wink: Mal ehrlich... was kommt denn so Interessantes an Spielen bis dahin? Höchstens 1-2 Spiele.

Jo, da hast du wirklich recht, dieses Jahr war bis jetzt Spiele mäßig auch eher schwach.

Ich wird es wirklich so machen, wie du im Zitat sagst.

So lange hält auch die GTX 770 noch. ^^

Was solls, es gibt mehr im Leben. ;)

MadManniMan
2015-03-17, 19:02:57
Tests also 20 Uhr?

BlacKi
2015-03-17, 19:03:52
Weißt doch selber, dass das Speicherinterface alleine nichts aussagt.
stimmt dazu gehört auch die taktfrequenz. der bandbreitenunterschied zwischen 290 und 980 ist nicht dramatisch.

um sich ein bild davon zu machen was hbm wirklich bringt, müsst ihr lediglich mal testen was 10% mehr ramtakt bringt. dann merkt ihr schnell das hbm ziemlich geil ist. ich freu mich schon auf pascal mit hbm.

fondness
2015-03-17, 19:05:21
Ist der Chip tatsächlich so fett? :eek:
625mm² wäre absolut an der Grenze dessen was TSMC überhaupt herstellen kann, da hat NV dann wirklich alles raus gepresst was irgendwie machbar war.

http://s1.postimg.org/nxw73vnan/GTX_Titan_X_Die_Size_635x476.jpg (http://postimage.org/)

Loeschzwerg
2015-03-17, 19:07:08
Bleib locker wie ich und genieße den Frühling/Sommer. Im Herbst/Winter kannst du dir in Ruhe die Preise anschauen und bis dahin sollte es auch einen für dich interessanten Freesync Bildschirm geben. :wink: Mal ehrlich... was kommt denn so Interessantes an Spielen bis dahin? Höchstens 1-2 Spiele.

Also ich kann bei meiner GTX 670 nicht mehr still sitzen und Witcher III steht vor der Tür :frown:

Wann soll Fiji Pi*Daumen aufschlagen?

AnarchX
2015-03-17, 19:08:07
Viel falsch machen kann man beim Messen wohl nicht.

Mit $999 ist die Karte ja bald ein Schnäppchen... - kein Wunder nachdem AMD seine Rx 300 Vorschau gegeben hat.;D

200 GFLOPs DP... :ugly:

horn 12
2015-03-17, 19:08:32
@Box

Dies kann schon sein, aber auch da sollte auch die R9 390X noch immer die Nase vorne behalten.
Mit 1050 bis 1100 sollte die Wasserkühlung schon kommen, und da wäre die R9 390X wohl gute 60% schneller als R9 290X - und dies OHNE OC!

Wie gut sich die Neue AMD OC Lässt steht auf einem Anderen Blatt ...
Leicht wird es die Titan X nicht bekommen, vor Allem zu dem Hohen Preis!

HBM ist Neuer BODEN, deshalb schiesst auch AMD den Vogel ab.
Aber NV hätte für die Mehrleistung nicht mehr als 800 bis 850 Euro verlangen dürfen, 12GB hin oder her, ist Prestigesache.

boxleitnerb
2015-03-17, 19:10:35
@Box

Dies kann schon sein, aber auch da sollte auch die R9 390X noch immer die Nase vorne behalten.
Mit 1050 bis 1100 sollte die Wasserkühlung schon kommen, und da wäre die R9 390X wohl gute 60% schneller als R9 290X - und dies OHNE OC!

Wie gut sich die Neue AMD OC Lässt steht auf einem Anderen Blatt ...
Leicht wird es die Titan X nicht bekommen, vor Allem zu dem Hohen Preis!

HBM ist Neuer BODEN, deshalb schiesst auch AMD den Vogel ab.
Aber NV hätte für die Mehrleistung nicht mehr als 800 bis 850 Euro verlangen dürfen, 12GB hin oder her, ist Prestigesache.

Warum bist du eigentlich immer so aufgeregt und in allem extrem vorschnell? Kannst du nicht einmal ruhig warten bis die Ergebnisse da sind ohne AMD in den Himmel zu loben? :rolleyes:

TurricanM3
2015-03-17, 19:16:58
Hui, die Karte hat schon mächtig Dampf. Mal was über OC gelesen?

PS: Was beschwert ihr euch eigentlich immer über den Preis? Besonders die Leute die sich so Hardware wohl sowieso nicht kaufen würden. Das ist so ein Thema, das verstehe ich einfach nicht. So eine Grafikkarte ist kein Grundnahrungsmittel sondern Luxus. Oder geht ihr auch in Porsche-Niederlassungen und beschwert euch über deren Preise? :confused:
Kauft es doch einfach nicht und gut ist.

4Fighting
2015-03-17, 19:18:49
weiter gehts (sogar mit OC Werten)

http://www.techspot.com/review/977-nvidia-geforce-gtx-titan-x/

http://www.techspot.com/articles-info/977/bench/Overclocking_01.png

scheint aber wohl "nur" 1,3-1,4 ghz zu gehen.

...resulting in a base clock of 1252MHz and a boost clock of 1326MHz, which isn't far off the 1.4GHz Nvidia said they reached

Thunder99
2015-03-17, 19:19:25
Also ich kann bei meiner GTX 670 nicht mehr still sitzen und Witcher III steht vor der Tür :frown:

Wann soll Fiji Pi*Daumen aufschlagen?
Es hieß immer noch Q2. Also bis Anfang Mai wirst du noch sicher warten können oder? :)

625mm² ist schon krass. Aber schön das sie das technisch machbare auch wirklich machen. Die yield Rate wäre da mal verdammt interessant :freak:

fondness
2015-03-17, 19:22:13
weiter gehts (sogar mit OC Werten)

http://www.techspot.com/review/977-nvidia-geforce-gtx-titan-x/

http://www.techspot.com/articles-info/977/bench/Overclocking_01.png

scheint aber wohl "nur" 1,3-1,4 ghz zu gehen.

Power consumption liegt bei dem Test auf 290X-Niveau.

Troyan
2015-03-17, 19:24:05
Klasse Neuigkeit:
Das Power-Limit wurde erhöht: Von 105% auf 110%. :lol:

Godmode
2015-03-17, 19:24:39
Gibt schon die Ankündigung für den Wasserkühler:freak:

http://videocardz.com/55193/ekwb-announces-titan-x-water-blocks

Hab ich vor ein paar Tagen schon geschrieben. Das hat mir der EK-Typ einfach so gesagt. Ich hab gefragt, wann es Titan X Kühler gibt, er drauf: in 1-2 Wochen. ;D

wo lässt denn evga seine wakühler herstellen? waren die bis jetzt von ekwb?
irgendwoher müssen die ja was vom layout wissen.

Ja die sind glaub ich von EKWB

Nightspider
2015-03-17, 19:24:42
stimmt dazu gehört auch die taktfrequenz

Auch Speicherinterface und Taktfrequenz sagen nur bedingt etwas aus.

Total Bandbreite != Effektive Bandbreite

Undertaker
2015-03-17, 19:26:03
Power consumption liegt bei dem Test über der 290X.

In einem von drei Spielen, in den zwei anderen marginal darunter. Der Effizienzvorsprung ggü. aktuellen GCN-Vertretern ist in Anbetracht der Mehrleistung damit ähnlich groß wie bei bisherigen Maxwell-Ablegern.

fondness
2015-03-17, 19:26:55
In einem von drei Spielen, in den zwei anderen marginal darunter. Der Effizienzvorsprung ggü. aktuellen GCN-Vertretern ist in Anbetracht der Mehrleistung damit ähnlich groß wie bei bisherigen Maxwell-Ablegern.

Verlesen, habe es vorhin schon editiert.

Godmode
2015-03-17, 19:28:23
Ist der Chip tatsächlich so fett? :eek:
625mm² wäre absolut an der Grenze dessen was TSMC überhaupt herstellen kann, da hat NV dann wirklich alles raus gepresst was irgendwie machbar war.

http://s1.postimg.org/nxw73vnan/GTX_Titan_X_Die_Size_635x476.jpg (http://postimage.org/)

Das Ding sollte somit sehr gut zu kühlen sein, dank der riesen Oberfläche.

Troyan
2015-03-17, 19:28:52
Es ist das gesamte System. Daher ziemlich unsinng, da alle Komponenten wesentlich stärker arbeiten müssen, um die Mehrleistung zu erreichen.

ChaosTM
2015-03-17, 19:30:16
Techspot.:
The Titan X was also 47% faster than the R9 290X on average at 2560x1600 while it was just 36% faster at 3840x2160.

Nur 36% @ 4K ist eher enttäuschend. Mit OC vielleicht 50%..

fondness
2015-03-17, 19:32:32
Techspot.:
The Titan X was also 47% faster than the R9 290X on average at 2560x1600 while it was just 36% faster at 3840x2160.

Nur 36% @ 4K ist eher enttäuschend. Mit OC vielleicht 50%..

Wenn sich die 50-60% Angabe von AMD @4K vs der 290X für die 390X bestätigen kann man sich das Ergebnis ausrechnen...

Loeschzwerg
2015-03-17, 19:35:09
Es hieß immer noch Q2. Also bis Anfang Mai wirst du noch sicher warten können oder? :)


Hmmm... ich warte gefühlt schon zu lange :( GK110? Habe ich mir verkniffen. Hawaii? Ebenfalls, trotz dem guten Preis.

Jetzt steht das neue System und nur die Grafik fehlt.

Ich kauf einfach beide :freak:

@TitanX: Mit OC macht die Karte teilweise noch nen ordentlichen Schub. Nicht schlecht.

@fondness: Da Stünde dann eine hochgezüchtete 390X WCE gegen eine Titan X, die man auf gleiches Niveau prügeln kann. Das wird definitiv spannend :)

Dural
2015-03-17, 19:38:22
jep, mit ca. 250mhz mehr hat man im schnitt 295x2 leistung und das wohl bei 100watt+ weniger leistungs aufnahme.

Godmode
2015-03-17, 19:38:25
Hmmm... ich warte gefühlt schon zu lange :( GK110? Habe ich mir verkniffen. Hawaii? Ebenfalls, trotz dem guten Preis.

Jetzt steht das neue System und nur die Grafik fehlt.

Ich kauf einfach beide :freak:

@TitanX: Mit OC macht die Karte teilweise noch nen ordentlichen Schub. Nicht schlecht.

Sollte sich die 4K schwäche bestätigen, wäre das aber schon sehr bitter.

dargo
2015-03-17, 19:38:39
PS: Was beschwert ihr euch eigentlich immer über den Preis? Besonders die Leute die sich so Hardware wohl sowieso nicht kaufen würden.
Denk mal drüber nach, vielleicht ist gerade nur der Preis der Grund. ;)

Nightspider
2015-03-17, 19:39:24
Sollte sich die 4K schwäche bestätigen, wäre das aber schon sehr bitter.

Wieso hätte sich das auch ändern sollen bei der gleichen Architektur wie bei der GTX980?

War doch schon vorher klar.

Dural
2015-03-17, 19:40:44
Wieso hätte sich das auch ändern sollen bei der gleichen Architektur wie bei der GTX980?

War doch schon vorher klar.

das ist so, überrascht mich jetzt auch nicht.

Loeschzwerg
2015-03-17, 19:40:57
Wieso hätte sich das auch ändern sollen bei der gleichen Architektur wie bei der GTX980?

War doch schon vorher klar.

Was frisst sich da intern eigentlich bei Maxwell? Caches? Bandbreite?

fondness
2015-03-17, 19:40:59
@fondness: Da Stünde dann eine hochgezüchtete 390X WCE gegen eine Titan X, die man auf gleiches Niveau prügeln kann. Das wird definitiv spannend :)

Übertakten wird man auch die 390X können, bleibt natürlich noch die Frage um wie viel...

ChaosTM
2015-03-17, 19:41:10
Wenn sich die 50-60% Angabe von AMD @4K vs der 290X für die 390X bestätigen kann man sich das Ergebnis ausrechnen...

Es dürfte knapp werden. Leichte Vorteile für die Titan unter 1440/1600p und umgekehrt unter 2160p+. Wenn alles so kommt wie erwartet.

Reicht leider immer noch (knapp) nicht, um Star Citizen in 4K stabil über 30FPS zu halten.

Dural
2015-03-17, 19:43:32
Was frisst sich da intern eigentlich bei Maxwell? Caches? Bandbreite?

ich glaube nichts spezielles, die AMD sind da einfach so gut.

phoenix887
2015-03-17, 19:43:54
Bestätigt mich jetzt das ganze wieder. Werde bei meiner Titan Black bleiben und erst beim Pascal Vollausbau zuschlagen. Meine hat gutes OC und 1100 Euro für 40 - 50 % ist mir einfach zu wenig.

Bis dahin wird sich dann Direct X 12 auch mehr lohnen.

Meine Meinung dazu.

dildo4u
2015-03-17, 19:45:27
12 API with Feature Level 12.1

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan-x/specifications

Troyan
2015-03-17, 19:45:36
ich glaube nichts spezielles, die AMD sind da einfach so gut.

AMD hat einfach mehr Cores. Macht sich ganz prächtig in 4K.
Dagegen hat nVidia seit Fermi die deutlich höhere Geometrieleistung, die sich in <4K Auflösungen auszeichnet.

AnarchX
2015-03-17, 19:46:15
Was frisst sich da intern eigentlich bei Maxwell? Caches? Bandbreite?
Die Rechenleistung ist halt geringer. Und die hohe Granularität von AMD ist bei 4K kein so großer Nachteil wie noch bei 2K.

Übertakten wird man auch die 390X können, bleibt natürlich noch die Frage um wie viel...
Das wird wohl der Kampf um den Titel in diesem Jahr noch ein paar weitere Runden haben: 8Gbps, Dual-GPU-Versionen...

Jupiter
2015-03-17, 19:49:07
$1000 sind aus meiner Sicht ein guter Preis. Ich sagte ja das $1300 m.E. viel, und $1000 in Ordnung wären. Da hat mich nVidia überrascht, da ich mit mehr gerechnet hätte. Natürlich liegt die GPU außerhalb meiner Preisklasse.

4Fighting
2015-03-17, 19:50:51
guru review

33 seiten=)

http://www.guru3d.com/articles-pages/nvidia-geforce-gtx-titan-x-review,1.html

Sunrise
2015-03-17, 19:51:18
Ist der Chip tatsächlich so fett? :eek:
625mm² wäre absolut an der Grenze dessen was TSMC überhaupt herstellen kann, da hat NV dann wirklich alles raus gepresst was irgendwie machbar war.

http://s1.postimg.org/nxw73vnan/GTX_Titan_X_Die_Size_635x476.jpg (http://postimage.org/)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10488769#post10488769

Da lag ich mit meiner Hochrechnung doch sensationell nahe dran, ich bin im Januar auf 621mm^2 gekommen, das sind gerade mal 4mm^2 Differenz.

Dann hat die Optik doch nicht getäuscht.

Pumpi74
2015-03-17, 19:52:52
@TitanX: Mit OC macht die Karte teilweise noch nen ordentlichen Schub. Nicht schlecht.

Aber auch nur teilweise. 25% OC auf den Chip und dann im Schnitt nur 10% Fps mehr sind wenig....

Jupiter
2015-03-17, 19:54:36
Welche Karten sind eigentlich besser in Compute Shader. Das finde ich z.B. wichtig.


@4Fighting
Anscheinend ist kein Crysis 3 Benchmark dabei. Für mich ist das stets die Referenz.