PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX Titan Z: (P)Review-Thread


Seiten : 1 [2] 3 4

dildo4u
2014-04-29, 17:12:31
Was steht da, kann hier nicht drauf zugreifen auf Arbeit :freak:
Ich kann kein Chinesisch sieht aber sehr nach TDP Spielraum 20% von 375 ausgehend aus.

Knuddelbearli
2014-04-29, 17:13:12
Warum passt es nicht? Du weißt doch selbst, wie z.B. Hawaii takten kann, da ist alles von 6xx bis 10xxx MHz dabei je nach Bedingungen. Es wäre voreilig, sowas bei Titan Z auszuschließen, nur weil es bei Nvidia bisher anders war. Manchmal ändert sich etwas nunmal. Statt einen "Test" zur Klickgenerierung zu produzieren, könnte man eben auch abwarten, bis man das finale Produkt in den Händen hält.

Wo taktet die 295 in Spielen auch nur annähernd bei 6xx? ...
bei CB im worst case sind es 908MHz, aber das absolutes worst case ( anno 2070+ das Cb Gehäuse bzw dessen Lüfter + ordentlich vorheizen )

Und komm jetzt nicht damit das du ja die 290X meintest schliesslich geht es hier um die TitanZ

AnarchX
2014-04-29, 17:18:04
Ich kann kein Chinesisch sieht aber sehr nach TDP Spielraum 20% von 375 ausgehend aus.
Und der Kühler soll wohl bei 450W mit 2600 UPM auskommen.

M4xw0lf
2014-04-29, 17:19:40
Wenn man es nicht weiß, warum nimmt man dann irgendwas an? Warum wartet man nicht einfach ab, statt ein Produkt im Vornherein mit großer Wahrscheinlichkeit falsch darzustellen?
876 MHz sind über 20% mehr wie 700 MHz - für einen Gleichstand mit der 295X reicht das natürlich immer noch nicht ganz, aber es wäre definitiv nicht zu vernachlässigen. Das sollte man objektiverweise anerkennen.

Und sei bitte nicht so naiv zu glauben, dass die Bildchen und Benchmarks nicht hängenbleiben, auch wenn mit dem einen Satz vorher relativiert wird. Für mich ist das einfach schlechter Journalismus, Punkt.

Nvidia hat bei der Vorstellung bereits Angaben zur Rechenleistung gemacht. Anhand derer die Taktraten auszurechnen ist weder Hexenwerk noch unseriös - nur weil dir das Ergebnis nicht in den Kram passt.
Dass sie jetzt nachträglich noch an der Schraube drehen, ist ja nicht ausgeschlossen - vermutlich hatten sie ein Duell 375W vs 375W erwartet, in dem sie natürlich höchstwahrscheinlich vorne gewesen wären.

4Fighting
2014-04-29, 17:23:58
Aus der Asus Pressemitteilung, die mittlerweile wieder verschwunden sind, lassen sich klar die 876 Boost erkennen. D.h. doch das mind. 876 garantiert werden und es in der Praxis wohl bei 930-950 Mhz auslaufen wird.

http://webcache.googleusercontent.com/search?q=cache:YMxhUUbWOS4J:rog.asus.com/317282014/gaming-graphics-cards-2/asus-announces-gtx-titan-z-dual-gk110-gpu-graphics-card/+&cd=9&hl=de&ct=clnk&client=firefox-a

Hit the PR button below the pics to see the full spec and info, meanwhile drop in the forums to argue about which is better: Z or X2? (We make and love them both, but they’re still no MARS or ARES!)

Ob da noch eine Mars oder Ares folgt ? :D

AnarchX
2014-04-29, 17:26:39
Das spricht dann wieder für eine Verschiebung. Vielleicht doch noch ein GK210 Makeover. ;)

dildo4u
2014-04-29, 17:28:51
Vielleicht sind die 700mhz DP Takt,Titan wurde doch auch massiv beschränkt unter DP.

Godmode
2014-04-29, 17:29:57
Aus der Asus Pressemitteilung, die mittlerweile wieder verschwunden sind, lassen sich klar die 876 Boost erkennen. D.h. doch das mind. 876 garantiert werden und es in der Praxis wohl bei 930-950 Mhz auslaufen wird.

http://webcache.googleusercontent.com/search?q=cache:YMxhUUbWOS4J:rog.asus.com/317282014/gaming-graphics-cards-2/asus-announces-gtx-titan-z-dual-gk110-gpu-graphics-card/+&cd=9&hl=de&ct=clnk&client=firefox-a



Ob da noch eine Mars oder Ares folgt ? :D

Wie ich schon mehrmals gesagt habe: TDP auf 500W rauf, 1-2 8-Pin PCIe Stromstecker dazu und ne ordentliche Kühlung (Hybrid-Wakü, ...). Die AMD Leute schaffen das sogar zu einem normalen Preis und haben nur die Stromversorgung etwas vermasselt.

AnarchX
2014-04-29, 17:30:32
Vielleicht sind die 700mhz DP Takt,Titan wurde doch auch massiv beschränkt unter DP.
2,3 TFLOPs DP bei 5760SPs -> 599MHz.

boxleitnerb
2014-04-29, 17:45:58
Wo taktet die 295 in Spielen auch nur annähernd bei 6xx? ...
bei CB im worst case sind es 908MHz, aber das absolutes worst case ( anno 2070+ das Cb Gehäuse bzw dessen Lüfter + ordentlich vorheizen )

Und komm jetzt nicht damit das du ja die 290X meintest schliesslich geht es hier um die TitanZ

Warum,weil es dir nichts passt? Fakt ist, dass solche Taktvariationen möglich sind und eben nicht einfach für unplausibel abgestempelt werden können

boxleitnerb
2014-04-29, 17:52:48
Nvidia hat bei der Vorstellung bereits Angaben zur Rechenleistung gemacht. Anhand derer die Taktraten auszurechnen ist weder Hexenwerk noch unseriös - nur weil dir das Ergebnis nicht in den Kram passt.
Dass sie jetzt nachträglich noch an der Schraube drehen, ist ja nicht ausgeschlossen - vermutlich hatten sie ein Duell 375W vs 375W erwartet, in dem sie natürlich höchstwahrscheinlich vorne gewesen wären.

Es bleibt dennoch eine unsichere Sache angesichts Boost und evtl. Ubermode. Gerade seit Boost halte ich Simulationen für unseriös, da hier zu viele Faktoren reinspielen

fondness
2014-04-29, 18:45:55
Offenbar ist man einfach noch auf 450W rauf gegangen:

http://s1.postimg.org/t081tufq7/r_BEQWFNd0_Es_IAAAAAAD_Ybwf_Rao_AAFq9w_Cuj_FEAAP95082.jpg (http://postimage.org/)

Bleibt noch die Frage wie hoch das Ding damit dann tatsächlich boostet. Mit den Taktraten wird es allerdings immer noch nicht reichen für eine 295X2.

Rente
2014-04-29, 18:48:50
Ehm, 450 Watt sind dann quasi 2x die alte Titan, da ist sie jedenfalls nicht mehr weit weg - vielleicht heben sie auch das Temperatur-Target für die Z noch einmal an (88/89°C oder so).

occ-kh@Mirko
2014-04-29, 19:33:39
Quelle: Unsicher

http://www.fotos-hochladen.net/uploads/3titanzbaseg24f8m1uny.png (http://www.fotos-hochladen.net)

http://www.fotos-hochladen.net/uploads/4titanzboostgnj97hwk1b.png (http://www.fotos-hochladen.net)

http://www.fotos-hochladen.net/uploads/2titanzfinaly4djznwbi6.png (http://www.fotos-hochladen.net)

(@http://udteam.tistory.com/648)

Die Taktsteigerung soll wohl aufgrund der 295 erfolgt sein. Die Titan Z liegt trotzdem 7-8% hinter der 295. Asus.com...zeigt mittlerweile "Nothing found...404 (http://rog.asus.com/?p=31728).

occ-kh@Mirko
2014-04-29, 19:45:06
Und der Kühler soll wohl bei 450W mit 2600 UPM auskommen.
Hoffen mal da hat sich nichts überschnitten..;) http://ht4u.net/news/29421_gigabyte_bringt_wasserkuehlung_und_neuen_windforce/

Blediator16
2014-04-29, 20:00:08
Wenn man 295x2 Leistung anvisiert, dann müssen sie ja viel Selbstvertrauen in den Kühler haben.

Dural
2014-04-30, 10:52:02
Ich weis nicht was hier gejammert wird, eine hoch effiziente und leise Titan Z mit 375Watt wäre mir 100x lieber als eine 450Watt Strom Schleuder :rolleyes:

Da ich weder das eine noch das andere haben möchte ist es mir aber egal.
Aber seit der 295X2 habe ich das Gefühl das die User nicht mal mehr selber Übertakten können :P Die Karte ist so wie so so ziemlich das dümmste was ich direkt von einem Hersteller je gesehen habe: Teuer, Wakü Unbrauchbar und läuft am Limit. Die Karte wird man nicht mal mehr, sofern ihre Zeit abgelaufen ist in "normales" System rein setzten wollen: zu hoher Verbrauch und zu umständlich mit der Wakü. Was ich zb. früher mit alten High-End Karten doch oft gemacht habe.

Effe
2014-04-30, 11:10:51
Ich weis nicht was hier gejammert wird, eine hoch effiziente und leise Titan Z mit 375Watt wäre mir 100x lieber als eine 450Watt Strom Schleuder :rolleyes:

Da ich weder das eine noch das andere haben möchte ist es mir aber egal.
Aber seit der 295X2 habe ich das Gefühl das die User nicht mal mehr selber Übertakten können :P Die Karte ist so wie so so ziemlich das dümmste was ich direkt von einem Hersteller je gesehen habe: Teuer, Wakü Unbrauchbar und läuft am Limit. Die Karte wird man nicht mal mehr, sofern ihre Zeit abgelaufen ist in "normales" System rein setzten wollen: zu hoher Verbrauch und zu umständlich mit der Wakü. Was ich zb. früher mit alten High-End Karten doch oft gemacht habe.
Du jammerst wegen 100W rum, willst dann aber übertakten? Was für ein bizarrer Quatsch.
Dein Kommentar ist so ziemlich der Dümmste hier im Thread.

Blediator16
2014-04-30, 11:44:24
Ich weis nicht was hier gejammert wird, eine hoch effiziente und leise Titan Z mit 375Watt wäre mir 100x lieber als eine 450Watt Strom Schleuder :rolleyes:

Da ich weder das eine noch das andere haben möchte ist es mir aber egal.
Aber seit der 295X2 habe ich das Gefühl das die User nicht mal mehr selber Übertakten können :P Die Karte ist so wie so so ziemlich das dümmste was ich direkt von einem Hersteller je gesehen habe: Teuer, Wakü Unbrauchbar und läuft am Limit. Die Karte wird man nicht mal mehr, sofern ihre Zeit abgelaufen ist in "normales" System rein setzten wollen: zu hoher Verbrauch und zu umständlich mit der Wakü. Was ich zb. früher mit alten High-End Karten doch oft gemacht habe.

Das von dir Geschriebene ist hoffentlich nur ein schlechter Witz.

Knuddelbearli
2014-04-30, 12:52:59
Ich weis nicht was hier gejammert wird, eine hoch effiziente und leise Titan Z mit 375Watt wäre mir 100x lieber als eine 450Watt Strom Schleuder :rolleyes:

Da ich weder das eine noch das andere haben möchte ist es mir aber egal.
Aber seit der 295X2 habe ich das Gefühl das die User nicht mal mehr selber Übertakten können :P Die Karte ist so wie so so ziemlich das dümmste was ich direkt von einem Hersteller je gesehen habe: Teuer, Wakü Unbrauchbar und läuft am Limit. Die Karte wird man nicht mal mehr, sofern ihre Zeit abgelaufen ist in "normales" System rein setzten wollen: zu hoher Verbrauch und zu umständlich mit der Wakü. Was ich zb. früher mit alten High-End Karten doch oft gemacht habe.

Dann Untertakte deine Titan Z doch!
Das geht immer! OC wird dagegen von NV durch Powertarget und Co massiv behindert.
Also ja selber übertakten ist heute nicht mehr so einfach. Und du regst dich wegen 1299€ bei AMD auf da zu teuer was suchst du dann in dem Thread hier? ...
Trollen?

fondness
2014-04-30, 15:05:23
60% schneller als eine Titan Black:
http://videocardz.com/50408/nvidia-geforce-gtx-titan-z-first-performance-figures-leak

TobiWahnKenobi
2014-04-30, 15:10:44
Dann Untertakte deine Titan Z doch!
Das geht immer! OC wird dagegen von NV durch Powertarget und Co massiv behindert.
Also ja selber übertakten ist heute nicht mehr so einfach. Und du regst dich wegen 1299€ bei AMD auf da zu teuer was suchst du dann in dem Thread hier? ...
Trollen?

;D

das ist so, als würde fiat für das basismodell des fiat 500 zwanzig-tausend-euro verlangen. budget-technisch einfach an der zielgruppe vorbei. welcher AMD-kunde hat soviel geld? ich meine das nichtmal böse.


(..)

mfg
tobi

4Fighting
2014-04-30, 15:36:35
60% schneller als eine Titan Black:
http://videocardz.com/50408/nvidia-geforce-gtx-titan-z-first-performance-figures-leak

Da muss man sich fragen wofür ich 1000$/€ mehr bezahlen soll, wenn ich mit 2 Titan Blacks 180-190% an Performance erhalte?

Der Preis sollte wirklich auf 1600€ sinken...

Conner_Ray
2014-04-30, 15:40:58
welcher AMD-kunde hat soviel geld? ich meine das nichtmal böse.

Du meinst es vielleicht nicht böse, klingt aber nach Abwertung, so wie :"Das billige AMD-Zeuchs können sich eh nur Hartz4er leisten"

Knuddelbearli
2014-04-30, 15:53:12
von TWK kommt meist nur getrolle und Provokation einfach ignorieren.

horn 12
2014-04-30, 16:09:02
Nvidia sollte, besser MUSS mal Abstand nehmen vom ALLZU HOHEM ROß
Lieber mal guten Preis bringen und mann muss nicht auf Biegen und Brechen die Nummer 1 sein, bzw. werden!
Dies lässt die Sturheit NV aber nicht zu!

LSSJBroly
2014-04-30, 16:14:07
Lieber mal guten Preis bringen und mann muss nicht auf Biegen und Brechen die Nummer 1 sein, bzw. werden!


Die 295X2 sieht aber deutlich mehr als die Titan Z nach biegen und brechen aus...

Die AiO ist zwar unter Last ganz gut (vor allem in relation zu der Leistungsaufnahme von über 500 Watt), im idle ist das Teil aber absolut nicht zu gebrauchen. Ich will jetzt in keiner weise den Preis oder gar die Titan Z verteidigen, aber: wenn das Teil fast genau so schnell wie die 295X2 wird, dabei unter Last sogar etwas leiser und im idle so leise wie die referenzkarten der High-End modelle wird, dabei aber rund 100 bis 150 Watt weniger verbraucht, dann ist es nicht schwer zu erkennen, welches Kart wohl das bessere Gesamtpaket liefert und deutlich ausgeklügelter erscheint.

Bei den Preisern beider Karten würde ich sowieso keine von beiden kaufen. Zwei 290X oder 780 Ti (Titan Black) sind jeweils deutlich günstiger als die vergleichbaren Dual-GPU karten.

Schaffe89
2014-04-30, 16:21:04
Die Karte ist so wie so so ziemlich das dümmste was ich direkt von einem Hersteller je gesehen habe: Teuer, Wakü Unbrauchbar und läuft am Limit.

Da scheint ja jemand schwer von getroffen zu sein.
Leute, es sind nur Grafikkarten. Wenn ihr eine auf dicke Hose machen wollt und billige Anerkennung sucht, dann schaut ob ihr euch einen Lamborgini ausleihen könnt, aber das rote Kennzeichen bei weglassen.

Effe
2014-04-30, 16:51:29
Die 295X2 sieht aber deutlich mehr als die Titan Z nach biegen und brechen aus...
Eher kosequent.

wenn das Teil fast genau so schnell wie die 295X2 wird, dabei unter Last sogar etwas leiser und im idle so leise wie die referenzkarten der High-End modelle wird, dabei aber rund 100 bis 150 Watt weniger verbraucht,

Gleich schnell mit niedrigem Powerbudget geht nicht und mit höherem limitiert die Luftkühlung. Nvidia kann nicht die Physik überlisten.

dann ist es nicht schwer zu erkennen, welches Kart wohl das bessere Gesamtpaket liefert und deutlich ausgeklügelter erscheint.
AMD hat auf jeden Fall stark vorgelegt. Eine langsamere Karte für den doppelten Preis, wäre völlig lächerlich gewesen. So glühen bei Nvidia sicherlich die Köpfe, wie man die Z noch verkaufbar bekommt, ohne sich zum Löffel zu machen.

Mancko
2014-04-30, 16:53:17
Nvidia sollte, besser MUSS mal Abstand nehmen vom ALLZU HOHEM ROß
Lieber mal guten Preis bringen und mann muss nicht auf Biegen und Brechen die Nummer 1 sein, bzw. werden!
Dies lässt die Sturheit NV aber nicht zu!

Warum sollten Sie? Sie können doch auf so ziemlich alles von AMD derzeit locker reagieren. Und was ist schon ein guter Preis? Muss BMW oder Audi jetzt auch einen guten Preis für seine Autos machen? Ne müssen sie nicht. Solange der Preis bezahlt wird und Nvidia genügend absetzt ist das doch in Ordnung für sie.

AnarchX
2014-04-30, 17:02:47
Gleich schnell mit niedrigem Powerbudget geht nicht und mit höherem limitiert die Luftkühlung. Nvidia kann nicht die Physik überlisten.

Die Karte basiert aber nicht auf Hawaii sondern auf größeren GK110 Dies mit anderer/(effizienterer) Architektur. Und für die $500 Aufpreis pro GPU gibt es vielleicht noch etwas Selektion gegenüber Titan Black.

Mal sehen was nun am 8. Mai letzendlich vorgestellt wird. Das man den April nicht einhalten konnte deutet wohl aber eher auf Probleme hin...

Effe
2014-04-30, 17:15:27
Die Karte basiert aber nicht auf Hawaii sondern auf größeren GK110 Dies mit anderer/(effizienterer) Architektur. Und für die $500 Aufpreis pro GPU gibt es vielleicht noch etwas Selektion gegenüber Titan Black.
Selbst wenn sie auf 200W je Chip runterkommen, sind es immer noch 400W. Die leise mit Luft wegkühlen zu wollen ist schon sehr ambitioniert.

@Idlelautstärke: Bei solcherlei Karten ist das natürlich der wichtigste Lastzustand, da gebe ich doch gerne 1300-3000€ für aus.

dildo4u
2014-04-30, 17:18:02
Selbst wenn sie auf 200W je Chip runterkommen, sind es immer noch 400W. Die leise mit Luft wegkühlen zu wollen ist schon sehr ambitioniert.
Gigabyte führt angeblich 600 Watt mit Luft ab.

http://videocardz.com/50265/gigabyte-launches-windforce-3x-600w-cooler-geforce-gtx-titan-black

Effe
2014-04-30, 17:19:33
Gigabyte führt angeblich 600 Watt mit Luft ab.

http://videocardz.com/50265/gigabyte-launches-windforce-3x-600w-cooler-geforce-gtx-titan-black
Ist aber nicht das Referenzdesign mit nur einem Lüfter.

AnarchX
2014-04-30, 17:19:34
Selbst wenn sie auf 200W je Chip runterkommen, sind es immer noch 400W. Die leise mit Luft wegkühlen zu wollen ist schon sehr ambitioniert.

Die Behauptung von NV liegt wohl bei 450W @ 2700 UPM. Mit dem Referenz-Power-Target von 375W soll die Lautstärke der Titan Black entsprechen.

Effe
2014-04-30, 17:29:04
Die Behauptung von NV liegt wohl bei 450W @ 2700 UPM. Mit dem Referenz-Power-Target von 375W soll die Lautstärke der Titan Black entsprechen.
Und mit diesen 450W ist es nun eine Kunst zwischen Temperaturtarget, Lautstärke und Taktraten etwas für 3000$ hinzubekommen, mit dem man sich nicht lächerlich macht.

Hübie
2014-04-30, 17:34:10
Nvidia sollte, besser MUSS mal Abstand nehmen vom ALLZU HOHEM ROß
Lieber mal guten Preis bringen und mann muss nicht auf Biegen und Brechen die Nummer 1 sein, bzw. werden!
Dies lässt die Sturheit NV aber nicht zu!

nVidia ist keine Person. Ich glaub du verwechselst da was.
Titan Z wird halt nur so erfolgreich sein wie man es dort zulässt. Vielleicht will man gar nicht soviel absetzen ;)

4Fighting
2014-04-30, 17:38:00
Vielleicht will man gar nicht soviel absetzen ;)

Das wäre aber eine sehr teure Machbarkeitsstudie, wenn sie das Teil nicht auch absetzen wollen. Zumal die 295x2 eine brauchbare mGPU Karte ist abgesehen von dem idiotischen Power-Layout

Hübie
2014-04-30, 17:47:11
Mag sein. Wer weiß das schon?
Zwei GK110 hatte man jedoch schon sehr früh auf einem Board ;) Nur kams halt aus dem Spielerei-Stadium nicht hinaus - bis vor einigen Monaten.

Blediator16
2014-04-30, 18:57:00
Die Karte basiert aber nicht auf Hawaii sondern auf größeren GK110 Dies mit anderer/(effizienterer) Architektur. Und für die $500 Aufpreis pro GPU gibt es vielleicht noch etwas Selektion gegenüber Titan Black.

Mal sehen was nun am 8. Mai letzendlich vorgestellt wird. Das man den April nicht einhalten konnte deutet wohl aber eher auf Probleme hin...

Man kann sich sämtliche Tests anschauen, wenn beide quasi am Limit agieren, verbrauchen beide das selbe und leisten das selbe.

aufkrawall
2014-04-30, 19:29:34
Was ist "am Limit"?

occ-kh@Mirko
2014-04-30, 20:29:06
Also das AMD Use/Käufer alles Billigheimer sind ist natürlich Schwachsinn. AMD sind hier und da leistungstechnisch eben derzeit nicht immer ganz dabei und kämpfen da mit Imagefragen. Preise sortieren sich eben auch danach. Zudem kann sich AMD nicht leisten auf die Enthusiasten zu warten sondern muss versuchen die Hardware in höher frequentierten Konsumerbereichen unterzubringen. Die Ausgangssitution zu nVidia ist damit schon mal völlig anders. Trotzdem, um dieses Preis zu hoch, mal zu kommentieren. Findet hier jemand rein vom Preis her, den der 295 angemessen? Ich nämlich nicht! Schon garnicht wenn man ihn so vergleicht wie das hier bei der Z getan wird. Der liegt ein Drittel und als empfohlener Preis noch höher, als das Preis-/Leistungsgefälle von 2 x 290x. 1149 Euro hätten es auch getan.

Bloss wie definiert sich "zu hoch", sicherlich nicht nur an der Leistungscharakteristik sondern auch an dem Aufwand der für diesen aufgebracht werden muss. Der kann nach oben raus, also über einen gewissen Punkt hinaus, immens sein.

Zurück zur Z. Die DP Leistung der Karte ist uns Nvidia schuldig geblieben. So kann es möglich sein das diese über dem einer K20 gelegen hat, aber unter dem der K40 und die kostet 4500-5900. Also wäre man mit 2999 Euro ganz gut bedient gewesen. Zum Zeitpunkt der Ankündigung war sie zudem sicherlich die schnellste Gamingkarte, dass hat sich mit Erscheinen der 295 relativiert und nVidia muss sich nun überlegen was sie anders machen können. Ich persönlich denke, die Z wird trotzdem kommen, fragt sich nur wann und wie. Der Preis wird der gleiche bleiben, wer sie nicht will muss nicht kaufen. Bei GPUs immer nur von reiner Spieleleistung auszugehen macht keinen Sinn, schon dann nicht wenn man es dabei am Preis festmacht.

Viel mehr wert ist was man für welchen Preis bekommt und welcher Nutzergruppe man angehört. Das müsste hier mal in die Köpfe einiger. Da kann einem z.B. Hawaii manchmal überhaupt nicht weiterhelfen, auch wenn der Preis noch so angemessen ist. Die DP Leistung wurde bei diesem gesenkt und liegt bei mageren Double-Recision-Performance von um 606 GFLOPS. Wie schon bekannt ist und bleibt diese Performance in bestimmten Nutzungs- und Anwendungsbereichen eben richtig teuer. Darum könnte man fast glauben, dass reine Desktop Klientel ist nicht Käufer der Z und war oder ist auch nicht als solches vorgesehen. Dieser spezielle Perfomance-Ansatz könnte jedoch, z.B. wegen Schaffens von mehr thermischem Spielraum für höhere (wiederum nachträglich angepasste) Taktraten, zuletzt verloren gegangen sein, weil man Spielemäßig nicht mithalten konnte. Damit passen der Preis und die dargebotene Leistung dann nicht mehr zusammen.

Raff
2014-04-30, 20:38:32
Die Behauptung von NV liegt wohl bei 450W @ 2700 UPM. Mit dem Referenz-Power-Target von 375W soll die Lautstärke der Titan Black entsprechen.

Das wäre übrigens bereits so laut wie die 295 X2.

MfG,
Raff

Blediator16
2014-04-30, 20:43:30
Das wäre übrigens bereits so laut wie die 295 X2.

MfG,
Raff

Was in der Relation zur Leistung nichts krasses ist oder möchte mir jemand sagen, dass man mit 375tdp auch nur annähernd in 295x2 Leistungsregionen kommt.

Raff
2014-04-30, 20:44:52
Ich wollte damit primär sagen, dass die mit 450 Watt dann gewiss kein Silent Assassin wird. Wenn ihr wisst, was ich meine. ;)

MfG,
Raff

Blediator16
2014-04-30, 20:48:24
Was den Abbruch der Vorstellung erklären würde.

Knuddelbearli
2014-04-30, 20:51:21
Findet hier jemand rein vom Preis her, den der 295 angemessen?



Angemessen woran gemessen? ( steckt ja schon im Wort )
Als Kunde kann es mir natürlich nie günstig genug sein aber an und für sich ist 2,5 facher preis für doppelte Performance absolut im Rahmen. und Single Karten waren immer ( deutlich ) günstiger als dual.

occ-kh@Mirko
2014-04-30, 21:11:26
Naja vllt. gerecht, aber das ist es nie!

Das Powertarget konnte bis 450Watt erhöht werden, ansonsten sollte die Karte bei bis 375Watt TDP werkeln, der Basistakt von 705Mhz für die Zockerei war aber definitv zu konservativ (effizient) gewählt und der Boosttakt kann so nicht gehalten werden. Nvidia hat nicht geglaubt das die 295 so schnell am Markt zu haben ist, schon garnicht mit 2x1018. Eben verfranzt, kann denen ja auch passieren.

fondness
2014-05-01, 11:51:00
Also das AMD Use/Käufer alles Billigheimer sind ist natürlich Schwachsinn. AMD sind hier und da leistungstechnisch eben derzeit nicht immer ganz dabei und kämpfen da mit Imagefragen. Preise sortieren sich eben auch danach. Zudem kann sich AMD nicht leisten auf die Enthusiasten zu warten sondern muss versuchen die Hardware in höher frequentierten Konsumerbereichen unterzubringen. Die Ausgangssitution zu nVidia ist damit schon mal völlig anders. Trotzdem, um dieses Preis zu hoch, mal zu kommentieren. Findet hier jemand rein vom Preis her, den der 295 angemessen? Ich nämlich nicht! Schon garnicht wenn man ihn so vergleicht wie das hier bei der Z getan wird. Der liegt ein Drittel und als empfohlener Preis noch höher, als das Preis-/Leistungsgefälle von 2 x 290x. 1149 Euro hätten es auch getan.

Bloss wie definiert sich "zu hoch", sicherlich nicht nur an der Leistungscharakteristik sondern auch an dem Aufwand der für diesen aufgebracht werden muss. Der kann nach oben raus, also über einen gewissen Punkt hinaus, immens sein.

Zurück zur Z. Die DP Leistung der Karte ist uns Nvidia schuldig geblieben. So kann es möglich sein das diese über dem einer K20 gelegen hat, aber unter dem der K40 und die kostet 4500-5900. Also wäre man mit 2999 Euro ganz gut bedient gewesen. Zum Zeitpunkt der Ankündigung war sie zudem sicherlich die schnellste Gamingkarte, dass hat sich mit Erscheinen der 295 relativiert und nVidia muss sich nun überlegen was sie anders machen können. Ich persönlich denke, die Z wird trotzdem kommen, fragt sich nur wann und wie. Der Preis wird der gleiche bleiben, wer sie nicht will muss nicht kaufen. Bei GPUs immer nur von reiner Spieleleistung auszugehen macht keinen Sinn, schon dann nicht wenn man es dabei am Preis festmacht.

Viel mehr wert ist was man für welchen Preis bekommt und welcher Nutzergruppe man angehört. Das müsste hier mal in die Köpfe einiger. Da kann einem z.B. Hawaii manchmal überhaupt nicht weiterhelfen, auch wenn der Preis noch so angemessen ist. Die DP Leistung wurde bei diesem gesenkt und liegt bei mageren Double-Recision-Performance von um 606 GFLOPS. Wie schon bekannt ist und bleibt diese Performance in bestimmten Nutzungs- und Anwendungsbereichen eben richtig teuer. Darum könnte man fast glauben, dass reine Desktop Klientel ist nicht Käufer der Z und war oder ist auch nicht als solches vorgesehen. Dieser spezielle Perfomance-Ansatz könnte jedoch, z.B. wegen Schaffens von mehr thermischem Spielraum für höhere (wiederum nachträglich angepasste) Taktraten, zuletzt verloren gegangen sein, weil man Spielemäßig nicht mithalten konnte. Damit passen der Preis und die dargebotene Leistung dann nicht mehr zusammen.

Merkst du eigentlich nicht das du dir selbst widersprichst? Einerseits ist die Karte ja angeblich gar nichts für Spieler und andererseits musste NV auf die 295X2 reagieren.

Hübie
2014-05-01, 12:08:05
N feuchten Furz mussten die auf die 295 X2 geben. Titan Z hat nichts damit zu tun dass AMD dieses mal schneller den mGPU-Müll auf den Markt geworfen hat als noch zu Tahiti-Zeiten. ;)
Es gab ja irgendwann im früher 2013 schon Gerüchte zu Vesuvius, also hätte man es sich schon viel früher überlegen können.

fondness
2014-05-01, 12:19:31
N feuchten Furz mussten die auf die 295 X2 geben. Titan Z hat nichts damit zu tun dass AMD dieses mal schneller den mGPU-Müll auf den Markt geworfen hat als noch zu Tahiti-Zeiten. ;)
Es gab ja irgendwann im früher 2013 schon Gerüchte zu Vesuvius, also hätte man es sich schon viel früher überlegen können.

Tja Huang hat noch vor weniger Wochen den April genannt, inzwischen ist der April vorbei und er gibt viele Quellen die von höheren Taktraten und mehr TDP sprechen. Es spricht alles dafür das NV von der 295X2 überrascht wurde und reagieren musste. Und damit ist eigentlich auch schon die angebliche Ausrichtung auf den professionellen Markt widerlegt. Selbst NV spricht ja von einer Gaming-Karte, man sollte also vielleicht endlich mal die Realität anerkennen.

Blediator16
2014-05-01, 13:04:51
Scheinbar schwer einzusehen. Nvidia hat die Karte verschoben, sicherlich weil sie die 8pins noch abschleifen mussten :D

Skysnake
2014-05-01, 13:12:37
Du meinst wohl eher "dran"schleifen ;D

Ne nVidia hat sich einfach nen riesen Ei ins Netz gelegt mit der Titan Z. Total auf die Kacke gehauen und nen abartigen Preis aufgerufen, und dann noch BEVOR! die Karte am Markt ist von der Konkurrenz in der Luft zerrissen, was reine Max-Leistung anbelangt.

Bei dem gewaltigen TDP-Unterschied auch kein Wunder, aber in den Köpfen der normalen User bleibt halt hängen, dass die TitanZ das Doppelte kostet und auch noch massig langsamer ist. Dass Sie bei gleichem Verbrauch auch etwa gleich schnell wäre spielt dabei keine Rolle.

Beide haben ja 2x8Pin, dürfen also theoretisch maximal gleich viel verbrauchen :ugly: Das ist zwar hirnrissig, aber gibt genug Leute die sowas von sich geben.

Hier trifft halt mal nVidia das, was sonst immer AMD ereilt. Image ist oftmals wichtiger als das reale Produkt -_-

Iruwen
2014-05-01, 13:56:09
Ich glaub für den "nornalen" User spielen beide Karten keine Rolle, der schüttelt angesichts von Preis und/oder Leistungsaufnahme nur ungläubig den Kopf.

Skysnake
2014-05-01, 14:42:23
Klar, spielen die Karten für ihn direkt keine Rolle, das tun Titan usw aber auch nicht. Nicht mal ne R9 290X.

Sowas beeinflusst aber doch recht stark das Image, und den meisten Leuten, die nicht direkt ein Komplettsystem kaufen, verkauft man seine Ware über das Image.

aufkrawall
2014-05-01, 14:48:20
Die Imageauswirkungen des AFR-Schrotts sind, im Gegensatz zu den schnellsten sGPU-Modellen, sicher überschaubar.

Iruwen
2014-05-01, 15:00:35
Nichtmal den Techies in meiner Firma ist das Thema geläufig. Und das sind schon keine "normalen" User.

Blediator16
2014-05-01, 18:40:45
Die Gewichtung welche Metrik die wichtigste ist wechselt sowieso von Zeit zu Zeit :D

AnarchX
2014-05-03, 10:01:57
Titan Z Preview @ HKEPC: http://www.hkepc.com/11203

48 Speicher-Chips. :freak: 7Gbps 4Gbit ist wohl noch zu teuer? Immerhin würde das Design damit auch 2x 12GiB erlauben.

Die Karte boostet bis auf 1058MHz.
Seltsam dass die GPU nur ein GK110-350-B1 ist. Titan-Black hat einen 430 Chip. Meist hatten die Dual-GPU-Karten ein höheres Bin.

Die Treiber wären wohl Schuld an der Verschiebung gewesen...

dildo4u
2014-05-03, 10:12:17
Gar nicht so weit weg 295X2 kommt auf 20370 bei der Grafikscore oder die Karten sind sogar gleich schnell und der erste Grafik Test ist CPU limitiert.Beim 2 Test sinds 77 vs 78fps.

http://abload.de/img/d629727da153158ahtqiv.png

http://www.pcwelt.de/produkte/AMD_Radeon_R9_295X2_im_Test-Dual-GPU-Grafikkarte-8652657.html?view=zoom&zoom=1928602_bilder_mvp_bild_grossversion_inline%3A2%3A0


http://abload.de/img/2918195191459751520yca7m.jpg

4Fighting
2014-05-03, 10:26:46
Titan Z Preview @ HKEPC: http://www.hkepc.com/11203

48 Speicher-Chips. :freak: 7Gbps 4Gbit ist wohl noch zu teuer? Immerhin würde das Design damit auch 2x 12GiB erlauben.

Die Karte boostet bis auf 1058MHz.
Seltsam dass die GPU nur ein GK110-350-B1 ist. Titan-Black hat einen 430 Chip. Meist hatten die Dual-GPU-Karten ein höheres Bin.

Die Treiber wären wohl Schuld an der Verschiebung gewesen...

Powertarget bis 120%?

Wenigstens das klingt mal vernünftig...Wobei ich mich frage, warum ausgerechnet auf dem Screenshot die GPU auf 99,84% PT klebt.

http://file.hkepc.com/2014/04/source/29185206261067571195.jpg

Niall
2014-05-03, 10:53:48
Powertarget bis 120%?

Wenigstens das klingt mal vernünftig...Wobei ich mich frage, warum ausgerechnet auf dem Screenshot die GPU auf 99,84% PT klebt.

http://file.hkepc.com/2014/04/source/29185206261067571195.jpg


Hüpft das PT nicht eh immer hin und her?
Bei meiner 780 ti schwankt das sogar, so man den angezeigten Werten trauen darf, zwischen 85 und 112. :freak:

Edit: Vollast Heaven und FurMark, die Karte kommt btw. selbst nach einer Stunde nicht über 41'C dank WaKü.

4Fighting
2014-05-03, 11:20:50
Hüpft das PT nicht eh immer hin und her?
Bei meiner 780 ti schwankt das sogar, so man den angezeigten Werten trauen darf, zwischen 85 und 112. :freak:

Edit: Vollast Heaven und FurMark, die Karte kommt btw. selbst nach einer Stunde nicht über 41'C dank WaKü.

viele 780 (ti) sind aber sehr restriktiv beim PT gewesen und wurden künstlich gedrosselt durch ein zu geringes PT.

Das scheint man nun verbessert zu haben

fondness
2014-05-03, 11:20:51
95°C Core-Temp, 120% PT (müsste also 450W sein), bei dem Render-Test bereits 3600rpm (sicher nicht mehr leise) und Leistung wohl knapp unter einer 295X2. Allerdings scheint es so als müsste man das selbst festlegen.

dildo4u
2014-05-03, 11:23:15
95°C Core-Temp, 120% PT (müsste also 450W sein), bei dem Render-Test bereits 3600rpm (sicher nicht mehr leise) und Leistung wohl knapp unter einer 295X2.
Die Karte ist hier unter last 57° bei 1058mhz,da ist noch massig Luft den Lüfter zu drosseln.
http://file.hkepc.com/2014/04/source/2918195696794125245.jpg

Niall
2014-05-03, 11:23:21
viele 780 (ti) sind aber sehr restriktiv beim PT gewesen und wurden künstlich gedrosselt durch ein zu geringes PT.

Das scheint man nun verbessert zu haben

Ah okay, das war mir nicht bewusst. :)

Niall
2014-05-03, 11:26:55
Die Karte ist hier unter last 57° bei 1058mhz.
http://file.hkepc.com/2014/04/source/2918195696794125245.jpg

Vermutlich aber kurz nach Volllast oder im Düsenjetmodus.
Ich behaupte das kein Luftkühler die Temperaturen bei derart hoher Wärmeabgabe halten kann ohne 100% Lüfterdrehzahl.

4Fighting
2014-05-03, 11:28:26
95°C Core-Temp, 120% PT (müsste also 450W sein), bei dem Render-Test bereits 3600rpm (sicher nicht mehr leise) und Leistung wohl knapp unter einer 295X2. Allerdings scheint es so als müsste man das selbst festlegen.

Der Fan steht auf 100% bei 64°C:rolleyes:

fondness
2014-05-03, 11:29:38
Okay jetzt sehe ich es erst, der Typ hat den Fan wohl auf 100% festgetaktert, siehe de Screen oben.

/Edit: Ja habs schon bemerkt, sorry.

dildo4u
2014-05-03, 11:33:30
Der Kühler scheint sehr gut zu sein mit nem 95° Limit sollten die Chips locker über nen längeren Zeitraum mit 1GHz laufen.

M4xw0lf
2014-05-03, 11:33:38
Die Karte ist hier unter last 57° bei 1058mhz,da ist noch massig Luft den Lüfter zu drosseln.
http://file.hkepc.com/2014/04/source/2918195696794125245.jpg
Ja, nach 5 Sekunden Laufzeit vermutlich.

dildo4u
2014-05-03, 11:37:17
Ja, nach 5 Sekunden Laufzeit vermutlich.
Laut den 3DMark Werten wird der Takt länger gehalten sonst hätte man beim Grafik Test 2 nicht den selben Wert wie die 295x2.

Skysnake
2014-05-03, 11:38:48
Und schaut euch doch auch mal an, wie die Temps bei 3DMark nach oben schnellen. Das sieht nicht so aus, als ob man ohne Drosselung innerhalb des Temptargets bleiben könnte.

dildo4u
2014-05-03, 11:40:32
Die fps sagen was anderes die Karten sind gleich schnell im GPU Limit.

4Fighting
2014-05-03, 11:44:32
Und schaut euch doch auch mal an, wie die Temps bei 3DMark nach oben schnellen. Das sieht nicht so aus, als ob man ohne Drosselung innerhalb des Temptargets bleiben könnte.

sieht nach ca. 77-80°C aus oder?

Ich denke, dass die Skalierung in 10er Schritten erfolgt

Hübie
2014-05-03, 11:45:38
5 Minuten voller Takt für 3000 $ X-D DAS Totschlagargument...
Das Ding taugt zum Spielen soviel wie eine Wurst zum Rad fahren. Ich bin auf die CUDA-Devs gespannt ;);) Da geiern schon einige.

Skysnake
2014-05-03, 11:47:40
Die FPS ohne jedwede Drosselung und wohl mit nach oben gestzten PT und 100% Lüfter.

Schau dir doch die Temperaturentwicklung beim 3DMark BITTE nochmal an. Das ist weit, sehr weit, nein ultra weit von stabilen Temps entfernt. Wenn du das mit nem exponentiellen fit extrapolierst, landeste bei weit über 100°C. Das Ding hat da gerade so nicht gedrosselt, weil der Bench kurz genug ist.

Im realen Einsatz wirste aber gewaltig nach unten knallen.

4Fighting
2014-05-03, 11:52:12
Die FPS ohne jedwede Drosselung und wohl mit nach oben gestzten PT und 100% Lüfter.

100% Lüfter erkenne ich aus einem Temperatur-Diagramm wo?:smile:
Wenn das Ding mit 100% Lüfter derart explodiert was die Temperaturen angeht, dann stimme ich dir natürlich zu


Schau dir doch die Temperaturentwicklung beim 3DMark BITTE nochmal an. Das ist weit, sehr weit, nein ultra weit von stabilen Temps entfernt. Wenn du das mit nem exponentiellen fit extrapolierst, landeste bei weit über 100°C. Das Ding hat da gerade so nicht gedrosselt, weil der Bench kurz genug ist.

Naja mit gutem Willen könnte man sagen, dass beim Bench 2 sich es gegen Ende eingependelt hat bei knappen 80°C.

Wenn das Temperaturtarget bei 83-85°C ist nicht mehr viel Luft nach oben:freak:
100°C halte ich aber für arg übertrieben.

dildo4u
2014-05-03, 11:53:43
Die FPS ohne jedwede Drosselung und wohl mit nach oben gestzten PT und 100% Lüfter.

Schau dir doch die Temperaturentwicklung beim 3DMark BITTE nochmal an. Das ist weit, sehr weit, nein ultra weit von stabilen Temps entfernt. Wenn du das mit nem exponentiellen fit extrapolierst, landeste bei weit über 100°C. Das Ding hat da gerade so nicht gedrosselt, weil der Bench kurz genug ist.

Im realen Einsatz wirste aber gewaltig nach unten knallen.
Das passiert auch mit der Wakü auf der 295x2 Beide Karten sind am Limit gebaut.

http://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/4/

Skysnake
2014-05-03, 11:59:53
sieht nach ca. 77-80°C aus oder?

Ich denke, dass die Skalierung in 10er Schritten erfolgt
Eher 20er Es wird bisher eigentlich immer von 0°C aus angegeben.

Es gab aber wohl eine Änderung bei der Darstellung, daher dachte ich kurz sogar an einen Fake, aber beim Bild der 295 hat sich die Anzeige ja auch geändert im Vergleich zu dem hier, wo immer expliziet die 0 angegeben wird.

http://img.hwbot.org/u20691/image_id_930140.png
http://rog.asus.com/wp-content/uploads/2013/03/FireStrikeExtreme-11507.jpg
http://images.anandtech.com/doci/6726/3DMark%20Mobile%20Launch%20Testing.jpg

Ich denke mal, man lässt einfach nur die 0 weg, müsste aber mal jemand mit einer aktuellen Version testen.

Hugo78
2014-05-03, 12:03:20
Die FPS ohne jedwede Drosselung und wohl mit nach oben gestzten PT und 100% Lüfter.

Schau dir doch die Temperaturentwicklung beim 3DMark BITTE nochmal an. Das ist weit, sehr weit, nein ultra weit von stabilen Temps entfernt. Wenn du das mit nem exponentiellen fit extrapolierst, landeste bei weit über 100°C. Das Ding hat da gerade so nicht gedrosselt, weil der Bench kurz genug ist.

Im realen Einsatz wirste aber gewaltig nach unten knallen.

Ist auch unter Wasser bei AMD so.
In Crysis 3 greift nach 20 Minuten allerdings das Temperature Target, die maximale Leistungsaufnahme des Systems lag zuvor gar bei 720 Watt. Bei maximiertem Power Target sind es bis zu 730 Watt – wenn das Temperature Target nach 20 Minuten eingreift, liegt der Wert bei 651 Watt.
- http://www.computerbase.de/2014-04/amd-radeon-r9-295x2-benchmark-test/8/

fondness
2014-05-03, 12:06:02
Nur das der Wert bei der 295X2 bei 75°C liegt.

dildo4u
2014-05-03, 12:07:13
Und das mit na Wakü langsam frag ich mich ob so ne billig Wakü wie sie AMD verbaut viel besser als NV's Luftkühler ist.Bei den CPU Kompakt Wakü's sind manche ja schlechter als gute Luftkühler.

Skysnake
2014-05-03, 12:10:58
Es ist aber eben nur ein 2 Slot design, und man müsste nochmal schauen, wieviel "Luft" nach oben ist bei den Lüftern, wenn man beide Karten auf die gleiche Lautstärke prügelt. Also bei der 295X notfalls nochmal stärkere und auch lautere Lüfter verbaut.

4Fighting
2014-05-03, 12:14:22
Eher 20er Es wird bisher eigentlich immer von 0°C aus angegeben.

Es gab aber wohl eine Änderung bei der Darstellung, daher dachte ich kurz sogar an einen Fake, aber beim Bild der 295 hat sich die Anzeige ja auch geändert im Vergleich zu dem hier, wo immer expliziet die 0 angegeben wird.

http://img.hwbot.org/u20691/image_id_930140.png
http://rog.asus.com/wp-content/uploads/2013/03/FireStrikeExtreme-11507.jpg
http://images.anandtech.com/doci/6726/3DMark%20Mobile%20Launch%20Testing.jpg

Ich denke mal, man lässt einfach nur die 0 weg, müsste aber mal jemand mit einer aktuellen Version testen.

10er Schritte...Meine Gpus liegen jeweils mit knapp 40°C direkt einen "Strich" unter den 50°C

dildo4u
2014-05-03, 12:16:45
Also könnten die 3dmark Werte ohne Temp Erhöhung sein?

Raff
2014-05-03, 12:23:51
Argh, jetzt wartet doch mal die ersten echten Reviews ab, bei denen haarklein steht, was Sache ist.

MfG,
Raff

4Fighting
2014-05-03, 12:25:03
Also könnten die 3dmark Werte ohne Temp Erhöhung sein?

Was meinst mit Temp Erhöhung?

dildo4u
2014-05-03, 12:26:53
Was meinst mit Temp Erhöhung?
Na das normale Templimt wird doch vermutlich bei 83° liegen.

4Fighting
2014-05-03, 12:30:36
Na das normale Templimt wird doch vermutlich bei 83° liegen.

Bleibt auch gem. der Folie bei 83°C

http://www.pcmasters.de/system/photos/9144/feature/rBEQWVNd0FEIAAAAAADeiyWY5LIAAFq9wMrL80AAN6j485.jpg?1398845875

fondness
2014-05-03, 12:54:09
Wenigstens erlaubt NV bei einer $3000 Karte endlich mal +20% PowerTarget, etwas das bei AMD seit Jahren Standard ist. Hawaii-Karten erlauben bis zu +50%.

aufkrawall
2014-05-03, 13:03:16
Für den IHV immer zweischneidig, ist eine RMA-Quoten-Stellschraube.
Bleibt bei AMD denn die Gewährleistung erhalten?

HarryHirsch
2014-05-03, 13:59:30
Zumindest wird im CCC nicht erwähnt das dann die Garantie verfällt.

4Fighting
2014-05-03, 14:06:34
Zumindest wird im CCC nicht erwähnt das dann die Garantie verfällt.

Ich hab keine AMD-Karte aber gab es nicht so eine einmalige Warnmeldung mit folgendem Warntext?

WARNING AMD and ATI processors are intended to be operated only within their associated specifications and factory settings. Operating your AMD or ATI processor outside of specification or in excess of factory settings, including but not limited to overclocking, may damage your processor and/or lead to other problems, including but not limited to, damage to your system components (including your motherboard and components thereon (e.g. memory)), system instabilities (e.g. data loss and corrupted images), shortened processor, system component and/or system life and in extreme cases, total system failure. AMD does not provide support or service for issues or damages related to use of an AMD or ATI processor outside of processor specifications or in excess of factory settings. You may also not receive support or service from your system manufacturer.
DAMAGES CAUSED BY USE OF YOUR AMD OR ATI PROCESSOR OUTSIDE OF SPECIFICATION OR IN EXCESS OF FACTORY SETTINGS ARE NOT COVERED UNDER YOUR AMD PRODUCT WARRANTY AND MAY NOT BE COVERED BY YOUR SYSTEM MANUFACTURER’S WARRANTY.

fondness
2014-05-03, 14:23:07
Das OCing generell nicht von der Garantie abgedeckt ist, ist kein Geheimnis. Allerdings ist das bis zu einem gewissen Grad auch eine theoretische Diskussion, da der Hersteller natürlich nicht überprüfen kann ob man per Software übertaktet hat. Aber zumindest hat man bei AMD die Möglichkeit das PowerTarget entsprechend anzuheben, bei NV geht AFAIK maximal 106%. Ob jetzt allerdings alleine die PowerTarget Erhöhung ohne OCing zum Garantieverlust führt weiß ich nicht.

aufkrawall
2014-05-03, 14:35:04
Bei NV geht natürlich mehr per Biosmod, was eine einfache Sache ist.

Niall
2014-05-03, 15:10:06
Bleibt auch gem. der Folie bei 83°C

http://www.pcmasters.de/system/photos/9144/feature/rBEQWVNd0FEIAAAAAADeiyWY5LIAAFq9wMrL80AAN6j485.jpg?1398845875

Die Frage ist nur immer wieder: bei welcher Umgebungstemperatur werden die Ganzen Werte gemessen? Viele Reviews Parken die Karten auf 'nen offenen Aufbau und nachher heulen wieder alle, weil im Gehäuse nicht konstant 18'C Umgebungstemperatur gegeben sind sondern 28'C. Dann liegste plötzlich wieder über den angegebenen Werten, was wiederum kein Problem wäre, würde man nicht an den 90'C, sondern meinetwegen an 50'C kratzen. :freak:

fondness
2014-05-03, 16:18:03
Bei NV geht natürlich mehr per Biosmod, was eine einfache Sache ist.

Okay wieviel geht da maximal? Da allerdings NV noch immer am zweiten BIOS-Baustein spart kann man damit schnell seine Karte schrotten. Und im Gegensatz zu reinen Software-Sache ist damit die Garantie natürlich endgültig weg wenn die Karte mit einem Mod-BIOS das zeitliche segnet.

aufkrawall
2014-05-03, 16:33:25
Okay wieviel geht da maximal?

Gibt keine Grenze.


Da allerdings NV noch immer am zweiten BIOS-Baustein spart kann man damit schnell seine Karte schrotten.

"Schnell"? Blödsinn.
Hier sind zig Leute mit Mod-Bios unterwegs. Von gechassten Karten dadurch hab ich hier schon ewig nichts mehr gelesen. Außerdem kann man notfalls noch mit der IGP booten und dann zurück flashen.


Und im Gegensatz zu reinen Software-Sache ist damit die Garantie natürlich endgültig weg wenn die Karte mit einem Mod-BIOS das zeitliche segnet.
Dann kann man das Bios meist auch nicht mehr auslesen. Beides ist übrigens Beschiss, auf den man kein Anrecht hat.

Rente
2014-05-03, 16:39:51
[...]Außerdem kann man notfalls noch mit der IGP booten und dann zurück flashen.[...]
This!

Es ist nahezu unmöglich die Karte beim Flashen wirklich dauerhaft zu beschädigen bzw. unbenutzbar zu machen, ich hab die Erfahrung auch schon selbst mit einem 0-Byte-Bios-Flash gemacht.

Iruwen
2014-05-03, 17:04:31
Außerdem kann man zur Not auch ganz ohne andere Ausgabemöglichkeit "blind" booten und das alte BIOS automatisch per Batchfile zurückflashen.

phoenix887
2014-05-03, 18:09:56
Bei NV geht natürlich mehr per Biosmod, was eine einfache Sache ist.

Kommt auf den Partner drauf an. Hatte bei meiner Titan den Kühler gewechselt, und ein Modbios drauf. Nach 6 Monate ist mir ein Spannungswandler durchgebrannt. Bin felsenfest der Überzeugung gewesen Zotac gibt mir da keine Garantie mehr.

Also das Teil in Ebay verkauft als defekt und ohne Orginalkühler. Danach mir eine GXT 780 ti gekauft.

Neulich schrieb mir der Typ von Ebay mir zurück, er bekommt dafür eine neue Karte von Zotac, habe sogar die Email von Zotac gesehen.

Sollte mir mal angewöhnen mich auf dumm zu Stellen, komme dann velleicht besser durchs leben.:freak:

Edit: Sorry habe den falschen User zitiert. Denke ist aber klar was ich meine.

Knuddelbearli
2014-05-03, 18:50:57
Tja ist und bleibt aber Betrug.

dungeonlight
2014-05-03, 20:02:37
Ja, super und in 4 Jahren hat man die Leistung der Karte im Smartphone xD ...

Blaire
2014-05-03, 21:20:54
Titan Z Preview @ HKEPC: http://www.hkepc.com/11203
Die Karte boostet bis auf 1058MHz.
Seltsam dass die GPU nur ein GK110-350-B1 ist. Titan-Black hat einen 430 Chip. Meist hatten die Dual-GPU-Karten ein höheres Bin.

1058Mhz? Das wäre ordentlich und sollte ausreichen um in vielen Games vor der "schlauchigen" AMD Dual-Variante zu liegen. Vorausgesetzt man hats diesmal auch etwas offener mit dem Power- und Temp-Target gestaltet, noch besser gleich einen Performance-Modus integriert um sich nicht wieder über irrsinnige Test-Methoden die Hand vors Gesicht schlagen zu müssen.

HarryHirsch
2014-05-03, 21:32:51
Nicht schlecht. Hätte ich jetzt nicht erwartet.

fondness
2014-05-03, 21:35:09
Forget it, nicht mal eine Titan Black boostet so hoch und die benötigt >250W.

Pentium M
2014-05-03, 21:36:08
Offener Aufbau?

Mr.Magic
2014-05-03, 21:36:53
Ja, super und in 4 Jahren hat man die Leistung der Karte im Smartphone xD ...

... mit dem man eine Minute spielen kann, weil dann der Akku leer ist.

Blediator16
2014-05-03, 21:40:10
1058Mhz? Das wäre ordentlich und sollte ausreichen um in vielen Games vor der "schlauchigen" AMD Dual-Variante zu liegen. Vorausgesetzt man hats diesmal auch etwas offener mit dem Power- und Temp-Target gestaltet, noch besser gleich einen Performance-Modus integriert um sich nicht wieder über irrsinnige Test-Methoden die Hand vors Gesicht schlagen zu müssen.

Was ist mit "schlauchig" gemeint?

Pentium M
2014-05-03, 21:42:16
Wasserschläuche.

Blediator16
2014-05-03, 21:46:02
Ach so. Jo der Ton ist sowieso abwertend von den üblichen. Diese Kühllösung die AMD gewählt hat kommt bei einigen nicht gut an, weil von NV nicht erreicht werden kann. Schade eigentlich.

Knuddelbearli
2014-05-03, 21:47:52
tippe mal auf übliches fanboy gelabere

occ-kh@Mirko
2014-05-03, 21:48:13
Sollte mir mal angewöhnen mich auf dumm zu Stellen, komme dann vielleicht besser durchs leben.:freak:
Oder läuft voll gegen den Baum, ehrlich ist besser! Leider hatte Zotac wohl hier und da vereinzelt (in der Vergangenheit) Probleme mit den Spawas, da kam dann etwas Sensibilität zum tragen. Glück für den Ebay-Käufer.

Ansonten haben Zotac ziemlich oft verbaut, keine Probs die andere nicht auch haben.

4Fighting
2014-05-03, 21:54:49
[...]weil von NV nicht erreicht werden kann.

Diese Erkenntnis hast Du woher?

Blediator16
2014-05-03, 21:59:13
Diese Erkenntnis hast Du woher?

Gesunder Menschenverstand

occ-kh@Mirko
2014-05-03, 22:00:18
Diese Kühllösung die AMD gewählt hat kommt bei einigen nicht gut an, weil von NV nicht erreicht werden kann. Schade eigentlich.
Wieso denn das nicht? Denkst du Asetek hat mit AMD einen Lukrativvertrag, wenn Nvidia eine solche Konstruktion von Asetek wünschen, bekommen sie sie auch. Vllt. hilft AMD sogar mit und gibt seine Erfahrungswerte weiter! Denke mal das ganze Konstrukt war die Antwort auf Nvidias Taktratenspielerei. Könnte den fehlenden 8Pin PCI E Stecker erklären. Schon mal drüber nachgedacht?

Da ging nur noch "Brechstange" um das Bord stabil mit hohen Taktraten im Betrieb zu halten.

fondness
2014-05-03, 22:01:40
Wieso denn das nicht? Denkst du Asetek hat mit AMD einen Lukrativvertrag, wenn Nvidia eine solche Konstruktion von Asetek wünschen, bekommen sie sie auch. Vllt. hilft AMD sogar mit und gibt seine Erfahrungswerte weiter!

So kurzfristig kann man das nicht mehr ändern.

4Fighting
2014-05-03, 22:02:08
Gesunder Menschenverstand

Man man...Manche Leute sind nur peinlich.

Du regst dich selbst über Fanboys auf, aber kannst auf sachlicher Ebene nichts konstruktives beitragen.:facepalm:

So kurzfristig kann man das nicht mehr ändern.

Ggf. gibts ja noch Custom-Designs...Außer NV "verbietet" es

occ-kh@Mirko
2014-05-03, 22:08:26
So kurzfristig kann man das nicht mehr ändern.
Jetzt natürlich nicht, dass habe ich nicht gemeint ;). Hörte sich für mich so an als könnte Nvidia nicht das Selbe, dass ist Blödsinn! Was hält die jetzt ab eine @Wakü drauf zu hauen? Das machen die aus Prinzip nicht. Zudem kommt das Konzept eben nicht bei allen positiv an. Der Aufwand für eine ausreichende Kühllösung auf Luftbasis bei über 500wTDP wäre für eine Herstellerreferenz zu teuer.

Blediator16
2014-05-03, 22:11:35
Ist doch sowieso egal was AMD macht wird immer scheisse sein :D

occ-kh@Mirko
2014-05-03, 22:15:36
Ist doch sowieso egal was AMD macht wird immer scheisse sein :D
Denke ich nicht, wenn man sich die 295 anschaut. Hawaii hatte aber trotzdem unter dem Versprechen "es wird besser" gelitten, da man die Taktraten nachträglich anpassen musste. Bitte dem Gesamtzusammenhang betrachten und nicht nur kleine Zeitfenster reinwerfen.

Den Rest haben die Partner glattgezogen!

Iruwen
2014-05-03, 22:16:17
Ich halt mich diesmal raus, aber mutig von euch gleich wieder so auf die Kacke zu hauen nachdem Ail gerade erst rigoroses Durchgreifen angekündigt hat (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10198362#post10198362). Viel Glück.

occ-kh@Mirko
2014-05-03, 22:23:25
Ich halt mich diesmal raus, aber mutig von euch gleich wieder so auf die Kacke zu hauen nachdem Ail gerade erst rigoroses Durchgreifen angekündigt hat (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10198362#post10198362). Viel Glück.
Finde solche Diskussionen auch überflüssig. Der Markt ist immer in Bewegung und nVidia kommt wieder, dass ist gewiss. Siehe GK110, wenn auch mittlerweile kein Meilenstein mehr, hat er reichlich Kohle in die Nvidiakasse gespült. Darauf kommt es ja letztlich auch an. Innovationen sind immer gut, müssen aber auch gekauft werden.

Zudem ist ein Schlagabtausch auf dieser Basis auch erwünscht, obs verbal so sein muss, fraglich?

Hugo78
2014-05-03, 22:32:02
So kurzfristig kann man das nicht mehr ändern.

Eine passende Grundplatte fräsen + zwei Kupfer SpawaKühler macht dir doch jeder Hobby CNC Techniker in 2-3 Tagen.
Dann je vier Gewinde rund um den GPU Sockel in diese Grundplatte schneiden, passend für die Asetek Kühler => fertig.

Aber ja, NV wird ihren Luftkühler nicht verworfen haben, GK110 bringt bei weitem nicht soviel Hitze/sqmm auf die Wagge wie Hawaii, da sollten zwei extra große Vapor Chamber + reichlich ALU-Lamellen + markanter Druck reichen.

Mein Bauchgefühl sagt, die Titan Z kommt im eigenen "Ueber-mode" (PT 120%) auf 90-95% des 295X2 Speed, bei relativ lauten 6-8 Sone im PCGH Test.
Nimmt aber auch weniger und ist ebend kompakter ohne das man Bedenken zwecks Wasser haben muss.
Im "Silent-375W Modus" bleibt sie dann bei den üblichen 3-4 (PCGH-)Sone.

Letztlich sind beide Karten rein philosophische Konstrukte.
Vor einem Jahr wären sie sinnvoll gewesen, mittlerweile aber mit Blick auf GM204, der kaum mehr als 6-7 Monate entfernt sein sollte, sind sie überflüssiger Prestigekram für Balkenaffine Persönlichkeiten mit viel Langeweile und noch mehr "zuviel" Kohle.
Oder aber eine willkommende Lösung für 0,00001% des Marktes aus der (Semi-)Pro Ecke.

occ-kh@Mirko
2014-05-03, 22:41:28
...ohne das man Bedenken zwecks Wasser haben muss.
Die füllen da kein Leitungswasser ein!..:)

Hugo78
2014-05-03, 22:50:57
Schon klar, aber ich zb. vermeide im Leben alles was kaputt gehen kann und dann zusätzlichen Ärger bedeutet, auch wenn es gewisse Vorteile bietet.
An meine MBTs und Rennräder kommen zb. nie im Leben irgendwelche Hydraulikbremsen weil ich die nicht so einfach reparieren kann.
Und so halte ich es auch mit Wasser im Rechner, auch wenn das Wasser nicht leitet.
Lieber ne extra dicke Luftkühlung im Big Tower, als so Minizeug im ITX Tower.

occ-kh@Mirko
2014-05-03, 23:10:01
Das leitet schon, aber eben nicht so gefährlich wie mineralisiertes Wasser. Hatten noch nie einen Ausfall. Wenn alles vernüftig montiert wird tritt auch nichts aus. Wichtig Farbzusätze weglassen. Aber anderes Thema!..:)

Blediator16
2014-05-03, 23:14:09
Ich weiß nicht. Ich denke es kann nur positiv sein. Genau so wie AMD einen besseren Ref. Kühler bringen MUSS im nächsten Anlauf so kann NV bei den Enthusiasten Dual GPU Karten keine Spielchen mehr spielen wie jetzt und muss dann auch zu extravaganten Kühlmethoden greifen. Solange es nicht in exzessiven Preistreibereien nach oben endet kann es nur gut sein.

Ich denke dass die Kühllösung von AMD sehr gut ist und ich von niemandem plausible Argumente gegen diese bekommen habe ausser der "Platzverschwendung" durch die Kühler selbst.

Lieber ne extra dicke Luftkühlung im Big Tower, als so Minizeug im ITX Tower.


Sowas wurde aber bei der Hawaii nicht geduldet. Wenn Extrakühler für AMDs elendiges Ref. Design vorgeschlagen wurden, wurde es sofort in Grund und Boden geredet.

Denke ich nicht, wenn man sich die 295 anschaut. Hawaii hatte aber trotzdem unter dem Versprechen "es wird besser" gelitten, da man die Taktraten nachträglich anpassen musste. Bitte dem Gesamtzusammenhang betrachten und nicht nur kleine Zeitfenster reinwerfen.

Den Rest haben die Partner glattgezogen!

AMD wusste doch lange wer der Gegner der der Hawaii GPU sein wird von daher denke ich nicht, dass da irgendwie Taktraten angepasst werden mussten.Ich denke eher, man hatte keine Zeit mehr etwas anständiges bereitzustellen. Anders sieht es bei der TitanZ aus. Da wurde man scheinbar doch auf dem kalten Fuß erwischt.

occ-kh@Mirko
2014-05-03, 23:24:57
In erster Linie bringen Hersteller Hardware nach den eigenen Vorgaben für ihre Kundschaft bzw. eine Käuferschicht heraus. Das heisst z.B. dann, man will die schnellste Karte seines eigenes Portfolie auf jeden Fall um so oder soviel schlagen, dass wäre das erste Ziel. Dann guckt man wie man mit der Konkurrenz am Markt zurechtkommt/mithalten kann.

Natürlich muss man auch sehen die Hardware verkaufen zu können, sonst macht der Ganze Krimskram ja keinen Sinn. Wenn man das schnellste liefern kann ist der Preis eher Zweitsache. Ihr seht das zuweilen hier etwas zu verbissen. Wer als Käufer der Z gedacht war ist ja nun erstmal offen geblieben. Wenn Nvidia noch einen GK110 ala 750ti in der Tasche hat relativiert sich alles wieder. Also abwarten, es gibt immer einer der irgendwann schneller größer oder höher kann, dann heisst es wieder hinsetzen und gegensteuern, wenn man mitreden will.

HarryHirsch
2014-05-04, 00:08:18
Eine passende Grundplatte fräsen + zwei Kupfer SpawaKühler macht dir doch jeder Hobby CNC Techniker in 2-3 Tagen.
Dann je vier Gewinde rund um den GPU Sockel in diese Grundplatte schneiden, passend für die Asetek Kühler => fertig.

Aber ja, NV wird ihren Luftkühler nicht verworfen haben, GK110 bringt bei weitem nicht soviel Hitze/sqmm auf die Wagge wie Hawaii, da sollten zwei extra große Vapor Chamber + reichlich ALU-Lamellen + markanter Druck reichen.

Mein Bauchgefühl sagt, die Titan Z kommt im eigenen "Ueber-mode" (PT 120%) auf 90-95% des 295X2 Speed, bei relativ lauten 6-8 Sone im PCGH Test.
Nimmt aber auch weniger und ist ebend kompakter ohne das man Bedenken zwecks Wasser haben muss.
Im "Silent-375W Modus" bleibt sie dann bei den üblichen 3-4 (PCGH-)Sone.

Letztlich sind beide Karten rein philosophische Konstrukte.
Vor einem Jahr wären sie sinnvoll gewesen, mittlerweile aber mit Blick auf GM204, der kaum mehr als 6-7 Monate entfernt sein sollte, sind sie überflüssiger Prestigekram für Balkenaffine Persönlichkeiten mit viel Langeweile und noch mehr "zuviel" Kohle.
Oder aber eine willkommende Lösung für 0,00001% des Marktes aus der (Semi-)Pro Ecke.

und Ferti ist das Kühlerli.
Die haben da ganz andere Anforderungen...

Skysnake
2014-05-04, 07:55:10
Jetzt natürlich nicht, dass habe ich nicht gemeint ;). Hörte sich für mich so an als könnte Nvidia nicht das Selbe, dass ist Blödsinn! Was hält die jetzt ab eine @Wakü drauf zu hauen? Das machen die aus Prinzip nicht. Zudem kommt das Konzept eben nicht bei allen positiv an. Der Aufwand für eine ausreichende Kühllösung auf Luftbasis bei über 500wTDP wäre für eine Herstellerreferenz zu teuer.
Naja, jetzt können Sie es mit der Titan Z wirklich nicht mehr machen. Die Karte ist gelaunched mit ihrem 2,5Slot Kühler.

Jetzt da ne WaKü drauf packen, wäre eine unglaubliche Blöse die sich nVidia wohl nicht geben wird. Damit würden Sie ja eingstehen, dass Sie dem Kunden weniger verkaufen wollten, aber jetzt durch AMD dazu gezwungen sind mehr zu machen als angedacht.

Die Titan Z wird daher entweder genau so bleiben wie Sie ist, und quasi nur die absolulten FanBoys mit massig Kohle abgrasen, wobei ich mir vorstellen kann, Das Sie noch schnell ein "Limited Edition" mit was weiß ich 1k Stück draus machen, oder aber Sie geben die Titan Z für Partnerdesigns komplett frei.

Ich weiß nicht, ob es eher das erste wird, oder eher das Letzte.

Wenn die TitanZ freigegeben wird, wäre das auf jeden Fall sehr schön, und ALLE! könnten sich mal mit nem fetten Gratz an AMD wenden, denn ohne 295X2 hätten wir sicherlich nie ein Partnerdesign von der TitanZ gesehen

Mancko
2014-05-04, 10:25:52
Naja, jetzt können Sie es mit der Titan Z wirklich nicht mehr machen. Die Karte ist gelaunched mit ihrem 2,5Slot Kühler.

Jetzt da ne WaKü drauf packen, wäre eine unglaubliche Blöse die sich nVidia wohl nicht geben wird. Damit würden Sie ja eingstehen, dass Sie dem Kunden weniger verkaufen wollten, aber jetzt durch AMD dazu gezwungen sind mehr zu machen als angedacht.


Glaube ich auch nicht das sie das machen aber eine Blöse ist das nicht. Nenn es dann einfach Titan ZZ oder was weiß ich. Interessiert wenn das Produkt gelauncht ist keinen Schwanz mehr. Ich denke eher sie werden es bei der Kühllösung belassen und maximal den Takt heben. Da ist durchaus Spielraum vorhanden.


Die Titan Z wird daher entweder genau so bleiben wie Sie ist, und quasi nur die absolulten FanBoys mit massig Kohle abgrasen, wobei ich mir vorstellen kann, Das Sie noch schnell ein "Limited Edition" mit was weiß ich 1k Stück draus machen, oder aber Sie geben die Titan Z für Partnerdesigns komplett frei.

Ich weiß nicht, ob es eher das erste wird, oder eher das Letzte.

Wenn die TitanZ freigegeben wird, wäre das auf jeden Fall sehr schön, und ALLE! könnten sich mal mit nem fetten Gratz an AMD wenden, denn ohne 295X2 hätten wir sicherlich nie ein Partnerdesign von der TitanZ gesehen


Bei AMD muss man sich für gar nichts bedanken. Es ist grundsätzlich meine Erwartungshaltung als Kunde, dass die Konkurenz Druck macht. Wenn nicht ist das eher schlecht. Leider hat AMD schon sehr oft viel zu wenig Druck gemacht. Im Prinzip war Nvida seit dem GK104 Launch zu keinem Zeitpunkt richtig gefordert, was sich ja letztlich auch ganz deutlich in den Absatzzahlen wiedergespiegelt hat. Die Runde ging klar an Nvidia.

Jetzt sind sie vielleicht ein wenig gefordert in einem Promille Segment. Die Außenwirkung von diesen Produkten ist auch eher fraglich. Da schlagen doch nach wie vor die Single GPU High End Karten erheblich mehr zu Buche und da stehen sie nach wie vor einfach besser da, insbesondere dank der besseren Referenzkarte.

occ-kh@Mirko
2014-05-04, 12:09:48
Es ist grundsätzlich meine Erwartungshaltung als Kunde, dass die Konkurenz Druck macht. Wenn nicht ist das eher schlecht.
So sehe ich das auch, dass muss auch der Anspruch bleiben. Nur weil persönliche Geschmäcker nicht getroffen werden muss man Produkte nicht schlechtreden, hier wie da. Es findet sich immer jemand der es haben will oder braucht, wer sei einem doch egal wenn kein Eigeninteresse vorliegt.

insbesondere dank der besseren Referenzkarte.
Einigen wir uns auf das "bessere Gesamtpaket" :). Hawaii besitzt schon einiges an Potentail, nur wie AMD dieses erstmalig offeriert hatte, bzw. das der Pro Variante war etwas fragwürdig. Letztendlich hat es dann doch noch geklappt, aber anfänglich definitiv verwachst. Da muss man beim Marketing noch viel lernen. Sowas bleibt schnell in den Köpfen hängen.

Ich denke man hat sich darauf konzentriert nVidia unbedingt schlagen zu wollen, da sind für ein besseres Gesamtpaket wohl Dinge auf der Strecke geblieben. Hardwaretechnisch ist es leistungsrelevant trotzdem auf Augenhöhe und konkurrenzfähig.Treiberprobleme sind wieder eine andere Sache, dass wäre eher nachträglicher "Feinschliff", da hat nVidia wegen seiner größeren Basis Vorteile. Dafür kann AMD preislich punkten und man muss sich eben derzeit etwas länger gedulden, bis Probleme gefixt werden.

Blediator16
2014-05-08, 18:25:01
Heute kommt wohl nichts mehr oder?

Raff
2014-05-08, 18:27:04
Hätte Nvidia Samples verteilt, hätte es heute um 15 Uhr Tests gegeben (CET-Standard-Fallzeit für Nvidia-NDAs).

MfG,
Raff

Schnoesel
2014-05-08, 19:33:24
War die für heute angekündigt oder verhält es sich wie bei der Black? Einfach nix zum testen hergeben und hoffen dass es keiner merkt?!

Leonidas
2014-05-08, 19:42:58
Heute war nur ein Gerücht. Einen richtigen Launch wird es im Gegensatz zur Black wahrscheinlich geben. Neues Spiel nächsten Donnerstag 15 Uhr.

occ-kh@Mirko
2014-05-08, 19:48:54
Man noch eine Woche! Naja was solls, bin gespannt was nVidia abliefert.

Godmode
2014-05-08, 20:00:10
Heute kommt wohl nichts mehr oder?

Die müssen wohl erst noch Wasser kaufen. :ulol:

occ-kh@Mirko
2014-05-08, 20:06:59
Auf jeden Fall ist nVidia gut fürs Gehirn = https://www.facebook.com/NVIDIA :uconf3: und Wasser destilllieren/ionisieren dauert.

fondness
2014-05-08, 21:51:57
Nvidia GeForce GTX Titan Z erneut verschoben
http://www.computerbase.de/2014-05/nvidia-geforce-gtx-titan-z-erneut-verschoben/

M4xw0lf
2014-05-08, 22:01:47
Wenn ich mir das so anschaue, bin ich so gut wie überzeugt, dass die zwei 8-Pin Stecker der 295X2 genau das zum Ziel hatten - Nvidia in dem Glauben zu lassen, dass sie in einem Wettkampf 375W vs 375W antreten, in dem sie mit zwei niedrig taktenden GK110 beste Voraussetzungen gehabt hätten.

occ-kh@Mirko
2014-05-08, 22:10:42
Wenn man die Spezifikationen bedenkt ja, die vertragen aber deutlich mehr. Hängt auch vom Layer ab.

Ich denke Nvidia ist mit dem 337.69 nicht fertig. Es könnte möglich sein, dass man auch die Kühllösung nochmal überdenken wird, vor allem wohl die Lautstärke beim Mithalten. Sollte das Bord wirklich in der Entwicklung entsprechend viel gekostet haben und man muss es dann unter dem Mindest-Preis verschärbeln, werden sie es nicht machen. War noch nie so.

Schade, ich bin gespannt.

Godmode
2014-05-08, 22:13:46
Vielleicht packen sie noch ne 3. GPU dazu :ulol:

Blediator16
2014-05-08, 22:29:36
Wenn man die Spezifikationen bedenkt ja, die vertragen aber deutlich mehr. Hängt auch vom Layer ab.

Ich denke Nvidia ist mit dem 337.69 nicht fertig. Es könnte möglich sein, dass man auch die Kühllösung nochmal überdenken wird, vor allem wohl die Lautstärke beim Mithalten. Sollte das Bord wirklich in der Entwicklung entsprechend viel gekostet haben und man muss es dann unter dem Mindest-Preis verschärbeln, werden sie es nicht machen. War noch nie so.

Schade, ich bin gespannt.

Was soll denn am Treiber noch nicht fertig sein?

fondness
2014-05-08, 22:37:28
Vor allem da der CEO vor wenigen Wochen noch den April genannt hat ergibt das mit dem Treiber keinen Sinn. Was gäbe es hier für einen Aufschrei und Häme wäre es AMD und nicht Nvidia...

occ-kh@Mirko
2014-05-08, 22:47:19
Was soll denn am Treiber noch nicht fertig sein?
Frag mich, ich arbeite ja nicht in der Treiberentwicklung, aber der erste Launch soll verschoben worden sein weils Treiberprobleme gab, eben der 337.69 nicht fertig bzw. WHQL zertifiziert war. Glaube nicht das NVidia die Z mit einem Betatreiber launcht.

Raff
2014-05-08, 23:08:43
Nvidia GeForce GTX Titan Z erneut verschoben
http://www.computerbase.de/2014-05/nvidia-geforce-gtx-titan-z-erneut-verschoben/

Die in den letzten Wochen an mancher Stelle aufgetauchten Leistungsprognosen und Benchmarks zur GeForce GTX Titan Z sind derzeit unbrauchbar, da die finalen Spezifikationen nicht feststehen.

Pah, auf die paar Titan-Z-Karten, welche in kalifornischen Testlabs herumgeistern, trifft die Prognose offenbar zu. :biggrin:

MfG,
Raff

Godmode
2014-05-08, 23:17:27
Vor allem da der CEO vor wenigen Wochen noch den April genannt hat ergibt das mit dem Treiber keinen Sinn. Was gäbe es hier für einen Aufschrei und Häme wäre es AMD und nicht Nvidia...

Das Ding interessiert einfach keine Sau, darum schreit auch niemand. Und ja, ich dachte auch, die Zeiten wo man einen Launch macht zum Ankündigen eines Launches sind vorbei, weit gefehlt. Mir gefällt das ganze ziemlich gut und der Arschritt von AMD mit der 295X2 hat sicher nicht geschadet. :biggrin:

DragonFire
2014-05-09, 00:40:23
Würde mich nicht wundern, wenn die nächste News von NVIDIA so lauten würde.
"NVIDIA sieht im Projekt Titan Z keine Zukunft und will sich verstärkt Maxwell zuwenden."

Leute, es ist doch so, NVIDIA hat sich mit der Titan Z kräftig verrechnet. AMD hat den Launch diese geplante Überkarte, einfach mit einer AiO-Kühlung zunichte gemacht.
NVIDIA müsste schon selber mit einer AiO-Kühlung daherkommen um überhaupt konkurrenzfähig zu sein. Aber wie sehe das aus ?
NVIDIA äfft AMD nach ?? AMD zeigt NVIDIA, wie man Grafikkarten baut ? Das würde NVIDIA niemals über sich ergehen lassen !

Somit ist wohl das Thema Titan Z gestorben.

StefanV
2014-05-09, 02:21:38
in dem sie mit zwei niedrig taktenden GK110 beste Voraussetzungen gehabt hätten.
Richtig und da besteht die Möglichkeit, dass AMD mal nVidia dazu genötigt hat, das ganze Projekt zu überdenken.

Was ich erwarte:
a) man arbeitet an einer neuen Kühllösung, mit der man die Titan Z auf das Niveau der 295X2 hieven kann
b) man arbeitet an einem neuen Platinenlayout, was die erhöhte Verlustleistung auch liefern kann

Entweder das eine, das andere oder beides.

Somit ist wohl das Thema Titan Z gestorben.
Glaub ich nicht. Das wäre dann ein wirklich großes Problem, das nVidia dann hätte. Das würde dann Hohn und Spott für sie verursachen, wenn das 'Vaporware' bleiben wird...

Auszuschließen ist das nicht, aber IMO sehr unwahrscheinlich...

Skysnake
2014-05-09, 06:00:07
Ich halte es aber auch für realistischer, das nVidia die ganze Titan Z in die Tonne tritt, als jetzt noch ne AIO-WaKü drauf zu hauen, oder ein >2x 8 Pin Platinenlayout aus dem Hut zu zaubern.

Die Idee von weiter oben bzgl Rechtfertigung mit Maxwell, auf den man sich mehr konzentrieren will, bzw der Sie überflüssig macht ist durchaus nicht schlecht.

Im Prinzip ist es aber auch egal. Es wird genug nVidia-Verteidiger geben, die sich eine Rechtfertigung/Erklärung aus den Fingern saugen werden. Sieht man ja jetzt auch schon an allen Ecken und Kanten.

Mr. Lolman
2014-05-09, 06:48:57
Und wenn diese Verteidiger auch noch Texte mit einer großen Reichweite publizieren, wundert man sich auch nicht, dass NVidia ihren Gewinn um 75% (!) im Vergleich zum Vorjahr steigern konnte. Damit kaufen sich irgendwelche Bonzen Golduhren und Ferraris, weil es unzählige Nerds es tatsächlich als sinnvoll erachten, absolut überteuerte Grafikkarten zu kaufen. Und AMD springt auch schön langsam auf den Zug auf. Danke NVidia und alle Beteiligten, dass ihr Gaming zum Luxus macht. :mad:

4Fighting
2014-05-09, 07:01:14
Und wenn diese Verteidiger auch noch Texte mit einer großen Reichweite publizieren, wundert man sich auch nicht, dass NVidia ihren Gewinn um 75% (!) im Vergleich zum Vorjahr steigern konnte. Damit kaufen sich irgendwelche Bonzen Golduhren und Ferraris, weil es unzählige Nerds es tatsächlich als sinnvoll erachten, absolut überteuerte Grafikkarten zu kaufen. Und AMD springt auch schön langsam auf den Zug auf. Danke NVidia und alle Beteiligten, dass ihr Gaming zum Luxus macht. :mad:

So einfach ist es bei weitem nicht. Warum bietet AMD mir für die High-End Karten nicht sowas wie den Inspector oder Downsampling?

Mit einer 290x will ich sicherlich nicht dauerhaft auf 1080p/1440p in einigen Spielen limitiert sein; analog zu den AA Kombis/SLI Bits etc.

Kurz gesagt: die Hardware ist wirklich gut, aber die Software ist eher;(

Mr. Lolman
2014-05-09, 07:08:02
Der Inspector ist doch ein 3rd Party Tool und davon gibts auch für Amd etwas. Downsampling geht zumindest problemlos bis 1730p und lt. Twittereintrag von einem amd Mitarbeiter ist da auch was in der Mache. Es gibt außerdem noch ein Downsamplingtool von Tommti. Aber ja, es stimmt es wurde auch lang propagiert, dass die Software bei NV besser sei. Angeblich gilt das aber nichtmal mehr für Linux.

Trotzdem: 1000€ und mehr sind imo für eine Gamingkarte auch durch gute Treiber nicht zu rechtfertigen.

4Fighting
2014-05-09, 07:15:27
Der Inspector ist doch ein 3rd Party Tool und davon gibts auch für Amd etwas. Downsampling geht zumindest problemlos bis 1730p und lt. Twittereintrag von einem amd Mitarbeiter ist da auch was in der Mache. Es gibt außerdem noch ein Downsamplingtool von Tommti. Aber ja, es stimmt es wurde auch lang propagiert, dass die Software bei NV besser sei. Angeblich gilt das aber nichtmm+al mehr für Linux.

Trotzdem: 1000€ und mehr sind imo für eine Gamingkarte auch durch gute Treiber nicht zu rechtfertigen.

Ja? Auch in der Funktionsvielfalt? Das wäre mir neu....Die Treiber API ist aber so ausgelegt, dass es sowas wie den Inspector geben kann. Wie gesagt bei AMD ist das doch sehr rudimentär.

Tommti's Tool geht nur für DX10-11 und Win7 und ach nicht für jedes Spiel.

Zumindest in den von mir genannten Punkten ist die Software besser, wenngleich du Recht hast: Bei AMD kriegt man mehr FPS/€.

Nützt mir persönlich nur nichts, wenn meine Belange deutlich besser bei NV bedient werden

Mr. Lolman
2014-05-09, 07:36:52
Jaja, wegen der tollen Quaklität ruckeln die aktuellen Betas auch auf gewissen Systemen. Egal.

Ich streite ja auch garnicht ab, dass NV je nach Präferenz mehr bietet als AMD, aber derartige Unsummen für Grafikkarten sind doch mit nichts rechtzufertigen. Habt ihr tatsächlich jeglichen Sinn für Verhältnismäßigkeit verloren?

Was anderes wär wenn man sagen würd, dass das halt einfach ein Hobby ist und man deswegen übertrieben viel Kohle ausgibt. Aber 1500€ Aufpreis zB damit rechtzufertigen dass die Kühlung und die Übertaktbarkeit eventuell ganz gut sein wird, ist doch krank. Und noch schlimmer ist, dass sich die wenigsten daran stoßen.

"He ich war 2 Wochen in Mexiko 5 Stern All inclusive und bin auch mit einem Auto die Gegend erkunden gewesen. Und du?" "Ich hab mir eine Graka gekauft, die kann ich um ein paar Prozent stärker übertakten" (wobei in in einem Forum, wo letzteres für die meisten ohnehin erstrebenswerter wirken dürfte, ist eine Diskussion über Grakapreise eigentlich eher müssig)

4Fighting
2014-05-09, 08:37:29
Jaja, wegen der tollen Quaklität ruckeln die aktuellen Betas auch auf gewissen Systemen. Egal.

Ich streite ja auch garnicht ab, dass NV je nach Präferenz mehr bietet als AMD, aber derartige Unsummen für Grafikkarten sind doch mit nichts rechtzufertigen. Habt ihr tatsächlich jeglichen Sinn für Verhältnismäßigkeit verloren?



Das Titan Z maßlos überteuert ist steht außer Frage. Wobei man den eben schon mit Titan angefangen hat ein neues Segment zu schaffen.

"Normales High-End" kostet nun bei nvidia eben nicht mehr 450-500€ sondern 600-670 in den ersten Monaten.

Loeschzwerg
2014-05-09, 08:42:57
Nvidias Lösung für das Problem Titan Z: Preis auf AMD 295X2 Niveau und fertig ;) Dazu ne recht geringe Stückzahl.

Kommt billiger als komplett einstampfen und man hätte seine Ruf nicht zu sehr geschädigt :)

Vor allem da der CEO vor wenigen Wochen noch den April genannt hat ergibt das mit dem Treiber keinen Sinn. Was gäbe es hier für einen Aufschrei und Häme wäre es AMD und nicht Nvidia...

Treiber halte ich auch für unwahrscheinlich, aber selbst wenn hätte das wenig mit der Aussage vom CEO zu tun ;)

Bezüglich Aufschrei: Den gibt es mittlerweile von beiden Lagern gleichermaßen. Ist halt wie immer unterstes Niveau und mit deiner Stichelei machst du es bei Gott nicht besser.

Hübie
2014-05-09, 09:45:46
Als Mitarbeiter von AMD ist man dazu angehalten die Konkurrenz zu denunzieren ;D

Ich sehe es wie du Loeschzwerg. Preis runter und gut. Ich denke dass nach der 600er/700er Generation viele erwacht sind und in Zukunft mehr darauf achten was sie für wieviel kaufen. Ich bin jedenfalls durch mit dem Thema und werde in Zukunft lieber in einen Monitor investieren als in fette Grafikkarten.

Skysnake
2014-05-09, 10:13:03
Meint ihr nicht, die Leute würden sich "geringfügig" am Kopf kratzen, wenn nVidia den Preis VOR! dem Launch um 50% senken würde?

Da würde doch selbst der letzte nVidia Jünger anfangen zu merken, das nVidia Sie melkt

Loeschzwerg
2014-05-09, 10:44:50
Wissen diese Jünger bei doppeltem Preis und nicht erreichter 295X2 Leistung doch auch so schon :smile:

Letztendlich wäre es eine verständliche Reaktion auf das Marktgeschehen. Im Vorfeld hat man sich mit "Ultimate Gaming" natürlich auch noch auf das falsche Pferd gesetzt... man hätte Semi-Profi mit ins Marketing nehmen müssen, dann hätte man noch halbwegs ein offizielles Argument für den Preis gehabt.

Einziges was bleibt wäre die geringere Leistungsaufnahme, einfacher Einbau und je nachdem ein "leiser" Kühler.

Einstampfen kostet halt richtig Kohle (kommt ja nix mehr zurück), wird man so sicherlich auch nicht wollen. Preis runter und geringe Stückzahlen sollte passen, oder halt nur stark begrenzte Stückzahlen bzw. eine limited Edition.

Edit: Aber letztendlich ist es mir egal was NV aus dem Ding macht xD Den Namen Titan Z fallen lassen und dafür eine GTX 790 Ti bringen, dann könnte man auch einfachst den Preis anpassen.

Hübie
2014-05-09, 11:33:12
Sollte nich eh eine 790 kommen?

occ-kh@Mirko
2014-05-09, 11:51:18
Auch wenn es mir nicht unbedingt leicht fällt das zu schreiben, eine 295x Referenz steckt sich wegen der out Specs keine Sau in einen professionellen Rechner, Nvidia hat keine Probs mit der Vermarktung der Titan Z.

Preise sind irrrelevant solange man bekommt was man sucht. Natürlich ist es mittlerweile irrwitzig was dort verlangt wird, aber kleinere Auflagen kosten auch immer mehr, nach oben raus sind dem nur geringe Grenzen gesetzt.

Das AMD hier irgendetwas absichtlich suggeriert hat, Blödsinn, Nvidia dürfte erfahren genug sein zu wissen das über 2x8Pin 488w gehen, wenns der Ceo nicht weiss, der Ing auf jeden Fall. Trotzdem sollte AMD mal überlegen was so ein 8Pin von vornherein zusätzlich gekostet hätte und was das am Ende Wert gewesen wäre. So bleibt die Karte im Referenzdesign eher eine Studie die die Partner glattziehen dürfen, zu einem noch höheren Preis, logisch. Also weder Nvidia noch AMD machen es besser.

Das ihr euch dabei zu solchen grundsätzlichen Diskussionen hinreissen lasst, wer nun den längsten hat, naja, wie hier schon geschrieben, lieber in einen sehr guten Monitor investieren, der Zugewinn wird sich richtig und ersichtlich auszahlen.

Und Treiberprobleme, bitte, die haben beide.

Mir ist bekannt des es ein "treiberbedingtes Speichertaktratenproblem" mit der Titan Z gegeben haben soll, die Referenzen des Test von x y z sind Bockwurst dort wurden Specs manuell beeinflusst, dass sagt rein garnichts über den regulären Nvidiabetrieb der Karte aus.

Es gibt keine Probs mit der Hardware oder Kühllösung. Eher mit dem angekündigten PR zu der Z. Bisher waren alle nachgereichten Termine inoffiziell, die stammen nicht von Nvidia.

PS: Die ??? 790 ist bereits erschienen, Titan Black, der Rest sind Gerüchte.

Schnoesel
2014-05-09, 12:10:56
Mit einer 290x will ich sicherlich nicht dauerhaft auf 1080p/1440p in einigen Spielen limitiert sein; analog zu den AA Kombis/SLI Bits etc.

Ist doch Blödsinn. Was heißt limitiert sein. Die 290X sowie die 780TI schaffen gerade mal so 1440p in Ultra/high bei halbwegs vernünftigen Frameraten. Mit einer von den Karten nur an 4k zu denken ist schon lächerlich. Die Karten sind bei weitem noch nicht so weit 4k flüssig darstellen zu können. Insofern frage ich mich immer wieder was der Blödsinn mit DS eigentlich soll. Kauft euch einen schönen WHQD Monitor, für Auflösungen darüber brechen die Karten doch ein in neuen Titeln.

(del676)
2014-05-09, 12:13:11
Ich finde diesen Thread, und all die Profis die darin diskutieren echt niedlich.
Was da fuer Argumente und Gedankenkonstrukte geschrieben werden, einfach koestlich. :lol:

z.B.:
Auch wenn es mir nicht unbedingt leicht fällt das zu schreiben, eine 295x Referenz steckt sich wegen der out Specs keine Sau in einen professionellen Rechner, Nvidia hat keine Probs mit der Vermarktung der Titan Z.

Preise sind irrrelevant solange man bekommt was man sucht.

1. wenn der Preis irrelevant ist, dann steck ich mir gleich was anstaendiges rein, und das nennt sich Quadro
2. stecken sich vielleicht 2% der Anwender das in einen "professionellen Rechner", der Rest verwendet Quadros. Irgendwelche Moechtegern Buden in Hintertuxing ausgenommen. Aber auch da zaehlt, der PREIS ist da keineswegs irrelevant.
3. moechte ich mal wissen, wieviel von den "Profis" die hier diskutieren, schonmal eine Firma gesehen hat, die 3D Workstations einsetzt, oder GPU Computing verwendet.

Wir haben jede Menge Quadros, und die kaufen wir NICHT bei Alternate/Amazon/Hardwareversand/Geizhals, sondern vom Serverhersteller direkt. Weil das Ding auch zertifiziert sein muss. Aber hey, irgendwelche Bastelbuden kaufen den Scheiss sicher. Nur - das ist ein Nischenmarkt im Nischenmarkt!

Meiner Meinung nach wird die Titan Z zu 95% von Privatanwendern zum Gamen gekauft.

4Fighting
2014-05-09, 12:15:42
Ist doch Blödsinn. Was heißt limitiert sein. Die 290X sowie die 780TI schaffen gerade mal so 1440p in Ultra/high bei halbwegs vernünftigen Frameraten. Mit einer von den Karten nur an 4k zu denken ist schon lächerlich. Die Karten sind bei weitem noch nicht so weit 4k flüssig darstellen zu können. Insofern frage ich mich immer wieder was der Blödsinn mit DS eigentlich soll. Kauft euch einen schönen WHQD Monitor, für Auflösungen darüber brechen die Karten doch ein in neuen Titeln.

Es gibt auch Titel wie Stalker oder genügend andere DX9 Titel/DX10 Titel die problemlos mit einer Karte in 4k spielbar sein; aktuelle Titel meine ich nicht zwingend und habe das auch nirgends geschrieben. Das hast Du fröhlich interpretiert.

Raff
2014-05-09, 12:27:03
Ist doch Blödsinn. Was heißt limitiert sein. Die 290X sowie die 780TI schaffen gerade mal so 1440p in Ultra/high bei halbwegs vernünftigen Frameraten. Mit einer von den Karten nur an 4k zu denken ist schon lächerlich. Die Karten sind bei weitem noch nicht so weit 4k flüssig darstellen zu können. Insofern frage ich mich immer wieder was der Blödsinn mit DS eigentlich soll. Kauft euch einen schönen WHQD Monitor, für Auflösungen darüber brechen die Karten doch ein in neuen Titeln.

Nun geht das wieder los. 2160p/2400p ist mit einer übertakteten Single-GPU (High-End natürlich) gar kein Problem, sofern man das AA anpasst und nicht auf 60 Fps pocht. Natürlich wäre es schön, wenn die GPUs schneller wären, aber nutzbar ist UHD schon lange.

MfG,
Raff

fondness
2014-05-09, 12:31:22
Auch wenn es mir nicht unbedingt leicht fällt das zu schreiben, eine 295x Referenz steckt sich wegen der out Specs keine Sau in einen professionellen Rechner, Nvidia hat keine Probs mit der Vermarktung der Titan Z.


Eine 295X2 hat auch in einem professionellen Rechner nichts verloren, dafür gibt es die FirePRO W9100, die im übrigen mit nur einem Chip bei wesentlich weniger Leistungsaufnahme die DP-Leistung einer Titan Z liefert. Ich finde es ziemlich LOL das hier machen ernsthaft das NV-Marketing von wegen Supercomputer ernst nehmen.

Schnoesel
2014-05-09, 12:32:44
2160p/2400p ist mit einer übertakteten Single-GPU (High-End natürlich) gar kein Problem, sofern man das AA anpasst und nicht auf 60 Fps pocht.

Da habe ich andere Erfahrungen gemacht bei BF4 oder COH2 z.B. Da wirds schon bei 1440p recht knapp trotz weniger AA. In kommenden Titel wie Watch Dogs oder Witcher 3 denke ich auch nicht dass das ohne Problem gehen wird. Aber warum macht PCGH nicht mal Benches in 1440p. Ich seh immer nur Full HD oder 4k.

Raff
2014-05-09, 12:38:22
Von kommenden Spielen und den klassischen drei Hardwarefressern spricht doch niemand. :D Die Auswahl abseits von Battlefield, Crysis & Co. ist riesig und da gibt's unzählige Titel, die gut in UHD laufen – mit reinem FXAA sowieso.

Übrigens: Der PCGH-Leistungsindex für Grafikkarten verrechnet die Fps in 1080p und 1600p, letzteres bildet ziemlich genau die doppelte Pixelmenge ab. Die 1600p-Werte gibt's regelmäßig im Heft, aber nur selten online. 2160p ist im Kommen und als Trendthema mittlerweile oft getestet, aber noch nicht im Index enthalten.

MfG,
Raff

occ-kh@Mirko
2014-05-09, 12:54:06
@fondness
Hä? Wieso, siehe unten...?


wenn der Preis irrelevant ist, dann steck ich mir gleich was anstaendiges rein, und das nennt sich Quadro Man kann sich gerne ein paar Quadros in seinen Spielerechner stecken, bin gespannt wie weit man kommst. Super professionell...die verkauft dir kein Serverhersteller für solchen Tant und ein Zertifikat bekommst du dafür sicher nicht.

Aber hey, irgendwelche Bastelbuden kaufen den Scheiss sicher.
Naja...

Inhaltliche Wiedergabe: Keplerarchitektur, CUDA, CUDA im Mobilesektor: Nun hat .... offenbar die Nase voll und ändert die Ausrichtung dieses Geschäftsbereiches radikal. Grafikeinheiten mit Kepler-Architektur und deren Nachfolger will Nvidia nun für beliebige Kunden lizenzierbar machen, inklusive sämtlicher Designs und Visual-Computing-Patente....Wer die Pläne der Firma studiert, weiß warum: Es geht um CUDA, also Nvidias eigenes Programmiermodell für GPU-Computing. Kepler-GPUs sind fähig, universelle Berechnungen über CUDA auszuführen...GPUs via CUDA beispielsweise können sehr anspruchsvolle Photoeffekte ausführen, Augmented-Reality-Berechnungen übernehmen oder die Echtzeit-Videobearbeitung beschleunigen. Und natürlich sollen auch Lizenzgebühren kräftig Geld in Nvidias Kassen spülen.

"Nvidia hat den Kampf um die Xbox One und Playstation 4 verloren. Microsoft und Sony waren offenbar von AMDs HSA-Kombiprozessoren mit GCN-GPUs überzeugt."
Distanzierung von jeglicher Werbung inbegriffen! @Gesamtbeitragstext wurde nachträglich abgeändert.

Die Z bleibt Konkurrenzprodukt zur 295x und auch wenn welche jammern das alles viel zu teuer ist. Dabei geht man von welchen Verhältnissen aus? Nach solchen Argumenten dürfte es kein Auto geben das teurer als ein Dacia ist. Die Kiste fährt von a nach b und ist sitze besser als in einem Ferrari. Alle müssten in dem selben Papphaus wohnen, mit dem gleichen Anstrich...

Warum will mir jemand vorschreiben was ich zu welchem Preis kaufe? Wegen monopolistischer Unanständigkeit und Größenwahn? Das ist mein Ding und geht keinen was an. Ich bekomme was ich bezahlen kann und meine zu brauchen.

Wenn Nvidia meint sie müssen mir etwas für 3t anbieten, ja gut, ich muss es ja nicht nehmen. Wenn AMD meint sie müssen einen 8xPIN Stromanschluss weglassen, ja gut, ich muss es nicht nehmen. (wobei das marketingtechnisch mal wieder so ein Ding ist, eine Karte ist nicht kaufbar bzw. wird sie wohl wegen des Konkurrenzdruck ggf. nicht erscheinen, die andere kann man nur out Specs betreiben, super, die haben beide einen an der Waffel)

Es ging um die grundsätzliche Diskussion und um die Aussage der schnellsten Gamingkarte zu welchem Preis! Oder als was wurde die Z vermarktet und was tut AMD mit der 295x?

http://www.amd.com/de-de
http://www.nvidia.de/object/announcing-the-geforce-gtx-titan-z-25032014-de.html

Steht da was, dass man sich die Karte über einen Serverhersteller bestellen soll?

Iruwen
2014-05-09, 13:10:26
Wie sieht eigentlich der Downsamling Support mittlerweile im Vergleich AMD/NV aus? Kann man bei AMD die Leistung mittlerweile überall nutzen?

fondness
2014-05-09, 13:13:57
Wie sieht eigentlich der Downsamling Support mittlerweile im Vergleich AMD/NV aus? Kann man bei AMD die Leistung mittlerweile überall nutzen?

Und die nächste Scheindiskussion, die ganze 0,01% der User betrifft wird eröffnet. Bei AMD geht es im Gegensatz zu NV jedenfalls ohne BIOS-Mod und damit Garantieverlust.

Raff
2014-05-09, 13:14:35
Wie sieht eigentlich der Downsamling Support mittlerweile im Vergleich AMD/NV aus? Kann man bei AMD die Leistung mittlerweile überall nutzen?

Nö. Aber es gibt Hoffnung – dieses neue Supertool schafft unter DX9 oft Abhilfe: http://blog.metaclassofnil.com/?tag=gedosato

Und die nächste Scheindiskussion, die ganze 0,01% der User betrifft wird eröffnet. Bei AMD geht es im Gegensatz zu NV jedenfalls ohne BIOS-Mod und damit Garantieverlust.

Bei Nvidia braucht man die BIOS-Mod nur für Abart-Auflösungen.

MfG,
Raff

fondness
2014-05-09, 13:16:32
Bei Nvidia braucht man die BIOS-Mod nur für Abart-Auflösungen.

MfG,
Raff

Wieviel geht ohne? Dieser Beitrag ist einen Monat alt:

Hab jetzt nVidia und muss sagen, DS ist dort zwar insgesamt komfortabler einzurichten, aber ohne BIOS-Mod kann man bei AMD mal eben mehr Hertz fahren (mit entsprechendem Gefrickel, aber 2720*1530@113Hz vs. 90Hz). Fürs SSAA-Tool kann man außerdem mal eben GPU-Skalierung aktivieren und die zugefügten Auflösungen sind solang deaktiviert. Das ist praktisch, da das SSAA-Tool immer von der höchsten verfügbaren Auflösung ausgeht. Oder gibt es eine Möglichkeit, die bei nV auch mal eben zu deaktivieren? (wenn man das übers Controlpanel macht, sind die im Windows trotzdem alle auswählbar und werden vom SSAA-Tool erkannt).

Höhere Auflösungen als 2880*1620 sehen bis jetzt irgendwie auch nicht unbedingt toll aus bei meiner nV, warum auch immer (hab aber auch noch nicht so tief gehend untersucht). AMD skaliert soweit ich weiß außerdem besser mit höheren Auflösungen (Ein Jammer und ne Mega-Dummheit, dass AMD das Thema links liegen lässt bei der aktuellen Generation). Mit 1530p kriegt man auch schon kein schlechtes Ergebnis und kriegt bei entsprechendem Monitor wenigstens ein paar Frames mehr real angezeigt, wenn die Leistung für mehr vorhanden wäre. Andererseits hat AMD auch wieder Bugs mit 144Hz Monitoren, die bei nVidia wohl niemals da waren.

Raff
2014-05-09, 13:22:43
Das sind Ausnahmen. 2.880 x 1.620 läuft auf beinahe jedem Full-HD-LCD in Kombination mit einer Geforce 700, ohne dass man irgendwas frickeln (Gesamtpixel ändern o. Ä.) oder ein Zusatztool installieren muss. :)

MfG,
Raff

kruemelmonster
2014-05-09, 13:46:23
Und die nächste Scheindiskussion, die ganze 0,01% der User betrifft wird eröffnet. Bei AMD geht es im Gegensatz zu NV jedenfalls ohne BIOS-Mod und damit Garantieverlust.

Was heißt hier Scheindiskussion? Ich nutze auf meinem GK104 + 1200p TFT regelmäßig Auflösungen von 1600p bis 2400p, und habe den Biosmod erst für Auflösungen >2000p gebraucht. Bis 2000p ging alles ohne Modifikationen. (Mit der AMD-Karte im Zweitrechner geht n Scheiß, und mir ist es auch zu mühselig. Es ist peinlich das Downsampling das nächste Thema bei AMD ist wo nur die Hoffnung auf einen künftigen Treiber bleibt. Ich will es heute und nicht irgendwann eventuell.)
Ja, das geht dann nur in älteren Spielen, und wer jetzt reflexartig alten Spielen ihre Gültigkeit abspricht nur weil sie auf AMD nur mittelgeil aussehen können hat sich selber disqualifiziert.

Btw, bei NV darf man das Power und Temptarget aufs Maximum setzen, bei weiterhin intakter Garantie. Heul nicht rum wegen eines Bios Mods wenn AMD schon einen zweiten Biosbaustein samt Schalter auf die Platinen packt weil die User so gern rumspielen/crossflashen/whatever.

Iruwen
2014-05-09, 13:47:54
Und die nächste Scheindiskussion, die ganze 0,01% der User betrifft wird eröffnet. Bei AMD geht es im Gegensatz zu NV jedenfalls ohne BIOS-Mod und damit Garantieverlust.
Kein Grund gleich rumzupissen, ich wollts einfach nur wissen. Da nur 0,01% der User sich für solche Karten interessieren, UHD-Displays rar und teuer sind und man die brachiale Leistung auch irgendwie nutzen möchte ist die Frage wohl berechtigt.

4Fighting
2014-05-09, 13:55:49
Das sind Ausnahmen. 2.880 x 1.620 läuft auf beinahe jedem Full-HD-LCD in Kombination mit einer Geforce 700, ohne dass man irgendwas frickeln (Gesamtpixel ändern o. Ä.) oder ein Zusatztool installieren muss. :)

MfG,
Raff

gehen mit Blaire's timings nicht sogar 4k auf nahezu jeden 1080p Monitor?

Raff
2014-05-09, 13:56:40
So weit verallgemeinern wollt ich's dann doch nicht, da man hier aus Allem 'nen Strick gedreht bekommt. ;) Die Timings funktionieren sehr oft, ja.

MfG,
Raff

Godmode
2014-05-09, 14:02:45
So weit verallgemeinern wollt ich's dann doch nicht, da man hier aus Allem 'nen Strick gedreht bekommt. ;) Die Timings funktionieren sehr oft, ja.

MfG,
Raff

Jedes Wort kann gegen dich verwendet werden, so läuft in den Foren...

Mit der Titan und 120hz Benq gehen 4k ohne Probleme. Einzig die Gesamtpixel müssen dafür angepasst werden. BIOS Mod für DS brauchte ich definitiv nie. Bei nur 1,5x DS gehen sogar 120hz :)

Ailuros
2014-05-09, 14:21:27
Es wird sich wohl bei einigen der Ton wieder normalisieren koennen, denn keiner hat Verwarnungen gern. Merci bien.

Skysnake
2014-05-09, 14:23:22
Was heißt hier Scheindiskussion? Ich nutze auf meinem GK104 + 1200p TFT regelmäßig Auflösungen von 1600p bis 2400p, und habe den Biosmod erst für Auflösungen >2000p gebraucht. Bis 2000p ging alles ohne Modifikationen. (Mit der AMD-Karte im Zweitrechner geht n Scheiß, und mir ist es auch zu mühselig. Es ist peinlich das Downsampling das nächste Thema bei AMD ist wo nur die Hoffnung auf einen künftigen Treiber bleibt. Ich will es heute und nicht irgendwann eventuell.)
Ja, das geht dann nur in älteren Spielen, und wer jetzt reflexartig alten Spielen ihre Gültigkeit abspricht nur weil sie auf AMD nur mittelgeil aussehen können hat sich selber disqualifiziert.

Btw, bei NV darf man das Power und Temptarget aufs Maximum setzen, bei weiterhin intakter Garantie. Heul nicht rum wegen eines Bios Mods wenn AMD schon einen zweiten Biosbaustein samt Schalter auf die Platinen packt weil die User so gern rumspielen/crossflashen/whatever.
Auf der einen Seite nen BIOS Mod machen, auf der anderen dann aber sagen, das es einem zu mühselig ist, sich mit den Möglichkeiten zu beschäftigen. :freak:


hm.... k. Das nenne ich objektiv.

aufkrawall
2014-05-09, 14:30:19
Du hast doch gar nicht verstanden, was er meint.

Skysnake
2014-05-09, 14:31:37
Eventuell hast du ihn ja nicht verstanden.

aufkrawall
2014-05-09, 14:34:08
Ich denke schon, deshalb kommt mir deine Antwort ja so daneben vor.
Beim Bios-Mod eben die Werte von OC_burner eintragen und flashen dauert vielleicht zwei Minuten und das ist ne einmalige Geschichte.
Bei AMD musst du frickeln wie sonst was und am Ende geht dann doch kaum was oder gar nichts.
Gibt btw. gar keinen Bios-Editor für Hawaii und flashen darf man immer unter DOS.

Edit: Nutze btw. so gut wie nie DS, WQHD + max Details befreit einen meist von diesem lästigen und unproduktiven Frickel-Drang.

gedi
2014-05-09, 15:06:42
Was heißt hier Scheindiskussion? Ich nutze auf meinem GK104 + 1200p TFT regelmäßig Auflösungen von 1600p bis 2400p, und habe den Biosmod erst für Auflösungen >2000p gebraucht. Bis 2000p ging alles ohne Modifikationen. (Mit der AMD-Karte im Zweitrechner geht n Scheiß, und mir ist es auch zu mühselig. Es ist peinlich das Downsampling das nächste Thema bei AMD ist wo nur die Hoffnung auf einen künftigen Treiber bleibt. Ich will es heute und nicht irgendwann eventuell.)
Ja, das geht dann nur in älteren Spielen, und wer jetzt reflexartig alten Spielen ihre Gültigkeit abspricht nur weil sie auf AMD nur mittelgeil aussehen können hat sich selber disqualifiziert.

Btw, bei NV darf man das Power und Temptarget aufs Maximum setzen, bei weiterhin intakter Garantie. Heul nicht rum wegen eines Bios Mods wenn AMD schon einen zweiten Biosbaustein samt Schalter auf die Platinen packt weil die User so gern rumspielen/crossflashen/whatever.


Einzelne Bilder sind tatsächlich am schärfsten/besten wenn du sie mit einer Spiegelreflex ggf. mit Filtern knipst. Und wenn du bereitwillig bist dies zu tun und dann in Abfolge von 2 Bildern/sec machst, dann hast du die Performance deiner GPU schon bei weitaus besserer BQ geknackt ;D;D;D

Godmode
2014-05-09, 15:07:54
Auf der einen Seite nen BIOS Mod machen, auf der anderen dann aber sagen, das es einem zu mühselig ist, sich mit den Möglichkeiten zu beschäftigen. :freak:


hm.... k. Das nenne ich objektiv.

Ich habe seinen Beitrag eher so verstanden, das man bei Nvidia ohne etwas frickeln zu müssen, DS bis zu einem bestimmten Grad bekommt. Wenn man mehr will, muss man das BIOS angreifen. Seid nicht immer gleich so gehässig aufeinander.

occ-kh@Mirko
2014-05-09, 16:30:44
Na klar wird es immer schwerer werden die Karte dazu zu bewegen dort etwas anderes auszugeben als der Monitorhersteller vorgesehen hat und meint! Die wollen Ihre UHD-4K Geräte verkaufen.

Es muss doch jedem klar sein das Downsampling für den "Bastelwilligen" schon heute eine gute Lösung sein kann, sich in den Genuss hochauflösender Texturen abseits von dem derzeit Gebotenen zu bringen. Aber mehr wird das einfach nicht werden. Was die Grakahersteller da bewerben, nutzen sie im Eigeninteresse. Darüber muss man gewiss nicht streiten. Und über die möglichen Lösungsansätze bestimmt auch nicht. Besser wäre ihr tauscht euch aus, wies am besten geht, dann haben alle Interessenten etwas davon. Da gibt es ja schon Hilfebereiche.

Zurück zum Thema, obwohl ich jedem derzeit sicherlich empfehlen würde, sich statt einer Z lieber 2 oder mehr Blacks in den benutzten Spiele-Tower zu stecken, würde ich die Z als Sammlerobjekt nicht ablehnen. Ja, vllt. hab ich einen zu laufen. Ich kenne mehrere dies machen würden. Aber egal. Gestern ist nachträglich zum Ehrentag eine Referenz 295x gekommen, die hat ihren würdigen Platz gefunden. Sollte sie in Betrieb genommen werden fliegt das Gedöns von Asetek eh runter (was nichts mit deren Quali zu tun hat). Seit vielen Jahren hat kein einziges Bord (egal ob AMD oder nVidia) den Weg in einem meiner Rechner geschafft ohne ein @Wakü Upgrade oder höheres, Garantie-Preis egal. Ich verkaufe davon nichts und wenns die Füße hochreisst weiß ich warum. Karten wie die Z sind nicht für jedermann Spieler!!! Meine Meinung, dabei bleibst.

Gut denke ihr wisst was ich meine :up:.

fondness
2014-05-09, 20:40:25
NVIDIA is struggling to get every drop of performance out of GTX TITAN Z. The situation is so serious that the company had to postpone the launch for the second time.

GeForce GTX TITAN Z was first announced at GTC 2014, where we learned it is scheduled for April. As it turned out, the card was not ready to compete with the latest dual-GPU from AMD — R9 295X2.

It’s even more interesting if I tell that many stores already have the card listed. NVIDIA basically told retailers not to sell it yet (source: GDM and OCUK).

http://videocardz.com/50460/nvidia-geforce-gtx-titan-z-delayed

Aus dem Conference Call zu den Quartalszahlen:
“At the very high end, we announced our newest flagship GPU, the GeForce GTX Titan Z,” said Chris Evenden, the director of investor relations at Nvidia, during a conference call with financial analysts and investors. “This is the highest performance graphics card we have ever designed. The Titan Z will please both PC enthusiasts and CUDA developers and will be available in Q2.”

Q2 geht bei NV von Mai bis Juli.

occ-kh@Mirko
2014-05-09, 21:13:48
She comes...

4Fighting
2014-05-09, 21:16:40
http://videocardz.com/50460/nvidia-geforce-gtx-titan-z-delayed

Aus dem Conference Call zu den Quartalszahlen:


Q2 geht bei NV von Mai bis Juli.

Wenn der Verkauf untersagt wird, heißt es doch das die Karte schon irgendwo bei Distributoren rumliegt...

Das bringt mich zu der Frage, wie will man bei einem fertigen Produkt noch was ändern? Werden diese Exemplare zwecks "Bios-Update" oder was auch immer NV ändern will, zurückgeschickt?

occ-kh@Mirko
2014-05-09, 21:54:08
NDA. Die halten alle die Klappe bis zum offiziellen Launch. Wirst du nichts erfahren, wenns kein Leak gibt. Bei/zu dem Thema eh nicht.

fondness
2014-05-09, 22:02:31
Das scheinen wohl nicht alle so eng zu sehen:

I have stock, they best not cancel it. :D

http://forums.overclockers.co.uk/showpost.php?p=26278661&postcount=26

Skysnake
2014-05-10, 06:47:47
Naja, über ein "Treiberupdate" kann man noch so einiges drehen, auch wenn die Karte nicht mehr im Haus ist.

Gerade das Powermanagement sollte noch einiges an Spielraum zulassen.

Ich habe seinen Beitrag eher so verstanden, das man bei Nvidia ohne etwas frickeln zu müssen, DS bis zu einem bestimmten Grad bekommt. Wenn man mehr will, muss man das BIOS angreifen. Seid nicht immer gleich so gehässig aufeinander.
Naja, würdest du das hier als "frickeln" bezeichnen? http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Downsampling-Bessere-Grafik-in-jedem-Spiel-auch-in-Crysis-2-Update-mit-Geforce-Treiber-29551-817462/

Also ich nicht wirklich, denn wenn man es weiß, gehts schnell, und ohne sich zu informieren gehts auch bei nVidia nicht. Von daher machts nicht wirklich nen Unterschied. Daher finde ich die Argumentation auch wie gesagt fragwürdig, dahingehend, das es bis zu einem "gewissen grad ohne frickeln geht". Das tuts nämlich bei beiden, nur eben nicht gleich weit, und aus dieser Zufälligen Grenze jetzt etwas zu konstruieren bzgl gut<->schlecht ist ziemlich willkührlich in meinen Augen.

kruemelmonster
2014-05-10, 13:55:43
Ich denke schon, deshalb kommt mir deine Antwort ja so daneben vor.
Ich habe seinen Beitrag eher so verstanden, das man bei Nvidia ohne etwas frickeln zu müssen, DS bis zu einem bestimmten Grad bekommt. Wenn man mehr will, muss man das BIOS angreifen.

Korrekt, ist ja auch nicht so schwer zu verstehen wenn man halbwegs in der Materie steckt und man trotz IHV-Präfarenz noch Farben unterscheiden kann (gell, @Skysnake :P).

Auch ohne jegliche Modifikationen kommt man bei NV mittels DS schon mächtig weit. Benutzerdefinierte Auflösung erstellen und fertig, dass reicht fürs Hausfrauen-Downsampling schon. Mit einer simplen Änderung, welche die crossflashbegeisterte AMD-Anhängerschaft (8500->9100,9500->9700,...,290->290X) wahrscheinlich als Kinderkram bezeichnen würde, geht bei mir mittlerweile sogar 4K 16:10 Downsampling.

Mit der AMD frickel' ich mir n Wolf mit exportierten Registry-Keys für allerhöchstens 1730p, bei denen ich nie weiß ob sie auch InGame tatsächlich erscheinen, mir die GPU-Skalierung vllt einen Strich durch die Rechnung macht oder das nächste Treiberupdate einfach alles wieder mit dem Allerwertesten einreißt.

....Zufälligen Grenze....etwas zu konstruieren.....ziemlich willkührlich in meinen Augen.

Versuchs mal ohne die Brille. ;)

Skysnake
2014-05-10, 20:00:21
Dann schau doch lieber nochmal in den Link rein, den ich gepostet habe.

Bis 2.560 x 1.600 geht es ja laut PCGH ohne Probleme, und eben auch ohne Gefrickel mit dem dort vorgestellten Tool. Ok, bei nVidia bis 2880 x 1620 laut Raff.

Das ist jetzt sicherlich ein Unterschied, aber eben auch kein gewaltiger. Danach muss man eh bei BEIDEN! anfangen wirklich richtig rum zu frickeln.

Und nein, die Vorgehensweise mit dem Custom Resolution Utility als "Gefrickel" zu bezeichnen akzeptiere ich nicht von jemandem, der sogar nen BIOS flasht.

Von jemandem, dem der MSI-Afterburner für OC schon zu viel gefrickel ist ok, da sag ich nichts, aber bei nem BIOS-Modder ist das nen Alibiargument.

aufkrawall
2014-05-10, 20:02:24
Nur doof, dass selbst der Dev von CRU ToastyX sagt, dass es nicht für DS geeignet ist, und komischerweise hier auch (fast?) niemand damit DS ans Laufen bekommt.

kruemelmonster
2014-05-10, 21:50:29
Bis 2.560 x 1.600 geht es ja laut PCGH ohne Probleme, und eben auch ohne Gefrickel mit dem dort vorgestellten Tool. Ok, bei nVidia bis 2880 x 1620 laut Raff.

Das ist jetzt sicherlich ein Unterschied, aber eben auch kein gewaltiger. Danach muss man eh bei BEIDEN! anfangen wirklich richtig rum zu frickeln.

Hör bitte mal auf PCGH zu zitieren und liefere zur Abwechselung mal eigene Erfahrungen. Hier im Downsampling-Thread findest du auch ausreichend Wortmeldungen von Usern um dir zusätzlich ein Bild machen zu können.


Und nein, die Vorgehensweise mit dem Custom Resolution Utility als "Gefrickel" zu bezeichnen akzeptiere ich nicht von jemandem, der sogar nen BIOS flasht.

Von jemandem, dem der MSI-Afterburner für OC schon zu viel gefrickel ist ok, da sag ich nichts, aber bei nem BIOS-Modder ist das nen Alibiargument.

Das zeigt wieder schön wie wenig Praxis du in diesen Dingen hast. Das Bios hatte ich eh schon abgeändert, da nochmal vier Zahlenwerte anheben ist nun wahrlich keine Raketentechnik UND man macht es einmal und danach nie wieder. Beim AMD-Treiber kann sich (und wird sich hoffentlich noch) jede Menge bzgl DS ändern; alles was ich jetzt mit geringen Erfolgschancen einrichte kann nächsten Monat schon wieder für'n Dutt sein.

Und ja, das ist ein gewaltiger Unterschied.

dildo4u
2014-05-12, 14:42:55
First NVIDIA GeForce GTX TITAN Z review leaks out

http://abload.de/img/geforce-gtx-titan-z-pb8j6j.png

450TDP
http://abload.de/img/gtx-titan-z-noise-andxakg3.png

http://videocardz.com/50491/first-nvidia-geforce-gtx-titan-z-review-leaks

Blediator16
2014-05-12, 15:05:04
Bei den Werten ist der Boost sicher nicht bei 876mhz.

dildo4u
2014-05-12, 15:09:52
Wie schon spekuliert wurde sie boostet über 1ghz,daher auch der hohe Verbrauch 876 ist vermutlich mit 300Watt TDP.

Raff
2014-05-12, 15:14:56
300? Eher 375.

MfG,
Raff

Godmode
2014-05-12, 15:15:18
Wäre interessant wie lange die Karte 1 GHz dann halten kann.

dildo4u
2014-05-12, 15:21:04
Mich wundert das die Titan Black so gut ist beim 3DMark müsste ein 780TI SLI nich genau zwei mal so schnell sein?

fondness
2014-05-12, 15:41:17
Die Leistungsaufnahme liegt nur 60W unter einer 295X2, also saugt das Ding auch 500W. Leistung bin ich gespannt was dann wirklich raus kommt, die paar Werte sind noch zu wenig für ein brauchbares Bild, aber sieht so aus als würde man grob 295X2 Leistung erreichen.

dildo4u
2014-05-12, 15:44:25
Die Leistungsaufnahme liegt nur 60W unter einer 295X2, also saugt das Ding auch 500W. Leistung bin ich gespannt was dann wirklich raus kommt, die paar Werte sind noch zu wenig für ein brauchbares Bild.
Ich denke die werden die Karten nicht wie die PCGH richtig ausgelastet haben,Titan z wird ziemlich sicher bei 450 begrenzt sein.

fondness
2014-05-12, 15:46:23
Ich denke die werden die Karten nicht wie die PCGH richtig ausgelastet haben,Titan z wird ziemlich sicher bei 450 begrenzt sein.

Getestet wurde die Leistungsaufnahme immerhin mit dem 3dmark Firestrike und da ist die 295X2 deutlich schneller als die Titan Z. Ich bin schon gespannt auf den Aufschrei weil die Streckspecs verletzt wurden.

Godmode
2014-05-12, 16:16:20
Getestet wurde die Leistungsaufnahme immerhin mit dem 3dmark Firestrike und da ist die 295X2 deutlich schneller als die Titan Z. Ich bin schon gespannt auf den Aufschrei weil die Streckspecs verletzt wurden.

Wenn sie die Kabel auch so stark überlasten wie bei der 295X2, wird der Aufschrei ähnlich ausfallen. Über sowas kann man sich einfach nur wundern. Vielleicht dachten sie ja auch: Wenn wir nur die Kabelnorm überfahren merkt das niemand; Wenn wir hingegen die PCIe Norm von 375W überfahren merkt das jeder.

4Fighting
2014-05-14, 07:02:21
"Review"

http://www.legitreviews.com/wp-content/uploads/2014/05/page1.jpg

http://www.legitreviews.com/wp-content/uploads/2014/05/page2.jpg

http://www.legitreviews.com/nvidia-geforce-gtx-titan-z-review-published-hong-kong-magazine_141797

horn 12
2014-05-14, 07:24:49
Bereits bekannt, also schon einige Tage zu spät!

fondness
2014-05-16, 17:44:37
Nvidias kurzfristig auf unbestimmte Zeit verschobene Dual-GPU-Grafikkarte GeForce GTX Titan Z liegt seit nunmehr über zwei Wochen bei Händlern zur Auslieferung bereit. Die sind vom Hersteller zur Verschwiegenheit verpflichtet.

Informationen darüber, wie mit den Produkten zu verfahren ist, liegen den Händlern auch zwei Wochen nach der angeordneten Verschiebung nicht vor. Sowohl die kurzfristige Freigabe der unveränderten Grafikkarten als auch der Austausch der mitgelieferten Treiber-CD oder gar ein Rückversand an den Hersteller stehen damit weiterhin zur Option. „Das hat es bisher noch nicht gegeben“, resümiert ein Händler.

http://www.computerbase.de/2014-05/nvidia-geforce-gtx-titan-z-handel-freigabe/

dildo4u
2014-05-16, 17:50:12
Zeig doch die geile Packung da wird schon mit DX12 geworben,da werden die roten toben.

http://i1145.photobucket.com/albums/o504/Gibbo205/photo-8.jpg~original

fondness
2014-05-16, 17:51:32
Zeig doch die geile Packung da wird schon mit DX12 geworben,da werden die roten toben.


Warum sollen "die roten" wegen dem billigen Marketingstunt toben? Die Karte unterstützt nicht mal DX11 voll und man wirbt mit DX12 das noch fast 2 Jahre in der Zukunft liegt :ugly:

Hübie
2014-05-16, 17:53:18
Langsam wirds zur Farce mit Titan Z... :rolleyes:

Skysnake
2014-05-16, 18:02:36
Warum sollen "die roten" wegen dem billigen Marketingstunt toben? Die Karte unterstützt nicht mal DX11 voll und man wirbt mit DX12 das noch fast 2 Jahre in der Zukunft liegt :ugly:
Naja, jetzt weiß man zumindest sicher, was man von nVidias DX12 Aussagen bzgl Maxwell halten darf.

HarryHirsch
2014-05-16, 19:50:20
Nvidias kurzfristig auf unbestimmte Zeit verschobene Dual-GPU-Grafikkarte GeForce GTX Titan Z liegt seit nunmehr über zwei Wochen bei Händlern zur Auslieferung bereit. Die sind vom Hersteller zur Verschwiegenheit verpflichtet.

Informationen darüber, wie mit den Produkten zu verfahren ist, liegen den Händlern auch zwei Wochen nach der angeordneten Verschiebung nicht vor. Sowohl die kurzfristige Freigabe der unveränderten Grafikkarten als auch der Austausch der mitgelieferten Treiber-CD oder gar ein Rückversand an den Hersteller stehen damit weiterhin zur Option. „Das hat es bisher noch nicht gegeben“, resümiert ein Händler.
http://www.computerbase.de/2014-05/nvidia-geforce-gtx-titan-z-handel-freigabe/


Auf einen Haufen schmeißen und anzünden. :freak: :sneak:

Raff
2014-05-16, 20:05:57
Alternativ den größten SLI-Kritikern zum Herumspielen überlassen (Bekehrungsversuch oder so). Wenn dann noch etwas über ist, sollen auch die Fans je ein Exemplar bekommen. :ugly:

;)

MfG,
Raff

Iruwen
2014-05-16, 21:31:01
Ok, ich fand SLI schon immer doof! :D

occ-kh@Mirko
2014-05-16, 22:24:20
Warum sollen "die roten" wegen dem billigen Marketingstunt toben? Die Karte unterstützt nicht mal DX11 voll und man wirbt mit DX12 das noch fast 2 Jahre in der Zukunft liegt :ugly:
Vorsicht! Das würde ich so nicht unterschreiben.

"GK110-350-B1", niemand kennt die genauen Spezifikationen zu dx-FL 12! Wäre aber komisch, wenn man TR_Tier2 nicht unterstützt aber FL 12. Man muss abwarten was hinter der "350" steckt. Ggf. auch ein DX Update?

Eine DX 12 Techdemo lief jedenfalls auf der Titan Black.

Verstehe auch nicht warum ein reines Treiberupdate zur Leistungssteigerung jetzt eine Farce ist um mehr Leistung aus einer Karte zu kitzeln? AMD hat es bei den Hawaii; insbesondere dem "Pro", nicht anders gemacht!

Raff
2014-05-16, 23:15:32
Vorsicht! Das würde ich so nicht unterschreiben.

"GK110-350-B1", niemand kennt die genauen Spezifikationen zu dx-FL 12! Wäre aber komisch, wenn man TR_Tier2 nicht unterstützt aber FL 12. Man muss abwarten was hinter der "350" steckt. Ggf. auch ein DX Update?

Genau weiß man's nicht, idR steht die Zahl aber nur für die Ausbaustufe. Höhere Zahl = mehr aktive Einheiten und/oder höherer Takt.

Titan Black: GK110-430-B1
GTX 780 Ti: GK110-425-B1
GTX 780: Erst GK110-300-A1, nun B1 oder gar 301-B1 (6 GiB)
Titan Classic: GK110-400-A1

350-B1 ist IMO nur ein voll ausgebauter, aber niedrig getakteter GK110.

MfG,
Raff

Knuddelbearli
2014-05-16, 23:52:50
war es nicht so das alle dx.11.0 Grafikkarten eingeschränkt Dx12.0 ready sind?

Iruwen
2014-05-16, 23:57:53
DX12 Feature Level 11_x halt.

dildo4u
2014-05-16, 23:58:10
war es nicht so das alle dx.11.0 Grafikkarten eingeschränkt Dx12.0 ready sind?
Nein nur bei Nvidia bei AMD erst ab GCN.

StefanV
2014-05-16, 23:59:43
Zeig doch die geile Packung da wird schon mit DX12 geworben,da werden die roten toben.
http://i1145.photobucket.com/albums/o504/Gibbo205/photo-8.jpg~original
Nö, aber die Chancen einer Class Action Suit steigen gewaltig. Und wenn DX12 dann da ist und nicht soo viel von den DX12 Features letztendlich übrig bleibt, wird es lustig :D

Ist aber wohl etwas, das der Laden braucht, damit man endlich mal mit diesem Bullshit aufhört...

occ-kh@Mirko
2014-05-17, 00:01:04
@Raff
Kann man so sagen, ja, wenn man nach Althergebrachtem geht, nur wir kennen die finalen Spezifikationen nicht und ehrlich, für raten bin ich nicht!..;). Die Specs der TitanZ sind immer noch offen!

@Knuddelbaerli
Ja, eigentlich kams bei DX 12 auf weil M$ die One pushen will. Aber deren Grafikeinheit kann ja das volle DX bis FL 11.2.

Man muss generell abwarten was DX 12 wie spezifiziert. Wenns wieder softwareseitig optional ist, macht nicht Nvidia riesige Fehler sondern M$. Die drucken dann wohl auf den Karton was möglich ist.

Nakai
2014-05-17, 00:55:05
Die werden den Preis senken, mehr nicht. Evtl ein neues BIOS oder bessere Treiber.

Trotzdem ist es ziemlich lächerlich, was NV abzieht. Da hat AMD richtig reingetreten. Wirkliche Auswirkungen wird es trotzdem nicht geben. :P

Hübie
2014-05-17, 02:26:04
Vorsicht! Das würde ich so nicht unterschreiben.

"GK110-350-B1", niemand kennt die genauen Spezifikationen zu dx-FL 12! Wäre aber komisch, wenn man TR_Tier2 nicht unterstützt aber FL 12. Man muss abwarten was hinter der "350" steckt. Ggf. auch ein DX Update?

Eine DX 12 Techdemo lief jedenfalls auf der Titan Black.

Verstehe auch nicht warum ein reines Treiberupdate zur Leistungssteigerung jetzt eine Farce ist um mehr Leistung aus einer Karte zu kitzeln? AMD hat es bei den Hawaii; insbesondere dem "Pro", nicht anders gemacht!

Doch nicht wegen der Treibergeschichte. Es ist eine Farce weil man ankündigt für 3000$ die schnellste GPU auf den Markt zu bringen, diese ausgeliefert wird, aber nirgends verkauft werden darf:freak:
Also peinlicher gehts fast nicht mehr. Selbst AMD macht sich nicht so zum Löffel.

Die Geier kreisen schon seit Monaten!

Godmode
2014-05-17, 03:08:34
Die werden den Preis senken, mehr nicht. Evtl ein neues BIOS oder bessere Treiber.

Trotzdem ist es ziemlich lächerlich, was NV abzieht. Da hat AMD richtig reingetreten. Wirkliche Auswirkungen wird es trotzdem nicht geben. :P

Schön das sie noch zutreten können. Ich hoffe das auch bei AMDs CPUs in 1-2 Jahren noch ein Wunder geschieht.

Schaffe89
2014-05-17, 03:53:32
Zeig doch die geile Packung da wird schon mit DX12 geworben,da werden die roten toben.

Du findest auch wirklich jeden Scheiß gut, wenn er von der richtigen Firma kommt.
Directx12 mit Feature Level 11_0, langsam aber sicher wirds albern, zumindest seitdem bekannt ist, dass Directx12 auch wieder neue Hardware benötigt.

Aber immerhin sollte damit Schluss sein, schließlich ist "Z" der letzte Buchstabe im Alphabet.

Und das hat mit "Toben" nix zu tun, sowas ist einfach nur Betrug.

occ-kh@Mirko
2014-05-17, 04:21:17
Doch nicht wegen der Treibergeschichte. Es ist eine Farce weil man ankündigt für 3000$ die schnellste GPU auf den Markt zu bringen...
Achso, dann hab ich das falsch verstanden. Zu dem Zeitpunkt wo man die Karte angekündigt hatte, wars wahrscheinlich so. Nvidia hat mit der 295 nicht so richtig gerechnet. Jetzt kann man konkurrenzbedingt immernoch nachbessern. Wenn nicht, dann müssen sie den Jüngern wohl klarmachen warum man soviel bezahlen soll.

@Schaffe89
Quatsch! Wie könnte man sonst die Kern Render Engine der API auf die One DX FL D3D12.x anpassen? Sogar Haswell wird DX12 unterstützen, der kommt nicht in 2 Jahren. Welche FL später für den Vollausbau folgen ist nicht klar. War bei DX 11.x aber auch nicht anders. M$ macht den selben Blödsinn wie vorher. Wenn DX 12 erstmal nur aus D3D12.x besteht und eine bessere Kernverteilung mitbringt, könnten derzeitge Chips das unterstützen und man ist DX12 fähig. Das das auf Nvidia auch funzt haben sie mit Treibern und Win8 schon bewiesen. Wie gesagt es kommt drauf an was M$ vorschreibt, wenn das Zeugs erstmal wieder nur optional ist, erfüllt man derzeit die Anforderungen ggf. Welchen FL Ausbau die API später fordert ist dabei erstmal egal.

fondness
2014-05-17, 10:42:49
@Raff
Kann man so sagen, ja, wenn man nach Althergebrachtem geht, nur wir kennen die finalen Spezifikationen nicht und ehrlich, für raten bin ich nicht!..;). Die Specs der TitanZ sind immer noch offen!


Entschuldigung aber die Chance das Nvidia für die Titan Z den GK110 fundermental überarbeitet für DX12 Hardware-Features dürften irgendwo im Promillebereich liegen. Und selbst wenn würde man das Ding sicher nicht mehr GK110 nennen, somit ist das bestenfalls Wunschdenken.

Hübie
2014-05-17, 10:45:40
Ich vermute eher dass die nicht mit der Kühllösung gerechnet haben. Aber nVidias PR sagt selber dass dies eine CUDA Karte ist ;)

Chris Evenden: "The Titan Z will please both PC enthusiasts and CUDA developers and will be available in Q2."

fondness
2014-05-17, 10:52:26
@Schaffe89
Quatsch! Wie könnte man sonst die Kern Render Engine der API auf die One DX FL D3D12.x anpassen? Sogar Haswell wird DX12 unterstützen, der kommt nicht in 2 Jahren. Welche FL später für den Vollausbau folgen ist nicht klar. War bei DX 11.x aber auch nicht anders. M$ macht den selben Blödsinn wie vorher. Wenn DX 12 erstmal nur aus D3D12.x besteht und eine bessere Kernverteilung mitbringt, könnten derzeitge Chips das unterstützen und man ist DX12 fähig. Das das auf Nvidia auch funzt haben sie mit Treibern und Win8 schon bewiesen. Wie gesagt es kommt drauf an was M$ vorschreibt, wenn das Zeugs erstmal wieder nur optional ist, erfüllt man derzeit die Anforderungen ggf. Welchen FL Ausbau die API später fordert ist dabei erstmal egal.

Das ist kein Blödsinn, es ist sogar verdammt löblich das MS die besseres Abstraktionsebene der DX12-API eben auch den DX11-Karten zur Verfügung stellt. Das traurige ist das NV diese Kompatibilität ausnützt und so tut als würde man DX12 mit den alten Karten voll unterstützen. Aber das kennen wir ja schon von DX11.1 und DX11.2.

Hübie
2014-05-17, 11:00:43
BWL'ler halt. Was will man da noch sagen?
NVIDIA ist vielleicht gerade wegen des Marketings auch so erfolgreich. Als ich noch Zeit hatte schaute ich mir beinahe jedes Event an und war auch auf der ein oder anderen Veranstaltung und muss zugeben ich hätte denen jedes Produkt sofort aus der Hand gerissen weil deren Präsis auch echt sehr gut gestaltet sind.
Bei meinem Ex-Arbeitgeber hat man vor ein paar Jahren alle FireGL gekickt und nutzt seit dem ausschließlich Quadro-Karten - nur weil ein Fuzzie gut verkaufen konnte ;);)
Dass ihr euch darüber noch aufregt versteh ich ehrlich gesagt gar nicht. Ich achte nicht mal darauf was drauf steht sondern informiere mich selbst so weit über ein Produkt wie es nur geht und entscheide dann obs zu mir sowie meinen Vorstellungen passt.

Thunder99
2014-05-17, 12:12:37
Und zumal DX12 ungleich DX12 ist. Software und Hardware sind 2 paar Stiefel. Mag sein das sie wie bei DX11 Funktionen aus DX11.2 darstellen können aber nach den Spezifikationen halt nicht voll.
D.h. bei DX12 wo auch viel auf der Softwareseite optimiert wird können sie halt so dreist sein und es jetzt schon mit den DX11 Karten bewerben da die Softwaregeschichte anscheinend voll unterstützt wird...

dildo4u
2014-05-17, 12:41:14
Sie können es bewerben da NV die finalen Specs kennt.

M4xw0lf
2014-05-17, 13:22:51
Sie können es bewerben da NV die finalen Specs kennt. auf DX-Specs scheißt.
Repariert.

Iruwen
2014-05-17, 14:19:00
Das möchtest du sicher ausführen.

M4xw0lf
2014-05-17, 14:20:35
Wieso, die DX11.1/2-Posse ist doch hinreichend bekannt.

Arcanoxer
2014-05-17, 14:44:16
Verstehe nicht ganz was hier für ein Larry wegen DX12 gemacht wird, wenn das in ein paar Jahren mal Thema sein sollte ist das "PC-Gaming-Monopol" von Microsoft so weit gebröckelt das es Alternativen gibt.
Und damit meine ich bestimmt nicht Mantle.

Blediator16
2014-05-17, 15:24:00
Verstehe nicht ganz was hier für ein Larry wegen DX12 gemacht wird, wenn das in ein paar Jahren mal Thema sein sollte ist das "PC-Gaming-Monopol" von Microsoft so weit gebröckelt das es Alternativen gibt.
Und damit meine ich bestimmt nicht Mantle.

OGL und Linux(SteamOs). Träum weiter:biggrin:

Iruwen
2014-05-17, 15:27:02
Wieso, die DX11.1/2-Posse ist doch hinreichend bekannt.
Dann hast du wohl eher die Specs nicht verstanden.

occ-kh@Mirko
2014-05-17, 15:36:45
Verstehe nicht ganz was hier für ein Larry wegen DX12 gemacht wird, wenn das in ein paar Jahren mal Thema sein sollte ist das "PC-Gaming-Monopol" von Microsoft so weit gebröckelt das es Alternativen gibt.Und damit meine ich bestimmt nicht Mantle.
Definitiv und wer das dann bestimmen könnte sieht man an deinem Avatar...;).

@...
Mal kurz zum Nachdenken...
DirectX 12 braucht dabei keine neue Hardware. Offenbar jede Grafikkarte, die DirectX 11 nutzt, wird auch von der neuen Version profitieren – einen entsprechenden Treiber vorausgesetzt. Zumindest kündigt Nvidia eine Unterstützung ab „Fermi“, der ersten DirectX-11-Generation des GPU-Entwicklers, an.

Nvidias BWL'ler überlegen ggf. gerade die erste DX12 Karte zu launchen! Cleverer Schachzug wenns so kommt und mich jemand fragt. Alles über den Treiber möglich, siehe Mantle und DX12. Nicht umsonst haben die schon lange vor Erscheinen der Ankündigung an DX12 Treibern gearbeitet. Ob die Karte dabei API DX FL 11.2 sein muss...ich denke nicht. Das haben wir dann M$ zu verdanken und nicht AMD oder Nvidia.

Mit dem Treiber auf DX12 Basis kann man sogar die GPU-Performance beeinflussen. Könnte es sein, dass es beim dem verschobenen Launch der Z nicht um Hardwarespecs geht, sondern darum mit welchem Treiber die Z letztendlich erscheint? Und dieser Treiber ggf. vorerst nicht von M$ WHQL zertifiziert wurde?

Der Rest ist mir etwas zu "fanlastig", ich bin raus.

Blediator16
2014-05-17, 16:00:50
Definitiv und wer das dann bestimmen könnte sieht man an deinem Avatar...;).

@...
Mal kurz zum Nachdenken...


Nvidias BWL'ler überlegen ggf. gerade die erste DX12 Karte zu launchen! Cleverer Schachzug wenns so kommt und mich jemand fragt. Alles über den Treiber möglich, siehe Mantle und DX12. Nicht umsonst haben die schon lange vor Erscheinen der Ankündigung an DX12 Treibern gearbeitet. Ob die Karte dabei API DX FL 11.2 sein muss...ich denke nicht. Das haben wir dann M$ zu verdanken und nicht AMD oder Nvidia.

Mit dem Treiber auf DX12 Basis kann man sogar die GPU-Performance beeinflussen. Könnte es sein, dass es beim dem verschobenen Launch der Z nicht um Hardwarespecs geht, sondern darum mit welchem Treiber die Z letztendlich erscheint? Und dieser Treiber ggf. vorerst nicht von M$ WHQL zertifiziert wurde?

Der Rest ist mir etwas zu "fanlastig", ich bin raus.

Nein AMD hat einfach das bessere Produkt geliefert.

occ-kh@Mirko
2014-05-17, 16:15:23
Nein AMD hat einfach das bessere Produkt geliefert.
Wieso? Weil die DX12 API auf DX11-Hardware aufsetzt? Versteh den Zusammenhang nicht ganz?

Das die Z nicht erscheint könnte ganz einfach an M$ liegen und dem DX12 Label, die sind wohl mit der Performance nicht einverstanden? Oder sowas...

Blediator16
2014-05-17, 16:20:42
Wieso? Weil die DX12 API auf DX11-Hardware aufsetzt? Versteh den Zusammenhang nicht ganz?

Das die Z nicht erscheint könnte ganz einfach an M$ liegen und dem DX12 Label, die sind wohl mit der Performance nicht einverstanden? Oder sowas...

Du interpretierst die Treibersache einfach zu sehr. Nvidia hat den Panikknopf gedrückt und alles auf Treiber geschoben. Nvidia hat Probleme mit den Treibern :rolleyes:

Kepler ist nichts neues mehr da gibts nichts mit Wundertreiber mehr. Der letzte Treiber war schon kein Wundertreiber.

occ-kh@Mirko
2014-05-17, 16:34:58
Du interpretierst die Treibersache einfach zu sehr. Nvidia hat den Panikknopf gedrückt und alles auf Treiber geschoben. Nvidia hat Probleme mit den Treibern :rolleyes:

Kepler ist nichts neues mehr da gibts nichts mit Wundertreiber mehr. Der letzte Treiber war schon kein Wundertreiber.
Will dich nicht beleidigen, aber überleg mal was die R9 Serie so ist! Oder die im Bereich Mobilesegment gelegene Serien. Ich denke mal da nehmen sich beide nix.

Hawaii war ja in 20nm angekündigt, da gehen die Hersteller bei Hardware und Treiberfortentwicklung wohl unterschiedliche Wege, weils vorerst einfach am ausbeutefähigen Fertigungsvermögen hapert. Das hat mit DX11 vs. DX12 vs. Mantle aber nix zu tun.

Denke mal seitdem AMD an Mantle gefeilt hat, hat wohl Nvidia auf DX12 gesetzt? Kann ja nicht sein das jemand 4-5 Monate vorher an einer DX12 Demo feilt und just nach Erscheinen der Mantle API mit der Programmierung fertig wird, wenn unter denen nicht bekannt ist, dass DX12 imho erscheint.

Denke mal die verarschen uns gehörig und damit ist bestimmt nicht Nvidia allein gemeint.