PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX Titan Z: (P)Review-Thread


Seiten : 1 2 [3] 4

kruemelmonster
2014-05-17, 17:05:35
Das die Z nicht erscheint könnte ganz einfach an M$ liegen und dem DX12 Label, die sind wohl mit der Performance nicht einverstanden? Oder sowas...

Seriously?

NV wird die Z anhand der 2x 8pin der 295 X2 geplant haben, wurde dann von dem 500w Powertarget und der sich daraus ergebenden Performance überrascht und wird sich nun überlegen wie man dem entgegentritt: neuer Treiber mit höherem Temptarget, evtl in Kombination mit neuem Bios für höhere Default Taktraten und/oder Powertarget, oder sogar das Zurücksenden der Karten an NV weil all diese Maßnahmen vllt ausreichen würden, dann aber den Kühler überfordern würden.

Zu DX12 @ 11er HW:

Gosalia demonstrated the new API with a tech demo of the Xbox One racing game Forza running on a PC powered by an NVIDIA GeForce Titan Black. In addition, our software team has provided a driver to game studios to facilitate further design feedback as well as actual game development. Quelle (http://blogs.nvidia.com/blog/2014/03/20/directx-12/)

Evtl wird DX12 ja "zweistufig" wie es DX9 mit SM2 und SM3 war...ein DX12.0 "Softwareupgrade" auf aktueller Fermi+ bzw GCN+ SM5 Technik und ein DX12.1 auf dann neuer SM6 Hardware.

fondness
2014-05-17, 17:21:23
Es gibt ganz einfach mehrere Feature Level, wie schon bei DX11. Auch DX11 unterstützt sämtliche GPUs bis hinunter zu SM2, selbst eine 9700pro ist so gesehen "DX11".
http://msdn.microsoft.com/en-us/library/windows/desktop/ff476876%28v=vs.85%29.aspx

NV nützt das aus und vermischt das Feature Level mit der DirectX-Version. Das ist zwar streng genommen nicht falsch, man suggeriert damit aber mehr Hardware-Features als tatsächlich vorhanden sind.

occ-kh@Mirko
2014-05-17, 17:22:43
Evtl wird DX12 ja "zweistufig" wie es DX9 mit SM2 und SM3 war...ein DX12.0 "Softwareupgrade" auf aktueller Fermi+ bzw GCN+ SM5 Technik und ein DX12.1 auf dann neuer SM6 Hardware.
So sehe ich das auch, daher...der Rest von mir ist reine Spekulation, daher mit Fragezeichen.

Es gibt ganz einfach mehrere Feature Level, wie schon bei DX11. Auch DX11 unterstützt sämtliche GPUs bis hinter zu SM2, also selbst eine 9700pro ist so gesehen "DX11".
Definitiv, daher versteh ich den ganzen Nvidia vs AMD Hickhack nicht. Was man jetzt genau erfüllen muss, unklar. Kann man dann kritisieren, wenn man es weiss. Auf jeden Fall will/wollte Nvidia die erste DX12 Karte launchen. Nochmal...clever. Man nutzt wohl die Schwäche aus, dass sich AMD vorerst auf Mantle konzentiert hat. Also ggf. 0 = 0.

NV nützt das aus und vermischt das Feature Level mit der DirectX-Version. Das ist zwar streng genommen nicht falsch, man suggeriert damit aber mehr Hardware-Features als tatsächlich vorhanden sind.
Eigentlich nicht, im Treiber steht genau was unterstützt wird...API DX FL 11.1, dort sind bestimmte Specs "optional" zu erfüllen und D3D11.1 wird erfüllt. Ob DX11 nach Erscheinen von DX12 dann noch genauso relevant wird/ist, dürfte bisher nicht klar sein. Es kann gut möglich sein, dass man die DX11 Specs nicht mehr braucht und 12 alles ersetzt.

fondness
2014-05-17, 17:31:24
Definitiv, daher versteh ich den ganzen Hickhack nicht. Was man jetzt genau erfüllen muss, unklar. Kann man dann kritisieren, wenn man es weiss.

Kepler wird nicht FL12 unterstützt, deshalb sind die Angaben zumindest fragwürdig.


Auf jeden Fall will/wollte Nvidia die erste DX12 Karte launchen. Nochmal...clever. Man nutzt wohl die Schwäche aus, dass sich AMD vorerst auf Mantle konzentiert hat. Also ggf. 0 = 0.

Genial sie kleben einen DX12-Sticker auf den Karton, das bringt zwar niemanden etwas da DX12 erst Ende 2015 kommt aber....

Eigentlich nicht, im Treiber steht genau was unterstützt wird..

Auch da gab es teilweise schlicht falsche Angaben, keine Ahnung ob das inzwischen korrigiert wurde.


Ob DX11 nach Erscheinen von DX12 dann noch genauso relevant wird/ist, dürfte bisher nicht klar sein. Es kann gut möglich sein, dass man die DX11 Specs nicht mehr braucht und 12 alles ersetzt.

Natürlich wird DX12 DX11 ersetzen.

kruemelmonster
2014-05-17, 17:46:25
Es gibt ganz einfach mehrere Feature Level, wie schon bei DX11.

Ganz einfach ist hier gar nichts; nichts genaues weiß man nicht, wie es so schön heißt. Ob FL kommen und wie sie dann definiert werden, dass weiß momentan vllt MS, die IHVs und ein paar eingeweihte ISV, da hilft mir ein MSDN Link über bekannte Tatsachen der DX11 Technik auch nicht weiter.

NV nützt das aus und vermischt das Feature Level mit der DirectX-Version. Das ist zwar streng genommen nicht falsch, man suggeriert damit aber mehr Hardware-Features als tatsächlich vorhanden sind.

AMD wird das zu gegebener Zeit genauso "ausnutzen" und GCN-Restbestände als DX12-capable R9 300irgendwas verramschen, kannst die PR-Nummer über das böse NV also stecken lassen.

occ-kh@Mirko
2014-05-17, 17:51:39
Kepler wird nicht FL12 unterstützt, deshalb sind die Angaben zumindest fragwürdig.
Sicher?

Genial sie kleben einen DX12-Sticker auf den Karton, das bringt zwar niemanden etwas da DX12 erst Ende 2015 kommt aber....
Mal an den Tahiti und FL 11.2 gedacht?

Auch da gab es teilweise schlicht falsche Angaben, keine Ahnung ob das inzwischen korrigiert wurde.
Definitiv geändert:

http://www.fotos-hochladen.net/uploads/nvidia8y1mnep9xh.png (http://www.fotos-hochladen.net)

Natürlich wird DX12 DX11 ersetzen.
Unklar, richtet sich ggf. nach Betriebssystemversion? Ab Win8...

Kriton
2014-05-17, 18:50:42
Ganz einfach ist hier gar nichts; nichts genaues weiß man nicht, wie es so schön heißt. Ob FL kommen und wie sie dann definiert werden, dass weiß momentan vllt MS, die IHVs und ein paar eingeweihte ISV, da hilft mir ein MSDN Link über bekannte Tatsachen der DX11 Technik auch nicht weiter.

Es braucht gar keine unterschiedlichen FL. Meine 4850 (DX 10.1) "unterstützt" auch DX 11 - läuft nämlich damit :P


AMD wird das zu gegebener Zeit genauso "ausnutzen" und GCN-Restbestände als DX12-capable R9 300irgendwas verramschen, kannst die PR-Nummer über das böse NV also stecken lassen.

Die Historie zeigt, dass Nvidia dort bereit ist zu lügen extremes Marketing zu betreiben. Bei AMD gab es das bisher zumindest nicht. Von daher ist Deine Aussage zumindest gewagt.

occ-kh@Mirko
2014-05-17, 19:19:35
Die Historie zeigt, dass Nvidia dort bereit ist zu lügen extremes Marketing zu betreiben. Bei AMD gab es das bisher zumindest nicht.
http://www.3dcenter.org/artikel/amds-radeon-hd-580059006800-mit-rueckschritten-bei-der-filterqualitaet

Niveau halten? Da hatte man ja behauptet, man hat es nicht mitbekommen, es sei in Hardware "verschleppt" worden. Wers glaubt? Fairness sieht anders aus.

AMD Marketing funzt also doch, Danke für das Feedback!:cool:

Ätznatron
2014-05-17, 21:41:06
Und das hatte AMD auch fett auf die Verkaufsverpackungen aufdrucken lassen?

StefanV
2014-05-18, 02:38:51
NV nützt das aus und vermischt das Feature Level mit der DirectX-Version. Das ist zwar streng genommen nicht falsch, man suggeriert damit aber mehr Hardware-Features als tatsächlich vorhanden sind.
...und geht das Risiko ein, von diversen Organisationen verklagt zu werden, aufgrund dieses Zustandes...

Da kann man nur hoffen, dass es irgendwann ein paar verärgerte Kunden geben wird, die nVidia verklagen...

occ-kh@Mirko
2014-05-18, 05:13:49
Und das hatte AMD auch fett auf die Verkaufsverpackungen aufdrucken lassen?
Eine Treiberoptimierung auf den Karton drucken? Na Klasse, bin gespannt wer dann die Hardware kauft, wenn man dann noch mehrfach behauptet man filtert genausogut wie die Konkurrenz und sich nebenbei in Benchmarks einen Vorteil verschafft?

Wäre im übrigen auch eine Klage Wert....nur mal so als Denkanstoss!

Also ums mal kurz zu halten, die verarschen uns und nehmen sich da beide garnix. Besser ist da keiner.

Schaffe89
2014-05-18, 06:28:07
Also ums mal kurz zu halten, die verarschen uns und nehmen sich da beide garnix. Besser ist da keiner.


Da Nvidia den Unsinn angefangen hat und aufgrund ihrer Notlage sogar im Treiber falsche Angaben gemacht hat, sowie es falsch kommuniziert hat, ist AMD eben schon besser, zumindest hinsichtlich dieses Sachverhaltes.

Die Filtereinsparungen von AMD sind auch ein leidiges Thema.

Blediator16
2014-05-18, 10:30:27
Eine Treiberoptimierung auf den Karton drucken? Na Klasse, bin gespannt wer dann die Hardware kauft, wenn man dann noch mehrfach behauptet man filtert genausogut wie die Konkurrenz und sich nebenbei in Benchmarks einen Vorteil verschafft?

Wäre im übrigen auch eine Klage Wert....nur mal so als Denkanstoss!

Also ums mal kurz zu halten, die verarschen uns und nehmen sich da beide garnix. Besser ist da keiner.

Die Benchmarks will ich sehen, die das beweisen.

Thunder99
2014-05-18, 10:54:57
Sicher?


Mal an den Tahiti und FL 11.2 gedacht?


Als die Specs veröffentlicht wurde konnte der AMD Chip das Feature Level auch mit GNC 1.0 in Hardware. Ob nvidia das kann mit dem GK110 ist da eher fraglich :wink: . Wobei es ja nicht sicher? ist was genau für Anforderungen alles DX12 mit sich bringt damit man es bewerben darf

AMD hatte schon in der Vergangenheit ihren Chips mehr Features spendiert als die API es vorgesehen hatte. Siehe Tesselation der HD4800er Serie in OpenGL

occ-kh@Mirko
2014-05-18, 12:03:55
Gut ich lass es dabei, die Specs zu dx12 sind nicht bekannt. Sehe ich auch so. Erst wenn man sie genau kennt kann man bewerten was wie wo hingehört.

@Blediator16
Für dich mal etwas Lektüre http://ht4u.net/reviews/2010/amd_radeon_hd_6800_reloaded/index10.php Nach vorn verlagern und nicht mehr vorhanden, ist für mich etwas völlig anderes.

Um jetzt wieder zum Thema zurück zu kommen, im direkten Konkurrenzgebahren wird gerüchtebasirend behauptet:
1. die Hardware muss überarbeitet werden
2. der Treiber muss überarbeitet werden

Daher erscheint die Z später.

Jetzt kommt Drittens, also ein weiteres Gerücht dazu:
3. es gibt Lieferprobleme

Dann haben wir alles zusammen...:).

Blediator16
2014-05-18, 12:29:54
Gut ich lass es dabei, die Specs zu dx12 sind nicht bekannt. Sehe ich auch so. Erst wenn man sie genau kennt kann man bewerten was wie wo hingehört.

@Blediator16
Für dich mal etwas Lektüre http://ht4u.net/reviews/2010/amd_radeon_hd_6800_reloaded/index10.php Nach vorn verlagern und nicht mehr vorhanden, ist für mich etwas völlig anderes.

Um jetzt wieder zum Thema zurück zu kommen, im direkten Konkurrenzgebahren wird gerüchtebasirend behauptet:
1. die Hardware muss überarbeitet werden
2. der Treiber muss überarbeitet werden

Daher erscheint die Z später.

Jetzt kommt Drittens, also ein weiteres Gerücht dazu:
3. es gibt Lieferprobleme (die Nvidia aber dementiert)

Dann haben wir alles zusammen...:).

Warte warte warte. Ich habe nicht behauptet AMD würde durch den Bug Leistung "ercheaten", sondern du warst es. Ich möchte Benchmarks, was deine Behauptung untermauern und keine Filtertests, die eh schon jeder kennt.

M4xw0lf
2014-05-18, 13:25:38
Wenn ich mich richtig erinnere, vertreten unsere Grafikgurus hier ja eher die Ansicht, dass es nicht weniger Leistung kostet, aber trotzdem scheiße aussieht. Lose-lose quasi, und damit wohl kaum ein absichtlicher Schummelversuch. ;)

occ-kh@Mirko
2014-05-18, 13:39:13
@Blediator16

Hier such dir was raus:
http://ht4u.net/reviews/2010/amd_radeon_hd_6850_hd_6870_test/
http://www.pcgameshardware.de/aid,795021/Radeon-HD-6870-und-HD-6850-im-Test-AMDs-zweite-DirectX-11-Generation/Grafikkarte/Test/
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850/
http://hartware.de/review_1171.html
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6870/1.html
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6850/
http://www.techpowerup.com/reviews/ASUS/Radeon_HD_6850_Direct_Cu/
http://www.anandtech.com/show/3987/amds-radeon-6870-6850-renewing-competition-in-the-midrange-market
http://www.bit-tech.net/hardware/graphics/2010/10/22/ati-radeon-hd-6870-review/1
http://www.bit-tech.net/hardware/graphics/2010/10/22/ati-radeon-hd-6850-review/1
http://www.guru3d.com/article/radeon-hd-6850-6870-review/
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/37286-amd-radeon-hd-6870-hd-6850-review.html
http://hothardware.com/Reviews/AMD-Radeon-HD-6870--6850-GPUs-Debut/
http://www.legionhardware.com/articles_pages/amd_radeon_hd_6870,1.html
http://www.pcper.com/article.php?aid=1022
http://www.hardocp.com/article/2010/10/21/amd_radeon_hd_6870_6850_video_card_review
http://vr-zone.com/articles/amd-radeon-hd-6870-and-hd-6850-review/10117.html?doc=10117
http://www.hexus.net/content/item.php?item=27053
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=628&Itemid=72
http://benchmarkreviews.com/index.php?option=com_content&task=view&id=627&Itemid=72
http://techgage.com/article/amd_radeon_hd_6870_hd_6850/
http://www.tweaktown.com/reviews/3601/amd_radeon_hd_6870_1gb_video_card/index.html
http://www.tweaktown.com/reviews/3600/sapphire_radeon_hd_6850_1gb_video_card/index.html
http://www.bjorn3d.com/read.php?cID=1944
http://www.techspot.com/review/325-amd-radeon-6870/
http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850/
http://lab501.ro/placi-video/asus-radeon-hd-6870-si-hd-6850
http://www.neoseeker.com/Articles/Hardware/Roundups/amd_radeon_6870_6850/

Alle Vergleichstest die vor dem Bekanntwerden des "Bug"-Problems veröffentlicht wurden, dürften davon betroffen sein. Ich kann mich nicht hinstellen und behaupten ich filtere genausogut und habe das Problem der Filterschwäche vorhergehender Generationen im direkten Vergleich mit der Konkurrenz beseitigt. Das bezieht sich aufs "Lügen"...

Nvidia hat den Panikknopf gedrückt und alles auf Treiber geschoben.


"AMD hatte den Panikknopf gedrückt und alles auf einen unerkannten BUG geschoben." Den Treiber aber hinsichtlich des Bugs angepasst um eine bessere Filterqualität als bei der HD 5xxx Serie zu suggerieren?

Zum Thema Z: Nvidia interessiert sich nicht was eine "andere Fangemeinde" von ihren Preisen hält. Dann düfte es weder eine Titan noch eine ti geben, die beide soviel teurer als die 290x sind. Gekauft werden sie trotzdem. Wo ein Markt existiert kann man auch Absatz erzielen. Ob dir das persönlich gefällt oder nicht, dein Problem. Ob du eine AMD Grafikkarte als "das besseres Produkt ansiehst" dein Problem. Warum sollte ich deine Probleme lösen?

Mich kotzen einfach nur Typen an die sich hinstellen und behaupten der selbsterwählte Hersteller wäre soviel besser oder ehrenhafter und dabei irgendwelche Phrasen vor sich hinschwafeln, die jedwede Diskussion im Keim ersticken .
Die nehmen sich alle nix. Sollten dir meine Hypothesen nicht gefallen kannst du sie ja wiederlegen. Fan zu sein bedeutet im Übrigen auch negatives zu akzeptieren und sich damit konstruktiv auseinander zu setzen.

Iruwen
2014-05-18, 14:08:46
...und geht das Risiko ein, von diversen Organisationen verklagt zu werden, aufgrund dieses Zustandes...

Da kann man nur hoffen, dass es irgendwann ein paar verärgerte Kunden geben wird, die nVidia verklagen...

Ach so ein Bullshit, auf welcher Grundlage denn und von wem, der FTC? Wenn sie damit werben, dass sie DX12 unterstützen ist das faktisch korrekt solange sie nicht vom entsprechenden FL sprechen. Endanwendern ist das eh total schnuppe und Profis wissen es besser.

Kriton
2014-05-18, 15:41:48
Mich kotzen einfach nur Typen an die sich hinstellen und behaupten der selbsterwählte Hersteller wäre soviel besser oder ehrenhafter und dabei irgendwelche Phrasen vor sich hinschwafeln, die jedwede Diskussion im Keim ersticken .
Die nehmen sich alle nix. Sollten dir meine Hypothesen nicht gefallen kannst du sie ja wiederlegen. Fan zu sein bedeutet im Übrigen auch negatives zu akzeptieren und sich damit konstruktiv auseinander zu setzen.

Eine Hypothese sollte erst einmal ansatzweise belegt werden bevor ich mich damit beschäftige, sonst ist es einfach eine unbelegte Behauptung :wink:

AMD ist natürlich auch kein Wohlfartsverein, aber auch ich meine mich aus unserem Forum zu erinnern, dass die Filterung von AMD keinen Performancevorteil bietet. Insofern kann man die schlechtere Filterung (ist das eigentlich noch immer so?) kritisieren, aber es ist etwas ganz anderes als das bewußte Täuschen welches Nvidia hinsichtlich DX 11.2 betrieben hat.

Und nur als Disclaimer: Ich habe zwar noch eine 4850 im Rechner, aber bei meiner Frau z.B. eine 460 eingebaut - ich gehe da rein nach Preis/Leistung (wenn die 750 Ti nicht so schwach auf der Brust wäre hätte ich die schon 2x als Ersatz verbaut).

occ-kh@Mirko
2014-05-18, 16:23:49
Eine Hypothese sollte erst einmal ansatzweise belegt werden bevor ich mich damit beschäftige, sonst ist es einfach eine unbelegte Behauptung :wink:
Echt und ich dachte eine Hypothese ist genau das Gegenteil von gesichertem Wissen, eben eine mögliche Betrachtung. Aber ich lerne gerne dazu...:).

AMD ist natürlich auch kein Wohlfartsverein
Genau so sehe ich das auch, daher warum mit Steinen werfen...geht beiden so.

Insofern kann man die schlechtere Filterung (ist das eigentlich noch immer so?)
Nein...dem Thema hat man sich mittlerweile angenommen, Ergebnis gut bis sehr gut. War aber nachträglich so angekündigt (3d-center und anderen sei Dank), konnte erst mit einer neueren Generation gefixt werden.

aber es ist etwas ganz anderes als das bewußte Täuschen welches Nvidia hinsichtlich DX 11.2 betrieben hat
Ohje...nicht meine Hypothese. :rolleyes:

wenn die 750 Ti nicht so schwach auf der Brust wäre hätte ich die schon 2x als Ersatz verbaut).
Kann dir nicht ganz folgen, würde behaupten die 750ti ist bis in eine Auflösung von 2560x1440 bei 4xAA/16xAF bis zu 20% schneller als die 460. Liegt dabei auf Level der 260x und spart dabei (ist eben effizienter). Das beide Karten dabei nicht unbedingt spielbare fps-Raten abliefern (über 30fps) ist ein anderes Thema, aber das kann man ja sehen wie man will, eben hypothetisch.

Passt aber alles nicht zum Thema, daher.

Kriton
2014-05-18, 20:47:57
Echt und ich dachte eine Hypothese ist genau das Gegenteil von gesichertem Wissen, eben eine mögliche Betrachtung. Aber ich lerne gerne dazu...:).

Ein bisschen was auf dem sie aufbaut wäre schon schön. Das ist noch weitab von einer Theorie oder sogar gesichertem Wissen. Aber wir können natürlich auch die Hypothese aufstellen, dass Nvidia nächste Woche PhysX kostenlos freigibt um es als Industriestandard zu etablieren... :biggrin:


Kann dir nicht ganz folgen, würde behaupten die 750ti ist bis in eine Auflösung von 2560x1440 bei 4xAA/16xAF bis zu 20% schneller als die 460. Liegt dabei auf Level der 260x und spart dabei (ist eben effizienter). Das beide Karten dabei nicht unbedingt spielbare fps-Raten abliefern (über 30fps) ist ein anderes Thema, aber das kann man ja sehen wie man will, eben hypothetisch.

Na ja, ich kaufe eine Karte schon mit dem Ziel sie länger einzusetzen.

BTT: Computerbase hatte doch geschrieben, dass die Karten derzeit schon bei den Händlern liegen. Lieferengpässe (wie oben angemerkt) können wir also wohl ausschließen.

occ-kh@Mirko
2014-05-18, 21:50:13
dass Nvidia nächste Woche PhysX kostenlos freigibt um es als Industriestandard zu etablieren... :biggrin:
Schon mal von PhysX- und APEX-Unterstützung für die PlayStation 4 gehört...frag mich nicht welche Hardware da drin steckt.

Na ja, ich kaufe eine Karte schon mit dem Ziel sie länger einzusetzen.
Dann nimmst du stattdessen eine 460?

BTT: Computerbase hatte doch geschrieben, dass die Karten derzeit schon bei den Händlern liegen. Lieferengpässe (wie oben angemerkt) können wir also wohl ausschließen.
Wollte nur die hypothetische Gerüchteküche zusammen haben...

Zu Thema wer was unterstützt vllt. dieser Link und was man vorhat. Ich verstehe es nicht, dass ist doch für alle positiv...http://channel9.msdn.com/Blogs/DirectX-Developer-Blog/DirectX-Evolving-Microsoft-s-Graphics-Platform

Blediator16
2014-05-18, 22:12:59
Schon mal von PhysX- und APEX-Unterstützung für die PlayStation 4 gehört...frag mich nicht welche Hardware da drin steckt.


Ja CPU :freak:

occ-kh@Mirko
2014-05-18, 22:25:20
Ja, weiss ich doch...CPU Multithreading ala PhysX-SDK könnte aber auch Standard sein oder werden? Oder nicht? Einiges wird wie Partikeleffekte oder Stoffsimulation mittels CUDA beschleunigt.

C.D.B.
2014-05-19, 07:55:54
Wird NVidia ihr neues "Home"-Premiumprodukt eigentlich auch in 'nem schicken Aluköfferchen verkaufen - wie AMD (http://videocardz.com/50114/amd-radeon-r9-295x2-briefcase-day)?

Loeschzwerg
2014-05-19, 10:13:27
Im Kern geht es bei DX12 ebenfalls nur um die Reduzierung von Overhead und benötigt damit keine Anpassung innerhalb der Hardware. Was dann evtl. noch an zusätzlichen Features dazugepackt wird und ob dadurch Änderungen innerhalb der HW nötig werden, muss man abwarten.

FL 11.2 unterstützt Kepler deswegen natürlich immer noch nicht (Ob Maxwell aka GM2xx muss man auch abwarten), aber hier sehe ich ein "Versanden" ähnlich von D3D10.1.

@C.D.B.: Sollte bei dem angedachten Preis definitiv drin sein ^^

TobiWahnKenobi
2014-05-19, 10:33:14
Wird NVidia ihr neues "Home"-Premiumprodukt eigentlich auch in 'nem schicken Aluköfferchen verkaufen - wie AMD (http://videocardz.com/50114/amd-radeon-r9-295x2-briefcase-day)?

eigentlich unnötig. die nvidiakarten sind idR stückware und kommen nicht wie studien des mitbewerbs mehrteilig mit angeflanschter kühlung auf den markt; das passt auch in einen karton, ohne dass etwas kaputtgeht.

btw,
ich hab mehrere ALU-koffer; das auf den bildern hinter dem link da oben sieht eher aus wie preiswerte plaste.


(..)

mfg
tobi

occ-kh@Mirko
2014-05-19, 12:06:23
Wird NVidia ihr neues "Home"-Premiumprodukt eigentlich auch in 'nem schicken Aluköfferchen verkaufen - wie AMD (http://videocardz.com/50114/amd-radeon-r9-295x2-briefcase-day)?
Partnerkarten kommen nicht im Koffer.

http://www.fotos-hochladen.net/uploads/verpackung630fmneika5od.jpg (http://www.fotos-hochladen.net)

http://www.fotos-hochladen.net/uploads/verpackung530nlrp7x3gsq.jpg (http://www.fotos-hochladen.net)

Blediator16
2014-05-19, 12:34:49
eigentlich unnötig. die nvidiakarten sind idR stückware und kommen nicht wie studien des mitbewerbs mehrteilig mit angeflanschter kühlung auf den markt; das passt auch in einen karton, ohne dass etwas kaputtgeht.

btw,
ich hab mehrere ALU-koffer; das auf den bildern hinter dem link da oben sieht eher aus wie preiswerte plaste.


(..)

mfg
tobi

Hach lustig dein Geschreibsel zu sehen. Fährt einen Opel Adam und macht hier einen auf dicken Willi :D

Iruwen
2014-05-19, 12:42:08
Was für ein unglaublich dummer Post. Aber passt zu dir.

kruemelmonster
2014-05-19, 13:01:07
Hach lustig dein Geschreibsel zu sehen. Fährt einen Opel Adam und macht hier einen auf dicken Willi :D

Ich fahr einen Smart, muss ich jetzt auf IGP umrüsten?

Erstaunlich wie sich manch einer über Holzschrauben echauffieren konnte obwohl der eigene Holzkopf sicherlich auch mit Holzschrauben am Holzhals befestigt ist.

Matrix316
2014-05-19, 13:17:26
Wenn die Karte wirklich 3000 irgendwas kosten soll, müsste die eigentlich von einem Nvidia Mitarbeiter persönlich vorbeigebracht und in den PC eingebaut werden, oder so. ;)

Allerdings sehe ich gerade, im Vergleich zu einer Quadro sind selbst 4000 noch ein Schnäppchen. ;)

occ-kh@Mirko
2014-05-19, 13:41:38
In erster Linie wurde die Karte ja als schnellstes Gamingboard beworben, mit einer Quadro würde ich sie daher nicht vergleichen. Mal sehen ob man das nach Erscheinen der 295x2 irgendwie treiberoptimiert hinbekommen kann.

In Tombraider soll man die 295x2 trotz Wasserkühlung nach Treiberspielereien deutlich überflügeln. (ca. 108fps vs. 95fps). Wenn man sich jetzt noch den seit 15.05.2014 über FTP Download (http://www.techpowerup.com/downloads/2371/nvidia-forceware-337-81-beta-vista-w7-64-bit/) erhältlichen Betatreiber (http://gamegpu.ru/action-/-fps-/-tps/lichdom-battlemage-test-gpu.html) für China (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10216780&postcount=105) ansieht, hat man dort in neueren Titeln nochmals etwas bei der CPU-Performance (Reduktion des Overhead?) zugelegt.

Zum Preis, sieh dir eine Titan an, die kostet doppelt soviel wie eine 290x und ist im Gamingbereich nicht schneller. Also preislich dürfte das Nvidia egal sein, die Titan gingen weg wie warme Semmeln. Es geht hier tatsächlich wohl nur darum, dass werbeinhaltliche Prestige der Ankündigung zu erfüllen. Daher glaube ich nicht daran, dass Nvidia die Z zurückziehen wird. Ganz zuletzt könnte man die Karte über den Preis in den Markt drücken, warten wir mal ab.

Es gab viele die gemeint haben, der GK110 sei Geschichte, es kam aber alles ganz anders, auch wenn es dabei nicht jedem gefallen hat. Geschadet hat es Nvidia offentsichtlich nicht. Man hat eben eine riesige, aber auch treue Fangemeinde.

Matrix316
2014-05-19, 14:11:34
Ich finde eigentlich, dass jede Titan Karte eigentlich keine daseinsberechtigung hat (Titan vs 780TI vs 290X z.B.). Kostet nur viel und bringt kaum was.

Da hätte man lieber eine 790 bringen sollen mit zwei 780TI auf einer Karte, für 1500 irgendwas. Stände zwar nicht Titan drauf, wäre aber deutlich schneller. ;)

dildo4u
2014-05-19, 14:13:05
Es sind zwei volle Chips's auf Titan Z es ist eine 790 TI mit mehr V-Ram.

TobiWahnKenobi
2014-05-19, 14:16:08
Hach lustig dein Geschreibsel zu sehen. Fährt einen Opel Adam und macht hier einen auf dicken Willi :D

:confused::confused::confused:

6 Titan-Z + 1 Titan Black -> klick (http://abload.de/img/autopolieren26.04.201rmrus.jpg)

Ich fahr einen Smart, muss ich jetzt auf IGP umrüsten?

Erstaunlich wie sich manch einer über Holzschrauben echauffieren konnte obwohl der eigene Holzkopf sicherlich auch mit Holzschrauben am Holzhals befestigt ist.

holz wäre etwas wertiges ;) ich sehe da eher spanplatten.


(..)

mfg
tobi

occ-kh@Mirko
2014-05-19, 14:19:53
Es sind zwei volle Chips's auf Titan Z es ist eine 790 TI mit mehr V-Ram.
Ich glaub @Matrix316 meinte es genau andersherum, etwas an der möglichen DP-Leistung der Titan sparen und dafür mehr auf Gamingperformance der 780ti setzen, wobei man preislich dann auf 2xti Niveau + Nvidiazuschlag agieren könnte.

Ja, da hätte man auf die Versionsnummer 790 setzen können.

dildo4u
2014-05-19, 14:21:43
Ich glaub @Matrix316 meinte es genau andersherum, etwas an der möglichen DP-Leistung der Titan sparen und dafür mehr auf Gamingperformance der 780ti setzen, wobei man preislich dann auf 2xti Niveau + Nvidiazuschlag agieren könnte.

Ja, da hätte man auf die Versionsnummer 790 setzen können.
Die Karte taktet bei 3D Games doch mit 1Ghz was ist dort anders als bei der 780TI?

Schnoesel
2014-05-19, 14:30:43
Die Karte taktet bei 3D Games doch mit 1Ghz was ist dort anders als bei der 780TI?

Der Preis?! Da es eine Titan ist kann man sie ja schlecht für "billig" abgeben. Im Endeffekt ist der Schaden für Nvidia schon angerichtet. Die können noch so viel lamentieren von wegen Treiberprobleme, das nimmt ihnen keiner ab. Schon allein die Verzögerung ist ein Eingeständnis, dass die Karte zu dem bereits angesetzten Preis nicht konkurrenzfähig ist, das hat sogar Nvidia eingesehen und versucht nun den Schaden so klein wie möglich zu halten.

Konsequenz wird eine Karte sein die wohl mit der R9 295X2 mithalten kann auf Kosten der Lautstärke/Effizienz. Da die Titan Z ebenfalls nur über 2x 8Pin verfügt wird man ebenfalls die PCIe Spec verletzen. Die Frage ist und bleibt was kann die Titan Z so viel besser dass Sie das doppelte kosten darf.

Wenn das Ergebnis 0 ist (und so sieht es derzeit aus), wäre es aus Imagesicht wohl ein fail.

PS: Was aus den leaks bekannt ist taktet die Karte wohl bis zu 1GHZ (1080MHZ?!). Von einem konstanten Halten des Taktes kann wohl keine Rede sein.

occ-kh@Mirko
2014-05-19, 14:35:02
Die Karte taktet bei 3D Games doch mit 1Ghz was ist dort anders als bei der 780TI?
Du musst aber die 960DP Alu's nicht mitbezahlen. Da die Z eine Titan ist wird sie im Vollausbau wohl etwas derartiges x2 mitbringen.

Mit der hohen DP-Leistung – die für normale Desktop-Anwendungen irrelevant ist – möchte Nvidia professionelle Nutzer ansprechen, die nicht bereit dazu sind, viel Geld für eine Quadro- oder eine Tesla-Karte auszugeben, beziehungsweise eine noch höhere Leistung (die professionellen Karten takten niedriger) auf Kosten der Garantie- und Support-Ansprüche haben möchten.

Hübie
2014-05-19, 18:44:49
Nicht zu vergessen die DMA-Engines ;)

Skysnake
2014-05-19, 19:12:32
die haben alle, ist nur ne Software/treiber frage...

Und das wichtigste DMA feature, also GPUDirect2 fehlt eben. Also nix mit RDMA, und dMit taugt das Ding auch nicht als vollwertige Entwicklerkarte

fondness
2014-05-19, 20:11:08
Partnerkarten kommen nicht im Koffer.

http://www.fotos-hochladen.net/uploads/verpackung630fmneika5od.jpg (http://www.fotos-hochladen.net)

http://www.fotos-hochladen.net/uploads/verpackung530nlrp7x3gsq.jpg (http://www.fotos-hochladen.net)

Zumindest die Sapphire OC kommt definitiv mit ALU-Koffer:
http://geizhals.at/eu/sapphire-radeon-r9-295x2-oc-21234-01-40g-a1104859.html

occ-kh@Mirko
2014-05-19, 20:57:47
Zumindest die Sapphire OC kommt definitiv mit ALU-Koffer.
Du weisst aber schon, dass das die OC-Variante als Sapphire-Auflage ist und der Koffer eine extra Dreingabe (als Alu Box Version), hat also mit dem "AMD-Koffer" nix gemein? Die "Normalo" kommt im "Pappkoffer" und genau die waren gemeint...http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1227&pid=0&psn=000101&lid=1&leg=0

C.D.B.
2014-05-19, 21:01:45
... Die "Normalo" kommt im "Pappkoffer" ...

Also ist der AMD-Koffer nur für Pressesamples? Naja - bei 3000 Öcken könnte NVidia auch mal was fürs Auge tun. Oder müßte sogar - um den Preispunkt bei fehlender Leistung zu "rechtfertigen". :D

occ-kh@Mirko
2014-05-19, 21:09:44
Egal worin sie kommt, wichtig ist was sich leistungsmäßig unter dem Deckel verbirgt und das geht voll i.O.. Wie man sieht sind die Preise am Fallen...

Matrix316
2014-05-19, 22:20:15
Der Preis?! Da es eine Titan ist kann man sie ja schlecht für "billig" abgeben. [...].

Genau das. Die alte erste Titan war auch massiv überteuert und dann kam die 780TI für 2/3 des Preises und mehr Leistung, von einer 290X erst garnicht anzufangen. ;)

Wenn die Karte aus zwei 780TIs besteht, sollte sie auch so viel kosten wie zwei TIs und nicht drei Mal so viel.

Hübie
2014-05-19, 22:42:57
die haben alle, ist nur ne Software/treiber frage...

Und das wichtigste DMA feature, also GPUDirect2 fehlt eben. Also nix mit RDMA, und dMit taugt das Ding auch nicht als vollwertige Entwicklerkarte

Bei Titan sind afaik beide DMA-Engines aktiviert. Man muss nur den Treiber modifizieren und halt TCC / LOC aktivieren. Soll auch unter Linux laufen wenn ich mich recht erinnere.
Edit: Auch GPU Direct geht.

Kriton
2014-05-19, 23:02:19
Dann nimmst du stattdessen eine 460?

Äh - nein?!

Die 460 habe ich vor ein paar Jahren im Rechner meiner Frau verbaut, den ich etwas später als meinen vorherigen zusammengestellt habe. Daher war es bei mir eine ATI HD 4850 und bei ihr eine Nvidia GTX 460. Beide Karten hatten zu ihrer Zeit ein hervorragendes P/L-Verhältnis.

Die Karten werden voraussichtlich mit der nächsten Generation ausgetauscht. Momentan sind mir die Karten bis auf Ausnahmen von AMD und Nvidia technologisch "zu alt". Aber die R9-Reihe zu teuer und stromfressend, R7 269x und 750 Ti noch zu leistungsschwach (und ja, ich hätte gern mindestens DX 11.2 - schon aus Prinzip, vielleicht haben die nächsten ja doch schon 12).
Aber da ich meine 4850 vor ein paar Tagen schon backen musste...

occ-kh@Mirko
2014-05-20, 00:16:23
Äh - nein?!
Achso, jetzt hab ich es auch kapiert, hat sich anders gelesen:

Ich habe zwar noch eine 4850 im Rechner, aber bei meiner Frau z.B. eine 460 eingebaut - ich gehe da rein nach Preis/Leistung (wenn die 750 Ti nicht so schwach auf der Brust wäre hätte ich die schon 2x als Ersatz verbaut).
Hörte sich so an als hättest du sie "gerade" ausgetauscht und dich nicht für die 750ti entschieden. :)

Die wird im Übrigen voraussichtlich DX12 nach Nvidia "Maßgaben" erfüllen. Was auch immer das zu bedeuten hat, also dann ohne vollen 2D und 3D (TR_Tier2) Support für DX FL 11.1/2 soweit nicht optional.

Pentium M
2014-05-20, 00:35:50
In Hardware.Träume sind Schäume.

Skysnake
2014-05-20, 08:44:14
Bei Titan sind afaik beide DMA-Engines aktiviert. Man muss nur den Treiber modifizieren und halt TCC / LOC aktivieren. Soll auch unter Linux laufen wenn ich mich recht erinnere.
Edit: Auch GPU Direct geht.
Aber kein GPUDirect2 um direkt mit zero Copy übers Netzwerk zu gehen. Das ist durchaus ein killer-Feature.

M4xw0lf
2014-05-20, 12:31:41
War das schon hier? http://iyd.kr/649

http://cfile5.uf.tistory.com/image/221D9F335379F90F015721 http://cfile1.uf.tistory.com/image/247EB8335379F90F26600A http://cfile24.uf.tistory.com/image/21556B335379F90F31E8A4 http://cfile30.uf.tistory.com/image/224139335379F91017C884 http://cfile6.uf.tistory.com/image/2508C9335379F910242CA2

dildo4u
2014-05-20, 12:38:56
Scheint noch ein alter Treiber zu sein aktuell ist 337.81.

M4xw0lf
2014-05-20, 12:45:32
So wahnsinnig alt kann der 337.69 den die angeben auch nicht sein.

dildo4u
2014-05-20, 12:48:05
Wenn NV zufrieden mit der Performance wäre,wäre die Karte mit dem Treiber erschienen.

M4xw0lf
2014-05-20, 13:02:47
Wenn NV mit der Performance nicht zufrieden ist, hätten sie sie mal schneller machen sollen :ulol:

Hübie
2014-05-20, 13:05:17
Aber kein GPUDirect2 um direkt mit zero Copy übers Netzwerk zu gehen. Das ist durchaus ein killer-Feature.

Hab die 2 "übersehen" ;) Ist das (extra) Hardware oder könnte der microcontroller das wenn die software den anspricht? Meinst sowas is extra physikalisch deaktiviert oder einfach per BIOS deaktiviert? Nvidia hatte ja schon so manches Spirenzchen gebracht (siehe GTX 460-> Quadro ;D)

dildo4u
2014-05-20, 13:07:50
Wenn NV mit der Performance nicht zufrieden ist, hätten sie sie mal schneller machen sollen :ulol:
Der Treiber ist alles entscheidend bei einer Dual Karte,erstens wegen der Profile und zweitens,weil NV genau das Problem angeht was eine solche Karte immer zurückhält die CPU Performance.

N0Thing
2014-05-20, 13:33:04
Dann ändert sich aber auch nichts beim Abstand zu den anderen Nvidia-Karten und es wird wohl keiner glauben, daß Nvidia kurz vor dem Launch noch zufällig viel Potential bei der CPU-Performance im Treiber gefunden hat und deshalb den Launch unangekündigt auf unbestimmte Zeit verschoben hat.

Wenn überhaupt, dann passen sie Lüfterdrehzahl, Powertarget und Temperaturgrenze im Hinblick auf die R9 295x2 neu an und nehmen sonstige Verbesserungen am Treiber einfach mit.

dildo4u
2014-05-20, 13:36:40
NV hat mit den DX11 Optimierungen grad erst angefangen,es gibt noch kein WHQL mit diesen Optimierungen.

We’re not quite finished, however, as many more changes, optimizations, and enhancements are waiting in the wings for integration into our next WHQL release

http://www.geforce.com/whats-new/articles/nvidia-geforce-337-50-beta-performance-driver

Ich vermute das der zu Watch_Dogs kommt,das ist ne wichtige Release für NV,da das Game mit NV Karten gebundelt wird.

N0Thing
2014-05-20, 14:00:48
Ich würde jetzt den Pressetext zum Anti-Mantle-Treiber nicht unbedingt als seriöse Quelle hernehmen, aber gut:

Wie man am Computerbase-Treibertest schön sehen kann, haben beide Hersteller gleich viel mit ihren neuen Treibern zugelegt und ich erwarte auch von beiden, daß sie weiterhin ihre Treiber optimieren. Mit DX11 Optimierungen haben beide Hersteller sicher erst nicht vor kurzem angefangen und werden auch beide weiterhin daran arbeiten. Zu Watch Dogs erwarte ich auch einen neuen Treiber, aber unabhängig davon, ob die Titan Z dann freigegeben wird oder nicht.

Ich würde vorschlagen, wir warten mal die endgültigen Reviews oder neue Leaks ab, am besten auch welche, in denen die R9 x295 getestet wurde, auch wenn ich keine bahnbrechenden Unterschiede erwarten würde.

dildo4u
2014-05-20, 14:05:17
:

Wie man am Computerbase-Treibertest schön sehen kann, haben beide Hersteller gleich viel mit ihren neuen Treibern zugelegt und ich erwarte auch von beiden, daß sie weiterhin ihre Treiber optimieren.

Welchen Test meinst du?
http://www.computerbase.de/2014-04/aktuelle-treiber-amd-catalyst-nvidia-geforce-leistungszuwachs/2/

4Fighting
2014-05-20, 14:23:00
Kurze Zwischenfrage:

Der Treiber soll doch wohl auf jeder Karte Optimierungen bringen.

Angenommen man findet noch etwas Performance und kommt mit der Titan Z in die Nähe zur 295x2, dann profitieren SLI Gespanne aus 780er/Titans/780TIs doch auch.

Womit sich wieder die Frage stellt: wozu Titan Z? :D

Skysnake
2014-05-20, 14:40:47
Hab die 2 "übersehen" ;) Ist das (extra) Hardware oder könnte der microcontroller das wenn die software den anspricht? Meinst sowas is extra physikalisch deaktiviert oder einfach per BIOS deaktiviert? Nvidia hatte ja schon so manches Spirenzchen gebracht (siehe GTX 460-> Quadro ;D)
Das hat mit Hardware so ziemlich nichts zu tun, so lange man genug Adressraum ansprechen kann.

Die GPU schreibt/liest halt direkt aus dem Memory-Mapped I/O-Bereich des NICs. Das wars dann im Prinzip halt schon. Schreiben/Lesen von einem anderen Speicherbereich.

Das ist Software in erster Linie, weil die Hardware dazu ganz ganz ganz sicher in der Lage sein wird. Tesla/Quado sind ja nur andere Treiber und keine andere Hardware, mal davon agesehen, das natürlich ECC usw kaputt sein kann bei ner Karte und daher die Funktionalität eben nicht bereitstellen kann, das ist aber sehr unwahrscheinlich.

Und ja ich weiß wovon ich rede, [...entfernt]

EDIT einen teil entfernt

N0Thing
2014-05-20, 14:48:28
Welchen Test meinst du?
http://www.computerbase.de/2014-04/aktuelle-treiber-amd-catalyst-nvidia-geforce-leistungszuwachs/2/

Jep, da sieht man bei den DX11 Genrationen, die Zeit zum Reifen hatten, die gleichen ~10% (11%, 10%, 14% vs. 11%, 10%, 13%) Verbesserung, egal ob AMD oder Nvidia.

Hübie
2014-05-20, 18:57:34
Das hat mit Hardware so ziemlich nichts zu tun, so lange man genug Adressraum ansprechen kann.

Die GPU schreibt/liest halt direkt aus dem Memory-Mapped I/O-Bereich des NICs. Das wars dann im Prinzip halt schon. Schreiben/Lesen von einem anderen Speicherbereich.

Das ist Software in erster Linie, weil die Hardware dazu ganz ganz ganz sicher in der Lage sein wird. Tesla/Quado sind ja nur andere Treiber und keine andere Hardware, mal davon agesehen, das natürlich ECC usw kaputt sein kann bei ner Karte und daher die Funktionalität eben nicht bereitstellen kann, das ist aber sehr unwahrscheinlich.

Und ja ich weiß wovon ich rede, [...entfernt]

EDIT einen teil entfernt

Kannst mir auch gern PN schicken wenn das vertraulich zu behandeln ist. Mich interessiert das schon.
Quadros habe schon etwas andere PCBs als Geforce-Karten und halt anderes BIOS (was aber kein Hindernis darstellt).

Skysnake
2014-05-20, 20:12:09
Ja, die haben ein etwas anderes PCB. Die haben halt bei den Quadros noch ein paar Features, wie Framelock usw. Der Chip an sich! ist aber genau der Gleiche wie auf den Konsumerkarten. Die Frage ist halt nur bzgl der Selektion. Gerade am Anfang kann es da Unterschiede geben, aber je älter ein Chip wird, desto größer wird die Wahrscheinlichkeit, das allle Chips voll funktionstüchtig sind, egal in welchem Produkt.

Den Unterschied macht dann halt noch das BIOS/Treiber. Das wars dann aber auch.

Deswegen haben ja auch so Tricks funktioniert, wie ein Tesla/Quadro BIOS auf ne GeForce flashen, um ne Telsa/Quadro zu haben, oder mit GK104 eben auch das umlöten eines SIMD Widerstands. Da baut nVidia halt eine Widerstands/Spannungsmessung ein, um zu erkennen ob es ne GeForce oder ne Tesla/Quadro ist.

Das ändert am Chip an sich aber rein gar nichts.

Und bei GPUDirect(2) schreibst du einfach an gewisse Speicherbereiche. Das ist halt memoryMappedIO und fertig. GPUs haben DMA Engines schon seit langem onBoard, und seit PCI-E 2.x wird meines Wissens nach auch schon Device-to-Device Kommunikation vorgesehen.

Im Prinzip ist es also "nur" noch Software, weil von der Hardware eh eigentlich alles da sein sollte. Jetzt mal von irgendwelchen Chipinternas abgesehen, die einem noch im Weg stehen könnten, weil man halt meinte, irgend eine Fancy Optimierung zu machen, die einem dann halt um die Ohren fliegt/ein Bein stellt.

Falls es dich interessiert, schau dir einfach mal memoryMappedIO bei Linux(kernel) an, und dann noch Device-to-Device Communication von PCI-E. Dann sollte es eigentlich recht klar sein, dass das eigentlich ziemlich intuitiv ist, dass das gehen muss. Die Hersteller lassen sich die Entwicklung aber gut bezahlen.

Und ganz im Ernst, ich versteh AMD nicht, dass die das nicht auch unterstützen :down:

gedi
2014-05-20, 21:55:01
wenn es stimmt, wie erwartet: http://www.guru3d.com/news_story/geforce_gtx_titan_z_review_benchmarks_leak_but_are_they_fake.html

(del676)
2014-05-20, 22:08:28
Ich hoffe die testen das neue Wolfenstein dann ebenso.
Da wird ne 6gb Titan von einer HD7970 geschlagen. :lol:
http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Wolfenstein_The_New_Order_-test-WolfNewOrder_2560.jpg

Hübie
2014-05-20, 22:14:14
Und ne 290X schlägt 295X. Da brauchen wir gar nicht weiter drüber schnacken - is eh ot ;);)
Ich lehne mich entspannt zurück. Vielleicht rentieren sich jetzt endlich mal 6 Kerne 12 Threads :naughty:

Edit: huch. Wollte im Watch_dogs-Thread schreiben X-D

M4xw0lf
2014-05-20, 22:22:31
Und ne 290X schlägt 295X. Da brauchen wir gar nicht weiter drüber schnacken - is eh ot ;)
Negatives CF-Scaling ist nicht so ungewöhnlich beim Release eines neuen Spiels. Aber auch Sli skaliert genau null... fehlen wohl überall noch multi-GPU Profile.

aufkrawall
2014-05-20, 22:28:35
Viel eher ist AFR inkompatibel mit dem Streaming/Konvertierung.
Schätze, das wird, genau wie Rage, nie skalieren.

M4xw0lf
2014-05-20, 22:33:58
Ach, Rage skaliert bis heute nicht mit mehreren GPUs? again what learned.

Hübie
2014-05-20, 22:50:58
Hm? Ich meine RAGE skalierte mit meinen beiden GF110. Is aber ne Weile her und Gehirne spielen gerne streiche ;) ;)
Das zeugt aber wieder mal von den überragenden Programmierfähigkeiten bei id-Software X-D

4Fighting
2014-05-21, 06:59:03
Hm? Ich meine RAGE skalierte mit meinen beiden GF110. Is aber ne Weile her und Gehirne spielen gerne streiche ;) ;)
Das zeugt aber wieder mal von den überragenden Programmierfähigkeiten bei id-Software X-D

iirc konnte man nur teile des cuda krams auf die 2te gpu auslagern...oder so änhlich

auf jeden fall ging sli nie mit rage und wohl auch nie mit wolfenstein.

Hübie
2014-05-21, 11:31:21
Ich könnte das ja heute abend mal testen wenn ich Zeit habe.
Es ist zu lange her und RAGE hab ich nie durchgedonnert.

BiG OnE
2014-05-21, 17:02:52
Musst Du ja nicht durchdonnern, es reicht es kurz anzuspielen und gucken ob die Frames mit SLI steigen.

Bis denne ...

Knuddelbearli
2014-05-21, 17:33:00
na das eine 295X2 langsamer ist als eine 290X ist schon komisch. die 295X2 taktet ja dank bessere Kühlung immer mindestens gleich hoch, mit vorheizen sogar höher

Blediator16
2014-05-21, 18:01:43
Da cfx und sli dort nicht richtig funktionieren, gibt es scheinbar wiedermal eine negative skalierung.

aufkrawall
2014-05-21, 18:13:23
Musst Du ja nicht durchdonnern, es reicht es kurz anzuspielen und gucken ob die Frames mit SLI steigen.

Zeitverschwendung. Wenn eine zweite GPU verbaut ist, lässt einen Rage nicht einmal mehr CUDA-Transcoding nutzen. Selbst, wenn AFR aus ist...
Dass Bethesda mit der Engine noch produzieren lässt, ist arg grenzwertig. Wolfenstein hat auch Bugs bis zum geht nicht mehr, zumindest die Grafiktechnik.

Knuddelbearli
2014-05-21, 18:24:43
Da cfx und sli dort nicht richtig funktionieren, gibt es scheinbar wiedermal eine negative skalierung.

die gibt es sonst da die Chips einen niedrigeren Takt haben als die SInglekarte. bei der 295X2 ist das aber eben nicht so die hat sogar den höheren CHip. Also nochmal die Frage woher die negative skalierung

aufkrawall
2014-05-21, 18:26:50
Wenn der Treiber AFR versucht, obwohl die Engine inkompatibel ist, kann das natürlich auch zu negativem Scaling führen.

Hübie
2014-05-21, 18:34:12
Zeitverschwendung. Wenn eine zweite GPU verbaut ist, lässt einen Rage nicht einmal mehr CUDA-Transcoding nutzen. Selbst, wenn AFR aus ist...
Dass Bethesda mit der Engine noch produzieren lässt, ist arg grenzwertig. Wolfenstein hat auch Bugs bis zum geht nicht mehr, zumindest die Grafiktechnik.

Ich konnte es definitiv nutzen. Da hatte ich aber noch Thermi ;D

aufkrawall
2014-05-21, 20:46:09
Sücher? Mit meinen 670s hats schon gereicht, wenn die 2. GPU im Gerätemanger aktiviert war (ging dann wenn deaktiviert).
Hier kotzen sich zig Leute drüber aus:
http://forums.guru3d.com/showthread.php?t=363542

Hübie
2014-05-21, 23:05:11
Ja Sücher :)

*klück (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9157081#post9157081)*

Geht doch:

http://abload.de/img/rage_sli6rszw.png

Mr. Lolman
2014-05-22, 05:49:02
Sücher? Mit meinen 670s hats schon gereicht, wenn die 2. GPU im Gerätemanger aktiviert war (ging dann wenn deaktiviert).
Hier kotzen sich zig Leute drüber aus:
http://forums.guru3d.com/showthread.php?t=363542


Da gehts nur darum, dass das Transcoding nicht mit SLI funktioniert. Und soo wichtig war das auch nicht. Wenn SLI bei Wolfenstein nicht klappt, liegts wohl am fehlenden Profil im Treiber. Aber dank NVapi sollte das ja auch kein Problem sein.

Ich find die IDTech5 übrigens ziemlich genial. Da passt einfach das Verhältnis von Grafik und fps.

dildo4u
2014-05-22, 09:21:28
Da gehts nur darum, dass das Transcoding nicht mit SLI funktioniert. Und soo wichtig war das auch nicht. Wenn SLI bei Wolfenstein nicht klappt, liegts wohl am fehlenden Profil im Treiber. Aber dank NVapi sollte das ja auch kein Problem sein.

Ich find die IDTech5 übrigens ziemlich genial. Da passt einfach das Verhältnis von Grafik und fps.
Die Tech ist nicht mit Multi GPU kompatibel Rage geht bis Heute nicht.

Hübie
2014-05-22, 10:43:37
Ignoriert meinen post nur weiter...

Es geht (zumindest glaube ich das). Und transcoding kann man erzwingen. Wie stelle ich überhaupt fest obs läuft oder nicht?

Aus dem SLi-Thread:


Edit: Ich musste mit der Kamera aufnehmen, da RTSS nur mit 2D-Darstellung läuft, was wiederum nicht eingefangen wird wenn man einen screenshot macht:

http://abload.de/thumb/img_2218vdujx.jpg (http://abload.de/image.php?img=img_2218vdujx.jpg)

horn 12
2014-05-22, 10:55:41
AMD lässt nochmals die Hosen runter
R9 295 X2 um 1152 Euro bereits in Italien (Seriöser Online Shop)

Da werden womögliche 2000+ Dollar für die TITAN Z gar zur Lachnummer ...

Skinner
2014-05-22, 12:32:59
Die TitanZ wird um die 3000€ liegen.... wie Krank ist das den bitte schön?

N0Thing
2014-05-22, 12:36:55
It's not a but, it's a feature. :D

Die Diskussion wurde schon seit den ersten Seiten des Thread geführt.

Iruwen
2014-05-22, 13:25:46
Wer weiß welchen Preis sie letztlich aufrufen.

Skysnake
2014-05-22, 13:38:15
Und ob ne Limited-Edition eventuell noch wird.

fondness
2014-05-22, 13:49:07
Die TitanZ wird um die 3000€ liegen.... wie Krank ist das den bitte schön?

$3000 werden um die ~2400EUR sein.

aufkrawall
2014-05-22, 14:09:47
Ignoriert meinen post nur weiter...

Es geht (zumindest glaube ich das). Und transcoding kann man erzwingen. Wie stelle ich überhaupt fest obs läuft oder nicht?

Aus dem SLi-Thread:


Edit: Ich musste mit der Kamera aufnehmen, da RTSS nur mit 2D-Darstellung läuft, was wiederum nicht eingefangen wird wenn man einen screenshot macht:

http://abload.de/thumb/img_2218vdujx.jpg (http://abload.de/image.php?img=img_2218vdujx.jpg)
Mittlerweile solltest du doch mal gemerkt haben, dass die GPU-Auslastung kein Indikator für AFR-Skalierung sein muss.

gedi
2014-05-22, 15:24:58
Unter cfx springt die zweite Karte erst gar nicht an. Komisch ist auch, dass sich Vsync bei mir nicht deaktivieren lässt, aber dies ist wohl zu viel OT.

Knuddelbearli
2014-05-22, 17:30:01
$3000 werden um die ~2400EUR sein.

nö wieso?
da fehlt ja noch die mehrwertsteuer

Iruwen
2014-05-22, 17:47:35
Vielleicht ändern sie den ja auch noch.

Effe
2014-05-23, 11:59:49
Trotz der durchaus stimmigen Gerüchte sieht NVIDIA-Chef Jen-Hsun Huang die GeForce GTX Titan Z noch immer im Zeitplan und nennt die Berichte über eine Verschiebung oder gar Einstellung des kommenden Flaggschiffs in einem Interview mit cnet.com schlichtweg eine „Dummheit“.

Quelle (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/31214-nvidia-chef-sieht-geforce-gtx-titan-z-weiter-im-zeitplan.html)

fondness
2014-05-23, 12:07:23
Der tut echt so als wären alle bescheuert. Er hat doch vor kurzem April gesagt und gleichzeitig gibt es Bilder und Aussagen von Händlern.

Loeschzwerg
2014-05-23, 12:19:27
...bevor er andere als "dumm" abstempelt soll er lieber die Klappe halten. Die Rechtfertigung des Preises ist auch ein schlechter Witz, ich kann da nur drüber lachen :D

TobiWahnKenobi
2014-05-23, 13:00:27
aber ihr seid doch gar nicht die zielgruppe.. verstehe nicht, wie man sich über etwas, das man eh nicht haben will oder haben kann, so sehr das hirn zermartert und das maul zerreisst.. über wochen. DAS ist etwas, worüber kleingeister lachen sollten.

meldet ihr euch auch in apple oder porscheforen an und unkt in deren threads mit euren fiats und samsung hendies gegen die prestige und/oder preispolitik? affig.

@titan-z
ich benötige nichtmal virales marketing als werkzeug, denn wenn ich mir die benchmarks von AMDs 295x2 (http://ht4u.net/reviews/2014/amd_rad...295x2_im_test/) anschaue, so glaube ich nicht, dass titan-z viel braucht, um zumindest als effizienzsieger dazustehen. gibt ja genug messungen, wo die x2 trotz des immensen aufwands nicht gegen ein SLi aus 780TIs ankommt. speziell bei titan-z gehe ich davon aus, dass es das rundere produkt sein wird. das wird in jedes gehäuse passen und man wird es auch netzteilseitig ohne IT oder elektrotechnische ausbildung betreiben können. shice auf den preis - geld ist buntes papier. wer den krempel geil findet, wird ihn schon kaufen.


(..)

mfg
tobi

Screemer
2014-05-23, 13:01:58
die dinger liegen bei händlern seit wochen auf halde und er sagt, dass sie im zeitplan liegen?! aha.

fondness
2014-05-23, 13:13:54
@titan-z
ich benötige nichtmal virales marketing als werkzeug, denn wenn ich mir die benchmarks von AMDs 295x2 (http://ht4u.net/reviews/2014/amd_rad...295x2_im_test/) anschaue, so glaube ich nicht, dass titan-z viel braucht, um zumindest als effizienzsieger dazustehen. gibt ja genug messungen, wo die x2 trotz des immensen aufwands nicht gegen ein SLi aus 780TIs ankommt.


Das ist auch keine Kunst, wenn ich Takt und Spannung senke bin ich automatisch effizienter - aber eben auch langsamer.


speziell bei titan-z gehe ich davon aus, dass es das rundere produkt sein wird. das wird in jedes gehäuse passen und man wird es auch netzteilseitig ohne IT oder elektrotechnische ausbildung betreiben können. shice auf den preis - geld ist buntes papier. wer den krempel geil findet, wird ihn schon kaufen.


(..)

mfg
tobi

Gerade aufgrund der Triple-Slot Designs dürfte die "Z" wohl in so manches Gehäuse nicht passen wo ich eine 295X2 noch Platzieren kann, den einen Platz für einen 120mm Lüfter haben selbst kleine Gehäuse.

fondness
2014-05-23, 16:23:42
Angeblich jetzt am 28. Mai
http://www.computerbase.de/2014-05/nvidia-geforce-titan-z-bekommt-neuen-termin/

Loeschzwerg
2014-05-23, 18:12:10
@tobi: Apple ist abseits der Smartphones/Tablets eigentlich bezahlbar (Macbook Air vs Ultrabook).

Es ging mir nicht um den Preis, sondern um die peinlichen Aussagen im Interview.

Bei so einem Preis braucht man nichts mehr sagen, denn wie du schon selbst schreibst, wer das Zeug geil findet, der kauft es so oder so und alle anderen sind nicht die Zielgruppe. Da schweigt man als CEO besser als sich angreifbar zu machen :) Oder zweifelt man etwa am eigenen Produkt und muss die potentielle Kundschaft erst noch mit Worten überzeugen? Sowas hörst du bei Porsche bestimmt nicht ;)

Es gibt halt nur die Nische "zwei GK110 auf einem PCB", für alles andere gibt es 2x Titan Black + Xeon 8 Kerner :D

Knuddelbearli
2014-05-23, 18:15:31


für alles andere gibt es 3x 290X + Titan Black als PhysX Karte !

Schnoesel
2014-05-23, 18:24:30
@titan-z
ich benötige nichtmal virales marketing als werkzeug, denn wenn ich mir die benchmarks von AMDs 295x2 (http://ht4u.net/reviews/2014/amd_rad...295x2_im_test/) anschaue, so glaube ich nicht, dass titan-z viel braucht, um zumindest als effizienzsieger dazustehen. gibt ja genug messungen, wo die x2 trotz des immensen aufwands nicht gegen ein SLi aus 780TIs ankommt. speziell bei titan-z gehe ich davon aus, dass es das rundere produkt sein wird. das wird in jedes gehäuse passen und man wird es auch netzteilseitig ohne IT oder elektrotechnische ausbildung betreiben können.

Das sagen aber die jüngsten Leaks was anderes. Verbrauch wird leicht unterhalb der R9 295X2 liegen und mit 2x8 Pin wie auf den diversen Bildern dargestellt ebenfalls die PCIe Specs masssiv brechen. Soviel zum Thema Netzteil.

Die Leaks sprachen auch von einem Boost der max. bei 1080 liegen soll, von permanent kann dabei keine Rede sein, so wird die Z nicht schneller werden wie ein GTX 780TI Gespann das Ihren Takt halten kann.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10211520&postcount=462

Ich erwarte daher eine Karte, die

- nicht wesentlich schneller wie die Kokurrenz sein wird (wenn überhaupt)
- ebenfalls die PCIe Specs verletzen wird
- Unter Last um einiges Lauter sein wird

Selbst ohne den überzogenen Preis nicht konkurrenzfähig ist aber der CEO hat ja schon deutlich gemacht wer die Karte kaufen soll: Reiche ohne Plan, für die Geld eben nix anderes ist als buntes Papier ...

Ah und noch was weil du den Bench von HT4U gepostet hast: Die Karte muss erstmal so schnell wie 2 TIs werden, die auch noch in der Auflösung für die die Karte gemacht sein soll laut CEO gegen die R9 295 leicht verliert. Aber das sehen wir ja dann wenns den mal so weit ist... irgendwann.

TobiWahnKenobi
2014-05-23, 18:34:07
für die, die AMD - aus welchen gründen auch immer - nicht haben möchten, muss die karte weder billiger noch schneller als der mitbewerb sein.

in der spielelandschaft ist man mit einer titan sehr gut aufgestellt. wer - aus welchen gründen auch immer - MPGU haben möchte, bekommt ab dem 28.5. MGPU-lösungen von beiden IHVs ohne einzelkarten anschaffen zu müssen. die letzte geile MGPU-karte - für mich - war GTX690.


(..)

mfg
tobi

Knuddelbearli
2014-05-23, 18:53:38
du kannst dir ja auch alles schönreden ^^

TobiWahnKenobi
2014-05-23, 18:57:07
du kannst dir ja auch alles schönreden ^^

ich kann das auch alles total negativ sehen. es ist schon traurig, dass man in 4K spielen muss, um in titel XY shader und kantenflimmern zu eleminieren und noch trauriger, dass man um das global nutzen zu können, MGPU mit AFR ertragen muss. wo bleibt die entwicklung mit der für den markt wirklich wichtigen SGPU-lösungen, die leistungsfähig genug für 4k global sind?! mir wäre eine solche SGPU-lösung, die sich an standards hält einen vierstelligen betrag wert; aber MGPU? nö.

btw,
über anderer leute geld oder motivationen mache ich mir keinen kopf.


(..)

mfg
tobi

kruemelmonster
2014-05-23, 19:35:06
Das doppelte wie die Konkurrenz zu verlangen ist und bleibt affig, selbst wenn man die SemiPros als Zielgruppe ansprechen möchte. 2000$ hätten prestigemäßig auch gereicht um zu zeigen "Wir haben das bessere weil rundere Produkt (davon gehe ich jetzt erfahrungsgemäß einfach mal aus), und das kostet halt Aufpreis". Drei Scheine sind mehr oder weniger die Aufforderung zum Flamewar, da zieht bei mir auch kein NV-Bonus mehr, besonders nicht für ne technisch langweilige AFR-Lösung. Titan Classic hat zu seiner Zeit zusätzlich zum Marketing/Prestigegewinn wenigstens einen Mehrwert für seinen Aufpreis gebracht (6 GB + DP), für die 1000€ Aufpreis ggü zwei Titan Black spart man dagegen nur einen PCIe Slot und zwei Stromstecker ein.

Gerade aufgrund der Triple-Slot Designs dürfte die "Z" wohl in so manches Gehäuse nicht passen wo ich eine 295X2 noch Platzieren kann, den einen Platz für einen 120mm Lüfter haben selbst kleine Gehäuse.

Blödsinn. Von konstruierten Fällen wie einem ZweiSlot ITX-Gehäuse abgesehen passt die Z ab MicroATX überall rein. Dir ist wohl auch nichts zu blöd um NV zu bashen, als würde der abstruse Preispunkt nicht schon reichen.

fondness
2014-05-23, 21:52:17
Blödsinn. Von konstruierten Fällen wie einem ZweiSlot ITX-Gehäuse abgesehen passt die Z ab MicroATX überall rein. Dir ist wohl auch nichts zu blöd um NV zu bashen, als würde der abstruse Preispunkt nicht schon reichen.

Wie wäre es mal mit einem sachlichen Beitrag? Gerade diese ITX-Gehäuse wurde hier häufig gezeigt, umgekehrt gibt es wohl kaum einen Fall wo kein 120mm Lüfterplatz vorhanden ist. Das wird man ja wohl anmerken dürfen wenn das Gegenteil behauptet wird ohne von der "NV-Polizei" blöd von der Seite angemacht zu werden.

Rente
2014-05-23, 23:17:21
In den meisten ITX-Gehäusen ist dafür nur Platz wenn man keine Wasserkühlung für die CPU einsetzt, in vielen Midi-Towern sieht es ähnlich aus (wenn man nicht will das die Wärme in das Gehäuse gepustet wird).
Man kann sich für beide Varianten genug Fälle konstruieren, die Lösung von nVidia ist aber "mainstreamiger".

Wäre AMD wirklich schlau gewesen hätten sie sich bei Swiftech die Wakü zugekauft, die nutzen nämlich normale Anschlüsse/Schlauchdurchmesser und die Systeme sind modular (und es gibt sie mit 240/360er-Radis...), AseTek hat das bisher nicht gebacken bekommen.

Das hätte den UVP wohl nur unmerklich erhöht, hätte aber u.U. gleich mehrere Problemzonen beseitigt...

gedi
2014-05-24, 00:11:24
.... was sehr gut klingt, allerdings aufgrund der Radi-Größe (nicht jeder hat eine Wakü verbaut) incl. Gefrickel nicht unbedingt als Kaufanreiz dient.

Imo hat AMD bei der Kühlung alles richtig gemacht und auch sonst ist das Produkt, abgesehen der lediglich 2x 8-Pin Anschlüsse, stimmig und dem Straßenpreis von 1200.-€ angemessen.

kruemelmonster
2014-05-24, 05:13:57
Wie wäre es mal mit einem sachlichen Beitrag? Gerade diese ITX-Gehäuse wurde hier häufig gezeigt, umgekehrt gibt es wohl kaum einen Fall wo kein 120mm Lüfterplatz vorhanden ist. Das wird man ja wohl anmerken dürfen wenn das Gegenteil behauptet wird ohne von der "NV-Polizei" blöd von der Seite angemacht zu werden.

Es gibt sage und schreibe zwei (http://geizhals.at/de/?cat=gehatx&xf=534_Mini-DTX~534_Mini-ITX~534_Nano-ITX~534_Pico-ITX~534_Thin+Mini-ITX~2634_300~551_120mm#xf_top) ITX Gehäuse mit 120mm Lüfterplatz, in die die 295 X2 längenmäßig passt und die so flach sind das sie sich ggü einem µATX Tower auch lohnen, das Cooler Master HAF Stacker 915F und das Antec ISK 600.
Ziemlich mager für "dürfte die "Z" wohl in so manches Gehäuse nicht passen wo ich eine 295X2 noch Platzieren kann", dagegen passt die Z laut Geizhals in 112 (http://geizhals.at/de/?cat=gehatx&xf=534_%B5ATX%7E2634_300#xf_top) µATX Gehäuse, ganz gleich wie groß der Lüfterplatz oder der CPU-Kühler ist.

Erst konstruierst du ein Anti NV-Märchen, und wenn man das direkt anspricht ist man unsachlich und trägt ne Marke?

Edgecrusher86
2014-05-24, 07:36:10
The Resolutionary War : GTX TITAN Z @ 5K (http://iyd.kr/649)

Neues chinesisches Review (der Author arbeitet auch an einer engl. Übersetzung)

"Kleine Zusammenfassung" - 5K Auflösung (5120x2700) & normalisiertes Performancerating (je 15 Games, wobei in 5K die 3 und 4GB Karten bei einigen Titeln aus Performancegründen nicht berücksichtigt wurden):

http://abload.de/thumb/23435d3c5379f72d10f81byson.png (http://abload.de/image.php?img=23435d3c5379f72d10f81byson.png) http://abload.de/thumb/4_ps2_1bbs9j.jpg (http://abload.de/image.php?img=4_ps2_1bbs9j.jpg) http://abload.de/thumb/4_ps2_2vasbf.jpg (http://abload.de/image.php?img=4_ps2_2vasbf.jpg) http://abload.de/thumb/4_ps2_3h6sx0.jpg (http://abload.de/image.php?img=4_ps2_3h6sx0.jpg) http://abload.de/thumb/4_ps2_4sosqc.jpg (http://abload.de/image.php?img=4_ps2_4sosqc.jpg) http://abload.de/thumb/4_ps2_5dbsqv.jpg (http://abload.de/image.php?img=4_ps2_5dbsqv.jpg)

Quelle: http://iyd.kr/649

Skysnake
2014-05-24, 08:33:02
Naja, an sich absolut nichts Neues, aber dennoch Danke.

Die Z liegt halt zwischen nem GTX780 und nem GTX780Ti SLI, was bedeutet, das man je nach Auflösung doch recht deutlich langsamer ist als ne R9 295X2. Und insbesondere bei hohen Auflösungen ja, für die ja die GPU gemacht worden sein soll. Stichwort 4k.

fondness
2014-05-24, 10:03:27
NV könnte durch den neuen "Wundertreiber" höchstens Vorteile bei niedrigen Auflösungen im CPU-limit haben...

Es gibt sage und schreibe zwei (http://geizhals.at/de/?cat=gehatx&xf=534_Mini-DTX~534_Mini-ITX~534_Nano-ITX~534_Pico-ITX~534_Thin+Mini-ITX~2634_300~551_120mm#xf_top) ITX Gehäuse mit 120mm Lüfterplatz, in die die 295 X2 längenmäßig passt und die so flach sind das sie sich ggü einem µATX Tower auch lohnen, das Cooler Master HAF Stacker 915F und das Antec ISK 600.
Ziemlich mager für "dürfte die "Z" wohl in so manches Gehäuse nicht passen wo ich eine 295X2 noch Platzieren kann", dagegen passt die Z laut Geizhals in 112 (http://geizhals.at/de/?cat=gehatx&xf=534_%B5ATX%7E2634_300#xf_top) µATX Gehäuse, ganz gleich wie groß der Lüfterplatz oder der CPU-Kühler ist.


Wenn du nur nach "Lüfter hinten" selektierst, jeder dieser Gehäuse hat einen 120mm Lüfterplatz:
http://geizhals.at/de/?cat=gehatx&asuch=120mm&asd=on&bpmax=&v=e&plz=&dist=&filter=aktualisieren&mail=&sort=t&xf=534_Mini-DTX~534_Mini-ITX~534_Nano-ITX~534_Pico-ITX~534_Thin+Mini-ITX~2634_300

Erst konstruierst du ein Anti NV-Märchen, und wenn man das direkt anspricht ist man unsachlich und trägt ne Marke?

Man kann etwas auch ansprechen ohne jemanden persönlich zu beleidigen, auch wenn du das offenbar nicht schaffst. Im übrigen habe ich nur reagiert auf die Aussage von Tobi.

StefanV
2014-05-24, 10:19:36
Es gibt sage und schreibe zwei (http://geizhals.at/de/?cat=gehatx&xf=534_Mini-DTX~534_Mini-ITX~534_Nano-ITX~534_Pico-ITX~534_Thin+Mini-ITX~2634_300~551_120mm#xf_top) ITX Gehäuse mit 120mm Lüfterplatz, in die die 295 X2 längenmäßig passt und die so flach sind das sie sich ggü einem µATX Tower auch lohnen, das Cooler Master HAF Stacker 915F und das Antec ISK 600.
Und ein Silverstone Raven Z geht nicht?! (http://geizhals.at/de/silverstone-raven-z-sst-rvz01-a1064103.html)

Ganz ab davon: bei einem µATX Tower hast 4 Slots gesamt. Der erste PCIe ist entweder ganz oben oder 2. von oben. In jedem Fall kannst dann genau noch einen Slot nutzen - etwas suboptimal, in dieser Situation...

Skysnake
2014-05-24, 10:29:08
Das geht ganz sicher nicht. Das kann ich mir nicht vorstellen, dass da noch der Radi rein passt unter die GPU.

kruemelmonster
2014-05-24, 12:16:59
Wenn du nur nach "Lüfter hinten" selektierst, jeder dieser Gehäuse hat einen 120mm Lüfterplatz:
http://geizhals.at/de/?cat=gehatx&asuch=120mm&asd=on&bpmax=&v=e&plz=&dist=&filter=aktualisieren&mail=&sort=t&xf=534_Mini-DTX~534_Mini-ITX~534_Nano-ITX~534_Pico-ITX~534_Thin+Mini-ITX~2634_300

Und sehr viele davon haben schon die Abmaße eines µATX Towers. Aber davon abgesehen würdest du dann allen Ernstes den Radi einer 1000€+ Graka ans wackelige Deckelblech eines <100€ Gehäuses schrauben, während der Lüfter beim Versuch die Abwärme aus dem Winzgehäuse wegzuschaffen alles schön zum Schwingen bringt, vorrausgesetzt dass das überhaupt passen würde?
Und das ist dann kein konstruiertes Argument?


Man kann etwas auch ansprechen ohne jemanden persönlich zu beleidigen, auch wenn du das offenbar nicht schaffst. Im übrigen habe ich nur reagiert auf die Aussage von Tobi.

Moment, DU hast MIR vorgeworfen, ich sei ein unsachlicher NV-Polizist der dich blöd von der Seite anmacht, nicht umgekehrt.
Ich hab nur deine Motivation kritisiert, und der Ton der Kritik war imo der Qualität deines Arguments angemessen.

Ganz ab davon: bei einem µATX Tower hast 4 Slots gesamt. Der erste PCIe ist entweder ganz oben oder 2. von oben. In jedem Fall kannst dann genau noch einen Slot nutzen - etwas suboptimal, in dieser Situation...

Ein freier Slot mit einer Z @ µATX ist ein freier Slot mehr als man mit einer X2 @ ITX hat. Und im Raven würde der Radi mit dem Netzteil kollidieren.

y33H@
2014-05-28, 15:10:49
Und da ist sie: http://eu.evga.com/articles/00833/

dildo4u
2014-05-28, 15:14:01
Wakü Version von EVGA.

http://www.evga.com/articles/00833/#3999

4Fighting
2014-05-28, 15:16:43
EVGA Price €2,769,90 für die normale...Ziehen wir mal 100-200€ ab, weil Herstellershops doch imo teurer sind

maximus_hertus
2014-05-28, 15:17:41
Nicht ein Review? Sicherlich, die Titan Z ist keine "Massenware", aber gar kein Review?!

4Fighting
2014-05-28, 15:18:46
hier gibts was

http://www.digitalstormonline.com/unlocked/nvidia-geforce-gtx-titan-z-review-and-4k-benchmarks-idnum280/

Blediator16
2014-05-28, 16:08:14
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/66518-nvidia-s-gtx-titan-z-gk110-squared.html

Unfortunately we can’t test these theories since NVIDIA has strictly limited press coverage this time around, which is understandable considering the TITAN-Z isn't a predominantly gaming-focused card. The last thing they want is to have their $3000 darling losing to an alternate solution from the competition which costs half its price.

Wird wohl auch kaum was kommen.

Iruwen
2014-05-28, 16:40:30
Keine gamingfokussierte Karte? Das klingt bei NV aber anders, vielleicht sollten sich PR und wasauchimmerfüreine Abteilung mal absprechen.
http://www.nvidia.de/object/announcing-the-geforce-gtx-titan-z-25032014-de.html

Blediator16
2014-05-28, 16:58:20
Falls sie mal die Dominanz mit CUDA verlieren sollten, können sie diese Spielchen natürlich nicht mehr spielen, was aktuell noch geht. Am Ende entscheiden die Käufer inwieweit Nvidia sich in dieser Taktik bestätigt fühlen kann.

Thunder99
2014-05-28, 16:59:41
Die Titan Z ist ja von den Daten her schon die bessere Karte im Vergleich zur R9 295x2 aber weniger Performance zu bessere Energieeffizienz aber deutlich höhere Anschaffungskosten sind für einen Gamer eher uninteressant. Alleine der DP Durchsatz ist deutlich besser wenn es um Performance geht

Conner_Ray
2014-05-28, 17:13:47
Die Titan Z ist ja von den Daten her schon die bessere Karte im Vergleich zur R9 295x2 aber weniger Performance zu bessere Energieeffizienz aber deutlich höhere Anschaffungskosten sind für einen Gamer eher uninteressant. Alleine der DP Durchsatz ist deutlich besser wenn es um Performance geht

Wer max. DP-Leistung und gute Effizienz braucht ist mit einer W9100 besser drann (ECC inclu).
Die Z ist leider weder Fisch noch Fleisch.
Für die Z spricht "nur" die Softwareumgebung (treiber CUDA)

M4xw0lf
2014-05-28, 19:06:48
Die Titan Z ist ja von den Daten her schon die bessere Karte im Vergleich zur R9 295x2 (...)
Ahja? Außer mehr Speicher fällt mir nix auf.

Knuddelbearli
2014-05-28, 19:11:21
er meint halt weil Nvidia draufsteht ist sie aus Prinzip besser

dildo4u
2014-05-28, 19:15:50
Ahja? Außer mehr Speicher fällt mir nix auf.
Siehe Watch_Dogs kann entscheidend sein,mit 2 GPU's wäre das Spielbar.

http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Videos/Sapphire-Vapor-X-8GB-Watch-Dogs-in-Ultra-HD-1122762/

Blediator16
2014-05-28, 19:16:03
Ich ahne was er meint. Er meint wahrscheinlich die 375watt tdp. Wird in sämtlichen Foren als positiv angeführt, was erstmal nicht schlecht ist, aber auch nichts besonderes. Untertakten/Undervolten ist die einfachste Methode die TDP zu drücken. Jeder Schimpanse ist dazu in der Lage.

occ-kh@Mirko
2014-05-28, 19:20:05
nVidia will die Konsumenten über die höchstwahrscheinlich nicht konkurrenzfähige Performance der GeForce GTX Titan Z glatt im Dunklen lassen.

Spieleperformance!, aber richtig, dass ist echt ein Ding.

Das hätte ich mir persönlich, bei der schon vorrätigen Verfügbarkeit der Z bei Händlern ganz anders vorgestellt. Ich glaub Nvidia weiß mittlerweile das sie Bockmist gebaut haben. So gebe ich devinitiv keine 3T aus, der Preis wird sich wohl alsbald einpendeln?, wahrscheinlich dann um 295x2 Niveau.

Eine Sammleranschaffung wird das dann auch nicht, der Preisverfall wäre viel zu hoch für Enthusiastenansprüche. Warten wir mal ab, was da noch kommt.

Hätte mir ja gewünscht die beweisen ganz offiziell, was die Z jetzt besser kann.

Siehe Watch_Dogs kann entscheidend sein,mit 2 GPU's wäre das Spielbar.[/url]
Wenn man sich den Nvidia eigenen Guide dazu ansieht, nehmen die 2 Titan und das ist genauso spielbar, kostet aber nur die Hälfte. Für den Spieler also schon mal garnix ausser "wer hat den längsten". Bin mal auf DP-Leistungstest gespannt.

M4xw0lf
2014-05-28, 19:22:41
Hätte mir ja gewünscht die beweisen ganz offiziell, was die Z jetzt besser kann.
Tun sie doch gerade.

:ulol:

occ-kh@Mirko
2014-05-28, 19:26:30
Tun sie doch gerade. :ulol:
Eine Totgeburt ohne Pressesample? Das meinen die echt nicht ernst!

(del676)
2014-05-28, 23:03:01
Best effort. :freak:

HarryHirsch
2014-05-29, 02:53:28
Es ist ein Gaming Monster. (http://eu.evga.com/articles/00833/)
:freak:

edit:

für DREI scheine! bwahahaha.

Hübie
2014-05-29, 03:23:59
Vor allem das Argument: Weniger als 50 Cent pro Kern X-D

Knuddelbearli
2014-05-29, 04:38:02
Es ist ein Gaming Monster. (http://eu.evga.com/articles/00833/)
:freak:

edit:

für DREI scheine! bwahahaha.

Es gibt 1.000€ Scheine ?!?
wohl eher 6 ;-)

Spasstiger
2014-05-29, 08:19:49
Der lächerlichste Grafikkartenrelease in den letzten Jahren. Erst hohe Erwartungen wecken mit nicht weniger als dem Versprechen, die schnellste Grafikkarte zu veröffentlichen, und mit der Bekanntgabe des bisher nie dagewesenen Preispunktes von 3000$ für eine Consumer-Grafikkarte (GeForce ist Consumer). Und dann weder bei der Vorveröffentlichung noch bei der eigentlichen Veröffentlichung etliche Wochen später Hardware abliefern, wahrscheinlich aus Angst vor dem Vergleich mit der Konkurrenz.
Nvidia soll mal von dem hohen Ross runterkommen.

Skysnake
2014-05-29, 09:23:24
Keine Pressesamples?

Ähmm... Ja ne IS KLAR!

Offensichtlicher kann man es ja kaum noch machen, das man keinen Vergleich zur Konkurrenz anstrebt und möglichst schnell einfach die Karten an irgendwelche Leute absetzen will, die sich eh einfach kaufen was nVidia auf den Markt wirft, einfach weil nVidia drauf steht.

Ich hoffe aber wirklich, dass sich die Verbraucherzentralen mal das DX12 anschauen, das FETT auf der Verpackung prangert. Das stößt mir nämlich direkt ziemlich sauer auf :down:

M4xw0lf
2014-05-29, 09:41:53
Vor allem das Argument: X-D
Ich glaube manchmal, dem Huang ist wirklich kein Spruch zu dumm :uup:

occ-kh@Mirko
2014-05-29, 09:58:12
Die Karte wird ja nun offiziell unter dem DX12 Label vermarktet, kann man denn jetzt mitteilen was DX12 rein von der FL Erfordernis beinhaltet? http://www.nvidia.de/object/geforce-gtx-titan-z-de.html#pdpContent=2

Spasstiger
2014-05-29, 12:44:32
Für DX12-Unterstützung benötigt es DX11-fähige Hardware und einen angepassten Treiber. Nvidia verspricht Unterstützung ab der Fermi-Generation, AMD ab der GCN-Generation: http://www.computerbase.de/2014-03/directx-12-keine-neue-hardware-windows/#update1.
Wir lernen also: Nicht jede DX12-Grafikkarte unterstützt alle D3D11-Featurelevels.

Raff
2014-05-29, 13:24:22
Microsoft weiß zum jetzigen Zeitpunkt wohl nicht einmal selbst, was noch alles in DX12 hineinkommt. Nvidias Angabe ist aber eine nochmalige Bestätigung dafür, dass es Feature-Levels geben wird und dass 11_0 der unterste ist. AMD wird mit aktuellen GPUs wohl bei 11_2 landen, sobald die Treiber reif sind. Mit einer neuen GPU-Generation kurz vor Release gibt's dann vermutlich auch einen Feature-Level 12.

MfG,
Raff

C.D.B.
2014-05-29, 17:11:55
Also, wenn ich mir die Stichworte zu diesem Thread hier betrachte:

* $3000 geforce
passt

* dual-gpu
passt

* gk110
passt

* titan
nö, da gibts nen separaten fred

* titan z
passt

* preis-wahnsinn
is relativ :lol:

* epic fail
:O omg, die untertreibung des Jahres ... fast so gut wie "alternativlos" ;)


Frische Köpfe im NVidia-Vorstand würden nicht schaden. :rolleyes:

Godmode
2014-05-30, 00:04:17
Die billigste Titan Z gibts übrigens schon um € 2.599. Mal sehen wie tief das noch geht in den nächsten Wochen.

http://geizhals.at/eu/?cat=gra16_512&asd=on&asuch=titan+z&xf=1439_GTX+Titan+Z&sort=p

Knuddelbearli
2014-05-30, 00:22:17
und? ist doch ganz normal das es unter UVP ist

gnahr
2014-05-30, 00:36:42
und? ist doch ganz normal das es unter UVP ist
amd hat doch letztens erst ne news geschoben, dass sie wieder die uvp halten können bei den paar aktuellen spielekarten... also spiel das mal nicht runter.

Knuddelbearli
2014-05-30, 00:46:07
[] Ich habe verstanden worum das AMD gesagt hat


Es ging darum das auf dem US Markt die 290(X) ewig lange deutlich über UVP vom Handel verkauft wurden. Und Preise unter UVP sind absolut normal auch die 295X2 ist ein gutes Stück unter der UVP im Handel. UVP ist immer so gewählt das im normalfall auch der teuerste Shop nicht darüber kommt. Im Onlinehandel sind dann immer 10-20% Luft

occ-kh@Mirko
2014-05-30, 09:22:12
amd hat doch letztens erst ne news geschoben, dass sie wieder die uvp halten können bei den paar aktuellen spielekarten... also spiel das mal nicht runter.
Die Aussage bezog sich eher auf den kanadischen/amerikanischen Raum. Dort waren die Preise mangels Verfügbarkeit bestimmter Modelle deutlich über UVP gestiegen.

Man hat dahingehend mitgeteilt, dass die Verfügbarkeit jetzt gesteigen ist und man die Preise dem Angebot (vs. Nachfrage/Marktlage) wieder anpasst und zukünftig auch stabil halten kann.

(del676)
2014-05-30, 10:19:58
Die billigste Titan Z gibts übrigens schon um € 2.599. Mal sehen wie tief das noch geht in den nächsten Wochen.

http://geizhals.at/eu/?cat=gra16_512&asd=on&asuch=titan+z&xf=1439_GTX+Titan+Z&sort=p

Und? Das ist auch der offizielle UVP wenn man es in Euro umrechnet und die Steuern aufschlaegt.

Godmode
2014-05-30, 10:31:36
Und? Das ist auch der offizielle UVP wenn man es in Euro umrechnet und die Steuern aufschlaegt.

Ok, ich dachte es wird wieder einfach 1:1 umgerechnet. Spannend wäre, wie viel den Händler eine Karte kostet.

Godmode
2014-06-02, 21:04:22
Wenn es so weiter geht, sind wir bald bei 2.000 Euro.

http://geizhals.at/eu/?phist=1121785

M4xw0lf
2014-06-02, 21:08:07
Wenn es so weiter geht, sind wir bald bei 2.000 Euro.

http://geizhals.at/eu/?phist=1121785

Dann ist das Ding nur noch 50% zu teuer :freak:

Godmode
2014-06-02, 21:11:00
Dann ist das Ding nur noch 50% zu teuer :freak:

Aber immerhin. Die Titan Z liegt wohl bei den Händlern wie Blei, nein wie Atommüll in den Lagern. ;D

Hoffentlich kauft sich PCGH ein Testsample, damit endlich Klarheit herrscht, was die Karte nun kann.

occ-kh@Mirko
2014-06-02, 22:32:56
Das "Ding" ist zur Zeit garnicht lieferbar. Die ist hier erst am 03.06.2014 verfügbar, also morgen. Euer Link ist nicht mehr hinterlegt. Die Billigste geht erst ab 2499 los. Da muss noch viel Wasser den Berg runterfließen...;)

TobiWahnKenobi
2014-06-02, 22:51:38
Wenn es so weiter geht, sind wir bald bei 2.000 Euro.

http://geizhals.at/eu/?phist=1121785

nein, bitte nicht.


(..)

mfg
tobi

boxleitnerb
2014-06-02, 22:57:38
Was für ein dummer Kommentar ist das? Günstiger ist immer besser.

M4xw0lf
2014-06-02, 23:05:01
Aber dann wächst der e-Penis nicht mehr beim Kauf :(

TobiWahnKenobi
2014-06-02, 23:07:50
Was für ein dummer Kommentar ist das? Günstiger ist immer besser.

das ist kein dummer kommentar - das ist ein betrag, den ich mir leisten kann. und wenn der freie fall den preis noch weiter drückt, könnte ich aus neugierde und dekadenz schwach werden, wenn ich nachm sommer oder im herbst mitm drehen fertig bin. dann bin ich sowieso ausreichend flüssig und so ein teil neben titan stecken, ist einen blick wert. hatte auch GTX690 und titan für physX. aber dann doch wieder zuviel zeit am rechner mit sli-profilen und bits verbringen.. ?!

eben das wollte ich nicht mehr. aber diese scheiss angewohnheit (nunmehr seit 31 jahren; ich werde diese woche 38) hätten mir intel und nvidia mit ihren derzeitigen topmodellen echt abgewöhnen können. ich spiel doch ex nix wirklich.. wolfenstein seit neulich mal ausgeklammert - darauf hab ich echt seit langem (seit skyrim) mal wieder bock.

andere menschen, andere denkweisen, andere motivationen. also ist für mich "leistbar" eher ein "bitte nicht".

klar soweit?

Aber dann wächst der e-Penis nicht mehr beim Kauf :(

meiner reicht - egal ob e oder rl - hab da reichlich feedback.


(..)

mfg
tobi

Raff
2014-06-02, 23:09:41
Aber immerhin. Die Titan Z liegt wohl bei den Händlern wie Blei, nein wie Atommüll in den Lagern. ;D

Hoffentlich kauft sich PCGH ein Testsample, damit endlich Klarheit herrscht, was die Karte nun kann.

Hmm. Das schreit nach einem Krautpfunding-Aufruf. :biggrin:

MfG,
Raff

Godmode
2014-06-02, 23:16:54
nein, bitte nicht.


(..)

mfg
tobi

Das Ding müsste billiger als zwei Titan Black werden, dann könnte man wirklich schwach werden. Jetzt ist das Ding überteuert und langsamer als zwei Titan Black.

Hmm. Das schreit nach einem Krautpfunding-Aufruf. :biggrin:

MfG,
Raff


Wo ist das Problem? Kaufen, Testen und auf Ebay rein. Dabei verliert ihr vielleicht 10-20% des Kaufpreises, was für euch doch Peanuts sein müssten.

M4xw0lf
2014-06-02, 23:19:44
Ich denke nicht dass PCGH regelmäßig 500 Tacken für Testmuster hinblättert :uponder:

TobiWahnKenobi
2014-06-02, 23:22:28
Das Ding müsste billiger als zwei Titan Black werden, dann könnte man wirklich schwach werden. Jetzt ist das Ding überteuert und langsamer als zwei Titan Black.


das wäre mir egal - ich mag 3DVision und ich habe eine maus, die nur bei 120Hz wirklich sinn und spaß macht. merke ich jetzt auch grad wieder, weil ich auf dem 27" asus tippe. wohingegen ist die letzten tage wegen wolfenstein auf fernseher und beamer unterwegs war - freilich auch unter windows (maximal 75Hz in allen auflösungen <4K).


(..)

mfg
tobi

occ-kh@Mirko
2014-06-02, 23:31:41
Klar soweit
Nein, die Logik fehlt egal wie viel Geld man hat...38-31=7, welcher Auffassung bist du da gefolgt? Bzw. was sollte dir Intel und Nvidia da abgewöhnen? Seit 31 Jahren?

Das Ding müsste deutlich billiger als zwei Titan Black, dann könnte man wirklich schwach werden. Jetzt ist das Ding überteuert und deutlich langsamer als zwei Titan Black.

Habs mal verbessert...

Knuddelbearli
2014-06-02, 23:40:43
bisher normaler Preis unter UVP

20% darunter ist ganz normal hat man auch bei der 295X2

Gabs überhaupt ne UVP in Euro?

TobiWahnKenobi
2014-06-02, 23:46:25
Nein, die Logik fehlt egal wie viel Geld man hat...38-31=7, welcher Auffassung bist du da gefolgt? Bzw. was sollte dir Intel und Nvidia da abgewöhnen? Seit 31 Jahren?



Habs mal verbessert...

jupp.. mit 7 meinen ersten bekommen und lückenlos von vc20, c16/116 und c64 angefangen alle gehabt. immer neue bekommen, immer erweiterungen, neue zusätzliche laufwerke.. cga, ega, vga mit 512kb, mit 1MB usw.. pci, agp.. voodoo1, 2, 2SLI.. TNT..TNT2..TNT2ultra.. rageII, rage128gl, rage fury.. und wie sie alle hiessen.

wie gesagt.. fast lückelos - es ist mir angewöhnt worden und ich habe das bis neulich auch immer weitergeführt..

neben meinen amigas stand ein PC10, später ein XT und dann ein AT, da wussten die meisten nicht was PCs sind und haben noch auf fernsehern gespielt.. ich habe auch noch gelernt DOS zu beherrschen. ich habe damals sogar für den spottpreis von 2.400DM von 386x33 auf einen 386x40MHz mit 4MB RAM aufgerüstet. ich glaube es war für wing commander.

schätze darum bin ich fachinformatiker geworden.. war bei c't.. bei siemens.. dass ich jetzt beim fernsehen bin (und vor drei tagen sogar eine rolle in nem kinofilm angenommen habe) war zufall und macht mehr spaß - mir wurde der computerkrempel nach 30 jahren langweilig.

ich hab noch SLi systeme hier rumstehen gehabt, als ich schon gar keinen bock mehr auf spiele hatte. es ist superselten, dass ich ein spiel kaufe und überhaupt mehr damit mache, als es mir anzuschauen. meine steam-bibliothek ist im grunde nur datenballast auf meinen festplatten und SSDs. ich habe von GTA5 vielleicht 30min gesehen - seit dem liegt es in einer der zugestaubten xboxen; aber ich musste es day1 haben. war vorbesteller bei amazon.. ebenso sieht es mit diablo3 aufm rechner aus..

mir diese kauflust sinnlosen krempels abzugewöhnen ist schwerer als einen alki zu entalken. und ich habe einen hang zu redundanz; ich hab total oft alles doppelt (spielkonsolen, rechner, peripherie, projektoren, hundekörbchen)..

..und tastaturen - die habe ich oktafach.. ich stehe auf mechas, kann mich aber nicht für bestimmte cherry-switches entscheiden; mag alle.. irgendwie.


(..)

mfg
tobi

Hübie
2014-06-02, 23:50:58
Nein, die Logik fehlt egal wie viel Geld man hat...38-31=7, welcher Auffassung bist du da gefolgt? Bzw. was sollte dir Intel und Nvidia da abgewöhnen? Seit 31 Jahren?

Einfach ignorieren ;D Tobi is wie er ist und einen 38-jährigen wirst du nicht ändern können.
Leute die wirklich Geld haben prahlen nicht damit ;);)

TobiWahnKenobi
2014-06-03, 00:00:09
Einfach ignorieren ;D Tobi is wie er ist und einen 38-jährigen wirst du nicht ändern können.
Leute die wirklich Geld haben prahlen nicht damit ;);)

als ich damals der FX59 beine gemacht habe, fanden mich alle toll. und wenn ich ne AMD/ATI nutze und dazu posts oder anleitungen schreibe und anderer leute probleme löse (egal ob 3D oder hertzen hochschrauben) ebenfalls..

schreibt man mal über dinge, die teuer sind, kommen leute mit buh rufen - soll das neid sein? ich doch totaler schwachsinn.

dass ich dinge kritisiere oder bestimmte hersteller bevorzuge, kommt wohl eher aus erfahrung, anspruch und meinem setup als aus langerweile. und ich kaufe beide hersteller. GTX680 ersetzte meine dritte 7970 (weil ich probleme mit sync und ton über HDMI hatte und stereoskopie ein graus war; wegen der AMD karte hab ich sogar nen neuen beamer gekauft). die 680 war aber schwächer und brauchte ne zweite daneben. neben dem i7 stand auch ne zeitlang ein AMD 8kerner. beide 4.7GHz, beide WAKÜ, beide SSDs und fette graka. der AMD bekam sogar 32GiB RAM; mein intel hat "nur" 16.

bsp. 3DVision - ich habe mit CRT + elsa revelator angefangen und bin seit dem dabei, habe auf beamer, fernseher und TFT (3D) erweitert und nie mit dem krempel aufgehört. aber wehe jemand mit solchen erfahrungen schreibt was negatives über AMDs lösung (idR tridef middleware).


(..)

mfg
tobi

occ-kh@Mirko
2014-06-03, 00:05:15
Hmm. Das schreit nach einem Krautpfunding-Aufruf. :biggrin:
Wenn es Kunst wäre, dann ja, aber so...

jupp.. mit 7 meinen ersten bekommen und lückenlos von vc20 und c64 angefangen alle gehabt
Schon mal überlegt was das mit Intel und Nvidia zu tun hat?
z.B. C64...
CPU=MOS
GPU=MOS

Beides von CSG...

Informatiker, man...wie schon gesagt, selbst als (Kunst-) Sammlerstück oder als Nvidiabegeisterter ist der zu erwartende Preisverfall derzeit zu heftig. Mir kommt es so vor als müsste Nvidia einfach eine Karte launchen, weil es AMD auch getan. Ich denke mal damit hat man sich ins Knie geschossen, oder plant vllt. ein späteres Hardware Update ala Titan Z Ultra (Black).

Hübie
2014-06-03, 00:06:09
Aha, TobiWahnKenobi.

http://abload.de/img/waynetrain37ena.jpg (http://abload.de/image.php?img=waynetrain37ena.jpg)
:D scnr

Titan Z ist ein CUDA-Miner. Damit meine ich auch nicht explizit bitcoin mining sondern auch datamining etc.
Ich kenne wirklich schon so einige die heiß drauf sind / waren. Und wer jetzt glaubt das sind Hinterweltlerbuden (Hallo Skysnake :biggrin:) der irrt: die machen TV- und Flash-Werbung für Spitzenprodukte :P

TobiWahnKenobi
2014-06-03, 00:07:58
Aha, TobiWahnKenobi.

http://abload.de/img/waynetrain37ena.jpg (http://abload.de/image.php?img=waynetrain37ena.jpg)
:D scnr

Titan Z ist ein CUDA-Miner. Damit meine ich auch nicht explizit bitcoin mining sondern auch datamining etc.
Ich kenne wirklich schon so einige die heiß drauf sind / waren. Und wer jetzt glaubt das sind Hinterweltlerbuden (Hallo Skysnake :biggrin:) der irrt: die machen TV- und Flash-Werbung für Spitzenprodukte :P

armes würstchen - mit neid lebt es sich echt ungeil.

sry, aber das würde dir jeder an meiner stelle schreiben.


(..)

mfg
tobi

Hübie
2014-06-03, 00:11:56
;D Hahahaaaa.... Ey ich hab gerade Essen im Mund und fall gleich vom Stuhl ;D

b2t: Hieß es nicht dass die deutschen Händler nur einstellige Mengen erhalten hätten? X-D

TobiWahnKenobi
2014-06-03, 00:12:35
Wenn es Kunst wäre, dann ja, aber so...


Schon mal überlegt was das mit Intel und Nvidia zu tun hat?
z.B. C64...
CPU=MOS
GPU=MOS

Beides von CSG...

Informatiker, man...wie schon gesagt, selbst als (Kunst-) Sammlerstück oder als Nvidiabegeisterter ist der zu erwartende Preisverfall derzeit zu heftig. Mir kommt es so vor als müsste Nvidia einfach eine Karte launchen, weil es AMD auch getan. Ich denke mal damit hat man sich ins Knie geschossen, oder plant vllt. ein späteres Hardware Update ala Titan Z Ultra (Black).

ich bin da nicht mehr so tief drin, dass ich interviews oder präsentationen anschaue, um bewerten zu können, ob da einer oder der andere in zugzwang ist.

vllt. ist die auch einfach der nachfolger der GTX690. die war auch "langsamer" als ein SLi aus GTX680ern. aber in meinem system (erst der i7; später neben titan und dann habe ich einen AMD auf 970 mit nem 8320 oder wie das teil heisst für die 690 gebaut (inkl. WAKÜ), war sie besser.

sie fühlte sich rundum besser an und war leiser, kühler und daher auch angenehmer für alles, was in meinem case wohnt. GTX690 fand ich sehr gut; GTX680 SLI (palit jetstream) hat mich genervt. eine ist sogar gestorben, aber ich hatte drei.

in dieser kiste hatte ich auch schon ne R9 290 unter titan stecken, umgerüstet auf acceleroIII; weil ich neugierig war.. in erster linie auf mantle. zur zeit ist ne GTX650Ti an dieser stelle, weil ich ein paar dinge mit physX getestet habe (u.a. AC). ich habe also immernoch diese beschissene neugierde. und da ist preisverfall voll kacke.


(..)

mfg
tobi

occ-kh@Mirko
2014-06-03, 00:14:09
Aha, TobiWahnKenobi.

http://abload.de/img/waynetrain37ena.jpg (http://abload.de/image.php?img=waynetrain37ena.jpg)
:D scnr

Titan Z ist ein CUDA-Miner. Damit meine ich auch nicht explizit bitcoin mining sondern auch datamining etc.
Ich kenne wirklich schon so einige die heiß drauf sind / waren. Und wer jetzt glaubt das sind Hinterweltlerbuden (Hallo Skysnake :biggrin:) der irrt: die machen TV- und Flash-Werbung für Spitzenprodukte :P
Mag ja sein, für den Spieler nicht relevant und Mining in D? Hobby, das bringt nichts mehr selbst wenn man auf Bitcoins setzt oder nicht.

Spielemäßig liegt sie leicht über Level von SLI 780 ohne ti, und was das kostet, naja, wobei man die beiden 780 richtig aufzirkeln kann, die Z nicht!

Selbst ein besserer Treiber hilft hier nicht weiter, der beschleunigt den Rest des Portfolie auch, oder man müsste die 780 etc. auschließen, also bisher ein Knieschuss. Jetzt sag ich ehrlich, hätte man sich lieber sparen sollen! Oder am Preis drehen.

Hübie
2014-06-03, 00:18:46
Hm. Na ja. Die hatten schon Dezember 2012 einen GK110 dual-board gebaut und da fiel wahrscheinlich auch die Entscheidung das Ding bis zur Marktreife zu prügeln. Irgendwann kommt der Punkt wo du nicht mehr zurück kannst und ich schätze als man von Vesuvius (oder wie die 295X auch immer heißt) erfuhr war der ponr schon überschritten.
Reine Speku meinerseits wieso das Teil im Laden liegt ;)

Meine Meinung: Dual-slot-Tesla|Quadro für 3000 $ wäre für Devs ein Traum. 2,5-slot-GeForce für 3000$ ist für Spieler ein Alptraum. ;D

Edit: Mit datamining meine ich sowas wie encryption oder Auswertung von gesammelten Daten (populärstes Beispiel ist da Folding@Home).

TobiWahnKenobi
2014-06-03, 00:39:58
gab es nicht neulich sogar einen bericht im fernsehen, dass es irgendwo ein bistro gibt, wo man mit bitcoins bezahlen kann?? ist das echt sinnvoll bei unseren strompreisen? ich bin da seit der hochstufung auf 186€/mtl irgendwie paranoid und geizig.


(..)

mfg
tobi

Hübie
2014-06-03, 00:46:30
Ich kann mir kaum vorstellen dass es sich in D lohnt wenn man nicht gerade eine bezahlte Photovoltaik-Anlage auf dem Dach hat.

aufkrawall
2014-06-03, 00:46:33
gab es nicht neulich sogar einen bericht im fernsehen, dass es irgendwo ein bistro gibt, wo man mit bitcoins bezahlen kann?? ist das echt sinnvoll bei unseren strompreisen?

Nö, aber im Studentenwohnheim mit fixen Stromkosten stellt sich die Frage nicht.
Fürs Scrypt-Minen kauft man aber keine GK110s (sagt Hübie ja auch nicht) und erst recht keine vergoldeten.
Es lohnt sich dann halt danach, was man mined und wie die Kurse abgehen (oder auch nicht).
Mit GK110 mined man besser mit anderen Algos wie X11 etc. Diese Altcoins kann man dann gegen Bitcoins traden. Für Scrypt-Mining (Litecoin, Vertcoin...) braucht man Radeons oder Maxwell. Bitcoin-Mining ist wegen der ASICs tot.

occ-kh@Mirko
2014-06-03, 01:17:02
Bitcoin-Mining ist wegen der ASICs tot.
Nicht unbedingt, ASICs werden zumeist in ziemlich alten Versionen frei verkauft. Da machen sich für den Privatgebrauch schon GPUs bezahlt, aber nicht zu den derzeitigen Preisen.

Und genau da ist auch bei Nvidias der Wurm drin, die Titan Blacks wären besser weil sie als "Solo-Boards" den Takt besser halten könnten. Genauso sieht es beim CUDA-Mining aus...die Black ist eben auch da besser.

Nvidia hätte sich überlegen sollen doch auf eine andere Kühllösung in Serie zu setzen, man verschenkt in seiner Arroganz brach liegende Leistung. Mit einen @1,2Ghz Boost Takt sähe die Sache schon wieder anders aus und das schafft der GK110 locker.

occ-kh@Mirko
2014-06-03, 01:17:31
upps...gefixt...bitte löschen

TobiWahnKenobi
2014-06-03, 01:26:30
die karte wird sich doch sicher auch übertakten lassen. immerhin werden die auch in viel heisseren ländern verkauft. bei meinen letzten nvidias konnte ich pauschal immer per arschbrenner +125MHz einstellen ohne mit spannungen fummeln zu müssen. wie es zuhause performt, heizt, brüllt und harmoniert müssen wir echt selbst testen.

@krawall
danke!!! BAHNHOF für alles nach dem wohnheim.

btw,
wenn die karte einen hohen VK hat, hat sie auch einen hohen EK - wer legt sich sowas hin.. als händler.


(..)

mfg
tobi

Hübie
2014-06-03, 01:36:50
Die zahlen ja nicht bar sondern Zahlungsziel und meist auch über die Bank. ;) Der Käsekönig hat auf jeden Fall welche in Berlin. Und in Britannien ;D

TobiWahnKenobi
2014-06-03, 01:39:56
http://abload.de/img/unbenanntk4j0n.png

hmm...

690 war mir 1050 wert.. titan hat mich 900 gekostet und konnte 690 in manchem nicht und in vielem total ersetzen.. dann ist die Z etwa das doppelte der 690.. zu weihnachten müsste Z dann bei 1900 sein..

..ich gehe einfach erstmal schlafen.


(..)

mfg
tobi

Hübie
2014-06-03, 01:49:21
Das ist ne normale Titan. Geh mal lieber pennen ;)

Du meintest vielleicht eher diese:

http://abload.de/img/titanzt0sx8.png (http://abload.de/image.php?img=titanzt0sx8.png)

aufkrawall
2014-06-03, 02:15:25
Nicht unbedingt, ASICs werden zumeist in ziemlich alten Versionen frei verkauft. Da machen sich für den Privatgebrauch schon GPUs bezahlt, aber nicht zu den derzeitigen Preisen.

BTCs minen wird nie wieder Sinn machen:
http://www.coinwarz.com

occ-kh@Mirko
2014-06-03, 02:24:55
Dann nimm lieber die: http://www.mindfactory.de/product_info.php/2x-6144MB-Palit-GeForce-GTX-Titan-Z-Aktiv-PCIe-3-0-x16--Retail-_960841.html

@aufkrawall
Könnte sein, wer aber clever war und die BC abgestossen hat, hat erstmal noch was in Hinterhand. Und wer welche vor Jahren für 50 Euro gekauft hat sowieso...;). Dem ist der Preis der Z sowieso egal. Ist wie mit der VW Aktie. Man muss wissen wann man verkauft!

als Bsp.: www.gruenderszene.de/.../bitcoin-rekordhoch-lieferservice-de

Dural
2014-06-03, 09:08:30
ja und? selbst 2000.- wären immer noch zu viel gegen 2x Titan Black und die dürften dank besserer Kühlmöglichkeiten und 2x PCI-E 3.0 erst noch schneller sein.

Die Aktuellen Dual GPU Karten sind ein Witz, sie sind ja nicht mal wirklich sparsam auf FPS/Leistung bezogen, das sah bei der 690 noch deutlich anders aus.
man muss schon ziemlich einer an der Wafel haben um sich eine 295X oder Titan Z zuzulegen ;)

occ-kh@Mirko
2014-06-03, 17:19:09
@digitalstorm http://www.youtube.com/watch?feature=player_embedded&v=Wp-S15L3dHA

http://www.youtube.com/watch?feature=player_embedded&v=Wp-S15L3dHA

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/bioshock.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/crysis3.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/heaven.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/3dmark.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/temperature.jpg

Motherboard: ASUS Rampage IV Black
CPU: Intel 4960X at 4.6 GHz
Memory: 32 GB Corsair Dominator 1866 Mhz
Monitor: ASUS PQ321Q Drivers 337.91

Godmode
2014-06-03, 21:07:49
Unglaublich das es immer noch keine Reviews von normalen Seiten gibt...
Btw, für den Preis hätte man gleich 12 GB pro GPU verbauen können, schließlich vermarkten sie die Karte ja als "Profi-Karte".

Raff
2014-06-03, 21:18:04
Unglaublich das es immer noch keine Reviews von normalen Seiten gibt...

Nvidia verteilt doch keine Samples des verspäteten Zweitplatzierten. ;)

@digitalstorm http://www.youtube.com/watch?feature=player_embedded&v=Wp-S15L3dHA

http://www.youtube.com/watch?feature=player_embedded&v=Wp-S15L3dHA

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/bioshock.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/crysis3.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/heaven.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/3dmark.jpg

http://www.digitalstormonline.com/unlocked/images/articles/Nav/TitanZ/temperature.jpg

Großartige Benchmarkauswahl: Ein paar Synthies, wo die Karte ihren Boost gewiss hochhalten kann, plus zwei Spiele, bei denen Nvidia gegenüber AMD sehr gut dasteht. Höchst einseitige Betrachtung.

MfG,
Raff

Godmode
2014-06-03, 21:19:44
Nvidia verteilt doch keine Samples des verspäteten Zweitplatzierten. ;)

MfG,
Raff

Scheint so. Ihr habt doch mit NV-Deutschland einen guten Kontakt, sagen die nichts was Sache ist?

robbitop
2014-06-04, 09:13:45
Dann verstehe ich nicht, warum große Redaktionen die Karte nicht einfach kaufen (und danach ggf. weiterverkaufen)? Damit hätte man offenbar einen Exklusivbericht.

4Fighting
2014-06-04, 09:18:18
Dann verstehe ich nicht, warum große Redaktionen die Karte nicht einfach kaufen (und danach ggf. weiterverkaufen)? Damit hätte man offenbar einen Exklusivbericht.

Das habe ich mich speziell bei Tests zu Watch Dogs und einem Xeon 8 Kerner für 1800 EUR auch gefragt.

occ-kh@Mirko
2014-06-04, 10:06:36
@Raff
Grossartige Antwort....wunder dich nicht wenn man dann annimmt es gäbe Fanboyambitionen. Es ist einer der Test nach Launch die man einsehen kann. Siehst du einen Kommentar von mir dazu?

Ändert doch was daran...so angenomme spekulative Skalierungsergebnisse die mit der offiziellen Taktrate nicht konform gehen sind genauso wertlos und sagen kaum was aus sind aber bei der PCGH eingestellt! (nur mal so ganz nebenbei bemerkt)...also lassen wir die Diskussion um Professionalität lieber beiseite und halten uns an dem was verfügbar ist. Spekulieren können wir immer noch.

Wie hardware- oder herstellerlastig das ist, kann ich nicht beurteilen. Ich kenne die Seite nicht...und überlass dir selbst deine Schlüsse daraus zu ziehen. :)

Kritisiere mich aber bitte nicht so unterschwellig für Ergebnisse an denen ich nicht mit gearbeitet habe. Erwartest du ein Testsample von Nvidia, dann warte mal...

Edit sagt: ich hätte nach einen zum Teil so aussagenkräftigen Vorabeinstufungsergebnis sowieso erwartet, das ein Test folgt, wenn man sich dem Thema sowie oben angeführt bereits gewitmet hat. Nvidia dürfte der Artikel zumindestens aufgefallen sein...

Raff
2014-06-04, 10:58:38
Ich kritisiere doch gar nicht dich, sondern den fragwürdigen Test – bevor den jemand für voll nimmt. ;)

MfG,
Raff

Ätznatron
2014-06-04, 10:59:13
Dann verstehe ich nicht, warum große Redaktionen die Karte nicht einfach kaufen (und danach ggf. weiterverkaufen)? Damit hätte man offenbar einen Exklusivbericht.

Und eventuell den Nachteil, nie wieder von NV mit Testsamples versorgt zu werden?

So was in der Richtung kann ich mir schon gut vorstellen.

fondness
2014-06-04, 11:02:12
Vermutlich haben eh schon manche sich eine Karte im Handel besorgt, aber so einen Test schriebt man auch nicht von heute auf morgen. Ich bin mir sicher das Tests kommen werden, die Redaktionen sind auch nicht blöd.

occ-kh@Mirko
2014-06-04, 11:08:08
@Raff
O.K. falsch verstanden...:)

@Ätznatron
ht4u...?

@fondness
Definitiv, dann warten wir...wenn nicht vllt. hat jemand bereits eine Karte da und macht sie zur "Hure" für die Redaktionen! ;)

Aber der Umgang mit der T Black gibt mir zu denken.

Ätznatron
2014-06-04, 11:10:04
Vermutlich haben eh schon manche sich eine Karte im Handel besorgt, aber so einen Test schriebt man auch nicht von heute auf morgen. Ich bin mir sicher das Tests kommen werden, die Redaktionen sind auch nicht blöd.

Na ja, mittlerweile dürfte genügend Zeit vergangen sein, in der zumindest schon mal Zwischenergebnisse möglich gewesen wären.

Aber außer diesem zweifelhaften Test gibt es nichts.

Es wirkt, als würde die Karte totgeschwiegen.

edit:

@amd-occ-kh@Mirko

ht4u? Soweit ich weiss, bekommen die weiterhin Samples, zwar nicht von jedem Modell, aber total boykottiert werden sie wohl auch nicht. Aber preislich ist die Karte natürlich auch eine Hausnummer für sich...

Raff
2014-06-04, 11:12:41
Gerade ist übrigens die halbe Pressewelt in Taipeh (Computex).

MfG,
Raff

Nightspider
2014-06-04, 11:13:20
Außerdem ist die Titan Z eh langweilig.
Bei den Tests wird absolut nichts Interessantes herauskommen.

Selbst den meisten Enthusiasten geht die Karte am Arsch vorbei. ;)

Ätznatron
2014-06-04, 11:16:04
Gerade ist übrigens die halbe Pressewelt in Taipeh (Computex).

MfG,
Raff

Ein idealer Moment, die Karte auf den Markt zu werfen. :biggrin:

Raff
2014-06-04, 11:22:01
Selbst den meisten Enthusiasten geht die Karte am Arsch vorbei. ;)

Aber nur, weil sie überteuert ist. Für Tausend Euro würde sich das Ding gewiss blendend verkaufen. ;)

MfG,
Raff

occ-kh@Mirko
2014-06-04, 11:31:23
Soweit ich weiss, bekommen die weiterhin Samples, zwar nicht von jedem Modell, aber total boykottiert werden sie wohl auch nicht.
Das reicht schon.

Gerade ist übrigens die halbe Pressewelt in Taipeh (Computex)
Jupps, Berichterstattung läuft ja...;D

Aber nur, weil sie überteuert ist. Für Tausend Euro würde sich das Ding gewiss blendend verkaufen. ;)
Das würde einen Run geben...

Kriton
2014-06-04, 12:33:54
Dann verstehe ich nicht, warum große Redaktionen die Karte nicht einfach kaufen (und danach ggf. weiterverkaufen)? Damit hätte man offenbar einen Exklusivbericht.

Interessiert dies die Masse der eigenen Leser?
Uninteressant finde ich das nicht unbedingt, aber da es eindeutig außerhalb dessen liegt was ich zu investieren bereit bin und auch technisch (beispielsweise seitens der Architektur) nichts bietet was sich auf spätere Karten runterbrechen ließe ist das ein Thema, bei dem ich nicht einmal einen 2. Blick auf eine Zeitung werfen würde, die mich ebenfalls Geld kostet.

Knuddelbearli
2014-06-04, 12:43:23
Na ja, mittlerweile dürfte genügend Zeit vergangen sein, in der zumindest schon mal Zwischenergebnisse möglich gewesen wären.

Aber außer diesem zweifelhaften Test gibt es nichts.

Es wirkt, als würde die Karte totgeschwiegen.

edit:

@amd-occ-kh@Mirko

ht4u? Soweit ich weiss, bekommen die weiterhin Samples, zwar nicht von jedem Modell, aber total boykottiert werden sie wohl auch nicht. Aber preislich ist die Karte natürlich auch eine Hausnummer für sich...


HT4U hat meines Wissens schon Ewigkeiten nix mehr von NV bekommen. Gerade testen sie die Black und das Schmeckt NV gar nicht und boykottieren sie mom komplett und geben nichtmal Review guides raus

robbitop
2014-06-04, 12:44:46
Man ließt auch Artikel über HW, die man sich nicht kauft. Ich würde sagen sogar vermehrt. Ansonsten hätte ich mittlerweile wohl ein paar Mio € Schulden. :D

haudi
2014-06-04, 15:55:12
Hehe, so siehts aus

Godmode
2014-06-04, 15:56:21
HT4U hat meines Wissens schon Ewigkeiten nix mehr von NV bekommen. Gerade testen sie die Black und das Schmeckt NV gar nicht und boykottieren sie mom komplett und geben nichtmal Review guides raus

Warum schmeckt das NV nicht?

maximus_hertus
2014-06-04, 16:03:48
Warum schmeckt das NV nicht?

HT4U bzw. Peter testet wohl zu gewissenhaft und zu genau ^^

Das finde ich leider sehr schade, dass nV so einen Bammel hat :/

Godmode
2014-06-04, 16:46:50
HT4U bzw. Peter testet wohl zu gewissenhaft und zu genau ^^

Das finde ich leider sehr schade, dass nV so einen Bammel hat :/

Ich mag deren Produkte, aber ihre Politik finde ich öfters nicht ganz ok.

Hübie
2014-06-04, 16:54:47
Das grenzt teilweise an Mafia-Methoden. Warum denke ich plötzlich an Intel:confused::freak:

occ-kh@Mirko
2014-06-05, 19:31:17
http://img5.fotos-hochladen.net/uploads/computex2014evk0i7ao3wul.jpg (http://www.fotos-hochladen.net)
@Hardwareluxx

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/31411-computex-2014-evga-zeigt-geforce-gtx-titan-z-mit-eigenem-kuehler.html

Loeschzwerg
2014-06-05, 20:10:56
Damit dürfte beim Takt sicher noch ein bisschen was gehen, aber was es wirklich "bräuchte" wäre eine Dual GK110 Karte im Stil der Devil 13 bzw. eine Mars IV um Reserven bei der Spannungsversorgung zu haben.

occ-kh@Mirko
2014-06-05, 20:20:49
Damit dürfte beim Takt sicher noch ein bisschen was gehen, aber was es wirklich "bräuchte" wäre eine Dual GK110 Karte im Stil der Devil 13 bzw. eine Mars IV um Reserven bei der Spannungsversorgung zu haben.
Man muss den Leuten auch die Zeit lassen, kommt vllt. noch..:), so wie es sicherlich auch noch Ausreisser bei der 295x2 geben wird.:whistle:

Mir ging es hier bei dem Prototypen eher um die Kritik des 2,5 oder 3 Slot Design paar Seiten vorher, zwar ein Customdesign aber nix zu sehen oder?

http://img5.fotos-hochladen.net/uploads/computex2014evh4dc2v1ej6.jpg (http://www.fotos-hochladen.net)
@Hardwareluxx

Hübie
2014-06-05, 22:23:42
Wurde ja nix angekündigt. 2,5-Slot im Referenzdesign sind voll Banane. Damit erschlägt man das Argument der FLOPs pro Slot.

hasebaer
2014-06-05, 23:19:10
HT4U hat meines Wissens schon Ewigkeiten nix mehr von NV bekommen. Gerade testen sie die Black und das Schmeckt NV gar nicht und boykottieren sie mom komplett und geben nichtmal Review guides raus

Gibt es dafür auch eine Quelle oder Belege?

Knuddelbearli
2014-06-06, 05:02:42
Nö da ich es direkt aus meiner Quelle habe aber einfach mal gucken woher die NV Sample immer kommen ;-)

Loeschzwerg
2014-06-06, 08:31:49
@occ-kh@Mirko: Genial wäre es, aber ich befürchte für Custom PCB gibt Nvidia keine Freigabe :(

http://www.computerbase.de/2014-06/die-marke-titan-hat-nicht-gelitten-sagt-nvidia/

Beim Marketing zur GeForce GTX Titan Z gesteht Walker hingegen Verbesserungspotential ein. Der Fokus habe „möglicherweise zu sehr auf dem Aspekt Gaming gelegen“.

Wer hätte es gedacht :freak:

hasebaer
2014-06-06, 08:42:28
Nö da ich es direkt aus meiner Quelle habe aber einfach mal gucken woher die NV Sample immer kommen ;-)

Ja ist klar, bleib bei deinen Andeutungen, werd bloß nicht konkret, wie solltest du auch... :rolleyes:

Es gab in den letzten 6 Monaten nur drei neue Karten von Nvidia.
Die beiden GTX 750er, die Titan Black und Titan Z.
Bei den 750er gab es für jede Redaktion Muster direkt von Nvidia, inkl. ht4u.

Für Titan Black und Z hat keine Redaktion Muster erhalten.
Alle Reviews hierzu waren nur möglich dank Zotac, die ein paar Muster verschickt haben.

Hintergrund dabei ist wie folgt.
Do not expect any reviews or fuzz though as this is a silent launch. Basically Nvidia will remain focusing on the GeForce GTX 780 Ti for consumer and gamers. The Titan Black edition is targeted at developers that need double precision.

http://www.guru3d.com/news_story/geforce_gtx_titan_black_is_a_silent_launch.html

fondness
2014-06-06, 09:25:17
zB bei der 780Ti und bei der GTX680 gab es "exklusiv" für HT4U kein Muster und auch schon davor ein paar mal. Die Geschichte ist nicht mehr neu, auch hier im 3dCenter wurde davon ein paar mal berichtet. Aber da es funktioniert und die Firmenpolitik auch von vielen hier unterstützt wird braucht man sich auch nicht wundern das NV daran nichts ändert.

occ-kh@Mirko
2014-06-06, 09:41:53
@occ-kh@Mirko: Genial wäre es, aber ich befürchte für Custom PCB gibt Nvidia keine Freigabe :(
Ich denke nicht...dann müsste EVGA, Asus und auch Inno3D falsch investiert haben. Für die @Wakü Varianten die Werbung läuft doch schon? Der Rest kommt wohl nach Taipei. Sind ja auch keine Referenz, denke mal Nvidia kommt es ggf. gelegen um dem Image wieder auf die Sprünge zu helfen.

http://www.evga.com/Products/Product.aspx?pn=12G-P4-3999-KR
Hydro Copper mit 758/941/3.000 MHz
Superclocked mit 732/915/3.000 MHz

Muss man sehen wann und wie es Tests gibt, dass mit dem wir haben nur ins Gaming investiert ist doch eine fragile Ausrede, was will man jetzt sagen um die CUDA Performance doch noch zu vermarkten, "Wir haben uns geirrt" oder "die Konkurrenz ist im Spielebereich besser"?

Die sollen sich mal Gedanken über den Preis machen, man kann alles vermarkten wenn der Preis stimmt! Ich habe aber gleich gesagt das Nvidia die Preise nicht senkt, dass macht der Markt dann wohl allein oder es bleibt ein Rohrkrepierer. Zudem muss man sehen für welches Klientel die Karte bestimmt ist, da macht man sich zuweilen keine Gedanken um Nachhaltigkeit oder Preise...:smile:

@fondness
Ja, stimmt, ht4u hatten darüber selbst kurzzeitig berichtet bzw. angedeutet das man sie in gewisser Weise vernachlässigt, Jungs lasst euch nicht unterkriegen...:), Wahrheiten gehören auf den Tisch. Die gehen genauso kritisch und konstruktiv mit AMD Hardware um bzw. von allen anderen Herstellern und testen zudem sehr umfangreich, und wenn man als Redaktion Konzepte und Preise bemängelt ist das deren gutes Recht, der User erwartet diese komplexe Betrachtung bei Tests eben auch. Der Hersteller sollte sich dann fragen was er falsch macht und das Ganze als Ansporn sehen.

/e sagt: es bleibt seitens des Herstellers immer die Möglichkeit eine redaktionelle Meinung zu widerlegen, bzw. zu erläutern warum und womit etwas wie zusammenhängt. Eine kurze Stellungnahme und gut...das macht einen zumindestens aus der Sicht des Interessenten weltoffener. Vllt. lebt er sogar mit dem Problem...weils ihn nicht stört.

Loeschzwerg
2014-06-06, 11:00:29
Ich denke nicht...dann müsste EVGA, Asus und auch Inno3D falsch investiert haben. Für die @Wakü Varianten die Werbung läuft doch schon? Der Rest kommt wohl nach Taipei. Sind ja auch keine Referenz, denke mal Nvidia kommt es ggf. gelegen um dem Image wieder auf die Sprünge zu helfen.


Keine Referenz Kühlung, aber die haben alle das NV Referenz Layout der Platine aka PCB :) Wenn Wakü, dann gleich Vollgas mit verbesserter Spannungsversorgung ^^

hasebaer
2014-06-06, 11:35:52
zB bei der 780Ti und bei der GTX680 gab es "exklusiv" für HT4U kein Muster und auch schon davor ein paar mal. Die Geschichte ist nicht mehr neu, auch hier im 3dCenter wurde davon ein paar mal berichtet. Aber da es funktioniert und die Firmenpolitik auch von vielen hier unterstützt wird braucht man sich auch nicht wundern das NV daran nichts ändert.
Bei der GTX 680 hat nur die Presse Samples pünktlich zum Release erhalten, die auch beim Briefing in den USA waren.
Ht4u war dazu geladen, konnte aber nicht aus Personalknappheit, denn sie mussten sich entscheiden, entweder Briefing oder CeBit.
Zu der Zeit hat Nvidia zunehmend darauf geachtet, dass sie ihr NDA auch durchsetzen und Teil der Massnahme Leaks im Vorfeld zuvermeiden war,
nur der Presse zum Release ein Sample zuschicken, die ihr gesamtes Prozedere mitmachten.
Das wusste HT4u nicht, ist blöd gelaufen.

Zum 780Ti Vorgang gibt es eine Erklärung bei Ht4u selber.

Wer einen detaillierten Testartikel von uns vermisst, der muss sich bei NVIDIA beklagen, denn man teilte uns mit, dass es leider nicht genügend Testmuster für Deutschland gibt und da wir bei der GTX-700-Serie bislang immer dabei waren, mussten wir dieses Mal zu Gunsten anderer Magazine aussetzen. Eine mögliche Rotation wurde uns in Aussicht gestellt. Wo gebündeltes Fachwissen und professionelle Messtechnik bei deutschen Online-Magazinen zu finden ist, sollte die Marketing-Abteilung Deutschland von NVIDIA wissen. Harren wir also der Dinge die da kommen.
http://ht4u.net/news/28585_nvidia_stellt_geforce_gtx_780_ti_offiziell_vor/

Und eine Wahrheit hierbei ist wohl auch, dass ht4u nicht so viele Leser reicht.
http://www.alexa.com/siteinfo/ht4u.net
http://www.alexa.com/siteinfo/computerbase.de
http://www.alexa.com/siteinfo/pcgameshardware.de

occ-kh@Mirko
2014-06-06, 11:44:45
@Löschzwerg
Ja, stimmt hatte ich flasch verstanden, aber brauch man das? Ich verstehe die Diskussion nicht ganz. Auch zu der 295x2 nicht.

8Pin PCIe Connectoren sind "einzeln" nach Spezifizierung im Standard bis zu 288w (8A), in HCS bis 396w (11A) und PLUS HCS 432w (über 12A) ausgelegt!!! Es liegt am Netzteilhersteller um die entstprechenden Temperatur- und Materialvorgaben einzuhalten. Rechne das mal zusammen. Die Karte hat wohl lt. PCB eine max TDP von 500w, dass geht völlig i.O.. Selbst OC kann man damit, die Diskussion erschließt sich mir nicht. Die GK110ner nehmen nicht viel mehr Strom bei Taktratenerhöhung, 20-30w, sonst liegt die Karte bei max. 375w TDP. Mit einem Chinaböller wird das nichts das ist klar.

@Hasebaer
Du weisst schon das man sich bei ht4u gepfelgt ausdrückt! Und das mit den Lesern...ist eine eigensinnige Erklärung. Das Forum hat über 14000 Mitglieder mit Onlinerekord von über 1500 zugleich Login's. Ziemlich blöde Darstellung. Wenn Nvidia darauf verzichten kann, na denn....

hasebaer
2014-06-06, 12:05:06
@Hasebaer
Du weisst schon das man sich bei ht4u gepfelgt ausdrückt! Und das mit den Lesern...ist eigensinnige Erklärung. Das Forum hat über 14000 Mitglieder mit Onlinerekord von über 1500 zugleich Login's. Ziemlich blöde Darstellung. Wenn Nvidia darauf verzichten kann, na denn....

Tun sie ja nicht, bei der GTX 750 Ti gab es genügend Samples und auch Ht4u hat eines bekommen.
Hat man aber selber nicht genügend davon (also Nvidia Deutschland in dem Fall), dann muss man schauen auf wen man die wenigen Samples verteilt.
Und da zählt die Masse der Leserschaft.

Und um bei deinem Foren Beispiel zubleiben, ht4u ggü. CB / PCGH... selbst das 3dcenter hat grade knapp 1000 Besucher hier im Forum.
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=48820&d=1402049022

occ-kh@Mirko
2014-06-06, 12:14:55
Nun, wie man Hitzahlen nachweist und online stellt, dazu will ich hier nichts ausführen und wann bei der ht4u der tägliche Run stattfindet auch nicht. Ist offtopic, man muss aber aufpassen wie man sich persönlich wo vs. wie outet. ht4u sind über 3d-center verlinkt und gelten als Partnerseite. Das haben sie sich im Übrigen verdient. Die Test sind mit das "Ausgeprägeste" was im deutschprachigen Netz finden kann. (Werbung aus...;)) Nein, ich hab damit nix zu tun.

Den Lesern Erstinfos zu verweigern, weil Pressesample nicht vorliegen ist so eine Sache, die auch einer Seite und deren Hits zu schaffen machen kann. (die blöde Ausrede man hätte nicht genug, bahh...)

dildo4u
2014-06-06, 21:28:36
pcper hat ne Karte bekommen.

http://www.pcper.com/live/

Verbrauch 110Watt weniger als 295 X2 bei Metro:LL.

Skysnake
2014-06-06, 21:52:40
Naja, das ist doch auch die Heimmannschaft von nVidia.

Hübie
2014-06-07, 00:36:53
Nicht nur da skysnake ;)

kruemelmonster
2014-06-07, 01:02:33
Naja, das ist doch auch die Heimmannschaft von nVidia.

Hätte man lieber Rage3D ein Sample schicken sollen? PCPer hat es u.a. mit TechReport zusammen durch ihre Arbeit geschafft AMD dazu zu bringen ihre Treiber zu überarbeiten.

Böses PCPer aber auch, sowas macht man doch nicht. :unono:
Hätte man die Radeons bloß weiter mikroruckeln lassen, das wär viel besser für AMD und die Käufer von AMD-Grakas gewesen. :freak:

Unicous
2014-06-07, 01:23:39
Die Karte ist nicht von Nvidia. Und auch nicht von einem Board Partner. Hat Ryan Shrout während des Streams gesagt.

Er wollte nicht sagen wo er sie her hat, aber ich schätze er hat sie von einem Händler geliehen, oder gar Privatmenschen.

Hübie
2014-06-07, 01:49:50
Eher newegg oder so. Spielt aber auch keine Rolle. Die Z ist, oh Wunder, effizienter als die 295X. Aber sicher keine 3000$ wert. Aber hey: es klebt ein grüner Aufkleber drauf :freak:

Skysnake
2014-06-07, 08:31:21
Hätte man lieber Rage3D ein Sample schicken sollen? PCPer hat es u.a. mit TechReport zusammen durch ihre Arbeit geschafft AMD dazu zu bringen ihre Treiber zu überarbeiten.

Böses PCPer aber auch, sowas macht man doch nicht. :unono:
Hätte man die Radeons bloß weiter mikroruckeln lassen, das wär viel besser für AMD und die Käufer von AMD-Grakas gewesen. :freak:
Weil Sie einen von nVidia entwickelten Test durchgeführt haben, ohne diesen zu reflektieren? Das hatten wir doch schonmal....

Seitdem ich das erste mal auf PCPer aufmerksam geworden bin, ist eine extreme Nähe zu nVidia offensichtlich. Exklusivs am laufenden Band. Sorry, aber so etwas stinkt einfach zum Himmel. Da ist es auch völlig egal, ob da etwas dran ist. Allein den Anschein zu erwecken ist ein NoGo!

occ-kh@Mirko
2014-06-07, 08:41:14
von einem Händler geliehen, oder gar Privatmenschen
Dann ist es auf jeden Fall kein "selektiertes Pressesample"...das mögliche Unterschiede durch die Serienstreuung vernachlässigt.

@all
Habt ihr erwartet die Z verbraucht mehr als die 295x2? Das war doch wohl vorher klar.

Hübie
2014-06-07, 10:09:29
Weil Sie einen von nVidia entwickelten Test durchgeführt haben, ohne diesen zu reflektieren? Das hatten wir doch schonmal....

Seitdem ich das erste mal auf PCPer aufmerksam geworden bin, ist eine extreme Nähe zu nVidia offensichtlich. Exklusivs am laufenden Band. Sorry, aber so etwas stinkt einfach zum Himmel. Da ist es auch völlig egal, ob da etwas dran ist. Allein den Anschein zu erwecken ist ein NoGo!

Ja und AMD wollte es vertuschen, verdrängen bzw. runterspielen :rolleyes: AMD hatte nicht mal die Idee so einen Test durchzuführen. Die neuen Hawaii-Karten schneiden bei den frametimes regelmäßig exzellent ab und erhalten Silber (MSI Lightning)/Gold (Tri-X) Awards.
Aber hey: nVidia ist immer scheißepapalapappwurstmistkotze und AMD yeeha-geilomatensuperduperwackawacka :freak:

Skysnake
2014-06-07, 12:18:04
sicher nicht. Man sollte aber immer selbst reflektieren, für wie unabhängig man Medien nehmen kann. Und wie schon gesagt gibt es bei PCPer ein gewisses Geschmäckle.

fondness
2014-06-07, 12:24:16
@all
Habt ihr erwartet die Z verbraucht mehr als die 295x2? Das war doch wohl vorher klar.

Eben. Wenn sie nicht auch effizienter wäre, wäre das ebenfalls eine extreme Blamage. Immerhin würde Takt und Spannung beträchtlich gesenkt.

Unicous
2014-06-07, 12:28:42
Ich finde Ryan Shrouts Ausführungen manchmal auch grenzwertig, aber ihm eine besondere Nvidia-Affintät anzukreiden halte ich dann doch für übertrieben. Was er bei FCAT gemacht finde ich so nicht in Ordnung, besonders in seiner Vehemenz das als "die Neuerung und Offenbahrung" darzustellen die alles toppt und Nvidia ja nur da ist um dem Gamer zu dienen. Aber wenn überhaupt könnte man behaupten er ist/war ein AMD Fanboy.

Er hat nämlich vor PCPer zwei AMD Review-Seiten gepflegt. ;D

War damit auch einer der Einzigen in den USA, wenn ich mich nicht irre.

kruemelmonster
2014-06-07, 12:45:34
Weil Sie einen von nVidia entwickelten Test durchgeführt haben, ohne diesen zu reflektieren? Das hatten wir doch schonmal....

Deine NV-Phobie stinkt zum Himmel, get your facts right!

TR hats angeschubst (http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking), PCPer hat sich daraufhin eine eigene Capture-Umgebung ganz OHNE FCAT (http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric) gebaut um sich Frame-by-Frame den Output der Graka anschauen (http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-2-Finding-and-Defining-Stutter) zu können.
Erst danach kam FCAT von NV in Zusammenarbeit mit PCPer dazu um den Output-Stream automatisiert auswerten zu können:

NVIDIA's Involvement

You may notice that there is a lot of “my” and “our” in this story while also seeing similar results from other websites being released today. While we [PCPer] have done more than a year’s worth of the testing and development on our own tools to help expedite a lot of this time consuming testing, some of the code base and applications were developed with NVIDIA and thus were distributed to other editors recently.

NVIDIA was responsible for developing the color overlay that sits between the game and DirectX (in the same location of the pipeline as FRAPS essentially) as well as the software extractor that reads the captured video file to generate raw information about the lengths of those bars in an XLS file. Obviously, NVIDIA has a lot to gain from this particular testing methodology: its SLI technology looks much better than AMD’s CrossFire when viewed in this light, highlighting the advantages that SLI’s hardware frame metering bring to the table.

The next question from our readers should then be: are there questions about the programs used for this purpose? After having access to the source code and applications for more than 12 months I can only say that I have parsed through it all innumerable times and I have found nothing that NVIDIA has done that is disingenuous. Even better, we are going to be sharing all of our code from the Perl-based parsing scripts (that generate the data in the graphs you’ll see later from the source XLS file) as well as a couple of examples of the output XLS files.

IMO hat PCPer wie auch TR sehr wohl reflektiert, und du bist hier der mit dem gewissen Geschmäckle.

Seitdem ich das erste mal auf PCPer aufmerksam geworden bin, ist eine extreme Nähe zu nVidia offensichtlich. Exklusivs am laufenden Band. Sorry, aber so etwas stinkt einfach zum Himmel. Da ist es auch völlig egal, ob da etwas dran ist. Allein den Anschein zu erwecken ist ein NoGo!

Bewertest du den Einfluss der Arbeit von PCPer und TR auf die Qualität der AMD-Treiber im Hinblick auf die Frametimes als eher positiv oder eher negativ?

Skysnake
2014-06-07, 15:46:19
Deine NV-Phobie stinkt zum Himmel, get your facts right!

TR hats angeschubst (http://techreport.com/review/21516/inside-the-second-a-new-look-at-game-benchmarking), PCPer hat sich daraufhin eine eigene Capture-Umgebung ganz OHNE FCAT (http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric) gebaut um sich Frame-by-Frame den Output der Graka anschauen (http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Part-2-Finding-and-Defining-Stutter) zu können.
Erst danach kam FCAT von NV in Zusammenarbeit mit PCPer dazu um den Output-Stream automatisiert auswerten zu können:

Gut, das kannte ich bisher nicht, dass die selbst bereits daran gearbeitet haben. Warum ist das vorher nicht beachtet worden, bzw warum wurde das nicht derart in den Vordergrund gestellt? Das reduziert das "Geschmäckle" nämlich beträchtlich, wenn auch nicht vollständig.


IMO hat PCPer wie auch TR sehr wohl reflektiert, und du bist hier der mit dem gewissen Geschmäckle.

Das mit dem SourceCode ist BULLSHIT! Ich habe mehrfach bei nVidia angefragt wegen dem Source Code und habe ihn NICHT! bekommen. Bis heute ist FCAT NICHT! zu überprüfen. Und da stößt mir sehr sauer auf, das mir z.B. bei dem nVidia themenabend bei PCGH zugesagt wurde, das ich den Sourcecode haben könnte, aber da kam dann nie wieder etwas, trotz Nachfrage.

Ich kann viel sagen, wenn der Tag lang ist. Entscheidend ist, was am Ende bei rumkommt, und da ist eben FCAT eben nicht komplett open Source. Das Perl skript ist nen wrapper mit nem bischen Statistikfu. Das ist aber völlig uninteressant.


Bewertest du den Einfluss der Arbeit von PCPer und TR auf die Qualität der AMD-Treiber im Hinblick auf die Frametimes als eher positiv oder eher negativ?
Ich kann mich da nur schwerlich festlegen. Ich tendiere aber eher zu negativ, eben weil das Thema jetzt mehr oder weniger durch ist, und man nur eine 90% Lösung hat. Die µRucklerthematik hat sich zwar bei AMD stark verbessert, Sie ist aber weder bei AMD NOCH! bei nVidia wirklich erledigt, und genau DAS! hätte man mit einer etwas differenzierteren und noch mehr auf die Ursachen, stichwort auseinanderlaufende Timelines, wirklich in den Griff bekommen können.

So hat man jetzt als Resultat irgend einen SecretSouce Dreck von AMD&nVidia, anstatt einer Schnittstelle, die den Enwicklern die Möglichkeit gibt durch entsprechende Infos über das System, also den Renderingprozess, die Ursache schon zu verhindern.

Also ums kurz zu machen, ja wir haben dadurch jetzt was in der Hand, aber auf mittlere Sicht hat es wohl mehr Schaden angerichtet, als es gebracht hat, denn alle weiteren Bemühungen bzgl der substanziellen Lösung des Problems können wir uns wohl abschminken. Vielleicht in 10 Jahren wieder.

Kriton
2014-06-07, 16:27:04
Oder es erledigt sich durch LL-Ansatz. Mantle soll ja prinzipiell auch anders mit 2 GPUs umgehen können als nur AFR.