PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX Titan Z: (P)Review-Thread


Seiten : 1 2 3 [4]

Skysnake
2014-06-07, 19:38:30
Ja kann sein, das Mantle einen ll zugriff in der Form erlaubt, wie ich mir das vorstelle. Das Problem dabei ist, das ist aktuell nur Hoffen und nicht Wissen, und auf Hoffen verlasse ich mich ungern.

Zudem haben die nVidia Nutzer nichts davon, und wenn nVidia mit ner zweiten LL-API daher kommt, dann ist es auch nen Schuss in den Ofen.

fondness
2014-06-08, 10:20:24
Bei der GTX 680 hat nur die Presse Samples pünktlich zum Release erhalten, die auch beim Briefing in den USA waren.
Ht4u war dazu geladen, konnte aber nicht aus Personalknappheit, denn sie mussten sich entscheiden, entweder Briefing oder CeBit.
Zu der Zeit hat Nvidia zunehmend darauf geachtet, dass sie ihr NDA auch durchsetzen und Teil der Massnahme Leaks im Vorfeld zuvermeiden war,
nur der Presse zum Release ein Sample zuschicken, die ihr gesamtes Prozedere mitmachten.
Das wusste HT4u nicht, ist blöd gelaufen.

Zum 780Ti Vorgang gibt es eine Erklärung bei Ht4u selber.


http://ht4u.net/news/28585_nvidia_stellt_geforce_gtx_780_ti_offiziell_vor/

Und eine Wahrheit hierbei ist wohl auch, dass ht4u nicht so viele Leser reicht.
http://www.alexa.com/siteinfo/ht4u.net
http://www.alexa.com/siteinfo/computerbase.de
http://www.alexa.com/siteinfo/pcgameshardware.de

Entschuldigung, aber jede noch so billige Klatsch-Presse, die nur ein paar 3dmark-Läufe durchführt bekommt von NV ein Sample. HT4U, die nun wirklich sehr hochwertige Tests durchführen bekommen schon seit vielen Jahren keine High-End-Karten mehr von NV. Sie bekamen weder eine GTX680, noch eine TITAN, noch eine 780Ti. Sich da hinzustellen und irgendwas von zu wenigen Samples zu faseln kann doch wohl nicht dein ernst sein. Man braucht wirklich nicht viel Phantasie um zu sehen was hier abgeht und warum, aber um an dieser Stelle politisch korrekt zu bleiben soll sich jeder selbst seine Meinung bilden. Und solange die Käufer diese Praktiken aktiv unterstützen wird sich daran auch nichts ändern.

kruemelmonster
2014-06-08, 16:23:02
Ich kann mich da nur schwerlich festlegen. Ich tendiere aber eher zu negativ, eben weil das Thema jetzt mehr oder weniger durch ist, und man nur eine 90% Lösung hat. Die µRucklerthematik hat sich zwar bei AMD stark verbessert, Sie ist aber weder bei AMD NOCH! bei nVidia wirklich erledigt, und genau DAS! hätte man mit einer etwas differenzierteren und noch mehr auf die Ursachen, stichwort auseinanderlaufende Timelines, wirklich in den Griff bekommen können.

So hat man jetzt als Resultat irgend einen SecretSouce Dreck von AMD&nVidia, anstatt einer Schnittstelle, die den Enwicklern die Möglichkeit gibt durch entsprechende Infos über das System, also den Renderingprozess, die Ursache schon zu verhindern.

Also ums kurz zu machen, ja wir haben dadurch jetzt was in der Hand, aber auf mittlere Sicht hat es wohl mehr Schaden angerichtet, als es gebracht hat, denn alle weiteren Bemühungen bzgl der substanziellen Lösung des Problems können wir uns wohl abschminken. Vielleicht in 10 Jahren wieder.

Das Thema hatten wir schonmal, und deine Argumentation ist damals wie heute Quark. Eine hypothetische Lieblich-Knuffeltal-Lösung bringt für vorhandene Spiele null komma gar nix, und für kommende Spiele müssten alle IHVs & ISVs an einem verbindlichen Strang ziehen...völlig illusorisch.
Da kannst du soviel brechen wie du willst (machst du im GameWorks Thread ja bereits wieder fleißig), eine nicht perfekte aber gut funktionierende Lösung ist allemal besser als ein perfektes, aber nur hypothetisch vorhandenes Konstrukt.
Und diese funktionierende Lösung, für mGPU wie auch für sGPU, hat die AMD-Community TR und PCPer zu verdanken; dass du anscheinend in blinder Hoffnung auf einen BigMac lieber verhungern würdest anstatt trockenen Toast zu essen ist dann dein Bier.

Kriton
2014-06-08, 16:59:17
Das Thema hatten wir schonmal, und deine Argumentation ist damals wie heute Quark.

Immerhin kann man eine gewisse Argumentation erkennen. In einer guten Diskussion würde ich erwarten, dass man sich mit den Argumenten auseinander setzt und nicht nur das Ergebnis verunglimpft - aber anscheinend sind meine Erwartungen zu hoch...

kruemelmonster
2014-06-08, 17:51:38
Das Thema Mikroruckelei wurde bereits im passenden Thread ausführlich diskutiert, hier ist es OT und der Bezug ist allein die Street Credibility von PCPer. Wenn trotz ausführlicher Diskussion versucht wird die Glaubwürdigkeit der Seite mit bereits widerlegten Argumenten und im Widerspruch zu öffentlich verfügbaren Informationen zu demontieren, sorry, dann sehe ich nicht die Notwendigkeit das Thema offtopic erneut breitzuwalzen.

Skysnake
2014-06-09, 01:57:29
Das Thema hatten wir schonmal, und deine Argumentation ist damals wie heute Quark. Eine hypothetische Lieblich-Knuffeltal-Lösung bringt für vorhandene Spiele null komma gar nix, und für kommende Spiele müssten alle IHVs & ISVs an einem verbindlichen Strang ziehen...völlig illusorisch.

Klar und deswegen gibt es ja auch keine Kooperation zwischen AMD und Intel auf allen Ebenen um Kompabilität so weit möglich zu gewährleisten.

Es gibt kein VESA Standard, es gibt kein HDMI, kein Displayport, kein USB, kein PCI-E, kein SATA, kein schlag mich tot.

Sobald der Wille da ist, etwas zusammen zu machen, schafft man das auch, und dabei muss man keineswegs seine Differenzierbarkeit/Profilierbarkeit aufgeben.


Da kannst du soviel brechen wie du willst (machst du im GameWorks Thread ja bereits wieder fleißig), eine nicht perfekte aber gut funktionierende Lösung ist allemal besser als ein perfektes, aber nur hypothetisch vorhandenes Konstrukt.
Und diese funktionierende Lösung hat die AMD-Community TR und PCPer zu verdanken; dass du anscheinend in blinder Hoffnung auf einen BigMac lieber verhungern würdest anstatt trockenen Toast zu essen ist dann dein Bier.
Seh ich anders. Was bringt mir eine 80% Lösung, die am Ende dann doch wieder nur Murks ist, und, wenn man wirklich ehrlich ist, einfach nicht zu gebrauchen ist? Da verzichte ich gern drauf und warte lieber darauf, das man das Problem wirklich mal fundamental angeht. So baut sich auch eher ein höherer Druck auf.

Mit jeder Futzelverbesserung, geben sich wieder ein paar mehr zufrieden, und geben ihre Blockade/Gestenker auf, wodurch sich der Druck auf die Hersteller reduziert.

Und wenn du jetzt wieder mit deinem Illusorisch anfängt, dann ... Das ist so ne verbohrte deutsche Art. Mimimimi ich kann doch eh nichts dran ändern.... Ich fress lieber Scheise als mal nen Tag zu hungern....

Aber was soll man auch erwarten. Zu vielen fehlt halt das Rückrad und der Wille, auch mal auf was zu verzichten, weils unterm Strich auch für einen selbst besser ist. Und ja, bis dahin hat man weniger, aber so ist das nunmal. Hin und wieder muss man halt auch mal verzichten und auf etwas "sparen". Meist lohnt es sich.

Und nur mal so von wegen, man kann ja eh nichts machen. BurgerKing neulich mitbekommen? Huch, da ging aber auf einmal sehr schnell etwas. Und nein, natürlich ist da jetzt nicht nur Friede Freude Eierkuchen angesagt, aber es hat sich was getan, weil die mal nen fetten Kick in die Kronjuwelen, also den Geldbeutel bekommen haben.

Die Telekom musste auch zurückrudern mit ihren Drosselscheis, weil wirklich die Leute sich mal bequemt haben, den Arsch hoch zu bekommen, und nicht stumpf zu konsumieren.

Würden für eine oder zwei Gens die Dual-GPUs in den Regalen verschimmeln, würden sich AMD und nVidia zusammenraufen, da kannste einen drauf lassen. Denn die wollen nur eins, unsere sauer verdiente Kohle. Und wenn Sie die nicht mehr bekommen, wenn sie ihre bisherige Linie fahren, dann haben Sie auch kein Problem damit, sich ganz schnell umzuorientieren.

Denn für die gilt auch: Lieber den Spatz in der Hand, als die Taube auf dem Dach.

Die Frage ist nur, wer bietet mehr Willensstärke auf, auch mal zu verzichten. Konsument, oder Konzern, und ich kann dir sagen, Konzerne haben kein all zu langen Atem, wenn ihnen Alternativen aufgezeigt werden. Das Problem ist nur, die meisten Konsumenten haben GARKEINEN Atem...

boxleitnerb
2014-06-09, 06:06:02
Ich bezweifele, dass du dich im Alltag mit mgpu in spielen überhaupt auseinandergesetzt hast. Kannst du da überhaupt mitreden oder immer nur über die Theorie sprechen? Wo verzichtest du denn bitte schön? Heb dir deinen atem lieber für die wirklich wichtigen Dinge im Leben auf, wenn es um das verzichten geht, denn mgpu ist das nun echt nicht

Hübie
2014-06-09, 10:49:01
Ich schätze dass die einzige Möglichkeit ohne ungleichmäßige frametimes auszukommen SFR und konstante fps sind (okay fps sind der Kehrwert der frametimes:redface:). Aber mit der aktuellen Situation ist es schon ganz okay. Skysnake übertreibt mal wieder (aufgrund mangelnder Erfahrung? ;)).

Skysnake
2014-06-09, 18:08:07
@Boxleitnerb: Spielt das eine Rolle, was ich sage? Wird mir doch eh dann im Mund rumgedreht. Für eine sachliche Diskussion ist das völlig unerheblich.

@Hübie:
Komisch das z.B. Raff nicht meint, dass das µRuckler Problem gelöst ist, und auch ansonsten allgemein eigentlich gesagt wird, das Single-GPU >>> MultiGPU ist, weil man einfach noch immer das µRuckler Problem am Hals hat, ganz abgesehen von schlechter Skalierung oder gar ganz fehlenden Profilen und 0 scaling.

Aber hey, mal wieder lustig, wie bis zu einem gewissen Punkt gekotzt wird über µRuckler, dann aber plötzlich umgeschwenkt wird, obwohl das Problem an sich noch immer besteht, nur weniger stark vorhanden ist. Dabei ist ein Ruckler, ein Ruckler, ein Ruckler, egal ob er jetzt alle 10 Sekunden auftritt, oder alle 60 Sekunden. Beides suckt einfach.

boxleitnerb
2014-06-09, 21:02:49
Nö, tut es nicht. Und umgedreht wird es nicht, es wird nur darauf hingewiesen, dass du hier auf dem Holzweg bist, weil das eben nicht die Realität ist. Zum Thema tragen deine übertriebenen Aufreger ja leider selten bei, da hast du schon Recht ;)
Mal eine ernstgemeinte Frage:
Hast du selbst schonmal MultiGPU benutzt in den letzten sagen wir 2-3 Jahren? (ok, bei AMD im letzten Jahr)? Seit wann ist Raff oder irgendjemand anderes ein Benchmark, wenn es um das Beurteilen von Hardware geht? Kannst du nicht für dich selbst denken und probieren? Scheinbar nicht...

Skysnake
2014-06-09, 22:24:42
Nö, tut es nicht. Und umgedreht wird es nicht, es wird nur darauf hingewiesen, dass du hier auf dem Holzweg bist, weil das eben nicht die Realität ist. Zum Thema tragen deine übertriebenen Aufreger ja leider selten bei, da hast du schon Recht ;)

Hach wie ist das schön. Direkt mal so unterschwellig einem jedwede Kompetenz abzusprechen.


Mal eine ernstgemeinte Frage:
Hast du selbst schonmal MultiGPU benutzt in den letzten sagen wir 2-3 Jahren? (ok, bei AMD im letzten Jahr)?

Ich hatte vor was wars? nem halben Jahr vielleicht mal kurz an nem AMD System gesessen, aber das kannste in der Pfeife rauchen. Mal kurz drüber schauen ist nicht wirklich angemessen für nen seriösen Vergleich zwischen AMD und nVidia. Wenn sollte man beides vor sich haben und hin und her wechseln. Wobei man am Besten eben einen doppelten Blindtest machen sollte, ansonsten wird man sich selbst bescheisen. Unser Gehirn ist einfach eine Bitch. Wir sehen leider viel zu oft das, was wir sehen wollen/erwarten.

Und ja, ich habe dort auch µRuckler wahrgenommen, aber wie gesagt, ich habe es auch erwartet.


Seit wann ist Raff oder irgendjemand anderes ein Benchmark, wenn es um das Beurteilen von Hardware geht?

Ähm... Also wenn du schon so anfängst, dann kann man auch gleich jedwede Diskussion einstellen, denn du sagst gerade durch die Blume: WICH und nur ICH entscheide, welche Indizien/Beweise ich akzeptiere/als valide halte und sonst niemand!"

Sorry, aber kaum einer hier wird sich so viel mit Multi-GPU beschäftigen wie Raff und andere GPU-Redakteure von den Medien. Vor ALLEM! wird hier niemand auf so viele unterschiedliche Systeme und Games zurückgreifen können wie die. Deren Meinung/Ansicht einfach mal direkt wegzubügeln zeigt ganz eindeutig, wie ergebnisoffen man der Sache gegenübersteht.

Deine Meinung steht, und da könnte der liebe Gott daherkommen dir sagen das es anders ist, ohne dich zu jucken...


Kannst du nicht für dich selbst denken und probieren? Scheinbar nicht...
Yeah, wieder mal schön subtil unterhalb der Gürtellinie. Sowas nenne ich echt professionel. :rolleyes:

Merkst du eigentlich noch selbst, wie du auf der billigsten subtilen Schiene versuchst einen ins lächerliche zu ziehen, und damit versucht als unseriös/Depp dastehen zu lassen? Vor allem, das ist so offensichtlich und schlecht gemacht, damit bewirkt man nur das Gegenteil, oder hälst du die Leute hier wirklich für so minderbemittelt, das Sie das nicht schnallen?

Und ansonsten, schonmal ne ALU selbst entworfen?
Schonmal selbst nen Game programmiert?

Nein? Oh schade, dann kannst du ja nicht selbst denken, und man braucht daher gar nicht darauf achten, was du sagst... :facepalm:
Merkst du wie bescheuert die Argumentation ist?

Vor allem ist es ja mal echt lame, zu kritisieren, das man sich auf die Meinung von verschiedenen Leuten beruft, die sich berufsbedingt damit Beschäftigen. Yeah ganz großes Kino sowas. :freak:

boxleitnerb
2014-06-10, 08:52:24
Hach wie ist das schön. Direkt mal so unterschwellig einem jedwede Kompetenz abzusprechen.


Ich hatte vor was wars? nem halben Jahr vielleicht mal kurz an nem AMD System gesessen, aber das kannste in der Pfeife rauchen. Mal kurz drüber schauen ist nicht wirklich angemessen für nen seriösen Vergleich zwischen AMD und nVidia. Wenn sollte man beides vor sich haben und hin und her wechseln. Wobei man am Besten eben einen doppelten Blindtest machen sollte, ansonsten wird man sich selbst bescheisen. Unser Gehirn ist einfach eine Bitch. Wir sehen leider viel zu oft das, was wir sehen wollen/erwarten.

Und ja, ich habe dort auch µRuckler wahrgenommen, aber wie gesagt, ich habe es auch erwartet.


Ähm... Also wenn du schon so anfängst, dann kann man auch gleich jedwede Diskussion einstellen, denn du sagst gerade durch die Blume: WICH und nur ICH entscheide, welche Indizien/Beweise ich akzeptiere/als valide halte und sonst niemand!"

Sorry, aber kaum einer hier wird sich so viel mit Multi-GPU beschäftigen wie Raff und andere GPU-Redakteure von den Medien. Vor ALLEM! wird hier niemand auf so viele unterschiedliche Systeme und Games zurückgreifen können wie die. Deren Meinung/Ansicht einfach mal direkt wegzubügeln zeigt ganz eindeutig, wie ergebnisoffen man der Sache gegenübersteht.

Deine Meinung steht, und da könnte der liebe Gott daherkommen dir sagen das es anders ist, ohne dich zu jucken...


Yeah, wieder mal schön subtil unterhalb der Gürtellinie. Sowas nenne ich echt professionel. :rolleyes:

Merkst du eigentlich noch selbst, wie du auf der billigsten subtilen Schiene versuchst einen ins lächerliche zu ziehen, und damit versucht als unseriös/Depp dastehen zu lassen? Vor allem, das ist so offensichtlich und schlecht gemacht, damit bewirkt man nur das Gegenteil, oder hälst du die Leute hier wirklich für so minderbemittelt, das Sie das nicht schnallen?

Und ansonsten, schonmal ne ALU selbst entworfen?
Schonmal selbst nen Game programmiert?

Nein? Oh schade, dann kannst du ja nicht selbst denken, und man braucht daher gar nicht darauf achten, was du sagst... :facepalm:
Merkst du wie bescheuert die Argumentation ist?

Vor allem ist es ja mal echt lame, zu kritisieren, das man sich auf die Meinung von verschiedenen Leuten beruft, die sich berufsbedingt damit Beschäftigen. Yeah ganz großes Kino sowas. :freak:

Ich sage nur selbst testen und sich nicht auf andere verlassen. Das hast du nicht richtig getan, daher kannst du tatsächlich hier nicht mitreden. Ganz einfach.

Raff
2014-06-10, 09:04:14
Selbst (alles) zu testen ist nur einer Minderheit möglich, der Rest muss und kann sich auf die Aussagen einer Testredaktion verlassen. Was nämlich gern vergessen wird: Eine Redaktion wie PCGH fungiert als Filter, idR wird mehr als das von einem Tester vernommene Feedback zu Papier/CMS gebracht. Das kann ein "normaler" Nutzer, so eifrig er auch ist, kaum leisten. :)

MfG,
Raff

boxleitnerb
2014-06-10, 09:49:32
Das geht in diesem Fall aber nicht, denn jeder nimmt Mikroruckler anders wahr. Für dich scheint mGPU ja beinahe generell ein Unding zu sein, ich kann ab ca. 50 fps sehr gut damit leben bzw. merke dann auch keine Ruckler mehr (Ausnahmen gibt es natürlich immer, bevor das jemand anspricht...). Daher sagte ich ja, jeder muss es selbst beurteilen und kann auch nur für sich sprechen. Skysnake hat das also grundlegend falsch verstanden. Ich will niemandem meine Wahrnehmung aufdrängen - ebensowenig sollte man dich oder PCGH oder "die Allgemeinheit" hernehmen als "Argument" um mGPU generell zu diskreditieren wie er es getan hat. Hättet "ihr" Recht bzw. wäre die kritische Meinung zu mGPU überall vorhanden, wäre kein einziger mit mGPU zufrieden, was unbestreitbar Unsinn ist.
Und davon abgesehen ist mGPU so eine kleine Nische im Vergleich zum Gesamtmarkt, dass es erst größere Umbrüche und Anreize braucht, um da grundlegend etwas zu tun. Wenn man z.B. flächendeckend kleinere Dies zu einem Komplex zusammenfügen will/muss, sprich wenn AFR damit in den Massenmarkt Einzug halten würde.

Raff
2014-06-10, 10:00:33
Dinge, die es zu bedenken gilt: Eine Redaktion hat beispielsweise kein Interesse daran, sich eine Investition wie Titan-SLI schönzureden. Das sieht bei Privatpersonen anders aus. Psychologie spielt hier eine große Rolle, denn wer viel Kohle in Hardware investiert hat, der neigt dazu, sich die Dinge schönzureden. Sicher gibt es auch hier Kritiker, die den Kram wegen Nichtgefallen zurückschicken oder verkaufen.

Ich verteufle SLI übrigens nicht konsequent (siehe auch PCGH 06/2014 ;)), an der Spitze der Entwicklung kann das sinnvoll sein, sofern man mit den Restriktionen leben kann. Für kompletten Unsinn halte ich lediglich die Paarung zweier Mainstream-Karten anstelle eines dicken Modells, da hier die Nachteile an jeder Ecke aufblinken, in vielen Tests aber nur Balken abgebildet werden.

MfG,
Raff

boxleitnerb
2014-06-10, 10:49:48
Wenn das eine Anspielung auf mein SLI-Gespann sein soll, läuft die ins Leere. Ich muss mir nichts schönreden, ich weiß, dass es durchaus Probleme gibt. Nur im Regelfall wenn ich nicht mit zu niedrigen fps rumzuckle, eben nicht.
Lange Diskussion, kurzer Sinn: Es führt wirklich kein Weg dran vorbei, sich SLI/CF im Alltag (sprich nicht nur mal kurz, sondern über mehrere Tage/Wochen) anzuschauen, sich der Limitationen bewusst zu sein und zu sehen, ob man damit klar kommt oder nicht. In einem Test kann sonstwas stehen, wenn man es selbst tatsächlich anders wahrnimmt (besser oder schlechter), ist der Test für einen selbst in diesem Fall irrelevant. Das ist nicht nur bei mGPU so, sondern bei unzähligen anderen Dingen, die subjektiv betrachtet werden können (Gewicht einer Kamera, Lautstärke eines Lüfters, Lautstärkecharakteristik usw. usf.).
Nicht umsonst gibt es diesen schönen Spruch "Probieren geht über Studieren" :wink:

Knuddelbearli
2014-06-10, 16:34:57
Nur im Regelfall wenn ich nicht mit zu niedrigen fps rumzuckle, eben nicht.

Das ist ja das Problem. wenn ich mit Single GPU auch mit 30 FPS zocken kann und mit SLI min 40 brauche muss ich eben von SLI gleich mal 33% abziehen (Beispielzahlen wehe es fällt dir ein darauf zumzureiten!!! )

boxleitnerb
2014-06-10, 16:45:24
Das ist ja das Problem. wenn ich mit Single GPU auch mit 30 FPS zocken kann und mit SLI min 40 brauche muss ich eben von SLI gleich mal 33% abziehen (Beispielzahlen wehe es fällt dir ein darauf zumzureiten!!! )

Wehe, lol...noch gehts aber? :freak:
Dass sich AFR-fps nie genauso anfühlen wie non-AFR-fps ist logisch. Das hat auch niemand angezweifelt. Das ist von Person zu Person, von Spielszene zu Spielszene, von Engine zu Engine unterschiedlich. Dennoch sehe ich es als gegeben an, dass ein deutlicher Vorteil zugunsten von AFR da ist. Und vor allem: Mit deinen 30 fps würde ich eh nie spielen, Stichwort Input-Lag. Wem es so ähnlich geht, kommt also sowieso aufgrund seiner Einstellungen eher weniger in den Mikrorucklerbereich. Für mich macht es beispielsweise keinen nennenswerten Unterschied, ob ich mit 50-60 fps mit SGPU oder mit AFR spiele - bloß dass ich bei AFR z.B. 2880x1620 spielen kann und bei SGPU nur mit 1080p.
Wenn man das Ganze in Richtung niedrigerer fps verschiebt, verliert AFR natürlich immer mehr, das ist klar. Ergibt aber aus o.g. Grund zumindest für mich überhaupt keinen Sinn.

Knuddelbearli
2014-06-10, 16:49:59
Na du und einige andere machen das ja gerne picken sich irgend eine Kleinigkeit raus die ihnen nicht passt und hauen das einem dann um die Ohren obwohl es nur eine kleine Nebensache ist und nichts mit der eigentlichen Argumentation zu tun hat. Deshalb schreibe ich das immer gleich rein erspart einem das eben.
Außerdem zumindest für mich gibt es genug Spiele die ich auch mit stabilen 30-40 FPS 1A spielen kann. Mit SLI geht das aber eben nicht mehr da sowohl der erhöhte Input Lag dann massiv reinhaut ebenso da das Mirkoruckeln immer noch recht spürbar ist.

Musst halt damit klarkommen das es auch solche Spieler/Personen gibt.

boxleitnerb
2014-06-10, 17:03:44
So wie du? Du scheinst zu vergessen, worum es hier ursprünglich ging, nämlich um Skysnakes ellenlangen Anti-mGPU Rant, der nichtmal auf eigenen Erfahrungen beruhte. Er tut eben das nicht, was du forderst: Mit anderen Meinungen klarkommen. Ich tue das sehr wohl - das einzige, was ich nicht tue ist, Pauschalisierungen zu tolerieren. Und dazu stehe ich 100%!
Ich weiß ehrlich gesagt gar nicht, warum du dich hier eingeschaltet hast, denn zu diesem konkreten Teil der Diskussion hast du rein gar nichts beigetragen.

Knuddelbearli
2014-06-10, 17:12:20
Ähm ja ihr redet hier seitenlang über SLI und CF es ist ein Thread wo es um eine DualGPU Karte geht aber meine ( und Raffs ) SLI Erfahrungen sind natürlich Offtopic klar :freak:

Hübie
2014-06-10, 18:25:03
Was für SLi-Erfahrungen hast du denn konkret, wenn ich mal fragen darf? :)
Ich werde das Gefühl nicht los, dass Fermi (GF110) im SLi geschmeidiger lief als GK104. Kann mich natürlich täuschen da mir der direkte Vergleich fehlt, aber hatte schon öfter so Spiele die sich bei niedrigen fps (~40-45) mit GF110-SLi besser anfühlten.

boxleitnerb
2014-06-10, 18:39:01
Ähm ja ihr redet hier seitenlang über SLI und CF es ist ein Thread wo es um eine DualGPU Karte geht aber meine ( und Raffs ) SLI Erfahrungen sind natürlich Offtopic klar :freak:

Ja sind sie. Warum? Weil ihr nicht die Allgemeinheit repräsentiert, nur euch selber. Über AFR "gut/schlecht" kann man nicht auf diese Art und Weise diskutieren, weil das ein subjektiv behaftetes Thema ist. Das sollte jetzt deutlich genug sein und auch vollkommen logisch.

aufkrawall
2014-06-10, 18:39:46
sGPU ärgert einen halt nie mit irgendwelchen spezifischen Querelen, im Gegensatz zu AFR. Ständig frickeln und hoffen, dass das Spiel weiterhin brauchbar läuft oder die fps nicht zu stark einkacken, sodass es wegen des AFR-Lags unspielbar wird, macht keinen Spaß. Besonders, wenn diese problematischen Titel immer mehr werden und man gefühlt gar nicht mehr einfach loszocken kann, Wochen warten muss etc.
Mal davon abgesehen, dass mit steigender Auflösung das Verlangen nach der SSAA-Keule abnimmt. Kann in Watchdogs ohne Probleme mit SMAA bei 1440p@27" leben und die fps sind mit einer 780 Ti OC hoch genug.

Habe fertig mit AFR, das wird mit steigender Komplexität der Spiele nie wieder so gut funktionieren wie es das mal tat.
Klar ist 2x die gleiche GPU besser als 1x, das ist aber auch kein besonderes Kompliment.

TobiWahnKenobi
2014-06-10, 18:55:12
Ich sage nur selbst testen und sich nicht auf andere verlassen. Das hast du nicht richtig getan, daher kannst du tatsächlich hier nicht mitreden. Ganz einfach.

hehe.. ja.. mit kohlen + interesse geht das. und da sind wir dann auch schon bei der berichterstattung im netz. wer studiert denn balkendiagramme? doch eigentlich nur die, denen eine neuinvestition weh tun würde. der mit cash auf tash und genug nerdempfinden, wird sich das was ihn interessiert schon kaufen und es sich selbst anschauen.

die, denen betrag XY zu hoch wäre, freut es natürlich, wenn es in irgendeiner form negativa gibt ;)

unterm strich ist die berichterstattung im netz oder auch in printmedien werbung. auf webseiten zählen klicks und im druck auflage und abonenten..

krass dass sich dieses modell noch selbst trägt und dass es noch immer nachwuchs zu geben scheint, der sich für den krempel ausreichend interessiert; ich hätte dem ganzen markt aus dem bauch raus rückläufigkeit attestiert.

anyway.. keiner hier kauft titan Z, keiner schreibt darüber, keiner trägt inhaltlich etwas bei, was zum kontext des threadtitels passt.

ich werfe das abo raus.

wünsche euch einen schnuggeligen 30°C abend mit eurer IT-schlammschlacht und geniesse noch etwas die natur..

titan-z-laberthread wäre auch ein toller titel.



(..)

mfg
tobi

Godmode
2014-06-10, 19:15:40
anyway.. keiner hier kauft titan Z, keiner schreibt darüber, keiner trägt inhaltlich etwas bei, was zum kontext des threadtitels passt.


(..)

mfg
tobi

Warum sollte man diesen Schrott auch kaufen? Wenn das Ding wenigstens besser wäre, als das was es aktuell zu kaufen gibt. Ich bin immer bereit viel Geld für Hardware auszugeben, wenn ich dafür auch den entsprechenden Gegenwert bekomme. Mit diesem PR-Stunt bekommen sie keinen Cent von mir.

Wozu sollte man das Ding auch testen wollen, es ist von den Daten her schon klar, das man langsamer als 2x Titan Black ist. Das blöde Argument, "aber nur die Z passt doch in kleine Gehäuse" können sie sich auch sparen, weil auf LAN Parties fährt man schon lange nicht mehr, was für mich immer der einzige Grund für ein kleines Gehäuse war.

fondness
2014-06-10, 20:24:45
Nvidia GeForce GTX Titan-Z SLI review
http://nl.hardware.info/reviews/5417/nvidia-geforce-gtx-titan-z-sli-review-tones-tizair-systeem

Stromverbrauch liegt dort nur minimal unter einer 295X2.

Knuddelbearli
2014-06-10, 20:30:08
und zugleich langsamer oO
Watt je FPS sogar schlechter wenn ich das so schnell überfliege wie hat NV das den geschafft?

Wobei messen in 1080p ist halt bescheuert, aber bisher halt das brauchbarste Review

Godmode
2014-06-10, 20:46:12
und zugleich langsamer oO
Watt je FPS sogar schlechter wenn ich das so schnell überfliege wie hat NV das den geschafft?

Wobei messen in 1080p ist halt bescheuert, aber bisher halt das brauchbarste Review

Teilweise sieht sie nichtmal so schlecht aus gegenüber Titan Black SLI, aber das liegt wohl an den kurzen Benchmarksequenzen. Man muss auf richtige Reviews warten, wo auch gezeigt wird, wie lange der Boost gehalten wird.

Knuddelbearli
2014-06-10, 20:48:39
naja zu zumindest bei NV vs AMD sollte da AMD im Vorteil sein. taktet ja kaum niedriger und wird nicht durch Powerlimit gebremst. Bin also schon geschockt.
Ging bisher davon aus das NV entweder knapp vorne ist bei minimal weniger verbrauch oder knapp hinten bei deutlich besseren Verbrauch

Schaffe89
2014-06-10, 22:08:05
So wie du? Du scheinst zu vergessen, worum es hier ursprünglich ging, nämlich um Skysnakes ellenlangen Anti-mGPU Rant, der nichtmal auf eigenen Erfahrungen beruhte.

Wen interessiert das ob der auf Erfahrungen beruht? Jeder kann seine Meinung äußern und derjeniege der keine Erfahrungen n der Praxis hat, sondern sich die Probleme zusammenliest und Tests studiert, der kann genausoviel dazu sagen.
Ich hab eher das Gefühl das Skysnake versucht objektiv zu bleiben, während du dich nur auf den SLI beziehst.

Das ist das Problem was Raff angesprochen hat, man redet sich seinen Senf schön.
Das war damals bei meinem GTX 480 SLI auch so.

Im Endeffekt war es ne scheiß Investition.

Blaire
2014-06-10, 22:12:44
sGPU ärgert einen halt nie mit irgendwelchen spezifischen Querelen, im Gegensatz zu AFR. Ständig frickeln und hoffen, dass das Spiel weiterhin brauchbar läuft oder die fps nicht zu stark einkacken, sodass es wegen des AFR-Lags unspielbar wird, macht keinen Spaß. Besonders, wenn diese problematischen Titel immer mehr werden und man gefühlt gar nicht mehr einfach loszocken kann, Wochen warten muss etc.
Mal davon abgesehen, dass mit steigender Auflösung das Verlangen nach der SSAA-Keule abnimmt. Kann in Watchdogs ohne Probleme mit SMAA bei 1440p@27" leben und die fps sind mit einer 780 Ti OC hoch genug.

Ist es nicht eher generell so und schon Normalität geworden, daß viele Games erst beim Kunden reifen, vor allem dank der Multi-Platform Titel , die Qualität oft auf der Strecke bleibt (siehe auch AA-Support und anderer PP-Filter Schiss der letzten Jahre?) Das betrifft aber genauso SingleGPU. Das SLI-User da jetzt mehr Nachteile haben sollen, kann ich da nicht wirklich erkennen. Perfektes SLI Scaling kannst du halt auch nicht immer erwarten, das alles ist nichts neues.

Teilweise sieht sie nichtmal so schlecht aus gegenüber Titan Black SLI, aber das liegt wohl an den kurzen Benchmarksequenzen. Man muss auf richtige Reviews warten, wo auch gezeigt wird, wie lange der Boost gehalten wird.

Meinst du erfahrene User finden die richtigen Schalter nicht? :D Die meisten Reviews kannst eh inner Pfeife rauchen, wenn ich schon lese Fixed Boost und Ignoranz bez. Temp und Powertargets, da erübrigt es sich schon das noch weiter zu verfolgen.

Godmode
2014-06-10, 22:26:05
naja zu zumindest bei NV vs AMD sollte da AMD im Vorteil sein. taktet ja kaum niedriger und wird nicht durch Powerlimit gebremst.

Die X2 hat bzgl. Boost sicher einen großen Vorteil.

Bin also schon geschockt.
Ging bisher davon aus das NV entweder knapp vorne ist bei minimal weniger verbrauch oder knapp hinten bei deutlich besseren Verbrauch

Sie müssten auch eine Wasserkühlung verbauen, dann ginge das. Vielleicht beglücken sie uns ja noch mit einer GTX Titan Z Black. ;D

Schaffe89
2014-06-10, 23:30:05
Bei dem Test zieht eine 280x weniger wie eine GTX 770, das ist nicht üblich.
Ich würde AMD hier nochmal ~50 watt draufrechnen und selbst dann ist die Differenz Minimal, wenngleich die AMD Karte etwas mehr leistet.

Skysnake
2014-06-10, 23:32:59
Ich sage nur selbst testen und sich nicht auf andere verlassen. Das hast du nicht richtig getan, daher kannst du tatsächlich hier nicht mitreden. Ganz einfach.
Dann kann ich dir nur sagen, mach doppelte Blindtests, alles andere ist nicht objektiv und selbstbeschiss. Damit ist alles was du hier erzählt also völlig wertlos, denn das wirste nicht geleistet bekommen.

Man war das jetzt schwer, deine Argumentation gegen dich zu richten. :rolleyes:

Nein, jetzt mal ganz im Ernst. An sich müsste man wirklich Doppeltblindtests machen, um verlässliche Aussagen darüber treffen zu können, wie sich das auf Nutzer tatsächlich auswirkt. Tendenziell würde ich aber aufgrund der vielfältigen Aussagen von Redakteuren zum Thema µRuckler, und deren weiteres bestehen, wenn auch stark gemindert, den Schluss erwarten, das man eben nur Sysmptone therapiert, aber eben nicht die Ursache beseitigt hat.

Godmode
2014-06-11, 09:31:19
Dann kann ich dir nur sagen, mach doppelte Blindtests, alles andere ist nicht objektiv und selbstbeschiss. Damit ist alles was du hier erzählt also völlig wertlos, denn das wirste nicht geleistet bekommen.

Man war das jetzt schwer, deine Argumentation gegen dich zu richten. :rolleyes:

Nein, jetzt mal ganz im Ernst. An sich müsste man wirklich Doppeltblindtests machen, um verlässliche Aussagen darüber treffen zu können, wie sich das auf Nutzer tatsächlich auswirkt. Tendenziell würde ich aber aufgrund der vielfältigen Aussagen von Redakteuren zum Thema µRuckler, und deren weiteres bestehen, wenn auch stark gemindert, den Schluss erwarten, das man eben nur Sysmptone therapiert, aber eben nicht die Ursache beseitigt hat.

Ich glaube bei PCGH haben sie sogar mal Blindtests gemacht?

Wir sind Offtopic und das Thema ist sowieso ausgelutscht. Es geht hier um Titan-Z.

Ist bei Nvidias OpenCL Implementierung noch was kaputt oder wie sind diese unterirdischen Ergebnisse zu erklären?
http://us.hardware.info/reviews/5419/24/nvidia-geforce-gtx-titan-z-sli-review-incl-tones-tizair-system-gpgpu-benchmarks

boxleitnerb
2014-06-11, 09:45:03
Dann kann ich dir nur sagen, mach doppelte Blindtests, alles andere ist nicht objektiv und selbstbeschiss. Damit ist alles was du hier erzählt also völlig wertlos, denn das wirste nicht geleistet bekommen.

Man war das jetzt schwer, deine Argumentation gegen dich zu richten. :rolleyes:

Nein, jetzt mal ganz im Ernst. An sich müsste man wirklich Doppeltblindtests machen, um verlässliche Aussagen darüber treffen zu können, wie sich das auf Nutzer tatsächlich auswirkt. Tendenziell würde ich aber aufgrund der vielfältigen Aussagen von Redakteuren zum Thema µRuckler, und deren weiteres bestehen, wenn auch stark gemindert, den Schluss erwarten, das man eben nur Sysmptone therapiert, aber eben nicht die Ursache beseitigt hat.

Wer sagt denn, dass es objektiv sein muss??? Du wirst in meinen Beiträgen vermehrt den Begriff "subjektive Wahrnehmung" finden. Du versuchst krampfhaft, "Nutzer" (alle, allgemein) über einen Kamm zu scheren - das geht nicht. Der eine empfindet es so, der andere so. Was du schreibst, geht also komplett an dieser Thematik vorbei, denn Objektivität war hier NIE gefordert und ist wie du richtig sagst auch gar nicht möglich.

Natürlich werden nur Symptome behandelt...und? Habe ich jemals etwas anderes behauptet? Nein. Wäre schön, wenn du nicht irgendwelche Dinge in meinen Texten erfinden würdest, die ich nie geschrieben habe.

Es wäre prinzipiell wünschenswert, wenn das Thema AFR ad acta gelegt werden könnte, das sehe auch ich so. Ich verkenne aber nicht die Realität, in der viele (auch ich) damit recht gut leben können und in der die Wichtigkeit dieses "Problems" viel zu gering ist, als dass es hier nur dafür großartige Anstrengungen geben könnte. Das wird höchstens im Zuge anderer Entwicklungen passieren wie ich bereits angesprochen habe. Sonst lohnt sich der Aufwand für die wenigen Käufer doch überhaupt nicht. Das solltest selbst du kapieren.

dildo4u
2014-06-11, 09:52:04
Pcper Titan Z Review

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-TITAN-Z-Review

Leiser als die 295X durch 146Watt weniger Verbrauch.

Soviel zum Nvidia Bias:

But there are obviously users that have a lot more money to invest into a gaming machine and would consider cards in this price range, and for those, the GTX Titan Z just isn't a good choice. The AMD Radeon R9 295X2 is the better multi-GPU solution offering both better gaming performance (sometimes by a significant amount) and better value for your dollar. AMD has made a lot of progress with their multi-GPU frame pacing software updates and they are really showcased in the R9 295X2 that requires it. In fact, in some places the frame pacing performance of the Hawaii GPUs is better than that found in the GK110 parts on the Titan Z. This is something that NVIDIA is working to fix and take back that particular crown.

Godmode
2014-06-11, 10:07:23
Pcper Titan Z Review

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-TITAN-Z-Review

Leiser als die 295X durch 146Watt weniger Verbrauch.

Soviel zum Nvidia Bias:

Und dadurch auch langsamer. Was die Leistung angeht, hat die 295X2 gewonnen, aber das wussten wir ja schon vorher.

Ätznatron
2014-06-11, 10:15:46
Und dadurch auch langsamer. Was die Leistung angeht, hat die 295X2 gewonnen, aber das wussten wir ja schon vorher.

Und was die Leistungsaufnahme angeht, hat die 295X2 ebenfalls gewonnen:

http://nl.hardware.info/reviews/5417/26/nvidia-geforce-gtx-titan-z-sli-review-tones-tizair-systeem-stroomverbruik

Im idle verbraucht die Titan Z 8 Watt mehr, unter Last gerade mal 26 Watt weniger.

PS: pcper bleibt sich bias-mäßig natürlich schon treu. Aber selbst pcper kann letztlich die Realität nicht total verzerren.

Auch wenn sie's mit den angeblichen 146 Watt Minderverbrauch natürlich versuchen.

Hübie
2014-06-11, 10:40:11
Dann kann ich dir nur sagen, mach doppelte Blindtests, alles andere ist nicht objektiv und selbstbeschiss. Damit ist alles was du hier erzählt also völlig wertlos, denn das wirste nicht geleistet bekommen.

Man war das jetzt schwer, deine Argumentation gegen dich zu richten. :rolleyes:

Nein, jetzt mal ganz im Ernst. An sich müsste man wirklich Doppeltblindtests machen, um verlässliche Aussagen darüber treffen zu können, wie sich das auf Nutzer tatsächlich auswirkt. Tendenziell würde ich aber aufgrund der vielfältigen Aussagen von Redakteuren zum Thema µRuckler, und deren weiteres bestehen, wenn auch stark gemindert, den Schluss erwarten, das man eben nur Sysmptone therapiert, aber eben nicht die Ursache beseitigt hat.

An sich eine sehr gute Idee. Würde mich selbst dabei mal beobachten. Ich mach das Zuhause so: ingame keinen framecounter etc. nutzen und alles so einstellen wie ich es mir vorstelle. Dann spiele ich ein wenig und schau wie es sich anfühlt. Ist alles paletti lass ichs. Kommt mir was komisch vor aktiviere ich den framecounter und schau obs daran liegt. Dann beginnt die Bastelei.

Bei den Redaktionen wird ein großer Bagatellfehler gemacht: man nutzt stets Vorgaben. Das kannst du bei SLi nicht erwarten. Da braucht man sowas wie smooth afr, prerender 1, custom bits und/oder framelimiter. Ich weiß nicht ob die Mehrheit der SLi-User das beste Erlebnis wollen und entsprechend tüdeln aber die, die in meinem Umkreis agieren machen das ALLE (das muss man auch irgendwie billigend in Kauf nehmen).
Dadurch lässt sich schon so einiges, teils deutlich, verbessern.

Dem Grundtenor AFR sei eine Flickenlösung widerspreche ich gar nicht. Nur kann man durch lesen von Reviews das Endergebnis nicht bewerten.

Edit: stünde ich heute, wie vor einem Jahr, vor der Wahl was ich kaufe, dann würde ich mir sofort eine Titan Black mit Arctic Hybrid kaufen.

135i
2014-06-11, 21:10:37
Ist alles paletti lass ichs. Kommt mir was komisch vor aktiviere ich den framecounter und schau obs daran liegt. Dann beginnt die Bastelei.

Bei den Redaktionen wird ein großer Bagatellfehler gemacht: man nutzt stets Vorgaben. Das kannst du bei SLi nicht erwarten. Da braucht man sowas wie smooth afr, prerender 1, custom bits und/oder framelimiter. Ich weiß nicht ob die Mehrheit der SLi-User das beste Erlebnis wollen und entsprechend tüdeln aber die, die in meinem Umkreis agieren machen das ALLE (das muss man auch irgendwie billigend in Kauf nehmen).
Dadurch lässt sich schon so einiges, teils deutlich, verbessern.

.


Machts Euch nicht so schwer. Einzig Hilfreich können Custom bits sein.
Immer Vsyc rein und ab geht die ruckelfreie Post

Hübie
2014-06-12, 02:33:53
NOT!

Mr. Lolman
2014-06-12, 06:19:05
Edit: stünde ich heute, wie vor einem Jahr, vor der Wahl was ich kaufe, dann würde ich mir sofort eine Titan Black mit Arctic Hybrid kaufen.

Dann mach das doch. Sooo viel musst du eh nicht drauflegen, wenn du dein 770SLI verkaufst. ;)

4Fighting
2014-06-12, 08:53:23
über 10 Exemplare der Asus Titan-Z scheinen schon immerhin verkauft worden zu sein :freak:

http://www.mindfactory.de/product_info.php/2x-6144MB-Asus-GeForce-GTX-Titan-Z-Aktiv-PCIe-3-0-x16--Retail-_964385.html

fondness
2014-06-12, 09:43:33
Pcper Titan Z Review

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-TITAN-Z-Review

Leiser als die 295X durch 146Watt weniger Verbrauch.

Soviel zum Nvidia Bias:

Nachdem NV behauptet hat einen tollen Hardware-Frame-Pacing-Modus zu besitzen finde ich vor allem die letzten zwei zitierten Sätze ziemlich LOL.

Hübie
2014-06-12, 09:51:02
Dann mach das doch. Sooo viel musst du eh nicht drauflegen, wenn du dein 770SLI verkaufst. ;)

Ich zocke momentan sehr sehr wenig und habe auch irgendwie seit der Watch_dogs-Veröffentlichung keine Lust mehr.

@fondness: Das ist A) Treibersache wie man bei Crysis 3 sieht und B) Entwicklersache wieviel man für AFR-Support aufwendet. Die frameverteilung schwankt noch ziemlich stark in manchen Spielen. Schön ist das nicht, stimmt. Aber wird sicher hier und da gefixt.

Mr. Lolman
2014-06-12, 10:47:03
Hm, grad Watch Dogs ist imo ein herrliches Spiel. Zwar schwanken bei mir die Frametimes beim schnellen Fahren zwischen 10 und 50ms aber große Makroruckler gibts nicht und theoretisch könnte man ja die Texturedetails eine Stufe runterstellen. Das Spiel freut sich halt über jedes bisschen VRAM und dass das Streaming angesichts der Detailfülle recht viel Leistung braucht ist imo auch logisch.

Hübie
2014-06-12, 11:03:08
Ich finde das Wort "Makro" in diesem Zusammenhang immer sehr missbräuchlich angebracht, aber das nur formell angemerkt.

Watch_dogs ist AFR-unfreundlich, ruckelt selbst bei 6 GB VRAM und hat obendrein noch ein paar (clipping-) bugs was mich einfach zu der Entscheidung trieb meine Investition ruhen zu lassen und zuzusehen wie der Wert sinkt.
Nicht mal mit einer 3000-$-Karte liefe es einwandfrei. Mich nervts einfach nur noch :mad:

Edgecrusher86
2014-06-19, 04:12:56
Hier nochmal ein kurzer Nachtest von PCPer - GTX TITAN Z - Auswirkung der Taktraten in Metro LL mit 112, 120 sowie 120% PT + 75 MHz Offset (VCores vermutlich default):

PC Perspective - GeForce GTX Titan Z Overclocking Testing (http://www.pcper.com/news/Graphics-Cards/GeForce-GTX-Titan-Z-Overclocking-Testing)

http://abload.de/img/clockspeedtitanz10kwm.png

http://abload.de/img/clockspeedtitan-avgl0sel.png

Gerade mit 450W max. PT sieht das schon besser aus, aber der Preis ist halt auch als Enthusiast immer noch jenseits von Gut und Böse vs. TITAN Black 2-way.
Den Aufpreis ist auch eine kompakte Single-PCB- & Dual-Slot-Lösung unter Wasser nicht wert. ^^

Blediator16
2014-06-19, 07:35:58
Und der Stromsparvorteil ist auch wieder weg.

robbitop
2014-06-19, 10:12:30
Entschuldigung, aber jede noch so billige Klatsch-Presse, die nur ein paar 3dmark-Läufe durchführt bekommt von NV ein Sample. HT4U, die nun wirklich sehr hochwertige Tests durchführen bekommen schon seit vielen Jahren keine High-End-Karten mehr von NV. Sie bekamen weder eine GTX680, noch eine TITAN, noch eine 780Ti. Sich da hinzustellen und irgendwas von zu wenigen Samples zu faseln kann doch wohl nicht dein ernst sein. Man braucht wirklich nicht viel Phantasie um zu sehen was hier abgeht und warum, aber um an dieser Stelle politisch korrekt zu bleiben soll sich jeder selbst seine Meinung bilden. Und solange die Käufer diese Praktiken aktiv unterstützen wird sich daran auch nichts ändern.
Ich kann das aus eigener Erfahrung bestätigen. 3DCenter bekam Jahre lang keine Samples von ATI, weil aths solange auf dem AF herumgehackt hat. (und IMO damit über andere Reaktionen eine positive Lawine verursacht hat infolgedessen wir heute vergleichsweise gute Texturfilterung haben)

Das hat ATI nicht gefallen. Also bekamen wir keine Samples. Das hat sich erst zum R600 geändert, als Lars Weinand (heute NV) für uns zuständig war. Der hat uns erstmalig wieder eine ATI Karte als Sample zur Verfügung gestellt. (und uns sogar ein Interview mit Eric Demers (heute Qualcomm) verschafft hat!)

Kritik (vor allem unbeschönte) wird bei den IHVs registriert und ab einem gewissen Punkt nicht mehr toleriert. Am Ende bekommt man keine Samples oder Interviews mit den Engineers mehr.

Aus PR Sicht verständlich. Schöner wäre aber eine einsehende Reaktion: "Kritik verstanden. Danke für das Feedback. Im nächsten Produkt bauen wir das ein! :)"

Hübie
2014-06-19, 12:31:06
JA. Diese "guidelines" sind schon eher sowas wie ein Knebel. Darfst dies und das nicht im Treiber ändern (okay da steht we recommend you to not...blah blah). Ätzend.
Aber so funktioniert nun mal das Geschäft. Die wollen halt immer nur dein BESTES (*pinke-pinke*)

Edgecrusher86
2014-06-19, 15:21:35
Und der Stromsparvorteil ist auch wieder weg.

Wo soll der weg sein? Die X2 braucht doch auch immer über 500W, und das ohne PowerTune hochzuschrauben. Insofern ist die Z immer noch ein gutes Stück darunter bei ähnlicher Leistung.

Außerdem ist es als Enthusiast nicht so tragisch - da kann eine GPU sich auch mal locker 250 - 300W genehmigen, die dicken NTs wollen doch auch ein bisschen arbeiten. ;)

Blediator16
2014-06-19, 19:37:39
Wo soll der weg sein? Die X2 braucht doch auch immer über 500W, und das ohne PowerTune hochzuschrauben. Insofern ist die Z immer noch ein gutes Stück darunter bei ähnlicher Leistung.

Außerdem ist es als Enthusiast nicht so tragisch - da kann eine GPU sich auch mal locker 250 - 300W genehmigen, die dicken NTs wollen doch auch ein bisschen arbeiten. ;)

Ich rede von den 375tdp. Es wäre eine Meisterleistung bei 375tdp. Und bei der x2 braucht man nichtmal das PW hochtuschrauben, weil die Kühlung ausreicht nicht wie bei der titan z, wo man mit ach und krach an die Leistung der x2 kommt. Aber das hatten wir schon zu genüge.

Edgecrusher86
2014-06-19, 20:10:30
Viel mehr wäre halt auch mit der AiO Lösung unter 375W auch nicht drin. Ein GM204 basierter GTX 690 Nachfolger könnte dies aber schaffen.
Schade, dass es noch keinen WaKü-Test Z vs. X2 mit maximalem OC gibt - das wäre mal interessant. Mit 1,2V wären bei der Z vll. sogar 1,2 GHz drin - unter Luft sind es mit OC durch das PT/TT ja immerhin 107x MHz im Schnitt.
Aber dafür müssten die Karten schon gekauft sein. Wäre die UVP 50% niedriger und die Karte letztes Jahr rausgekommen, hätte ich wohl eine drin. :)

80 - 83°C waren es bei der Z im Test sowohl Stock als auch mit OC - weit enfernt vom maximalen 95 °C TT. An der Grenze scheint die Kühlung hier also noch nicht zu sein. Auch wenn natürlich in Zeiten von Boost diese natürlich auch konstantere Taktraten erlaubt, wenn sonst nicht PT/VCore limitieren. Davon abgesehen will natürlich niemand konstante 2700 RPM bei der Z vs. 2000 Stock haben, auch wenn man immer noch leiser als das Referenzdesign der R9 SGPUs ist. ;)

robbitop
2014-06-20, 09:32:47
JA. Diese "guidelines" sind schon eher sowas wie ein Knebel. Darfst dies und das nicht im Treiber ändern (okay da steht we recommend you to not...blah blah). Ätzend.
Aber so funktioniert nun mal das Geschäft. Die wollen halt immer nur dein BESTES (*pinke-pinke*)
Also das mit den Guidelines kann ich nicht bestätigen. Da bekamen wir nie Ärger oder negatives Feedback, wenn wir mit anderen Settings getestet haben.

Allerdings könnte das zu NV3x Zeiten eventuell so gewesen sein. NV30 war mit INT12 eine Rakete, mit FP16 immer noch brauchbar und mit FP32 schnarch lahm (nicht genug Register und nur eine FP32 Einheit pro Pipe - NV35 hatte immerhin 2x FP16 - NV30 hatte 1x FP32 und 2x INT12).

dildo4u
2014-06-21, 17:37:49
Guru3D Titan Z Review

http://www.guru3d.com/articles_pages/nvidia_geforce_gtx_titan_z_review,1.html

Test mit dem neusten Geforce Treiber.(340.43)

Schaffe89
2014-06-21, 18:36:14
Wenn die Nvidiakarte mehr FPS im CPU Limit schafft wie AMD, dann ist es bei AMD kein CPU Limit.

Blediator16
2014-06-21, 18:42:39
Verbraucht quasi das selbe wie die 295x2 und ebenfalls nur 2x8 Pin. Skandal :D

Kriton
2014-06-21, 20:25:06
Wenn die Nvidiakarte mehr FPS im CPU Limit schafft wie AMD, dann ist es bei AMD kein CPU Limit.

Vermutlich sehen wir hier die bessere Verteilung der Treiberlast auf mehrere Threads. Dann wäre es auch bei AMD ein CPU-Limit. Würde bei schlecht auf Mehrkern-CPUs optimiere Programme nur eher eintreffen.

135i
2014-06-21, 20:36:28
Verbraucht quasi das selbe wie die 295x2 und ebenfalls nur 2x8 Pin. Skandal :D

Ist aber bedeutendst leistungsstärker als die GTX480,bei wesentlich geringerer Lautstärke. Wer jetzt noch eine 480er hat, kann mit bestem Gewissen zuschlagen!

Knuddelbearli
2014-06-21, 20:39:45
ähm nein ^^

135i
2014-06-21, 20:49:45
ups, ich seh gerade , Du hast noch eine......also in 4jahren hast Du doch sicher locker 2500-3000€ zusammengespart :D

Knuddelbearli
2014-06-21, 21:18:38
^^

ja wir aber wohl demnächst einer 290X weichen, NV ist entweder überteuert oder VRam "Krüppel"

135i
2014-06-21, 21:34:38
^^

ja wir aber wohl demnächst einer 290X weichen, NV ist entweder überteuert oder VRam "Krüppel"

NOT! Die 3gb der SLI-780Ti reichen bei mir locker für 1600p.
Alte Games kannst Du SPIELBAR extrem aufwerten , ohne dass der Vram ausgeht. Den genialen MISCHMODIS sei dank.
Für Einzelkarte ist die GPU-Leistung zu schwach , um neue Spiele entsprechend aufzuwerten. Lass Dich von anderen nicht verückt machen, die wollen nur Ihre überteuerten Titanen rechtfertigen.

Bsp: Hatte mich irgendwann gewundert, dass der Vram , der sonst mit etwa 2gb genutz wurde, plötzlich knapp an den 3gb kratzte. Hatte anschließend alle WebBrowser , Mediaplayer geschlossen, die Tage lang in Nutzung waren und plötzlich waren's wieder die normalen 2Gb.
Will sagen, mit Tricks kann man hier die volle 6gb.Vram-Nutzung posten, wie ma lustig ist. ;)

Knuddelbearli
2014-06-21, 21:51:52
Nene ich merke es ja selber

während die 3GB 480 auch in neueren spielen noch ganz gut geht, kackt die mit 1,5GB total ab.
Watchdogs jetzt extrem Beispiel doppelte FPS dank doppelten Speicher. Nachladeruckler und co die sich in den Medium fps nicht / kaum abbilden kommt da noch dazu ...

Mit 4Gb dürfte man aber erstmal auf der sicheren Seite sein bis zur nächsten Konsolegeneration. die 12GB auf der Titann Z war schon die richtige Entscheidung

Ex3cut3r
2014-06-22, 19:08:26
Ich bin ja sogar der Meinung, dass die 3GB VRAM auf der 780Ti, eine ziemliche Frechheit waren, ich meine die Graka ist mit 1,3/1,2 Ghz Takt sau schnell. Die 3GB werden der 2015 ziemlich ins Fleisch schneiden. Ist fast das gleiche mit der 770 2GB, gut da hatte man wenigstens die Wahl, die überteuerte 4GB Variante zu nehmen. :D

Amd kommt mir aber auch nicht ins Haus.
- Nicht so tolle Custom Kühler.
- Treiber sind besser geworden, aber immer noch anfällig
- Kleinigkeiten (TXAA fehlt, AF schlechter, Third-Party Tools)
- Bei Nvidia Unterstützten Titeln, oft stark im Nachteil. Während Gaming Evolved Titel auf Geforce's gleichwertig oder sogar besser laufen.

TobiWahnKenobi
2014-06-22, 19:41:04
verglichen mit dem krempel, den wir uns vor 10-15 jahren leisten mussten, sind das heute doch wahre schnäppchen.. und selbst "speicherkrüppel" sind wahre boliden.

http://abload.de/thumb/img_1929qhkcl.jpg (http://abload.de/image.php?img=img_1929qhkcl.jpg)


(..)

mfg
tobi

Blediator16
2014-06-22, 20:51:37
Hatte schon seinen Grund wieso ich darmals schon die Ultras ausgelassen habe :D

TobiWahnKenobi
2014-06-22, 21:00:05
hast du es gut. ich hatte erst die gts (gigatexel trallala), dann die pro, aber AFAIR war die nicht gut zu takten und hatte nur 32MByte..


(..)

mfg
tobi

aufkrawall
2014-06-22, 21:03:20
Amd kommt mir aber auch nicht ins Haus.
- Nicht so tolle Custom Kühler.

Die Vapor-X ist richtig gut. Würde sogar sagen, besser als alle NV-Designs.
Bei den anderen Punkten bin ich aber ganz bei dir.

Ex3cut3r
2014-06-22, 21:06:36
Die Vapor-X ist richtig gut. Würde sogar sagen, besser als alle NV-Designs.
Bei den anderen Punkten bin ich aber ganz bei dir.

Ok, Vapor-X merk ich mir

zur Hercules Karte, Uff schon heftig damals. ;D

Blediator16
2014-06-22, 21:16:56
hast du es gut. ich hatte erst die gts (gigatexel trallala), dann die pro, aber AFAIR war die nicht gut zu takten und hatte nur 32MByte..


(..)

mfg
tobi

Naa ich hab mir die genau so gekauft. auch gts und pro. davor noch mx. die wuchergeräte darmals wie heute möchte ich mir nicht leisten :freak:

TobiWahnKenobi
2014-06-22, 21:36:59
Naa ich hab mir die genau so gekauft. auch gts und pro. davor noch mx. die wuchergeräte darmals wie heute möchte ich mir nicht leisten :freak:

spielst du denn noch? ich habe bei mir entdeckt, dass ich kaum bis nie zocke und die hardware eigentlich geldverbrennung aus angewohnheit ist.


(..)

mfg
tobi

Raff
2014-06-23, 00:26:41
verglichen mit dem krempel, den wir uns vor 10-15 jahren leisten mussten, sind das heute doch wahre schnäppchen.. und selbst "speicherkrüppel" sind wahre boliden.

http://abload.de/thumb/img_1929qhkcl.jpg (http://abload.de/image.php?img=img_1929qhkcl.jpg)


(..)

mfg
tobi

Pah, "sehr gut bei 32Bit". Das Ding säuft prozentual von 16 auf 32 Bit mindestens genauso ab wie die kleineren Modelle der Reihe, nur die absolute Leistung ist hoch. Ineffizient³. Vergleicht man alle Geforce-2-Karten mit der Geforce 3 (egal mit welcher), wird klar, was für ein Mist das damals war. Ein paar schöne, nicht CPU-limitierte Benchmarks gibt's hier:

http://alt.3dcenter.org/artikel/voodoo5-6000/index9.php
http://alt.3dcenter.org/artikel/voodoo5-6000/index19.php

MfG,
Raff

Hübie
2014-06-23, 09:49:50
verglichen mit dem krempel, den wir uns vor 10-15 jahren leisten mussten, sind das heute doch wahre schnäppchen.. und selbst "speicherkrüppel" sind wahre boliden.

http://abload.de/thumb/img_1929qhkcl.jpg (http://abload.de/image.php?img=img_1929qhkcl.jpg)


(..)

mfg
tobi

Hahaahaaa. Da steht "massiver Lüfter" ;D Ich werd nich mehr :D

TobiWahnKenobi
2014-06-23, 10:11:12
das mit den 32bit muss man mit den augen von damals sehen. der 32bit farbtiefe haben wir im grunde seit rivaTNT entgegengefiebert. die RAGE-chips von ATI hatten unter 16bit ein ekliges raster; die TNTs waren für 32bit zu langsam aber immerhin schneller als die RAGE fury, RAGE 128GL und wie sie alle hiessen. 3DFx hat AFAIR bei 24bit schluss gemacht und wie sich geforce256 geschlagen hat, weiss ich nicht aus eigener erfahrung. die habe ich ihrerzeit übersprungen. in dem jahr setzte ich noch auf TNT2+Voodoo2-SLi. GF2 war noch brandneu und ist auch die erste karte, die ich mehrfach hatte; eben weil sie verglichen mit dem anderen strunz wirklich leistungsfähig war. besonders als sie als ultra-ausführung den damals schnellstmöglichen speicher bekommen hat. an GF3 oder CPU-taktfrequenzen von über 1GHz war noch gar nicht zu denken. mein bester PIII taktete mit 700MHz (OC auf 933). das war ne rakete. irgendwo zwischen GF3 und 4 habe ich mich von den beiden voodoos verabschiedet.

die balken in eurem alten test zeigen sehr schön, dass man anno dunnemals noch ordendlich mehrleistung ggü. heute bekommen hat. vergleich das mal mit dem delta zwischen titan und titan black. und das nicht mit irgendwelchen festgepinnten frequenzen, sondern mit den takten, die wir hier in der realen anwendung kredenzt bekommen. will ich die titan auf ihren baseclock drücken, muss ich synthies wie kombustor oder OCCT starten; in spielen gibts per se eigentlich immer 1006MHz (ohne reinfummeln in takt oder lüfterkurve).

die darstellung nvidias was den base und boost angeht finde ich hingegen hanebüchen. gemittelt über tralalla ist humbug. das ist eher der takt, der noch möglich ist, wenn die karte komplett ausgelastet ist. code, der das schafft, erscheint idR aber erst einige zeit nach release der karten. analog dazu die erfahrung mit der 6800GT @ultra. die gammeligen 425MHz (ggü. 400) liefen erstaunlich lange in vielen anwendungen "stabil" - bis irgendwann ein hitman-titel erschien, der die GT@ultra wieder zu einer GT gemacht hat. AFAIK war das auch die letzte generation, wo ich neben AFR noch SFR im treiber wählen konnte.


(..)

mfg
tobi

Blediator16
2014-07-11, 13:51:07
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/66869-nvidia-titan-z-performance-review.html

Der jüngste Test von Nvidiacanucks wurde hier noch nicht gepostet. Viel Spaß :D

dildo4u
2014-07-11, 14:01:58
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/66869-nvidia-titan-z-performance-review.html

Der jüngste Test von Nvidiacanucks wurde hier noch nicht gepostet. Viel Spaß :D
Wieder erstaunlich knapp AMD muss unbedingt am DX11 Treiber arbeiten.

Hübie
2014-07-27, 15:30:33
Tom Petersen himself hat noch mal bestätigt dass die Titan Z hauptsächlich für CUDA-Devs gemacht ist. GeForce heißt die nur weil man eben kein Support mit kauft.

fondness
2014-07-27, 16:46:20
Tom Petersen himself hat noch mal bestätigt dass die Titan Z hauptsächlich für CUDA-Devs gemacht ist.

Der sollte sich vielleicht mal mit seiner Marketingabteilung absprechen...LOL. Aber klar das er das jetzt im Nachhinein so sagt, anders würde man sich auch lächerlich machen. Vorgestellt wurde die Karte von Jensen vor der langen Verschiebung aber anders und war deshalb ursprünglich ganz offensichtlich auch anders geplant.

Blediator16
2014-07-27, 16:52:28
Wayne die Karte ist ein Reinfall genau wie die 7990. Jeder macht mal Fehler.

AnarchX
2014-08-30, 10:51:20
Mit etwas HW-Wiederverkauf kann man wohl die Titan Z jetzt für effektive ~1500€ erwerben: http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-29-august-2014

Vielleicht für den ein oder anderen interessant, der einen kleinen HPC-Cluster mit 5 Titan Z bauen muss. Wobei GK210-Duo oder schon GM204 hier bald interessante Alternativen sein könnten.

Schnoesel
2014-08-30, 12:22:57
Tja da muss Nvidia mit den Preisen übers Hintertürchen runter damit das Ding überhaupt jemand kauft.

Hübie
2014-08-30, 12:40:14
Ma hätte sich ne Menge Ärger erspart wenn man nicht getestet hätte wieviel der gemeine Dussel Kunde bereit ist auszugeben :rolleyes: Titan Z ist, und das wurde mehrfach bestätigt, eher eine CUDA-Dev-Karte als eine Gamerkarte. Wurde nur wegen Null-Support unter dem GeForce-Label verkauft. Sagte ich bereits vor einer gefühlten Ewigkeit.

Wer ernsthaft auf einem PCB daddeln will nimmt die 295X und gut. Allein wegen der Wakü (und dem damit verbundenem Takt) ist die das bessere Stück Hardware.

TobiWahnKenobi
2014-08-30, 12:58:59
und was machen die dann mit ihrer gsync und 3DVision hardware? oder mit ihren shield-tablets? harmoniert nicht so, was?! das (aus deiner sicht) bessere stück hardware.


(..)

mfg
tobi

Hübie
2014-08-30, 13:08:39
Ja Herrje. Kreiere doch noch mehr Szenarien. Ändert nix an meiner Aussage. Freesync kommt bald. Und 3D-Gefrickel geht mit Radeons, aber da gebe ich dir Recht. Das is nix halbes und nix ganzes.

Dural
2014-08-31, 09:59:01
also wenn geld keine rolle spielt ist die Z sicher immer vorzuziehen.

6gb und mit wakü ziemlich sicher schneller als 295x.

aber wer ist so doof? und kauft sich für 2/3 des geldes nicht einfach zwei blacks.

die z macht nur in mini systemen sinn, sonst nirgends und das gilt übrigens auch für die 295x2 die wegen der wakü da aber quasi selber rausfliegt. amd war halt schon immer etwas doof... die karte wurde unter dem motto wir haben den grössten entwickelt weitere überlegungen gab es wohl nicht. das traurige finde ich an solchen produkten das es wirklich user gibt die das beeindrucken, die karte läuft aber komplett am limit! da sind wenn es sehr hoch kommt noch 10% durch oc raus zuholen. wahnsinnig tolle leistung, aber passt super zur 9570 cpu.

4Fighting
2014-10-24, 09:19:04
kostet "nur" noch 1,5k :D

http://www.meinpaket.de/de/gigabyte-geforce-gtx-titan-z-12gb-gddr5-2x-dvi-hdmi-displayport/p598529446/

captainsangria
2014-10-24, 09:23:21
Kloppt Euch doch bitte per PN

Godmode
2014-10-24, 10:23:29
kostet "nur" noch 1,5k :D

http://www.meinpaket.de/de/gigabyte-geforce-gtx-titan-z-12gb-gddr5-2x-dvi-hdmi-displayport/p598529446/

Um den Preis hätten sie die Karte von Anfang an verkaufen sollen und sie hätten wohl deutlich mehr Umsatz gemacht als jetzt.

Loeschzwerg
2014-10-24, 11:05:15
Ich denke NV hat von Anfang an mit niedrigen Absatzzahlen gerechnet und entsprechend wenige Einheiten produziert. Man wollte nur generell etwas gegen die 295X2 vorzuweisen haben, mehr Zweck hatte die Z sicherlich nicht.

Das Design dürften wir aber bei einer Dual GM200 Karte wiedersehen... Zuvor evtl. eine Dual GM204 als Nachfolger der GTX 690?

4Fighting
2014-10-24, 11:08:45
Um den Preis hätten sie die Karte von Anfang an verkaufen sollen und sie hätten wohl deutlich mehr Umsatz gemacht als jetzt.

+1

Ich denke NV hat von Anfang an mit niedrigen Absatzzahlen gerechnet und entsprechend wenige Einheiten produziert.

Und diese Einheiten hat man dann ein halbes Jahr eingemottet? Nene, das macht imo keinen Sinn

Ich glaube man hat sicherlich nicht mit einer doch recht guten Dual GPU von AMD gerechnet und wollte einfach noch ein extra Stück vom Kuchen haben. Leider war die 295x2 dann doch deutlich besser als erhofft/erwartet.

Loeschzwerg
2014-10-24, 11:18:20
Und diese Einheiten hat man dann ein halbes Jahr eingemottet? Nene, das macht imo keinen Sinn


Die Z ist eigentlich nichts anderes als eine Asus MARS/ARES, also sehr limitierte Stückzahl (ich schätze ~3000, wenn überhaupt). Das erklärt den hohen Preis den NV angesetzt hat (+ natürlich den Enthusiasten Aufschlag).

Man wollte nie wirklich viele Karten absetzen.