PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX Titan Black: (P)Review-Thread


Raff
2014-02-18, 15:03:22
Geforce GTX Titan Black offiziell vorgestellt: Mehr Kepler geht nicht - Test folgt (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Geforce-GTX-Titan-Black-vorgestellt-Test-folgt-1110003/)
Video: Zotac Geforce GTX Titan Black im PCGH-Testlabor - erste Eindrücke (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Zotac-Geforce-GTX-Titan-Black-angetestet-1110239/)

Reviews:
http://uk.hardware.info/reviews/5231/nvidia-geforce-gtx-780-titan-black-4-way-sli-review (4-Way-SLI, 5GHz 6-Core)

*Gähn*

MfG,
Raff

hellibelli
2014-02-18, 15:15:59
Finde es ist eine sehr geile Grafikkarte. Aber wie viele andere bin ich der Meinung, dass man nach der 680 GTX sofort die Black Edition rausbringen hätte können.

Aber ist ja alles Marketing. Wenn man sich immer alles neue kaufen muss, soll man sich nicht wundern, das nach 3-6 Monaten die nächste High-End Karte verfügbar ist.

Jetzt zum Preis... im leben werde ich keine 1000€ für diese Graka ausgeben. Dann lieber 2x 290x und somit fast doppelte Leistung als die Black Edition zum gleichen Preis.

Crossfire oder Sli Nachteile natürlich brücksichtigt.

Da ich sehr gerne Downsampling und SGSSAA anwende ist die Karte schon verführerisch und findet bestimmt auch einige Abnehmer.
Ich träume immer noch davon Skyrim mit Dwonsampling und ENB + Texturemods etc.. flüssig spielen zu können.

Dazu wird eine Black Edition wohl auch nicht reichen... wohl ehr benötigt man dann wohl 2 im Sli-Verbund.

Für Leute die genügend haben, würde ich sagen, zugreifen!!

Unicous
2014-02-18, 15:19:56
Ein PCGH-Redakteur öffnet einen neuen Thread postet die URL zu einer News auf der PCGH-Seite und schließt mit freundlichen Grüßen.

Wenn es nicht so offensichtlich wäre, könnte man glatt davon ausgehen, hier wirbt jemand für seinen eigenen Arbeitgeber.:rolleyes:

In jedem anderen Forum würde es dafür ne Rüge wegen self-promoting geben, hier ist das legitim.

Raff
2014-02-18, 15:25:25
Du darfst das gerne melden. Ich war eben schneller als ein anderer beim Thread-Erstellen.
Finde es ist eine sehr geile Grafikkarte.

Definitiv, aber die Preisgestaltung ist noch fragwürdiger als vor genau einem Jahr, als die Titan Classic erschien. Letztere war immerhin konkurrenzlos, die jetzige Karte ist einfach nur sehr gut. Meckern auf sehr hohem Niveau. :)

MfG,
Raff

AnarchX
2014-02-18, 15:25:38
Im DP-Betrieb wird die Karte wohl auf unter 700MHz gedrosselt - 1,3TFLOPs laut Spec-Folie?

Unicous
2014-02-18, 15:27:37
Du darfst das gerne melden.

MfG,
Raff

Ich will hier keinen denunzieren, aber anprangern kann man es schon. Das ist ja hier nicht das PCGH-Redundanz-Forum.

Blaire
2014-02-18, 15:36:23
Finde es ist eine sehr geile Grafikkarte. Aber wie viele andere bin ich der Meinung, dass man nach der 680 GTX sofort die Black Edition rausbringen hätte können.

Optisch wäre das sicher kein Problem gewesen, auf die inneren Werte bezogen schon. ;)


Definitiv, aber die Preisgestaltung ist noch fragwürdiger als vor genau einem Jahr, als die Titan Classic erschien. Letztere war immerhin konkurrenzlos, die jetzige Karte ist einfach nur sehr gut. Meckern auf sehr hohem Niveau. :)


Es gab nicht Wenige, welche auch hier im Forum immer nach Vollausbau geschrien haben. ;) So gesehn, kommt man der Bitte nun nach. Hinzu kommt, das Titan "Classic" sich sehr gut verkauft hat, ein Nachfolger einfach nur logisch war.

fondness
2014-02-18, 15:38:21
Seltsam das es man die Karte ohne Reviews vorstellt. Da macht der Thread auch nicht viel Sinn. :ugly:
Aber die Karte wird sich nur minimalst vor der 780Ti einordnen wenn dieser nicht gerade der VRAM ausgeht.

dildo4u
2014-02-18, 15:39:45
Seltsam das es man die Karte ohne Reviews vorstellt. Da macht der Thread auch nicht viel Sinn. :ugly:
Aber die Karte wird sich nur minimalst vor der 780Ti einordnen wenn dieser nicht gerade der VRAM ausgeht.
http://uk.hardware.info/reviews/5231/nvidia-geforce-gtx-780-titan-black-4-way-sli-review

fondness
2014-02-18, 15:45:08
Wow ein ganzes Review weltweit :ugly:
Und das ist leider nicht gerade ein hochwertiges. Nicht mal Verbrauchs- oder Lautstärkenmessungen vorhanden.

AnarchX
2014-02-18, 15:52:47
Mindestens zwei gibt es: http://vga.zol.com.cn/433/4339674.html ;)

Exxtreme
2014-02-18, 23:02:20
Und wieder eine aufgemotzte Fermi-like GPU, Technik aus dem Jahre 2009. Hat was von 3dfx damals. Da kamen quasi auch nur Geschwindigkeitsupgrades der Voodoo 1 bis es halt zu spät war. Gerade dieses Verhalten würde ich nicht kopieren. Die 6 GB RAM sind noch das Interessanteste an dem Teil.

Hugo78
2014-02-18, 23:09:31
2009?

Ailuros
2014-02-19, 00:04:49
In jedem anderen Forum würde es dafür ne Rüge wegen self-promoting geben, hier ist das legitim.

Ausser dass es keinen hier stoert, haben wir auch die PCGH Kerle lieb :)

Thunder99
2014-02-19, 01:00:12
Keine Reviews weil keine Karten verteilt wurden ;)

Pressemuster wurden von Nvidia im Vorfeld zur Markteinführung nicht zur Verfügung gestellt. Und auch über Dritthersteller und den Handel konnte ComputerBase sich zum Start kein Exemplar für einen Test sichern. „Die von Nvidia zugeteilte Anzahl an Karten ist derart gering, dass wir von einer Herausgabe von Testmustern vorerst absehen“, erklärte ein Hersteller gegenüber ComputerBase."
Quelle: http://www.computerbase.de/news/2014-02/nvidia-geforce-gtx-titan-black-als-kleine-profi-karte-enthuellt/

StefanV
2014-02-19, 06:27:35
Keine Reviews weil keine Karten verteilt wurden ;)


Quelle: http://www.computerbase.de/news/2014-02/nvidia-geforce-gtx-titan-black-als-kleine-profi-karte-enthuellt/
Verständlich, da man so wohl 'negative Presse' verhindern möchte. Denn das Ergebnis wird überall recht gleich sein:
Vergleichbar mit 780TI, nicht nennenswert schneller, etwas mehr Speicher, dafür ein unverschämpt hoher Preis, für den es richtig Prügel geben wird...

Shakti
2014-02-19, 06:42:58
Immerhin sind wir dem PCGH-Redakteur fuer sein kurzes aber zutreffendes Fazit dankbar: *Gähn*

horn 12
2014-02-19, 06:56:02
Daumen hoch!
NV muss sich mal von IHREM Allzu hohem Roß verabschieden!

Ronny G.
2014-02-19, 07:44:28
traurig das Nvidia wieder auf den Titan Zug aufspringt! Wäre es mal nicht an der Zeit gewesen mal nen anständigen Konkurenten zur 290x auf den Markt zu bringen und nicht wieder so nen 1000€ Klumpen von den sich nur die völlig Kaputten nen Exemplar leisten, während andere sich davon fast nen ganzen Rechner samt 290x zusammen stellen? Lernt Nvidia den überhaupt nix mehr?

hoffentlich bekommen sie schon bald bei entsprechenden Relaises von Mantle Games so richtig den Arsch voll und besinnen sich wieder mehr auf P/L Produkte auf Augenhöhe von ATi ...dann entscheide ich mich vielleicht wieder für ne NV ....nur diesen Markentingzug @1000€ Karten Unterstütze ich nicht.

soLofox
2014-02-19, 08:18:21
der nächste bashing thread, na dann...

Deisi
2014-02-19, 08:35:20
Wäre es mal nicht an der Zeit gewesen mal nen anständigen Konkurenten zur 290x auf den Markt zu bringen

Die 780ti ist doch schon schneller als die 290x :freak:
Die Karte richtet sich eben an Enthusiasten, die es sich leisten können.

Loeschzwerg
2014-02-19, 08:35:51
Einige hier haben immer noch zu sehr den Gaming Bereich im Fokus. Die Titan Black ersetzt primär die normale Titan (die geht EOL) und nicht die 780/780Ti. Fokus ist dabei ganz klar der Workstation Bereich und erst dann Hardcore Enthusiasten, da kann sich NV die Preise erlauben.
Im Vergleich zur ersten Titan sind es dann doch ein paar % Plus.

Im Gaming Bereich steht die 780 und 780 Ti, kein Grund hier etwas zu ändern. 6GB wären zwar schön, fallen aber eigentlich nur bei mGPU Setups ins Gewicht.

Ich finde es zwar persönlich auch unschön, kann die Entscheidung von NV aber nachvollziehen.

Raff
2014-02-19, 09:09:54
Die 780ti ist doch schon schneller als die 290x :freak:

Nicht, wenn man Referenzkarten vergleicht.

In Low-Res hat Nvidia seine Stärke, in High-Res punktet AMD. "High" = mehr als Full HD. ;)

MfG,
Raff

Exxtreme
2014-02-19, 09:13:41
2009?
Da sollte der Fermi erscheinen. Gut, die haben sich verspätet aber trotzdem. :D Ich bleibe dabei, die schleppen eine über 4 Jahre alte Technik durch.

AnarchX
2014-02-19, 09:23:33
Zwischen Fermi und Kepler hat sich schon einiges getan.

Den $999 hätte man vielleicht eine preisliche Angemessenheit bescheinigen können, wenn man die Karte Anfang 2012 vorgestellt hätte (wenn auch wohl nur mit 6Gbps Speicher und vielleicht ohne Fullspeed-DP).



Im Gaming Bereich steht die 780 und 780 Ti, kein Grund hier etwas zu ändern. 6GB wären zwar schön, fallen aber eigentlich nur bei mGPU Setups ins Gewicht.

6GiB wären nicht nur schön, sondern wohl auch relativ günstig zu realisieren. Bei 780 (Ti) wären das wohl keine $100 Mehrkosten in der BOM. Zumal man bei 6Gbps wohl auch schon 4Gbit Chips verwenden könnte.

Sven77
2014-02-19, 09:47:00
Ich bleibe dabei, die schleppen eine über 4 Jahre alte Technik durch.

Ja, das ist eben wie wenn man beim Hürdenlauf langsam macht das der Konkurrent nicht ganz blöd dasteht :D

fondness
2014-02-19, 10:44:13
Die 780ti ist doch schon schneller als die 290x :freak:
Die Karte richtet sich eben an Enthusiasten, die es sich leisten können.

Es geht nicht um die Leistung, es geht um den Preis. NV hat nichts im Preisbereich der 290 oder der 290X. 10% mehr Leistung als eine 290X bei doppelten Preis - no comment. Selbst im Vergleich zur 780Ti. Kein Wunder das es keine Reviews gibt.

Und komm jetzt nicht mit der DP-Leistung, niemand der diese produktiv benötigt kauft sich etwas anderes als eine Tesla. Die volle DP-Leistung ist bestenfalls Marketing damit sich die Titan-Käufer auf die Schultern klopfen können. Aber okay muss eh jeder selbst wissen was er für Prestigeobjekte hinlegt, offensichtlich funktioniert das Konzept ja. Ansonsten hat im übrigen auch eine 290X "volle" DP-Leistung die gar nicht weit hinter der Titan liegt.

dargo
2014-02-19, 10:51:32
Gähn zur Karte und zum Preis mal wieder... :crazy2:. 28nm ist ausgereizt, bitte interessante 20nm Karten releasen und nicht sowas Langweiliges.

AnarchX
2014-02-19, 10:57:00
Gähn zur Karte und zum Preis mal wieder... :crazy2:. 28nm ist ausgereizt, bitte interessante 20nm Karten releasen und nicht sowas Langweiliges.
Eher unter finanziell vernünftigen bzw. der Marge von NV zuträglichen Aspekten.
Mit Maxwell und 28nm HPM (GM107 ist nur 28HP) könnte man der Titan Black wohl durchaus das Fürchten lehren. Aber Kepler ist wohl mehr als aussreichend konkurrenzfähig, sodass man sich auf 20nm Maxwell für H2/Ende 2014 konzentriert.

Loeschzwerg
2014-02-19, 10:59:55
6GiB wären nicht nur schön, sondern wohl auch relativ günstig zu realisieren. Bei 780 (Ti) wären das wohl keine $100 Mehrkosten in der BOM. Zumal man bei 6Gbps wohl auch schon 4Gbit Chips verwenden könnte.

Ja, 4GBit Chips müssten es dann schon sein, alles weitere hat NV ja schön durch das PCB geblockt :frown:

Anscheinend sieht NV aber keinen großen Bedarf an einer 6GB Gamer Karten.

@fondness: Titan ist eher ein Zwischenschritt zu Quadro Karten und richtet sich entsprechend an das Workstation Umfeld. Merkt man auch an der Vorlage von NV eben keine Custom Kühler bringen zu dürfen ;) Ich sehe nachwievor die 780 Ti als Topmodell bei den Gaming Karten (und hier ist der Preis wirklich überzogen)

fondness
2014-02-19, 11:05:26
Mit Maxwell und 28nm HPM (GM107 ist nur 28HP) könnte man der Titan Black wohl durchaus das Fürchten lehren. Aber Kepler ist wohl mehr als aussreichend konkurrenzfähig, sodass man sich auf 20nm Maxwell für H2/Ende 2014 konzentriert.

Nachdem auch GM107 offensichtlich nicht in HPm kommt würde ich mich davon verabschieden, dass der Prozess sinnvoll ist für GPUs.

@fondness: Titan ist eher ein Zwischenschritt zu Quadro Karten und richtet sich entsprechend an das Workstation Umfeld. Merkt man auch an der Vorlage von NV eben keine Custom Kühler bringen zu dürfen ;) Ich sehe nachwievor die 780 Ti als Topmodell bei den Gaming Karten (und hier ist der Preis wirklich überzogen)

Ach bitte das Ding kann nicht mal mit Quardo-Treibern umgehen und ist deshalb bei einschlägiger Software viel zu langsam. Außerdem ist gerade im Workstation-Umfeld Support alles. Das ist nichts als Marketing, jeder Wette das >99% der Käufer die Karte zum Spielen nehmen, deshalb wird sie auch im consumer-Markt verkauft.

Die "volle" DP-Leistung ist dann etwas womit sich die Käufer ihren Kauf rechtfertigen können aber mehr auch nicht. Oder wer der Titan-Käufer hier hat etwas von der DP-Leistung? Ich finde es auch äußerst amüsant wie alle Spielemagazine die "volle" DP-Leistung als Vorteil heraus streichen. Das Marketing funktioniert offenbar. Jede Radeon-Karte hat "volle" DP-Leistung, auch eine 290X erreicht >1TF DP, dort ist das sinnvollerweise nicht mal eine Erwähnung wert.

Raff
2014-02-19, 11:16:02
Die "volle" DP-Leistung ist dann etwas womit sich die Käufer ihren Kauf rechtfertigen können aber mehr auch nicht. Oder wer der Titan-Käufer hier hat etwas von der DP-Leistung? Ich finde es auch äußerst amüsant wie alle Spielemagazine die "volle" DP-Leistung als Vorteil heraus streichen. Das Marketing funktioniert offenbar. Jede Radeon-Karte hat "volle" DP-Leistung, auch eine 290X erreicht >1TF DP, dort ist das sinnvollerweise nicht mal eine Erwähnung wert.

Hawaii berechnet DP aber nur mit 1/8 des SP-Durchsatzes. Das ergibt dann deutlich weniger als ein TFLOPS und damit auch deutlich weniger als mit den beiden Titanen.

MfG,
Raff

fondness
2014-02-19, 11:17:37
Hawaii berechnet DP aber nur mit 1/8 des SP-Durchsatzes. Das ergibt dann deutlich weniger als ein TFLOPS und damit auch deutlich weniger als mit den beiden Titanen.

MfG,
Raff

Hast du dafür eine Quelle? Ich ging von den normalen 1/4 aus. Aber selbst wenn ist das für Spieler vollkommen irrelevant.

Raff
2014-02-19, 11:20:55
Die Aussage stammt von AMD und wird in mehreren Tests erwähnt. Bei Tahiti war's noch 1/4, yep – bei den Fire-Pro-Schlitten ist's AFAIK immer noch 1/4, aber die kosten ein ganzes Eck mehr, wie die Titans eben auch ... ;)

MfG,
Raff

fondness
2014-02-19, 11:21:29
Es gibt noch keine FirePRO Hawaii-Karten. Dann nimm eben die 280X, die hat auch 1TFLOP DP und niemand erwähnt es im Vergleich zu den GTX770-Karten mit miserabler DP-Leistung. Aber darum geht es auch gar nicht, so oder so ändert das nichts an meiner Grundaussage. Es ist für Spieler und den typischen Titan-Käufer völlig irrelevant, wird allerdings von allen Seiten immer wieder gerne als pro-Argument aufgeführt.

Raff
2014-02-19, 11:41:32
Wenn ein Produkt nur zwei Pluspunkte/Alleinstellungsmerkmale hat, dann muss man die eben erwähnen. :ugly:

MfG,
Raff

dargo
2014-02-19, 11:44:08
Wenn ein Produkt nur zwei Pluspunkte/Alleinstellungsmerkmale hat, dann muss man die eben erwähnen. :ugly:

Seit wann ist DP-Leistung für Gamer interessant bzw. ein Pluspunkt?

Sven77
2014-02-19, 11:51:20
Ach bitte das Ding kann nicht mal mit Quardo-Treibern umgehen und ist deshalb bei einschlägiger Software viel zu langsam. Außerdem ist gerade im Workstation-Umfeld Support alles. Das ist nichts als Marketing, jeder Wette das >99% der Käufer die Karte zum Spielen nehmen, deshalb wird sie auch im consumer-Markt verkauft.

Das du dich da mal nicht täuschst, manche Hersteller von DCC-Software haben die Titan explizit empfohlen, wir haben als kleines Studio schon allein 5 für die Texturing-Artists gekauft. Von anderen Firmen weiss ich ähnliches..

Iruwen
2014-02-19, 12:00:23
fondness kann offenbar einfach nicht ertragen dass diese Karten tatsächlich gekauft werden.
Die Leute die das tun wissen schon warum.

MartinRiggs
2014-02-19, 12:11:37
Naja, wers braucht solls kaufen.
Für die meisten ist die Karte einfach Gähn.....

Vor allem 1000€ für ne laute Grafikkarte :hammer:

Loeschzwerg
2014-02-19, 12:16:48
Das du dich da mal nicht täuschst, manche Hersteller von DCC-Software haben die Titan explizit empfohlen, wir haben als kleines Studio schon allein 5 für die Texturing-Artists gekauft. Von anderen Firmen weiss ich ähnliches..

Danke danke danke :)

Ne Quadro mit GK110 kostet halt locker mal ~4500€... je nachdem was man braucht zieht da die Titan ordentlich und tut dem Geldbeutel weit weniger weh. Deswegen ist es auch primär eine Workstation Karte (die man halt auch zum Zocken nehmen kann :rolleyes:).

Mir leuchtet da die Kritik nicht wirklich ein...

fondness
2014-02-19, 12:40:08
Das du dich da mal nicht täuschst, manche Hersteller von DCC-Software haben die Titan explizit empfohlen, wir haben als kleines Studio schon allein 5 für die Texturing-Artists gekauft. Von anderen Firmen weiss ich ähnliches..

Ausnahmen gibt es immer, die Regel ist eine andere IMO.

fondness kann offenbar einfach nicht ertragen dass diese Karten tatsächlich gekauft werden.
Die Leute die das tun wissen schon warum.

Schön das du zu wissen glaubst was ich ertragen kann und was nicht. Ganz davon abgesehen dass diese persönlichen Angriffe hier völlig deplatziert sind.

Sven77
2014-02-19, 12:41:22
Ausnahmen gibt es immer, die Regel ist eine andere.

Eher das Gegenteil war der Fall, die Karte war in vielen Branchen der Renner..

Ronny G.
2014-02-19, 13:53:13
Danke danke danke :)

Ne Quadro mit GK110 kostet halt locker mal ~4500€... je nachdem was man braucht zieht da die Titan ordentlich und tut dem Geldbeutel weit weniger weh. Deswegen ist es auch primär eine Workstation Karte (die man halt auch zum Zocken nehmen kann :rolleyes:).

Mir leuchtet da die Kritik nicht wirklich ein...

Weil es uns als Zocker und Technik interessierte nicht interessiert was eine Quadro angeht, wir wollen anständige Grafik zu anständigen Preisen haben...und ne Graka die als Titan benannt wird richtet sich sehr wohl an uns Zocker, und da bringt es Marketing technisch nix ne "alte" Titan noch mal ein wenig zu pushen und zum gleichen Idiotischen Preis anzubieten, ich will überhaupt an sich nicht wissen wie viele Titans an den Mann gebracht wurden. Das ganze Ding wird nur Minimal Gewinn Orientiert laufen, die Karte hat nur einen Sinn, Marketing Marketing Marketing ....einfach nen Streckenpferd anbieten, von dessen Image als beste Grafikkarte auch ne 780 GTX mit profitiert.

Und wer die Preispolitik von Nvidia gut heißt gehört vergessen ...den der schneitet sich auf lange sicht selber ins Bein weil sich Nvidia denkt das die Idioten selbt noch für 1500€ ne Grafikkarte kaufen, hauptsache es heißt die schnellste Karte der Welt :biggrin:

Sven77
2014-02-19, 13:54:57
...

Was hält die Konkurrenz davon ab nVidia fertig zu machen?

Ronny G.
2014-02-19, 14:12:10
Was hält die Konkurrenz davon ab nVidia fertig zu machen?

es geht hier doch nix um fertig machen ....das will keiner. Den Konkurrenz belebt ja nun mal den Markt, nur macht mir Nvidia den sturen Anschein das sie ihren eigenen Markt haben. Den das sieht man ja an der überzogenen Preispolitik ...während ATi Probleme hat genügend Grafikkarten zu produzieren weil die Nachfrage da ist, knallt Nvidia langsam schon unbelehrbar mit dem nächsten Preiskracher im Negativen Sinne in den Markt....

ich würde schon gerne mal wieder ne NV im System haben, aber zu den Preisen und mit Mantle Support bei ATi wird das wohl nix mehr:frown: Das Thema hat sich wohl auf lange Sicht erledigt.

Sven77
2014-02-19, 14:27:38
Irgendwie versteh ich dein Problem nicht.. du willst lieber nVidia im Rechner haben, aber regst dich über die schlechte P/L auf. Wenn AMD dieselbe Leistung für weniger Geld bringt müsstest du doch glücklich sein.. oder was stört dich?

Iruwen
2014-02-19, 14:28:34
Titan muss ja keiner kaufen, aber auch die ~150€ Aufpreis von der 290X zur 780 Ti wären mir momentan auch zuviel angesichts des knappen Leistungsvorsprungs und weniger VRAM, kein DX11.2, kein Mantle... momentan ist es gar nicht so leicht NV Fan zu sein :D

RoNsOn Xs
2014-02-19, 15:30:37
Irgendwie versteh ich dein Problem nicht.. du willst lieber nVidia im Rechner haben, aber regst dich über die schlechte P/L auf. Wenn AMD dieselbe Leistung für weniger Geld bringt müsstest du doch glücklich sein.. oder was stört dich?
das hab ich mir auch gedacht.
Aber: so wie er schrieb. Konkurrenz belebt das Geschäft, was für den Endverbraucher nur positiv sein kann.

Raff
2014-02-19, 15:47:46
PCGH hat die erste "deutsche" Karte: Zotac Geforce GTX Titan Black im PCGH-Testlabor - erste Eindrücke (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Zotac-Geforce-GTX-Titan-Black-angetestet-1110239/)

MfG,
Raff

LSSJBroly
2014-02-19, 15:57:56
Temp-Target steht ebenfalls bei 82°C (83°C)? Weist du schon, wie laut der Lüfter in etwa sein wird (RPM, Prozent) -> ebenfalls vergleichbar zur 780 Ti?

StefanV
2014-02-19, 16:10:58
fondness kann offenbar einfach nicht ertragen dass diese Karten tatsächlich gekauft werden.
Die Leute die das tun wissen schon warum.
Dann sag uns doch mal ein paar objektive Gründe, diese Karte zu kaufen. Was spricht dafür, was bringt es, warum soll man gerade diese Karte kaufen?!

Also mir fallen da nur 'eingefleischte nVidia Fans' sowie Leute, die unbedingt das teuerste haben wollen ein, die solch ein Teil kaufen würden. Also eher als Statussymbol denn wirklichen Nutzens...

Iruwen
2014-02-19, 16:18:30
Ich würde mir keine kaufen weil für alles was ich damit machen würde viel zu teuer, insofern brauch ich auch keine Gründe dafür.
Aber sind die von die genannten Gründe schlimm? Lass sie doch, tangiert dich ja gar nicht. Warum kaufen Leute andere überteuerte Luxusartikel? Titan hat immerhin ein paar Vorteile, im Gegensatz zu so Blödsinn wie levitiertem Wasser in vergoldeten Flaschen. Für alle anderen gibts die 780 Ti, die ist nur ein bisschen zu teuer.

Godmode
2014-02-19, 16:19:49
PCGH hat die erste "deutsche" Karte: Zotac Geforce GTX Titan Black im PCGH-Testlabor - erste Eindrücke (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Zotac-Geforce-GTX-Titan-Black-angetestet-1110239/)

MfG,
Raff

Gz! :biggrin:

Wenn die Karte als Custom kommen würde, wäre sie ja als Titan Ersatz ganz interessant, aber so wie jetzt, absolut langweilig.

dildo4u
2014-02-19, 16:28:05
Also mir fallen da nur 'eingefleischte nVidia Fans' sowie Leute, die unbedingt das teuerste haben wollen ein, die solch ein Teil kaufen würden. Also eher als Statussymbol denn wirklichen Nutzens...
Was ziemlicher Unsinn ist da es z.b ne "billige" Cuda Karte ist.

Iruwen
2014-02-19, 16:37:36
Svens Firma hat dafür ja offenbar auch Verwendung.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10115874#post10115874

Loeschzwerg
2014-02-19, 17:06:34
Titan muss ja keiner kaufen, aber auch die ~150€ Aufpreis von der 290X zur 780 Ti wären mir momentan auch zuviel angesichts des knappen Leistungsvorsprungs und weniger VRAM, kein DX11.2, kein Mantle...

Jup, die Preisgestaltung bei der 780 Ti ist wirklich fragwürdig, da tut sich irgendwie garnix :(

Die Titan ist da doch völlig egal und die paar hardcore Enthusiasten kümmern sich eh nicht ums Geld. (Gibt ja auch welche die dicke Xeon System als Gamingplattform zweckentfremden)

Und selbst wenn man die Titan wirklich nur Marketing ist, dann interessiert doch der Preis dieser erst recht nicht ^^

dildo4u
2014-02-19, 17:41:49
http://i.imgur.com/RWDCf2h.png

Niall
2014-02-19, 18:33:12
http://i.imgur.com/RWDCf2h.png


Wie erwartet habe ich gut daran getan eine 780 ti unter Wasser zu setzen.
Soll man das Diagramm mit nem Lineal selbst ausmessen oder einigen wir uns auf +/- 3 FPS? :D

fondness
2014-02-19, 18:35:20
Vor allem ist da gegen die alte Titan, die Karte ist nur minimalst schneller als eine 780Ti solange dieser nicht der VRAM ausgeht.

Niall
2014-02-19, 18:41:07
Vor allem ist da gegen die alte Titan, die Karte ist nur minimalst schneller als eine 780Ti solange dieser nicht der VRAM ausgeht.

Yeap.
Hatte aber vorerst eh nicht mit einer merklich schnelleren Karte gerechnet.
Ich bin gespannt wann die Ersten Spiele eintrudeln die OHNE massives SGSSAA, Downsampling und Texturemods meinen VRAM Bedarf sprengen.

Raff
2014-02-19, 20:03:03
Temp-Target steht ebenfalls bei 82°C (83°C)? Weist du schon, wie laut der Lüfter in etwa sein wird (RPM, Prozent) -> ebenfalls vergleichbar zur 780 Ti?

Kann ich noch nicht mit harten Zahlen sagen, subjektiv ist sie aber dort, wo man sie erwartet. Und ja, das Temperature Target ist GK110B-konform.

MfG,
Raff

Ronny G.
2014-02-19, 20:35:42
Irgendwie versteh ich dein Problem nicht.. du willst lieber nVidia im Rechner haben, aber regst dich über die schlechte P/L auf. Wenn AMD dieselbe Leistung für weniger Geld bringt müsstest du doch glücklich sein.. oder was stört dich?

Ja natürlich hätte ich bedingt durch meine Graka Historie gerne ne NV im System, deswegen ist auch mein Avatar hier so wie es ist, mich kann man schon als kleinen NV Fanboy der älteren Stunde bezeichnen, aber der GF 4200Ti 128mb waren fast nur ausschließlich NV Karten in meinem System ....jetzt wo ich von 2009 bis ende 2013 ne kleine Computer Pause in Sachen Investieren in neue Hardware eingelegt habe hat sich halt einiges getan zwischen NV und Ati. War sehr erschrocken wo ich den Markt nach gut 4 Jahren mal wieder gesehen hatte...

Damals habe ich das Topmodell von NV noch für 380€ bekommen ....ne 285GTX. Und heute verlangt man das 3 Fache !!!!??? Also was ist passiert? NV hat die zahlungskräftigen Enthusiasten für sich entdeckt und nutzt nun seinen immer noch guten Ruf knadenlos dafür aus die "beste" Grafikkarten für entsprechende total abgedreht Preise anzubieten!!!

Was macht Ati derzeit, sie sind gerade Pioniere einer vielleicht bald sehr sich durchsetzenden API namens Mantle und haben mir gerade mit der 280X ne tolle Grafikkarte in Sachen P/L geliefert...die jeden Cent wert ist.Und ich habe noch die nötige Objektivität Ati derzeit als den besseren GPU Hersteller zu sehen. Nvidia hätte da mit ner 770er GTX gute 50€ mehr verlangt und mir 1GB weniger Ram beschert, also war es ein Trugschluss auf Ati zu setzen????

Ich finde es halt traurig das NV vielleicht bald an seinem eigenen Stolz ersticken wird...und Hochmütigkeit finde ich auch sehr Unsympathisch, den nix anderes ist der Preis einer Titan!!!

Ich möchte wieder ne Starke und Konkurrenzfähige NV im Preissegment von 300-350€ ....aber Zeiten ändern sich scheinbar einfach. :(

Iruwen
2014-02-20, 09:58:26
mich kann man schon als kleinen NV Fanboy der älteren Stunde bezeichnen ... Damals habe ich das Topmodell von NV noch für 380€ bekommen ....ne 285GTX. Und heute verlangt man das 3 Fache !!!!??? Also was ist passiert? NV hat die zahlungskräftigen Enthusiasten für sich entdeckt und nutzt nun seinen immer noch guten Ruf knadenlos dafür aus die "beste" Grafikkarten für entsprechende total abgedreht Preise anzubieten!!!

Da hast du aber einiges verschlafen. So teure Karten sind absolut nichts neues.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Groschengraeber-Die-vermutlich-teuersten-Grafikkarten-ihrer-Zeit-809976/

ich habe noch die nötige Objektivität Ati derzeit als den besseren GPU Hersteller zu sehen.

Nur weil die Karten günstiger sind ist die GPU "besser"?

Ich finde es halt traurig das NV vielleicht bald an seinem eigenen Stolz ersticken wird...und Hochmütigkeit finde ich auch sehr Unsympathisch, den nix anderes ist der Preis einer Titan!!!

Schonmal was von der 780 Ti gehört? Auch Intel "erstickt" nicht an seinen Traumpreisen für die High-End CPUs. Es gibt von der Titan offensichtlich nur so kleine Stückzahlen, dass praktisch kein Reviewer eine bekommt. Die Exklusivität lässt sich NV halt vergolden. Bzw. für professionelle Kunden scheint es da ja auch Einsatzzwecke zu geben. Wie gesagt: 780 Ti für Gamer.
Offensichtlich sind die Leute bereit diese Preise zu zahlen.

Ich möchte wieder ne Starke und Konkurrenzfähige NV im Preissegment von 300-350€

Ja, zwischen GTX 770 und GTX 780 klafft momentan eine große Lücke. Die GTX 770 liegt dann halt genau auf dem Niveau der 280X etwas unterhalb von 300€.

Ronny G.
2014-02-21, 08:57:18
Da hast du aber einiges verschlafen. So teure Karten sind absolut nichts neues.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Groschengraeber-Die-vermutlich-teuersten-Grafikkarten-ihrer-Zeit-809976/



Nur weil die Karten günstiger sind ist die GPU "besser"?



Schonmal was von der 780 Ti gehört? Auch Intel "erstickt" nicht an seinen Traumpreisen für die High-End CPUs. Es gibt von der Titan offensichtlich nur so kleine Stückzahlen, dass praktisch kein Reviewer eine bekommt. Die Exklusivität lässt sich NV halt vergolden. Bzw. für professionelle Kunden scheint es da ja auch Einsatzzwecke zu geben. Wie gesagt: 780 Ti für Gamer.
Offensichtlich sind die Leute bereit diese Preise zu zahlen.



Ja, zwischen GTX 770 und GTX 780 klafft momentan eine große Lücke. Die GTX 770 liegt dann halt genau auf dem Niveau der 280X etwas unterhalb von 300€.

Zum Punkt 1
Ja das mag sein das es schon seit einigen Jahre überteuerte Karten gibt, aber auch nur deswegen weil so was für Marketing getan wird und wohl doch ein gewisser Markt da ist ...den viele sehen die Sache eben nicht von P/L Sicht aus, sondern von der Prestige her

Zumn Punkt 2
Ja eine Grafikkarte(GPU) für 500€ die 30fps bei 4K Auflösung schafft ist eindeutig besser als eine Grafikkarte für 1000€ die 35fps schafft... weil das Verhältnis vom Preis zur Leistung nicht stimmt ....wiegesagt aus Preisleistungssicht.

Zum Punkt 3
Ja Intel hat auch Sauteure CPU´s am Markt. Doch interessiert das komischer weiße keinen weiter...dort wird nicht ein solcher Hype betrieben.
Den nach wie vor Limitieren gerade bei hoher Grafikqualität eher die Grafikkarten als die CPU´s.
Und im CPU Segment dominiert Intel zu recht, sie haben einfach eindeutig das bessere Produkt....nur nutzen sie ihren Ruf nicht ganz so heftig aus wie es NV macht.

Zum Punkt 4
Die 770GTX ist nicht verkehrt, war auch mein Gedanke, war nur zu dem Zeitpunkt gute 50€ teurer und hatte nur 2GB Speicher und dazu kein Mantle Support ...wichtige Dinge und wieder ein Beispiel für das bessere P/L Verhältnis einer ATI ...nur eben im vergleich zur Titan im kleineren Maßstab

Knuddelbearli
2014-02-21, 09:05:04
Mich persönlich ist die Titan scheiß egal wäre nicht das Verbot der 6GB 780 TI ...

phoenix887
2014-02-21, 10:08:33
Wieder die gleiche Diskussion wie vor 1 Jahr. War das Thema nicht schon durch, bezüglich 1000€ Karte?;)

Sven77
2014-02-21, 10:23:01
Die Titan war ihr Geld absolut wert, sie wird ca. 2 Jahre High-End sein.. das gab es zuletzt bei der GTX8800

Chris Lux
2014-02-21, 10:48:47
Die Titan war ihr Geld absolut wert, sie wird ca. 2 Jahre High-End sein.. das gab es zuletzt bei der GTX8800
Weil die alte Titan ja so lange High-End war... gelle ;) und auch die 8800GTX (so hiess die richtig) war nicht so lange High-End.

Raff
2014-02-21, 11:08:44
Die Titan Classic ist doch immer noch High-End. :confused: Und die 8800 GTX (Release Ende 2006) war bis zum Erscheinen der Radeon HD 48x0 und GTX 280 Mitte 2008 State-of-the-Art, daran änderte weder das zwischenzeitliche Erscheinen der 8800 Ultra noch irgendwelcher Dual-GPU-Stotterkarten etwas.

MfG,
Raff

phoenix887
2014-02-21, 11:10:21
Bitte nicht "alte Titan" sagen, sondern " Titan Classic". Finden ich besser:D

Editiert: Raff war schneller;)

Sven77
2014-02-21, 12:24:10
Weil die alte Titan ja so lange High-End war... gelle ;) und auch die 8800GTX (so hiess die richtig) war nicht so lange High-End.

Lol?

Iruwen
2014-02-21, 12:45:09
Ich glaub die Logik kann er sich nichtmal selbst erklären :rolleyes:

fondness
2014-02-21, 12:51:03
Er meinte ganz offensichtlich die schnellste Karte.

Iruwen
2014-02-21, 13:14:28
Weil nur die schnellste Karte High-End ist, ganz klar :freak:

Doomi
2014-02-25, 12:23:13
zB. mal ein Grund sich ne Titan zuzulegen: Für Leute die enorm Raytracing Renderings auf der Grafikkarte machen ( zB. mit VRay oder IRay ) ist die Titan derzeit wohl einfach ne sehr sehr gute Karte da WESENTLICH schneller als andere Karten da zB. VRay direkt Cuda unterstützt. Außerdem ist die Titan auch erheblich billiger als vergleichbare Quadrokarten mit gleicher Leistung. Der einzige Unterschied ist da noch der Support und der Treiber aber da zB. 3DSMax oder Maya neuerdings nen neuen Renderer namens Nitrous hat brauch man im Viewport auch keine Quadro mit ihren speziellen Treibern mehr. Die Jungs von der Chaos Group empfehlen sogar die Titan noch vor der Quadro..
Treiber: mit dem normalen Geforcetreiber kann man nebenher halt noch zocken. Das geht mit nem Quadrotreiber nicht so fluffig.. ist doch auch nett oder?

Damit möchte ich jetzt nicht unbedingt den obszönen Preis verteidigen doch die Titan hat schon ihre Berechtigung

fondness
2014-02-27, 10:27:44
Geforce GTX Titan Black im Extremtest: Was bringen 6 GiByte VRAM in Crysis 3, Skyrim, Assassin's Creed 4 & Co.?
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/GTX-Titan-Black-Test-6GB-1110998/

Iruwen
2014-02-27, 10:46:02
Skyrim ist ja mal ein schönes Beispiel wie sich 4,7GB VRAM Usage praktisch überhaupt nicht bemerkbar machen.

Raff
2014-02-27, 10:54:48
Skyrim ist ja mal ein schönes Beispiel wie sich 4,7GB VRAM Usage praktisch überhaupt nicht bemerkbar machen.

Man merkt's schon beim Umsehen/Laden, aber es ist weniger heftig als man annehmen könnte. Das Precaching ist eben recht "verschwenderisch".

MfG,
Raff

MartinRiggs
2014-02-27, 11:05:57
Ich werde nie verstehen warum immer alle Skyrim totmodden, das konnte ich selbst mit SGSSAA auf meiner GTX480 vernünftig spielen, mir war es auch ohne 1000 Mods hübsch genug.

derguru
2014-02-27, 11:43:47
irgendwie braucht man ja eine begründung für die 6gb ram.;)

6gb sind auch im sli auch unnütz. dann mikroruckel ich mir einen bei ~30fps ab, eine übertaktete einzelne mit ~ 20fps sollte fluffiger laufen.

Raff
2014-02-27, 12:15:28
Ist eben "neiß to häf" für Extrem-Spielchen. Wenn ich 5.120x3.200 anwerfe, habe ich lieber 15 als 5 Fps zum Screenshotten. :naughty:

MfG,
Raff

Iruwen
2014-02-27, 12:16:45
Reicht auch für X-Plane :D

boxleitnerb
2014-02-27, 17:19:34
Ich verstehe nicht, warum man sich diese Arbeit macht, um mit unspielbaren fps-Raten zu benchen. Für mich ist das pure Zeitverschwendung, und der Informationsgehalt ist auch nahe Null.

Blaire
2014-02-27, 17:28:09
Ich verstehe nicht, warum man sich diese Arbeit macht, um mit unspielbaren fps-Raten zu benchen. Für mich ist das pure Zeitverschwendung, und der Informationsgehalt ist auch nahe Null.

Zumindest hätte mans auf 2-Way SLI erweitern können. Das aktuelle THIEF wäre ein aktuelles Beispiel wo 6GB vs. 3GB deutliche Vorteile im spielbaren Bereich brächten, wenn man es schon auf extremere Settings wie UltraHD etc. anlegt.

Raff
2014-02-27, 18:24:17
Zumindest hätte mans auf 2-Way SLI erweitern können. Das aktuelle THIEF wäre ein aktuelles Beispiel wo 6GB vs. 3GB deutliche Vorteile im spielbaren Bereich brächten, wenn man es schon auf extremere Settings wie UltraHD etc. anlegt.

Thief ist leider eines dieser dummen Spiele, die fertig herumgammeln, aber hierzulande noch nicht ohne "VPN-Cheat" spielbar sind. ;)

Ich verstehe nicht, warum man sich diese Arbeit macht, um mit unspielbaren fps-Raten zu benchen. Für mich ist das pure Zeitverschwendung, und der Informationsgehalt ist auch nahe Null.

Gegen Null? Na komm, das ist Unfug. Wir kennen alle die SLI-Skalierung im Hochlastbetrieb.

MfG,
Raff

boxleitnerb
2014-02-27, 19:20:19
Gegen Null? Na komm, das ist Unfug. Wir kennen alle die SLI-Skalierung im Hochlastbetrieb.

MfG,
Raff

Kein Unfug. 30 fps im SLI sind immer noch Grütze, ab 50 wirds interessant meiner Erfahrung nach. Und das erreichst du mit den meisten deiner Benchmarks, in denen die 6 GB auch was bringen, nichtmal ansatzweise. Sorry, das hättest du dir sparen können.

Pixell
2014-02-27, 19:44:50
Kann ich mit der Minecraft spielen ? :P

Blaire
2014-02-27, 19:50:17
Thief ist leider eines dieser dummen Spiele, die fertig herumgammeln, aber hierzulande noch nicht ohne "VPN-Cheat" spielbar sind. ;)

Stimmt :) Wollte dich nur etwas anstacheln, doch mal drauf zu achten, es auch noch SLI gibt, man nicht zwingend seine Grafikkarten über das Limit hinaus übertakten muss um irgendwelche Problemfälle zu konstruieren. Davon abgesehn sind die Balken relativ nichtssagend, da diese weder etwas über das wahre Spielgefühl aussagen, noch spielbare Settings abbilden, subjektive Eindrücke fänd ich bei diesem Thema viel besser, interessanter, auch sollte man flexibel sein, die Einstellungen nach spielbaren Maßstäben ansetzen und nicht stur nach Muster runterbenchen.

PS: Etwas Kritik muss erlaubt sein :)

Raff
2014-02-27, 20:26:35
Kein Unfug. 30 fps im SLI sind immer noch Grütze, ab 50 wirds interessant meiner Erfahrung nach. Und das erreichst du mit den meisten deiner Benchmarks, in denen die 6 GB auch was bringen, nichtmal ansatzweise. Sorry, das hättest du dir sparen können.

Sparen eben nicht, denn wenn ich etwas behaupte, dann brauche ich dafür Beweise. :) Und das Fazit ist nun mal seit 2012 (Toxic HD 7970): Bevor 3 GiB platzen, ist die GPU am Ende.

Thief sehe ich mir nachher an, wenn Steam endlich mal die Güte hat, die armen Deutschen auch spielen zu lassen. Das Freischaltdatum verschweigt's nun auch. :|

MfG,
Raff

Raff
2014-03-01, 12:11:12
GTX Titan Classic vs. GTX 780 Ti in Thief: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10129433&postcount=16

Mehr als 3 GiB lohnen sich, allerdings erwartungsgemäß erst in "perversen" Einstellungen.

MfG,
Raff

Botcruscher
2014-03-01, 12:18:23
NV hätte mit Gsync mal massiv Bildschirme mit 21:9 etc. pushen sollen. Gleiches gilt für AMD.

Blaire
2014-03-01, 18:13:43
GTX Titan Classic vs. GTX 780 Ti in Thief: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10129433&postcount=16

Mehr als 3 GiB lohnen sich, allerdings erwartungsgemäß erst in "perversen" Einstellungen.

Genau das meinte ich. Mit "nur" 3GB kann man zusätzlich 2x oder 4xSSAA unter Ultra HD knicken, auch wenn das in dem Fall erst ab 2-Way SLI wirklich relevant ist. Das ist das erste Game, wo ich die vorhandene Rohpower aufgrund fehlender Alternativ-Funktionen (Ingame+Treiber) nicht nutzen kann. Zugegeben das sind verrückte Settings, aber schon ärgerlich. :D

Raff
2014-03-01, 18:21:11
Hehehe, das kommt davon, wenn man auf 3-GiB-Karten abrüstet. :ulol: Bin gespannt, was dieses Jahr noch alles kommt. Mein Titan stellt jedenfalls felsenfest auf den Beinen und hat sich damit ein weiteres Lebensjahr im Rechner verdient. Bislang schaffte es nur die BF4-Beta in Abart-Einstellungen, den Grafikspeicher der Karte zu sprengen (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Screenshots-mit-5760x3600-Pixeln-8-GiByte-Grafikkarte-dringend-benoetigt-1091236/).

MfG,
Raff

fondness
2014-03-07, 16:46:00
Die Karte liegt default sogar unter der 780Ti:
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-titan-black-mit-6-gb-im-test/

Jetzt wird auch klar warum es keine Tests zum Launch gab...

In der Praxis zeigt sich, dass die GeForce GTX Titan Black in unserem Testsystem unter Last nur in Ausnahmefällen den typsischen Boost-Takt erreicht – in der Regel verharrt die Karte auf dem Basis-Takt.

Rente
2014-03-07, 16:50:48
Ist ja auch kein Wunder wenn das Temp.-Target bei 80°C liegt (die Ti hat 83) - passt man dieses an, ist die Black auch schneller.

fondness
2014-03-07, 16:55:28
Ich sehe idente Temperaturen bzw. die 780Ti sogar 1°C kühler:
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-titan-black-mit-6-gb-im-test/7/

Sieht eher so aus als verbrauche der zusätzliche Speicher die Leistungsaufnahme sodass der Takt etwas runter muss.

Rente
2014-03-07, 17:26:51
Ich sehe idente Temperaturen bzw. die 780Ti sogar 1°C kühler:
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-titan-black-mit-6-gb-im-test/7/

Sieht eher so aus als verbrauche der zusätzliche Speicher die Leistungsaufnahme sodass der Takt etwas runter muss.
Das hat wohl Computerbase versaut, auf der Seite (http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-titan-black-mit-6-gb-im-test/3/) steht eindeutig 80°C, dann geht sie bestimmt nicht auf 83° hoch.
Entweder liegt das Target also bei 83°C, dann dürfte sie aber nicht weniger boosten oder CB hat, warum auch immer, bei den Temperaturmessungen das Temp.-Target nicht korrekt eingestellt.
Auf jeden Fall scheint ein Testteil nicht korrekt zu sein.

Der zusätzliche Speicher sorgt wohl quasi für keinen Mehrverbrauch, die Lastmessungen sind quasi identisch (bzw. die Black liegt in Crysis3 sogar unter der Ti bei CB).

Der minimale Performancevorteil für die Black aber auch irgendwie egal, der Preis ist dafür einfach viel zu hoch (selbst die Ti ist nun mal eigentlich schon zu teuer) - braucht man unbedingt mehr als 3GB VRam sollte man aus meiner Sicht eher zu einer R290 oder einer gebrauchten Titan greifen...

LSSJBroly
2014-03-07, 17:29:10
Sieht eher so aus als verbrauche der zusätzliche Speicher die Leistungsaufnahme sodass der Takt etwas runter muss.

Das Power-Target ist nicht das Problem - die Karte arbeitet, wenn sie kalt ist, auch mit ihrem max. Boost, taktet dann aber sprungartig herunter ->Temp-Target. (siehe Diagramm unten)
http://www.computerbase.de/artikel/grafikkarten/2014/nvidia-geforce-gtx-titan-black-mit-6-gb-im-test/3/#diagramm-taktraten-gtx-titan-black-max-in-crysis-3

Im Artiel steht, dass das Teil ein Temp-Target von 80°C besitzt (wie die 770, 780 und Titan) - PCGH schrieb allerdings im Heft 83°C und kann in ihren videos den Takt auch etwa beim Boost von 980 MHz halten (gut, offener Aufbau, aber der Basistakt ist dennoch 91 MHz niedriger).

Edit: Rente war schneller. Aber - auch, wenn das Temp-Target z.B. auf 80°C eingestellt ist (standardmäßig ist das Power-Target priorisiert), wird/kann dieses überschritten werden (wenn es zu warm wird) - die Karte taktet dann immer noch mit ihrem Basistakt. Erst, wenn das Power-Target überschritten wird, taktet die Karte auch unter ihrem Basis-takt.

MechWOLLIer
2014-03-07, 17:31:19
Ist ja auch kein Wunder wenn das Temp.-Target bei 80°C liegt (die Ti hat 83) - passt man dieses an, ist die Black auch schneller.

Kleiner Fehler, das Temperature Target der Titan black ist identisch zur GTX 780 Ti.
Und im offenen Gehäuse reagiert die Karte was das angeht ziemlich anders als in einem Gehäuse.

LSSJBroly
2014-03-07, 17:37:00
Und im offenen Gehäuse reagiert die Karte was das angeht ziemlich anders als in einem Gehäuse.

Verhält sich das Teil soviel anders als die 780 Ti?

Rente
2014-03-07, 17:37:48
Kleiner Fehler, das Temperature Target der Titan black ist identisch zur GTX 780 Ti.
Und im offenen Gehäuse reagiert die Karte was das angeht ziemlich anders als in einem Gehäuse.
Ah ok, dann arbeitet die Black (genauer Boost2.0/Lüftersteuerung) wohl etwas anders als die Ti, dann kann sie in der Tat je nach Gehäuse auch mal langsamer sein als die Ti.

@LSSJBroly
Danke für die Aufklärung, ich kann so etwas wegen meiner Wakü nicht mehr wirklich testen... ;)

€: @MechWOLLIer: Bei dem Taktdiagramm auf Seite 3 sind wohl auch die Beschriftungen vertauscht, die Titan Black (max.) hat wohl eher den gezogenen Strich als die drosselnde Standard-Black.

LSSJBroly
2014-03-07, 17:50:14
Ah - ich sehe was das Problem ist, wieso die Karte sofort/recht schnell nach erreichen des Temp-Targets auf den basis-Takt sinkt.

Im Video „Nvidia GeForce GTX Titan Black – Verlauf Standard“ sieht man, dass der Lüfter, wenn die Karte etwa 82/83°C erreicht, weiterhin nicht wirklich aufdreht (bleibt etwa bei 50%). Zumindest bei meiner 780 verhält es sich so (ich hab bei meiner Referenzkarte - Referenzkühler - ebenfalls ein temp-Target von 82 (83)°C eingestellt), dass der Lüfter, sobald die 80°C erreicht werden, etwas stärker aufdreht und bei rund 82°C bei 55% Fanspeed landet. Ist zwar nur ein kleiner Unterschied (gegenüber 50%) - sorgt bei mir aber mal eben, dass das Teil knapp 100 MHz höher Boostet. Die max. Lüfterdrehzahl (nach etwas Zeit) ist dann aber wie bei CB ebenfalls bei rund 57 bis 60%.

Also: Die Titan Black hat eindeutig eine andere Lüfterkennlinie als die 780 (Ti) (welche sanfter als die der 780 (Ti) verläuft).

Raff
2014-03-11, 15:04:15
Evga GTX Titan Black Hydrocopper @ 1,3 GHz (Unigine Heaven) (http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/Evga-GTX-Titan-Black-Hydrocopper-Cebit-1112937/)

Für alle, denen sauschnell und sauteuer nicht genug ist: Hier kommt ultrateuer, ultraschnell und ultrakalt.

MfG,
Raff

Godmode
2014-03-11, 15:30:50
Evga GTX Titan Black Hydrocopper @ 1,3 GHz (Unigine Heaven) (http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/Evga-GTX-Titan-Black-Hydrocopper-Cebit-1112937/)

Für alle, denen sauschnell und sauteuer nicht genug ist: Hier kommt ultrateuer, ultraschnell und ultrakalt.

MfG,
Raff

Das wäre die optimale Kiste für Lans. ^^

Knuddelbearli
2014-03-11, 15:34:05
na dann aber bitte min 2 davon ^^

Raff
2014-03-11, 15:43:04
Also ich hätte dann Angst, dass mir jemand den dekadenten Winzling mopst, wenn ich mal ein paar Minuten nicht vorm Schirm klebe ... :eek:

MfG,
Raff

Screemer
2014-03-11, 15:50:41
was liegt denn da bei 1:39 für ne graka im hintergrund? 2x8pin + 1x6pin.

Raff
2014-03-11, 15:55:36
Die da: Geforce GTX 780 Ti Classified Kingpin Edition (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/EVGA-Geforce-GTX-780-Ti-Classified-Kingpin-Edition-bestellbar-1106988/)

MfG,
Raff

Knuddelbearli
2014-03-11, 16:25:14
Also ich hätte dann Angst, dass mir jemand den dekadenten Winzling mopst, wenn ich mal ein paar Minuten nicht vorm Schirm klebe ... :eek:

MfG,
Raff

GPS Tracker verbauen ^^

HarryHirsch
2014-03-11, 18:32:30
Evga GTX Titan Black Hydrocopper @ 1,3 GHz (Unigine Heaven) (http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/Evga-GTX-Titan-Black-Hydrocopper-Cebit-1112937/)

Für alle, denen sauschnell und sauteuer nicht genug ist: Hier kommt ultrateuer, ultraschnell und ultrakalt.

MfG,
Raff

Da ist max. nen 240er Radi drin. Das ist eindeutig zu wenig um CPU+Graka (Spawas, Ram und GPU) zu kühlen.
Damit ist das Ding, so wie der Typ da sagt, nur Show.

hasebaer
2014-06-11, 07:46:14
ht4u Titan Black Test:
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/

Raff
2014-06-11, 09:04:08
Böse, dort sieht man kaum etwas vom typischen Boost (980 MHz). So viel dazu, dass man sowieso immer höhere Frequenzen erwarten kann – ein Irrglaube, der auch hier ständig verbreitet wird.

MfG,
Raff

PS: Falscher Thread, das sollte eher hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=551017) rein. :)

4Fighting
2014-06-11, 09:19:23
Wird der Boost nicht garantiert als Mindesttakt?

Raff
2014-06-11, 09:50:56
Nein, diese Angabe entspricht einem Querschnitt, der bei "typischen Karten unter typischen Lastszenarien" zu beobachten ist. Garantiert ist nur der Mindesttakt (bei Nvidia).

MfG,
Raff

hasebaer
2014-06-11, 10:14:31
Man könnte sagen, die Titan Black hat bezogen auf die 290X ebenfalls den Quite Mode by default.

PS: Falscher Thread, das sollte eher hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=551017) rein. :)

Ah ok, danke.
Hab mich mal selber rein zitiert. :anonym:

Godmode
2014-06-11, 10:17:40
Das erste was ich bei den Referenzdesigns mache, ist die Lüfterkurve anzupassen. Man verschenkt einfach viel Leistung nur damit es etwas leiser ist.

Raff
2014-06-11, 10:35:54
Das erste was ich bei den Referenzdesigns mache, ist die Lüfterkurve anzupassen. Man verschenkt einfach viel Leistung nur damit es etwas leiser ist.

Das erste, was ich mache, ist ein Kühlerwechsel. ;D Unsere Eingriffe haben hier aber nichts zu suchen, es werden Grafikkarten im Werkszustand verglichen.

MfG,
Raff

LSSJBroly
2014-06-11, 12:30:30
@Raff
Welche Taktraten hat denn eure Titan Black in Praxisanwendungen erreicht? Ich meine im Heft was von 954 MHz im Schnitt gelesen zu haben. Das war dann aber in einem offenen Testsetup, oder?

Raff
2014-06-11, 12:34:09
Ya. Spielabhängig meist unter 980 MHz, manchmal knapp 1.000, im Mittel aber um 950 MHz im offenen Aufbau. Vom PCGH VGA-Tool reden wir mal nicht, das wird künstlich hart ausgebremst (unter 700 MHz).

MfG,
Raff

Godmode
2014-06-11, 12:55:22
Das erste, was ich mache, ist ein Kühlerwechsel. ;D Unsere Eingriffe haben hier aber nichts zu suchen, es werden Grafikkarten im Werkszustand verglichen.

MfG,
Raff

Das würde ich auch machen, wenn die Lautstärke ein Problem wäre. Remote-PC FTW :biggrin:

LSSJBroly
2014-06-11, 13:06:59
Ya. Spielabhängig meist unter 980 MHz, manchmal knapp 1.000, im Mittel aber um 950 MHz im offenen Aufbau.


Erreicht die 780 Ti bei euch denn unter den selben Bedingungen höhere Taktraten?
Ich hatte damals schon (zum CB-test der Titan Black) das "Gefühl", dass die Titan Black eine etwas andere Lüftersteuerung/Kennlinie besitzt als die 780 Ti, also der Lüfter erst später hochdreht als bei der 780 Ti und dadurch schneller auf ihren Basistakt abfällt.

Peter Gräber
2014-06-11, 20:16:54
Vom PCGH VGA-Tool reden wir mal nicht, das wird künstlich hart ausgebremst (unter 700 MHz).

MfG,
Raff

Ich hab euer Tool nicht ausprobiert, aber Furmark wird nicht künstlich ausgebremst. Es bleibt beim Basistakt. Eine dafür mögliche Erklärung wäre allenfalls der Treiber. Aber seit Einführung von GPU Boost sehe ich keine Treiber-Limitierungen mehr - entweder es ist PT oder TT.

HisN
2014-06-11, 20:27:58
Furmark rennt sofort ins Power-Target.

http://abload.de/thumb/furmark_2014_06_11_20y5lbf.jpg (http://abload.de/image.php?img=furmark_2014_06_11_20y5lbf.jpg)

Peter Gräber
2014-06-11, 21:10:15
Exakt. Der hohe Takt zum Start und die damit verbundene hohe Leistungsaufnahme sorgt sofort für sehr hohe Peaks in der Leistungsaufnahme, so dass PT unmittelbar eingreift und den Takt drosselt, noch bevor 83 °C überhaupt erreicht sind. Ich meine, dass Furmark zum Start mit etwas um 915 MHz werkelte, um dann eben auf 889 MHz zu landen. Aber tiefer hinab ging es nicht mehr.

Der Basis-Takt ist alles in allem so ausgelegt, dass die 250 Watt irgendwie zu halten sind.

aufkrawall
2014-06-11, 21:11:29
Sag mal, wieso ist bei TR in 4k die 780 Ti schneller als eine ungedrosselte?
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index35.php

fondness
2014-06-11, 21:29:14
Weil durch den zusätzlichen Speicher die TDP früher limitiert? Ist nicht nur in Tomb Raider so.

Im übrige finde ich es ziemlich unverständlich das man hier die AMD-Karten völlig sinnlos durch den DX11-Pfad in BF4 jagt.

aufkrawall
2014-06-11, 21:30:40
Ich habe doch gar nicht von der Black gesprochen.

Rente
2014-06-11, 21:36:05
Sag mal, wieso ist bei TR in 4k die 780 Ti schneller als eine ungedrosselte?
http://ht4u.net/reviews/2014/nvidia_geforce_gtx_titan_black_6gb_review/index35.php
Vermutlich vertauscht, die Standard-Ti geht ungedrosselt wohl immer bis min. 1004 MHz und liegt somit absolut logisch (ohne das der Speicher voll ist) minimal vor der 980er Black und ein größeres Stück vor der gedrosselten Ti (die je nach Chip relativ schnell ins TT läuft).

Peter Gräber
2014-06-11, 21:43:59
Du hast leider bei den GPU-Boost-Karten keinen großen Einfluss. Du stellst entweder Maximum ein, oder du lässt die Finger davon und dann verhalten sich die Karten so, wie die Technik das gerade will. Und wenn es der gerade mal in den Durchläufen zu warm wurde, könnte genau in den 10 Sekunden des Benchdurchlaufs die Taktrate reduziert worden sein. Es kann genausogut ein Messfehler sein, welcher durch den Treiber bedingt ist. Zu deutsch: bei der Technik mag ich gar nicht groß darüber spekulieren.

aufkrawall
2014-06-11, 21:47:48
Überprüft ihr eure Messergebnisse denn nicht?

Blaire
2014-06-11, 22:19:40
Du hast leider bei den GPU-Boost-Karten keinen großen Einfluss. Du stellst entweder Maximum ein, oder du lässt die Finger davon und dann verhalten sich die Karten so, wie die Technik das gerade will. Und wenn es der gerade mal in den Durchläufen zu warm wurde, könnte genau in den 10 Sekunden des Benchdurchlaufs die Taktrate reduziert worden sein. Es kann genausogut ein Messfehler sein, welcher durch den Treiber bedingt ist. Zu deutsch: bei der Technik mag ich gar nicht groß darüber spekulieren.

Welche GeForce Treiber habt ihr denn zum Test verwendet? Tatsächlich nur den alten 335.23 WHQL wie unter "Testumgebung-Software-Treiber" angegeben?
War mir bereits bei eurem 295X vs. 780Ti@SLI Review aufgefallen, mit R337.xx gab es ja doch ordentliche Performance-Steigerungen.

occ-kh@Mirko
2014-06-11, 23:19:06
Ein ausführlicher Test wie gewohnt. Also ich hab ehrlich gesagt nicht mehr erwartet, was fehlt ist die DPFP Leistung zu messen, was dann widerum den Aufpreis der Titan zur Nutzung im wissentschaftlichen Berechungsumfeldern begründen könnte, oder hab ich da was überlesen? Da kosten dann die "richtigen Tesla" 3x mehr.

Raff
2014-06-17, 10:13:26
Titan Black mit 1.020 MHz Basistakt und Triple-Slot-Kühlung im Test: http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Caseking-Inno-3D-Titan-Black-X3-Ultra-Test-1124846/

So sieht ein vernünftiges Produkt aus, der Referenzkühler ist hier oben einfach am Limit.

MfG,
Raff

StefanV
2014-06-17, 10:23:35
Ist das nicht der gleiche Kühler, den Sapphire auch auf den 290ern einsetzt?

4Fighting
2014-06-17, 10:25:54
warum testet ihr nicht einfach mal eine 780ti mit gleichem takt daneben oder wenigstens auch ein OC modell gegen ein OC modell ?

das so die titan black wegen dem hohen takt allen davon rennt ist klar, aber irgendwie witzlos

Raff
2014-06-17, 10:31:49
Ist das nicht der gleiche Kühler, den Sapphire auch auf den 290ern einsetzt?

Nee, ganz anderes Design – Inno 3D bestückt diverse Geforce-Karten mit dem Kühler.

MfG,
Raff

Sven77
2014-06-17, 10:58:58
Hab den auch auf meiner Titan drauf.. geniales Teil wenn auch riesig..

akuji13
2014-06-17, 11:02:03
Ja der Kühler ist schon sehr ordentlich, immerhin habe ich den 3x verbaut. :D

Allerdings sind die Lüfter nicht so schön wie beim AC, wobei ich da aber nicht weiß wie groß der Unterschied beim Luftdurchsatz ist.

Größtes Problem: der Platzbedarf.

Bei einer Karte kein Problem, bei 2 schon schwieriger und bei 2+PhysX+Soundkarte wirds haarig bis unmöglich, weil die mainboards meist seht starr ausgelegt sind und gewisse Bestückungen hinsichtlich SLI nicht zulassen.

Außerdem kann man mit den Kühlern keine 4-way Brücke verwenden um z. B. den 1 + letzen Steckplatz zu nutzen, die Brücke kollidiert mit dem Kühlkörper.

Sven77
2014-06-17, 11:02:42
Ja der Kühler ist schon sehr ordentlich, immerhin habe ich den 3x verbaut. :D

Wat? Pics pls.. geht aber nur mit Risern, oder? Im Gegensatz zum AC lässt sich der iChill aber besser montieren da man keine Futzelkühlerchen verkleben(!) muss..

M4xw0lf
2014-06-17, 11:12:28
Es war sicher nicht in einem System zusammen gemeint... oder? :uponder:

akuji13
2014-06-17, 11:13:16
Wat? Pics pls.. geht aber nur mit Risern, oder?

2x in einem Rechner, 1x in einem anderen. ;)

Wäre wie erwähnt schon froh wenn ich 2 Stück + die anderen Karten unterkriegen könnte.

Sven77
2014-06-17, 11:13:29
lol, ahso..

Blaire
2014-06-30, 22:24:04
Hehehe, das kommt davon, wenn man auf 3-GiB-Karten abrüstet. :ulol: Bin gespannt, was dieses Jahr noch alles kommt. Mein Titan stellt jedenfalls felsenfest auf den Beinen und hat sich damit ein weiteres Lebensjahr im Rechner verdient. Bislang schaffte es nur die BF4-Beta in Abart-Einstellungen, den Grafikspeicher der Karte zu sprengen (http://www.pcgameshardware.de/Battlefield-4-PC-238749/Tests/Battlefield-4-Beta-Screenshots-mit-5760x3600-Pixeln-8-GiByte-Grafikkarte-dringend-benoetigt-1091236/).


Zumindest in Thief hat sich diesbezüglich seit Release doch einiges getan, mit den 340.43 Beta Treibern + neuen Patches sind auch 3GB VRAM der 780Ti völlig ausreichend für 4K und zusätzlich 2xSSAA. Damals (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10129902&postcount=93) kurz nach Launch war daran nicht zu denken, unspielbar! Nun keine Ruckler mehr, perfekt. Kann man ruhig auch mal erwähnen. :) WatchDogs ist da freilich noch ein anderes Kaliber , da brauchts nichtmal die SSAA Keule um die 3GB zu sprengen, da ist aber sicherlich auch noch einiges an Optimierungen zu erwarten.

robbitop
2014-07-02, 09:26:27
Klingt so, als würdest du dir deine 3 GiB Karten schön reden. :D
Die Anforderungen an den VRAM werden dank Nextgen-Konsolen steigen. Hinzu kommt, dass sich auch langsam 4K etablieren wird.

4Fighting
2014-07-02, 09:27:19
WatchDogs ist da freilich noch ein anderes Kaliber , da brauchts nichtmal die SSAA Keule um die 3GB zu sprengen, da ist aber sicherlich auch noch einiges an Optimierungen zu erwarten.

Wer wird noch weiter optimieren? NV oder Ubisoft?

Blaire
2014-07-02, 21:25:37
Klingt so, als würdest du dir deine 3 GiB Karten schön reden. :D

Ich weiß was mit 6GB VRAM möglich ist und was nicht. ;) Trotzdem bemerkenswert, das zusätzliche Optimierungen höhere Settings erlauben, als noch zu Launch.

Die Anforderungen an den VRAM werden dank Nextgen-Konsolen steigen.[/U] Hinzu kommt, dass sich auch langsam 4K etablieren wird.

Proportional stärker als die GPU-Leistung? Ich glaube nicht. Im SLI kannst du sicher ein paar Fälle konstruieren, wo mehr VRAM einen Nutzen zeigen. Aber das ist ja hier nicht der Maßstab, genauso wenig wie übermäßig starkes OC es ist, wie es einige Leute betreiben.
Bleiben wir mal beim Thema , nehmen wir mal 4K und ein aktuelleres Game wie "Assassins Creed IV: Black Flag" und versuche das mal mit 4K-Res und max. Details auf einer schnellen sGPU-Grafikkarte bei möglichst flüssigen 50-60fps zu spielen. Hier mal ein aktueller Screenshot (http://abload.de/img/ac4_freedom_dlcstk2l.png) auf einer GTX780Ti@1020Mhz, da erreichen wir knapp 18fps@4K und da ist noch nichtmal GPU-PhysX aktiviert. ;) Wieviele Jahre wird es wohl brauchen, bis dies ohne Schmerz spielbar sein wird? Nicht zu vergessen , das dieses Jahr noch ein Nachfolger erscheint, welcher nicht weniger anspruchsvoll sein dürfte. Bevor da der VRAM eine Hauptrolle spielt... und so ist es sehr sehr oft.

Rente
2014-07-02, 23:35:41
Wie viel schafft denn Tri-SLi + PhysX bzw. Quad-SLi in Black Flag an der Stelle?

Blaire
2014-07-03, 01:03:46
Wie viel schafft denn Tri-SLi + PhysX bzw. Quad-SLi in Black Flag an der Stelle?

Mehr als 62fps (http://abload.de/img/ac4_4way_txaay5kn5.png) lässt das Game ja leider nicht zu, aber die erreicht man mit 4-Way und zusätzlich TXAA relativ problemlos, wäre ja auch traurig wenn nicht. :)

robbitop
2014-07-03, 09:23:34
Bleiben wir mal beim Thema , nehmen wir mal 4K und ein aktuelleres Game wie "Assassins Creed IV: Black Flag" und versuche das mal mit 4K-Res und max. Details auf einer schnellen sGPU-Grafikkarte bei möglichst flüssigen 50-60fps zu spielen. Hier mal ein aktueller Screenshot (http://abload.de/img/ac4_freedom_dlcstk2l.png) auf einer GTX780Ti@1020Mhz, da erreichen wir knapp 18fps@4K und da ist noch nichtmal GPU-PhysX aktiviert. ;) Wieviele Jahre wird es wohl brauchen, bis dies ohne Schmerz spielbar sein wird? Nicht zu vergessen , das dieses Jahr noch ein Nachfolger erscheint, welcher nicht weniger anspruchsvoll sein dürfte. Bevor da der VRAM eine Hauptrolle spielt... und so ist es sehr sehr oft.
PhysX ist eh nicht so dolle. Bei den meisten Spielen IMO unspektakulär. Ansonsten kann man sich eine separate PhysX Karte noch dazustecken.

Ansonsten finde ich SLI relevant. Du bist doch auch ein SLI Mensch. ;)
Mit SLI lassen sich unter gewissen Einschränkungen auch moderne Spiele in 4K spielen. Vielleicht muss man das ein oder andere Detail von Ultra auf High schalten aber es geht. Gerade mit G-Sync werden auch geringere FPS deutlich spielbarer. Und spätestens da, sind 6 GiB bei modernen Spielen Pflicht.

Man schaue sich den Trend an, den die ersten Spiele der Nextgenkonsolen mit sich bringen. Wolfenstein und Watch Dogs sind echte Speicherfresser.

Ich habe mir btw. gerade eine Titan SLI gegönnt. :D Ich habe so das Gefühl, dass ich selbst unter 1440p (spätestens mit TXAA, MSAA, Downsampling) von den 6 GiB profitieren werden.

mironicus
2014-07-03, 10:45:35
Bleiben wir mal beim Thema , nehmen wir mal 4K und ein aktuelleres Game wie "Assassins Creed IV: Black Flag" und versuche das mal mit 4K-Res und max. Details auf einer schnellen sGPU-Grafikkarte bei möglichst flüssigen 50-60fps zu spielen. Hier mal ein aktueller Screenshot (http://abload.de/img/ac4_freedom_dlcstk2l.png) auf einer GTX780Ti@1020Mhz, da erreichen wir knapp 18fps@4K und da ist noch nichtmal GPU-PhysX aktiviert. ;) Wieviele Jahre wird es wohl brauchen, bis dies ohne Schmerz spielbar sein wird? Nicht zu vergessen , das dieses Jahr noch ein Nachfolger erscheint, welcher nicht weniger anspruchsvoll sein dürfte. Bevor da der VRAM eine Hauptrolle spielt... und so ist es sehr sehr oft.

4K würde ich die nächsten Jahre einfach ignorieren. Es würde dich deprimieren deine Spiele mit viel geringeren Frameraten als früher zu spielen. Ich würde mein Geld lieber in einen richtig guten Monitor mit Freesynch/G-Sync investieren und dann hast du mehr Spaß mit den Spielen die du jetzt schon hast.

TobiWahnKenobi
2014-07-03, 21:26:37
ja, ich auch - das ist ne nette option für screenshots oder der holzhammer gegen aliasing wenn andere mittelchen versagen. aber nutzen? nö.. 4k ist nicht meine welt. beim bildschirm muss dann auf 72Hz runter und das macht keinen spaß. bei so niedrigen bildwiederholfrequenzen fühlt sich meine maus verarscht.

2688x1512pixel sind ne tolle DS option. das glättet, der shutterschirm schafft noch 120Hz, titan mit etwas OC rockt die spiele noch annehmbar und projektor sowie fernseher können es auch.

bevor 4K für mich hier alltag wird, gibt es sGPU-karten, die spieleübergreifend mindestens 60 syncbare frames abliefern.


(..)

mfg
tobi

Godmode
2014-07-03, 21:31:56
4K würde ich die nächsten Jahre einfach ignorieren. Es würde dich deprimieren deine Spiele mit viel geringeren Frameraten als früher zu spielen. Ich würde mein Geld lieber in einen richtig guten Monitor mit Freesynch/G-Sync investieren und dann hast du mehr Spaß mit den Spielen die du jetzt schon hast.

Ist zwar OT, aber dadurch dass die neuen Konsolen wieder ewig auf dem Markt seien werden, wird auch die Anforderung von den meisten Spielen nur moderat ansteigen. Die überschüssige Leistung kann man dann in höhere Auflösungen, AA, ... stecken.

phoenix887
2014-10-27, 09:20:49
Habe für meine Gigabyte GTX Titan Black GHz Edition ein Mod-Bios gebastelt.

einfach die .zip Endung entfernen und flashen. Aber flashen auf eigene Gefahr, gebe dafür keine Haftung;)

Gigabyte
Version 80.80.4E.00.09
Boost entfernt
Basis-Takt: 1006 Mhz
Spannung frei bis 1.212v
Powertarget bei 100% bei 300W
Fan Idle 20%
Max fan einstellbar bis 100%

Habe Sie mit 1,2ghz@1,15 und 3600mhz und 116% PT konstant laufen so. Keine Probleme. Ist für mich der Sweet Point aus Leistung und Lautstärke.

Habe sie auch mal ne halbe Stunde bei 1,3ghz@1,2V laufen gehabt, aber die Abwärme ist mir zuviel und somit auch die Lautstärke des Lüfters und so hart an den Grenzen will ich sie doch nicht laufen lassen;)

Raff
2014-10-27, 09:25:02
Titan Black @ 1,3 GHz, das ist wahrlich sexy. Glückwunsch zu diesem Schnäppchen (hab's ja mitbekommen). :D

MfG.
Raff

aths
2014-10-27, 09:34:07
Klingt so, als würdest du dir deine 3 GiB Karten schön reden. :D
Die Anforderungen an den VRAM werden dank Nextgen-Konsolen steigen. Hinzu kommt, dass sich auch langsam 4K etablieren wird.
Die Diskussion hierzu passt wahrscheinlich nicht ganz in den Thread, aber ich sehe schon die GPU-Entwickler bei zukünftigen Produkten für "4k" (3,8k) trommeln, um einen Kaufgrund zu geben.

Erst mal will ich mindestens 60 fps. 120-Hz-Monitore (oder 144-Hz-Monitore) sind ebenfalls im Kommen. Da brauchen wir schon mal doppelte Leistung. Dann will ich gutes Antialiasing.

4k (3,8) sollte sinnvollerweise imo weiter hinten stehen. Hinkender Vergleich: Was nützt Auflösung > Bluray, wenn die Grafik trotzem flimmert und man trotzdem eckige Objekte sieht und die Schatten weiterhin unrealistisch aussehen?

phoenix887
2014-10-27, 09:36:39
Titan Black @ 1,3 GHz, das ist wahrlich sexy. Glückwunsch zu diesem Schnäppchen (hab's ja mitbekommen). :D

MfG.
Raff

Danke. Gut zu Wissen, das sie bis 1,3ghz geht. Wenns mal nötig ist kann ich sie so fahren, will sie aber noch etwas schonen:biggrin:

PS: Da meine Karte ein Custom Lüfter hat, kann ich nicht sagen wie sich das BIOS auf oder eine Referenzkarte verhält. Nur als Zusatzinfo.

aths
2014-11-04, 11:03:16
Da sollte der Fermi erscheinen. Gut, die haben sich verspätet aber trotzdem. :D Ich bleibe dabei, die schleppen eine über 4 Jahre alte Technik durch.
Fermi und Kepler sind andere Architekturen, wie man schon an den Clock-Domains sieht.

gnomi
2014-11-04, 12:02:01
Die Diskussion hierzu passt wahrscheinlich nicht ganz in den Thread, aber ich sehe schon die GPU-Entwickler bei zukünftigen Produkten für "4k" (3,8k) trommeln, um einen Kaufgrund zu geben.

Erst mal will ich mindestens 60 fps. 120-Hz-Monitore (oder 144-Hz-Monitore) sind ebenfalls im Kommen. Da brauchen wir schon mal doppelte Leistung. Dann will ich gutes Antialiasing.

4k (3,8) sollte sinnvollerweise imo weiter hinten stehen. Hinkender Vergleich: Was nützt Auflösung > Bluray, wenn die Grafik trotzem flimmert und man trotzdem eckige Objekte sieht und die Schatten weiterhin unrealistisch aussehen?

4k nativ ist etwas viel.
Aber per DSR ist das ganze teilweise schon spannend.
Beispielsweise in Hitman Absolution, wo die MSAA Implementierung einfach sehr teuer ist.
Oder bei Spielen, welche nur Post Processing AA mit womöglich nur schlechter Qualität bieten.
Zudem sollte man nicht vergessen, dass vielen das Flimmern nicht so extrem negativ auffällt oder stört.
Für diejenigen ist dann mehr Auflösung auch besser als beispielsweise TXAA.
Mehr als 60 fps ist nur ein Thema, so lange die Spiele übersichtlich und stark GPU lastig sind. Ansonsten haben wir das Problem, zu wenig CPU Leistung zu haben. Beispielsweise rechne ich für Witcher 3 und Dragon Age Inquisition mit deutlich weniger Frames als für Call of Duty aktuell.
Alles in allem kommt aktuell aber so richtig Bewegung in den PC Bereich.
Gerade hinsichtlich der Monitore rechne ich mit einer stärkeren Verbreitung von WHQD und 4k.
Und mit DX 12 und bezahlbaren 8 Kern CPU's wird es ab Ende nächsten Jahres dann richtig spannend.

mironicus
2014-11-04, 12:20:30
Und mit DX 12 und bezahlbaren 8 Kern CPU's wird es ab Ende nächsten Jahres dann richtig spannend.

DX12 Spiele müssen erst mal programmiert werden, das wird erst ein Thema bei der nächsten Konsolengeneration, bezahlbare 8 Kern-CPUs von Intel wird es auch Ende nächsten Jahres nicht geben, die bleiben schön bei ihren 4 Kernen+HT.

Aber zumindest Mantle gibt es jetzt schon. :smile:

gnomi
2014-11-04, 12:38:39
Mantle ist wie gerade alles von AMD uninteressant. :wink:
DX 12 wird Dank nvidia im PC und MS im Xbox One Bereich kommen.
Ich glaube nicht, dass das jetzt noch ewig dauert.
6 Kerne bekommt man ja schon für 350 Euro, 8 Kerne kosten noch 1000.
4 Kerner würde ich nicht mehr kaufen.
Wenn Intel aber eine 8 Kerne Serie mit mehr als einer CPU anbietet, wird es erschwinglich sein.
500 Euro beispielsweise wären auch OK, denn dann hätte man tatsächlich mal eine starke Steigerung gegenüber 3 Jahre alten CPU's.

mironicus
2014-11-04, 13:13:51
Es gibt keinen Grund für Intel deine Wünsche zu erfüllen.

Und außerdem benötigt man dank DX12/Mantle auch keine starken CPUs mehr. Der CPU-Bereich stagniert seit Jahren im Gegensatz zum GPU-Bereich.

phoenix887
2014-11-04, 21:14:04
Was hat das alles mit der Titan Black zu tun?:confused:

4Fighting
2014-11-05, 07:02:26
Was hat das alles mit der Titan Black zu tun?:confused:

nix:freak:


Nutzt Du eigentlich ein Mod-Bios für deine Karte? Wenn ja, selbst gemacht oder von wo bezogen?:)

phoenix887
2014-11-05, 07:21:29
nix:freak:


Nutzt Du eigentlich ein Mod-Bios für deine Karte? Wenn ja, selbst gemacht oder von wo bezogen?:)

Zurück blättern und Beitrag 154 anschauen;)

4Fighting
2014-11-05, 20:23:03
Zurück blättern und Beitrag 154 anschauen;)

das zip archiv ist kaputt :frown:

kannst es bitte nochmal bei z.b. file-upload.net hochschieben?:)

fondness
2014-11-05, 20:25:04
Mantle ist wie gerade alles von AMD uninteressant. :wink:

Das nennt man dann wohl selektive Wahrnehmung. Wäre dasselbe von NV gekommen wäre es wohl für viele die Revolution schlechthin und der Beweise das NV immer schon blabla...

AMD hat mit Mantle mal eben die gesamte Industrie Richtung LowLevel-API getrieben und liefert Möglichkeiten die anders aktuell schlicht nicht machbar sind. Das ist sicherlich interessanter wie das x-te PhysX-Spiel oder Gameworks-Spiel aber bitte.

phoenix887
2014-11-05, 21:28:50
das zip archiv ist kaputt :frown:

kannst es bitte nochmal bei z.b. file-upload.net hochschieben?:)

Gerne;)

myselfmod.rom.zip (http://www.file-upload.net/download-9800400/myselfmod.rom.zip.html)

phoenix887
2014-11-14, 19:17:03
das zip archiv ist kaputt :frown:

kannst es bitte nochmal bei z.b. file-upload.net hochschieben?:)

und wie findest du das Bios?