PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Quadro K6000: Die "Titan Ultra" ist da


Raff
2013-07-23, 15:02:44
Nvidia Quadro K6000: GK110 mit 2.880 Shader-ALUs und 12 GiB VRAM (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Quadro-K6000-GK110-2880-Shader-ALUs-veroeffentlicht-1079744/)

GK110-Vollausbau @ 900 MHz plus 12 GiB GDDR5 = 5,2 SP-TFLOPS. Krankes Teil.

MfG,
Raff

boxleitnerb
2013-07-23, 15:10:48
Goil! TDP? Bei der TFLOPs-Angabe orientiert sich Nvidia eigentlich am Basistakt (bei Titan wird nur 4,5 TFLOP angegeben, was 836 MHz entspricht) - wenn das hier auch so ist, Respekt!

Edit:
Wo siehst du die 5,2 TFLOPs?

Raff
2013-07-23, 15:12:39
225 Watt.

FLOPS & Co:. http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Nvidia-Quadro-K6000-GK110-2880-Shader-ALUs-veroeffentlicht-1079744/galerie/2086541/ (daraus lässt sich der Takt ableiten)

MfG,
Raff

LSSJBroly
2013-07-23, 15:20:39
Böses Teil - da wirkt ja wieder ne 780 oder ne Titan langweilig gegen xD

boxleitnerb
2013-07-23, 15:21:57
Wie die das auf 225W hinkriegen, weiß wohl nur der Weihnachtsmann.

Raff
2013-07-23, 15:23:35
Ist eigentlich ganz einfach. Wer seine Titan schon mal unterspannt und gemessen hat, weiß, dass man mit so einem Ding sehr einfach unter 200 Watt kommt. :) Nvidia nutzt hier wohl nur die crème de la crème der GK110-Wafer. Warum auch nicht, das Ding wird gewiss ein paar Tausender kosten.

MfG,
Raff

Ailuros
2013-07-23, 15:28:45
Zwar keine Ahnung aber mit 12GB Speicher wuerde mich selbst ein $3999 MSRP nicht wundern oder ist es zu konservativ eingeschaetzt? :biggrin:

boxleitnerb
2013-07-23, 15:28:50
Ist das immer noch A1, was schätzt du?

Ailuros
2013-07-23, 15:31:02
Ist das immer noch A1, was schätzt du?

k.A. falls Du mich fragen solltest, aber es waere auch nicht absurd als Gedanke.

Skysnake
2013-07-23, 15:57:31
Zwar keine Ahnung aber mit 12GB Speicher wuerde mich selbst ein $3999 MSRP nicht wundern oder ist es zu konservativ eingeschaetzt? :biggrin:
Das ist SEHR konservativ gedacht. Selbst die K500 kostet schon ~2k€, und gerade bei den Quadros ist das Topmodell nochmals richtig! viel teurer...

Ich würde eher mit einem Preis um die 6-12k€ rechnen. Ich weiß ne große Spanne, aber das Ding ist halt auch komplett außerhalb des Rahmens. Quadros sind ja auch immer viel teurer als die Teslas, und ne K20x kostet, zumindest die, die ich gefunden habe, ~7k€. Und die hat weniger Shader UND! nur 6GB RAM...

Ok, wenn ich es mir recht überlege, sollte man dann wohl eher von >10k€ ausgehen. Die Teslas werden ja als Optimus(?) in Verbindung mit ner Quadro als "billig"-Lösung vermarktet....

Infos/Geflüster zur K6000 gabs schon auf der CeBIT, aber nachdem so lange nichts kam bin ich eigentlich davon ausgegangen, das Sie das Ding beerdigt haben.

Was aber noch wirklich interessant ist, ist das die Karte auch! PCI-E 3.0! unterstützt. Das ist die erste Profikarte von nVidia die das unterstützt!

Eventuell kommt ja auch noch ne neue Tesla mit PCI-E 3.0 raus. Schön wäre es auf jeden Fall.

OC_Burner
2013-07-23, 16:09:59
Saber, Potential für eine 1,5k~2k€ teure Consumerkarte.;D

Coda
2013-07-23, 16:17:55
Wie die das auf 225W hinkriegen, weiß wohl nur der Weihnachtsmann.
Ist doch nur ein SMX mehr, warum sollte das so ein Problem sein?

boxleitnerb
2013-07-23, 16:31:19
Ist doch nur ein SMX mehr, warum sollte das so ein Problem sein?

Naja der Takt ist auch ein Stück höher und die TDP ist geringer als bei der Titan und 780. Allerdings braucht die Titan auch bloß gut 200W bei ca. 850 MHz (deutsche Reviews, wo der Turbo nicht voll greift). Da ist es nicht mehr weit bis 225W bei 900 MHz eigentlich.

Aber zur Anzahl der SMX zurück:
Du meinst also, das zusätzliche SMX hat keinen nennenswerten Einfluss auf den Verbrauch? Ich weiß jetzt nicht, wieviel mehr Transistoren bei 15 SMX vs 14 SMX aktiv sind (es gibt ja noch das "Drumherum", das nicht deaktiviert ist bei Titan), aber sagen wir mal 4-5%. Das wären ca. 10W, zusammen mit dem Taktplus nicht völlig zu vernachlässigen.

Raff
2013-07-23, 16:35:20
Die 10 Watt kriegst du unter Volllast wohl schon mit einer Spannungsstufe weniger weg.

MfG,
Raff

Spasstiger
2013-07-23, 16:35:46
Das gabs ja schon lange nicht mehr, dass das Quadro-Topmodell mehr SP-Rechenleistung hat als das Desktop-Topmodell. Die 900 MHz sind wahrscheinlich der Boost-Takt. Am Desktop dann vielleicht mit 1000 MHz Boost, 7-Gbps-Speicher und 300 Watt TDP. :cool:

LSSJBroly
2013-07-23, 16:37:32
Die 10 Watt kriegst du unter Volllast wohl schon mit einer Spannungsstufe weniger weg.



Jup, mit 0,95V sicherlich machbar

boxleitnerb
2013-07-23, 16:38:56
Das gabs ja schon lange nicht mehr, dass das Quadro-Topmodell mehr SP-Rechenleistung hat als das Desktop-Topmodell. Die 900 MHz sind wahrscheinlich der Boost-Takt. Am Desktop dann vielleicht mit 1000 MHz Boost, 7-Gbps-Speicher und 300 Watt TDP. :cool:

Nvidia gibt eigentlich die Rechenleistung bei Basistakt an. Im Übrigen glaube nicht nicht, dass die Quadros überhaupt einen Boost haben.

Die 10 Watt kriegst du unter Volllast wohl schon mit einer Spannungsstufe weniger weg.

MfG,
Raff

Wie gesagt, der Takt kommt noch dazu. Eine meiner Titans hat bei 941 MHz 1.1V. Kannst ja mal bei deiner schauen was der Boost bei ca. 950 MHz für Spannung draufgibt.

dildo4u
2013-07-23, 16:42:13
Dann wird 22nm erstmal langweilig was die Spitze angeht,vermutlich dauert es wieder Jahre bis solche großen GPU's in 22nm gebaut werden.Es rechnet sich wohl nicht so lange die Fertigung nicht total ausgereift ist.

Raff
2013-07-23, 16:44:46
Wie gesagt, der Takt kommt noch dazu. Eine meiner Titans hat bei 941 MHz 1.1V. Kannst ja mal bei deiner schauen was der Boost bei ca. 950 MHz für Spannung draufgibt.

Kann ich wegen des Mod-BIOS nicht testen. :biggrin:

Wenn Nvidia aber besonders hochwertige ASICs selektiert (das müssen sie wegen der vollen SMX sowieso), dann können sie aber auch etwas Spannung einsparen. :)

MfG,
Raff

boxleitnerb
2013-07-23, 16:47:23
Ich hab ja auch ein Mod-Bios drauf, das schaltet aber nur die Grenzen frei. Undervoltet wird da nix. Ist das bei dir anders?

Raff
2013-07-23, 16:49:00
Ja, ich habe das SC-BIOS von svl7 drauf. Das tötet den Boost und gibt bei 928 MHz automatisch 1,137 Volt. Unter diese Spannung komme ich ohne nSpector-Batches nicht, was bisschen suckt, da es für den Takt viel zu viel ist (damit kann ich jedoch ~1.045 MHz nutzen; mit 1,15 Volt schon 1.110 MHz).

MfG,
Raff

Iruwen
2013-07-23, 16:51:11
Warum will man denn weniger Spannung/Takt?

Raff
2013-07-23, 16:52:49
Effizienz. Eine Titan ist in den meisten Fällen mit 1 GHz schon brutal schnell. Wenn man dafür auf ... sagen wir mal 1 Volt herunter kann, warum sollte man die 50 gesparten Wättchen nicht mitnehmen?

MfG,
Raff

Woklbokl
2013-07-23, 16:54:20
Ja, ich habe das SC-BIOS von svl7 drauf. Das tötet den Boost und gibt bei 928 MHz automatisch 1,137 Volt. Unter diese Spannung komme ich ohne nSpector-Batches nicht, was bisschen suckt, da es für den Takt viel zu viel ist (damit kann ich jedoch ~1.045 MHz nutzen; mit 1,15 Volt schon 1.110 MHz).

MfG,
Raff

Hast du mal das "alte" UV Bios von ihm probiert? Da kann man ja 1.037 Volt anlegen. Das neue scheint ja bei vielen Usern nicht funktioniert zu haben.
Falls du es nicht mehr hast kann ich ich es dir auch nochmal zukommen lassen.

boxleitnerb
2013-07-23, 17:05:01
Meint ihr, die K6000 taktet wie Titan auch runter bei DP-Workloads? Ist DP nicht beschnitten? Dafür gibts doch Tesla und Maximus, eben das Doppelpack.

Woklbokl
2013-07-23, 17:10:52
Gut möglich. Die Quadro sollte ja trotz Vollausbau ein ganzes Stück weniger kosten als die Tesla K20X.

boxleitnerb
2013-07-23, 17:12:32
Die K20X kostet einzeln 4450 Euro, wenn man geizhals glauben kann. Die K6000 wird sicher nicht (viel) billiger.
Hm, bei Amazon USA kostet die K20X "nur" $3800 :freak:

Woklbokl
2013-07-23, 17:16:41
Waren das nicht anfangs um die 8000€/$?

Hugo78
2013-07-23, 17:29:11
2.880 Shader, 12GiB, 5,2 TFLOPs in 225W ?! Wooow :love2:

boxleitnerb
2013-07-23, 17:35:01
Waren das nicht anfangs um die 8000€/$?

Ja schon. Sonderangebot?

Woklbokl
2013-07-23, 17:37:01
Ausmisten der 14SMX Chips? Hmm.. könnte vieles bedeuten :freak:

dildo4u
2013-07-23, 17:40:34
Die Desktop Version kommt doch vermutlich nur mit 6GB,da düftem sie keine Probleme haben 1Ghz Boost zu erreichen beim 250TDP.

boxleitnerb
2013-07-23, 17:43:13
Die Desktop Version kommt doch vermutlich nur mit 6GB,da düftem sie keine Probleme haben 1Ghz Boost zu erreichen beim 250TDP.

Speichermenge beeinflusst den Verbrauch nicht. Dazu gabs von Skysnake eine sehr anschauliche Erklärung vor einer Weile.

Coda
2013-07-23, 18:31:02
Die Desktop Version kommt doch vermutlich nur mit 6GB,da düftem sie keine Probleme haben 1Ghz Boost zu erreichen beim 250TDP.
Ich denke dass da exakt gar nichts kommt.

Ailuros
2013-07-23, 18:42:30
Speichermenge beeinflusst den Verbrauch nicht. Dazu gabs von Skysnake eine sehr anschauliche Erklärung vor einer Weile.

Wenn eine 12GB SKU doppelt so viel Speicherchips hat als eine 6GB SKU dann wohl schon.

Nebenbei schaetzt Anand fuer das Ding zwischen $5 und 7k.

Ja schon. Sonderangebot?

Wer auf NV besteht und eine GPU mit 2x display ports haben will hat keinen anderen Ausweg. Was sind schon ein paar tausend Kroeten? :D

boxleitnerb
2013-07-23, 18:45:27
Wenn eine 12GB SKU doppelt so viel Speicherchips hat als eine 6GB SKU dann wohl schon.

Nebenbei schaetzt Anand fuer das Ding zwischen $5 und 7k.

Wieso? Der Refresh des Speicherinhalts fällt kaum ins Gewicht, so jedenfalls die Erklärung damals. Der Hauptverbrauch entsteht dann, wenn Daten gelesen oder geschrieben werden (und über den Bus wandern müssen). Und da der Bus immer noch 384-Bit breit ist, ändert das nichts.

Die Analogie mit den LKWs/Containern war schön verständlich. Du kannst mehr Container (=Speicherchips) haben, die Autobahn hat aber weiterhin nur 384 Spuren, d.h. bei schnellstmöglichen Datentransfer von GPU zu VRAM bzw. umgekehrt fahren immer noch nur x LKWs und verbrauchen y Sprit (Strom) - auch genau wie vorher.

Hübie
2013-07-23, 20:00:31
Wusst ichs doch. Meinen Infos nach sammelt nVidia schon seit August 2012 voll aktivierte Chips. Ich wette Titan wird noch getoppt. ;)

LSSJBroly
2013-07-23, 20:20:26
Wusst ichs doch. Meinen Infos nach sammelt nVidia schon seit August 2012 voll aktivierte Chips. Ich wette Titan wird noch getoppt. ;)

Eigentlich war das doch immer nur eine Frage der zeit - bisher hat Nvidia früher oder später immer vollaktivierte Cips geliefert :)

Skysnake
2013-07-23, 20:27:45
Gut möglich. Die Quadro sollte ja trotz Vollausbau ein ganzes Stück weniger kosten als die Tesla K20X.
Seit wann sind Quadros billiger als Teslas? :ugly:

Das würde ja MAximus adabsurdum führen, bei dem man "billige" Teslas mit den teuren Quadros mischen kann

Wieso? Der Refresh des Speicherinhalts fällt kaum ins Gewicht, so jedenfalls die Erklärung damals. Der Hauptverbrauch entsteht dann, wenn Daten gelesen oder geschrieben werden (und über den Bus wandern müssen). Und da der Bus immer noch 384-Bit breit ist, ändert das nichts.

Die Analogie mit den LKWs/Containern war schön verständlich. Du kannst mehr Container (=Speicherchips) haben, die Autobahn hat aber weiterhin nur 384 Spuren, d.h. bei schnellstmöglichen Datentransfer von GPU zu VRAM bzw. umgekehrt fahren immer noch nur x LKWs und verbrauchen y Sprit (Strom) - auch genau wie vorher.
Wenig heist aber nicht nichts ;)

6GB RAM werden ein paar Watt auch im ideal ziehen. Sicherlich was im Bereich 5-15W.

Irgendwo hatte ich mal Zahlen, wieviel man ca für 1GB RAM braucht. Glaub war 1W/GB oder so.

boxleitnerb
2013-07-23, 20:45:42
Das hatte sich damals aber anders angehört.

Coda
2013-07-23, 21:02:48
Seit wann sind Quadros billiger als Teslas? :ugly:
Teslas haben ECC, Quadros nicht iirc.

Knuddelbearli
2013-07-23, 21:05:53
Link? also ich erinnere mich auch nur daran das er gesagt hat das der unterschied nicht so groß ist

Skysnake
2013-07-23, 21:27:52
Teslas haben ECC, Quadros nicht iirc.

wie kommst du drauf, dass die Quadros kein ECC haben?

Hübie
2013-07-24, 20:07:31
Das hängt ja eher mit anderen Dingen zusammen. Wenn du ne Tesla kaufst, dann kaufst du auch ne Menge Support (also auch softwareseitig). Daher die preislichen Differenzen. PhysX, CUDA & Co kosten ne Menge Asche in der Entwicklung... Und ausserdem muss man ja Spaziergänge im mobile-Segment finanzieren ;D

Godmode
2013-07-24, 21:34:27
So ein Kärtchen wäre durchaus reizvoll, vor allem da ich GM110 erst für 2015 erwarte.

Raff
2013-07-24, 21:37:21
Ausgehend von einer Titan ist die Karte eigentlich ziemlicher Unsinn. Ausgehend von einer GTX 780 gibt's Vorteile, aber auch da ist's IMO grenzwertig. Klar, die K6000 ist "das volle Paket", aber wie gesagt.

MfG,
Raff

Godmode
2013-07-24, 21:38:44
Ausgehend von einer Titan sie die Karte eigentlich ziemlicher Unsinn. Ausgehend von einer GTX 780 gibt's Vorteile, aber auch da ist's IMO grenzwertig. Klar, die K6000 ist "das volle Paket", aber wie gesagt.

MfG,
Raff

Naja es kann gut sein das diese Dinger dann noch ein ein Stück besser zu takten gehen als normale Titans. Und Unsinn bist seid ihr von mir eh schon gewohnt. ;D

starfish
2013-07-24, 21:44:24
Laut meinem Chef haben wir eine in der Firma.
Wahrscheinlich in der Entwicklung.

Ich versuch mal ob ich sie bekomme und gegen meine Titans benchen kann.
Die 12 GB Ram sind so gold wert.

Sven77
2013-07-24, 21:47:46
Langsam wird GPU Rendering interessant ;D

starfish
2013-07-24, 22:04:30
Teslas haben ECC, Quadros nicht iirc.

Doch, ich glaube meine alte Quadro 6000 hatte ECC.

Der sogenannte Tesla Modus ist erwas schneller als der normale Quadro in Cuda.
Du kannst jede Quadro, außer jene, welche am Monitor hängt in den Tesla Modus schalten.
Nicht über den Treiber, aber über mitgelieferte Comandozeilenprogramme.

Dimon
2013-07-24, 22:47:15
Laut meinem Chef haben wir eine in der Firma.
Wahrscheinlich in der Entwicklung.

Ich versuch mal ob ich sie bekomme und gegen meine Titans benchen kann.
Die 12 GB Ram sind so gold wert.

Wird wohl langsamer sein, da andere Treiber...


mfg
Dimon

schreiber
2013-07-24, 22:52:50
Wird wohl langsamer sein, da andere Treiber...


mfg
Dimon
Es ist der gleiche Treiber und die Geschwindigkeit wird entsprechend der Hardware sein.

starfish
2013-07-24, 22:53:29
Wird wohl langsamer sein, da andere Treiber...


mfg
Dimon

Meinst du unter Cuda wirklich?

Unter OpenGL ist sie def. schneller.
Sogar meine alte Quadro 6000 war teils auf dem Niveau der Titan unter OpenGL.
Und die Titan zersägt die 6000er unter Cuda quasi.

Pi mal Daumen ist die Titan etwa doppelt so schnell wie eine 6000er unter Cuda.
Unter OpenGL gibt es Situationen in denen die 6000er die Titan einholt, teils, wenn auch sehr selten, überholt.

Dimon
2013-07-24, 23:38:30
Sind das keine Speziellen treiber für Professionelle Kärtchen?

Mfg
Dimon

starfish
2013-07-25, 00:49:47
Sind das keine Speziellen treiber für Professionelle Kärtchen?

Mfg
Dimon

Jein.
Die Treiber sind exakt die Selben.
Nur sind sie speziell für die Anwendungen getestet.

Die Unterschiede werden nur künstlich herbeigeführt.
Die Quadros sind, bei gleicher Hardware Power nur im Wireframe und unter OpenGL deutlich schneller.
Der Treiber ist dabei der selbe, die Limitierungen werden über die Hardwareerkennung aktiv.

Es gibt aber auch ein paar Hardware Unterschiede.
ECC und die teils höherwertigen Monitorausgänge können dies sein.
Ausserdem kann keine Geforce außer der Titan Double Precision ohne dabei enorm beschnitten zu sein.

Pentium M
2013-07-25, 01:30:19
Find ich lustig von Nvidia wissen wir was kommt .Bleibt das Grosse Fragezeichen von AMD na Klar seit 2 Jahren werden die Däumchen drehen.

VooDoo7mx
2013-07-25, 04:09:24
15 SMX, 1GHz Basistakt mit 6GiB 7gbps GDDR5 und 2x8pin für 300W.

Das wäre mal eine Karte die wirklich den Namen Titan verdient und 900€ wert wäre...

Hübie
2013-07-25, 07:11:39
Wäre AMD nicht so "schwach" wäre es vielleicht auch alles anders gekommen. Bei nVidia knallten die Sektkorken nach dem Tahiti-Launch und man musste nur ein Turbo-Modul an den GK104-topdog "ranschrauben" um AMD in Schach zu halten. So konnte man bequem die fetten GK110-deals schnell abkassierenwickeln. 2012 waren die yields diesbezüglich ja noch bescheiden. Wobei die momentan auch alles andere als traumhaft sind.

boxleitnerb
2013-07-25, 08:14:54
Immer noch? Der Prozess ist jetzt ja fast 2 Jahre alt.

fondness
2013-07-25, 09:20:33
Wäre AMD nicht so "schwach" wäre es vielleicht auch alles anders gekommen. Bei nVidia knallten die Sektkorken nach dem Tahiti-Launch und man musste nur ein Turbo-Modul an den GK104-topdog "ranschrauben" um AMD in Schach zu halten. So konnte man bequem die fetten GK110-deals schnell abkassierenwickeln. 2012 waren die yields diesbezüglich ja noch bescheiden. Wobei die momentan auch alles andere als traumhaft sind.

Zum ersten mal kann AMDs Performance-Chip nicht gegen NVs >500mm² Monster antreten. Schwach ist da definitiv das falsche Wort, aber wenn man ganz vorne mitspielen will, wird man auch größere Dies fertigen müssen. AMD kann schließlich nicht davon ausgehen auf ewig die effizientere Architektur zu haben.

Chris Lux
2013-07-25, 09:36:02
Unter OpenGL ist sie def. schneller.
Sogar meine alte Quadro 6000 war teils auf dem Niveau der Titan unter OpenGL.
Und die Titan zersägt die 6000er unter Cuda quasi.

Pi mal Daumen ist die Titan etwa doppelt so schnell wie eine 6000er unter Cuda.
Unter OpenGL gibt es Situationen in denen die 6000er die Titan einholt, teils, wenn auch sehr selten, überholt.
*hust* bullshit! *raeusper*

boxleitnerb
2013-07-25, 09:39:21
Es gibt Flächeneffizienz und Energieeffizienz. Bei letzterer war AMD eigentlich nur mit HD5000 vorne, ansonsten war es eher ausgeglichen. Man darf auch nicht den Fehler machen, die Architektur nur im Spielesektor zu sehen. Nvidia hat damals genau wie AMD heute viel Kram in ihre GPU gesteckt, die für Spiele nichts bringen, im Profisegment aber sehr wohl. Deshalb sind die großen GPUs größer als sie sein müssten gemessen an der Spieleleistung.

fondness
2013-07-25, 09:51:36
Es gibt Flächeneffizienz und Energieeffizienz. Bei letzterer war AMD eigentlich nur mit HD5000 vorne, ansonsten war es eher ausgeglichen.


Das stimmt nicht. Außer du vergleichst einen herunter getakteten High-End-Chip mit einem aufs Maximum hochgeprügelten Performace-Chip. In allen anderen Segmenten hatte AMD lange Zeit auch die bessere Energieeffizienz.

boxleitnerb
2013-07-25, 10:03:10
Ich vergleiche die Produkte so wie sie auf dem Markt sind. 2900, 3870, 4870, 4890 und 6970 waren nicht energieeffizienter als ihre Pendants.

fondness
2013-07-25, 10:06:25
Ich vergleiche die Produkte so wie sie auf dem Markt sind. 2900, 3870, 4870, 4890 und 6970 waren nicht effizienter als ihre Pendants.

Wie schon gesagt in allen anderen Segmenten wo man Apples mit Apples vergleichen konnte war es anders.
Man kann natürlich auch beide Augen ganz fest zudrücken und immer nur genau ein Produkt vergleicht das einem gerade genehm ist.

starfish
2013-07-25, 10:11:27
*hust* bullshit! *raeusper*

Hast du gelesen, dass ich Quadro 6000 und nicht Quadro K6000 geschrieben habe?

Ansonsten wäre es noch extrem hilfreich, wenn du mir sagst, wo ich deiner Meinung nach falsch liege.
Sonst wirds schwierig mit dem Diskutieren.

Außer dir liegt nichts an einer Diskussion.

boxleitnerb
2013-07-25, 10:15:33
Geht es in diesem Thread um Highend oder um Lowcost? Hm...

Zergra
2013-07-25, 10:52:59
Geht es in diesem Thread um Highend oder um Lowcost? Hm...
Sollten wir aus Highend nicht lieber Absurd machen ? :D

Thunder99
2013-07-26, 10:32:29
Könnte mir vorstellen, dass die GTX780 auf 500€ fällt, die Titan auf 700€ und die neue auf ca.1000€ dann verkauft wird.

So hat man schön alles von 500-1000€ abgedeckt und sich eine neue Marge geschaffen

Chris Lux
2013-07-26, 14:17:37
Hast du gelesen, dass ich Quadro 6000 und nicht Quadro K6000 geschrieben habe?

ja, habe ich... und ja: bullshit!


Ansonsten wäre es noch extrem hilfreich, wenn du mir sagst, wo ich deiner Meinung nach falsch liege.
Sonst wirds schwierig mit dem Diskutieren.

Außer dir liegt nichts an einer Diskussion.
weil es sinnnlos ist zwischen sowas wie D3D und OpenGL-Performance zu unterscheiden. dazu ist der Fermi in der Quadro 6000 dem Kepler (gerade) in der Titan vollkommen unterlegen. da kannst du versuchen zu diskutieren was du willst.

Knuddelbearli
2013-07-26, 17:27:23
Könnte mir vorstellen, dass die GTX780 auf 500€ fällt, die Titan auf 700€ und die neue auf ca.1000€ dann verkauft wird.

So hat man schön alles von 500-1000€ abgedeckt und sich eine neue Marge geschaffen

und wieso nicht einfach die Ultra oben drauf für 1400€?

starfish
2013-07-26, 20:34:15
ja, habe ich... und ja: bullshit!


weil es sinnnlos ist zwischen sowas wie D3D und OpenGL-Performance zu unterscheiden. dazu ist der Fermi in der Quadro 6000 dem Kepler (gerade) in der Titan vollkommen unterlegen. da kannst du versuchen zu diskutieren was du willst.

Was genau redest du?

Wir sind eine sehr große Visualisierungsfirma und benutzen lauter Titan Karten fūr unsere GPU Renderings.
Wir haben die ganzen Quadro 6000 Karten durch 2-4 Titans pro Rechner ersetzt.
Das absolut relevante hier sind die 6GB Speicher auf der Karte.
Bzw. jetzt dann göttliche 12.

Solltest du auf was anderes als den professionellen Einsatz von Titan Karten anspielen, musst du mir das bitte nochmal erklären.

Von Direct3D rede ich so nebenbei nie.
Die Aussage war, dass die K6000 wohl langsamer als die Titan ist.
Das wollte ich in Frage stellen, da schon die Quadro 6000 unter OpenGL fast auf Titan Niveau kommt, ergo der Nachfolger schneller sein sollte.
Und warum die K6000 unter Cuda langsamer sein sollte leuchtet mir nicht ein.
Direct3D ist doch bei Quadros sowas von unwichtig.
Ausserdem ist der Direct3D Teil des Treibers eh der selbe.

Chris Lux
2013-07-26, 20:46:52
Was genau redest du?

Wir sind eine sehr große Visualisierungsfirma und benutzen lauter Titan Karten fūr unsere GPU Renderings.
Wir haben die ganzen Quadro 6000 Karten durch 2-4 Titans pro Rechner ersetzt.
Das absolut relevante hier sind die 6GB Speicher auf der Karte.
Bzw. jetzt dann göttliche 12.

Solltest du auf was anderes als den professionellen Einsatz von Titan Karten anspielen, musst du mir das bitte nochmal erklären.

Von Direct3D rede ich so nebenbei nie.
Die Aussage war, dass die K6000 wohl langsamer als die Titan ist.
Das wollte ich in Frage stellen, da schon die Quadro 6000 unter OpenGL fast auf Titan Niveau kommt, ergo der Nachfolger schneller sein sollte.
Und warum die K6000 unter Cuda langsamer sein sollte leuchtet mir nicht ein.
Direct3D ist doch bei Quadros sowas von unwichtig.
Ausserdem ist der Direct3D Teil des Treibers eh der selbe.
was soll den "unter OpenGL" bedeuten? sind sie "unter D3D" denn schneller? sag doch einfach in welchem anwendungsszenario oder unter welcher belastung der fermi den kepler (GK110) schlagen soll? deine pauschalaussagen sind sowas von sinnbefreit?

starfish
2013-07-26, 22:20:23
was soll den "unter OpenGL" bedeuten? sind sie "unter D3D" denn schneller? sag doch einfach in welchem anwendungsszenario oder unter welcher belastung der fermi den kepler (GK110) schlagen soll? deine pauschalaussagen sind sowas von sinnbefreit?

Maya Viewport.
RTT Deltagen.
In beiden Fällen ist die alte Quadro 6000 zb im Wireframe Modus (unter OpenGL) schneller als die Titan Karte.

Ohne Wireframe haben wir die Erfahrung gemacht, dass bei Szenen mit extrem viel Polys (Autovisualisierung) die Quadro 6000 bis auf zwei Drittel an die Framerate der Titan herankommt.

Unter GI, also Cuda, ist die Titan Pi mal Daumen doppelt so schnell wie eine Quadro 6000, bei der selben oben genannten Szene.
Mit gleicher Szene meine ich die gleiche Geo und die gleichen Texturen wie oben genannt.


Achtung, ich rede hier auch nicht von einer 580er zb.
Sondern explizit von der Quadro Karte.
Denn Quadros haben unter professionellen OpenGL Anwendungen einfach Vorteile im Vergleich zu ihren Geforce Pendants.

Skysnake
2013-07-26, 22:47:11
du meinst wohl, "Sie sind einfach nicht künstlich beschnitten"

Chris Lux
2013-07-26, 23:27:36
ALTER. gerade wireframe kann man NIEMALS zwischen quadro und geforce vergleichen! historische produktdifferenzierung seitens nv.

starfish
2013-07-27, 09:21:51
ALTER. gerade wireframe kann man NIEMALS zwischen quadro und geforce vergleichen! historische produktdifferenzierung seitens nv.

Lern lesen, lern normal mit Leuten zu reden oder halt dich raus.

Es geht nach wie vor nur darum, dass es wahrscheinlich absolut keinen Fall geben wird, in dem die K6000 in ihrem professionellen Bereich langsamer sein wird als die Titan.

Und natūrlich gibt es genug Beispiele (siehe oben meine Firma) in denen man die Titan und die Quadro 6000 bzw. K6000 vergleichen MUSS.
Abgesehen davon ist der Thread genau dazu da.

du meinst wohl, "Sie sind einfach nicht künstlich beschnitten"
Genau das.
Aber die Diskussion kommt jedes mal auf, wenn neue Quadros auf den Markt kommen und die Leute den Sinn nicht verstehen.

Skysnake
2013-07-27, 11:17:05
Ich versteh auch nicht, was es an deiner Aussage nicht zu verstehen gab...

Es war doch von Anfang an klar, wovon du redest...

Chris Lux
2013-07-27, 16:51:08
Lern lesen, lern normal mit Leuten zu reden oder halt dich raus.

Es geht nach wie vor nur darum, dass es wahrscheinlich absolut keinen Fall geben wird, in dem die K6000 in ihrem professionellen Bereich langsamer sein wird als die Titan.

Und natūrlich gibt es genug Beispiele (siehe oben meine Firma) in denen man die Titan und die Quadro 6000 bzw. K6000 vergleichen MUSS.
Abgesehen davon ist der Thread genau dazu da.


Genau das.
Aber die Diskussion kommt jedes mal auf, wenn neue Quadros auf den Markt kommen und die Leute den Sinn nicht verstehen.
ich hatte in meinem leben (professionell) schon mit mehr als genug Quadros, GeForces, FireGL etc. zu tun. ich muss mich hier nicht rechtfertigen.

ich spiele immer auf deine ursprüngliche pauschale aussage an. wenn du das sofort klar dargestellt hättest wäre hier kein problem, aber "unter OpenGL" zu sagen und wireframe zu meinen (egal ob GL oder D3D) ist sinnbefreit, gerade wenn man Quadros und GeForces vergleicht. und klar dein bezug jetzt klar, jedoch sind in so einem forum hier diese pauschalen aussagen sehr schnell falsch zu verstehen... trotzdem bleibe ich dabei, egal ob ihr GeForce karten einsetzt oder nicht, man darf die GPU performance nicht über Quadro-GeForce-grenzen vergleichen (was du nun leider gemacht hast!).

Iruwen
2013-07-27, 18:54:20
ich muss mich hier nicht rechtfertigen.

Aber an deinem Tonfall arbeiten.

Skysnake
2013-07-27, 19:29:45
i
ich spiele immer auf deine ursprüngliche pauschale aussage an. wenn du das sofort klar dargestellt hättest wäre hier kein problem, aber "unter OpenGL" zu sagen und wireframe zu meinen (egal ob GL oder D3D) ist sinnbefreit, gerade wenn man Quadros und GeForces vergleicht. und klar dein bezug jetzt klar, jedoch sind in so einem forum hier diese pauschalen aussagen sehr schnell falsch zu verstehen... trotzdem bleibe ich dabei, egal ob ihr GeForce karten einsetzt oder nicht, man darf die GPU performance nicht über Quadro-GeForce-grenzen vergleichen (was du nun leider gemacht hast!).
Natürlich darf man das :ugly:

Wie ... ist das denn bitte? Die Quadro muss ihr Geld auch wert sein, und nicht für jeden ist der Support wichtig. Insbesondere Studenten und sonstige kommen mit den GeForce und Radeons völlig zurecht heutzutage. Früher sah das mal GANZ anders aus.

Chris Lux
2013-07-27, 23:20:07
...und? Der Markt für beide Produktlinien ist trotzdem ein anderer. Und diese werden eben nicht nur durch den Support differenziert sondern auch durch künstliche Beschränkungen, wie du bemerkt hast. Das war auch FRÜHER schon genau so, da hat sich wenig bis gar nichts geändert. Es war schon immer sowas wie Standard auf GeForce zu entwickeln und auf Quadro/Tesla zu deployen. Radeons konnte man da aber noch nie benutzen, wegen des unterirdischen OpenGL-Supports seitens ATi/AMD.

P.S. Ich sollte das mal in die Sig packen: Dies sind meine Ansichten und sie müssen sich nicht mit denen meines Arbeitgebers decken.

Skysnake
2013-07-28, 11:05:55
Radeons kannst du inzwischen genau so verwenden wie GeForce. Die Karten haben für sehr sehr viele Einsatzzwecke trotz ihrer Beschneidung mehr als genug Leistung.

Deswegen ist der Vergleich auch durchaus angebracht. Ne High-End-GPU ConsumerKart kann es als doch mit den low/midrange Quadros/FirePro aufnehmen, und für so manchen reicht das auch völlig aus.

Hübie
2013-07-28, 11:34:35
Und ihr nennt euch "Profis"? :facepalm:

starfish
2013-07-28, 19:13:51
Radeons kannst du inzwischen genau so verwenden wie GeForce. Die Karten haben für sehr sehr viele Einsatzzwecke trotz ihrer Beschneidung mehr als genug Leistung.

Deswegen ist der Vergleich auch durchaus angebracht. Ne High-End-GPU ConsumerKart kann es als doch mit den low/midrange Quadros/FirePro aufnehmen, und für so manchen reicht das auch völlig aus.

Wie bereits erklärt, bei uns z.B wurden fast alle Quadro 6000 durch Titan Karten ersetzt.
Durch jeweils 2-4 Stück.
Der Haupteinsatzort sind GI Renderings auf GPU über Cuda.
Hier ist die Titan einfach etwa doppelt so schnell wie eine Quadro 6000.

Daher wurden sie ersetzt, zu einem deutlich geringeren Preis.

Warum sich mancher hier so anstellt, zwecks angeblich mangelnder Vergleichbarkeit, ist mir ein Rätsel.

Grade die Titans wildern enorm im Revier der großen Quadros, was GPU Computing angeht.


Die K6000 wird für uns (Hauptanwendung Cuda) grade durch die 12 GB Ram wieder sehr interessant.
Obwohl sie dort wohl nicht viel schneller als die Titan sein wird.
Aber es macht einen Unterschied, ob ich meine Szene in den Grafikram kriege oder nicht.

Sven77
2013-07-28, 21:25:40
Wir haben eine bunten Mix aus Gamerkarten und Quadros, das geht aber erst seit kurzem da es noch nicht so lange Consumerkarten mit genug VRam gibt. Vor allem seitdem Texturen nicht mehr hauptsächlich in Photoshop erstellt werden, stiegen die Anforderungen an die Kisten der Artists wieder enorm. Haben einige Titans im Einsatz, da bei uns aber alles reines CPU-Rendering ist das auch nicht auf den Workstations anfällt juckt das nicht. Was aber juckt sind einige Features die eben nur die Quadro bietet.

RavenTS
2013-07-28, 22:51:33
225W an Last passt ja prima zu nem AMD Centurion, dann braten CPU und GPU in etwas dasselbe durch :D

Chris Lux
2013-07-29, 09:32:52
Radeons kannst du inzwischen genau so verwenden wie GeForce. Die Karten haben für sehr sehr viele Einsatzzwecke trotz ihrer Beschneidung mehr als genug Leistung.

Deswegen ist der Vergleich auch durchaus angebracht. Ne High-End-GPU ConsumerKart kann es als doch mit den low/midrange Quadros/FirePro aufnehmen, und für so manchen reicht das auch völlig aus.
Von der Leistung her gern, aber aus Entwicklersicht waren (sind?) AMD/ATi-Karten ein Graus wenn es auf OpenGL ankommt. Deren Implementierung war oft sehr schlecht. Ich kann das aber aktuell nicht mehr beurteilen, es ist gut ein Jahr her, dass ich eine AMD-Karte getestet habe.

Chris Lux
2013-07-29, 09:37:13
Wie bereits erklärt, bei uns z.B wurden fast alle Quadro 6000 durch Titan Karten ersetzt.
Durch jeweils 2-4 Stück.
Der Haupteinsatzort sind GI Renderings auf GPU über Cuda.
Hier ist die Titan einfach etwa doppelt so schnell wie eine Quadro 6000.

Daher wurden sie ersetzt, zu einem deutlich geringeren Preis.

Warum sich mancher hier so anstellt, zwecks angeblich mangelnder Vergleichbarkeit, ist mir ein Rätsel.

Grade die Titans wildern enorm im Revier der großen Quadros, was GPU Computing angeht.


Die K6000 wird für uns (Hauptanwendung Cuda) grade durch die 12 GB Ram wieder sehr interessant.
Obwohl sie dort wohl nicht viel schneller als die Titan sein wird.
Aber es macht einen Unterschied, ob ich meine Szene in den Grafikram kriege oder nicht.

Ich verstehe das vollkommen, im Compute-Bereich hat NV (seltsamerweise) kaum Beschränkungen eingebaut. Die einzige, welche mir gerade einfällt ist die Beschränkung auf eine einzelne async. DMA-Engine.

Mir ging es nur darum, dass man nicht einfach sagen sollte "unter OpenGL ist A total viel langsamer als B", wenn A und B aus verschiedenen Produktlinien bei NV kommt. Da gibt es leider noch zu viele künstliche Beschränkungen (welche aber ab und an Sinn machten, bspw. war es mal so, dass Quadros mit mehr Präzision gerendert hatten, was in weniger "Lücken" zwischen Polys resultierte, wie das heute ist weiß ich nicht). Hier im Forum kommt sowas leider immer rüber wie: OpenGL ist sowas von schlecht und D3D viel besser...

Sorry für die ausladende Diskussion...

Skysnake
2013-07-29, 09:42:07
Als Endnutzer, also 99% der Quadro Kunden, ist es ziemlich egal, ob AMD oder nVidia. Entweder es läuft, oder es läuft nicht. Wenn es Probleme gibt, dann weil einzelne OpenGL-Features deaktiviert sind wie die Overlay-Funktion. Das hat aber nichts mit der Marke oder dem Produkt an sich zu tun, sondern damit ob man lesen kann oder nicht ;)

Und für Entwickler gibt es sowohl bei AMD als auch bei nVidia mehr als genug Punkte zum Haare raufen. Es kommt halt immer nur darauf an, über welches spezifische Problem man gerade stolpert. Fehlerfrei sind aber beide nicht.Und deswegen ist die Quadro und auch die FirePro in Firmen durchaus ihr Geld wert. Denn die wurden bis zum erbrechen mit ihren Treibern und den zertifizierten Softwarepaketen getestet, das es keine unerwarteten Bugs gibt. Da verzichtet man im Zweifel sogar auf ein paar % Leistung. Denn ein Bug, der zu Datenverlust oder falschen Ergebnissen führt, kann schnell Millionen kosten. Bei solchen Bereichen macht es auch definitiv Sinn, auf die Profikarten zu setzen.

Wenn ich aber nen Werksstudent habe, oder jemanden, der nur hin und wieder kleinere Sachen macht, dann kann ich es mir heutzutage oft auch echt sparen. Nur die wenigsten müssen halt komplette Triebwerke/Motoren oder Flugzeuge/Fahrzeuge simulieren/designen. Ein (PC-/XY-)Gehäuse bekomm ich auch mit ner kleinen Konsumerkarte gebacken.

Wildfoot
2013-08-08, 23:32:07
Und? Kennt man schon neueres zum Preis?

Gruss Wildfoot

Nightspider
2013-08-08, 23:40:46
Zwo Mark zwansch!

Meinst du den Preis der Quadro oder der nicht existenten Titan Ultra? ;)

Wildfoot
2013-08-09, 20:06:36
Jo denk der der Quadro, Luftschlösser sind eh gratis. :D

Gruss Wildfoot

Godmode
2013-08-17, 19:32:36
Ist eigentlich möglich das Ding mit dem Geforce Treiber zu betreiben oder ist das ausgeschlossen?

SLI funktioniert anscheinend auch mit Quadros: http://www.nvidia.com/object/quadro_sli_rendering.html

Nightspider
2013-08-17, 20:25:45
Wieso, willst du dir zwei kaufen? ;D

phoenix887
2013-08-17, 20:34:49
Ich werf mich weg:D

Godmode
2013-08-17, 20:56:19
Ihr seht die 5k Euro, ich seh die 2880 ALUs und Chips erster Güte. :biggrin:
Da die Quadros den Preis recht gut halten, könnte man die Dinger später wieder zu einem relativ guten Preis verkaufen. Das einzige Problem wäre, das 10k Euro im Rechner stecken, das sind schon Summen wo man über eine Versicherung nachdenken sollte.

phoenix887
2013-08-17, 21:40:12
Ihr seht die 5k Euro, ich seh die 2880 ALUs und Chips erster Güte. :biggrin:
Da die Quadros den Preis recht gut halten, könnte man die Dinger später wieder zu einem relativ guten Preis verkaufen. Das einzige Problem wäre, das 10k Euro im Rechner stecken, das sind schon Summen wo man über eine Versicherung nachdenken sollte.

Ich finde dich sympathisch, mach dein Ding;)

Wildfoot
2013-08-18, 20:46:57
Ihr seht die 5k Euro, ich seh die 2880 ALUs und Chips erster Güte. :biggrin:
Da die Quadros den Preis recht gut halten, könnte man die Dinger später wieder zu einem relativ guten Preis verkaufen. Das einzige Problem wäre, das 10k Euro im Rechner stecken, das sind schon Summen wo man über eine Versicherung nachdenken sollte.

Genau meine Philosophie. :)
Nur 2x 5k€ sprengen dennoch mein Budget. Daher kaufe ich mir jetzt zuerst mal eine gute CPU (EE oder E5 IvyBridge-E). Dann sehen wir weiter.

Gruss Wildfoot

RMA
2013-08-18, 23:17:48
Ach, ist das schön. Da draußen (RL :ugly2:) wird man ja schon oft komisch beäugt, hier merkt man, dass man gar nicht so irre ist. X-D

Dicker Igel
2013-08-18, 23:24:01
Das einzige Problem wäre, das 10k Euro im Rechner stecken, das sind schon Summen wo man über eine Versicherung nachdenken sollte.

Deckt das nicht die Hausrat ab? :biggrin: BTW - wer weiß schon was die Karten in Deinem Rechner wert sind, das muss dann schon 'ne gezielte Aktion von eingeweihten Leuten sein.

robbitop
2013-08-19, 09:01:09
1 SMX mehr bringt lächerliche 7 %. Das ist noch nichtmal im fühlbaren Bereich - nur im messbaren. Bereits Maxwell Midrangekarten (GM104) könnten für wenige hundert € einer Titan (für 1000 €) oder auch einer K6000 mächtig in die Eier treten.

Godmode
2013-08-19, 09:13:32
Ich finde dich sympathisch, mach dein Ding;)

Danke ;)

Genau meine Philosophie. :)
Nur 2x 5k€ sprengen dennoch mein Budget. Daher kaufe ich mir jetzt zuerst mal eine gute CPU (EE oder E5 IvyBridge-E). Dann sehen wir weiter.

Gruss Wildfoot

Es wäre halt lustig, aber auch extrem pervers.

Ach, ist das schön. Da draußen (RL :ugly2:) wird man ja schon oft komisch beäugt, hier merkt man, dass man gar nicht so irre ist. X-D

Du sagst es!

Deckt das nicht die Hausrat ab? :biggrin: BTW - wer weiß schon was die Karten in Deinem Rechner wert sind, das muss dann schon 'ne gezielte Aktion von eingeweihten Leuten sein.

Ka ob die normale Hausrat einen 10k Rechner abdeckt, normalerweise ist das immer gedeckelt.

1 SMX mehr bringt lächerliche 7 %. Das ist noch nichtmal im fühlbaren Bereich - nur im messbaren. Bereits Maxwell Midrangekarten (GM104) könnten für wenige hundert € einer Titan (für 1000 €) oder auch einer K6000 mächtig in die Eier treten.

Das so etwas nicht wirklich sinnvoll ist, weiß ich selber. Vor allem rechne ich damit, dass eine Titan Ultra sowieso noch in den nächsten Monaten vorgestellt wird. Was interessant wäre sind die Overclocking Eigenschaften so einer Karte. Die normalen Titans schaffen irgendwo um die 1200 MHz, wobei das schon eher die besseren sind. Wenn der 15 SMXer jetzt 1300 schaffen würde, dann wäre das schon wieder fühlbar.

Skysnake
2013-08-19, 09:42:37
Ka ob die normale Hausrat einen 10k Rechner abdeckt, normalerweise ist das immer gedeckelt.

Wenn die Versicherungssumme hoch genug ist ja kein Problem. Du musst nur aufpassen, das dein GESAMTER! Hausrat nicht mehr Wert ist als deine Versicherungssumme, sonst kackt die Versicherung bei nem Schaden rum und will wegen Untersicherung den entsprechenden prozentualen Anteil + "Strafe" einbehalten...

Also wenn man so ne teure Anschaffung macht sollte man nochmal in seinen Vertrag schauen, in sich gehen alles zusammenrechnen und auch mit dem Versicherungsvertreter reden. Dafür sind die Jungs und Mädels ja da :tongue:

Sven77
2013-08-19, 11:00:38
Vorsicht beim verkaufen von Quadros: 99% die Quadros kaufen sind Menschen/Firmen die damit Geld verdienen und Rechnung sowie Garantie/Gewährleistung vorraussetzen. Aus privater Hand wirst du damit heftige Verluste einfahren.

Godmode
2013-08-19, 11:21:10
Vorsicht beim verkaufen von Quadros: 99% die Quadros kaufen sind Menschen/Firmen die damit Geld verdienen und Rechnung sowie Garantie/Gewährleistung vorraussetzen. Aus privater Hand wirst du damit heftige Verluste einfahren.

Die würden über die Firma gekauft und verkauft werden. Danke für den Tipp.

Dicker Igel
2013-08-19, 12:19:50
Bist Du auch sicher dass die Power 100% beim Gaming ankommt, oder ist das echt nur Treibersache?

Godmode
2013-08-19, 12:37:59
Bist Du auch sicher dass die Power 100% beim Gaming ankommt, oder ist das echt nur Treibersache?

Ich weiß es nicht und die Frage hat bisher auch niemand beantworten können. Allerdings ist das ganze sowieso nur ein Hirngespinst.

Dicker Igel
2013-08-19, 12:53:27
Benches anderer Karten sind in der Hinsicht halt nicht so prickelnd:

http://hardware-review24.com/Video/211/2.png

http://hardware-review24.com/Video/211/30.png

http://hardware-review24.com/Video/211/31.png

http://hardware-review24.com/load/graphics/nvidia_quadro_k5000_professional_graphics_card_review/3-1-0-211

KA inwiefern man das auf die K6000 beziehen kann.

Godmode
2013-08-19, 12:59:04
Die Quadro taktet hier deutlich niedriger als die 680. Man müsste schon taktnormalisiert vergleichen.

edit: Die K5000 taktet mit 706 MHz die GTX 680 mit 1006 Mhz, entspricht also 70%. Wenn man jetzt den 3D Mark Score zum vergleich nimmt, dann haben wir hier genau die 70%. Ist halt die Frage ob das überall so ist oder nur beim 3DMark.

Dicker Igel
2013-08-19, 13:23:25
Stimmt, der Treiber macht anscheinend auch nix (http://forums.guru3d.com/showpost.php?p=4479539&postcount=83) aus(bzgl der 680).

Raff
2013-08-19, 13:33:42
Die Kepler-Quadro ("Kwadro" :ugly: ) hat keinen Boost – ein großer Vorteil.

MfG,
Raff

Godmode
2013-08-19, 14:02:38
Die Kepler-Quadro ("Kwadro" :ugly: ) hat keinen Boost – ein großer Vorteil.

MfG,
Raff

Du weist nicht zufällig ob man mit den Quadros SLIen kann?

Raff
2013-08-19, 14:05:41
Keine Ahnung, sorry.

MfG,
Raff

Skysnake
2013-08-19, 14:09:47
Ist nur ne Sache vom Treiber. Die SLI-Kontakte sind auf den Karten vorhanden.

Zergra
2013-08-19, 14:23:13
Du weist nicht zufällig ob man mit den Quadros SLIen kann?
Quad SLI wäre doch was :freak:

Raff
2013-08-19, 14:24:35
Ist nur ne Sache vom Treiber. Die SLI-Kontakte sind auf den Karten vorhanden.

Ich frage mich, ob ein Modder wie svl7 aus einem Quadro- ein unlocked GeForce-BIOS zimmern kann. Das wäre dann echt eine "Titan Ultra".

MfG,
Raff

robbitop
2013-08-19, 14:27:43
Oh ja 7 % mehr Leistung ... gleich geht das Gesabbere los. :D :D

Raff
2013-08-19, 14:28:52
Du bist hier ganz offensichtlich falsch, robbi. :biggrin:

MfG,
Raff

Godmode
2013-08-19, 14:31:50
Quad SLI wäre doch was :freak:

Hatte ich schon, mag ich nicht mehr.

Ich frage mich, ob ein Modder wie svl7 aus einem Quadro- ein unlocked GeForce-BIOS zimmern kann. Das wäre dann echt eine "Titan Ultra".

MfG,
Raff

Hey, gute Idee. Die Frage ist ob die SMX der Titan kaputt sind oder ob das wirklich nur eine produktpolitische Entscheidung ist. Die K6000 kommt ja offiziell ist im Herbst IIRC. Dh. eine Titan Ultra könnte wohl im selben Zeitraum vorgestellt werden.

Godmode
2013-08-19, 14:32:13
Du bist hier ganz offensichtlich falsch, robbi. :biggrin:

MfG,
Raff

Hier sind die Freaks der Freaks ;)

Angiesan
2013-08-19, 15:00:27
Ach, ist das schön. Da draußen (RL :ugly2:) wird man ja schon oft komisch beäugt, hier merkt man, dass man gar nicht so irre ist. X-D
Doch doch, wenn du es hier länger wie ein paar Monate aushälst bist du schon ziemliche irre:freak::biggrin:

Hier sind die Freaks der Freaks ;)

Ja das stimmt dafür bin ich dann wieder viel zu normal irre , so irre irre war hier eigentlich immer nur einer und der ist nicht mehr.
Schön das wir nun einen würdigen neuen Oberirren haben :biggrin:

Godmode
2013-08-19, 15:04:29
Doch doch, wenn du es hier länger wie ein paar Monate aushälst bist du schon ziemliche irre:freak::biggrin:



Ja das stimmt dafür bin ich dann wieder viel zu normal irre , so irre irre war hier eigentlich immer nur einer und der ist nicht mehr.
Schön das wir nun einen würdigen neuen Oberirren haben :biggrin:

Ich fühle mich geehrt, aber da gibts doch genug andere die genau oder vielleicht sogar noch ärger drauf sind. Mir fällt zB. Blaire ein, der immer noch 4 Titans im Rechner hat. Bei mir sinds ja mittlerweile nur mehr zwei, womit ich ja schon wieder zum Pöbel zähle. ;D

robbitop
2013-08-19, 15:16:10
Selbst Tombman war nicht so irre. Der hat auch nicht auf von der 480 SLI auf die 580 SLI gewechselt, weil Kosten und Nutzen in keiner Relation standen. Also ist Godmode eher irre irre irre. :D :D

Thunder99
2013-08-19, 15:38:05
Es gibt mehr Irre/Freaks als ihr glaubt :D . Fragt nicht was ich schon alles gewechselt hab obwohl es nicht immer so sinnvoll war :freak:

Skysnake
2013-08-19, 16:03:15
Ich frage mich, ob ein Modder wie svl7 aus einem Quadro- ein unlocked GeForce-BIOS zimmern kann. Das wäre dann echt eine "Titan Ultra".

MfG,
Raff
Eher nicht. Das Problem sind die Treiber...

Wenn du aber 2-4 Quadros kaufst ist nVidia vielleicht so nett und bastelt dir sogar was. Die sind sich dann ja sicher, dass Sie sonst praktisch keinen Support liefern müssen ;D

Würde vorher auf jeden Fall mal Fragen!

Angiesan
2013-08-19, 17:38:36
Selbst Tombman war nicht so irre. Der hat auch nicht auf von der 480 SLI auf die 580 SLI gewechselt, weil Kosten und Nutzen in keiner Relation standen. Also ist Godmode eher irre irre irre. :D :D

Du hast das Sabbern vergessen, also ist Godmode ein sabbernder irre irre Irrer:freak::biggrin: Womit er sich eindeutig zum Oberirren qualifiziert:biggrin:
Ja Blaire ist auch irre aber er sabbert nicht;D
Andere sabbern zwar sind aber nicht irre genug:freak:

@Godmode
Aber mal Spaß beiseite, das wär mal ein Ding würde mich vor allem mal interessieren ob die Chips wirklich selektiert sind oder ob man es aus Energiegründen nicht schon vorher gemacht hat.
Und über den Preis sollte man mal besser nicht nachdenken denn das kann man auch mit viel viel Phantasie nicht schön reden, einen Unterschied wird man meiner Meinung nach auch nicht spüren denn selbst bei 2x SLI muss der Sandy E ja schon leiden das man da die volle Leistung bekommt.
Da denkst Du nicht wirklich drüber nach, oder !?

aufkrawall
2013-08-19, 17:50:06
Kosten mehrere GPUs bei LGA 2011 mehr als bei den Mainstream-Lösungen?
Bei Letzterem kostet eine zweite GPU quasi nichts.

Godmode
2013-08-19, 17:56:53
@Godmode
Aber mal Spaß beiseite, das wär mal ein Ding würde mich vor allem mal interessieren ob die Chips wirklich selektiert sind oder ob man es aus Energiegründen nicht schon vorher gemacht hat.
Und über den Preis sollte man mal besser nicht nachdenken denn das kann man auch mit viel viel Phantasie nicht schön reden, einen Unterschied wird man meiner Meinung nach auch nicht spüren denn selbst bei 2x SLI muss der Sandy E ja schon leiden das man da die volle Leistung bekommt.
Da denkst Du nicht wirklich drüber nach, oder !?

Es ist gut dass es das Ding noch nicht zu kaufen gibt. Ich denke Nvidia wird uns auch eine Customer Version davon verkaufen, mit "normalen" 6 GB Speicher. Wenn AMD was vorstellt, dann können wir schon im Herbst/Winter mit einer Titan Ultra rechnen, meint ihr nicht? Die 12 GB würden das Ding zusätzlich bremsen, IIRC. Ich denke schon nach, aber für 5k/Karte müsste das Ding schon glänzen, sprich 1300-1400 MHz kühlbar.


Kosten mehrere GPUs bei LGA 2011 mehr als bei den Mainstream-Lösungen?
Bei Letzterem kostet eine zweite GPU quasi nichts.

Wie meinst du konkret? Gehts um die Mainboard-Preise?

aufkrawall
2013-08-19, 18:04:30
Wie meinst du konkret? Gehts um die Mainboard-Preise?
Nein, um Angiesans Aussage, der Verwaltungsaufwand der CPU würde mit 2-Way schon durchschlagen. Wenn ich sie denn richtig verstanden habe. Er könnte auch meinen, dass man auch mit SNB-E häufig im CPU-Limit ist.

Angiesan
2013-08-19, 18:19:59
Ich habe das CPU Limit gemeint nicht den Verwaltungsaufwand.

Godmode
2013-08-19, 18:24:51
Achso. Also eine zweite schluckt er schon. Ab 3 brauchst du dann schon extreme Settings, damit die CPU noch zurecht kommt.

Skysnake
2013-08-19, 18:30:20
Kosten mehrere GPUs bei LGA 2011 mehr als bei den Mainstream-Lösungen?
Bei Letzterem kostet eine zweite GPU quasi nichts.
Versteh deine Frage gerade nicht.

Du kannst zwei GPUs mit 16x ansteuern. Danach musst du splitten. Bei S115x haste nur 16x, da musst du immer direkt ab der zweiten splitten.

RMA
2013-08-19, 18:36:40
Mal im Ernst, glaubt ihr echt, dass eine Titan Ultra dieses Jahr noch kommt? Schon die Titan dürfte doch als Produkt von der Marge her an der Grenze der Wirtschaftlichkeit stehen, erst recht anbetrachts der 780er (Preise im freien Fall) mit ihrem großen OC-Potential. Aber gut, andererseits wäre das ja nur 'ne K6000 mit Custom-BIOS, der Entwicklungsaufwand hielte sich also stark in Grenzen.

Dicker Igel
2013-08-19, 19:08:43
Ne Titan-Ultra könnte ich mir nur als Limited Edition vorstellen, halt Bling Bling für Sammler.

Godmode
2013-08-19, 19:52:12
Mal im Ernst, glaubt ihr echt, dass eine Titan Ultra dieses Jahr noch kommt? Schon die Titan dürfte doch als Produkt von der Marge her an der Grenze der Wirtschaftlichkeit stehen, erst recht anbetrachts der 780er (Preise im freien Fall) mit ihrem großen OC-Potential. Aber gut, andererseits wäre das ja nur 'ne K6000 mit Custom-BIOS, der Entwicklungsaufwand hielte sich also stark in Grenzen.

Also eine Titan Ultra würde mir schon gefallen. Wenn ich meine zwei Titans wieder verkaufe, kann ich relativ Preisgünstig aufrüsten.

Nightspider
2013-08-19, 19:53:37
Eine? Dein PC wird ja immer langsamer. :biggrin:

Godmode
2013-08-19, 20:33:43
Eine? Dein PC wird ja immer langsamer. :biggrin:

Natürlich zwei, dachte das brauche ich nicht mehr dazu schreiben. ^^

Zergra
2013-08-19, 21:51:23
Also eine Titan Ultra würde mir schon gefallen. Wenn ich meine zwei Titans wieder verkaufe, kann ich relativ Preisgünstig aufrüsten.
Wenn NV 1,5k Pro Karte nimmt, wäre das natürlich sehr Günstig :freak:

Godmode
2013-08-19, 22:37:22
Wenn NV 1,5k Pro Karte nimmt, wäre das natürlich sehr Günstig :freak:

1,5k wäre schon herb, aber ich denke eher wieder an 900-1000 Euro und Titan dann eben etwas billiger, so um die 750-800.

gnahr
2013-08-19, 23:24:57
ihr wollt titan wohl ins normale portfolio reindrücken? der chip wurde doch extra außerhalb des nummernchemas gesetzt, da kann man ihn doch nicht einfach so upgraden und ersetzen...

Godmode
2013-08-19, 23:32:16
ihr wollt titan wohl ins normale portfolio reindrücken? der chip wurde doch extra außerhalb des nummernchemas gesetzt, da kann man ihn doch nicht einfach so upgraden und ersetzen...

Namen sind Schall und Rauch...

Sven77
2013-09-06, 09:41:55
Wer mal einen konkreten Anwendungsfall für eine K6000 sehen möchte (natürlich kein Gaming):

http://media.fxguide.com/fxguidetv/fxguidetv-ep178.mp4

edit: ab ca. 12min

Skysnake
2013-09-06, 11:41:05
Naja, Sie hat halt 12GB RAM, das wars, mehr wird da jetzt nicht bzgl K6000 gesagt.

Sven77
2013-09-06, 11:48:59
Ja, aber für das was sie tun brauchen sie die 12GB... deswegen auch ein konkreter Anwendungsfall(16K HDR Texturen). Auch die Kooperation mit Nvidia wird hervorgehoben.

AnarchX
2013-10-23, 10:10:25
Die 900MHz sind wohl nur ein Boost-Takt:

NVIDIA Quadro K6000 Graphics Card based on the GK180 GPU
Core Count: 2880
Base Clock: 797 MHz
Boost Clock: 902 MHz

The Quadro K6000 is the first NVIDIA Professional solution to incorporate Quadro Boost, a mechanism that automatically maximizes application performance while staying within the specified power envelope. For workloads that do not reach the allowed power level, the GPU clock is automatically increased to "Boost Clock" in order to leverage the remaining power budget for additional increased performance. The GPU will always try to reach the higher "Boost Clock" in order to maximize application performance.
The Quadro Boost feature will disable "Boost Clocking" in the following scenarios:
If clock jitter sensitive "Workstation features" like Sync, SDI, or SLI is enabled, the Quadro K6000 will clock to Base Clock automatically.
If the user manually selects the "Prefer Consistent Performance" Control Panel option to lock explicitly to Base Clock (can be useful for performance tuning of applications during development).

http://h18000.www1.hp.com/products/quickspecs/14708_na/14708_na.PDF