Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)
M4xw0lf
2015-03-19, 21:58:09
Ich versteh nicht, warum hier nicht generell 2 Einheiten zu einer 'DP Einheit' zusammen geschaltet werden, wie es bei anderen Dingen der Fall ist...
Mixed Precision wird doch das nächste ultra-awesome feature von Pascal. (As seen in GCN... :freak:)
Hübie
2015-03-19, 23:26:52
Das geht auch nicht einfach so. Da brauchst du breite Anbindung durch den interconnect, mehr register, arbiter und was weiß ich. Einfach generell zusammenschalten klingt schön simpel. Ists aber nicht. Damit macht man sich zudem Effizienz kaputt. Pest oder Cholera? Es wird der Tag kommen an dem man nur noch FP64 verbaut, aber das ist noch Träumerei.
Skysnake
2015-03-19, 23:46:10
Äh ziemlich sicher nicht. Der Mehraufwand für 2x32 zu ner reinen 64 Bit Alu ist überschaubar. Man wäre doof, das auf der Straße liegen zu lassen.
Hübie
2015-03-20, 00:16:04
Du meinst es werden nie reine FP64-Units kommen? Wette ich dagegen ;D Über das Wann reden wir besser nicht.
Ailuros
2015-03-20, 06:10:56
Du meinst es werden nie reine FP64-Units kommen? Wette ich dagegen ;D Über das Wann reden wir besser nicht.
Nein meinte er nicht so wie ich es beim Kaffeesaufen lese. Er meint (und hat auch recht) dass wenn man dedizierte FP64 benutzt mehr die area braucht.
Äh ziemlich sicher nicht. Der Mehraufwand für 2x32 zu ner reinen 64 Bit Alu ist überschaubar. Man wäre doof, das auf der Straße liegen zu lassen.
Man spart heute mit dedizierten ALUs mehr Strom. Man waere doof, das auf der Strasse liegen zu lassen :P
Nochmal wenn IMG in ihrem ULP GPU IP nicht dedizierte FP16 ALUs (und auch dedizierte FP64 ALUs auf Anfrage) haette, haette ich weniger Grund an NV's Behauptungen fuer den Verbrauch zu glauben. Bei den neuen Rogues ist es auch ein Unzahl an zusaetzlichen FP16 ALUs; das ratio zwischen FP32 und FP16 ALUs ist bei 2:1. Es hatte mich selber schon gewundert ob es den Aufwand wert wahr; sie sind sich aber sicher dass dem so ist. Wenn ich aber zu ARM Mali ALUs rueberschiele die von FP16 bis zu FP64 koennen, nehmen diese verdammt viel mehr die area ein insgesamt.
Ich hab aber das "heute" betont, weil weiss der Geier was hw Entwicklung morgen bringen wird, ueberhaupt wenn irgendwann mal in der weiteren Zukunft es doch zu radikaleren Aenderungen kommt wie Huebie oben andeutet. Wenn ueberhaupt wird es IMHO eine Ewigkeit dauern fuer 3D; damit man zu quasi universalen FP64 ALUs erstmal kommt muesste es der durchschnittliche 3D workload auch gerechtfertigen.
Lange Geschichte kurz: Technologie entwickelt sich weiter und wir werden sehen wie es IHVs in der Zukunft loesen werden.
Dawn on Titan
2015-03-20, 06:57:48
Meinte er nicht, dass eine FP64 ALU, die bei Bedarf auch als 2*FP32 ALU arbeiten kann nur wenig mehr Aufwand bedeutet als eine reine FP64. Was je nach Sichtweise beide Theorien bestätigt. Zum einen kann man sagen man wäre komplett FP64, auf der anderen Seite könnte man sagen, dass es FP32 ALUs sind die für FP64 zusammen geschaltet werden.
Ailuros
2015-03-20, 07:09:46
Meinte er nicht, dass eine FP64 ALU, die bei Bedarf auch als 2*FP32 ALU arbeiten kann nur wenig mehr Aufwand bedeutet als eine reine FP64. Was je nach Sichtweise beide Theorien bestätigt. Zum einen kann man sagen man wäre komplett FP64, auf der anderen Seite könnte man sagen, dass es FP32 ALUs sind die für FP64 zusammen geschaltet werden.
Ιch will hoffen dass er nicht solches gemeint hat, denn ich bin mir auch sicher dass er in Teer und Federn nicht besonders gut aussieht ;D
Spass beiseite:
http://www.anandtech.com/show/9096/nvidia-announces-quadro-m6000-quadro-vca-2015
On the software side, the new Quadro VCA runs CentOS 6.6. It will also come with Iray 2015 and Chaos’s V-Ray RT pre-installed to make setup easier, however it should be noted that the VCA does not include the licenses for those software packages and those must be purchased separately.
The Quadro VCA will be available soon through NVIDIA's VCA partners for $50,000.
Skysnake
2015-03-20, 07:26:08
Nein meinte er nicht so wie ich es beim Kaffeesaufen lese. Er meint (und hat auch recht) dass wenn man dedizierte FP64 benutzt mehr die area braucht.
Man spart heute mit dedizierten ALUs mehr Strom. Man waere doof, das auf der Strasse liegen zu lassen :P
Nochmal wenn IMG in ihrem ULP GPU IP nicht dedizierte FP16 ALUs (und auch dedizierte FP64 ALUs auf Anfrage) haette, haette ich weniger Grund an NV's Behauptungen fuer den Verbrauch zu glauben. Bei den neuen Rogues ist es auch ein Unzahl an zusaetzlichen FP16 ALUs; das ratio zwischen FP32 und FP16 ALUs ist bei 2:1. Es hatte mich selber schon gewundert ob es den Aufwand wert wahr; sie sind sich aber sicher dass dem so ist. Wenn ich aber zu ARM Mali ALUs rueberschiele die von FP16 bis zu FP64 koennen, nehmen diese verdammt viel mehr die area ein insgesamt.
Ich hab aber das "heute" betont, weil weiss der Geier was hw Entwicklung morgen bringen wird, ueberhaupt wenn irgendwann mal in der weiteren Zukunft es doch zu radikaleren Aenderungen kommt wie Huebie oben andeutet. Wenn ueberhaupt wird es IMHO eine Ewigkeit dauern fuer 3D; damit man zu quasi universalen FP64 ALUs erstmal kommt muesste es der durchschnittliche 3D workload auch gerechtfertigen.
Lange Geschichte kurz: Technologie entwickelt sich weiter und wir werden sehen wie es IHVs in der Zukunft loesen werden.
Das ganze ULP Geraffel ist doch wieder was ganz anderes. Da hat man nur einen Bruchteil der Leistung. Für solche Stunts wie bei Maxwell mit 1:32 mag sich das ja ausgehen selbst für recht große Chips, aber wenn du 1:2 haben willst, was einfach in Zukunft schlichtweg Pflicht sein wird, wenn man Konkurrenzfähig im HPC-Bereich sein will, dann geht sich das nicht mehr aus.
Das braucht einfach alles viel zu viel Platz, und am Ende sparste ziemlich sicher auch nichts mehr, weil man die Signale weiter treiben muss. Das ist ein schmaler Grad, auf dem man da geht. Je größer der Unterschied zwischen den Modis wird, desto mehr machen natürlich dedizierte Einheiten sinn.
Von daher muss ich mich wohl klarer Ausdrücken. DP:SP von 1:2 im Midrange bis Highend Bereich wird es nicht mit dedizierten DP-Units geben. Das kann ich mir einfach nicht vorstellen, das sich das ausgeht.
Dural
2015-03-20, 08:27:37
GCN kann FP16?
Ailuros
2015-03-20, 08:29:40
Das ganze ULP Geraffel ist doch wieder was ganz anderes. Da hat man nur einen Bruchteil der Leistung. Für solche Stunts wie bei Maxwell mit 1:32 mag sich das ja ausgehen selbst für recht große Chips, aber wenn du 1:2 haben willst, was einfach in Zukunft schlichtweg Pflicht sein wird, wenn man Konkurrenzfähig im HPC-Bereich sein will, dann geht sich das nicht mehr aus.
Wer zum Teufel hat Dir erzaehlt dass engineers im einen oder anderen Markt in einem Vakuum hw entwickeln? Wenn Du das allerbeste fuer N Zeitpunkt was perf/W bzw. perf/mW haben willst, wird man alles unter Betracht nehmen.
Wann war es das letzte Mal dass Du so etwas mit einem waschreinen engineer besprochen hast egal aus welchem Marktsegment? Denn Dein Bauchgefuehl entwickelt keine hw.
Das braucht einfach alles viel zu viel Platz, und am Ende sparste ziemlich sicher auch nichts mehr, weil man die Signale weiter treiben muss. Das ist ein schmaler Grad, auf dem man da geht. Je größer der Unterschied zwischen den Modis wird, desto mehr machen natürlich dedizierte Einheiten sinn.
Was braucht zu viel Platz? Eine einfache FP64 SP?
Von daher muss ich mich wohl klarer Ausdrücken. DP:SP von 1:2 im Midrange bis Highend Bereich wird es nicht mit dedizierten DP-Units geben. Das kann ich mir einfach nicht vorstellen, das sich das ausgeht.
Da bleibt dann eher die Frage ob es je in absehbarer Zukunft fuer kleinere Loesungen als high end zu 1:2 oder 1:3 kommen wird.
fondness
2015-03-20, 09:45:53
GCN kann FP16?
Ab GCN1.2 wird FP16 unterstützt, also aktuell nur Tonga.
http://s4.postimg.org/umnjm5fp9/GCN12_ISA_575px.png (http://postimage.org/)
Dural
2015-03-20, 09:54:29
OK habe ich gar nicht mitbekommen, beim Tegra X1 hat das NV ja extrem hervorgehoben.
Marketing von AMD halt, traurig das es AMD einfach nicht auf den Punkt bekommt, dabei wäre die Hardware Technisch ja nicht mal schlecht. :rolleyes:
Skysnake
2015-03-20, 11:20:08
Wer zum Teufel hat Dir erzaehlt dass engineers im einen oder anderen Markt in einem Vakuum hw entwickeln? Wenn Du das allerbeste fuer N Zeitpunkt was perf/W bzw. perf/mW haben willst, wird man alles unter Betracht nehmen.
Wann war es das letzte Mal dass Du so etwas mit einem waschreinen engineer besprochen hast egal aus welchem Marktsegment? Denn Dein Bauchgefuehl entwickelt keine hw.
Definiere "waschechter engineer"... Ich hatte das mit nem Prof und einigen wissenschaftlichen Mitarbeitern mal durchgesprochen vor dem Launch von Kepler. Da kamen an sich alle unisono zu dem Ergebnis, das es sehr schwer Vorstellbar ist, dass das für 1:2 DP:SP noch effizienter ist.
Was braucht zu viel Platz? Eine einfache FP64 SP?
Wayne eine einzelne. 2xFP32+1xFP64 sind zu groß im Vergleich zu einer FP64 Unit, die auch 2x FP32 unterstützt.
Wenn man jetzt noch FP16 hinzunimmt, wird es noch viel schlimmer, weil man dann ja 4xFP16+2xFP32+1xFP64 brüchte. Wenn man sich anschaut, wieviel Hardware man da redundant einbaut, dann ist das schon heftig. Man bekommt ja den vorhergehenden Modus "fast geschenkt" wenn man es geschickt anstellt.
Da bleibt dann eher die Frage ob es je in absehbarer Zukunft fuer kleinere Loesungen als high end zu 1:2 oder 1:3 kommen wird.
Mich interessiert nichts anders, das sollte klar sein ;)
Für reine Graphikanwendungen ist das was nVidia gemacht hat toll. Für mich ist eine GPU halt einfach nur mehr als nen reiner Pixelschupser. Das darf man einfach nicht über einen Kamm scheren!
Unterschiedliche Anforderungsprofile führen halt zu unterschiedlichen Lösungen.
@Dural:
Tja, das ist halt typisch nVidia, bei allem wird so getan, als ob Sie das Rad erfunden hätten. Es muss halt alles awesome sein. Andere machen halt einfach. Kann man zu stehen wie man will. nVidia weiß halt wie man Marketing betreibt für die Masse.
Ab GCN1.2 wird FP16 unterstützt, also aktuell nur Tonga.
http://s4.postimg.org/umnjm5fp9/GCN12_ISA_575px.png (http://postimage.org/)
Ach da sind die Transistoren hingewandert, das passt doch.
Hübie
2015-03-20, 12:53:39
Wie gesagt wird der Tag kommen an dem es einen Chip gibt der nur noch FP64 Units drin hat. Für GAMING mag der vielleicht nach wie vor nicht relevant sein. Wobei ich gar nicht weiß ob mit steigender Auflösung auch Rechenoperationen präziser werden müssen. Mein Verständnis von dem sagt nein ist nicht nötig aber das überlasse ich den Experten hier im Forum dies zu beantworten. ;)
8k incoming by 2020.
Empfindet ihr das eigentlich auch so dass Maxwell die langweiligste Gen seit ner Ewigkeit ist? Ich gähne beim jeglichen Artikeln zu GM200 :(
robbitop
2015-03-20, 12:56:44
Wozu hat man da eigentlich FP16 eingebaut? Im normalen PC Gebrauch kommt das vermutlich kaum vor. Ggf. hat man das in GCN implementiert für zukünftige mobile Ableger. Im ULP Bereich wird ja noch sehr viel auf FP16 gesetzt.
fondness
2015-03-20, 13:00:30
Wie gesagt wird der Tag kommen an dem es einen Chip gibt der nur noch FP64 Units drin hat. Für GAMING mag der vielleicht nach wie vor nicht relevant sein. Wobei ich gar nicht weiß ob mit steigender Auflösung auch Rechenoperationen präziser werden müssen. Mein Verständnis von dem sagt nein ist nicht nötig aber das überlasse ich den Experten hier im Forum dies zu beantworten. ;)
8k incoming by 2020.
Empfindet ihr das eigentlich auch so dass Maxwell die langweiligste Gen seit ner Ewigkeit ist? Ich gähne beim jeglichen Artikeln zu GM200 :(
Ich wette dagegen. Denn das wäre eine extreme Transistorenverschwendung, FP32 reicht für alles im Gaming-Bereich locker. Es macht auch keinen Sinn, da man sehr einfach eine FP64-ALU so aufsplitten kann das sie auch zwei FP32-Ops schafft. Selbst CPUs machen das so. Momentan geht der Trend eher in die entgegengesetzte Richtung, um Strom zu sparen wird wieder Fp16 eingeführt.
Wozu hat man da eigentlich FP16 eingebaut? Im normalen PC Gebrauch kommt das vermutlich kaum vor. Ggf. hat man das in GCN implementiert für zukünftige mobile Ableger. Im ULP Bereich wird ja noch sehr viel auf FP16 gesetzt.
Vielleicht ist an dem Mediatek-Gerücht doch mehr dran.... :)
Hübie
2015-03-20, 13:09:17
Öhm. Hast du gelesen was ich geschrieben habe? :| Ignoriere doch bitte nicht meinen zweiten Satz. Danke!
Skysnake
2015-03-20, 14:02:08
Auch für wissenschaftliche Anwendungen macht es keinen Sinn, denn wie fondness schon sagt, der Aufwand für 2xSP aus 1xDP zu machen ist sehr überschaubar. Das lässt man sich eigentlich nicht durch die Finger gehen, wenn man eine hoeh DP:SP Ratio haben will.
SP kann man ja doch auch immer mal wieder nehmen, und dann haste halt mal den doppelten Durchsatz ;)
Sunrise
2015-03-20, 14:14:51
Zumindest das konnte man bei Huangs Vortrag ja sehen, je nach Präferenz benötigt man eben mehr Durchsatz bei niedrigerer Genauigkeit, dann wieder mehr Präzision. Das widerspricht sich also nicht (anwendungsabhängig), hier muss man eben schauen, dass genug Bandbreite da ist und gleichzeitig sowohl die Chipfläche nicht explodiert (und man somit im Endeffekt weniger von allem hat) und auch nicht unnötig viele Einheiten einfach nur nichts machen (quasi totes Silikon).
Zusätzlich sollte man die Wege kurz halten um Strom zu sparen.
Tonga ist mir immer mehr ein Rätsel. Das Ding wirkt wie ein halbfertiges Laborprodukt, das zwar neue Anpassungen enthält, aber keiner weiß warum. Gibt es im Apple-Ökosystem irgendwelche Anwendungsmöglichkeiten für FP16 (OpenCL?!). Als mobile GPU empfinde ich das Teil auch absolut fehl am Platz, alles über 100W TDP ist IMHO Quatsch.
robbitop
2015-03-20, 14:35:03
Ggf. werden alle neueren GCNs mit FP16 ausgestattet. Einfach weil man die µ-Arch homogen halten will. Für ULP skaliert man dann die Anzahl der Ausführungseinheiten und den Takt.
Ist sicher nicht ideal - aber ich tippe mal darauf, dass AMD wo es geht modular bleiben will, damit man mit weniger Entwicklungsaufwand mehrere Märkte rein über Skalierung bedienen kann.
mczak
2015-03-20, 15:34:16
Ach da sind die Transistoren hingewandert, das passt doch.
Im Gegensatz zum Tegra X1 hat GCN 1.2 keine gepackten 2x16 FP16 Operationen sondern dieselbe Rate wie bei FP32. Das dürfte äusserst billig in der Implementierung sein.
Ailuros
2015-03-20, 17:07:18
Im Gegensatz zum Tegra X1 hat GCN 1.2 keine gepackten 2x16 FP16 Operationen sondern dieselbe Rate wie bei FP32. Das dürfte äusserst billig in der Implementierung sein.
Dumme aber ehrliche Frage: kann man unter einem SIMD nur jeweils FP16 oder FP32 ops ausfuehren?
Nakai
2015-03-20, 17:19:39
Dumme aber ehrliche Frage: kann man unter einem SIMD nur jeweils FP16 oder FP32 ops ausfuehren?
Hängt natürlich von der Implementierung ab, aber das wird es höchstwahrscheinlich sein. Normalerweise muss über die Instruction das unterschieden werden. Wenn NV eine DP:LP-Rate von 1:2 bringt(also 32bit -> 2*16Bit), muss es wohl spezielle Instructions hierfür geben, irgendein Prefix oder Suffix mitgegeben werden, sodass die SIMDs richtig operieren.
Gemischt, sehe ich das erstmal nicht.
Bei Tonga könnte es egal sein, da die Rate von SP = LP ist. Kurz, die gleichen SP-Ops können da drauf angewendet werden. Eigentlich ist das nicht das Ziel hierfür, da mit FP16 schon Energie gespart werden kann. Außerdem wäre es numerisch interessant, wie es aussieht, FP16-Operanden mit FP32-Operationen auszuführen. Aber ich denke, da wird AMD einfach FP16-Operationen übernehmen.
Wozu hat man da eigentlich FP16 eingebaut? Im normalen PC Gebrauch kommt das vermutlich kaum vor. Ggf. hat man das in GCN implementiert für zukünftige mobile Ableger. Im ULP Bereich wird ja noch sehr viel auf FP16 gesetzt.
DX12 erlaubt wieder FP16. Der Grund auf dem PC ist nicht Energie zu sparen, sondern weniger Register-Pressure, heißt bessere Occupancy. Und je nach Implementierung halt auch höherer Durchsatz.
Für viele Stellen reicht FP16 immer noch aus.
mczak
2015-03-20, 17:26:06
DX12 erlaubt wieder FP16. Der Grund auf dem PC ist nicht Energie zu sparen, sondern weniger Register-Pressure, heißt bessere Occupancy. Und je nach Implementierung halt auch höherer Durchsatz.
Geht auch schon bei d3d11.2. Nutzt aber wohl zur Zeit noch keiner.
mczak
2015-03-20, 17:34:17
Dumme aber ehrliche Frage: kann man unter einem SIMD nur jeweils FP16 oder FP32 ops ausfuehren?
Verstehe die Frage nicht ganz, also das sind ja einfach andere (Vektor)Instruktionen. Die sind beliebig mischbar mit anderen FP32-, Int32-Vektoroperationen aber pro Takt ist es natürlich auf einer SIMD Einheit immer bloss eine die gerade läuft (also streng genommen sind mehrere gleichzeitig am Laufen aber in unterschiedlichen Pipeline-stages) (das bezieht sich jetzt auf Tonga, kann aber bei Tegra X1 eigentlich auch nicht anders sein).
basix
2015-03-20, 18:01:18
Verstehe die Frage nicht ganz, also das sind ja einfach andere (Vektor)Instruktionen. Die sind beliebig mischbar mit anderen FP32-, Int32-Vektoroperationen aber pro Takt ist es natürlich auf einer SIMD Einheit immer bloss eine die gerade läuft (also streng genommen sind mehrere gleichzeitig am Laufen aber in unterschiedlichen Pipeline-stages) (das bezieht sich jetzt auf Tonga, kann aber bei Tegra X1 eigentlich auch nicht anders sein).
Evtl. war das auch die Frage: Kann man FP32-Operationen der Pipeline zuführen, wenn am hinteren Ende der Pipeline FP16-Operationen ausgeführt werden? Wäre natürlich doof, wenn bei einem solchen Wechsel die Pipeline geflusht werden müsste.
Skysnake
2015-03-20, 20:55:10
Dumme aber ehrliche Frage: kann man unter einem SIMD nur jeweils FP16 oder FP32 ops ausfuehren?
Auf einer Pipelinestufe einer SIMD-Unit, also eines SMX sollten meines Wissens nach nur die Threads eines einzelnen/zweier (dual) Warps sein. Wenn ich mich richtig erinnere, war es so, das man sogar die gleiche Instruktion für alles ausgeführt hat. Maximal eben nur zwei, also für jeden Warp eine andere. Die Granularität ist ja 32.
Ansonsten sollte aber nach belieben gewechselt werden können. Im Instruktionscode ist ja genau codiert, was gemacht werden soll.
Ailuros
2015-03-21, 17:05:41
Verstehe die Frage nicht ganz, also das sind ja einfach andere (Vektor)Instruktionen. Die sind beliebig mischbar mit anderen FP32-, Int32-Vektoroperationen aber pro Takt ist es natürlich auf einer SIMD Einheit immer bloss eine die gerade läuft (also streng genommen sind mehrere gleichzeitig am Laufen aber in unterschiedlichen Pipeline-stages) (das bezieht sich jetzt auf Tonga, kann aber bei Tegra X1 eigentlich auch nicht anders sein).
Beliebig mischbar insgesamt wohl schon; ich sagte ja dass es eine dumme Frage ist aber wenn es anders waere als oben - stets streng innerhalb jeglicher einzelnen SIMD - dann wuerde die Dinger auch nicht Single Instruction Multiple Data heissen.
Es mag vielleicht noch absurder klingen aber mich wuerde mal in einem durchschnittlichen heutigen PC Spiel interessieren wie die Ops je nach Praezision statistisch aussehen von INT bis zu FP32.
Evtl. war das auch die Frage: Kann man FP32-Operationen der Pipeline zuführen, wenn am hinteren Ende der Pipeline FP16-Operationen ausgeführt werden? Wäre natürlich doof, wenn bei einem solchen Wechsel die Pipeline geflusht werden müsste.
Das auch; vielleicht hat ein Mod Lust das Pascal/mixed precision Zeug in einen anderen thread auszulagern?
Skysnake
2015-03-22, 06:47:36
Nö. an sich ist die Frage nicht dumm. GPUs würden nur eine ihrer wesentlichen Eigenschaften verlieren, wenn es anders wäre.
Bzgl der Abfolge in den Pipeleinestunfen kann es halt beliebig sein, wobei an sich wohl nicht zu erwarten ist, dass da Abhängigkeiten bestehen. Es wäre zumindest ziemlich dumm, da man ja damit extrem seine Fähigkeiten einschränken würde aus einem Pool von möglichen Threads auszuwählen. Für Streamingarchitekturen wäre das ziemlich leicht ziemlich tödlich was die Performance anbelangt. Komplett ausschließen würde ich es aber nicht. Es gibt immer mal wieder irgendwelche Pferdefüße. So etwas wird aber eher nicht kommuniziert. Vor allem bei nVidia wirste davon nichts erfahren.
mironicus
2015-03-23, 09:33:19
Gibt es schon Spekus zu einer GTX 980 Ti? Teildeaktivierte GM200, Memoryinterface, Cache.
8 GB-Version und davon sind 7 GB schnell nutzbar? :)
Das GTX 970-Debakel hindert NVidia nun an seiner perfiden Strategie eine derartige GTX 980 Ti zu veröffentlichen und kann damit die besondere Flexibilität von Maxwell nicht mehr nutzen. ;D
AnarchX
2015-03-23, 09:37:39
Laut Chiphell - 21SMM/2668SPs - 384-Bit 6GiB.
Aber vielleicht wird es auch eine 9GiB (288-Bit) Karte um Fiji optisch zu übertreffen. :ulol:
basix
2015-03-23, 09:47:12
Laut Chiphell - 21SMM/2668SPs - 384-Bit 6GiB.
Aber vielleicht wird es auch eine 9GiB (288-Bit) Karte um Fiji optisch zu übertreffen. :ulol:
Wieso eigentlich 288-Bit? Ginge nicht auch 384-Bit und Mischbestückung? Die eine Hälfte DRAMs mit halber Kapazität verbauen, oder noch besser DRAMs per Treiber auf halbe Kapazität kastrieren und ein paar Monate später gibt es ein Nvidia Ultra Awesome Hack um die restlichen 3GB freizuschalten :freak:
AnarchX
2015-03-23, 09:49:14
Wieso eigentlich 288-Bit? Ginge nicht auch 384-Bit und Mischbestückung? Die eine Hälfte DRAMs mit halber Kapazität verbauen, oder noch besser DRAMs per Treiber auf halbe Kapazität kastrieren :freak:
Ja 384-Bit mit 12 + 4 Chips, also 8GiB mit 2GiB @ 128-Bit sollte auch möglich sein.
Da hat man mittlerweile einen netten Baukasten, auf den AMD wohl ziemlich neidisch sein wird.:freak:
Äh ziemlich sicher nicht. Der Mehraufwand für 2x32 zu ner reinen 64 Bit Alu ist überschaubar. Man wäre doof, das auf der Straße liegen zu lassen.
Da ist gar nix überrschaubar, ein 64 bit multplier ist vier mal so viel Logik wie ein 32 bit multiplier und mit FMA wird's noch abenteuerlicher.
AnarchX
2015-03-23, 15:05:10
Da ist gar nix überrschaubar, ein 64 bit multplier ist vier mal so viel Logik wie ein 32 bit multiplier und mit FMA wird's noch abenteuerlicher.
Aber zumindest 1:4 oder 1:8 sollte doch transistorgünstig realisierbar sein?
1:32 ist doch schon etwas heftig für den Top-Chip einer Generation.
Skysnake
2015-03-23, 16:57:16
Also wir hatten das mal in einer Vorlesung angesprochen, was es braucht um aus zwei 32Bit Units eine 64Bit Unit zu machen.
Eine FP ist immer aufgebaut nach S(ign)-E(xponent)-M(antisse)
32Bit:
S=1
E=8
M=23
64Bit
S=1
E=11
M=52
Eine Addition/Subtraktion von zwei FP läuft wie folgt:
-Exponent anpassen mittels shift Operation
Das skaliert linear
-Addition der Mantissen
Addierer kann man mit linearer Komplexität bauen
usw
Also alles Sachen, die man mit linearer Komplexität lösen kann.
Multiplikation
-Addition der Exponenten
Wieder linear skalierend
-Multoplikation der Mantisse
Hier braucht man statt eine 23x23 Multiplizierer einen 52x52 Multiplizierer
usw
Man braucht also im großen und Ganzen statt einem 8Bit shifter und 8+11Bit addierer eben einen 11 bit shifter und 11+52Bit addierer.
Ich muss also aus zwei 8 Bit shifter einen 11 Bit shifter bauen, und aus zwei 23 Bit addierer einen 52 Bit-igen. Das sollte man eigentlich ohne Problem können, man muss halt die addierer Zusammenschließen über das Carry-Bit. Man muss also den Mantissen addierer noch um 6Bit erweitern.
Also Addition/Subtraktion gehen mit sehr wenig Aufwand.
Was interessanter ist, ist die Multiplikation.
Die Addition der Exponenten geht wieder ohne Probleme. Da kann man die Einheiten aus der Addition/Subtraktion wiederverwenden.
Bleibt also nur noch die Multiplikation der Mantissen.
Da brauchen wir entweder zwei mal einen 23x23 Multiplizierer bzw. einen 52x52 Multiplizierer.
Für die Multiplikation braucht man, wenn ich mich noch richtig erinnere, hintereinander geschaltete Addierer. Zur der Komplexität von Multiplizierer habe ich mal kurz hier etwas gefunden auf die Schnelle (https://hal.archives-ouvertes.fr/hal-00712085/document).
Wenn ich mir da den "Digit-sequential circuit" auf S3 anschaue, dann ist im wesentlichen die Komplexität O(nd) wobei d die Takte sind. Wenn ich also doppelt so viele Bits habe, aber die Anzahl der Takte(n/d), die die Operation braucht, gleich bleiben soll, dann verdoppelt sich auch die Komplexität.
Klar, ich brauch dann also etwas mehr Hardware, aber sicherlich nicht das Vierfache, wenn ich da mit einer effizienten Implementierung ran gehe. Sooo hoch sind die Taktraten in GPUs ja jetzt auch nicht, als das ich da wirklich extreme Probleme mit den Laufzeiten bekomme. Klar, 1 GHz ist jetzt auch nicht ganz wenig, aber da bekommt man schon einige Gatter hintereinander geschaltet, wenn man will.
Der Knackpunkt ist halt der Multiplizierer. Wenn man den relativ ineffizient bauen muss, weil man sonst nicht die anvisierte Taktraten schafft dann ja, da explodiert das dann. Aber das ist nicht generell so. Zumindest nach meinem Wissensstand! Kann natürlich immer sein, das ich da nen Brainfart habe... Ist jetzt halt auch gut und gerne 3-4 Jahre her, wo ich mich damit mal beschäftigt habe...
Aber zumindest 1:4 oder 1:8 sollte doch transistorgünstig realisierbar sein?
1:32 ist doch schon etwas heftig für den Top-Chip einer Generation.
Ich bin eher froh, dass Nvidia sich mit dem Maxwell wieder auf Gamer-Bedürfnisse zurückbesinnt und die GPU nicht mit für Gamer überflüssiger Logik aufbläht. Die Tesla-Schiene ist schön und gut, mir als Gamer bringt das gar nichts.
M4xw0lf
2015-03-23, 19:33:57
Ich bin eher froh, dass Nvidia sich mit dem Maxwell wieder auf Gamer-Bedürfnisse zurückbesinnt und die GPU nicht mit für Gamer überflüssiger Logik aufbläht. Die Tesla-Schiene ist schön und gut, mir als Gamer bringt das gar nichts.
Das ist eine reichlich euphemistische Formulierung für "das Transistorenbudget unter 28nm gibt es einfach nicht her" ^^
Ailuros
2015-03-23, 20:30:58
Das ist eine reichlich euphemistische Formulierung für "das Transistorenbudget unter 28nm gibt es einfach nicht her" ^^
Eben; es waere verdammt naiv zu glauben dass GM200 auf einem kleineren Prozess nicht wesentlich mehr clusters als unter 28nm haben wuerde.
Reine Milchmaedchenrechnung auf einem hypothetischen 20SoC TSMC mit einer sehr konservativen Packdichte von 20Mio/mm2:
GK107: 94mm2
GM206: 147mm2
GM204: 260mm2
GM200/24 SMMs: 405mm2
....und das letzte wird natuerlich um einiges interessanter wenn man es auf 16FF einschaetzt :P
Apple A8X ist uebrigens bei >23Mio/mm2@20SoC.
Hübie
2015-03-23, 20:52:21
Also wir hatten das mal in einer Vorlesung angesprochen, was es braucht um aus zwei 32Bit Units eine 64Bit Unit zu machen.
Eine FP ist immer aufgebaut nach S(ign)-E(xponent)-M(antisse)
32Bit:
S=1
E=8
M=23
64Bit
S=1
E=11
M=52
Eine Addition/Subtraktion von zwei FP läuft wie folgt:
-Exponent anpassen mittels shift Operation
Das skaliert linear
-Addition der Mantissen
Addierer kann man mit linearer Komplexität bauen
usw
Also alles Sachen, die man mit linearer Komplexität lösen kann.
Multiplikation
-Addition der Exponenten
Wieder linear skalierend
-Multoplikation der Mantisse
Hier braucht man statt eine 23x23 Multiplizierer einen 52x52 Multiplizierer
usw
Man braucht also im großen und Ganzen statt einem 8Bit shifter und 8+11Bit addierer eben einen 11 bit shifter und 11+52Bit addierer.
Ich muss also aus zwei 8 Bit shifter einen 11 Bit shifter bauen, und aus zwei 23 Bit addierer einen 52 Bit-igen. Das sollte man eigentlich ohne Problem können, man muss halt die addierer Zusammenschließen über das Carry-Bit. Man muss also den Mantissen addierer noch um 6Bit erweitern.
Also Addition/Subtraktion gehen mit sehr wenig Aufwand.
Was interessanter ist, ist die Multiplikation.
Die Addition der Exponenten geht wieder ohne Probleme. Da kann man die Einheiten aus der Addition/Subtraktion wiederverwenden.
Bleibt also nur noch die Multiplikation der Mantissen.
Da brauchen wir entweder zwei mal einen 23x23 Multiplizierer bzw. einen 52x52 Multiplizierer.
Für die Multiplikation braucht man, wenn ich mich noch richtig erinnere, hintereinander geschaltete Addierer. Zur der Komplexität von Multiplizierer habe ich mal kurz hier etwas gefunden auf die Schnelle (https://hal.archives-ouvertes.fr/hal-00712085/document).
Wenn ich mir da den "Digit-sequential circuit" auf S3 anschaue, dann ist im wesentlichen die Komplexität O(nd) wobei d die Takte sind. Wenn ich also doppelt so viele Bits habe, aber die Anzahl der Takte(n/d), die die Operation braucht, gleich bleiben soll, dann verdoppelt sich auch die Komplexität.
Klar, ich brauch dann also etwas mehr Hardware, aber sicherlich nicht das Vierfache, wenn ich da mit einer effizienten Implementierung ran gehe. Sooo hoch sind die Taktraten in GPUs ja jetzt auch nicht, als das ich da wirklich extreme Probleme mit den Laufzeiten bekomme. Klar, 1 GHz ist jetzt auch nicht ganz wenig, aber da bekommt man schon einige Gatter hintereinander geschaltet, wenn man will.
Der Knackpunkt ist halt der Multiplizierer. Wenn man den relativ ineffizient bauen muss, weil man sonst nicht die anvisierte Taktraten schafft dann ja, da explodiert das dann. Aber das ist nicht generell so. Zumindest nach meinem Wissensstand! Kann natürlich immer sein, das ich da nen Brainfart habe... Ist jetzt halt auch gut und gerne 3-4 Jahre her, wo ich mich damit mal beschäftigt habe...
Du betrachtest nur die Logikeinheit. Aber betrachte mal den Rattenschwanz und auch das Maul welches die Ratte füttert. Ich weiß dass es defintiv nicht trivial ist dedizierte FP64-Units zu füttern, anzubinden und zu implementieren. Also kann man - das war und bleibt meine Kernaussage - nicht mal eben aus einfacher Genauigkeit doppelte machen. :wink:
Aber interessant dass dann im Detail auch mal so zu erfahren was dafür nötig ist.
AMD hat ja keine ded. FP64-Units sondern löst dass über zwei FP32 oder hab ich das falsch verstanden? Könnte dass mal wer genauer beschreiben? Halbiert sich dann auch der Takt (nicht im physikalischen Sinne)?
Ailuros: Wie leitet man eigentlich aus Packdichte (Transistoren pro mm²) die gate-density ab? Durch drei Teilen? Mir wurde eine hochinteressante Folie zu 14nm gezeigt wo viele Daten drin waren. :naughty:
Nakai
2015-03-23, 22:42:22
Bzgl Multiprecision FPUs:
Link (https://www.lirmm.fr/arith18/papers/libo-multipleprecisionmaf.pdf)
Multiprecision FPUs haben auch eine höhere Latenz und sind natürlich etwas fetter. Im Grunde ist der Sprung von SP auf Multiprecision(MP) ziemlich fett. Der Sprung von DP auf MP ist dahingehend winzig.
stinki
2015-03-23, 22:42:32
Wenn man von cmos nand Gattern ausgeht dann müsste man durch 4 teilen wenn mich meine Erinnerung nicht ganz täuscht (zwei Eingänge, ein Ausgang, X nand Y). Man könnte jede Schaltung mit nand Gattern aufbauen (macht man aber eigentlich nicht, geht auch effizienter). Bei nmos wären es 3 Transistoren pro nand Gatter.
Skysnake
2015-03-24, 05:54:09
Du betrachtest nur die Logikeinheit. Aber betrachte mal den Rattenschwanz und auch das Maul welches die Ratte füttert. Ich weiß dass es defintiv nicht trivial ist dedizierte FP64-Units zu füttern, anzubinden und zu implementieren. Also kann man - das war und bleibt meine Kernaussage - nicht mal eben aus einfacher Genauigkeit doppelte machen. :wink:
Dann les mal bitte nochmal meinen Beitrag ;) Es ging NICHT um dedizierte DP Units, sondern darum, das man mit vergleichsweise wenig Aufwand aus zwei SP Units eine DP Unit bauen kann, genau wie man halt aus einer SP Unit auch zwei FP16 Units bauen kann.
Aber interessant dass dann im Detail auch mal so zu erfahren was dafür nötig ist.
AMD hat ja keine ded. FP64-Units sondern löst dass über zwei FP32 oder hab ich das falsch verstanden? Könnte dass mal wer genauer beschreiben? Halbiert sich dann auch der Takt (nicht im physikalischen Sinne)?
Ja, die haben Multiprecision Units.
Nein, der Takt und alles bleibt gleich, man muss den Multiplizierer nur etwas breiter bauen, und unterteilbar machen. Die Halbierung des Durchsatzes kommt einzig daher, das man eben aus zwei Units eine macht.
Wie viel mehr Hardware-Aufwand man am Ende treiben muss hängt an sich stark vom Multiplizierer ab. Der sollte wenn ich das gerade richtig im Kopf habe, die höchsten Latenzen haben. Mit mehr Hardware kann man also die Taktraten erhöhen. So grob verdoppelt sich die Latenz wenn man ihn doppelt so breit macht. Zumindest in der einen Architektur die ich oben verlinkt hatte.
Im Zweifelsfall braucht man also wohl doppelt so viele Transistoren für den Multiplizierer wie zwei SP Multiplizierer, wenn der SP-Multiplizierer ansonsten schon auf Kante genäht wäre. Man müsste da btw. mal schauen, ob man durch das Zusammenschalten von 4 SP Units das dann ausgleichen kann.
Multiplizierer sind nicht ganz einfach zu bauen, bzw ein wirkliches Problemfeld, daher gibt es ja auch eine ganze Reihe von Architekturen mit unterschiedlichen Eigenschaften bzgl. Latenz und Transistorbedarf. Man wählt halt den Apfel aus, der am wenigsten sauer ist. ;)
Ailuros: Wie leitet man eigentlich aus Packdichte (Transistoren pro mm²) die gate-density ab? Durch drei Teilen? Mir wurde eine hochinteressante Folie zu 14nm gezeigt wo viele Daten drin waren. :naughty:
Da muss man aufpassen....
Gate kann sowohl für das Transistorgate als auch für das Gatter (NAND NOR usw) stehen. Hatte da die Tage erst ein ziemlich lustiges "lost in translation" als ich mir angeschaut habe, welche Fläche ein von mir in VHDL geschriebener Decoder auf dem Chip etwa einnehmen würde. Da wars nämlich genau der Fall, dass das Digital-Designer-Tool von Gates(Gattern) gesprochen hat, ich aber Gates (Transistorgates) angenommen habe.
Wenn man von Gates (Gattern) ausgeht, muss man halt mit 4 mutliplizieren, um auf die Transistor-Gate dichte zu kommen. Ansonsten halt nicht ;)
EDIT:
@Nakai
Danke für den Link.
In dem Paper sind ja auch die Flächen mit drin, und man sieht, dass der wesentliche Unterschied halt der Multiplizierer ist. Hängt also alles davon ab, wie der skaliert.
Die haben ja einen Faktor 3,66 im Vergleich zu einer reinen SP Unit. Ich bekomme also DP für die Fläche von 1,6 SP-Units bei dieser Implementierung. Die haben da aber auch gleich ein Multiply-Add eingebaut, was natürlich die Anforderungen des kritischen Pfads deutlich steigert. Von daher ist das eigentlich ganz gut. Leider finde ich jetzt auf Anhieb nicht heraus, welche Architektur sie genau für den Multiplizierer gewählt haben.
Da lässt sich eventuell noch ein bischen was einsparen, wobei man natürlich schauen muss, in wie weit das MA das Problem wirklich signifikant schwieriger macht.
Ailuros
2015-03-24, 06:27:49
Du betrachtest nur die Logikeinheit. Aber betrachte mal den Rattenschwanz und auch das Maul welches die Ratte füttert. Ich weiß dass es defintiv nicht trivial ist dedizierte FP64-Units zu füttern, anzubinden und zu implementieren. Also kann man - das war und bleibt meine Kernaussage - nicht mal eben aus einfacher Genauigkeit doppelte machen. :wink:
Aber interessant dass dann im Detail auch mal so zu erfahren was dafür nötig ist.
AMD hat ja keine ded. FP64-Units sondern löst dass über zwei FP32 oder hab ich das falsch verstanden? Könnte dass mal wer genauer beschreiben? Halbiert sich dann auch der Takt (nicht im physikalischen Sinne)?
Du hast es schon richtig verstanden 2*FP32 = 1*FP64 bei AMD. Wenn man sieht dass der andere offensichtlich wesentliches verpasst hilft manchmal die Logik des anderen einfach auf den Kopf zu stellen: wenn FP64 so billig waere wie er sich vorstellt wieso zum Teufel haben wir nicht heute schon NUR reine FP64 ALUs? Kann es sein dass es rein zufaellig zu teuer ist in hw? Wieso zum Henker ist es dann teuer im einen Fall und in der anderen Seifenblase sieht es so schoen "billig" aus? *plop* :P
Ailuros: Wie leitet man eigentlich aus Packdichte (Transistoren pro mm²) die gate-density ab? Durch drei Teilen? Mir wurde eine hochinteressante Folie zu 14nm gezeigt wo viele Daten drin waren. :naughty:
Ich hab das muerbe Gefuehl dass Packdichte und gate-density ein und dasselbe sind. Da ich aber mit dem Zeug bei weitem nicht so gut informiert bin, frag Gipsel oder jemand anderen der wirklich beim Thema durchblickt.
Hübie
2015-03-24, 07:26:58
Dann komme ich auf 15,2 Mio pro mm² @28nm max. Dichte. Hä? Und 26,2 für 20nm. Klingt ein wenig zuviel für meinen Geschmack. Das sind aber wohl sehr theoretische Zahlen.
GM200 hat eine ca 2% höhere Packdichte als GK110 (8 Mrd. @625 vs 7,1Mrd. @561mm²). Da liegt AMD ja deutlich drüber. Hatte glaub ich mal 13,9 für Hawaii errechnet.
Skysnake
2015-03-24, 07:28:36
Es sagt doch keiner, dass du mit reinen SP-Units nichts sparen kannst. Nur wenn du SP und DP brauchst, kannste relativ einfach aus den DP Units SP Units machen.
Wenn man sich DP ganz sparen kann, ist das natürlich am effizientesten. Da gehe ich natürlich davon aus, das ich mindestens 1:4 DP:SP habe, eher sogar 1:2. Wenn ich wie bei Maxwell aber nur 1:32 habe, dann kannste natürlich auch dedizierte DP Units bauen....
Wandle doch bitte nicht die Fragestellung zur Antwort ab.. Unterschiedliche Fragestellungen haben natürlich unterschiedliche Antwort :P
Ailuros
2015-03-24, 08:50:09
Dann komme ich auf 15,2 Mio pro mm² @28nm max. Dichte. Hä? Und 26,2 für 20nm. Klingt ein wenig zuviel für meinen Geschmack. Das sind aber wohl sehr theoretische Zahlen.
GM200 hat eine ca 2% höhere Packdichte als GK110 (8 Mrd. @625 vs 7,1Mrd. @561mm²). Da liegt AMD ja deutlich drüber. Hatte glaub ich mal 13,9 für Hawaii errechnet.
GK110: 12.89Mio/mm2@28HP
GM200: 13.48Mio/mm2@28HP
Hawaii: 14.16Mio/mm2@28HP
Apple A8X: 23.05Mio/mm2@20SoC
Apple A8: 21.91Mio/mm2@20SoC
und bevor jetzt jemand schlechter Vergleich schreit....ja 20SoC wurde nicht fuer GPU chips benutzt, aber GM206 hat einen Furz weniger Transistoren als A8X.
Es sagt doch keiner, dass du mit reinen SP-Units nichts sparen kannst. Nur wenn du SP und DP brauchst, kannste relativ einfach aus den DP Units SP Units machen.
Es ist einfacher dedizierte FP64-only SPs einzubauen obwohl es etwas mehr die area kostet.
Wenn man sich DP ganz sparen kann, ist das natürlich am effizientesten. Da gehe ich natürlich davon aus, das ich mindestens 1:4 DP:SP habe, eher sogar 1:2. Wenn ich wie bei Maxwell aber nur 1:32 habe, dann kannste natürlich auch dedizierte DP Units bauen....
Wandle doch bitte nicht die Fragestellung zur Antwort ab.. Unterschiedliche Fragestellungen haben natürlich unterschiedliche Antwort :P
Nochmal bis Du es verdaust: nach mehreren erfahrenen hw engineers von NV und anderen IHVs kosten dedizierte FP64 etwas mehr in hw, verbrauchen aber weniger Strom. Vom Punkt wo Du eine Lektuere verfolgt hast bis zum Punkt wo Leute schon seit etlichen Jahren komplizierte hw entwickeln gibt es schon einige Lichtjahre an Unterschied. Die Analogie ist scheissegal im gegebenen Fall; GM200 war einfach zu stark am Rand von 28nm um ueberhaupt daran zu denken. Bei jeglichem kleineren Prozess der fuer heute fuer GPU chips benutzen wuerde ist Dein Gelaber oben der uebliche engstirnige Bullshit. Unter 16FF waere ein theoretischer GM200 wie er heute ist unter 400mm2 gross und mit 64 FP64 SPs/SMM wohl auch nicht sehenswert groesser als ein heutiger Hawaii@28nm, wenn ueberhaupt.
AnarchX
2015-03-24, 08:51:57
Gibt es den Schätzungen zum Kostenunterschied 28HP vs 20SOC?
Ailuros
2015-03-24, 09:02:35
Gibt es den Schätzungen zum Kostenunterschied 28HP vs 20SOC?
Es war mal ganz grob $4.5k vs. $6k pro wafer, aber ob das heute immer noch gilt keine Ahnung. Das Problem bei 20SoC ist/war dass es nicht so viel Strom sparen laesst wie man erwarten wuerde.
Skysnake
2015-03-24, 09:47:14
Es ist einfacher dedizierte FP64-only SPs einzubauen obwohl es etwas mehr die area kostet.
Klar ist es einfacher, aber es kostet ingesamt eben mehr Fläche, und Fläche ist nichts, mit dem man einfach um sich werfen kann..
Nochmal bis Du es verdaust: nach mehreren erfahrenen hw engineers von NV und anderen IHVs kosten dedizierte FP64 etwas mehr in hw, verbrauchen aber weniger Strom. Vom Punkt wo Du eine Lektuere verfolgt hast bis zum Punkt wo Leute schon seit etlichen Jahren komplizierte hw entwickeln gibt es schon einige Lichtjahre an Unterschied. Die Analogie ist scheissegal im gegebenen Fall; GM200 war einfach zu stark am Rand von 28nm um ueberhaupt daran zu denken. Bei jeglichem kleineren Prozess der fuer heute fuer GPU chips benutzen wuerde ist Dein Gelaber oben der uebliche engstirnige Bullshit. Unter 16FF waere ein theoretischer GM200 wie er heute ist unter 400mm2 gross und mit 64 FP64 SPs/SMM wohl auch nicht sehenswert groesser als ein heutiger Hawaii@28nm, wenn ueberhaupt.
Und warum ist GM200 dann so ein DP-Grüppel?
Weil Sie eben NICHT in ner Bubble leben... Man kann nicht alles haben. Was bringt es mir bitte, wenn ich etwas Leistung spare, dafür aber eh in einem Anwendungsbereich praktisch komplett unbrauchbar werde? Da könnte man es fast schon ganz weglassen...
Für alles abseits von DP ist es ja schön und gut, aber damit holste heute halt auch keinen mehr abseits vom Gameing hinterm Ofen vor. Fakt ist, GM200 ist praktishc unbrauchbar für HPC. Das ist der Kompromiss, den man eingehen musste, damit man nicht komplett auf der Stelle tritt. Daran gibt es nichts zu diskutieren. Das ist eben GENAU das was ich meine. Du änderst einfach die Randbedingungen ab. Klar das man dann zu unterschiedlichen Ergebnissen kommt. :P
EDIT:
Btw. es gibt im Prinzip ein paar ganz einfache Fragen, die du mir dann ja Problemlos beantworten kannst, wenn das alles so klar ist.
1. Warum macht das außer nVidia niemand sonst?
2. Warum hat nVidia nur so eine beschissene DP:SP Ratio, wenn das so toll ist, obwohl die Konkurrenz unter gleichen Voraussetzungen viel mehr schafft?
3. Warum nutzt nVidia für FP16 dann nicht auch dedizierte FP-Units, wenn das doch sooo toll ist?
4. Warum OMFG will nVidia in Zukunft wieder Multi-Precision FP Units verwenden, wenn die dedizierten DP-Units doch so toll sind?
Dural
2015-03-24, 10:27:52
GM200 ist wohl einfach zu gross für jegliche DP Ansätze, egal wie man es macht.
Und überhaupt, Fiji soll ja auch nicht so der DP Hammer sein und jetzt?
Sunrise
2015-03-24, 10:39:30
Und warum ist GM200 dann so ein DP-Grüppel?
Weil Sie eben NICHT in ner Bubble leben... Man kann nicht alles haben. Was bringt es mir bitte, wenn ich etwas Leistung spare, dafür aber eh in einem Anwendungsbereich praktisch komplett unbrauchbar werde? Da könnte man es fast schon ganz weglassen...
NV hat doch praktisch DP ganz weggelassen, denn das was in GM1xx/GM2xx davon noch drin ist, kannst du vergessen, weil nichtmehr relevant.
Deine ganzen Fragen (1-3) können mit Fläche (limitiert) und generell Effizienz (wenn schon flächenlimitiert, warum dann die Effizienz schlechter machen?) begründet werden. Die DP-Leistung wäre sowieso nur für GM204 und GM200 interessant, und GM204 ist jetzt schon recht groß geraten (das Ding ist fast so groß wie Hawaii!) und bei GM200 brauchen wir garnicht erst anfangen. Theoretisch hätten sie wohl auch nur GM200 bringen können und dann die Salvage nach unten verkaufen, nur ging die Rechnung wohl mit beiden besser auf, da GM204 eben nochmal ein gutes Stückchen kleiner ist und er kam auch deutlich früher, war insgesamt also billiger und so hält man die Marktanteile stetig oben. Für Pascal hat man keines dieser Probleme mehr.
4. Warum OMFG will nVidia in Zukunft wieder Multi-Precision FP Units verwenden, wenn die dedizierten DP-Units doch so toll sind?
Weil sie mit Multi-Precision FP flexibler sind, diese Flexibilität aber zusätzlich an Fläche (und evtl. Strom -> schlechtere Effizienz) kostet und sie das alles bei 16FF/16FF+ perfekt abfangen können. Mal davon ab, dass du aktuell bei extrem hohem Durchsatz zusätzlich stark bandbreitenlimitiert wirst und auch dieses Problem wird mit Pascal angegangen (gelöst).
M4xw0lf
2015-03-24, 11:00:27
Und überhaupt, Fiji soll ja auch nicht so der DP Hammer sein und jetzt?
Darüber weiß man noch nichts. Besser als GM200 dürfte es jedenfalls werden :freak:
Dimitri Mayakovsky
2015-03-24, 11:01:49
Weil sie mit Multi-Precision FP flexibler sind, diese Flexibilität aber zusätzlich an Fläche (und evtl. Strom -> schlechtere Effizienz) kostet und sie das alles bei 16FF/16FF+ perfekt abfangen können.
Ist exakt so wie damals der Umstieg von ff Shadern hin zu programmable.
Hübie
2015-03-24, 11:05:51
In den USA werden alle 5 Jahre Regierungsgelder für solche HPC Cluster bereitgestellt. nVidia weiß das und entsprechend passen die den Zyklus an. Der Markt is vergleichsweise jung, dass darf man nicht vergessen.
Thunder99
2015-03-24, 12:28:46
Was darf man noch für neue GPU´s oder Grafikkarten mit den bekannten GPUßs erwarten von Maxwell? Es sind ja schon GM107, GM108, GM206, GM204 und GM200 auf dem Markt...
Grestorn
2015-03-24, 12:43:34
Eine Mainstreamkarte auf Basis vom GM200 fehlt auf jeden Fall noch.
fondness
2015-03-24, 13:06:31
Darüber weiß man noch nichts. Besser als GM200 dürfte es jedenfalls werden :freak:
Stimmt, AMD kann gar nicht unter 1/16 DP gehen wenn man es nicht ganz weg lassen will.
Ailuros
2015-03-24, 17:43:01
Klar ist es einfacher, aber es kostet ingesamt eben mehr Fläche, und Fläche ist nichts, mit dem man einfach um sich werfen kann..
Die Flaeche die es kostet ist nicht der Rede wert wenn es keine Prozess-grenzen gibt wie bei 28nm.
Und warum ist GM200 dann so ein DP-Grüppel?
Weil sie vielleicht mit nur 50% mehr Einheiten ueber dem Performance-chip schon ueber 600mm2 lagen vielleicht?
Weil Sie eben NICHT in ner Bubble leben... Man kann nicht alles haben. Was bringt es mir bitte, wenn ich etwas Leistung spare, dafür aber eh in einem Anwendungsbereich praktisch komplett unbrauchbar werde? Da könnte man es fast schon ganz weglassen...
Die Mehrzahl von NV Kunden brauchen kein DP; design-Entscheidungen zu treffen heisst unter anderem auch opfern zu koennen wenn man zu solchen Engpaessen kommt.
Für alles abseits von DP ist es ja schön und gut, aber damit holste heute halt auch keinen mehr abseits vom Gameing hinterm Ofen vor.
Wenn NVIDIA oder AMD die R&D Kosten fuer HPC only GPUs decken koennten haetten sie schon seit langem dedizierte GPUs nur dafuer entwickelt. Da es aber nichtmal annaehernd der Fall ist gewinnt die Mehrheit.
Fakt ist, GM200 ist praktishc unbrauchbar für HPC.
Nichts Neues; siehe oben. Gaming ist NV's Kerngeschaeft und nicht der HPC Bums.
EDIT:
Btw. es gibt im Prinzip ein paar ganz einfache Fragen, die du mir dann ja Problemlos beantworten kannst, wenn das alles so klar ist.
1. Warum macht das außer nVidia niemand sonst?
Es macht IMG sowohl fuer FP16 als auch fuer FP64; in verdammt fetten Volumen. Fuer viele von Euch ein Markt der bedeutungslos ist. So bedeutungslos dass alle verzweifelt doch noch reinwollen um den Zug der eigentlichen Zukunft doch nicht zu verpassen.
2. Warum hat nVidia nur so eine beschissene DP:SP Ratio, wenn das so toll ist, obwohl die Konkurrenz unter gleichen Voraussetzungen viel mehr schafft?
Es hat kein Konkurrent einen >600mm2 die. Sonst ist momentan GM204 um einiges effizienter als Hawaii bei weniger die area, hoeherem featureset und niedrigerem Stromverbrauch.
3. Warum nutzt nVidia für FP16 dann nicht auch dedizierte FP-Units, wenn das doch sooo toll ist?
Wer weiss was sie in der Zukunft vorhaben? Wird es dann aber immer noch Sinn machen oder wird es durch die Entwicklung wieder redundant sein? Ich bin kein Profi um solche Fragen beantworten zu koennen, Du aber auch nicht.
Zum Zeitpunkt wo es klar wurde was ihre ULP Konkurrenz angestellt hat war es zu spaet wohl sogar fuer Pascal.
4. Warum OMFG will nVidia in Zukunft wieder Multi-Precision FP Units verwenden, wenn die dedizierten DP-Units doch so toll sind?
Siehe oben. Sonst erzaehl mal da Du anscheinend so viel "weisst" wie Pascal und co das Thema FP64 genau loesen denn ich hab bis jetzt nichts gehoert oder gelesen dass darauf deutet dass es KEINE dedizierte FP64 Einheiten haben wird. Ich hab noch keine Ahnung, aber unter normalen Umstaenden forscht ein jegliches erfahrenes engineering team so lange nach bis sie die bestmoegliche Mischung haben fuer das was sie fuer jeglichen zukuenftigen Zeitpunkt einschaetzen. Und ja natuerlich kann sich vieles von Generation zu Generation aendern.
Dimitri Mayakovsky
2015-03-24, 17:50:52
Die Mehrzahl von NV Kunden brauchen kein DP; design-Entscheidungen zu treffen heisst unter anderem auch opfern zu koennen wenn man zu solchen Engpaessen kommt.
[...]
Wenn NVIDIA oder AMD die R&D Kosten fuer HPC only GPUs decken koennten haetten sie schon seit langem dedizierte GPUs nur dafuer entwickelt. Da es aber nichtmal annaehernd der Fall ist gewinnt die Mehrheit.
Eventuell haben wir mit Maxwell einen neuen Meilenstein bei den GPUs erreicht.
Aktuell gibt es zwei TopDog-Chips bei NV: GK110 und GM200.
Ersterer ein Hybrid für sowohl Grafik als auch GPGPU, GM200 ein reiner Gamingchip.
Beides auch unterschiedliche Architekturen, Kepler als Gaming+GPGPU, Maxwell als reines Gaming.
Mit Pascal wird es definitiv wieder einen zusätzlichen Fokus auf GPGPU geben. Jenachdem wie sich die Fertigungsverfahren entwickeln, werden wir vllt wieder im gleichen Fertigungsprozess nach Pascal einen reinen Gaming-Chip sehen.
Als endgültiges Ziel steht sicherlich irgendwo ein reiner GPGPU-Chip und einer reiner Grafik-Chip.
Ailuros
2015-03-24, 17:57:02
Stimmt zwar schon aber NV hat auch ziemlich viel von GK110 GeForce SKUs verdient; gut die GK210 Entwicklung war offensichtlich nicht umsonst aber so umstaendlich war das Ding nun auch wieder nicht dass sie die Kosten dafuer irgendwo geschmerzt haben.
Es wird nur zu dedizierten HPC chips kommen wenn es keinen anderen Ausweg mehr gibt. Die Antwort ist dann eventuell mGPU wie bei der GK210, welches aber dann auch die desktop GPUs beinflussen koennte.
Knuddelbearli
2015-03-24, 19:21:49
Es war mal ganz grob $4.5k vs. $6k pro wafer, aber ob das heute immer noch gilt keine Ahnung. Das Problem bei 20SoC ist/war dass es nicht so viel Strom sparen laesst wie man erwarten wuerde.
Naja das ja bei GPUS nicht so wichtig dank fast! unendlicher Parallelisierbarkeit oder? Wenn man dafür mehr Transistoren pro mm² schafft kann man ja einfach minimal niedriger Takten da man eh viel mehr Shader hat.
AffenJack
2015-03-24, 19:46:56
@Ailuros
Für dedizierte HPC Chips stimmt das natürlich, aber die Frage ist ob mit kleinerem Aufwand nicht immer mehr leicht veränderte Chips wie GK210 und vielleicht auch ähnliche Chips mit vers. DP:SP Verhältnissen nicht möglich wären.
Die Umsatzzahlen für HPC dümpelten jahrelang auf niedrigstem Niveau rum, aber mittlerweile ist man bei 275 Mio$/Jahr angekommen bei immernoch guter jährlicher Wachstumsrate. Bei ähnlichen Bereichen baut einem AMD schon nen Customchip, der natürlich deutlich unkomplizierter ist, aber das muss trotzdem erstmal gemacht werden.
Godmode
2015-03-24, 20:01:39
Eventuell haben wir mit Maxwell einen neuen Meilenstein bei den GPUs erreicht.
Aktuell gibt es zwei TopDog-Chips bei NV: GK110 und GM200.
Ersterer ein Hybrid für sowohl Grafik als auch GPGPU, GM200 ein reiner Gamingchip.
Beides auch unterschiedliche Architekturen, Kepler als Gaming+GPGPU, Maxwell als reines Gaming.
Mit Pascal wird es definitiv wieder einen zusätzlichen Fokus auf GPGPU geben. Jenachdem wie sich die Fertigungsverfahren entwickeln, werden wir vllt wieder im gleichen Fertigungsprozess nach Pascal einen reinen Gaming-Chip sehen.
Als endgültiges Ziel steht sicherlich irgendwo ein reiner GPGPU-Chip und einer reiner Grafik-Chip.
Ein richtiges GPGPU Monster erwarte ich erst mit Volta, da dieser in den Summit und Sierra Nodes vom LLNL und ORNL zum Einsatz kommt.
Ailuros
2015-03-24, 20:19:08
@Ailuros
Für dedizierte HPC Chips stimmt das natürlich, aber die Frage ist ob mit kleinerem Aufwand nicht immer mehr leicht veränderte Chips wie GK210 und vielleicht auch ähnliche Chips mit vers. DP:SP Verhältnissen nicht möglich wären.
Ich bin schon seit langem der Ansicht dass irgendwann die moegliche Prozess-Sackgasse fuer HPC ueber mGPU geloest werden kann. Stell Dir vor man haette z.B. NICHT GM200 entwickelt und stattdessen zwei GM204 Varianten; eine mit 4 FP64 SPs/SMMs fuer desktop und eine mit 64 SPs/SMM fuer HPC. Ueber 500mm2 mit moeglicher Skalierungs-Logik waere das zweite nicht gewesen und man haette insgesamt 2048 FP64 SPs von dem Gespann.
GK210 duerfte zwar relativ billig sein aber die Effizienz fuer so viele Transistoren bzw. die area ueber 2 chips ist miserabel im Vergleich zum GK110b.
Die Umsatzzahlen für HPC dümpelten jahrelang auf niedrigstem Niveau rum, aber mittlerweile ist man bei 275 Mio$/Jahr angekommen bei immernoch guter jährlicher Wachstumsrate. Bei ähnlichen Bereichen baut einem AMD schon nen Customchip, der natürlich deutlich unkomplizierter ist, aber das muss trotzdem erstmal gemacht werden.
Selbst dann bezweifle ich dass IHVs zwei fundamental verschiedene chips fuer desktop und HPC entwickeln wuerden. Ich lass mich ja gerne eines besseren belehren aber der obrige Vorschlag geht eben relativ leichter wenn man gerade auf dedizierte FP64 Einheiten setzt.
Sunrise
2015-03-24, 20:27:21
Das ist doch nach meinem Verständnis genau das, was NV möchte. Daher kommt ja auch HBM (lokale Bandbreite) und NVLink (GPU übergreifende, bzw. Link-Bandbreite zur CPU), und genau hier setzt vor allem Volta an, der in der zweiten Generation voll auf HPC ausgerichtet wird.
Theoretisch könnten sie zukünftig immer einen Gaming-Chip weiterhin produzieren, weil die Schere mit brutaler DP-Leistung und brutaler SP-Leistung wird wohl auch immer weiter auseinandergehen (kein Mensch braucht beim Gaming aktuell DP), wenn man keine Architektur hat, die beides zur gleichen Zeit schnell umsetzen kann. Der Multi-Precision-Ansatz wird aber wohl weiter verfolgt werden, wenn man dann mit einer fetteren Einheit auch mehrfach niedrigere Präzision ausführen kann.
Wenn NV den Flächenbedarf dann durch kleinere und schnellere Prozesse abfangen kann (es gibt irgendwo immer einen Schwellwert, wo eine bestimmte Konfiguration sinnvoll ist), dann steht ihnen das in Zukunft sowieso frei. Dann ist beides möglich, wobei das eher fraglich ist.
Bei 28nm und min. Maxwell-Basis hat man aber jetzt eine verdammt effiziente Geschichte, die für mehrere Generationen ausreichen könnte, man muss nur weiter verfeinern. Ist wohl ähnlich wie bei GCN.
Ailuros
2015-03-24, 20:31:37
Nun ja zumindest bei Pascal sieht es NOCH nicht danach aus. Ob es jetzt mit Volta in die Startloecher geht noch keine Ahnung.
AffenJack
2015-03-24, 22:20:14
Ich bin schon seit langem der Ansicht dass irgendwann die moegliche Prozess-Sackgasse fuer HPC ueber mGPU geloest werden kann. Stell Dir vor man haette z.B. NICHT GM200 entwickelt und stattdessen zwei GM204 Varianten; eine mit 4 FP64 SPs/SMMs fuer desktop und eine mit 64 SPs/SMM fuer HPC. Ueber 500mm2 mit moeglicher Skalierungs-Logik waere das zweite nicht gewesen und man haette insgesamt 2048 FP64 SPs von dem Gespann.
Bei der Generation noch zu früh, weil der HPC Part auch Bandbreite braucht. Aber bei Pascal könnte ich mir so eine Konfiguration durchaus vorstellen mit zwei ähnlichen Chips.
Selbst dann bezweifle ich dass IHVs zwei fundamental verschiedene chips fuer desktop und HPC entwickeln wuerden. Ich lass mich ja gerne eines besseren belehren aber der obrige Vorschlag geht eben relativ leichter wenn man gerade auf dedizierte FP64 Einheiten setzt.
Kommt auch auf die Kosten im Endeffekt an. Ich hab ehrlich keine Ahnung wieviel son Austausch der Shader bei sonem großen Chip an R&D kosten würde.
Ailuros
2015-03-25, 16:10:02
Es wird mit Sicherheit nicht so "einfach" sein als nur die FP64 Einheiten dazuzustecken, aber es ist auch wiederrum nicht eine komplizierte Neu-entwicklung. Ich bezweifle uebrigens dass Pascal irgend etwas damit zu tun hat, aber wir werden sehen.
Dural
2015-03-25, 16:14:46
NV hat extra einen GK210 für eine "Handvoll" Karten aufgelegt.
Früher oder später werden wir immer zwei Chips sehen, alles andere würde mich überraschen. Gerade im Gaming Bereich ist jeder Transistor der für DP drauf geht doch reine Verschwendung.
Ailuros
2015-03-25, 16:52:50
NV hat extra einen GK210 für eine "Handvoll" Karten aufgelegt.
Früher oder später werden wir immer zwei Chips sehen, alles andere würde mich überraschen. Gerade im Gaming Bereich ist jeder Transistor der für DP drauf geht doch reine Verschwendung.
Am Offensichtlichen kommt man wohl bei Dir nicht vorbei; GK210 ist eine relativ winzige Weiterentwicklung eines GK110, fuer die ueber 8000 Euro die eine K80 kostet.
Godmode
2015-03-26, 17:32:05
Die 980 Ti mit 6GB und 3072 SPs kündigt sich an:
http://wccftech.com/nvidia-geforce-gtx-980-ti-coming-summer/
mironicus
2015-03-26, 17:42:10
Das ist dann wohl die bessere Titan X (10% höherer Takt und Custom Designs) und der Konkurrent für Fiji. :D
AffenJack
2015-03-26, 17:45:05
@Ailuros
joa, vielleicht ist Pascal da auch noch zu früh dran. Aber desto mehr Tesla wächst, desto wahrscheinlicher wirds. Aber für Pascal hamwa eh nen anderen Thread.
@Godmode
Die können viel schreiben, wenn der Tag lang ist. Gleiche Shaderanzahl und dann noch höhere Taktraten? Damit hätte man jeden TITAN Käufer erst recht richtig verarscht. Mit der DP-Rate konnte man das vorher wenigstens noch irgendwie begründen, aber so? Rofl.
SamLombardo
2015-03-26, 17:47:19
Für wie realistisch haltet ihr diese Infos?
mironicus
2015-03-26, 17:50:19
@Godmode
Die können viel schreiben, wenn der Tag lang ist. Gleiche Shaderanzahl und dann noch höhere Taktraten? Damit hätte man jeden TITAN Käufer erst recht richtig verarscht.
Die Titan IST eine Verarscherkarte. Bessere Versionen kommen immer später. Ich sehe schon Preise um die 600-650 Euro im Konkurrenzkampf mit AMD... ;D
Godmode
2015-03-26, 17:50:28
Das ist dann wohl die bessere Titan X (10% höherer Takt und Custom Designs) und der Konkurrent für Fiji. :D
Und noch ein bessere P/L-Verhältnis. 12 GB lassen sie sich fürstlich bezahlen. Mir ist es egal, da ich 12 GB Speicher brauche für SLI und dank Wakü gibts wohl beim mir 1500 MHz. Titan X Black mit mehr SPs kann auch nicht mehr kommen, maximal mit besserem Speicher.
Ailuros
2015-03-26, 18:08:25
Die 980 Ti mit 6GB und 3072 SPs kündigt sich an:
http://wccftech.com/nvidia-geforce-gtx-980-ti-coming-summer/
Ich kann bei bestem Willen nicht verstehen warum NV so bloed waere und das Ding "980Ti" nennen wuerde. Mit GTX990 fuer den salvage GM200 und GTX990Ti fuer den vollen GM200 hat man ausgesorgt.
Godmode
2015-03-26, 18:12:49
Namen interessieren mich nicht, 980 Ti war schneller zu schreiben als GM200 Salvage.
Ailuros
2015-03-26, 18:14:09
Namen interessieren mich nicht, 980 Ti war schneller zu schreiben als GM200 Salvage.
Dich nicht, aber der Teufel liegt eben meistens in den Einzelheiten.
AnarchX
2015-03-26, 18:27:31
3072SPs aber nur 2MiB L2 Cache? :udevil:
Sofern das stimmt, ist Fiji mehr als ernsthafte Konkurrenz
Godmode
2015-03-26, 18:29:39
3072SPs aber nur 2MiB L2 Cache? :udevil:
Sofern das stimmt, ist Fiji mehr als ernsthafte Konkurrenz
Würde dass dann ein 256 Bit SI bedingen?
AnarchX
2015-03-26, 18:41:16
4GiB @ 256-Bit mit 4x512MiB Caches, die möglicherweise nicht gleichzeitig angesprochen werden können - sofern GM2xx so skalierbar ist. ;D
Aber wahrscheinlicher wird die Karte schon ihre vollen 384-Bit haben. 3072SPs + 10% Takt sind aber dann schon etwas kurios, wenn die Karte wirklich 980 Ti heißen soll. Da waren die bei Chiphell gezeigte 21SMM (mit eventuell 980-Taktraten) doch wahrscheinlicher, da hat man trotzdem +30%.
Ailuros
2015-03-26, 18:46:30
Uhmmm ja wccftech - trash tabloid von der "feinsten" Sorte.....und was soll NV mit den GM200 salvage chips machen?
Es wuerde mich ja beindrucken wenn videocardz uns von der Abschreiberei verschonen wuerde aber ist wohl nur Wunschdenken: http://videocardz.com/55299/nvidia-geforce-gtx-980-ti-to-be-released-after-summer
AnarchX
2015-03-26, 18:49:48
Die Originalquelle sind die Schweden: http://www.sweclockers.com/nyhet/20265-geforce-gtx-980-ti-anlander-efter-sommaren
Ailuros
2015-03-26, 19:17:40
Beide erwaehnen ja sweoverclockers als Quelle.
StefanV
2015-03-26, 19:29:52
4GiB @ 256-Bit mit 4x512MiB Caches,
Solche 'Caches' möcht ich auch. Wobei das dann auch keine Caches mehr wären ;)
Ab davon:
Man könnt ja den quatsch der GTX970 widerholen und 384bit mit 2MiB L2 Cache realisieren...
Sunrise
2015-03-26, 20:20:38
3072SPs aber nur 2MiB L2 Cache? :udevil:
Sofern das stimmt, ist Fiji mehr als ernsthafte Konkurrenz
Nicht nur das, schau dir mal den vermuteten MSRP an.
Also ich bin zuversichtlich, dass es stimmen könnte. Die ganz große Fiji zu schlagen halte ich nicht für möglich, ebenso werden die Fiji-Salvage auch perfekt zwischen GM200 und GM204 passen. Der kleinste Fiji-Salvage ist locker schneller als GM204 und hat min. identisch soviel HBM-Speicher. Also versucht man AMD bis Pascal einfach preislich zu unterbieten, sodass AMD die Führung etwas zunichte gemacht wird.
Allerdings wäre das dann auch absolut der Beweis, dass NV mit GM200 wirklich traumhafte Yields hat, da weiß man dann eben, warum NV vor allem gutes Marketing betreiben kann. Und ich hätte meine Bestätigung, dass Titan X bei 799-899 EUR realistisch bepreist ist. Aber auch nur, weil man derzeit noch konkurrenzlos ist und 12GB VRAM verbaut. Mehr ist es schlichtweg nicht.
Die 980 wird man dann zusammen mit der 970 wohl auch im Preis reduzieren, sodass das Lineup wieder so aussieht, wie es eigentlich mit Konkurrenz auch aussehen sollte. Nämlich maximal 500-600 EUR für ordentliches High-End.
Hübie
2015-03-26, 21:15:30
3072SPs aber nur 2MiB L2 Cache? :udevil:
Sofern das stimmt, ist Fiji mehr als ernsthafte Konkurrenz
Wie bitte? Wo hast n das wieder herfantasiert?
Dural
2015-03-26, 21:50:25
wie ihr immer solche möchte gern infos ernst nehmt.
ich wette die angaben sind rein erfunden und ausgedacht.
Hübie
2015-03-27, 03:44:22
Falls du mich meinst: Ich nehme weder dich noch erfundene Infos ernst.
hasebaer
2015-03-27, 06:07:21
Der Chip wird so kommen wie sweclockers.com das schreibt. Die Werte für Titan X standen sicherlich schon lange fest.
Jetzt hat AMD laut den Leaks mit 2*4GB HBM RAM auf Titan X reagiert und Nvidia steuert jetzt mit dieser Karte in Sachen Speed nach.
Allerdings wenn sie so schnell (+10% stock) ist, dann kann ich mir vorstellen, dass man das Ding GTX 980 Ultra nennt und dann noch einen 21SMM Salvage als GTX 980Ti zwischenschiebt.
GTX 980 Ultra 6G für 799USD
GTX 980 Ti 6G für 649USD
Gibt doch genug Raum in der Preisgestaltung. :usad:
Loeschzwerg
2015-03-27, 07:06:46
Dann doch eher ein GTX 990 Brand bevor 980 TI und Ultra ;)
Hübie
2015-03-27, 07:46:49
[x] Vote for ultra deluxe. Ich Blicke nVidias Zahlenspielchen eh nicht. Man lässt einfach 300 & 800 weg. Oh halt. Man beginnt auch einfach bei 200. Bäh. Nichts für Monk!
Ein Salvage (ja bei 8 Mrd Transistoren geht auch mal was schief) wird jedenfalls keine 980 *preislich* ersetzen sondern sich so wie 770 <-> 780 verhalten. Ob wirklich erst so spät (September) bezweifel ich jedoch erst mal.
Loeschzwerg
2015-03-27, 07:56:48
[x] Vote for ultra deluxe. Ich Blicke nVidias Zahlenspielchen eh nicht. Man lässt einfach 300 & 800 weg. Oh halt. Man beginnt auch einfach bei 200. Bäh. Nichts für Monk!
Ein Salvage (ja bei 8 Mrd Transistoren geht auch mal was schief) wird jedenfalls keine 980 *preislich* ersetzen sondern sich so wie 770 <-> 780 verhalten. Ob wirklich erst so spät (September) bezweifel ich jedoch erst mal.
100, 300 und 800 gibt es jeweils als OEM Serie ;D
Hübie
2015-03-27, 07:59:45
Nich wirklich... 300 & 800 afaik nur Notebooks. Und das die Namensgebung scheiße ist willst du nicht ernsthaft abstreiten, gelle? :D
Loeschzwerg
2015-03-27, 08:06:26
Nö, deswegen ja das komisch drehende Gesicht am Ende meines Beitrags :D Das ist halt alles Marketing in Reinform.
Wenn die im Herbst kommen, heißt das Teil sowieso 1080Ti und die Savage-Variante 1080. Der GM204 wird dann wie gewohnt zu 1070. Vergesst doch nicht immer das Marketing, ein neuer Name verkauft sich einfach besser.
AnarchX
2015-03-27, 09:14:10
Wie bitte? Wo hast n das wieder herfantasiert?
Dir ist aber schon bewusst, wie die ugly-smiles den Kontext definieren? ;)
Und wie Ailuros sagte, liegt der Teufel vielleicht im Detail...
Aber natürlich sollte es wohl doch eher ein voller Die sein, wenn Fiji so stark ist, wie es propagiert wird. NV hat da vielleicht auch schon Samples. So ein 6GiB Titan X OC ist wohl auch eine Lösung, die man jetzt erst kurzfristig in die Produktion schicken kann. EVGA und Inno3D haben ja auch schon erst AiO-WaKü-Karten im Angebot.
Fragt sich natürlich, was mit den Salvages passiert -aber die kann man vielleicht auch bis Ende '15/Anfang '16 aufheben und dann im Stile der 560-448 einen Sonder-Sale abhalten.
Dural
2015-03-27, 09:17:52
@Ailuros
Was ist eigentlich mit deinen sicheren 560mm2 inkl. DP Einheiten und höheren Packdichte beim GM200 passiert? Hat sich NV kurzfristig umentschiden und vergessen dich zu Informieren?
M4xw0lf
2015-03-27, 09:27:12
@Ailuros
Was ist eigentlich mit deinen sicheren 560mm2 inkl. DP Einheiten und höheren Packdichte beim GM200 passiert? Hat sich NV kurzfristig umentschiden und vergessen dich zu Informieren?
Er hat schon vor vielen Wochen durchblicken lassen, dass GM200 keine hohe DP-Rate kann. Was willst du also genau?
Ailuros
2015-03-27, 09:41:56
Er hat schon vor vielen Wochen durchblicken lassen, dass GM200 keine hohe DP-Rate kann. Was willst du also genau?
Eine Gerechtfertigung fuer seine eigenen Peinlichkeiten. Ausserhalb der die area und dem Transistoren-count gab es auch nichts dass NICHT stimmte fuer GM200. Die Datenbank steht offen fuer diejenigen die Lust haben dafuer Zeit zu verschwenden.
Hübie
2015-03-27, 13:14:50
Dir ist aber schon bewusst, wie die ugly-smiles den Kontext definieren? ;)
Und wie Ailuros sagte, liegt der Teufel vielleicht im Detail...
Aber natürlich sollte es wohl doch eher ein voller Die sein, wenn Fiji so stark ist, wie es propagiert wird. NV hat da vielleicht auch schon Samples. So ein 6GiB Titan X OC ist wohl auch eine Lösung, die man jetzt erst kurzfristig in die Produktion schicken kann. EVGA und Inno3D haben ja auch schon erst AiO-WaKü-Karten im Angebot.
Fragt sich natürlich, was mit den Salvages passiert -aber die kann man vielleicht auch bis Ende '15/Anfang '16 aufheben und dann im Stile der 560-448 einen Sonder-Sale abhalten.
Bäh. Manchmal seh ich den Wald vor lauter Bäumen nicht mehr X-D
rentex
2015-03-29, 10:40:56
Denk das Thema "Maxwell", wird mit einer "980Ti" abgehandelt sein...vielleicht unter Umständen noch eine Dual Chip Variante...ähnlich wie mit Kepler.
Locuza
2015-04-03, 15:26:34
Nvidia prescht nach vorne und wird vermutlich bald offiziell Open CL 1.2 unterstützen.
Nach rund 4 Jahren. :smile:
http://www.anandtech.com/show/9139/nvidia-posts-35005-hotfix-driver-fixes-games-adds-opencl-12-support
Maorga
2015-04-03, 16:03:41
6 GiB müssten doch auch mit einem 256 bit Speicherinterface machbar sein, da kommen dann jeweils 3x512 MB pro 64 bit Controller zum Einsatz. Wären dann 12 Chips mit insgesamt 6 GiB. Eine 980Ti die schneller und besser ist als eine Titan X nur als einziger unterschied der Speicher. Na, lassen wir uns mal überraschen.
fondness
2015-04-03, 16:16:27
Nvidia prescht nach vorne und wird vermutlich bald offiziell Open CL 1.2 unterstützen.
Nach rund 4 Jahren. :smile:
http://www.anandtech.com/show/9139/nvidia-posts-35005-hotfix-driver-fixes-games-adds-opencl-12-support
Na dann dauert es ja nur noch bis 2018 für OpenCL 2.0 Support. :)
aufkrawall
2015-04-03, 16:20:35
Hoffentlich werden sie sich das nicht leisten können, durch zunehmende Intel-Unterstützung.
fondness
2015-04-03, 16:22:44
Intel hat OpenCL 1.2 Support immerhin seit 2 Jahren. Problem für NV war wohl eher das zunehmend Software von OpenCL 1.2 profitiert. Eine aktive Unterstützung sieht aber anders aus.
6 GiB müssten doch auch mit einem 256 bit Speicherinterface machbar sein, da kommen dann jeweils 3x512 MB pro 64 bit Controller zum Einsatz. Wären dann 12 Chips mit insgesamt 6 GiB. Eine 980Ti die schneller und besser ist als eine Titan X nur als einziger unterschied der Speicher. Na, lassen wir uns mal überraschen.
Nein.
Ein Chip ist mit 32 Bit angebunden, im Clamshell-Modus mit 16 Bit. An einen 64 Bit Controller kannst du also keine 3 Speicherchips anschließen, sondern 2 oder 4.
Was möglich wäre, ist ein ähnliches Vorgehen wie bei der 660(?): 2 GiB an 128 Bit + 4 GiB an 128 Bit
Das wird sich Nvidia aber nach dem 970-Skandal kaum leisten. Macht auch sonst keinen Sinn imho.
Hübie
2015-04-03, 18:37:23
Ists eigentlich schon offiziell mit Titan Mini? Falls nicht vergesst was ich geschrieben hab X-D
hasebaer
2015-04-04, 08:05:40
Titan X Ultra mit Wakü?
http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Titan-X-mit-Wasserkuehlung-moeglich-1155462/
fondness
2015-04-04, 09:41:05
Das wäre natürlich klar eine Reaktion auf Fiji und würde auch zeigen das NV ebenfalls eine WaKü benötigt um mithalten zu können.
Ailuros
2015-04-04, 09:47:21
Das wäre natürlich klar eine Reaktion auf Fiji und würde auch zeigen das NV ebenfalls eine WaKü benötigt um mithalten zu können.
Irgendwie klingt es sinnlos dass NV an einer noch teureren Titan Variante arbeitet; eine Wasserklo-Edition macht mehr Sinn als moegliche Reaktion fuer Fiji WCE fuer "990Ti" oder wie immer das Zeug heissen wird. Wenn es dann NV schafft um einen winzigen Hauch schneller zu sein koennen sie dann auch locker mit um $100 hoeherem MSRP als Fiji WCE verkaufen :freak: Bloeder geht es gar nicht....
horn 12
2015-04-04, 09:59:34
@Ailuros könnte aber Recht behalten
Eine GTX 990TI, oder wie immer jene heißen mag könnte man gegen die R9 390X AIO stellen, bei vielleicht maximal OC und somit wird es ein Kopf an Kopf Rennen.
6GB , oder geht gar 9GB bei NV mit einer womöglichen GTX 990TI mit Wasserkühlung.
Jene könnte man somit gar im Sommerloch vorstellen und hätte durch die Wasserkühlung keine Bremse an der Karte selbst.
Hübie
2015-04-04, 11:04:56
Titan X Ultra mit Wakü?
http://www.pcgameshardware.de/Geforce-GTX-Titan-X-Grafikkarte-260203/News/Titan-X-mit-Wasserkuehlung-moeglich-1155462/
Neee. Sieht auch nicht Mini aus oder? :P
hasebaer
2015-04-04, 11:23:55
Eine Ultra war noch nie Mini.
Mini ist die einfache X fürs Volk, die Ultra kommt für den wahren Gamer Adel. :ulol:
Der Slogan steht auch schon fest: "Titan X Ultra - the true PC master race card" :umassa:
AnarchX
2015-04-04, 11:32:28
Kompakt WaKü für Titan X Vanilla und GTX 980 wurden ja schon zum Titan X Launch gezeigt. Insofern werden die Partner diesen Weg auch ohne direkte Unterstützung von NV gehen.
NV kann da sich eher dran machen, die Titan X² Ultra zu bauen: 2x GM200@1,2GHz+, 2x24GiB 7,5Gbps + 1kW Kompat-Chiller. ;D
Hübie
2015-04-04, 13:17:58
*Google lieferte das (http://www.geforce.com/whats-new/articles/nvidia-announces-new-titan-mini)*
Okay es ist also offiziell :)
Edit: Und zack seh ich das Datum X-D Bin dem voll auf den Leim gegangen. Hahahaha ;D
Disco_STFU
2015-04-20, 11:46:14
http://www.computerbase.de/2015-04/geforce-gtx-980-ti-nvidia-plant-schnellere-gtx-titan-x-offenbar-schon-fuer-mai/
gähn.... selbe wie zur Zeit mit 780ti .. langweilig.
Dawn on Titan
2015-04-20, 11:55:33
Schnell auf den Markt bringen bevor die R390 den Markt beherrscht.
Thunder99
2015-04-20, 13:23:24
Das finde ich nicht langweilig. Ergo die die 780Ti kommt der TopDog in bezahlbare und vor allem mit normalen High-End Preise auf den Markt. Schon gut möglich das sie versuchen den Launch der 390er Serie zu stören.
Ehrlich gesagt ist die 980Ti, sofern der Name stimmt, die optimale Karte für oftmals 4k wo mehr als 4GB benötigt werden :) mit Custom Kühllösungen (hoffentlich) was bei der Titan X ja nahezu untersagt ist
Palpatin
2015-04-20, 14:47:03
Ergo die die 780Ti kommt der TopDog in bezahlbare und vor allem mit normalen High-End Preise auf den Markt. Schon gut möglich das sie versuchen den Launch der 390er Serie zu stören.
Ich rechne mit ~800€ für die 980Ti. Aber lasse mich natürlich gern positiv von NV überraschen.
Disco_STFU
2015-04-20, 14:54:05
Mit 750? :freak:
Thunder99
2015-04-20, 15:31:56
699, sonst wird es lächerlich :freak:
Rampage 2
2015-04-20, 16:14:20
http://www.computerbase.de/2015-04/geforce-gtx-980-ti-nvidia-plant-schnellere-gtx-titan-x-offenbar-schon-fuer-mai/
Also scheint es wohl doch so zu kommen, wie ich es vorausgesagt habe;D
Glaubt ihr, dass NV dieses Mal endlich 8Gbps-Speicher verwenden wird? Schließlich soll der Chiptakt ja höher ausfallen...
Wie schon vermutet, wird das Ganze wohl zwischen 700 und 800€ kosten - wohl eher Letzteres, so wie man NV kennt...
R2
aufkrawall
2015-04-20, 16:32:47
699, sonst wird es lächerlich :freak:
In Anbetracht des €-Kurses und des damit schon hohen Preises für 980 Customs, würde ich von mehr ausgehen, bis AMD was bringt.
Wofür braucht man 8Gbps-Speicher? Die Titan X hat alles von der 980 x1,5, taktet aber niedriger.
[x] 8 Gbps an 320 Bit für schnelle 10 GiB :uup:
MfG,
Raff
Hübie
2015-04-20, 17:54:28
[x] Raff die Fantasien und unnützen Vorstellungen ausreden
Wozu 10 GiB an 320 Bit? :| Denk mal an den Aufbau des Chips ;) ROPs und so, weißt? Is doch Quark. 6144 MB mit 7 Gbps würde ich DEFINITIV jedem 10 Gigabyte-Gedöhns bei Maxwell vorziehen.
Rampage 2
2015-04-20, 18:08:33
In Anbetracht des €-Kurses und des damit schon hohen Preises für 980 Customs, würde ich von mehr ausgehen, bis AMD was bringt.
Wofür braucht man 8Gbps-Speicher? Die Titan X hat alles von der 980 x1,5, taktet aber niedriger.
Ich kann mir keinen Titan X/"980 Ti" Besitzer vorstellen, der nicht vorhat, seine Karte zu übertakten - bei 1.5GHz Chiptakt sind 3500MHz Speichertakt definitiv zu wenig, weil dann die Leistungssteigerung schlechter skaliert.
Abgesehen davon wird Fiji mit mindestens 640GB/sek. und 4096SPs kommen - wenn Nvidia gut kontern will, dann muss eine 980 Ti deutlich schneller sein als eine Titan X, welche nur 30-35% schneller ist als eine 980...
Und wie teurer (in Prozent) ist denn 8Gbps-Speicher als 7Gbps? Gibt doch sicher Preislisten bei den Speicherherstellern...
R2
aufkrawall
2015-04-20, 18:26:54
Hindert einen ja keiner dran, den Speicher ebenfalls zu übertakten.
Der Samsung-Speicher macht wohl recht häufig 4 bzw. 2Ghz stabil bei Spielen mit, evtl. übertakten die Boardpartner dann oder dürfen gleich selber 2Ghz Speicher verbauen, wenn das sinniger ist.
Godmode
2015-04-20, 18:57:02
Ich kann mir keinen Titan X/"980 Ti" Besitzer vorstellen, der nicht vorhat, seine Karte zu übertakten - bei 1.5GHz Chiptakt sind 3500MHz Speichertakt definitiv zu wenig, weil dann die Leistungssteigerung schlechter skaliert.
Abgesehen davon wird Fiji mit mindestens 640GB/sek. und 4096SPs kommen - wenn Nvidia gut kontern will, dann muss eine 980 Ti deutlich schneller sein als eine Titan X, welche nur 30-35% schneller ist als eine 980...
Und wie teurer (in Prozent) ist denn 8Gbps-Speicher als 7Gbps? Gibt doch sicher Preislisten bei den Speicherherstellern...
R2
Bei mir laufen 1500 Core, 4100 Mem auf beiden TXen ohne Probleme. Vielleicht messe ich mal die Skalierung von Core und Mem Clock.
fondness
2015-04-20, 19:46:17
Nicht jeder hat Lust sein Bios zu modden und damit die Garantie bei einer >1000 EUR Karte zu riskieren.
Godmode
2015-04-20, 20:14:44
Nicht jeder hat Lust sein Bios zu modden und damit die Garantie bei einer >1000 EUR Karte zu riskieren.
Tzz, das machen wir seit Generationen und passieren tut genau nie was. Genau so das OCing mit VCore Anhebung bei CPUs. Angstmacherei ist das, mehr nicht. Vielleicht reduziert sich die Lebenszeit des Chips um 50%, aber wo das Problem, länger als 3-4 Jahre kann man die Dinger eh nicht sinnvoll einsetzen. Und im Garantiefall wird maximal Board und co. auf sichtbare Beschädigungen überprüft. Glaubst du die gucken sich jedes BIOS, etc. genau an? Ich denk nicht das sich das rentiert.
Wenn der Hersteller keine gescheite Karte liefern kann, muss man eben selber Hand anlegen.
Knuddelbearli
2015-04-20, 20:31:38
Also ist Betrug ok solange es niemand merkt :redface:
Das erklärt wo das Geld herkommt um es für Titans rauszuschmeissen :freak:
Sunrise
2015-04-20, 20:34:00
Tzz, das machen wir seit Generationen und passieren tut genau nie was. Genau so das OCing mit VCore Anhebung bei CPUs. Angstmacherei ist das, mehr nicht. Vielleicht reduziert sich die Lebenszeit des Chips um 50%, aber wo das Problem, länger als 3-4 Jahre kann man die Dinger eh nicht sinnvoll einsetzen. Und im Garantiefall wird maximal Board und co. auf sichtbare Beschädigungen überprüft. Glaubst du die gucken sich jedes BIOS, etc. genau an? Ich denk nicht das sich das rentiert.
Wenn der Hersteller keine gescheite Karte liefern kann, muss man eben selber Hand anlegen.
Sehe ich ähnlich. NV hält sich doch sowieso nur deshalb zurück, weil sie so mehr Chips mit Titan X-Specs raushauen können und sich die Option offen halten, noch einen draufzusetzen.
Wenn man eine Titan X kauft macht es wenig Sinn nicht zu modden, das ist einfach nur unnötig verschenkte Leistung.
Das mit dem Garantiefall hättest du nicht erwähnen müssen, ich habe durch OC noch nichts kaputt bekommen. Den ASIC bekommst du sowieso nicht kaputt, vielmehr verreckt dir eine andere Komponente wegen Überhitzung, da müsste man aber selten dämlich agieren. Ob wirklich 450W Mods nötig sind, das muss aber jeder selbst wissen.
Godmode
2015-04-20, 20:52:17
Sehe ich ähnlich. NV hält sich doch sowieso nur deshalb zurück, weil sie so mehr Chips mit Titan X-Specs raushauen können und sich die Option offen halten, noch einen draufzusetzen.
Wenn man eine Titan X kauft macht es wenig Sinn nicht zu modden, das ist einfach nur unnötig verschenkte Leistung.
Das mit dem Garantiefall hättest du nicht erwähnen müssen, ich habe durch OC noch keine Karte kaputt bekommen. Den ASIC bekommst du sowieso nicht kaputt, vielmehr verreckt dir eine andere Komponente wegen Überhitzung, da müsste man aber selten dämlich agieren.
Punkt 1: Ja kann durchaus sein. Bzw. wie andere auch oft sagen, man will die Distanz zum Nachfolger nicht zu klein werden lassen, somit muss man GM200 ca. in der Mitte von GK110 und GP100 platzieren.
Punkt 2: Ja genau so ist es. Sonst würde auch eine GTX 980 reichen.
Punkt 3: Ebenfalls sao bei mir. Weder CPU noch GPU gingen bei mir durch OCIng drauf und das seit fast 20 Jahren. Also interessiert mich das Geschwätz da oben nicht die Bohne.
Rampage 2
2015-04-20, 20:59:57
Bei mir laufen 1500 Core, 4100 Mem auf beiden TXen ohne Probleme. Vielleicht messe ich mal die Skalierung von Core und Mem Clock.
Das ist schön - in der Tat schaffen das viele TX. Aber viele auch nicht, das heißt soviel wie: nicht alle TX schaffen das - man spielt also russisch Roulette und wenn man Pech hat, dann hat man "nur" 360-370GB Bandbreite...
R2
aufkrawall
2015-04-20, 22:16:10
Jetzt chill mal wegen des Speichertakts, +350Mhz sind schon 10% mehr Bandbreite.
Obs jetzt 3850 oder 4000 sind, merkt man eh nicht. Die Limitierung ist ohne MSAA meist sowieso nicht der Rede wert.
Rampage 2
2015-04-20, 22:58:52
Jetzt chill mal wegen des Speichertakts, +350Mhz sind schon 10% mehr Bandbreite.
Obs jetzt 3850 oder 4000 sind, merkt man eh nicht. Die Limitierung ist ohne MSAA meist sowieso nicht der Rede wert.
Ich hasse unrunde Zahlen... :mad:
Wenn NV seinen Käufern das Geld abziehen will, dann sollen seine Produkte auch entsprechend gut sein - für 1000€ (und auch für 800€ !!!) darf man eine GANZE MENGE verlangen...
R2
Disco_STFU
2015-04-20, 23:40:50
Verlangen darf man viel... WAs man bekommt steht wieder auf nem anderen Blatt. ;)
Lt. ComputerBase (http://www.computerbase.de/2015-04/geforce-gtx-980-ti-nvidia-plant-schnellere-gtx-titan-x-offenbar-schon-fuer-mai/) soll eine 980 Ti bereits im Mai kommen. GM200 im Vollausbau, 6 GiB Speicher, höherer Takt. Originalquelle ist baidu, diese Spricht auch über eine Pläne für eine weitere, noch schnellere Karte im September :confused: Arbeitet Nvidia wieder an einer Dual-Chip Lösung? Ein schnellerer Chip als GM200 für September ist doch sehr unwahrscheinlich?! 16FF sollte man ja auch ausschließen können
Sunrise
2015-04-22, 16:34:58
Nachdem was man so hört, soll es zwischen dem 16. und 26. Mai soweit sein. Die 6GB VRAM scheinen auch bestätigt.
Bei dem Teil mit der höheren Core-Frequenz im Vergleich zur Titan X und dennoch 3072 Shader-Aufbau mache ich allerdings ein großes Fragezeichen. Mehr Takt macht eigentlich nur dann Sinn, wenn der Core auch abgespeckt ist. Wenn beides dennoch wirklich so kommen sollte, dann hat NV eine mehr als bombastische Ausbeute bei 600mm², das ist extrem unwahrscheinlich. Hier kommt zusätzlich noch hinzu, dass GM200 aktuell nur sehr begrenzt lieferbar ist, was auch nicht für diese abartig gute Ausbeute spricht.
Dennoch wird das eine sehr interessante Karte. Bleibt noch der Preis, der zwischen $599 und maximal $799 liegen sollte.
Grestorn
2015-04-22, 16:41:02
Ich kann mir vorallem schlecht vorstellen, dass man den Titan X Käufern derart unverblümt in den Arsch tritt - nach so kurzer Zeit.
Das würde nur das Bild, das viele von nVidia haben, wirklich mal bestätigen.
Loeschzwerg
2015-04-22, 16:50:41
dass GM200 aktuell nur sehr begrenzt lieferbar ist, was auch nicht für diese abartig gute Ausbeute spricht.
Du meinst die Verfügbarkeit der Titan X? Da wird man sicher nicht Einheiten bis zum geht nicht mehr fertigen, denn es bleibt ein absolutes Enthusiasten Produkt welches nur "wenige" kaufen.
Ich würde da nicht auf die generelle Lieferbarkeit/Ausbeute des GM200 schließen.
Aber ich zweifle ebenfalls daran dass die GTX 980 Ti wirklich volle 3072 Cores aktiviert hat.
Godmode
2015-04-22, 17:06:16
Ich kann mir vorallem schlecht vorstellen, dass man den Titan X Käufern derart unverblümt in den Arsch tritt - nach so kurzer Zeit.
Das würde nur das Bild, das viele von nVidia haben, wirklich mal bestätigen.
Kann ich mir sehr gut vorstellen, weil bei Titan vs 780 Ti war es ja genau so. Die VRAM Verdoppelung haben sie sich einfach vergolden lassen. (Ja und DP war bei der Classic auch noch dabei).
Ailuros
2015-04-22, 17:18:05
Lt. ComputerBase (http://www.computerbase.de/2015-04/geforce-gtx-980-ti-nvidia-plant-schnellere-gtx-titan-x-offenbar-schon-fuer-mai/) soll eine 980 Ti bereits im Mai kommen. GM200 im Vollausbau, 6 GiB Speicher, höherer Takt. Originalquelle ist baidu, diese Spricht auch über eine Pläne für eine weitere, noch schnellere Karte im September :confused: Arbeitet Nvidia wieder an einer Dual-Chip Lösung? Ein schnellerer Chip als GM200 für September ist doch sehr unwahrscheinlich?! 16FF sollte man ja auch ausschließen können
Ich will zwar nichts ausschliessen aber Mai klingt mir etwas frueh fuer eine Fiji Reaktion. Ich dachte bisher eher dass eine solche erst nach dem Fiji release vorkommt.
Eine schnellere Karte im September? Klingt mir auch momentan absurd.
phoenix887
2015-04-22, 17:20:27
Wenn das wirklich so kommt, kaufe ich mir nie wieder ein Titan Produkt. Ist mir einfach zu doof, nach ein paar Monaten sich die Titan ad absurdum führen zu lassen, für mein Anwendungsgebiet.
Habe jetzt meine GTX980 so hoch übertaktet das mir eigentlich, die Ti Version fast schon egal ist.
Neue Karte dann wieder 2016 mit Pascal wahrscheinlich.
Blediator16
2015-04-22, 17:33:04
Wird immer so gesagt und am Ende kauft man sich es trotzdem :freak:
Sunrise
2015-04-22, 17:47:13
Wir können froh sein, wenn man in Zukunft überhaupt noch eine Wahl hat. Wenn NV jetzt selbst Fiji wieder mit Top-Selektion und deutlich höheren Margen drückt, wird es AMD schwer haben.
Aber mal abwarten, Totgesagte leben ja bekanntlich länger.
Ich will zwar nichts ausschliessen aber Mai klingt mir etwas frueh fuer eine Fiji Reaktion. Ich dachte bisher eher dass eine solche erst nach dem Fiji release vorkommt.
Eine schnellere Karte im September? Klingt mir auch momentan absurd.
Mir klingt es zumindest wahrscheinlicher als September. Zusätzlich steht noch dabei, dass die 980 TI geschätzt 10-20% schneller als Fiji XT werden wird, weil man mit weniger RAM deutlich höhere Frequenzen fahren kann. Kann natürlich alles wieder Quatsch sein, aber das klingt eigentlich recht plausibel.
Ailuros
2015-04-22, 17:56:33
Wenn man die gleiche Anzahl an Speicherchips fuer 12 vs. 6GB theoretisch hat, spart man inweifern irgendwelchen Strom dass man auf irgend eine Art ploetzlich dadurch hoeher takten kann....was verpass ich gerade?
Was ich eher schlucken koennte waere eine Wasserklosett Edition vom GM200 als Reaktion auf die WCE vom Fiji :D
Ich will zwar nichts ausschliessen aber Mai klingt mir etwas frueh fuer eine Fiji Reaktion. Ich dachte bisher eher dass eine solche erst nach dem Fiji release vorkommt.
Eine schnellere Karte im September? Klingt mir auch momentan absurd.
Macht für mich auch keinen Sinn, den Konkurrent vor Fiji zu bringen, gerade weil offenbar ziemlicher Spielraum da ist, was die Taktraten anbelangt. Da müsste sich Nvidia schon verdammt sicher sein.
Aber möglicherweise eine Dual-Chip Karte im September? Finde ich jetzt nicht soo abwegig. Wenn es stimmt, dass AMD eine Fiji VR bringt, könnte das zeitlich zusammenpassen, auch wenn gegen Ende des Jahres die VR Brillen auf den Markt kommen.
Es war auch nur von einer Vorstellung die Rede. Bei der Titan Z verging auch noch etwas Zeit zwischen Vorstellung und Release, wenn ich das noch richtig weiß.
Vielleicht dann auch mit 2 x salvage-GM200? Wenn die 980 Ti mit vollem GM200 kommt, hat man gar keine 'Abfallverwertung', sowohl von der Leistung her als auch der Namensgebung passt da auch kaum noch was rein. Oder kann es etwa sein, dass in dem Verfahren gar nichts mehr groß anfällt, was verwertet werden müsste :confused:
Zusätzlich steht noch dabei, dass die 980 TI geschätzt 10-20% schneller als Fiji XT werden wird, weil man mit weniger RAM deutlich höhere Frequenzen fahren kann. Kann natürlich alles wieder Quatsch sein, aber das klingt eigentlich recht plausibel.
Von welcher Quelle sprichst du jetzt genau? Also bei baidu steht gar nichts dergleichen.
aufkrawall
2015-04-22, 18:02:59
Gibt mehrere simple Optionen:
1. bessere Chips
2. besserer Kühler
3. höhere Drehzahl
Da so ziemlich jede Titan X mehr Takt mitmacht als default, sollte schneller überhaupt keine Schwierigkeit darstellen.
Reichen ja ein paar popelige Mhz, und mehr bieten dann Custom Designs (mit höherer TDP).
Sunrise
2015-04-22, 18:07:33
Wenn man die gleiche Anzahl an Speicherchips fuer 12 vs. 6GB theoretisch hat, spart man inweifern irgendwelchen Strom dass man auf irgend eine Art ploetzlich dadurch hoeher takten kann....was verpass ich gerade?
Liefen die dickeren Module nicht mit mehr Spannung? Oder verwechsel ich das gerade mit den 8Gbps GDDR5 Modulen? Bei einem von beiden war definitiv eine höhere Spannung notwendig. Bin gerade unterwegs.
maguumo
2015-04-22, 18:12:03
Das 8Gbps (4000MHz) Zeugs von Hynix braucht 1.55V, 7Gbps brauchen 1.5V.
http://puu.sh/hmZ6p/05036dd563.jpg
http://hynix.com/products/support/databook.jsp
4Gb, 8Gbps: 1.55V
4Gb, 7GBps: 1.50V
2Gb, 7GBps: 1.55V
Demnach bräuchte man mit gleich vielen, gleich schnellen 2Gb Chips sogar mehr Strom. Oder man nimmt halb so viele ohne clamshell, dann hat er Recht.
maguumo
2015-04-22, 18:18:40
Den Großteil vom Strom verbrät doch sowieso das SI selbst wenn ich das richtig verstanden habe, von daher wären (noch) höhere Frequenzen wohl ungut.
mironicus
2015-04-22, 18:35:16
Die Titan X hat jetzt nur die weniger guten Chips erhalten, die guten kriegt jetzt die 980 Ti inkl. höherem Takt und geringerem Stromverbrauch und höherem Powerlimit weil die Hersteller jetzt ihre eigenen Designs verwenden dürfen.
Muhahahahaha... :D
Den Großteil vom Strom verbrät doch sowieso das SI selbst wenn ich das richtig verstanden habe, von daher wären (noch) höhere Frequenzen wohl ungut.
Für Hawaii habe ich bezüglich der HBM Folien so 50 (SI) + 30 (Speicher) W im Kopf. Das SI ist dabei aber um ein Drittel größer, die Takte jedoch niedriger als bei der Titan X. Dafür sind es auch nur 16 Chips statt 24.
Ein paar Watt würde man schon sparen, wenn es halb so viele Speicherchips sein sollten
aufkrawall
2015-04-22, 18:46:08
Die Titan X hat jetzt nur die weniger guten Chips erhalten, die guten kriegt jetzt die 980 Ti inkl. höherem Takt und geringerem Stromverbrauch und höherem Powerlimit weil die Hersteller jetzt ihre eigenen Designs verwenden dürfen.
Muhahahahaha... :D
War auch letztes Mal schon so.
maguumo
2015-04-22, 18:53:18
Ein paar Watt würde man schon sparen, wenn es halb so viele Speicherchips sein sollten
Klar, nur bezweifle ich das das reicht um den höheren Verbrauch des SI auszugleichen wenn man dann 8Gbps GDDR5 nutzt.
aufkrawall
2015-04-22, 20:15:20
Ich habe es gerade mal schnell getestet, und es macht bei Codas Computeshader Raytracing Benchmark vielleicht 1% Unterschied bei dem von der Karte ermittelten Stromverbrauch (3,5 vs 4Ghz).
Die höhere Spannung des 4Ghz-Speichers dürfte einen stärkeren Einfluss haben.
robbitop
2015-04-22, 20:32:59
War auch letztes Mal schon so.
Letztes Mal war der Grund ein Respin (780Ti war B1, Titan Classic war A1) - nicht dass man Chips gesammelt hätte.
Es wäre unlogisch Chips für ein billiges Produkt zu sammeln anstatt für das Premiumprodukt zu nutzen (leichter Übertreibung ^^).
Godmode
2015-04-22, 20:34:02
Die Titan X hat jetzt nur die weniger guten Chips erhalten, die guten kriegt jetzt die 980 Ti inkl. höherem Takt und geringerem Stromverbrauch und höherem Powerlimit weil die Hersteller jetzt ihre eigenen Designs verwenden dürfen.
Muhahahahaha... :D
Es war von Anfang an klar dass eine 980 Ti kommen wird und diese eventuell eine neuere Revision des Chips bekommt. Ich habe mich ganz bewusst für eine Titan X entschieden, eben weil diese 12 GB Speicher mitbringt und ich darin einen Nutzen für SLI sehe. Das SLI jetzt nicht mit meinem G-Sync Monitor harmoniert, ist natürlich eine andere Geschichte, die erstmal geklärt werden muss. :uexplode:
Ailuros
2015-04-22, 20:56:47
Das SLI jetzt nicht mit meinem G-Sync Monitor harmoniert, ist natürlich eine andere Geschichte, die erstmal geklärt werden muss. :uexplode:
Ist zwar ziemlich OT aber bei der Summe die Du ausgegeben hast wuerde ich gegen NV ziemlich donnern in Deinen Schuhen. Genauso wie ein anderer im anderen Forum der 2 RMAs machen musste um endlich eine operative 295X2 in die Haende zu bekommen. :freak:
Godmode
2015-04-22, 21:06:56
Ist zwar ziemlich OT aber bei der Summe die Du ausgegeben hast wuerde ich gegen NV ziemlich donnern in Deinen Schuhen. Genauso wie ein anderer im anderen Forum der 2 RMAs machen musste um endlich eine operative 295X2 in die Haende zu bekommen. :freak:
Genau das mache ich ja, nur hilft das wohl genau gar nichts. Nvidia ist das einfach egal, siehe 970 Debakel. Am besten wäre einfach die zweite TX zu verkaufen und Ruhe haben und in Zukunft auf eine Konsole wechseln. :mad:
http://s2.quickmeme.com/img/a3/a3e74e84b75879442f73df18e67c1e0c8cb93e5919a4b3f1baba511bfa3e6cb8.jpg
aufkrawall
2015-04-22, 21:24:40
Ein bisschen Mitschuld hast du aber selber schon, weil vieles nachlesbar war, mitunter im FAQ von NV zu DSR.
Godmode
2015-04-22, 21:30:10
Ein bisschen Mitschuld hast du aber selber schon, weil vieles nachlesbar war, mitunter im FAQ von NV zu DSR.
Mir war bekannt das G-Sync + SLI + DSR nicht gleichzeitig geht. Ich ging aber immer davon aus, das man zumindest G-Sync deaktivieren kann und dann SLI + DSR funktionieren.
Aber das jetzt 3D-Vision + SLI + Rog Swift auch noch kaputt ist, das stand nirgendswo.
Grestorn
2015-04-22, 21:33:27
Mir war bekannt das G-Sync + SLI + DSR nicht gleichzeitig geht. Ich ging aber immer davon aus, das man zumindest G-Sync deaktivieren kann und dann SLI + DSR funktionieren. Hättest Du mal nachgefragt...
Aber das jetzt 3D-Vision + SLI + Rog Swift auch noch kaputt ist, das stand nirgendswo.Das wird ja hoffentlich wieder behoben. Es gibt ja keinen technischen Grund für diese Einschränkung.
-/\-CruNcher-/\-
2015-04-22, 21:41:55
Wird immer so gesagt und am Ende kauft man sich es trotzdem :freak:
Schlies nie von dir auf andere, sagte schon meine Großmutter ;)
maguumo
2015-04-22, 23:13:53
Ich habe es gerade mal schnell getestet, und es macht bei Codas Computeshader Raytracing Benchmark vielleicht 1% Unterschied bei dem von der Karte ermittelten Stromverbrauch (3,5 vs 4Ghz).
Die höhere Spannung des 4Ghz-Speichers dürfte einen stärkeren Einfluss haben.
Wie verlässlich ist das was die Grafikkarte ausliest überhaupt, hat da irgendwer genauere Infos zu? Meine Karte spuckt unter GPU-Z jedenfalls immer deutlich mehr aus als das was bei Tomshardware gemessen wurde, und das ist ja soweit ich das beurteilen kann an Präzision kaum zu übertreffen. Ich meine Igor Wallossek hatte da sogar mal was zu geschrieben, nur weiß ich gerade nicht mehr was oder wo...
Ich kenne mich damit auch nicht aus, nur nach dem was man damals bei Hawaii gelesen hatte und auch nach den Infos und Vergleichen die zu HBM kamen bin ich zu dem Eindruck gekommen das die GDDR5 SIs schlucken ohne Ende wenn man die Taktfrequenzen hoch prügelt.
aufkrawall
2015-04-22, 23:22:28
Wird schon ungefähr stimmen, bei 15% mehr Core-Takt geht die gemessene Board-Power schon einige Prozent hoch.
Natürlich alles bei möglichst gleichen Temperaturen.
N0Thing
2015-04-23, 01:40:06
Ich kann mir vorallem schlecht vorstellen, dass man den Titan X Käufern derart unverblümt in den Arsch tritt - nach so kurzer Zeit.
Das würde nur das Bild, das viele von nVidia haben, wirklich mal bestätigen.
Juckt nur niemanden, der nicht sowieso blind von Nvidia kauft.
Daß sich Nvidia Rücksicht auf Kundeninteressen sparen kann, haben sie sowohl bei der ersten Titan als auch nach der GTX 970 gemerkt. Es kaufen trotzdem weiterhin genug Leute ihre Hardware. Solange AMD nicht etwas Besseres in allen Bereichen liefern kann, gibt es für Nvidia keinen Grund, nicht weiterhin auf maximale Einnahmen zu setzen.
Cubitus
2015-05-03, 09:54:56
Juckt nur niemanden, der nicht sowieso blind von Nvidia kauft.
Daß sich Nvidia Rücksicht auf Kundeninteressen sparen kann, haben sie sowohl bei der ersten Titan als auch nach der GTX 970 gemerkt. Es kaufen trotzdem weiterhin genug Leute ihre Hardware. Solange AMD nicht etwas Besseres in allen Bereichen liefern kann, gibt es für Nvidia keinen Grund, nicht weiterhin auf maximale Einnahmen zu setzen.
Aggressives Marketing plus quasi Monopolstellung.. genau..
Wobei ich persönlich nichts gegen die 970er habe, ist weiterhin eine tolle Karte..
Aber Nvidias Gebahren mit dem Kunden ist einfach nicht mehr das was es mal war.. Die Stimmung kann ganz schnell wieder umschlagen sobald AMD eine "bessere" Karte auf den Markt wirft.
TitanX relativ uninteressant falls die TI wirklich so dick kommt wie vermutet..Aber Einige TitanX Käufer, verzeihen das Nvidia sicher.. Denn Grafik-Leistung wird ja stetig benötigt.. Kann doch Nvidia nichts dafür wenn die Freaks nicht warten können ihre Kohle auszugeben!? ;D
Die sind ja schließlich ein börsennotiertes Unternehmen welche für Ihre Aktionäre nur das Beste wollen. Da bleibt einem doch gar nichts anderes übrig als treuer Kunde Verständnis aufzubringen.. Vor allem weil die TitanX ja bis dato die schnellste Singel-GPU Karte ist, da spricht Nvidia zu 100% die Wahrheit, da wären im Prinzip bis zu 1500 Euro machbar!
Aber zum Glück entschied man sich für die symbolischen 999 Dollar.. :massa: Und das haben wir zum großen Teil den Partnern zu verdanken, welche bei der Preigestaltung bestimmt mitgewirkt haben. Weil Nvidia nicht klar war wie Viel Geld Sie für Ihr geiles Stück an Hardware überhaupt verlangen dürfen.
Und wer mit dem System nicht klar kommt, soll am Besten zu den Emish migrieren und aufhören hier zu trollen :D
PS: Wobei auch, wenn die TI dicke kommen sollte, wäre schon zu überlegen ob eine Investition in 28nm überhaupt noch Sinn macht..:uponder:
Ähm die 980ti bekommt (sollte sie so erscheinen) sowieso nur den Salvage Part - wo soll der salvage-Krempel sonst hin? Die Rosinen zur Titan, der Rest in den Mainsteam.
Grestorn
2015-05-03, 11:10:07
Das wäre für die Titan X Käufer zwar schön (für die 980Ti Kunden eher weniger), aber ich glaube nicht so recht daran. Man wird sehen...
fondness
2015-05-03, 11:19:26
Auf jeden Fall braucht NV dann noch irgend eine Möglichkeit die Teildefekten Chips unterzubringen. Wenn das Ding tatsächlich 980Ti heißen wird und alle 3072 SPs haben wird sehe ich da relativ wenig Platz zur normalen 980 wo man noch einen Chip unterbringen könnte. Außer man schafft es wirklich das Zeug alles im Profimarkt zu verkaufen.
AnarchX
2015-05-03, 11:51:31
Ein 21 SMM Variante hatten ja die Chinesen / Boardpartner zum Testen. Wenn das mit GM200-310 stimmt, könnten da schon ein paar SMM fehlen. 780 Ti / Titan BE waren ja beides GK110-4xx.
Anders als AMD mit ihrem HBM kann da NV sich noch eine ganze Reihe an Varianten bauen - 10GiB / 320-Bit wären als Herbst-Angebot für 4K - High-Res-Texturen Spieler wohl nicht ganz uninteressant.
Rampage 2
2015-05-04, 17:32:13
Ich habe es gerade mal schnell getestet, und es macht bei Codas Computeshader Raytracing Benchmark vielleicht 1% Unterschied bei dem von der Karte ermittelten Stromverbrauch (3,5 vs 4Ghz).
Die höhere Spannung des 4Ghz-Speichers dürfte einen stärkeren Einfluss haben.
Die Spannung der 8Gbps-Version von Hynix ist nur 3,3% höher als die der 7Gbps-Version.
Wie stark würde da der reale Anstieg des Stromverbrauchs ausfallen? Wahrscheinlich nicht mal 5% ...
R2
Hübie
2015-05-04, 18:42:36
Bei VRAM ist es nicht so einfach pauschal zu sagen wie hoch der Verbrauch ist, da (logischerweise) bei r/w bzw. refresh am meisten verballert wird, nur passiert dies, besonders bei 12 GB nicht sehr häufig. EVGA hat so ein Tool (Abwandlung vom Kombuster etc) wo es ein VRAM Auslastungstest gibt. Vielleicht damit noch mal gegen halten. Die Frage des Sinns stelle ich jetzt mal nicht ;)
Die Spannung der 8Gbps-Version von Hynix ist nur 3,3% höher als die der 7Gbps-Version.
Wie stark würde da der reale Anstieg des Stromverbrauchs ausfallen? Wahrscheinlich nicht mal 5% ...
R2
Früher hieß es mal: Spannung geht quadratisch, Frequenz linear in die Leistungsaufnahme ein. Dann hätten wir hier:
(1.033^2)/7*8 = 1.2195
Also 22% mehr.
Wie genau diese doch sehr grobe Faustregel noch gilt, weiß ich allerdings nicht.
basix
2015-05-04, 21:47:48
Früher hieß es mal: Spannung geht quadratisch, Frequenz linear in die Leistungsaufnahme ein. Dann hätten wir hier:
(1.033^2)/7*8 = 1.2195
Also 22% mehr.
Wie genau diese doch sehr grobe Faustregel noch gilt, weiß ich allerdings nicht.
Die Formel gilt immer noch ;) Dass Verlustleistung in einem Leiter im Quadrat mit der Spannung zunimmt ist ein universelles Gesetz in der Elektrotechnik. Ebenso dass die Schaltverluste linear mit der Frequenz ansteigen.
Bei IC's wird das mit der folgenden Formel zusammengefasst:
Schaltverluste MOSFET = C*U2*f/2
Aus Sicht der Elektrotechnik ist mir das klar. Aber soweit ich weiß haben in letzter Zeit die frequenzunabhängigen Leckströme aufgrund der kleiner werdenden Strukturen stark zugenommen, wenn sie nicht mittlerweile sogar dominant sind. Daher meine Relativierung oben.
Hübie
2015-05-04, 22:35:59
Man designed damit sogar schon. :freak:
basix
2015-05-04, 22:41:28
Aus Sicht der Elektrotechnik ist mir das klar. Aber soweit ich weiß haben in letzter Zeit die frequenzunabhängigen Leckströme aufgrund der kleiner werdenden Strukturen stark zugenommen, wenn sie nicht mittlerweile sogar dominant sind. Daher meine Relativierung oben.
Da hast du recht. Auch die "normalen" Leckströme nehmen zu. Also einigen wir uns auf mindestens im Quadrat :D
Hier hat einer was (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10624250&postcount=5585) von neuen Grafikkarten geschrieben:
GM200 als GB 980ti
GM204 980 8GB mit leicht mit höherem Takt
GM204 970 7+1GB mit leicht höheren Takt (evtl. auch echten 8GB aber weniger Takterhöhung)
Gibts dafür Quellen?
Sunrise
2015-05-14, 13:32:10
Hier hat einer was (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10624250&postcount=5585) von neuen Grafikkarten geschrieben:
Gibts dafür Quellen?
Wenn NV den Preis der 980 (die 970 lass ich mal weg) aufgrund von Fiji nicht senken will, müssen sie mehr bieten. Ist deshalb garnicht so unwahrscheinlich, da der GDDR5-Aufpreis erstens verschwindend gering sein wird und GM204 auch sehr hohe Takte mitmacht. Ist vor allem ein kleinerer Die, da hat NV sehr viel Margenspielraum.
mironicus
2015-05-14, 14:02:14
Wenn Fiji nur 4 GB besitzt, hat NVidia leichtes Spiel mit einer 6 GB 980 Ti.
Sunrise
2015-05-14, 14:09:54
Wenn Fiji nur 4 GB besitzt, hat NVidia leichtes Spiel mit einer 6 GB 980 Ti.
Die 980 Ti willst du aber möglichst teuer verkaufen, vs. Fiji XT bzw. Fiji XT Wasserweißich.
Also brauchst du um AMD maximal zu bombardieren (NV hat Zeit ohne Ende mit minimalem Mehraufwand) auch darunter nochwas. Wenn AMD den Fiji-Salvage abverkauft, kannst du diese mit einer überarbeiteten 980 zusätzlich auch angreifen und deine generellen Margen soweit möglich sichern.
Ist ja weiterhin wichtig, einen Preis-Leistungshammer im Portfolio zu haben. Die 980 Ti wird deshalb ja so interessant, so ne aufgedrehte 980 mit 8GB sicher auch.
Es wäre eben eine perfekte Reaktion, bis Pascal kommt.
Hübie
2015-05-14, 14:17:43
nVidia hat eine 8GB-Version des GM204 nicht freigegeben. Das wird wohl auch nicht kommen.
Sunrise
2015-05-14, 14:23:47
nVidia hat eine 8GB-Version des GM204 nicht freigegeben. Das wird wohl auch nicht kommen.
NV macht das ja permanent, um die Preise schön hochzuhalten und kommende Karten nicht schlechter aussehen zu lassen. Wie oft sie das machen, hast du ja bei GK110 gesehen. Jetzt kommt vor allem noch Konkurrenz dazu. NV agiert nach dem Prinzip: "Was interessiert mich mein Geschwätz von gestern."
Ob das wirklich auch mit GM204 passiert ist zweifelhaft, aber wir werden sehen. Das einzige Gegenargument, das mir einfällt ist, dass die 980 mit 8GB mehr VRAM als die 980 Ti hätte, was etwas komisch aussähe.
Hübie
2015-05-14, 14:28:24
Es gibt einige EVGA-Mitarbeiter die eine 6GB-780Ti im Rechner stecken haben ;) ;D Rate mal was die vor hatten...
Sunrise
2015-05-14, 14:34:29
Es gibt einige EVGA-Mitarbeiter die eine 6GB-780Ti im Rechner stecken haben ;) ;D Rate mal was die vor hatten...
...sie bei eBay zu vertickern?
War das nicht die Kingpin, die nachträglich zurechtgestutzt wurde, weil NV es Ihnen untersagt hatte, mit mehr VRAM zu verkaufen?
Grestorn
2015-05-14, 14:49:17
Vergesst bitte nicht, dass es auch im Sinne von eVGA ist, wenn es keine 6 GB 780Ti bzw. 8 GB 980 gibt. Es sei denn, sie wären der einzige Anbieter einer solchen Karte. nVidia müsste das also wenn für alle oder für keinen zulassen, und ich glaube nicht, dass sie die OEMs sonderlich darüber aufregen. Auch die verdienen an einer Titan X deutlich mehr als einer gewöhnlichen 980.
Sunrise
2015-05-14, 15:04:02
Wenn NV aufgrund von Fiji den Preis der 980 senken muss, verdienen die mit einer besseren 980 mehr als mit einer Titan X. Die geringen Mengen der Titan X vs. einer GM204-basierenden GPU sind da eher ausschlaggebend.
Der aktuelle Preis kann mit Fiji-Release jedenfalls nicht gehalten werden. AMD müsste da den Salvage deutlich drüber verkaufen und mit 4GB ist das quasi ausgeschlossen.
Die 970 verkauft dann nochmal etliche mehr, da NVs aktueller Preishit. Dass sich NV so beträchtlich in die Margen beißen lassen würde, wäre sehr ungewöhnlich für NV. Und klar, sie müssen natürlich allen AIBs ggü. dies auch erlauben, nicht nur EVGA.
Bei der 980 Ti soll ja vom Start weg gleich alles möglich sein, bis auf die 12GB der Titan X (und evtl. dem vollen Shadercount).
Hübie
2015-05-15, 09:32:07
Man darf ja nicht verwechseln wer da wieviel "verdient" - diesen Begriff im Zusammenhang mit einer GeForce für über Tausend Euro zu benutzen ist etwas unpassend - und wer welche Marge hat. Schätzungsweise haben die customer shops die geringste Spanne.
@Sunrise: Einmal Kingkong und dann ne classified Version war geplant. Titan Black hats zwar gerichtet verkaufte sich aber bei weitem nicht so gut wie der erste Titan. Auch die X verkauft sich nicht besser. Zwei Shops sagten zwar zu Release seien mehr Bestellungen eingegangen aber mittlerweile schleppt es sich.
Dawn on Titan
2015-05-15, 10:34:54
GM204 8GB geht, es ist halt noch nicht freigegeben, was bei NV bedeutet - jetzt noch nicht. Ist wie 680 -> 770. (wer soll Samsung auch sonst diese Rams abkaufen? : http://wccftech.com/nvidia-geforce-gtx-970-980-8gb-gddr5-variants-q2-2015-hints-sdram-scheduled-availability/ - die 8000er auf nem GM204...)
GM200 könnte man als Vollausbau mit 6GB oder 320Bit cut mit 10GB bringen.
Option 6Gb wird es geben wenn R390 stark ist, Option b wenn er weniger stark ist.
hasebaer
2015-05-16, 20:40:54
Von der GTX 980 werden wir keine 8GB Version sehen.
Da kann AMD bringen was sie wollen, interessiert doch eh keine Sau.
Aber eine 8GB GTX 980 würde die 6GB GTX 980Ti sowie den 320Bit/5GB GM200 Salvage* gefährden.
8GB sehen wir dann erst mit GP204 irgendwann 2016.
* der kommen muss, Nvidia braucht ein Produkt dafür, wenn die GTX 980Ti als Vollausbau nochmal schneller als Titan X ist.
Zumal schon zwischen Titan X und der GTX "980 Out of the Box" ~ 25% Unterschied liegen, da passt noch ein Salvage rein.
Blediator16
2015-05-16, 22:20:19
Von der GTX 980 werden wir keine 8GB Version sehen.
Da kann AMD bringen was sie wollen, interessiert doch eh keine Sau.
Aber eine 8GB GTX 980 würde die 6GB GTX 980Ti sowie den 320Bit/5GB GM200 Salvage* gefährden.
8GB sehen wir dann erst mit GP204 irgendwann 2016.
* der kommen muss, Nvidia braucht ein Produkt dafür, wenn die GTX 980Ti als Vollausbau nochmal schneller als Titan X ist.
Zumal schon zwischen Titan X und der GTX "980 Out of the Box" ~ 25% Unterschied liegen, da passt noch ein Salvage rein.
Jau AMD kommt ja demnächst nur mit einer brandneuen Speicherform daher juckt aber keinen nech :freak:
hasebaer
2015-05-16, 23:28:09
Wenn es um Marktanteile im zweistelligen Berich geht, dann muss die R9 390X mindestens 8GB VRAM haben, 30% schneller und nochmal 10% sparsamer sein, als eine GTX Titan X.
HBM hilft AMD ein paar Watt einzusparen, hoffentlich.
Aber sonst?! Eine R9 290X hängt nur wenig bis garnicht nicht an der Bandbreite, siehe CB (http://www.computerbase.de/2015-05/amd-fiji-mit-hbm-hawaii-profitiert-nur-wenig-von-mehr-bandbreite/#diagramm-radeon-r9-290x-speicherperformance-2560-1440).
Da kommt also auch mit 640GB/s nicht viel rum.
Und auch wenn die 4096SPs stimmen, mehr als ein GHz Takt wird die R9 390X nicht haben (Quelle: mein Bauchgefühl),
da braucht man nicht lange rechnen, ausgehend von Tonga, landet man im Idealfall dann bei einer Titan X +10%.
Das reicht nicht um Nvidia im großen Stil Kunden abzujagen.
Raspo
2015-05-16, 23:47:37
Seh ich nicht so.
Wenn die Radeon, sagen wir mal zur Titan X +10% hat und günstiger ist sollte was gehen.
boxleitnerb
2015-05-17, 00:02:56
Als die 7970 GHz kam (Juni 2012), hat NVs Marktanteil sogar noch zugenommen, von 59,3% in Q2 2012 auf 66% in Q4 2012. So vorhersehbar ist der Markt nicht, dass man sagen könnte, hier kann AMD leicht zurückgewinnen.
Knuddelbearli
2015-05-17, 00:09:03
Naja Marktanteile werden vor allem bei den OEMs gewonnen und die verbauen bei Intel CPU fast ausschließlich NV. kA wie AMD dagegen angehen könnte ...
TurricanM3
2015-05-17, 00:09:28
Mich wunderts das auf den leaks die 980Ti langsamer ist als die TX?
hasebaer
2015-05-17, 00:28:07
Seh ich nicht so.
Wenn die Radeon, sagen wir mal zur Titan X +10% hat und günstiger ist sollte was gehen.
Die +10% wird auch die 980Ti bieten und günstiger kommt die auch.
Na ja ok, sicher nicht so viel günstiger,... aber wie auch immer ... boxleitnerb hat den Punkt grad gebracht,
selbst im Zeiten wo Nvidia zurück lag, konnten sie ihren Marktanteil noch ausbauen.
Da muss AMD schon einen echt fiesen Rammbock bringen, nicht "einfach nur einen Hammer".
Aktuell schaut es aber noch nicht mal danach aus, als ob selbst so fiese Nummern, wie dem GTX 970 VRAM-Gate, Nvidia auch nur einen Prozentpunkt Marktanteil einbüßen muss.
Und dabei war die gesamte Komunikation zu dem Sachverhalt einfach nur arrogant seitens Nvidia.
Aber sie können es sich leisten, weil AMD nicht auf Augenhöhe mitspielt.
Raspo
2015-05-17, 00:48:25
Der Rammbock kommt wohl eher nicht denke ich.
Vielen würde ein rundes Produkt aus Leistung / Preis / (Verbrauch/Features/evtl. Design) schon reichen. Im High End / Enthusiastbereich natürlich (Definition ist fließend ich weiß.)
reaperrr
2015-05-17, 02:11:34
Aber sonst?! Eine R9 290X hängt nur wenig bis garnicht nicht an der Bandbreite, siehe CB (http://www.computerbase.de/2015-05/amd-fiji-mit-hbm-hawaii-profitiert-nur-wenig-von-mehr-bandbreite/#diagramm-radeon-r9-290x-speicherperformance-2560-1440).
Da kommt also auch mit 640GB/s nicht viel rum.
Kein MSAA, kein SSAA, kein Downsampling, kein 4k. Wie soll die Bandbreite da auch groß limitieren?
Und in den getesteten Einstellungen reichen in mind. 95% der Spiele übrigens auch 4GB.
Mich wunderts das auf den leaks die 980Ti langsamer ist als die TX?
Unabhängig davon, ob die Leaks echt oder Fake sind, GM200 ist satte 600mm² groß, noch 70mm² größer als GK110. Die Ausbeute an Chips mit vollen Specs wird deutlich schlechter als bei GM204 sein, und wie weit NV die GTX 970 beschnitten hat sieht man ja.
Ich gehe davon aus, dass die 980 Ti zwar etwas höher taktet als die TX, aber nur ~20-22 aktive SMM und evtl. auch nur 352+32bit/5.5GB+0.5GB Speicher/88ROP/2,75MB L2 haben wird (diesmal dann natürlich auch offiziell).
Mit anderen Worten, von den Specs her könnte die 980 Ti eher ein Nachfolger für die 780 ohne Ti sein. Macht auch Sinn, dann brechen die TX-Käufe nicht so stark ein.
Dawn on Titan
2015-05-17, 09:00:52
Der Prozess ist auch deutlich reifer als er war als GK110 neu war. Die Yields an vollen Chips dürften inzwischen sehr gut sein.
Mancko
2015-05-17, 11:47:22
NV macht das ja permanent, um die Preise schön hochzuhalten und kommende Karten nicht schlechter aussehen zu lassen. Wie oft sie das machen, hast du ja bei GK110 gesehen. Jetzt kommt vor allem noch Konkurrenz dazu. NV agiert nach dem Prinzip: "Was interessiert mich mein Geschwätz von gestern."
Genau das und das ist auch die einzig richtige Strategie um so viel Marge und Gewinn mitzunehmen wie möglich. Nvidia macht immer das, was im augenblicklichen Moment des Marktes opportun und zum eigenen Vorteil ist. Wenn die der Meinung sind, dass eine 8GB 980 Sinn macht, dann machen die das ohne Rücksicht auf Verluste und wenn nicht, dann eben nicht.
Nvidia ist zudem extrem gut darin die Produktpalette und deren Spezifikationen im Griff zu haben. Die schreiben ihren Partnern knallhart vor was wie umzusetzen und erlaubt ist. Bisher hätte eine 8GB 980 nur das eigene Margenbild verwässert. Mit anders aussehender Konkurrenzsituation kann es aber sein, dass so etwas Sinn macht. Das wird sich noch zeigen.
fondness
2015-05-17, 11:59:46
Als die 7970 GHz kam (Juni 2012), hat NVs Marktanteil sogar noch zugenommen, von 59,3% in Q2 2012 auf 66% in Q4 2012. So vorhersehbar ist der Markt nicht, dass man sagen könnte, hier kann AMD leicht zurückgewinnen.
Das lag allerdings am Notebook Markt, den Nvidia mit Kepler deutlich zu ihren Gunsten drehen konnte.
Der Prozess ist auch deutlich reifer als er war als GK110 neu war. Die Yields an vollen Chips dürften inzwischen sehr gut sein.
Dennoch braucht Nvidia eine Salvage-SKU, sonst landen die teildefekten GM200-Chips in der Tonne. Ich glaube nicht an einen Vollausbau, sondern eher an einen höheren Kerntakt bei weniger SMMs (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/387484-geforce-gtx-980-ti-angeblich-sicher-mit-6-gibyte-vram.html#post7358665).
MfG,
Raff
Thunder99
2015-05-17, 12:07:30
Es soll ja ein 3xx Bezeichnung sein. Daher kein Vollausbau schätze ich
Dawn on Titan
2015-05-17, 13:30:15
Dennoch braucht Nvidia eine Salvage-SKU, sonst landen die teildefekten GM200-Chips in der Tonne. Ich glaube nicht an einen Vollausbau, sondern eher an einen höheren Kerntakt bei weniger SMMs (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/387484-geforce-gtx-980-ti-angeblich-sicher-mit-6-gibyte-vram.html#post7358665).
MfG,
Raff
Die könnte man im OEM Bereich versenken, aber ich tendiere auch zu einer 320Bit SKU.
Thunder99
2015-05-17, 13:57:50
Zwischen GTX980TI und Titan X? 6GB sollen anscheinend ziemlich sicher sein -> 384bit
dildo4u
2015-05-17, 14:02:30
Das ist bei Maxwell eh nicht mehr gekoppelt siehe 970,vielleicht ist wieder was vom V-Ram langsamer.
robbitop
2015-05-17, 14:03:45
Hehe 5 GB + 1 GB Bremsklotz? :D
Ich glaube aber nicht, dass NV sowas nochmal bringen wird nach dem Shitstorm...
dildo4u
2015-05-17, 14:06:59
Und ich glaube nich das man da kurzfristig drauf reagieren kann wenn solche GPU's Jahre in Entwicklung sind.
robbitop
2015-05-17, 14:12:37
Das ist nichts was man entwickelt, sondern per Lasercut oder Ähnliches an und ausknipsen kann. Genau wie man SMMs ausknipst oder Intel bestimmte Features in ihren günstigeren CPUs ausknipst.
Salvage eben.
dildo4u
2015-05-17, 14:18:18
Das meine ich doch wenn sich Big Maxwell wie der kleine Verhält hat man die selbe Situation.Interessant wird nur wie es beworben wird als beschnittenes Interface oder wie bei der 970 als volles Interface.
Thunder99
2015-05-17, 14:21:27
Das werden wohl hoffentlich die Hardware Seiten explizit prüfen. Sonst wird das mega peinlich
reaperrr
2015-05-17, 14:26:46
Hehe 5 GB + 1 GB Bremsklotz? :D
Ich glaube aber nicht, dass NV sowas nochmal bringen wird nach dem Shitstorm...
Es wären immerhin 5.5GB@352bit+0.5GB@32bit bei 88 ROPs u. 2,75MB L2, es hängen immer 2x32bit, 2x8 ROPs und 2x256KB L2 zusammen, von denen sich jetzt eben anders als bei Kepler die Hälfte deaktivieren lässt.
Solange man das gleich offen kommuniziert (und was anderes kann sich NV diesmal im Grunde nicht leisten) und die korrekte Bandbreite, Menge an ROPs u. L2 usw. angibt, ist das immer noch besser als reine 5GB-320bit-80 ROP-2,5MB L2. Nun, in der Praxis vielleicht nicht immer, aber in der Theorie:biggrin:
Edgecrusher86
2015-05-17, 14:40:22
Das wird so mit Sicherheit nicht kommen bei einem 500€+ Produkt. Wenn die Ti 699 bis 799€ kostet, müsste so eine Karte, vorausgesetzt die 980 wird nicht im Preis gesenkt, bei locker 599€ landen. ;)
Vermutlich wird es dann auch keine 5 und 10GB-Version geben - TITAN X wird dann wie letzte Gen mit doppeltem VRAM vor den normalen High-End-Karten stehen, vermute ich. :)
Eventuell bringt man aber noch eine 10GB Quadro - das könnte ich mir eher vorstellen.
Thunder99
2015-05-17, 14:52:52
So lange wie die Konkurrenz nicht in ihrem High End Gefilde wildert wird es eine Karte geben die außerhalb der GTX[Nummer] Serie liegt.
robbitop
2015-05-17, 15:17:01
Das meine ich doch wenn sich Big Maxwell wie der kleine Verhält hat man die selbe Situation.Interessant wird nur wie es beworben wird als beschnittenes Interface oder wie bei der 970 als volles Interface.
Und ich meine, dass man sich nach dem 970er Shitstorm auch einfach dazu entschließen könnte, das SI ganz zu lassen. Also 6 GiB @384bit. Oder aber den Speichercontroller ganz auszuknipsen und 5 GiB @320 bit und 2 Bausteine dann auch gar nicht erst zu verlöten. Ginge alles.
Oder aber man macht es exakt wie bei der 970 und geht damit aber offen um.
aufkrawall
2015-05-17, 15:18:58
Kann man sogar machen, wenn Fiji keine 8GB hat.
robbitop
2015-05-17, 15:19:37
NV kann machen was sie wollen. Wird sowieso gekauft. :D
aufkrawall
2015-05-17, 15:24:58
Wär irgendwie aber auch mickrig, nur 1GB mehr schneller Speicher als bei 980/Hawaii, inklusive Bug-Risiko für Dinge wie die Freezes mit der 970.
Wird sich verkaufen, aber ich würd davon abraten.
Nicht 4k tauglich, aber auch nicht der große Knaller in WQHD, ausgehend von einer 980.
robbitop
2015-05-17, 15:29:42
Je nach Anspruch ist nichtmal eine TX @1,4 GHz "4K tauglich". ;)
TurricanM3
2015-05-17, 15:30:48
Durchgesickert wann das NDA fällt ist noch nirgends oder?
aufkrawall
2015-05-17, 15:34:02
Aber es gibt nichts besseres, und womöglich bleibts dieses Jahr auch dabei. Damit hat sie ihren Sinn.
Falls es wirklich Salvage wäre, wäre die Differenz zur 980 noch geringer (weil prozentual weniger OC gehen dürfte), und das mit den "6"GB zum überteuerten Preis (oberhalb der 980)?
Es soll ja ein größerer Markt als mit der X bedient werden, aber das dürfte mit dem kolportierten Preis für so ein zerstückeltes Produkt schwierig sein.
Hübie
2015-05-17, 15:44:59
Dieses Mal gibt's keinen Grund zwei volle Chips für große Preisdifferenz anzubieten, womit wohl klar ist dass GM200 nur für 750 oder 1000€ zu haben ist. Hatte eigentlich anderes gehört (3*GM200) aber das ist eh immer vage.
Fiji bleibt meine stille Hoffnung. :freak:
Thunder99
2015-05-17, 15:49:51
Mit 22 Dinger und 1,1 Base Clock ist man eher knapp hinter der Titan X
Hübie
2015-05-17, 16:27:51
Dinger X-D
Palpatin
2015-05-19, 08:17:34
Je nach Anspruch ist nichtmal eine TX @1,4 GHz "4K tauglich". ;)
Für die die einen solchen Anspruch haben, gibt es eigentlich auch keinen Gaming tauglichen 4k Monitor. :rolleyes:
robbitop
2015-05-19, 09:14:09
Für die die einen solchen Anspruch haben, gibt es eigentlich auch keinen Gaming tauglichen 4k Monitor. :rolleyes:
Ich verstehe nicht was die "rolleyes" sollen. Ich habe eine Titan X, die neusten Spiele da, kann mittels DSR testen und weiß fachlich wovon ich spreche.
Genug Engines haben immernoch eine zähe/schwammige Maus unterhalb von 50 fps. Auch GTA5 fühlt sich die Maus so richtig kompromissfrei und direkt erst über 50 fps an.
Das gilt nicht für alle Spiele und immer. Aber es kommt oft genug vor. Wenn man bereit ist, bei der Schwammigkeit der Maus ein wenig Kompromisse einzugehen ist oder mit Gamepad spielt, gehen auch weniger fps. Gerade mit Gamepad merkt man das kaum. Aber die Maus ist viel viel direkter gekoppelt (an die motorische und visuelle Feedbackschleife).
Wenn man ein Spiel z.B. Multiplayer spielt, wird der oben genannte Fakt noch wichtiger. Im Singleplayer ist es nicht so extrem wichtig.
Gutes Bspw ist GTA5. Da habe ich schon ein paar Regler runtergedreht, damit 4K@1440p immer und überall mit >50 fps möglich sind. Hin und wieder gab es auch da Stellen wo man bei 40 fps lag. Ist ok für Singleplayer. Dann habe ich GTA Online gespielt - und dort habe ich nach kurzem Testen sofort DSR weg gelassen, weil man da jedes bisschen Flüssigkeit haben will. Und tatsächlich war das Zielen (und Treffen) gleich deutlich besser.
Hübie
2015-05-19, 09:34:56
Wo er Recht hat, hat er Recht. DSR ist allein wegen des Filters was anderes als 4k-Monitor. Dazu gesellen sich input-lag, Reaktionszeit und Diagonale wirklicher 4k-Geräte. Hab nun schön öfter gehört dass selbst 32" 4k oft ein zu kleines Schriftbild in Spielen darbietet. Besonders ärgerlich wenn dies nicht manuell zu beheben ist. Also so wirklich ist 4k noch nicht massentauglich.
Dazu fehlen dann halt auch passende Grafikkarten. SLi mal außen vor. Ich z. B. bin davon kuriert ;)
Edit: Und die rollenden Augen galten imo mehr dem Marktzustand als dir :P
fondness
2015-05-22, 15:00:19
Leistung knapp unterhalb der TITAN X, Takt identisch, ist wohl irgendwas deaktiviert:
http://videocardz.com/55566/nvidia-geforce-gtx-980-ti-performance-benchmarks
The GTX 980 Ti reviews should be up before computer expo in Taipei. First review samples were already sent out, and we should be seeing more leaks in the coming days. We have been told that reviews might be posted next week. NVIDIA is allegedly planning a launch of SHIELD TV console on May 28th, so perhaps we will see 980 Ti at the same day?
Rente
2015-05-22, 15:05:29
Wo siehst du da was von unterhalb? Die Abweichung ist so minimal das man da durchaus von identisch sprechen kann, ich denke nicht das da was deaktiviert wurde.
Ich hoffe aber natürlich auch das diesmal direkt von Anfang an ordentlich getestet und hinterfragt wird...
Dural
2015-05-22, 15:19:08
Eine Einheit wird wohl deaktiviert sein.
Langsam stellt sich wohl heraus das es doch nicht völlig unklug war eine Titan X zum Start zu holen, könnte bis Mitte 2016 die schnellste Karte bleiben. Hätte ich selber damals nicht mal für möglich gehalten.
dildo4u
2015-05-22, 15:20:44
980TI könnte höher Boosten,das würde sie auf ein Level mit Titan X bringen selbst wenn sie beschnitten ist.Macht Sinn da 6GB weniger am TDP ziehen als 12.
maguumo
2015-05-22, 15:43:50
Ich bezweifle das der halbierte VRAM großartig was am Stromverbrauch ändert. Das dürften deutlich unter 10W sein, damit kann man bei so einer Karte nicht wirklich was anfangen. Ein paar deaktivierte SMMs dürften da deutlich mehr ausmachen. Abgesehen davon schluckt die Karte vielleicht auch einfach mehr, wenn Custom Kühler erlaubt sind sollte das ja kein Problem sein...
Troyan
2015-05-22, 16:44:30
22SMM:
http://forums.anandtech.com/showthread.php?t=2432281
AnarchX
2015-05-22, 17:04:32
Da bleibt ja noch Platz für eine 18-20 SMM GTX 980 5GiB für Weihnachten.
Godmode
2015-05-22, 17:17:42
Eine Einheit wird wohl deaktiviert sein.
Langsam stellt sich wohl heraus das es doch nicht völlig unklug war eine Titan X zum Start zu holen, könnte bis Mitte 2016 die schnellste Karte bleiben. Hätte ich selber damals nicht mal für möglich gehalten.
Selbst wenn die TI@Stock schneller wäre als eine TX@Stock würde ich den Kauf nicht bereuen, VRAM FTW. Gegen meine beiden unlocked-wakü-TXen@1,5GHz wird lange nichts ankommen, außer FIJI ist wirklich so verdammt schnell. Ansonsten frühestens Anfang nächstes Jahr im Frühjahr mit dem GPx04 Mainstream Chip. Mit GP100 rechne ich erst Ende 2016 Anfang 2017 und da wird dann wieder aufgerüstet.
Dural
2015-05-22, 17:33:33
Sogar nur 22SMM :rolleyes:
Da muss man sich wohl ernsthaft überlegen doch noch eine Titan zukaufen.
Dural
2015-05-22, 17:35:27
Sogar nur 22SMM :rolleyes:
Da muss man sich wohl ernsthaft überlegen doch noch eine Titan zukaufen. Ausser Fiji ist mit der Titan auf Augenhöhe, das kann ich mir Aktuell aber nicht wirklich vorstellen :(
Agent117
2015-05-22, 17:37:49
Aber in Fire Strike im Extreme und Ultra Mode schneller als die Titan X.
Ich kenne jetzt nicht die Settings von Ultra und Extreme verglichen mit "normal" aber vlt wird ja auf der 980Ti 8Ghz schneller Speicher verbaut und der schlägt hier durch.
Wäre dann schon leicht beschissen für die Titan Käufer:biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.